Appearance
Introducing Chat2API
我们相信在AI时代,Agent将像工业革命时期的机器一样无处不在。正如人类通过掌握工具改变了世界,Agent掌握工具的能力也同样重要。
而在信息时代,这些工具就是遍布各处的API。Chat2API的使命,就是让Agent能合理准确地使用这些API。然后从这里出发,最终让 AI 真正像一个外包员工那样为企业做经验密集型的事情,让人类做更具创造力的事情。
Chat2API 是什么
为了达到这个目标,Chat2API会提供工具(API)管理、模型的工具使用能力评估,同时也能让企业客户快速"调制"出最懂企业API调用的私有大模型。
首先,Chat2API需要用户上传自己的API文档,然后系统会自动将API文档转换为大语言模型可以理解的工具使用说明书。
其次, Chat2API来评估不同模型对这个工具(API)的使用准确性。比如在下图中,我们看到针对不同API,不同模型对这个工具的使用准确性。对于准确率高的工具,Agent开发者可以优先放在Agent当中使用。
最后, 对于准确率不高的工具,开发者可以继续在Chat2API中进行模型微调来提升准确性。根据我们测试,在企业内部,Chat2API可以提升模型准确率10%。模型训练好之后,用户可以通过配置API keys来使用该模型。
通过这样简单的操作流程,企业的普通 API 文档就能快速转化为 AI 模型可以理解和使用的工具。
为什么要用Chat2API
和通用的工具使用模型相比,Chat2API对于企业来说:更透明、更快、更安全、更低成本。
- 更透明
Chat2API提供了针对每个API(工具)的翻译能力,让企业不用盲目选择模型,而是可以根据每个API的"翻译能力"来选择模型和工具。
- 更快
如果没有Chat2API的时候,开发者需要做以下事情:
- 生成规范的API schema;
- 根据API schema生成大量数据;
- 微调模型;
- 按照API的方法评估模型
而Chat2API让用户仅操作几分钟时间,加上模型训练的等待时间(小时级别),就可以收获这样一个模型,并能开箱即用。
- 更安全
如果您对安全有要求,Chat2API支持私有化部署。因为实现工具使用需要把企业内部的工具说明书发给大模型,其中有企业内部接口的参数名称,参数的描述,参数格式要求等等,发给通用模型会带来数据泄露隐患,通过私有化模型可以让企业放心地使用。
- 更低成本
我们知道,模型的使用成本由模型参数量决定。目前工具调用准确率较高的通用模型,参数量都在100B以上,而我们提供的模型参数量是7B,只有传说中GPT-4o模型参数量的1/30。虽然参数量小,但准确率和GPT-4o相比持平,和同样参数量级的 GPT-4o mini 相比,准确率高出 5 个百分点(如下图)。
🤝 邀请合作
在这里邀请您和我们一起合作,现阶段我们将提供免费算力来助力Agent在您的企业内部落地。
致谢
在今天这个新的起点上,要感谢支持chat2API项目的宽带资本AI坊和西云算力的丹摩智算平台。
几个月前,我和我的伙伴在雁栖湖畔向大家说出我们的想法,加入宽带资本AI坊,启动了这个项目。到今天,有了算力和资本的支持,我们的脚步更加快速,并且还会更快,在AI的技术演进浪潮中成就自己。
合作伙伴: