零一万物发布 Yi 大模型API开放平台 首批开放3款大模型

3月14日消息,零一万物正式发布 Yi 大模型 API 开放平台,今天起为开发者提供通用 Chat「Yi-34B-Chat-0205」、200k 超长上下文「Yi-34B-Chat-200K」、多模态交互「Yi-VL-Plus」模型。

在全球多项权威评测榜单中,Yi 大模型表现优异,性能直追 GPT-4。此前,Yi 大模型 API已经小范围开放内测,全球已有不少开发者申请使用,并普遍反馈效果超出预期。基于此,此次Yi 大模型 API 正式推出3款模型,给开发者更多惊喜。

目前,Yi 大模型API名额限量开放中,新用户赠送60元。Yi 大模型 API 与 OpenAI API 完全兼容,开发者只需修改少量代码,可以平滑迁移。

此次 Yi 大模型 API 开放平台提供以下模型:

• Yi-34B-Chat-0205:支持通用聊天、问答、对话、写作、翻译等功能。

• Yi-34B-Chat-200K:200K 上下文,多文档阅读理解、超长知识库构建小能手。

• Yi-VL-Plus: 多模态模型,支持文本、视觉多模态输入,中文图表体验超过 GPT-4V。

零一万物API开放平台链接:https://platform.lingyiwanwu.com/

零一万物Yi-34B-Chat-200K模型支持处理约 30 万个中英文字符,适合用于多篇文档内容理解、海量数据分析挖掘和跨领域知识融合等,在“大海捞针”测试中,Yi-34B-Chat-200K的性能提高了10.5%,从89.3%提升到99.8%。

例如,金融分析师可以用Yi-34B-Chat-200K模型快速阅读报告并预测市场趋势、律师可以用它精准解读法律条文、科研人员可以用它高效提取论文要点、文学爱好者可以用它快速掌握作品精髓等,应用场景非常广泛。

Yi-34B-Chat-200K 对经典文学作品《呼啸山庄》进行复杂角色和角色关系的归纳总结

零一万物开发的多模态模型 Yi-VL-Plus,可支持文本、视觉多模态输入,面向实际应用场景大幅增强,包括:

增强Charts, Table, Inforgraphics, Screenshot 识别能力,支持复杂图表理解、信息提取、问答以及推理。中文图表体验超过GPT4V;

Yi-VL-Plus模型在一些中文图表理解场景,比GPT-4V准确率更高

在 Yi-VL 基础上进一步提高了图片分辨率,模型支持 1024*1024 分辨率输入,显著提高生产力场景中的文字、数字 OCR 的准确性;

保持了 LLM 通用语言、知识、推理、指令跟随等能力。

同时,零一万物还表示,近期零一万物将为开发者提供更多更强模型和 AI 开发框架,提供更加丰富和灵活的开发工具,以适应多样化的应用场景。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2024-03-14
零一万物发布 Yi 大模型API开放平台 首批开放3款大模型
【TechWeb】3月14日消息,零一万物正式发布 Yi 大模型 API 开放平台,今天起为开发者提供通用 Chat「Yi-34B-Chat-0205」、200

长按扫码 阅读全文