IT之家 5 月 26 日消息,微软在今年 4 月至 5 月陆续公布了一系列 Phi-3 小语言模型 (SLM),相关模型号称“轻巧到可以在移动设备上运行”,同时具备视觉能力,能够理解文字和图片,主要用于低功耗计算场景。
目前英特尔发布新闻稿,声称目前开发人员已经就 Phi-3 模型对自家 Gaudi AI 加速器、Xeon 和 Core Ultra CPU、Arc 显卡进行优化,从而进一步降低相关软硬件运行 AI 模型的门槛:
我们正在利用行业最新的 AI 模型和软件为客户提供和开发人员强大的人工智能解决方案,目前我们正与微软积极合作,确保英特尔硬件(涵盖数据中心、边缘计算和客户端设备)能够完全支持微软旗下 Phi-3 模型,从而将 AI‘带到任何地方’。
对于 Phi-3 系列模型,IT之家此前陆续进行了一些介绍,感兴趣的小伙伴可以查看下方文章获取更多详情:
《iPhone 上本地每秒生成 12 个 tokens,微软发布 phi-3-mini 模型:38 亿参数》
《微软深夜再掀 AI 生产力革命:阿尔特曼登台“自曝”新模型》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/770/722.htm]