Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,678,528字

该文章投稿至Nemo社区   资讯  板块 复制链接


基于“书生”技术体系,商汤宣布通用视觉平台 OpenGVLab 正式发布并开源

发布于 2022/02/25 13:05 347浏览 0回复 422

IT之家 2 月 25 日消息,去年 11 月,上海人工智能实验室联合商汤科技、香港中文大学、上海交通大学,联合发布了通用视觉技术体系“书生”(INTERN)。

今日,商汤科技宣布基于“书生”技术体系的通用视觉平台 OpenGVLab 正式发布并开源

OpenGVLab

▲ 通用视觉平台 OpenGVLab | 图源:商汤科技

IT之家了解到,商汤科技表示,OpenGVLab 开放的内容包括其超高效预训练模型,和千万级精标注、十万级标签量的公开数据集,为全球开发者提升各类下游视觉任务模型训练提供重要支持。同时,OpenGVLab 还同步开放业内首个针对通用视觉模型的评测基准。

目前,OpenGVLab 开源平台(opengvlab.shlab.org.cn)已正式上线,供各界研究人员访问和使用。后续,项目还将开通在线推理功能,供所有对人工智能视觉技术感兴趣的社会人士自由体验。

相关阅读:

人工智能技术加持,新一代通用视觉技术体系“书生”正式发布


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/604/744.htm]

本文标签
 {{tag}}
点了个评