Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了289,959,551字

标签 > 标签文章:#mosaicml# (共有2文章)

  • AI 公司 MosaicML 推出 70 亿参数模型 MPT-7B-8,号称“一次处理 8000 字长文本、可商用”

    AI 公司 MosaicML 推出 70 亿参数模型 MPT-7B-8,号称“一次处理 8000 字长文本、可商用”
    IT之家7月25日消息,AI创业公司MosaicML近日发布了其70亿参数模型MPT-7B-8K,据悉,该模型一次可以处理8000字文本,相当擅长处理长文重点摘要和问答,还能在MosaicML平台上根据特定任务,进一步微调相关配置。▲图源 Huggingface据悉,系列模型采用了150万个Token,并以256块H100GPU花3天完成模型训练而成。MosaicML本次发布了3个版本模

     152    0    2023-07-25 15:54

  • AI 公司 MosaicML 推出 300 亿参数模型 MPT-30B,号称训练成本仅为竞品零头

    AI 公司 MosaicML 推出 300 亿参数模型 MPT-30B,号称训练成本仅为竞品零头
    IT之家6月25日消息,AI创业公司MosaicML近日发布了其语言模型MPT-30B,该模型具有300亿参数,训练成本“仅有其他同类竞品模型的零头”,有望促进行业逐步降低此类模型训练成本,扩大AI模型在更广泛领域的运用。▲图源MosaicMLMosaicML公司的首席执行官兼联合创始人NaveenRao表示,MPT-30B的训练成本为70万美元(约502.44万元人民币),远低于GPT-3等同类

     293    0    2023-06-25 14:20

  • 1