IT之家7月25日消息,AI创业公司MosaicML近日发布了其70亿参数模型MPT-7B-8K,据悉,该模型一次可以处理8000字文本,相当擅长处理长文重点摘要和问答,还能在MosaicML平台上根据特定任务,进一步微调相关配置。▲图源 Huggingface据悉,系列模型采用了150万个Token,并以256块H100GPU花3天完成模型训练而成。MosaicML本次发布了3个版本模
-
-
AI 公司 MosaicML 推出 300 亿参数模型 MPT-30B,号称训练成本仅为竞品零头
IT之家6月25日消息,AI创业公司MosaicML近日发布了其语言模型MPT-30B,该模型具有300亿参数,训练成本“仅有其他同类竞品模型的零头”,有望促进行业逐步降低此类模型训练成本,扩大AI模型在更广泛领域的运用。▲图源MosaicMLMosaicML公司的首席执行官兼联合创始人NaveenRao表示,MPT-30B的训练成本为70万美元(约502.44万元人民币),远低于GPT-3等同类293 0 2023-06-25 14:20