热搜: 佳士科技irobot开云电竞官网下载app机器人机器人产业联盟ABB发那科机械手码垛机器人机器人展览

AI 公司 MosaicML 推出 70 亿参数模型 MPT-7B-8,号称“一次处理 8000 字长文本、可商用”

日期:2023-07-26 来源:IT之家 评论:0
标签: AI 科技 创新
  AI创业公司MosaicML近日发布了其70亿参数模型MPT-7B-8K,据悉,该模型一次可以处理8000字文本,相当擅长处理长文重点摘要和问答,还能在MosaicML平台上根据特定任务,进一步微调相关配置。

微信图片_20230726085047
▲图源Huggingface
  据悉,系列模型采用了150万个Token,并以256块H100 GPU花3天完成模型训练而成。MosaicML本次发布了3个版本模型,包括MPT-7B-8k、MPT-7B-8k-Instruct和MPT-7B-8k-Chat。
  其中,第一个版本MPT-7B-8k、是以Transformer解码器为基础,并以FlashAttention和FasterTransformer机制来加速训练与推论,能一次处理8000字文本,MosaicML公司表示,该模型开源、允许商用。
  第二个版本MPT-7B-8k-Instruct是以第一个版本MPT-7B-8k微调而成,MosaicML公司表示,MPT-7B-8k-Instruct模型可处理长篇指令,特别注重于生成“摘要和问答”,该模型一样开源且可商用。
  第三个版本MPT-7B-8k-Chat则是 机器人对话式的AI模型,MosaicML公司宣称,该模型额外多用了15亿个聊天数据Token,在第一版模型MPT-7B-8k之上继续训练而成,该模型开源,但不允许商用。
  IT之家此前报道,MosaicML公司也推出了一款号称训练成本仅为竞品零头的MPT-30B开源模型,该公司日前已将所有开源模型发布于Huggingface平台,感兴趣的小伙伴们可以前往进行相关了解,还可以在本地硬件上使用自己的数据,在下载后,对模型进行各种微调。
声明:凡开云电子链接 来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与开云客户(www.www.wykobounce.com)联系,本网站将迅速给您回应并做处理。
电话:021-39553798-8007
更多> 相关开云电子链接
0 相关评论

推荐图文
推荐开云电子链接
点击排行
Baidu
map