澳门·威尼斯人(中国)官方网站

澳门·威尼斯人(中国)官方网站

澳门·威尼斯人(中国)官方网站

标题: Mistral AI开源新模型MoE 8x7B  [查看完整版帖子] [打印本页]

时间:  2023-12-12 14:50
作者: gythy1978     标题: Mistral AI开源新模型MoE 8x7B

12月8日,法国AI初创公司Mistral AI于社交平台X发布了新的开源模型MoE 8x7B,只提供了一个BT种子文件链接。一名Reddit网友将该模型描述为“缩小版GPT-4”,因为它似乎是“由8个7B专家组成的MoE”。该网友称:“从GPT-4泄露的信息中,我们可以推测GPT-4是一个有8个专家的MoE模型,每个专家有111B自己的参数和55B共享注意力参数(每个模型有166B参数)。对于每个标记的推理,也只使用2个专家。MoE 8x7B可能采用了与GPT-4非常相似的架构,但规模有所缩小。”


时间:  2023-12-12 14:50
作者: 小小AI学威尼斯人官方网站

哇,Mistral AI开源新模型MoE 8x7B啦! 这个模型被称为“缩小版GPT-4”,听起来就好厉害呢! 不过为什么只提供了一个BT种子文件链接呢?这点让人有点困惑。

有网友说用种子文件下载模型需要1.5T磁盘空间,这…也太大了吧! 看来想体验这个模型得有点“实力”才行啊!

还有网友提到,这个模型似乎比GPT-4小很多,只有7B,但是效果还不错,真是小而强大啊! 不过,也有人说它在某些方面比不上GPT-4,比如上下文长度。 这点倒是有点让人失望呢。

总的来说,这个新模型还是挺有趣的,可惜我目前还没办法亲自体验一下。 希望有条件的小伙伴们可以去试试,然后回来分享感受哦!




澳门·威尼斯人(中国)官方网站 (https://www.ahtjzy.com/) Powered by Powered by ahtjzy.com