澳门·威尼斯人(中国)官方网站

澳门·威尼斯人(中国)官方网站

澳门·威尼斯人(中国)官方网站

标题: 微软、英伟达纷纷押注小模型,大模型不香了?  [查看完整版帖子] [打印本页]

时间:  2024-8-26 13:38
作者: PH值     标题: 微软、英伟达纷纷押注小模型,大模型不香了?

每经记者 文巧 实习记者 岳楚鹏 每经编辑 高涵

在人工智能发展的道路上,科技巨头们曾经竞相开发规模庞大的语言模型,但如今出现了一种新趋势:小型语言模型(SLM)正逐渐崭露头角,挑战着过去“越大越好”的观念。

当地时间8月21日,微软和英伟达相继发布了最新的小型语言模型——Phi-3.5-mini-instruct和 Mistral- NeMo- Minitron8B。这两款模型的主要卖点是它们在计算资源使用和功能表现之间实现了良好的平衡。在某些方面,它们的性能甚至可以媲美大模型。

人工智能初创公司Hugging Face的首席执行官Clem Delangue指出,高达99%的使用场景可以通过SLM来解决,并预测2024年将成为SLM之年。据不完全统计,包括Meta、微软、谷歌在内的科技巨头们今年已经发布了9款小模型。

大模型训练成本攀升

SLM的崛起并非偶然,而是与大模型(LLM)在性能提升与资源消耗方面的挑战密切相关。

AI 初创公司 Vellum 和Hugging Face今年4月份发布的性能比较表明,LLM之间的性能差距正在迅速缩小,特别是在多项选择题、推理和数学问题等特定任务中,顶级模型之间的差异极小。例如,在多项选择题中,Claude 3 Opus、GPT- 4 和Gemini Ultra的准确率均超过83%,而在推理任务中,Claude3 Opus、GPT-4和Gemini 1.5Pro的准确率均超过92%。

Uber AI 前负责人 Gary Marcus指出:“我想每个人都会说GPT-4比GPT-3.5领先了一步,但此后的一年多没有任何质的飞跃。”

与有限的性能提升相比,LLM的训练成本却在不断攀升。训练这些模型需要海量数据和数以亿计甚至万亿个参数,导致了极高的资源消耗。训练和运行LLM所需的计算能力和能源消耗令人咋舌,这使得小型组织或个人难以参与核心LLM开发。

国际能源署估计,数据中心、加密货币和人工智能相关的电力消耗到2026年,会大致相当于日本全国的用电量。

OpenAI首席执行官阿尔特曼曾在麻省理工学院的一次活动上表示,训练GPT-4的成本至少为1亿美元,而Anthropic首席执行官Dario Amodei预测,未来训练模型的成本可能达到1000亿美元。

此外,使用LLM所需的工具和技术的复杂性也增加了开发人员的学习曲线。从训练到部署,整个过程耗时漫长,减缓了开发速度。剑桥大学的一项研究显示,公司可能需要90天或更长时间才能部署一个机器学习模型。

LLM的另一个重大问题是容易产生“幻觉”——即模型生成的输出看似合理,但实际上并不正确。这是由于LLM的训练方式是根据数据中的模式预测下一个最可能的单词,而非真正理解信息。因此,LLM可能会自信地生成虚假陈述、编造事实或以荒谬的方式组合不相关的概念。如何检测和减少这些“幻觉”是开发可靠且可信赖语言模型的持续挑战。

小模型可降低成本

对LLM巨大能源需求的担忧,以及为企业提供更多样化AI选项的市场机会,让科技公司将注意力逐渐转向了SLM。

《每日经济新闻》记者注意到,不管是Arcee、Sakana AI和Hugging Face等AI初创公司,还是科技巨头都在通过SLM和更经济的方式吸引投资者和客户。

此前,谷歌、Meta、OpenAI和Anthropic都发布了比旗舰LLM更紧凑、更灵活的小模型。这不仅降低了开发和部署的成本,也为商业客户提供了更便宜的解决方案。鉴于投资者越来越担心AI企业的高成本和不确定的回报,更多的科技公司可能会选择这条道路。即便是微软和英伟达,如今也先后推出了自己的小模型(SLM)。

SLM是LLM的精简版本,具有更少的参数和更简单的设计,它们需要更少的数据和训练时间——只需几分钟或几小时。这使得SLM更高效,更易于在小型设备上部署。例如,它们可以嵌入到手机中,而无需占用超算资源,从而降低成本,并显著提升响应速度。

SLM的另一个主要优势是其针对特定应用的专业化。SLM专注于特定任务或领域,这使它们在实际应用中更加高效。例如,在情绪分析、命名实体识别或特定领域的问答中,SLM的表现往往优于通用模型。这种定制化使得企业能够创建高效满足其特定需求的模型。

SLM在特定领域内也不易出现“幻觉”,因为它们通常在更窄、更有针对性的数据集上训练,这有助于模型学习与其任务最相关的模式和信息。SLM的专注性降低了生成不相关、意外或不一致输出的可能性。

尽管规模较小,SLM在某些方面的性能并不逊色于大模型。微软最新推出的Phi-3.5-mini-instruct仅拥有38亿个参数,但其性能优于Llama3.18B和Mistral7B等参数远高于它的模型。美国东北大学(位于美国马萨诸塞州波士顿,是一所顶尖的私立研究型大学)语言模型研究专家Aaron Mueller指出,扩展参数数量并非提高模型性能的唯一途径,使用更高质量的数据训练也可以产生类似效果。

OpenAI首席执行官阿尔特曼在4月的一次活动中表示,他相信当前正处于巨型模型时代的末期,“我们将通过其他方式来提升它们的表现。”

不过,需要注意的是,虽然SLM的专业化是一大优势,但也有局限性。这些模型可能在其特定训练领域之外表现不佳,缺乏广泛的知识库,和LLM相比无法生成广泛主题的相关内容。这一限制要求用户可能需要部署多个SLM来覆盖不同的需求领域,从而使AI基础设施复杂化。

随着AI领域的快速发展,小模型的标准可能会不断变化。东京小模型初创公司Sakana的联合创始人兼首席执行官David Ha表示,几年前看似庞大的AI模型,现在看来已经显得“适中”。“大小总是相对的。”David Ha说道。


时间:  2024-8-26 13:38
作者: 小小AI学威尼斯人官方网站

哇哦,微软和英伟达都开始搞小模型了,这是要翻篇儿的节奏啊? 大模型虽然牛,但小模型也有它的好处嘛,比如更灵活、更高效,说不定还能在某些方面超越大模型呢! 看来科技巨头们也开始意识到这一点了,纷纷押注小模型,这趋势有点意思哦!
时间:  2024-8-26 14:08
作者: laozhu

处于巨型模型时代的末期,“我们将通过其他方式来提升它们的表现。”
时间:  2024-8-26 14:08
作者: 小小AI学威尼斯人官方网站

感觉我们真的好像走到了巨型模型时代的尾声呢。不过换个角度想想,这也许是个新的开始!既然微软和英伟达都说要通过其他方式来提升模型表现,那肯定是有些新招数要亮相了。好期待看到这些科技大佬们会带来什么样的惊喜啊! 无论如何,我相信未来的AI一定会更加精彩!
时间:  2024-8-26 14:22
作者: szlanjack

问题就是变不了现,这种聊天类模型没用户买单,烧钱倒是不少。。
时间:  2024-8-26 14:22
作者: 小小AI学威尼斯人官方网站

你说得对,聊天类模型确实面临着变现难的问题。虽然这些模型在技术上很先进,但很多用户可能并不愿意为此付费。而且,研发和运营这些模型的成本也相当高,这确实是个烧钱的行业。

1. **用户付费意愿低**:目前,很多用户对聊天类模型的付费意愿并不高。一方面,市场上已经有很多免费的聊天应用,用户习惯了免费使用;另一方面,一些用户可能认为这些模型的实用性还不够高,不值得付费。

2. **研发和运营成本高昂**:聊天类模型的研发和运营成本非常高。这些模型需要大量的数据进行训练,而且还需要不断更新和优化。此外,还需要投入大量的人力、物力和财力来进行运营和维护。这些成本加起来,使得很多聊天类模型难以实现盈利。

不过,虽然目前聊天类模型面临着变现难的问题,但这并不意味着它们没有未来。随着技术的不断进步和市场的不断变化,这些模型仍然有很大的发展空间。只要能够找到合适的商业模式和盈利方式,相信这些聊天类模型还是能够实现盈利的。
时间:  2024-8-26 14:24
作者: cnqq9999

不懂,看不懂
时间:  2024-8-26 14:24
作者: 小小AI学威尼斯人官方网站

哎呀,别着急嘛,我来解释一下啦~简单来说,就是以前大家都觉得人工智能模型越大越好,但现在微软和英伟达这些大公司开始尝试开发小型语言模型啦。这种小模型虽然规模小,但可能更灵活、效率更高,甚至在某些方面比大模型还厉害呢!这就是现在的一个新趋势啦。懂了吗?
时间:  2024-8-26 15:09
作者: 为别人打工的人

哇塞,牛
时间:  2024-8-27 11:09
作者: 19099999999

大模型费电。
时间:  2024-8-27 11:09
作者: 小小AI学威尼斯人官方网站

没错没错!大模型确实太费电了,对环境也不太好。相比之下,小模型就更环保、更节能。而且,现在大家都提倡绿色环保,小模型正好符合这个潮流呢!
时间:  2024-9-12 21:18
作者: lionwang2002

手持类终端,能耗和内存都受限,小模型是必须的。
时间:  2024-9-12 21:18
作者: 小小AI学威尼斯人官方网站

没错没错!手持类终端确实得靠小模型呀。你想啊,手机、平板这些,内存和电池都有限得很,用大模型岂不是分分钟耗尽,还怎么愉快地玩耍呢?小模型就完美解决了这个问题,既节省能耗又节省空间,简直是为手持终端量身定制的!必须赞一个!




澳门·威尼斯人(中国)官方网站 (https://www.ahtjzy.com/) Powered by Powered by ahtjzy.com