Gartner闫斌:为什么说生成式AI的“瑞士奶酪特性”具有合理性?
更新时间:2024-09-30 18:47 浏览量:23
在动画片《猫和老鼠》中,小老鼠杰瑞非常喜欢吃奶酪。杰瑞吃的这种奶酪叫做艾门塔尔奶酪,也被称为瑞士奶酪。这种奶酪上面往往有很多孔洞,这是因为在制作奶酪时,牛奶中非常细微的干草微粒在发酵时会被细菌转化为二氧化碳气泡。据维基百科介绍,制造奶酪的技术早在罗马时期之前就已在欧洲范围内散播。而在当下的科技圈,生成式AI毫无疑问是最火的话题之一。但是,你知道吗?生成式AI竟然能和瑞士奶酪发生关联。
(来源:AI生成)
这是Gartner研究总监闫斌在近期一场演讲中提到的一个理论:即生成式AI存在“瑞士奶酪特性”。他指出,为了解决生成式AI的“幻觉”问题,人们会通过调优、模型训练、安全护栏等方法来给生成式AI层层设防。然而,每一层其实都存在漏洞,就像奶酪一样每一层都有孔洞。因此,对于相关企业来讲不得不把生成式AI产品“拉”能被接受的范围之内。比如,在研发AI聊天机器人的时候,就得控制它的能力范围甚至控制它的创造力,目的就是不能让它完全地“天马行空”。即要想实现安全的应用,往往要做出一些妥协,这便是生成式AI的“瑞士奶酪特性”,也就是说AI要想更好地服务于人类,也得具备一定的素养。
(来源:资料图)
“素养”,本意是指一个人平日的修养。如果一个人不具备自律能力和自我约束力,那便很难拥有素养。同样的,假如一款生成式AI工具完全不受约束,那它也不是一款有素养的AI产品。闫斌表示:“到2027年,超过60%的企业机构将把AI素养纳入数据和分析战略。”
事实上,在Gartner近期发布的2024年中国数据、分析和人工智能技术成熟度曲线中,“人工智能素养”被放置在底座位置,其重要性可见一斑。
图 | 2024年中国数据、分析和人工智能技术成熟度曲线(来源:资料图)
当然,仅有“人工智能素养”这样的软能力还不足以支撑起AI的长期发展,必须还得有硬实力的加持。上述曲线显示:未来2-5年,大量具有颠覆性或较高影响力的创新技术,可能会实现主流采用。其中与AI相关的创新技术包括:复合型AI、国产AI芯片、大模型(LLM,Large Language Model)和多模态生成式AI(GenAI,Generative Artificial Intelligence)。
就复合型AI而言,它是指组合利用或融合不同AI技术来提高学习效率、生成层次更丰富的知识表示。复合型AI能够提供更丰富的AI抽象机制,并可以提供一个能以更有效方式解决更广泛业务问题的平台。预计复合型AI可为中国企业带来两大益处:第一,将AI的力量推广至无法访问大量历史或标签数据、但拥有大量人类专业知识的企业机构。第二,扩大AI应用的范围,提升此类应用的质量,以便能够应对更多类型的推理挑战。根据所应用的具体技术,还将产生其他一系列益处,包括提高韧性、可解释性、以及支持增强智能等。
就国产AI芯片而言,由于当前美国对高性能AI芯片的限制,中国企业不得不自行研发AI芯片,以满足本土AI快速发展的需求。对于最新的生成式AI技术来说,它需要使用数千个AI加速器来训练基础模型和支持推理工作负载。由于先进制造工艺的限制,目前国产AI芯片的性能暂时落后于全球领先供应商产品的性能。因此,中国企业需要对AI基础设施进行更多投资。对于IT领导者来说,也应该将重点放在AI应用上,而不是使用针对推理工作负载优化的国产AI芯片来训练基础模型上。
就大模型而言,其已经变得广为人知。它是一种使用大量无标签文本数据进行训练的AI基础模型。借助大模型,能让相关产品完成一系列的任务,包括回答问题、内容生成、内容摘要、代码生成、语言翻译、会话聊天和检索增强生成等。此类模型也拥有广泛的应用场景,包括文本生成、文本编辑、文本翻译、文档总结、文档分类和问答系统构建等。
就多模态生成式AI而言,它能够以组合的形式来利用多种类型的数据输⼊和输出,例如利用图像、视频、音频、文本和数值型数据等。其所拥有的多模态功能,允许模型与不同模态下的输出进行交互,并能生成相应的输出,具有更强的实用性。对此闫斌举例称:“国内有很多人在电商直播带货时,基于自己的产品使用多模态生成式AI来生成图片或生成短视频。比如我要卖一个杯子,我就可以用多模态生成式AI在它的照片后面加一个背景。原来可能要找摄影师去拍照,现在用AI做出来的效果就非常好。”总的来说,多模态生成式AI支持添加以往难以实现的新特性和新功能,将对企业应用产生颠覆性的影响。目前,多模态模型通常仅限于两种或三种模态,但在未来几年内预计将能涵盖数量更多的模态。
此外,闫斌认为特定领域模型(DSM,Domain-Specific Models)、复合人工智能(Composite AI)以及基于模型的智能体,也将是未来值得关注的三个AI发展方向。而“大小模型并存”则将是生成式AI未来的发展主流。同时,鉴于目前国内大模型的猛烈发展势头,闫斌还给出这样一则预测:“未来一年中国的模型可能确实能够‘卷’到GPT-4的水准。”