“从模型能力到真正的运营生产之间,企业还需要增加很多辅助能力。此外,对用户来说,大模型与业务结合必须要有非常强的数据基石。”4月2日下午,亚马逊云科技大中华区产品部总经理陈晓建在“2024亚马逊云科技生成式AI媒体沟通会”上如是说。


陈晓建认为,企业应该采用循序渐进、从简单到复杂的思路,最初选择一个容易落地且满足业务要求的场景。


亚马逊云科技大中华区数据分析与生成式AI产品总监崔玮也表示,模型仅是客户企业应用的一部分,还需要许多组件来实现。


谈及模型的部署和训练,亚马逊云科技大中华区产品技术总监王晓野则提到,大模型运行需要的算力除了考虑芯片,还需要考虑散热、网络等。“就今天来讲,云一定还是运行优质大模型的最好的地方。”


先选择容易落地的场景


从去年初开始,大模型已经火爆了一年多,但是时至今日,很多行业并不知道如何运用大模型。


对此,亚马逊云科技大中华区产品部总经理陈晓建表示,各行各业的场景千变万化,即使大模型的技术能力再强,也不会有一个基础模型能适用所有业务场景。


对此,陈晓建建议,企业应该采用循序渐进、从简单到复杂的思路,最初选择一个容易落地且满足业务要求的场景。“这个场景从最初的简单到复杂,逐渐了解模型的能力,然后再进行下一步。”


亚马逊云科技大中华区数据分析与生成式AI产品总监崔玮也提到,模型仅是客户企业应用的一部分,还需要许多组件来实现。例如,在做企业知识库时,还需要利用本地私有数据。


视频模型Sora的火爆让业内看到了大模型在文生文之外的潜力,包括文生图像、文生音频以及文生视频等。


亚马逊云科技大中华区产品技术总监王晓野对此指出,技术方向上多模态一定是发展的趋势,整个业内都在这个方向上做投入。“视频生成距离我们并非大家想象得那么遥远。”


不过,Sora为什么到现在还没有完全放开?“这与我们今天强调的性能成本密切相关。”王晓野指出,目前亚马逊云科技平台上的模型企业开放的视频生成时长是十几秒的时间,而仅生成过程就可能需要几十分钟。“这反映出视频生成背后依靠的算力和效率仍然存在较大挑战。”


大模型能力本身还有很多发展空间


除了云端训练和部署,也有一些企业尝试在边缘端测试模型。对此王晓野指出,大模型运行需要的算力并非仅凭传统的IDC数据中心可以轻松实现。除了考虑芯片,还需要考虑散热、网络,以及它自身的高可用,断电后如何做恢复等。


他认为,今天来看,云还是运行优质大模型最好的地方。“目前来看,真正能跑在边缘的模型的能力,还远不能达到优秀大模型所实现的重塑体验的效果。”


崔玮则指出,AI有训练和推理两个阶段。无论这件事情最终是落地在本地还是云端,都需要先选择一个应用场景。“不同行业用例可能不同。然而训练端需要一个大的可扩展性和规模集群。”


生成式AI领域接下来发展的最关键一步是什么?陈晓建表示,首先,从最底层来看,芯片性能仍然落后于需求。虽然半导体芯片的发展已经非常快,但模型本身参数规模的扩大实际上远超芯片的能力。


“以前一个几百万参数的模型,就觉得已经很大了,但现在动辄十几个B或几十个B,达到数百亿的规模。基础服务商仍需关注如何将底层能力、业务复杂度和大模型复杂度相匹配,使硬件发展赶上软件发展规模。”


其次他指出,大模型能力本身还有很多发展空间。“今天我们看到的模型可能代表了一个博士生水平,但是能不能做得更好?比如达到教授或者院士水平?包括亚马逊云科技在内的诸多生成式AI供应商需要在未来持之以恒地去做模型能力方面的工作。”


在最上层与各行各业务相结合方面,陈晓建表示,相关的SaaS(软件即服务 )解决方案非常多。从这点上看,将生成式AI能力与垂直场景的解决方案结合需要做巨大的工作。“我们需要思考大模型如何为人类社会各行各业中的应用提供更好的模型能力、更易用的方式和更低的成本。”


新京报贝壳财经记者 孙文轩

编辑 徐雨婷

校对 卢茜