风光背后,科技巨头也深陷AI盈利难困局

AI头条· 2023-10-16 08:46:47

虽然大模型有着诸多方面的优势,但想依靠大模型盈利在现阶段却并非容易事。

据《华尔街日报》报道,微软和谷歌等大型科技公司正在努力应对将 ChatGPT 等人工智能产品转变为盈利企业的挑战。尽管公司大力投资可以生成业务备忘录或代码的 AI 技术,但运行高级 AI 模型的成本被证明是一个重大障碍。某些服务(例如 Microsoft 的 GitHub Copilot)会造成重大运营损失。

用于创建文本的生成式人工智能模型的运行成本并不便宜。像为 ChatGPT 提供支持的大型语言模型需要配备高端、耗能芯片的强大服务器。例如,路透社的一份报告指出,每个 ChatGPT 查询的运行成本可能为4美分。因此,AWS 首席执行官 Adam Selipsky 向《华尔街日报》表示,许多企业客户对这些 AI 模型的高运行成本感到不满。

当前的成本挑战与 AI 计算的性质有关,与享有规模经济的标准软件不同,AI 计算通常需要为每个查询进行新的计算。这使得 AI 服务的固定费用模式存在风险,因为增加客户使用量可能会增加运营成本并导致公司潜在损失。

一些公司正在努力降低成本,而另一些公司则继续加大对技术的投资。微软和谷歌已对其现有软件服务引入了更昂贵的 AI 支持的升级,而据报道,Zoom 试图通过有时使用不太复杂的内部人 AI 型来执行某些任务来降低成本。Adobe 正在通过活动上限和根据使用情况收费来解决这个问题,而微软和谷歌通常坚持固定费用。

微软企业战略主管克里斯·杨(Chris Young)认为,在人们找出 AI 的最佳使用方式之前,AI 的投资回报将需要更多时间。他告诉媒体:“显然,我们现在必须将用户的兴趣转化为真正的采用。”

值得注意的是,《华尔街日报》的报道称,微软的 GitHub Copilot 通过生成代码来帮助应用程序开发人员,尽管吸引了超过150万用户并集成了近一半的编码项目,但该公司一直处于亏损状态。据一位知情人士透露,用户每月为该服务支付10美元的固定费用,但微软为每个用户每月平均支付的费用超过20美元。在某些情况下,个人高级用户每月给公司带来的费用高达80美元。

AI 服务如此昂贵的原因之一是一些公司一直在寻求最强大的 AI 模型。例如,微软使用 OpenAI 最复杂的 GPT-4来实现其许多 AI 功能。GPT-4是最大且最昂贵的 AI 模型之一,需要大量的算力。《华尔街日报》打趣道,使用该模型执行总结电子邮件等基本任务就像“让兰博基尼送披萨”,这表明使用最强大的人工智能模型来完成简单的任务可能有些过头了。

沿着这些思路,微软一直在为其 Bing Chat 搜索引擎助手探索成本更低的替代方案,包括 Meta 的 Llama2语言模型。然而,随着时间的推移,由于 AI 加速硬件的进步,运行这些复杂模型的成本可能会下降。但这段时间到底是多久,谁都无法确定。



您可能关注: AI
文章链接: http://youthcy.com/aizixun/771.html Chat gpt人工智能中文版在线使用

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表炎黄立场。

轻创AI创作系统

轻创AI智能客户管理系统是一款全面而高效的客户关系管理工具,专门设计用于帮助企业更好地管理他们的客户资源和业务关系。该系统结合了强大的客户关系管理功能与先进的智能化技术,旨在提升客户满意度和忠诚度,从而实现更高的业务效益。