亚马逊带着专门为生成式 AI 优化的大模型、云服务和硬件平台,加入和微软、Google、Meta 的人工智能竞赛。4 月 13 日,亚马逊发布一系列服务,包括:

-大模型 Titan,允许客户使用自己的数据定制 Titan 模型,但这些数据将永远不会被用来训练 Titan 模型。亚马逊说这是确保其他客户最终不会从这些数据中获益。

-云服务 Bedrock,允许用户通过它使用亚马逊和其他创业公司提供的基础模型,包括亚马逊竞争对手 Google 投资的 Anthropic。

-生成式 AI 的代码开发服务 CodeWhisperer 正式上线,可以帮助开发者编写、调试、优化和部署代码。

-低成本、高性能生成式 AI 实例 EC2 Inf2 实例正式上线,这是一种使用亚马逊自己的 Inferentia2 芯片的云实例,可以提供高性能和相对低成本的 AI 推理。

有行业最好技术储备和最大规模客户群的亚马逊,没有局限在提供应用层服务,而是一如既往地提供底层技术工具,它们不强求用户用亚马逊的大模型,而是给予对方充分的自由度。这两个月,亚马逊先后发布创业加速器项目,还宣布与 Hugging Face 合作,降低生成式 AI 接入门槛和成本。

原 AWS 负责人、现亚马逊 CEO 安迪·贾西(Andy Jassy)同一天发表致股东信,提到在当前宏观环境下,AWS 会遇到短期增长挑战,但亚马逊会继续保证长期投入,尤其是大力投资大模型和生成式 AI。但其实亚马逊在 AWS 年化收入 850 亿美元的超大规模下,仍实现 29% 的高增速,十倍于中国同行。

他还介绍了亚马逊的技术储备和进展,包括亚马逊的通用 CPU 已经持续更新到第三代(CPU Graviton),第一款低成本 AI 训练用处理器(Trainium)也已于去年交付。

亚马逊一直是 AI 应用更领先的公司之一。Alexa 是第一款带动硬件销售的语言助手,跟着 Echo 音响进入千万美国家庭。Amazon GO 也是很长一段时间内全球唯一一家不扫码、不用 NFC 芯片,只用摄像头确定消费者买什么东西并自动扣款的无人超市。亚马逊已经广泛地使用机器学习 25 年了,这比大多数互联网公司的寿命还长。

2020 年 5 月英伟达发布高端服务器芯片 A100,六个月后亚马逊已经上线基于该芯片的 EC2 Instance,为客户提供 AI 计算能力,且上线之初已允许单客户最大调用 4000 块 A100 GPU,这在当时被亚马逊宣传为拥有超级计算机级别的性能。今年 3 月,亚马逊又第一时间采购数万块英伟达更先进的 H100 芯片。

“我可以写一整封信讲大模型和生成式 AI。我相信它们将带来巨大转变,但这些可以留着之后说。现在,这么说吧,大模型和生成式 AI 对我们的客户、我们的股东和亚马逊都是件大事。”贾西在股东信里说。(龚方毅)