“AI or die”
至少有那么一小段时间,云计算行业真的开始担心亚马逊云科技会落后。
彼时微软押中OpenAI,风光一时无两,激动人心的故事背后是一场豪赌,就连比尔·盖茨也曾警告萨提亚·纳德拉不要投资OpenAI,随后ChatGPT的现象级热度让一切质疑消弭于无形,OpenAI GPT和微软Azure的组合似乎稳赢。
在“名不见经传”的OpenAI爆火之前,谷歌一直是人工智能领域技术的标杆,OpenAI也是站在谷歌的肩膀上才有所成就,比如Transformer架构最早由谷歌推出,涌现现象由谷歌研究员发现。如果AI是云服务未来最大的变量,那么谷歌云一定是最有力的竞争者,位次还要在微软Azure之前。
不得不向微软Azure和谷歌云脱帽致敬,他们加速了人工智能改变一切的节奏,也让云服务的焦点转向AI。这是一场“AI or die”的竞赛,云巨头不仅要具备AI能力,还要比直接竞争对手有更突出的差异化优势。
当外界普遍为亚马逊云科技担心时,Adam Selipsky显然不这么想,亚马逊云科技遍布全球的庞大基础设施和繁荣的合作伙伴生态,是其长久以来的领先壁垒,外界都在期待亚马逊云科技的新底牌。
那些认为微软Azure和谷歌云能够凭借大模型超过亚马逊云科技,或者说缩小与其差距的观点,也同时抱有另一种期待,即一旦亚马逊云科技将AI纳入其提供给客户的强大服务生态系统,亚马逊云科技失去的任何阵地都会很快被弥补回来。
这就是2023年4月Amazon Bedrock诞生时的背景。相比于微软和谷歌主推的OpenAI和Google PaLM,亚马逊云科技采取了不同的策略。
起初Amazon Bedrock主打多模型接入,亚马逊云科技的基础模型 (Amazon Titan),和各种第三方模型(如AI21 Labs、Anthropic、Stability AI 等),都可以通过API的方式接入。同时发布的还有代码生成器以及用于训练和推理的云上算力。
此后Amazon Bedrock不断更新,增加全新基础模型、基础模型供应商以及 Agents功能,提供微调、知识库、代理、模型评估等各种丰富的功能,同时还能与亚马逊云科技其他工作负载无缝集成。
总结来说就是三大方面,简化选择:多样化业界基础模型选择; 简化定制:提供持续预训练,fine-tuning, RAG等方式;简化集成:Agent on Amazon Bedrock。
最新一次的重磅更新,亚马逊云科技数据和人工智能副总裁Swami Sivasubramanian形容其为“Significant new capabilities make it easier to use Amazon Bedrock to build and scale generative AI applications – and achieve impressive results”。
重大更新、更易使用、效果显著,成为Amazon Bedrock本次更新的关键词。
大模型向下看,仍旧是云平台
Amazon Bedrock对外发布已有一年,过去一年,大模型依然在不断迭代,甚至迭代得有些过于快速,以至于企业客户不知道把应用做到什么程度,Amazon Bedrock给出的答案是,云厂商不只负责大模型,而是对最终的业务效果负责。
Swami Sivasubramanian表示,Amazon Bedrock聚焦于客户所需的关键领域,以适当的成本和速度构建可投入生产的企业级生成式 AI 应用程序。
当所有人都在关注大模型的时候,更应该关注支撑大模型所必需的云服务,通过一系列的更新,Amazon Bedrock打造了一个端到端的、对客户业务效果负责的平台,也让业内再次把目光聚焦到亚马逊云科技。
首先,新增了Llama 3 的Llama 3 8B 和Llama 3 70B 版本模型,目前最强的开源模型正式GA。Llama 3 8B 擅长文本摘要、分类、情感分析和翻译,适合有限资源和边缘设备场景。Llama 3 70B 在内容创建、对话式人工智能、语言理解、研发、企业、准确摘要、细致分类/情感分析、语言建模、对话系统、代码生成和指令跟踪方面表现出色。
同时Amazon Bedrock还预告了Amazon Titan Text Embeddings V2,Embeddings V2 提供256、512 和1024 向量空间尺寸,优先考虑降低成本,同时保留RAG 用例97%的准确性,性能优于其他领先模型。
以及即将支持Cohere的Command R和Command R+ 企业FM。Command R+是Cohere最强大的模型,针对长上下文任务进行了优化,而Command R则针对大规模生产工作负载进行了优化。
值得关注的是,Amazon Bedrock的模型评估工具全面可用,能够根据特定应用场景的指标(如相关性、风格和品牌声音)对模型进行评估,为客户评估、比较和选择适合其应用程序的最佳模型,将评估模型的时间从几个星期缩短到几个小时,评估后还会提供评估报告,为更多模型使用者提供参考。
钛媒体App观察到,现阶段客户并不希望被一个模型绑定,基础模型在进化,应用场景也在调试,客户希望更多选择、更低成本、更易调试不同的模型,来测试自己的业务效果,模型评估工具就很有必要且应景。
另外还有非常实用的Amazon Titan图像生成器现已全面推出,客户可以利用自然语言实现低成本、大量高效地生成图像,并且每张图像都包含不可见水印,有助于降低知识产权风险。
其次,如何让企业更安全地定制模型,并将其集成到特定业务用例,Amazon Bedrock实现了自定义模型导入,客户现在可以导入和访问流行的开放模型架构(包括 Flan-T5、Llama 和 Mistral)构建自定义模型,作为Amazon Bedrock中完全托管的应用程序编程接口(API)。
如此,客户可以采用在 Amazon SageMaker 或其他工具上定制的模型,并将其轻松添加到Amazon Bedrock,并且经过自动验证后无缝访问其自定义模型,就像Amazon Bedrock提供的模型一样,效果和体验拉满,这也完全体现了Amazon Bedrock的开放性。
最后是安全,Amazon Bedrock的Guardrails现已全面上市,可帮助客户防止有害内容并管理应用程序内的敏感信息。客户能够定义内容策略、设置应用程序行为边界并实施针对潜在风险的保护措施。 据了解,与Amazon Bedrock上FM本身提供的保护相比,它可以帮助客户阻止多达85%的有害内容。
GenAI,延续亚马逊云科技的第一性原理
不得不说,轮到行业继续向亚马逊云科技脱帽致敬了,老大哥依旧是老大哥。
Amazon Bedrock仅用一年时间就扭转了风向,行业依然关注大模型本身的技术进步,但更关注大模型能不能为我所用,这涉及到庞大的基础设施、工程能力、生态系统等。
亚马逊云科技没有选择只做大模型,而是以另一种方式,也是他们所擅长的方式,将人工智能融入到原有的生态系统中,数以万计的客户正在使用Amazon Bedrock来构建和扩展大模型应用程序。
亚马逊云科技就此构建了完备的生成式 AI 全栈布局,企业构建生成式AI 应用的三层架构,包括:用于基础模型训练和推理的基础设施、使用基础模型进行构建的工具、利用基础模型构建的开箱即用的应用程序。
在底层算力层,一方面,亚马逊云科技继续提供来自英伟达的计算实例,包括最新的NVIDIA Grace Blackwell GPU的Amazon EC2实例等;另一方面是亚马逊云科技自研芯片,包括推理芯片Inferentia和Trainium系列。
中间层是Amazon Bedrock 以及各种附加功能。上层是包括Amazon Q在内的应用程序,Amazon Q可以连接到企业自己的数据、信息和系统,可以根据客户的业务定制Amazon Q,企业中的营销人员、项目经理以及销售代表等,都可以利用Q进行定制对话、解决问题、生成内容、采取行动等等,据悉,亚马逊云科技即将带来进一步的更新。
如果说大模型改变了云计算行业的游戏规则,那么如今行业人士会发现,亚马逊云科技制定的游戏规则,在更广泛的层面还在发挥着作用。
OpenAI GPT和Google PaLM足够引人注目,但同时也为微软Azure和谷歌云制造了新的竞争问题,市面上还有很多模型公司,Amazon Bedrock为这些模型公司建立了一个相同的起点,客户得以同等体验不同的模型。
在钛媒体App看来,亚马逊云科技不论是做云还是做生成式AI,其基本理念和逻辑如出一辙,所以亚马逊云科技不必摇摆去思考到底怎么做、做什么,而是直接按照第一性原理,做出最适合亚马逊云科技的Amazon Bedrock。
早年Andy Jassy做云计算的理念是——“将IT基础设施细分到最小单元,让程序员可以最大自由来选择与组合”,亚马逊云科技的确是这么做的,到了大模型依然如此。
翻阅Swami Sivasubramanian在Amazon Bedrock刚发布时的观点,“我们生活在一个机器学习非常激动人心的时代。我可能每年都这么说,但是今年它甚至更特别,因为这些大型语言模型和基础模型确实可以支持如此多的用例,在这些用例中,人们不必组建单独的团队来构建特定于任务的模型。机器学习模型开发的速度将真正提高。”
“但在未来几年里,除非我们让这些模型对每个人都更容易使用,否则你不会达到你想要的最终状态。这就是我们在SageMaker早期的机器学习中所做的,这也是我们在Bedrock及其所有应用程序中需要做的。”他说。
人工智能是比IT更复杂的技术堆栈,亚马逊云科技依旧兑现了此前的承诺,让企业内的任何开发人员都能够自由构建生成式AI应用,而无需关注复杂的机器学习或底层基础设施,也让人工智能成为到达云计算应许之地的关键一跃。
(本文首发于钛媒体App,作者 | 张帅,编辑 | 刘湘明)
根据《网络安全法》实名制要求,请绑定手机号后发表评论
【继续思考】 这是否意味着无论是AI还是大模型或其它任何新技术,现在已经建立起绝对优势的云厂,自然会在上述领域继续保持优势?
在底层算力层,一方面AWS使用英伟达的计算实例,另一方面自研芯片(包括推理芯片Inferential和Trainium); 中间层是AB以及各种附加功能; 上层是包括Amazon Q在内的应用程序,可连接到企业自己的数据、信息和系统,可以根据客户的业务定制AQ,企业营销线、项目经理以及销售代表等,都可利用Q进行定制对话、解决问题、生成内容、采取行动等等,据悉,AWS即将带来进一步更新。 4、写在最后 AI是比IT更复杂的技术推栈,AWS实现了企业内任何开发人员都能自由构建生成式AI应用,而无需关注复杂的Ml或底层Infru,也让AI成为到达云计算应许之地的关键一跃。
其次,AB(Amazon Bedrock)实现了自定义模型导入,客户可以导入和访问流行的开放模型架构,确保效果和体验,也完全体现了AB的开放性; 最后是安全,AB的Guardrails可以帮助用户防止有害内容并管理应用程序内敏感信息,组织多达85%的有害内容。 3、GenAI, 延续AWS的第一性原理 AWS没有只做大模型,而是将AI融入原有的生态系统中,构建了完备的AI全栈布局,包括生成式AI应用的三层架构:(1)用于基础模型训练的基础设施(2)使用基础模型进行构建的工具(3)利用基础模型进行构建的开箱即用的应用程序。数以万计的客户正在使用AB来构建和扩展大模型应用程序。
AWS最终实现的结果:(1)简化了客户的选择:涵盖多样化的基础模型供选择(2)简化定制:给客户提供持续的预训练(3)简化集成:Amazon Bedrock主打的,就是多模型接入 2、大模型向下看,仍是云平台 Amazon Bedrock表明:云厂商不只负责大模型,而是对最终的业务效果负责。 首先,新增了Liama3,是目前最强的开源模型;同时Amazon Bedrock还预告了最高1024向量空间尺寸,降本同时保留RAG 97%的准确性;以及,针对大模型生产工作负载就行优化的Command R; 其次,
【内容提炼】 1、要么实现AI能力,要么出局 AWS长久以来的领先壁垒:(1)遍布全球的庞大基础设施(2)繁荣的合作伙伴生态 微软主推OpenAI、谷歌主推Google PaLM,亚马逊发布了(1)Amazon Bedrock主打多模型接入,其基础模型(Amazon titan)和各种第三方模型,都可以通过API方式接入(2)代码生成器(3)用于训练和推理的云上算力。此后Amazon Bedrock不断更新,增加全新基础模型、基础模型供应商以及Agents功能,提供微调、知识库、代理、模型评估等功能,同时还能和AWS其它工作负载无缝集成。 AWS最终实现的结果:
“让人工智能成为到达云计算应许之地的关键一跃”,是指让人工智能大幅助力到达云计算的应许之地吗?