微软暗渡陈仓
微软暗渡陈仓
出品|虎嗅科技组
作者|齐健
编辑|苗正卿
头图|Google
当 OpenAI 创始人 Sam Altman 登上微软 Build 2024 开发者大会的 Keynote 舞台时,细心的观众不难发现:相比于微软首席技术执行官 Kevin Scott 眉飞色舞介绍 Sam Altman 时的神情, Sam Altman 的双眉微微低垂,并未像 Kevin Scott 一样亢奋。
微软首席技术执行官 Kevin Scott(右),OpenAI 首席执行官 Sam Altman(左)
在美国时间 5 月 21 日当天长达两个多小时的活动里,Sam Altman 对于微软是那样重要,他被安排在整个活动的 " 压轴 " 阶段。而 OpenAI 于 5 月 14 日凌晨发布的 GPT-4o 几乎在微软每一个重大发布时都会被 "cue" 到。
相比于微软的态度,Sam Altman 显得淡然许多,他穿着淡棕色 T 恤、蓝色牛仔裤,全程语气平静。这或许是因为 Sam Altman 正被场外舆论影响心情,在活动前一天演员 Scarlett Johansson 针对 "OpenAI 聊天机器人采用酷似其声音的语音 " 发表声明,对 OpenAI 提出质疑。
而在更大的视野中,环顾 Sam Altman 的 " 竞争因素 " 也正在变多。2024 年初以来,Google、Meta、Anthropic 几家大模型的头部公司先后发布了能力直逼 GPT-4 的模型,中国的主流 AI 公司在模型能力方面也都突飞猛进。在 AI 大模型赛道上,OpenAI 虽然仍处在领先位置,但与第二名的差距已开始缩小。
但对于微软而言,OpenAI 足够重要,甚至可以被视为 " 战术基石 "。
整个 Build 2024 开发者大会期间,微软的主语境一直是 " 强调与 OpenAI 的深度融合,展示各种基于 GPT-4o 的功能和产品 "。如果考虑到,本次微软发布新品的力度,不难看出微软几乎想 " 搭建 " 可以和 OpenAI 深度融合的大生态:微软一口气公布了最新 Copilot+PC 产品,以及 Phi-3-vision 、Team Copilot、Copilot Studio 等 50 多项更新,几乎每 3 分钟便公布一个更新。
猛然看去微软在 Build 大会上发布的产品、技术更新,表面上看与 2023 年中的 AI 动作差别不大,仍是聚焦 Copilot。但细看之下会发现,与 OpenAI 的高调合作其实已经成为微软的 " 明修栈道 ",微软真正的战略重点正在向 AI 应用产品转移。
微软是要用 Copilot,AI PC 这些产品,以及产品构筑的生态,打造一套不管换什么 AI 大模型都能快速形成产品竞争力的 AI 模式,从而将 AI 沉淀成自身的竞争力。
躲在 OpenAI 影子里的微软小模型
从微软最新的发布看,与 OpenAI 的进一步融合,首先可以让其强化 " 系统市场 " 基本盘。
此前 OpenAI 的 GPT-4o 发布会上,提到了会推出 ChatGPT 的桌面产品,不过这款产品上线后,却只能支持 M 芯片的 MacOS。
虽然 OpenAI 没有为微软开发桌面产品,但 GPT-4o 的能力在 Windows 端被直接融入了系统。有分析人士向虎嗅表示,相对于以 App 形式出现在 Mac 中,OpenAI 在微软产品中的体验或会更顺滑。
微软在 GPT-4o 的集成方面比苹果更具优势,但与此前的 Microsoft 365 Copilot 不一样,GPT-4o 并非微软独占。摆在微软面前的挑战是,如果不做出上述 " 防守动作 ",随着 OpenAI" 摇摆程度加大 ",微软在系统市场的压力有可能变大。如果未来 Windows 中的 OpenAI 能力也能迁移到苹果系统,那么微软在 PC 和操作系统市场中的竞争力很可能出现下滑。
目前 Mac OS 的市场份额在 16% 左右。不过,IDC 称 2024 年第一季度 Mac 电脑的出货量增长了 14.8%,成为五大个人电脑制造商中增长最快的公司。随着 Mac 出货量上涨,苹果系统对微软亦开始形成威胁。
反观微软,Windows 约占全球桌面操作系统市场 60%-70% 的份额,但微软的 PC 产品 Surface 在全球市场中的占比并不高,且在过去一年中出现持续下滑,2024 年第一季度 Surface 销量下降了 17%,在 Build 大会公布 Copilot+PC 产品之前,分析师普遍认为这种衰退可能会持续到下一季度。
一味依赖 OpenAI 显然不是微软想要的,它渴望在 Windows、Surface 中构建独特的 AI 能力,从而给传统优势业务更大的 " 确定性 "。
OpenAI 没关注到的轻量化 AI" 小 " 模型,是微软的一步明棋。
目前市场上的主流厂商普遍认为,超大规模的 AI 模型不能完全满足设备端的 AI 需求,当下最好的 AI 硬件应该是端云结合的。
云端模型通常会选择类似 GPT-4o 的通用能力较强的超大参数模型,而端侧则会选择轻量化的 " 小 " 模型,这也正是微软一直以来的发力方向。
2023 年 6 月,微软首次发布了轻量化语言模型 Phi-1。到 2024 年 4 月,微软将这款模型更新到了 Phi-3,其中包括 3 款模型:参数量为 38 亿的 Phi-3-mini;参数量为 70 亿 Phi-3-small;参数量为 140 亿 Phi-3-medium。
轻量化模型对于算力和能耗的需求更低,也更适合本地化运行。微软在 Build 大会期间更新的 Windows Copilot Runtime 中就包括一组 API,由 Windows 附带的 40 多个端侧 AI 模型提供支持,其中包括专为 Copilot+ PC 中的 NPU 设计的轻量化模型 Phi-Silica,可以用于智能搜索、实时翻译、图像生成和处理等任务。
Phi-Silica 基于 NPU 进行推理,首个 token 的输出速度为 650 tokens/s,耗电量约 1.5 瓦,后续生成速度为 27 tokens/s。由于推理在 NPU 完成,CPU 和 GPU 可以同时处理其他计算任务。
目前,在 UC 伯克利的 lmsys 大语言模型排位赛中,2023 年 10 月推出的 phi-3-mini-4k-instruct 版本,模型排位已经超越了 GPT-3.5-turbo-1106。
不过,在 Phi-3-medium 的一些开源测试中,有开发者反馈其处理复杂编程问题,中文处理能力亦不理想。
在复杂任务和通用性方面存在局限是轻量化模型普遍存在的问题,这就需要云端大模型的配合。但模型参数量较小,训练调优的成本更低、效率更高,也可以专门为特定任务训练特定模型。
Phi-3 除了具备三款语言模型之外,在 Build 大会上还公布了多模态模型 Phi-3-vision。Phi-3-vision 拥有 42 亿参数,目前处于预览阶段,能够执行如图表或图像相关的常规视觉推理任务。
除轻量化模型以外,为了尽力克制自己对 OpenAI 的 " 依赖程度 ",微软也在投重注 " 升级 " 超大规模 AI 模型的研发团队,持续加码大模型的研发。
在过去几个月中,微软斥资 6.5 亿美元收购了明星 AI 初创公司 Inflection 的大量知识产权,并从该公司挖走了一批员工,包括三位联创中的两位,首席科学家 Karén Simonyan 和首席执行官 Mustafa Suleyman。
如今有外媒报道称,这些人正在微软内部研发一款名为 MAI-1 的 5000 亿参数规模的大语言模型,为日后替代 OpenAI 做准备。
简言之,当下微软的战术思路是:在大模型 + 小模型的策略中,将不同模型搭配一处。
这种模式看似符合大模型行业趋势,但其中也存在一些隐忧。
比如,多模型的配合问题。在未来的 AI PC、Windows 环境,或是其他客户场景中,可能会因为模型不同增加功能或系统集成的复杂性,尤其是在跨平台或跨系统的应用中。
同时,这种模式在开发和运维阶段可能需要更多的成本,不同模型之间的性能和响应时间也不一致,在需要高度同步的应用场景中,这种不一致性将大大影响用户体验,并增加优化的难度。
更麻烦的是,由于模型来自不同的开发者和平台,可能会导致模型的生态系统产生割裂。开发者和用户,可能需要在多个平台和工具之间来回切换,从而增加了学习成本和使用难度。
不过,这种模式也有好处。微软和 OpenAI 分别训练不同参数量的模型(超大规模和轻量化),则两家公司可以在各自的架构上进行独立优化。这样虽然需要分别投入资源,但可以针对不同的应用场景进行更有针对性的训练,可能会在特定领域中更加高效。
芯片梦,少不了 OpenAI?
除了要用好 OpenAI 的模型能力,微软也正试图借力 OpenAI 摆脱英伟达的 " 控制 "。
2023 年底,微软正在研发的 AI 芯片 Maia 100 首次曝光。到 2024 的 Build 大会上,微软正式宣布了自研芯片 Azure Maia 100 和 Cobalt 100 芯片的最新信息。目前,这两款芯片中的 CPU 芯片 Cobalt 100 已经开始向 Azure 云计算服务的客户提供预览版。
除了自研芯片外,微软也在尝试搭建不依赖于 NVIDIA 的服务器架构。
3 月 29 日,微软刚刚被爆出正在与 OpenAI 合作开发价值 1000 亿美元的 AI 超级计算机 " 星际之门 "。
据外媒报道,星际之门的关键特性之一就是不受限于 NVIDIA 显卡,在 Stargate 超级计算机中很可能不会使用 NVIDIA 专有的 InfiniBand 线,而是使用同样以太网线。
虽然谷歌,亚马逊,甚至是中国的很多厂商都在自研 AI 芯片,但相对来说,Google 和微软的优势更加明显。
谷歌在上周的 Google I/O 大会上宣布了最新的六代 TPU(Tensor Processing Unit)。TPU 在 Google 中的应用,相对于 GPU 具有一定的优势。一方面,TPU 与 Gemini 同根同源,不管是基于模型优化芯片,还是基于芯片优化模型,都可以在公司内部 " 消化 "。
另一方面,TPU 在处理深度学习任务,特别是大规模矩阵运算方面表现出色。由于 Transformer 架构依赖于大量的矩阵乘法和点积运算,TPU 的设计非常适合这种计算模式。谷歌自第四代 TPU 开始,进一步优化了其硬件和软件,使其更高效地支持 Transformer 模型,比如 BERT 和 GPT 系列。
不过,GPT 模型主要用到的深度学习框架是 Pytorch,而 Google 的很多 AI 项目主要使用的 TensorFlow 框架,在模型优化方面也可能存在一些适配问题。
微软的优势则在于与 OpenAI 的紧密合作。在研发 AI 芯片的过程中则可能会与 OpenAI 更加紧密配合,从而获得更有价值的提升。
不过,想彻底逃离英伟达的强势状态恐非易事。
当地时间 5 月 22 日,在英伟达 2025 财年一季报的电话会上,该公司 CEO 黄仁勋透露,Blackwell 架构之后还将继续推出新芯片,还将加快芯片架构更新速度,从两年更新一次,加速至一年一更。黄仁勋说:" 我们将以非常快的速度全面推进。新的 CPU、新的 GPU、新的网络网卡、新的交换机,大量芯片正在路上。"
在 4 月的英伟达 GTC 大会上,微软和英伟达共同宣布了 Azure 将成为首批引入 NVIDIA Grace Blackwell GB200 以及 NVIDIA Quantum-X800 InfiniBand 的云服务商。
近日有外媒报道称,AWS 已经开始用英伟达最新的 Grace Blackwell 架构芯片订单代替之前订购的 Grace Hopper 芯片。由此推断,作为首批云服务商的 Azure,很可能也正在开展大规模换芯工程。
虽然主流 AI 公司和云厂商都在高喊与英伟达紧密合作,但他们也同时在加速 AI 芯片、算力的研发。
与 Google 优先争夺开发者?
在 Build 2024 开发者大会上,微软下出的另外几步棋,更似似剑指 Google。
过去一年中,Google 在模型能力和 AI 产品方面一直呈现追赶态势,但在最近的 GoogleI/O 上,Google 更新的 AI 功能看起来似乎比微软的一系列 Copilot 更炫酷、更有吸引力。
针对这一点,微软的思路是 " 优先稳固住开发者 " 。
微软在本次 Build 大会中推出了 Copilot Studio 功能,允许用户创建自定义的 Copilot,作为 AI Agents 独立工作。
微软将 Windows Copilot Runtime 融入了 Windows Copilot 堆栈,以内置 AI 驱动系统革新,加速开发者在 Windows 平台上的 AI 开发进程。
微软还推出了 Windows 语义索引提升了 Windows 搜索体验,引入 Recall 等新功能。且还会利用 Vector Embeddings API 给 Windows 的应用提供矢量存储与 RAG 功能。
同时,微软还推出了可以直接在 Windows 上运行 DirectML、PyTorch 及 Web 神经网络的功能。开发者可以直接调用 Hugging Face 模型库,基于 NPU 加速任务处理。DirectML 作为 Windows 核心低层 API,是与 DirectX 相似的产品,专为机器学习优化,兼容多硬件平台,包括 GPU、NPU,未来还将集成 CPU。它与 ONNX Runtime、PyTorch、WebNN 等框架无缝对接,推动 AI 技术应用。
这几步明棋,其实都是微软试图通过 AI 生态工具,巩固其在开发者生态中的技术地位,如同 DirectX 巩固了微软在图形处理中的主导地位,DirectML 也可能在机器学习领域产生类似的效果。
对于开发者来说,如今的 Copilot 战略核心在于通过建立一个开放且高度融合的生态系统,将 AI 的力量渗透到每一个开发环节和应用场景中,从而以增强 AI 生态的形式,固化 AI 应用能力。
除了个人 Copilot,微软还着重强调了 Team Copilot。
在 GPT-4 的加持下,微软是最早在办公软件中提出 Copilot 概念的公司之一。此次更新的 Team Copilot 主要功能包括:会议主持人,通过管理议程和记录会议笔记,使会议讨论更加高效;小组协作,帮助团队成员从聊天中提取重要信息,跟踪行动项目,并解决未解决的问题;项目经理,创建和分配任务,跟踪截止日期,通知团队成员需要输入的时间,确保项目顺利进行 。
这三大主要功能与 Google I/O 大会上刚刚提过的的 " 数字员工 " 几乎重叠。
而更有价值的是,微软允许企业和开发者构建 AI 驱动的 Copilot,这些 Copilot 可以像虚拟员工一样自动执行任务。这一改变意味着 Copilot 不仅仅是被动等待查询的工具,它将能够执行如监控电子邮件收件箱、自动化数据录入等一系列通常由员工手动完成的任务。
此外,微软的 Copilot Connectors 功能可以为企业实现数据的无缝结合,且支持多种数据源的整合,如公共网站、SharePoint、OneDrive、Microsoft Dataverse 表、Microsoft Fabric OneLake 和 Microsoft Graph 等。这使得 Copilot 能够利用丰富的数据资源,提供更为精准和个性化的服务,进一步增强了其在企业应用中的价值。
微软目前正在向一小部分早期访问测试者预览这一新功能,并计划在 2024 年晚些时候在 Copilot Studio 中进行公开预览。企业将能够创建一个处理 IT 帮助台服务任务、员工入职等任务的 Copilot 代理。微软在一篇博客文章中表示:"Copilots 正在从与你一起工作的助手演变为为你工作的助手。"
相比于 Google 上周提到的 AI Teammate,微软的 Copilot Studio 似乎能提供更高的灵活性。允许企业根据自身需求定制 Copilot,使其能够执行特定的业务流程。自定义的灵活性使企业能够更好地利用 Copilot 来提升业务效率。但也可能设置了较高的使用门槛。
谷歌的优势则在于借助于 Google Cloud 和 Google 的搜索引擎技术,Gemini 能够高效地处理和分析大量数据,提供精准和实时的业务洞见。
企业对 AI 技术的依赖程度增加,也可能导致对技术提供商(如微软)的高度依赖。不过,目前两家都是要深度融合自身办公软件生态以及云业务,拼到最后,可能还是要卷价格。
结语
与 OpenAI 的绑定,目前仍是微软的重要竞争力,但微软已经开始思考如何减少对外部的依赖。
从投资自研 AI 芯片到优化用户体验,微软着力于解决技术落地的实际难题,寻求在通用性和个性化需求间找到平衡点。通过跨行业合作与自家产品线的 AI 集成,微软旨在深化其在各领域的影响力并拓宽业务范围,同时促进办公软件及云服务的智能化升级。
AI 技术的深度整合与定制化服务,如 Copilot Studio 和 Team Copilot 等也在推动微软巩固并扩展其在开发者和企业市场的影响力,将 AI 从辅助工具转变为驱动业务的核心动力。
微软一系列产品整合的产物,正是当下市场的大势 AI PC,这也正是微软为了最大的机会。基于模型能力,操作系统的天然优势,以及生态中沉淀的 AI 应用产品,微软的 AI PC 相对于其他市场中已有的 PC 产品几乎是最易成功的。
然而,微软的多模型策略与生态构建也并非坦途,仍要面临模型协同、成本控制及生态系统割裂等一系列挑战。
-
- 把相机“塞进”手机,vivo 做到了
-
2024-05-27 18:23:25
-
- 卧底“论文工厂”:剽窃论文、编造数据,写手用AI生成廉价论文
-
2024-05-27 18:21:09
-
- AI大爆炸时代,低代码仍是企业数字化核心引擎
-
2024-05-27 18:18:53
-
- 中国的跨境“黄埔军校”,竟是由美国人在50年前创建
-
2024-05-27 18:13:33
-
- 百年老店四度换帅,国货美妆巨头路在何方?
-
2024-05-27 18:11:17
-
- 四部门:培育壮大城市数字经济;国家数据局:2027年全国城市全域数字化转型取
-
2024-05-27 18:09:02
-
- 转给高考生!60个关于2024高考的高频问答
-
2024-05-27 18:06:46
-
- 对话侯晓迪:大模型催快的自动驾驶与搅局的马斯克
-
2024-05-27 18:04:30
-
- 不到500元!我买来了世界上第一款「串流掌机」
-
2024-05-22 02:37:04
-
- 一代神车停产,雪佛兰拼了
-
2024-05-22 02:34:48
-
- 雁默:接下来四年,警惕赖清德在这方面做文章
-
2024-05-22 02:32:32
-
- vivo X100s首发评测:满配直屏旗舰的标准答案
-
2024-05-22 02:30:15
-
- 低空经济第一城竞逐提速:各地在争什么?谁将脱颖而出?
-
2024-05-22 02:27:59
-
- 突发 500亿钛白粉龙头实控人逝世
-
2024-05-22 02:25:43
-
- 2024年5月21日外交部发言人汪文斌主持例行记者会
-
2024-05-22 02:23:27
-
- 日本AI大败局的启示
-
2024-05-22 02:21:11
-
- 腾讯混元文生图大模型开源:Sora 同架构,更懂中文
-
2024-05-22 02:18:55
-
- 天才创始人对谈AI教父Hinton:多模态是AI的未来,医疗将发挥AI最大的潜力
-
2024-05-22 02:16:39
-
- 订单砍半,卖家:“跌跌”不休
-
2024-05-20 23:42:24
-
- 只有谷歌受伤的世界达成了,但“全能模型”到底该不该跟?
-
2024-05-20 23:40:08