微信扫码
添加专属顾问
我要投稿
微软Build 2025大会精华汇总,AI代理成为焦点,展现微软生态新格局。 核心内容: 1. 微软Build 2025大会聚焦"开放代理网络",萨提亚将AI发展比作平台转变"中局" 2. 微软高管团队现场演示,萨提亚邀请奥特曼、马斯克、黄仁勋等业界领袖分享AI见解 3. 微软宣布集成Anthropic主导的MCP Agent协议,展现全栈技术进展,从开发者工具到AI平台
不知道科技公司举办大会是不是也要看黄历,但这个星期应该是大家一起算好的:台北的Computex、谷歌的I/O、Dell World,以及在在西雅图举行的微软Build 2025开发者大会,接连上演。
而如果说在同一时间开会是一种时间上的巧合,那么大家把专注点点放在AI,具体来说是Agents(AI代理)则是话题上的必然。而微软这次大会围绕"开放代理网络"(open agentic web)这一核心概念展开,萨提亚将当前的技术发展阶段比作平台转变的"中局"——类似于1991年的Win32、1996年的Web栈以及2008年的云计算和移动技术。
所以说起来,萨提亚对于AI态度还是相对保守,大家都知道1991年的Win32和2008年的iPhone其实都不算成熟,只是惊艳,真正的窗口操作系统、备受欢迎的App Store改变一切在历史上,还要再等五年左右。不过鉴于很多AI实验室都把AGI的实现定位于2030年,似乎时间表上也没有差距太多。
这场长达近两小时的主题演讲不仅邀请了微软高管团队进行现场演示,萨提亚还特别邀请了OpenAI的山姆·奥特曼、X.AI的埃隆·马斯克以及英伟达的黄仁勋通过视频方式分享他们的见解。大家知道,马斯克和奥特曼现在是仇人见面人外眼红的对家,但是能在同一个场合出现,足见萨提亚时代的微软已经把生态玩明白了。
特别要提的是,微软在打造AI开发工具,而OpenAI也刚发布了自己的OpenAI Codex,其实这两家公司也从当年的紧密对手,演变到现在亦敌亦友的关系。既然潜在对家也能一起谈AI开发,那么微软这次宣布在Windows中集成Anthropic主导的MCP Agent协议也就完全不意外了。毕竟,MCP也可以是Microsoft Content Proxy。
再概括一下,这次大会基本涵盖了从开发者工具、代理应用、AI平台到基础设施优化的全栈技术进展。不管你是否是微软技术生态的参与者,但我想都是从开发者视角,观察模型时代的一个非常好的切入点。
一、开发者工具的演进:Visual Studio家族、GitHub及开源Copilot
萨提亚开始演讲时强调,软件工程的本质在于拥有合适的工具来实现创意、完善工艺并驾驭复杂性。微软一直在不断改进这些工具,现在已经看到了惊人的发展势头。
"Visual Studio家族现在拥有超过5000万用户,GitHub已拥有1.5亿用户。GitHub Copilot已被超过1500万开发者使用,我们才刚刚开始。"萨提亚如此描述微软开发工具的广泛影响力。
微软为Visual Studio推出了多项新更新,包括.NET 10支持、设计时实时预览、Git工具改进、跨平台应用新调试器等。同时,Visual Studio正转向每月一次的稳定版发布节奏。对于VS Code,微软刚在几周前以开源方式发布了第100个版本,改进了多窗口支持,并简化了直接从编辑器查看暂存内容的操作。
GitHub持续成为开发者的家园,GitHub Enterprise在企业级市场拥有强劲势头。微软正加倍投入,支持开发者构建任何类型的应用,同时保证信任、安全、合规、可审计性和数据驻留等关键要素。
随着AI在编码过程中变得越来越核心,微软宣布了一项重大决定:
"随着GitHub Copilot在VS Code中的演进,AI已成为我们编码方式的核心。这就是为什么我们要开源VS Code中的Copilot。从今天开始,我们将把这些AI驱动的功能直接集成到VS Code的核心中,将它们带入为世界上最受喜爱的开发工具提供支持的同一个开源仓库。"
萨提亚强调,过去几年里,GitHub Copilot已从代码补全发展到聊天功能,再到多文件编辑,现在发展到了代理。这一模式正在整个代理网络中更广泛地出现。人们可以向AI助手提问并获得答案,可以将任务分配给代理并让它们执行,也可以与AI并肩工作来完成工作和项目。开发者可以混合搭配所有这些形式,因为作为开发者,重要的不是某一种特定形式。
二、代码代理:从配对编程到对等编程的转变
萨提亚在演讲中重点介绍了GitHub Copilot的一系列重大进步,这些进步正在将AI从简单的编程助手转变为真正的编程伙伴。
"我们正在将应用现代化直接构建到代理模式中。Copilot现在能够升级框架,比如从Java 8到Java 21,或从.NET 6到.NET 9,并将任何本地应用迁移到云端。它为您的代码和依赖项创建计划,在过程中提出修复建议,从您所做的更改中学习,使整个过程无缝进行。"
接着,萨提亚介绍了一项新功能:为站点可靠性工程(SRE)打造的自主代理。"想想我们任何人面临的最大痛点之一:半夜被叫醒处理线上问题。以值班情况下的内存泄漏问题为例,SRE代理会自动开始分类、查找根本原因、缓解问题,然后将事件管理报告记录为GitHub问题,包含所有修复项。从那里,您甚至可以将修复项分配给GitHub Copilot。"
随后,萨提亚宣布了另一个重大进步:直接内置于GitHub的完整编码代理,将Copilot从配对程序员提升为对等程序员。"您可以向Copilot分配问题,包括错误修复、新功能、代码维护,它会自主完成这些任务。今天,我非常兴奋地宣布,它现在已经向所有人开放。"
为了展示这一功能,萨提亚亲自进行了演示。他打开了GitHub问题列表,选择了一个关于添加用户组大小过滤器的问题,并简单地将其分配给了Copilot。"让我们做最简单的事情,就是把它分配给我的新伙伴,Copilot。"一旦分配,Copilot立即开始工作,创建了一个PR(Pull Request)并开始处理问题。
萨提亚解释了这个过程的工作原理:"它正在设置一个分支,启动GitHub Actions以为您生成计算资源或创建虚拟机。它向会话日志提交草稿PR,事实上,您可以返回会话日志并继续查看它工作时的所有草稿PR。"
同时,萨提亚强调了安全性的重要性:"我们的编码代理在提供出色的开发者体验的同时,尊重所有安全措施。代理在自己的分支中工作,它只使用开发者配置的MCP服务器。我们可以让其他代理进行代码审查,并在运行任何CI/CD或合并之前让人参与其中。我们还将所有这些内置功能提供给合作伙伴,以确保有一个开放和安全的代理生态系统,无论是SRE、SWE、代码审查,还是更多其他代理,都是由你们所有人构建的。"
三、OpenAI合作:山姆·奥特曼对话及OpenAI Codex代理的推出
在介绍了微软的代码代理进展后,萨提亚邀请OpenAI的CEO 山姆·奥特曼通过视频连线参与讨论。萨提亚特别提到了上周五刚刚推出的OpenAI Codex代理,并表示很高兴山姆能加入Build大会。
山姆·奥特曼首先回顾了与微软的长期合作:"萨提亚,你和我已经讨论这个很长时间了。事实上,第一个Codex版本,我想是在2021年,我们在GitHub上一起做的第一件事之一。我们一直在讨论有一天我们会达到一个真正的代理编码体验。对我来说,这终于到来了,这真是太疯狂了。我认为这是我见过的编程领域最大的变革之一。"
奥特曼强调了虚拟队友的概念:"这个想法是你现在有一个真正的虚拟队友,你可以分配工作给它,你可以说,'嘿,去做一些你刚才在做的事情,'以及越来越复杂的事情,某个时候可能会说,'我有个大想法,去工作几天然后完成它。'你可以并行发出多个请求,可以修复bug,实现新功能,回答关于代码的问题。这是真正的软件工程任务委派。我认为这只会变得越来越好,但这是一个非常令人兴奋的时刻。它与GitHub深度集成,你可以给它访问仓库和环境的权限,然后你可以完成一些相当惊人的工作。"
萨提亚询问了奥特曼关于AI模型路线图的看法。奥特曼回应说:"模型已经非常智能了,它们还会变得更智能。但我认为最令人兴奋的事情之一是模型将变得更简单使用。你不会有那么多模型需要选择,它只会自动做正确的事情。它们会变得更加可靠,你可以在更多方面信任它们。会有更多功能,如多模态、出色的工具使用和集成。它会更接近于'它就是有效'的状态。你知道,我可以和它交谈,可以进行复杂的编码代理操作,我可以依赖它。我认为人们会对我们在这些方向上的进展速度感到惊讶。"
关于构建高规模生产级有状态代理应用的建议,奥特曼表示:"我认为这方面最难、最困难的事情之一就是变化的速度。如果你想想两年前、一年前或现在可能的东西,以及再过一年或两年可能的东西,为这种模型能力的惊人增长以及人们在不久的将来如何构建产品、软件和公司进行规划,真正依靠新工具和新的工作流程,这确实很重要。我们在历史上没有见过很多像这样的技术转变,但每次发生这种情况时,早期和大力投入都是非常有回报的。"
奥特曼还分享了他在内部使用Codex的观察:"在过去几个月里,当我们在内部开发Codex时,总是有一些早期采用者。那些整天使用Codex的人如何迅速改变工作流程,以及他们相对于其他人能够完成的令人难以置信的工作量,这真的很有趣。"
四、Microsoft 365 Copilot的重大更新:从单一工具到全方位AI协作平台
萨提亚在演讲中上升到了平台层面,特别介绍了Microsoft 365 Copilot的最新更新,这是该产品迄今为止最大的一次升级,现已全面上市。他指出:"这是最大的更新。事实上,如果你想想——我认为自从Teams推出以来,我们还没有过这种级别的更新。它真正将聊天、搜索、笔记本、创建和代理全部整合到一个直观的框架中。"
萨提亚强调这是"AI的用户界面",并详细介绍了各个组件的功能:
聊天:基于网络数据和工作数据,特别是通过页面功能,这是一个改变游戏规则的特性
搜索:跨所有应用程序工作,无论是Confluence、Google Drive、Jira还是ServiceNow,不仅仅是M365数据
笔记本:可以创建异构数据集合,包括聊天、页面、任何文档、电子邮件等,甚至可以获取音频评论或播客
创建:可以将PowerPoint转换为新的解释视频或生成图像
代理:引入了一些特殊代理,如研究员和分析师
"研究员对我来说可能是最大的游戏改变者,因为它在网络和企业资源之间进行综合,对任何主题或项目应用深度思维链推理。分析师可以处理多个源文件中的原始数据。我可以上传一堆Excel文件,它会得出重要见解,进行预测,完成所有可视化。这些代理最终都是为了让专业知识触手可及。"
Teams则将所有这些功能融合在一起,使之成为多人协作工具。开发者构建的所有代理现在都可以在Teams和Copilot中显示。用户可以通过在聊天或会议中@提及代理来提问、分配行动项或启动工作流程。随着Teams AI库的发布,构建多人代理变得比以往更容易,它现在支持MCP(Model Context Protocol),只需一行代码就可以启用A2A(Agent-to-Agent通信)。开发者还可以通过使用Azure搜索和新的检索系统添加情景或语义记忆功能。
萨提亚强调的最大进步是发布功能:"作为开发者,你现在可以将你的代理发布到代理商店,让它们在Copilot和Teams中被发现和分发,为你提供数亿用户的访问机会,解锁这一潜力。"
过去一年中,各行各业的合作伙伴已经构建了连接到Copilot和Teams的代理。萨提亚举例说明:
Workday代理:可以询问Copilot需要关注什么,它会提供所有Workday任务的摘要,帮助跟踪学习、审批和工作流程
ServiceNow代理:可以实时询问事件、所有解决方案指标,然后用它立即创建包含所有结果的PowerPoint演示文稿
LSEG代理:金融专业人士可以在Excel和PowerPoint中发现、分析、共享交易所发布的任何金融数据
通过Copilot Studio,开发者可以开始构建自己的代理。微软已经为Copilot Studio发布了大量新功能,最近还添加了完整的CUA代理和MCP代理流程,使开发者可以混合搭配LLM和确定性工作流程。
"今天,我们正在使用编排功能,让在Copilot Studio中构建更复杂的多代理工作流变得更加容易。以新员工入职为例,这实际上是一个相当复杂的过程,涉及设施、财务、法律等部门的代理,每个代理都有自己的专业知识和工作流程。你可以将它们全部整合在一起,一切都会加快,每个人的体验都会更好。这就是Copilot Studio中的多代理编排功能。"
萨提亚宣布,在过去一年中,开发者已经构建了超过100万个连接到Copilot和Teams的代理,微软不会放慢脚步。接着,他介绍了一类新的企业级代理——Copilot Tuning(Copilot调优):
"今天,我们推出一类新的企业级代理,你可以使用针对公司数据、工作流程和风格微调的模型来构建这些代理。我们称之为Copilot Tuning。这是一个大事件。在某种程度上,这不仅仅是使用Copilot,而是为每个客户、每个企业、每个公司调整Copilot。Copilot现在可以学习你公司独特的语气和语言,很快,它甚至会更进一步理解公司所有特定的专业知识。你只需要用一小组参考资料为训练环境提供种子,然后启动培训。定制模型继承了所有源控制的权限,一旦集成到代理中,就可以部署给授权用户。"
萨提亚举例说明了Copilot Tuning的应用场景:法律公司可以通过过去的论点和相关文献进行推理,提供非常具体的答案或生成文档;咨询公司可以为每个垂直行业调整这些模型,以反映对该行业工作流程的特定知识。
五、Copilot生态系统实机演示:从研究代理到RFP响应代理的全景展示
为了展示Copilot生态系统的强大功能,萨提亚邀请了Miti上台进行现场演示。Mitty展示了如何使用新的Microsoft 365 Copilot应用、Copilot Studio和Copilot Tuning扩展生产力解决方案。
首先,Miti展示了新的M365 Copilot应用如何对GitHub积压工作进行推理:"这个应用是我的五合一工作中心。它有聊天、搜索、代理、笔记本和创建功能。在这里,我可以调用代理,比如研究员代理。研究员可以对我所有的工作数据进行推理。有了连接器,它甚至可以访问GitHub。让我们请求帮助分析性能问题并确定下一步的优先级。"
当Miti提出问题后,研究员代理提出了一些澄清性问题,就像将任务委派给团队成员一样。Miti给出更多指示后,代理开始工作。由于它建立在OpenAI O3推理模型之上,研究员展示了其思维链,从网络和工作数据中提取信息。
随后,Miti展示了如何在Visual Studio中构建这个连接器:"这只需要几个步骤。我会添加一个名称和保存位置。几秒钟内,M365代理工具包就给了我完全脚手架的代码,我可以通过使用Microsoft Graph API创建连接来修改它。然后我可以索引任何类型的数据。在这里,我为我的场景定义了一个特定的模式。接下来,我使用GitHub API获取我的问题。最后,我将每个问题注入到Microsoft Graph中,这样Copilot现在可以对这些数据进行推理。"
接着,Miti展示了Copilot Studio如何帮助构建几乎不需要代码的代理:"这里,我创建了一个RFP响应代理,你可以在Teams中看到它。我看到它生成了一个提案,它甚至使用自己的Entra ID进行发布。这里你可以看到,我们有一个特定的提案,包含了你期望的内容、语言和格式——例如,来自有经验的员工。"
Miti解释了如何构建这个代理:"在这里,我描述了我希望代理做什么,并给了它一些指示。默认选择了GPT-4.0响应模型,但我可以通过AI Foundry选择其他模型。向下滚动页面,我选择了为这个代理提供基础的知识,确保它从我组织内的正确来源获取信息。继续滚动到工具部分,我添加了这个触发器,只要我的收件箱中收到新的RFP,就会提示我的代理开始工作。"
为了使提案更详细,Miti将代理链接到Dynamics MCP服务器,以访问SKU和定价数据:"只需点击几下,它现在就连接好了。这个服务器会自动保持代理更新。它还可以使用第三方服务器,如DocuSign,或我们创建的自定义MCP服务器,如这个SAP服务器,以访问客户账户数据。"
Miti还展示了新的多代理编排功能:"正如萨提亚所说,这意味着代理现在可以相互协作,承担更复杂的工作。让我们将这个代理连接到一个专门进行合规检查的代理。通过编排,RFP代理可以连接到合规审查代理,确保没有红旗。如果通过,它将返回到这个代理继续该过程。"
最后,Miti展示了Copilot Tuning的实际应用:"这是一种低代码方式,可以完成通常需要一整个数据科学团队数周时间才能完成的工作——为合同撰写特别设计的微调新模型。"
Miti打开合同构建器代理,要求它使用几个示例文档起草合同:"它将参考这些文档和我创建的自定义模型来组装合同。当文档完成后,我将收到一封带有草稿的电子邮件。让我们看一下。我看到这份合同正在使用我们公司的语言、条款和条件、结构和格式。"
Miti还演示了如何构建这个自定义模型,包括创建新模型、添加基本信息、选择任务类型、添加知识来源、指定访问权限以及确保所有访问权限与调优模型保持一致。完成训练后,从M365 Copilot应用中,团队可以选择创建代理、选择特定任务的代理,并选择刚刚微调的合同构建器模型。
"这样,代理就准备好了。我现在已经扩展了作为开发者可以交付的工作,让那些最接近业务的人能够用AI重新构想他们的工作流程。"
六、Azure AI Foundry:构建生产级AI应用的全栈平台
回到台上的萨提亚表示,他对Copilot Studio感到非常兴奋。随着访问推理模型的能力、进行Copilot调优的能力以及这些确定性工作流,开发者现在可以考虑以代理方式为每个角色、每个业务流程编排工作流程。特别是一旦每个业务应用程序都作为MCP服务器出现,作为开发者,你可以开始考虑下一级别的自动化。这完全改变了我们思考工作流程和业务流程自动化的方式,那些SaaS应用程序和生产力软件都按角色和流程结合在一起。
萨提亚解释道:"对我们来说,我们正在做的是将Copilot、Copilot Studio下面的所有内容作为一个一流的平台提供给所有开发者,以构建自己的应用程序,自己的应用程序扩展。随着模型进化得更快、变得更加强大,每隔几个月就有新样本发布,应用程序将不得不演变成这些完整的有状态应用程序,它们是多模型和多代理的。这是现在的重大转变。不再是一个模型只有一个请求-响应API调用。我们正在构建真正的有状态多模型应用程序,而且它们必须是生产就绪的。这就是构建一流应用服务器的动机。"
萨提亚将Foundry比作智能的生产线:"构建这些代理和应用程序需要的不仅仅是一个很棒的模型。模型周围的系统,无论是评估、这个编排层还是RAG,都真的非常重要。Foundry就是AI时代的完整应用平台。"
他指出,超过70,000个组织已经在各行各业使用它——宝马、Carvana、可口可乐、纳斯达克,以及许多独立软件供应商如Gainsight等。企业正在从仅仅进行概念验证转向这些企业范围的部署,以真正释放AI的投资回报率(ROI)。
"事实上,在过去三个月中,我们已经处理了超过100万亿个标记,同比增长5倍。事实上,当我最近在日本时,我看到了一个用Foundry构建的应用程序,正在帮助有听觉处理障碍的人理解他们听到的内容。它让我大为惊叹。"
随后,萨提亚播放了一段关于日本iSHIN和Katasan开发者团队如何利用AI技术帮助听觉处理障碍患者的视频。视频结束后,萨提亚表示:"真的非常感谢iSHIN和Katasan的所有开发人员分享这个故事。这真的很鼓舞人心。"
今天,微软正在进一步推进Foundry。首先是模型选择:"我们已经支持1,900个模型,无论是响应模型、推理模型、特定任务的模型,还是多模态模型,你能想到的都有。它们都在Foundry中。当然,这包括来自我们的合作伙伴OpenAI的最新模型。仅在今年,我们就在Azure上同时发布了15个来自OpenAI的模型,当新模型发布时提供同一天访问。Sora将在下周推出。"
作为开发者,微软关注多个维度——成本、可靠性、延迟以及质量。Azure OpenAI在这些方面都是一流的,提供企业级保证,如高可靠性和出色的成本控制,以及领先的安全性、合规性和安全性。
但是,选择模型仍然可能是一件麻烦事。因此,微软正在使其变得更加容易:"我们的新模型路由器将自动为工作选择最佳的OpenAI模型,不再需要手动模型选择。今天的方法从只将您构建的应用程序或代理绑定到一个模型,转变为真正成为多模型。"
七、Grok与Azure的集成以及与埃隆·马斯克的对话
在介绍了微软自己的AI服务后,萨提亚宣布了一个重大消息:"今天,我们很高兴地宣布,来自XAI的Grok将进入Azure。Grok 3提供推理、深度搜索、响应模型,全部在一个单一模型中。很高兴有机会在周末与Elon谈论它。"
随后,萨提亚播放了与埃隆·马斯克的对话视频。在视频中,马斯克首先回顾了他与微软的早期联系:"实际上,我是在Windows之前就开始使用DOS的。我有一台早期的IBM PC,运行MS-DOS。我想我一开始有128K内存,然后它翻倍到256K,感觉很多。所以我在DOS中编程视频游戏,然后在Windows中。还记得Windows 3.1吗?"
关于Grok的愿景,马斯克解释道:"使用Grok,尤其是即将发布的Grok 3.5,它试图从第一原理进行推理。所以应用物理学的工具进行思考。如果你试图获得基本真理,你将事物分解为最可能正确的公理元素。然后你从那里推理,然后你可以根据这些公理元素测试你的结论。在物理学中,如果你违反了能量或动量守恒,那么你要么会获得诺贝尔奖,要么你是错的,而且你几乎肯定是错的。所以这就是Grok 3.5的真正焦点,应用物理学工具进行各种推理。追求真理,尽量减少错误。"
马斯克还强调了这对AI安全的重要性:"我长期以来一直在思考AI安全。我的最终结论是那句古老的格言:诚实是最好的策略。这对安全真的很重要。但我确实想强调,我们已经并将会犯错,但我们希望能够非常快速地纠正它们。我们非常期待来自开发者社区的反馈,告诉我们你们需要什么?我们哪里错了?我们如何做得更好?让Grok成为开发者社区非常乐于使用的东西,他们可以感到自己的反馈被听到,Grok正在改进并满足他们的需求。"
萨提亚表示:"我很高兴开始这段旅程,获取开发者反馈,然后期待他们如何部署它。非常感谢你,Elon,今天简短地加入我们。我们真的很兴奋能与你合作,将这个产品交到开发者手中。"
萨提亚补充说:"是的,我有机会再次与他交谈。然后他谈到他们正在用3.5做的所有事情。所以我们想开始这段旅程,在API前端获得反馈,并帮助他们完成路线图。"
当你有多个模型时,你需要的是一种使用这些模型的新能力。现在,你可以在Foundry上配置一次吞吐量,并且可以跨多个模型使用该配置的吞吐量,包括Grok。这完全改变了你思考模型和模型配置的方式。
萨提亚还提到了其他模型的支持,如Mistral(可以在欧盟地区进行主权部署)和Llama(他最近参加了与Mark的LlamaCon)。"正如他喜欢说的那样,他正在将整个llama群,完整的llama群带到Azure。我们对他们在开源方面所取得的所有进步感到兴奋,Black Forest Labs以及更多。所以所有这些都在这个配置吞吐量之后。作为开发者,能够混合搭配并使用它们所有的功能令我们兴奋。它们中的许多都有相同的API签名。所以即使能够进行这些模型切换也变得更加容易。"
微软还扩大了与Hugging Face的合作伙伴关系,因此开发者将可以在Foundry中访问超过11,000个前沿和开源模型。
八、从模型到知识:构建下一代检索增强代理
萨提亚强调,模型只是等式的一部分。对于构建代理的任何人来说,你需要能够真正地访问实时网络以及整个企业知识图谱。
"我们已经了解到,在构建RAG应用时,你需要一个更复杂的检索系统。仅仅有向量搜索和一些嵌入是不够的。你真正需要的是一个数据库或知识引擎,一个为代理专门构建的真正的查询引擎。这样你就可以分解复杂的查询,并行运行它们,返回综合结果。把它想象成代理的现代知识检索堆栈,了解用户想要什么以及你的数据意味着什么。"
一旦你拥有了系统的这一部分,下一层就是编排层,你希望能够编排所有这些代理或多个代理。"Foundry代理服务允许你构建声明式代理,实际上只需在门户中编写几行代码。对于复杂的工作流程,它支持多代理编排。它与像semantic kernel、auto gen这样的框架无缝集成。你可以像使用执行环境的托管服务一样使用代理服务。超过10,000个组织已经在使用它。我很高兴地宣布,现在代理服务已经普遍可用。"
一旦你的代理运行起来,你需要的下一件事就是计算环境。微软正在提供从无服务器Azure函数到Azure容器应用,再到AKS提供的极度控制以及如何扩展等全方位的计算服务,以便你可以为任何代理场景找到正确的价格性能。
微软正在使其变得直接,例如,将Foundry连接到你的容器应用或函数,并将任何开源模型部署到AKS中,无论是在云中还是在具有Arc的混合模式中。越来越多地,你甚至希望这些模型部署在边缘。Foundry将支持这一点。
微软还在缩小Foundry和Copilot Studio之间的差距。"这对我们作为开发者来说非常关键。你现在可以在Foundry中获取一个模型,对其进行微调或后训练,然后直接将其放入Copilot Studio,这样你就可以使用该后训练模型来自动化工作流程或构建代理。"
萨提亚随后介绍了斯坦福医学院如何使用多个代理来连接从患者历史到放射学,再到获取PubMed数据、临床试验数据和许多其他场景的例子。但有一个目标,就是他们如何将像癌症护理这样的关键任务和肿瘤委员会会议与AI一起编排?萨提亚播放了一段视频,展示斯坦福医学院如何使用多代理系统改进肿瘤委员会流程,将分散的信息整合在一起,提高决策效率和准确性。
视频结束后,萨提亚宣布:"我很高兴地分享,斯坦福使用的这种医疗代理编排器现在对Foundry中的每个人都可用了。这真是太棒了。老实说,当我看到那个视频时,我知道事情正在变得真实。想想看,你在Foundry中使用多个模型,你做这个多代理编排器,你把它整合在copilot和teams中。一个真实世界例子,以代理方式完成的一些工作流程编排,这就是当你知道你正在从一个小应用程序转向可以在整个企业中扩展的东西。"
九、可观察性与治理:将AI扩展到企业规模
说到扩展到企业,对于应用服务器的另一个重要考虑因素是可观察性。"这就是为什么我们现在有新的可观察性功能来到Foundry,以帮助你监控和管理生产中的AI。你可以在一个地方跟踪影响、质量、安全以及成本。"
"这不仅仅是这些。在未来,我们相信每个组织都将有人和代理一起工作。这意味着你今天普遍使用的系统,用于身份、端点管理、安全等,也需要扩展到代理。这是一个大事情,对吧?你希望你今天大规模使用的相同护栏也能适用于人和代理。"
"这就是我们正在做的。通过Entra ID,代理现在获得了自己的身份权限、策略、访问控制。你在Foundry和Copilot Studio中构建的代理会自动显示在Entra中的代理目录中。我们还与ServiceNow和Workday合作,通过Entra为他们的代理带来自动配置和管理。"
"当谈到数据治理时,Purview现在与Foundry集成,对吧?所以当你编写一个代理时,因为Purview,你可以确保端到端的数据保护,这是另一个巨大的安全考虑因素。在安全方面,Defender现在与Foundry集成。这意味着你的代理也受到保护,就像端点一样,防止像钱包滥用或凭证窃取这样的威胁。"
十、Azure AI Foundry与GitHub Copilot演示:打造更智能的AI旅行代理
为了展示Foundry的实际应用,萨提亚邀请了Kadesha上台演示如何使用Azure AI Foundry和GitHub Copilot简化开发生活。
Kadesha介绍了Vibe Travel,这是一个基于聊天的应用程序,使用Azure AI Foundry提供AI旅行代理,帮助人们计划旅行。她计划在大约八个月后去新西兰,所以她向"Vibey"询问滑雪的地方。
但AI给出的回答存在问题,没有考虑到八个月后是2026年1月,那时正是南半球的夏季。Kadesha指出:"我们绝对需要让我们的AI代理更聪明,给出更有根据的回答。"
她展示了如何在Foundry中改进这个问题:"我可以进入Foundry,查看我们为这个和其他应用程序提供的所有AI代理。我们的Vibe旅行代理使用GPT4O,并有一个相当不错的提示,但我们需要添加一些知识。我们可以通过提供带有参考数据的文件或连接到其他服务(如Microsoft Fabric或TripAdvisor)来做到这一点。但我认为我们可以通过添加Bing搜索的基础来走很长的路,所以让我们选择该选项。真的很简单。"
除了让代理访问知识外,他们还让它访问航班预订API。当他们返回应用程序并再次尝试查询时,结果明显改进:"能够添加数据源或搜索功能使代理更聪明,并且不太可能产生幻觉。在大约八个月后,是2026年1月,这是夏季。无法滑雪。这好多了。你看到我改进它有多容易。"
接下来,Kadesha展示了如何让代理代表她预订航班:"添加代理可以执行的操作,将应用程序从简单的问答机器升级为可以代表你实际执行任务的自主代理。我可以使用一个操作将预订放入我的日历,或请求预订酒店,甚至从内部系统请求休假。"
随后,Kadesha演示了如何使用GitHub Copilot代理模式改进工作流程:"让我们打开Copilot代理模式,这是新的,顺便说一下。我可以在所有主要LLM提供商的最受欢迎和最强大的模型之间进行选择。代理模式将GitHub Copilot的作用扩展到不仅仅是回答问题或建议代码,而是实际帮助我完成工作。"
她展示了如何使用Copilot查看分配给她的GitHub问题,以及如何让Copilot帮助实现改进。特别是,她需要改进应用程序中的重置按钮功能,在清除聊天会话前添加警告。通过提供截图和上下文,Copilot能够理解设计需求并实现相应的UI变更。
同时,Kadesha还检查了之前由萨提亚分配给Copilot的问题——添加组大小过滤器。Copilot已经开设了一个拉取请求,实现了这些变更,并将应用部署到了暂存环境,展示了组大小过滤器成功添加的结果。
十一、Foundry Local与Windows AI Foundry:将AI能力扩展到边缘和客户端
萨提亚回到舞台,宣布了另一项重要发布:"到目前为止,我们已经讨论了我们在云中所做的一切。现在,我们想通过Foundry Local将这种应用服务器和应用构建能力也带到边缘和客户端,这是我们今天宣布的。它包括一个非常快速、高性能的运行时、模型、代理即服务,以及用于本地应用开发的CLI。是的,它完全支持Windows和Mac。"
接着,萨提亚谈到了Windows:"如果你是一个开发者,Windows是最开放的平台,拥有巨大的规模,超过10亿用户和10亿设备可以接触到。我们不断改进它,使它更安全、更可靠、更适合你的应用,无论你想在哪里运行,事实上,Windows映像,无论是在云上还是在客户机上。在过去的一年里,我们已经看到从Adobe到Zoom的开发者在Windows上使用这些设备上的AI功能来发布一些令人惊叹的应用程序。如果你去商店和AI中心,你可以开始看到许多这些功能亮起来。今天,我们迈出了另一步,使Windows成为AI的最佳平台。我们很高兴地宣布Windows AI Foundry。"
"Windows AI Foundry是我们内部用来构建Copilot Plus PC功能的工具,如回忆或点击完成。所有这些现在都是使用相同的运行时和SDK构建的。现在我们正在扩展这个平台,以支持完整的开发生命周期,不仅在Copilot PC上,还跨CPU、GPU、NPU,所有这些以及在云中。所以你可以构建你的应用程序,并让它们在所有这些芯片上运行。"
"Foundry Local内置于Windows AI Foundry中。所以你可以利用这个丰富的预优化开源模型目录,在你的设备上本地运行。使用Windows AI Foundry,你可以自定义——这非常酷——我们内置的Fisilica SLM,使用LoRa适配器来满足你应用程序的任何特定需求。想想看。映像带有Fisilica。你只需在你的应用程序中做一个LoRa适配器。它就能工作。如果O1和DeepSeq标志着云中推理或测试时计算的开始,那么我认为Fisilica将彻底革新PC上的推理计算。你们作为开发者将真正利用它来构建一些令人惊叹的体验。"
"除了模型本身,你现在还拥有所有这些丰富的语义API,可以将你的本地数据嵌入并索引到一个向量存储中,所有隐私都受到保护。然后你可以做这些混合RAG应用程序,当你做RAG时,你实际上可以访问本地数据并使其相关,上下文相关。如果你正在构建自己的模型,Windows ML为你提供了一种跨各种芯片部署高性能AI的路径,而无需所有这些特定于设备的调整的复杂性。"
"今天,我们正在迈出下一步,为代理网络现代化Windows。我们宣布在Windows中原生支持MCP。Windows现在将包括几个内置的MCP服务器,如文件系统、设置、应用操作以及窗口管理。我们正在添加原生MCP注册表,让MCP兼容的客户端发现已经过我们安全、性能验证的安全MCP服务器,同时让你保持控制。"
十二、Windows上的MCP实机演示:实现无缝代理协作的新范式
萨提亚邀请Divya上台,展示作为应用开发者和Windows应用用户,这一切是如何协同工作的。
Divya展示了如何使用VS Code中的GitHub Copilot和Windows上的MCP,仅通过三个句子就设置新的Linux发行版、构建完整的网站项目并使用Figma设计进行更新。
首先,Divya强调了设置的重要性:"为了让代理连接到MCP服务器,应用程序需要明确的用户权限。在设置中,你会看到我已经启用了WSL和Figma,这样它们的MCP服务器可以轻松地被代理访问。其他应用程序保持在它们的禁用默认状态,让我作为用户完全控制。"
Divya打开VS Code并使用GitHub Copilot的代理模式,提出了第一个请求:"你能在WSL中搜索最新版本的Fedora并为我安装它吗?一旦安装完成,你能否也在Fedora中使用Node.js设置一个简单的网站项目?"
在获得用户同意后,Copilot开始与WSL MCP服务器建立安全连接,查询可用的在线发行版,发现Fedora 42是最新版本,并开始安装。安装过程需要2-3分钟,所以Divya切换到了一个已完成设置的设备。
"GitHub Copilot和代理模式足够智能,能够相当无缝地解析这个多步骤请求。它还查询了WSL在线发行版,为我设置了Fedora环境。它还使用DNF包管理器直接在Fedora内部安装了Node.js和NPM。最棒的部分是它还知道如何运行直接与我设备上的WSL交互的特定命令。"
接下来,Divya展示了由Copilot创建的简单网站项目,并决定进一步改进它:"我想更进一步,让它看起来像我在Figma中选择的设计。这是我的Figma桌面应用程序,这是我选择的设计——Penguin Penpals。"
Divya回到VS Code提出第三个请求:"你能让我的网站看起来像我在Figma中选择的设计,并提取设计细节并应用到我的项目中吗?"
Copilot再次与Figma MCP服务器建立安全连接,获得用户同意后开始工作:"在这之前,它查询了我的MCP注册表中可用的服务器列表,发现Figma是执行此任务最相关的服务器,然后它继续连接。一旦连接上,代理直接从Figma提取设计细节,将它们集成到我的项目中,并相应地更新网站的布局、设计、样式和内容。"
这个过程大约需要2-3分钟,Divya切换到了另一个已完成最终步骤的设备:"在左侧,你会看到通过从我的Figma桌面应用程序中提取设计细节而应用的代码更改。现在是我们去看看它为我创建的网站的好时机。"
展示的网站完全符合Figma中选择的设计,引发了观众的掌声。
Divya总结道:"我们只用了单一聊天界面中的三个句子就完成了所有这些。这只是我今天向你展示的一个以开发者为中心的场景示例。想象一下这能为你解锁的其他令人难以置信的机会,提高你的生产力,同时保持安全。这就是Windows上MCP的力量——安全、代理驱动和以开发者为先。"
十三、开源WSL:履行十年前的承诺
萨提亚回到舞台,指出:"正如你在VS Code、GitHub Copilot和WSL中看到的那样,我们真的在让Windows成为代理网络的最佳开发环境。说到WSL,我们大约10年前首次宣布了Bash on Ubuntu on Windows。它随后成为了我们今天显然称之为WSL的东西。回顾过去,事实上,仓库中的第一个问题是请求开源它。当时,我们项目的所有逻辑都与Windows映像的其他部分无法分离。但从那以后,随着我们所做的许多更改,WSL 2发行版更加可分离,它们是独立的。所以让我们回去重新打开那个第一个问题,并将其标记为已修复,因为今天我们正在使WSL完全开源。"
十四、构建开放代理网络:微软CTO Kevin Scott的愿景与NLWeb的推出
萨提亚邀请微软CTO Kevin Scott上台,分享关于代理网络生态系统和集体建设更加开放代理网络机会的更广阔视角。
Scott开场表示:"我认为这是我作为微软CTO的第九个Build,这看起来真的很长时间。我每年都来这里与你们所有人交谈。暂时忘记我是个内向的人,大约15、20分钟。并不是每年5月都会发生一些神奇的事情让我忘记我是个内向的人。只是在过去一年里,技术领域发生了如此多令人兴奋的事情。在未来一年还有如此多的事情即将到来,我只想与你们所有人分享一些热情。"
Scott继续解释了什么是开放代理网络:"现在真正让我兴奋的是一些正在出现的东西,不仅仅是因为微软希望它发生,而是因为我们所有人在过去几年集体开发的组件、协议和服务正在形成这个我们一直称之为代理网络的东西。真正令人鼓舞的是,它正以一种开放的方式发生,考虑到我们要去的地方,我认为这是我们都应该非常希望的事情。"
Scott解释了什么是代理:"一个代理是一个人类能够委派任务的东西。随着时间的推移,你委派给这些代理的任务变得越来越复杂。这就是我们随着时间推移所追求的目标。"
他提到,过去一年里,我们看到了代理本身的爆炸性增长:"这是我们对代理网络的图表。在栈的最顶端是我们正在构建的、我们的合作伙伴正在构建的、你们所有人正在构建的越来越丰富的代理生态系统。过去一年里发生在这些代理上的显著事情是,它们被使用的频率比以往任何时候都更加频繁。在我们能够看到的所有代理中,自从我上次在Build与你们所有人交谈以来,日活跃用户已经增加了一倍多。"
"但我认为发生的更大的事情是,由于过去一年推出的新推理模型,这些代理能够真正承担极其复杂的任务。你已经从萨提亚和上台提供演示的人那里看到了很多这些东西。一些代理现在可以做的令人难以置信的事情,特别是在软件工程方面。"
Scott解释了代理网络栈的不同层次:"在代理网络栈的代理层之上是称为运行时层的东西。运行时是我们正在构建的一组新兴组件。我刚刚提到的在过去一年里变得非常好的东西是运行时层内的推理层或推理组件。这些模型的推理能力将继续变得越来越好。如果说有什么,我认为现在我们在推理方面有一点能力过剩。所以模型比我们集体目前使用它们的方式更强大。我在今年Build对你们所有人的一个重大挑战是,考虑如何将你的野心水平提升到11,尝试针对你认为在推理能力方面现在几乎可能的事情。因为在未来12个月里,模型将变得更加强大,成本更低,我们不希望能力过剩比现在更大。"
Scott指出,除了推理外,还有许多基本的软件工程需要构建:"代理一个明显缺失的东西是真正健壮的代理记忆。我们通过像RAG和长上下文窗口这样的东西以多种方式近似它。但你真正希望你的代理能够做的是拥有丰富的记忆,它可以以真正的广度回忆,并且在回忆中可以有高精度,这样从记忆中拉回的东西是准确的,你可以信任和依赖它们。"
Microsoft正在通过开源系统TypeAgent解决这个问题,这是他们尝试解决代理记忆的一种方式,这对使代理不那么事务性至关重要。这样,它们可以解决一次问题并记住解决方案,记住与用户的互动,以便它们可以变得个性化并理解用户的偏好。
Scott特别强调了MCP(Model Context Protocol)的重要性:"MCP在过去几个月里疯狂发展。这是有充分理由的。它填补了这个开放网络、开放代理网络生态系统中一个极其重要的利基。它是一个非常简单的协议,类似于互联网中的HTTP,它允许你做真正复杂的事情,仅仅是因为协议本身对它携带的有效载荷没有太多意见。这也意味着它是一个很好的基础,你可以在其上层叠东西。"
Scott解释了MCP如何成为开放代理网络的关键协议:"如果你想想互联网本身是如何出现的,组件的可组合性和协议的分层对于获得丰富性真的很重要。它给你提供了良好的起点,并给你解决随着事情发展而发现的问题的能力。我们刚刚听到萨提亚谈论Windows中的MCP注册表。我们正在努力使Microsoft的第一方平台组件和第一方服务能够支持MCP。我们选择它作为代理之间以及代理到服务的代理通信的标准协议。"
Scott随后宣布了NLWeb的推出:"今天我们宣布——你们都应该去GitHub仓库查看代码——NLWeb。NLWeb背后的想法是,它是一种方式,任何拥有网站或API的人都可以非常容易地使他们的网站或API成为一个代理应用程序。它让你实现并利用大型语言模型的全部力量来丰富你已经提供的服务和产品。由于每个NLWeb端点默认都是一个MCP服务器,这意味着那些人们通过NLWeb提供的东西将可以被任何会说MCP的代理访问。所以你真的可以把它想象成有点像代理网络的HTML。"
"我们已经与一些合作伙伴合作,他们非常兴奋,并且能够非常快速地使用NLWeb实现快速实现和原型。我们与TripAdvisor、O'Reilly Media等一系列非常棒的公司合作,这些公司在互联网上提供重要的产品和服务,为他们的网站添加NLWeb功能,这样他们就可以直接在他们的网站上拥有这些代理体验。"
Scott展示了一个具体示例,如何使用NLWeb为GitHub仓库添加代理用户界面。通过简单的步骤,用户可以提取GitHub仓库的元数据,计算嵌入,然后进行自然语言查询,如"我写了这段代码,它在某个我不记得的PR中,我需要回忆这个算法的名称。"
Scott强调了开放性的重要性:"当简单的组件和简单的协议相互组合,暴露给世界上每一个想要参与或有想法的开发者的完全审查和创造力时,就能发生不可思议的事情。这个思想游戏我经常玩是,试着想象如果网络早期发展的参与者之一,比如说浏览器制造商,决定他们想要垂直整合并拥有整个网络,那么网络会是什么样子。100%的网络将由他们想象力的限制决定。有了30年的历史,很明显那不会是一个非常有趣的网络,因为网络之所以有趣,是因为数百万、数千万、数亿人参与使它成为这个丰富的动态事物。这就是我们认为代理网络需要的东西。这就是我们希望你们都能受到一点启发,去工作、去演奏,并利用你们想象力的全部范围来帮助使这件事变得有趣。"
十五、数据层与分析堆栈:为AI应用提供强大基础
萨提亚解释了Kevin描述的代理网络愿景:"代理网络愿景让我们更接近网络的原始愿景和精神。内容和智能现在可以在网络上更加分散和可发现。"
关于NLWeb,萨提亚表示:"如果你看看它,这是一个相当迷人的东西。我真的期待看到你们所有人如何利用它。但它使任何应用程序、任何网站的智能创建民主化。但这里有趣的是,它也使任何开发者对这种智能的聚合民主化。你可以很容易地看到它。给我一个推理模型,一个NLWeb,我可以采取一个意图并开始组合,使用推理模型去组合和合成跨越分布式智能。它完全改变了搜索是什么?什么是提要?这些东西中的任何一个在如何构建它方面得到完全改变。"
"所以这是我们想要一起创建的平台。我认为大事情将从中产生,因为这不仅仅是重复过去。过去10、15年,我知道,一直是关于聚合者的力量。我认为大事情将会转变。"
接下来,萨提亚转向了堆栈的下一层——数据:"毕竟,对于任何AI应用程序来说,数据层都非常重要。我们正在构建完整的数据堆栈。有很多很好的例子,无论是Lumen使用Fabric节省超过10,000小时,因为他们可以更快地访问数据,还是Sitecore使用我们的数据堆栈实现10倍的速度。但我最喜欢的例子之一是NFL,他们使用我们的数据堆栈来运行最近的选秀联合测试。"
萨提亚播放了一段视频,展示NFL如何使用微软的数据堆栈改进球员选秀过程。视频结束后,萨提亚宣布了Build大会上的大量数据新闻:"首先是即将推出的SQL Server 2025。更重要的是,我们正在将数据层和智能层比以往任何时候都更紧密地联系在一起。对于任何现实世界的代理,你都需要存储。这就是为什么我们将Cosmos DB直接集成到Foundry中。这意味着任何代理都可以存储和检索对话历史等内容。很快,他们还将能够使用Cosmos满足所有RAG应用程序需求。"
"我们正在通过Azure Databricks更进一步,将你在Genie空间或AI函数中的数据连接到Foundry。另一个非常酷的功能是现在在Postgres SQL查询中,你可以直接集成LLM响应。基本上,你可以混合自然语言和SQL,并以一种非常不同的方式进行编排和查询计划。"
"当谈到Fabric时,它是我们数据和分析堆栈的核心。Fabric将你所有的数据、所有的工作负载整合到这个统一的体验中。去年秋天,我们将SQL引入Fabric。今天,我们迈出了下一个重要步骤。我们也将Cosmos DB引入Fabric,因为AI应用程序需要的不仅仅是结构化数据。它们需要半结构化数据,无论是文本、图像还是音频。有了Cosmos和Fabric以及你的数据与SQL一起即时可用,你现在可以统一你的整个数据状态并使其准备好用于AI。"
萨提亚还提到了其他几项新功能:
数字孪生构建器直接内置到Fabric中,让用户可以轻松地使用无代码、低代码方式创建数字孪生
One Lake中的快捷转换,可以理解为AI驱动的ETL,允许应用预构建的AI驱动转换,如音频到文本或情感分析
Power BI中的Copilot,允许用户与所有数据进行聊天,提问、可视化探索、分析多个Power BI报告和语义模型中的数据
十六、基础设施优化与系统方法:与黄仁勋对话的硬件创新
萨提亚转向了堆栈的底层——基础设施:"作为开发者,你面临着经典的优化问题,在提供最佳AI体验(在性能和延迟方面)与以单调递减的成本提供之间。这就是为什么我们采用系统方法,与整个行业合作,优化整个堆栈,无论是数据中心、芯片、系统软件还是应用服务器,将它们全部作为一个系统整合在一起并使用软件的力量进行优化。"
"我们的目标是提供最低成本、更高规模的基础设施,以构建云和下一代AI工作负载。这一切归结为提供每瓦特每美元最多的令牌数。这是我们的终极等式。我们正在跨芯片编写多条S曲线。把它想象成经典的摩尔定律加上系统软件优化和模型优化。这是这三条S曲线的复合效应。"
"我们以真正的速度做所有这些。所以当任何东西准备好时,你想把它带入舰队。事实上,Azure是第一个将NVIDIA GV200上线并大规模进行的云。现在,Azure需要来自单个GV200与NVLink 72机架的性能,生成惊人数量的令牌,对吧?每秒865,000个令牌。这是任何云平台的最高吞吐量。"
随后,萨提亚播放了与NVIDIA CEO 黄仁勋的对话视频。在视频中,Huang谈到了他们的合作:"两年前,我们刚刚在Azure上共同推出了世界上最大的AI超级计算机。这是计算工作方式现在的大变化。通过我们新的CUDA算法、新的模型技术以及你在Azure上的新AI基础设施,所有这些一起,比hopper快40倍。这在短短两年内就是一个疯狂的速度提升。"
关于CUDA的好处,Huang说:"CUDA的好处之一是安装基础非常大。CUDA的另一个好处是,一方面,它是一个加速器架构。另一方面,对于一些最重型的工作负载来说,它相当通用。我们的两个团队正在加速数据处理,将数据处理加速20倍、50倍,转码视频,图像处理,各种各样的模型。所有这些不同类型的算法都很好地映射到CUDA之上。我们的工作是确保舰队和工作负载,你数据中心的所有工作负载,都得到充分加速。舰队在整个生命周期内得到充分利用。"
萨提亚强调,事实上,基于GB200的最大超级计算机将是Azure:"我们对扩展这个并使其对所有开发者可用感到非常兴奋。事实上,我们继续扩展Azure。我们现在拥有70多个数据中心区域,比任何其他提供商都多。仅在过去三个月,我们就在多个国家和大陆开设了10个数据中心。"
萨提亚解释了微软如何构建完整的AI系统,包括为满足AI工作负载需求的冷却系统,以及网络方面的重大投资:"我们最新的为AI构建的数据中心拥有比我们去年在整个Azure中添加的更多的光纤。我的意思是,想想看,对吧?所以有——甚至数据中心设计对我来说都是令人难以置信的,当我回去看它们时。它与我至少成长起来的任何东西都不同。我们正在用这个AI WAN 400太字节骨干连接我们的数据中心。所以想想,就像,它是关于所有类型的工作负载,对吧,无论是推理还是训练需求。当你分发它们时,AI WAN连接到这个数据中心足迹。"
除了AI加速器或GPU外,AI应用程序本身还需要所有计算资源:"你需要所有你的计算。每个应用程序都需要存储和计算。这也是我们推动许多S曲线效率的地方。去年10月,我们推出了Cobalt,我们基于ARM的虚拟机。它们已经以大规模支持我们自己的许多工作负载,Teams在其上运行,Defender在其上运行。我们所有的CUST合作伙伴,Adobe、Databricks、Snowflake,都在Cobalt上扩展。"
萨提亚还提到了英国气象局如何使用Azure更好地预测天气,确保为数百万人提供及时准确的预报。他们在Azure上构建的超级计算机是任何类型的天气和气候科学最先进的超级计算机。
十七、Microsoft Discovery:用AI重塑科学发现流程
在演讲的最后部分,萨提亚转向了一个令人兴奋的新领域——科学:"到目前为止,我们已经讨论了开发者和知识工作者在我们的AI平台上的工作流程。但还有一个领域我想讨论以作结束,那就是科学。我认为在未来几年将会发生的最令人兴奋的事情之一是科学过程本身的真正突破,这将真正加速我们创造新材料、新化合物、新分子的能力。这就是为什么我们将今天讨论的整个堆栈集合在一起,并说,看,让我们将其应用于科学和科学工作流程,科学过程。这是我们通过今天宣布的Microsoft Discovery的雄心壮志。"
萨提亚解释道:"如果你想想GitHub对软件开发者,Microsoft 365和Copilot以及Copilot Studio对知识工作和业务流程,Microsoft Discovery就是为科学准备的。它建立在一个非常强大的基于图的知识引擎GraphRag上。它不仅仅是检索事实——这是关键的事情——它理解科学领域中的细微知识,无论是来自公共领域还是如果你是一家生物制药公司,来自你自己的数据。"
"Discovery建立在Foundry之上,带来先进的代理,专门研究R&D,不仅用于推理,还用于进行研究本身。它不是真正的静态管道,而是这些代理在一个持续的迭代周期中合作,生成候选者,模拟它们,并从结果中学习。想想Copilot代理或编码代理。这是科学代理。"
萨提亚邀请John上台演示这一切的实际应用。John解释道:"我是我们科学平台的化学产品负责人。今天,我将向你展示如何领导一组代理团队,为浸没式冷却剂做出发现。这些是冷却数据中心的有趣研究线。不幸的是,它们大多基于PFAS或永久化学物质,这对环境有害。那么,我如何发现更好的冷却剂呢?今天我将向你展示三个步骤。对知识进行推理,生成假设,以及在迭代循环中运行实验。"
John首先展示了如何进行研究,使用代理网络对科学知识进行推理,从公共和内部研究中获取信息。系统使用知识图提供比LLM更深入的见解和更准确的答案。
接下来,John移动到假设生成阶段,要求系统基于研究提供一个特定于他的调查的计划。一组代理团队自动构建了正确的工作流程,无需他指定方法或编写代码。计划包括生成化学步骤,创建数百万个新颖候选者,然后使用AI模型快速筛选,最后使用HPC模拟进行验证。
在实验阶段,Microsoft Discovery执行整个计划,选择和管理Azure中最佳的HPC资源。通过传统方法,获得候选者名单可能需要数月或数年的反复试验。Microsoft Discovery可以将时间压缩到几天甚至几小时。
John展示了最终结果:"这些是Microsoft Discovery为PFAS-free浸没式冷却剂确定的一组候选者。现在我可以分析这些结果,决定是否准备前往实验室,或者是否需要运行另一次迭代。如果我只看其中几个,我可以看到确实,是的,沸点符合我的预期,电介质常数很好。所以这很有希望。"
John还展示了一段视频,显示他们实际合成了最有希望的候选者之一:"我们取了最有希望的候选者之一并合成了它。他们不让我把一种人类未知的新材料带到这个舞台上,但我有这个来自实验室的视频。所以我们可以在那里看到我的冷却剂,我们将一台标准PC放入其中,它正在运行《Forza Motorsport》。它正在保持温度稳定,没有风扇。它真的非常酷。我们找到了一个有希望的候选者,用于不依赖永久化学物质的浸没式冷却剂。"
十八、总结与全球影响:微软AI愿景的人文价值
萨提亚总结了他的演讲,回顾了微软如何在代理网络的各个层面创造机会:"这是对全栈的快速、全面的浏览,以及我们如何在代理网络中为你创造新机会。我们正在采取真正的系统方法,一种平台方法,这是你可以从Microsoft在堆栈的每一层期待的。"
微软的方法涵盖了多个方面:
GitHub和GitHub Copilot为软件开发生命周期启用开放生态系统
Microsoft 365 Copilot、Teams和Copilot Studio为每个角色和业务流程提供代理
Foundry作为代理工厂,让你使用任何数据构建任何AI应用、任何代理
所有这些都运行在世界级的基础设施上
建立在用于管理、身份和安全的强大护栏之上
"最终,所有这一切都是为了创造机会,推动你的雄心。"萨提亚回顾了他有机会在过去一年中遇到的一些开发者:"西班牙的一位父亲使用Foundry帮助加速诊断像影响他儿子的那种罕见疾病。南美的一家初创公司建立一个应用程序来游戏化健康。日本的一家航空公司使用Fi帮助空乘人员完成报告,即使当他们在30,000英尺的高空。像这样的例子是我感到兴奋并引以为豪的。毕竟,真正的赢家将是像你们这样的人,他们将构建这些应用程序,而不仅仅是像我们这样创建平台的人。赢家需要遍布经济的各个部门和世界各地。这是我们的目标。这从来不是关于技术。而是关于人们可以用它做什么。这是我们使命的核心。"
萨提亚以世界银行在尼日利亚进行的一项研究作为结束:"今年早些时候,世界银行对尼日利亚的学生使用copilot进行了一项研究。他们的发现相当显著。根据他们的分析,这是涉及技术的最好、最有效的教育干预。我的意思是,这是我一生在微软一直在做的事情。看到最后,在像尼日利亚这样的国家,将某些东西放在人们手中,并真正在统计上注册为有积极影响的干预,这真的很棒。世界银行已经将该项目扩展到秘鲁,那里数百名公立学校教师现在正在使用copilot来增强教案,改善学生成绩,并在自己的职业生涯中成长。"
萨提亚随后播放了一段视频,展示了AI如何帮助秘鲁的教师改进教育,特别是在资源有限的地区。影片展示了教师如何使用Copilot创建更个性化的课程,帮助学生更好地理解概念,并提高教学效率。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-21
深度剖析 MCP SDK 最新版: Streamable HTTP 模式正式发布,为你实测揭秘
2025-05-21
AI驱动的软件:为何强大的CI/CD基础至关重要
2025-05-21
Embedding模型微调:基于已有数据快速构建训练与评估数据集
2025-05-20
RAG与微调,大语言模型的“大脑升级”,该选哪条路?(小白科普)
2025-05-20
百度自研Agent专用版模型上线千帆!已针对企业级大模型应用进行指令调优
2025-05-19
大模型微调
2025-05-19
一文读懂微调技术Lora和SFT的异同
2025-05-19
律所本地化部署大模型的误区
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01