【微软Build 2024 AI战略1】微软Copilot技术架构大更新,深度优化智慧助理开发体验

今年5月21日,微软执行长Satya Nadella现身西雅图会议中心,揭开微软Build 2024技术大会的序幕。他用将近1小时的时间,揭露微软今年度2大AI新战略以及共数十项的重大新进展。

其中一大战略就是微软Copilot架构(Microsoft Copilot Stack)更新。「我们一直是平台公司,」Satya说明:「我们的目标是打造最完整的端到端技术架构,涵盖基础设施、模型、资料、工具再到应用扩充外挂。如此,使用者就能用来打造专属应用!」

这句话点出了Copilot架构锁定的目标族群和重要性:开发者与AI驱动的个人化助理应用。一如Satya所言,这个微软Copilot架构更新层面广泛,涵盖了底层、应用层和AI安全与资安层等3大层,每层皆有重要突破,加总起来强化了Copilot智慧助理的开发便利性。

微软执行长Satya Nadella揭露今年度微软AI战略之一的Copilot技术架构更新,如AI基础设施的资料中心将在2025年全面采用再生能源、基础模型层新添更多第三方和微软Phi系列基础模型,资料层则推出PB级即时串流资料分析服务等。

底层更新1:资料中心拥抱新能源与算力突破

延续上述的Copilot技术架构底层,可细分为AI基础设施层、基础模型层、资料层、AI调度与工具链层。

就AI基础设施层来说,目前微软已在60多个区域建置资料中心,过去1年也在日本、法国、墨西哥、马来西亚等地打造新资料中心。Satya点出,微软接下来要在2025年前,将资料中心全数采用再生能源,不产生任何碳排。而且,他们最新的资料中心专为AI设计,结合新的冷却技术,来大幅优化执行效率、降低能耗成本。这是微软资料中心的发展新策略,是驱动所有开发和应用运算的关键。

不只资料中心,基础设施层还包括了AI加速器、I/O设备、网路等硬体设备的更新。在这部分,「过去6个月以来,微软不只将Azure云端超级算力提高了30倍,」Satya表示,今年还要新添Nvidia H200 GPU到微软Azure云端算力,且微软也将是第一批提供Nvidia Blackwell GPU配置(含B100和GB200)的云端供应商。

同时,微软还布局虚拟机器与加速开发配套,正式推出基于AMD最新Instinct GPU的虚拟机器ND MI300X v5,配有更高的频宽记忆体,可更快、更有效率执行AI模型推论,优化AI应用体验。这系列虚拟机器,还搭配AMD ROCm开源软体平台,开发者可存取该平台的AI开发部署工具和函式库,如TensorFlow、PyTorch等热门框架,或ONNX Runtime、DeepSpeed和 MSCCL等AI加速的微软函式库,来缩短AI开发部署时间。

除了ND MI300X v5,微软还有另一系列虚拟机器进入公开预览,包括通用型的Dpsv6系列、Dplsv6系列,以及记忆体优化的Epsv6系列虚拟机器。这些虚拟机器采用Azure Cobalt 100处理器,专门用来高效率执行云原生运算解决方案,甚至,微软自己就用于影片处理、M365许可管理等任务,还「驱动了微软Teams这类服务上数十亿的对话。」Satya指出,根据微软测试,Cobalt 100可提高40%效能,大幅优化作业表现。他期盼将这些优秀的基础设施工具,能让更多企业和开发者享用。

从资料中心的能源政策、云端算力的跃升再到虚拟机器的加速,都为Copilot开发提供更快速的基础。

底层更新2:GPT-4o正式上架、更多Phi系列模型

AI基础设施往上一层,来到了基础模型层。

这层亮点也不少,聚焦第三方模型的整合和自家模型更新。首先,微软AI开发平台Azure AI中有套生成式AI开发工具Azure AI Studio,这次正式上线,其上的多模态模型GPT-4o也进入正式版本,以模型形式和API形式供开发者取用、打造AI应用。

再来,Azure AI Studio还提供模型即服务(MaaS),里面正新添各种语言模型,提供随用随附的模型API和托管式微调功能,让开发者用来打造生成式AI应用。在这次更新中,MaaS新添了Core42的JAIS、Nixtla的TimeGEN-1等2款模型预览版,Satya预告,接下来还会新添来自AI21、Bria AI、Gretel Labs、NTT DATA、Stability AI和Cohere Rerank等AI领先者旗下的模型预览版,同时简化应用程式的整合与微调工作,让开发者不必管理底层GPU等基础设施,就能顺利开发AI应用。

在整合第三方模型的策略上,微软继续扩大与Hugging Face的合作,将所有Hugging Face上的开源模型也纳入Azure AI Studio,更方便开发者取用。

除此之外,微软也继续拓展自研的Phi系列小型语言模型,新添42亿参数的Phi-3-vision模型预览版,可用来执行视觉任务,如处理图表、图形和表格等资讯。同时,微软先前发表的Phi-3-mini、Phi-3-small和Phi-3-medium三款模型,也在MaaS中进入正式版本。Azure AI Studio还推出客制化模型功能,使用者可用自己的资料训练模型,更客制化。

所以,微软基础模型层的新进展,就聚焦于第三方模型整合和自家Phi系列模型更新。

不过,Satya也补充,为确保这些模型产出正确内容,Azure AI Studio也新添内容安全工具和功能,包括即将推出的自定义类别(Custom Categories)、预览版的提示盾(Prompt Shields)和基准侦测(Groundedness Detection),其中自定义类别可让使用者自定过滤器,最快不到1小时就能部署过滤器来把关生成式AI应用程式。提示盾和基准侦测则能侦测模型是否产生幻觉,还能介入间接或越狱提示攻击。

底层更新3:能即时处理PB级串流资料了

从基础模型层往上,就是微软Copilot架构的资料层。在这里,微软布局扎实,早有一系列资料处理工具来提供服务,如Azure SQL DB、Azure Cosmos DB、Azure for PostgreSQL、MySQL、Azure AI、Azure Databricks和Microsoft Purview等。

而今年的资料层一大进展,就锁定拥有1万1千多名企业用户的资料分析平台Microsoft Fabric。微软特别针对企业难以处理的资料即时分析,在该平台上新添一项无程式码/低程式码的即时智慧(Real-Time Intelligence)SaaS解决方案。Satya强调,使用者透过这个功能,可更快速处理大量、颗粒度更细致的数据,包括PB级的即时串流资料分析。

这项即时智慧目前为公开预览版,也因为低程式码特性,分析师能简单上手,另对专业开发者,也提供完整的程式码使用介面。尤其,巴西极限赛车队Dener Motorsport一直用这个平台来支援即时分析和通报,现在他们计划用即时智慧,来在比赛当下,直接分析资料、调整赢赛策略。

不只瞄准即时串流资料分析,为降低App开发门槛,微软还在Fabric平台中新添工作负载开发套件(Workload Development Kit),能让独立软体商和开发者,用来打造更一致的使用者体验应用。该套件目前为预览版。

另一大重点,则与检索增强生成(RAG)相关。

自以大型语言模型驱动的生成式AI兴起后,RAG就成为降低模型幻觉和胡言乱语的重要技术,微软也早已打造AI资讯检索平台Azure AI Search,来支援各种规模的RAG应用,甚至「连ChatGPT、Assistant API等都靠Azure AI Search来完成。」Satya点出,在这次更新中,Azure AI Search整合了OneLake资料湖,可自动索引非结构化资料,使用者也能在Microsoft Fabric直接使用Azure AI Search,扩大RAG可索引和搜寻的范围,让模型回答更精准。

也就是说,在资料层,微软更新策略锁定巨量资料即时分析和RAG范围扩增,后者也搭配基础模型提供更好的回答体验。

底层更新4:AI工具链添新外挂

再来,AI调度与工具链层的新进展,是微软延伸2年前新辟的GitHub Copilot开发助理战线。该助理至今累积了180万名订阅者、共5万多家组织使用,微软还在今年4月底,联手GitHub推出私有预览版的AI程式开发工具GitHub Copilot Workspace,开发者用自然语言就能规画、建置、测试和执行程式码,加速软体开发流程。Satya在这次大会上就透露,接下来几个月,微软将开放让更多人使用这套工具。

不只如此,Sayta进一步揭露该工具的程式开发新外挂GitHub Copilot Extensions,一样是私有预览版,开发者可用自然语言和自己习惯的第三方工具,来打造、部署云端应用,完全不必离开开发环境IDE或GitHub网站。这些外挂包含微软自己开发的和第三方合作伙伴开发的,第一波就有16个外挂,来自DataStax、Docker、LambdaTest、LaunchDarkly、Microsoft Azure和Teams、MongoDB等,建立更好的AI开发第三方生态系。

这些外挂,还可让开发者用来客制自己的GitHub Copilot应用。比如,微软自己就打造一款GitHub Copilot for Azure外挂,能让开发者用自然语言来探索、管理Azure资源,还能排除问题、寻找相关日志和程式码。

所以在AI调度与工具层,微软主打开发者助理外挂,来提高开发便利性。

应用层更新:扩大客制范围、新推协作助理

接著进入应用层,Satya将新进展分为「个人、团队、代理(Agent)」等三大层次。

就个人层次来说,指的是Copilot应用客制化,微软一样走整合扩展路线,在Copilot Studio助理开发平台中,新添Microsoft Copilot Connector连结器预览版,可助Copilot摒除障碍,跨App和工作流程存取使用者资料,更好地打造客制化应用。因为,这个连结器集结了微软Graph和Power平台的连结器、微软Fabric平台的AI技能和微软Dataverse平台,来让第一方和第三方的Copilot整合知识、更快落地。

再来,「团队」是指Copilot协作应用,微软针对既有的M365 Copilot,新推一款协作助理Team Copilot,专门处理复杂的协作任务。比如,它可在协作工具Teams中管理会议、安排议程、管理时间和记录重点,还能管理Teams对话,摘要重要资讯、回复群组问题等。甚至能扮演PM角色,确保任务管理看板Planner中的每个专案顺利进行,同时也会在Loop应用中通知团队新消息、加强专案协作。这款Team Copilot预计今年晚些时候预览。

最后,在代理层次,微软在低程式码助理开发平台Microsoft Copilot Studio中,增添新的代理能力类别,开发者只要输入工作描述、提供相关知识,或点选预设的模板,就能打造能主动回应数据和事件的智慧助理,还能执行特定任务与功能。

Satya还强调,用这个新能力打造的Copilot助理,可用学习到的知识和使用者回馈,来独立管理复杂、冗长的业务流程,甚至能在遇到棘手问题时,主动寻求使用者帮助。

可以说,微软用个人客制化、团队协作应用、更聪明且个人化的代理能力,来优化Copilot的应用体验。

 相关报导