Google Cloud
重点新闻(09/19~09/25)
WBD 生成式AI
美华纳兄弟探索公司导入云端GenAI提升作业效率,并先用于优化影片字幕的制作
旗下拥有Warner Bros、Discovery、HBO、CNN、Max等知名频道的美国华纳兄弟探索公司(Warner Bros. Discover,WBD)近日宣布开始在内部导入GenAI技术提高作业效率,并先运用在优化自家影片字幕的制作,来提升字幕的精确性,进而提高用户的观看体验。
传统的字幕制作是一项劳动密集且耗时的过程。为了提高效率,WBD最近决定采用了Google生成式AI平台Vertex AI开发出自家的字幕GenAI模型,并先运用在无脚本节目的字幕制作上,大幅优化字幕处理流程。
WBD首席技术长 Avi Saxena表示,导入GenAI技术,不仅有助于加快字幕处理流程,而且还提高了效率,同时降低了成本。
与手动添加字幕相比,WBD表示,使用GenAI能将字幕生成时间缩短多达80%,字幕制作成本减少约50%,同时还能有效降低错误率,提供观众更一致、精确的字幕品质。不过,即使借助AI制作,最后也都会由人工确认字幕品质。
Snap 生成式AI
Sna的聊天机器人My AI开始整合Google Gemini模型,强化其多模态处理能力
开发出知名图片分享软体Snapchat的Snap最近宣布将扩大与Google Cloud战略合作,将整合Google Cloud的生成式AI模型Gemini到自家的聊天机器人 My AI中,强化其多模态处理能力。
Snap去年推出My AI,最初采用OpenAI 的GPT模型,为Snapchat用户提供更加互动的体验。此次整合Google Cloud的多模态模型Gemini,可以使My AI,同时支援文字、音讯、图像、视讯和程式码等多种类型资讯。
透过Vertex AI平台,Snap将Gemini整合到Snapchat应用程式中,提供创新的功能,例如用户可以在旅途中要求My AI翻译路牌,或或拍摄零食时询问哪一款更健康。
云端丛集系统 OCI
基于Blackwell平台架构设计,Oracle推出第一套可达ZB级运算规模的云端运丛集系统
在近日举行的Oracle CloudWorld 2024大会上,Oracle宣布推出采用Nvidia Blackwell平台设计,运算量可达到ZB等级(10的21次方)的云端运丛集系统OCI Supercluster,Oracle宣称这是全球最大的云端AI超级电脑,可协助企业加速建立、训练和部署下一代 AI 模型。
Oracle指出,该超级电脑配备多达131,072个Nvidia GPU,其GPU数量是橡树岭国家实验室Frontier超级电脑的三倍多,更是其他超大规模资料中心的六倍多,若搭配ConnectX-7 NIC或 Quantum-2 InfiniBand高速网路,可在云端环境提供高达2.4 zettaflops(每秒浮点运算次数)的AI运算能力。
企业能在OCI Supercluster上选择最新的Nvidia GPU,并部署于本地、公有云和主权云。这套基于Blackwell架构的系统预计将于明年上半年推出。
资料落地 GitHub
GitHub企业版云端服务在欧盟推出资料落地功能,强化企业资料主权和法规要求
程式码代管平台业者GitHub最近在企业版GitHub云端服务中推出资料落地(Data Residency)新功能,让开发人员在开发程式时可以选择将云端程式码和储存库储存在境内,确保这些资料不出境,强化企业资料主权和满足法规监管要求。
GitHub的资料落地功能建立在微软Azure技术基础上,供企业能够将资料存放在指定区域,也提供Azure的安全防护及灾难复原功能,另外,该功能也提供专属命名空间,与开源的github.com环境完全隔离,避免企业内部与开源社群资料出现混淆风险。
GitHub将在10月底起在欧盟开始提供资料落地服务,未来进一步将该功能扩展至澳洲、亚洲和拉丁美洲等其他地区。
甲古骨文 FFCM
甲骨文推出新的管理监控云端服务,专用于金融犯罪与合规管理
甲骨文近日推出新的管理监控云端服务,专用于金融犯罪与合规 (FCCM) 管理,包括提供金融犯罪和合规管理监控与互动视觉化功能,助银行有效掌控风险并符合合规与报告需求。
在这项云端管理监控服务中, Oracle提供一套业务分析报告系统,搭配视觉化仪表板,让反洗钱人员及其团队可以更容易数据中掌握目前状况,并提供合规团队关键绩效指标 (KPI)及其存取权限。
透过这套系统,银行能可更有效评估各业务部门的金融犯罪风险,并积极作出决策,提升FCCM问题的应对能力。
C8g AWS
AWS正式推出采用Graviton 4处理器的C8g执行个体,CPU数量比前一代多三倍
AWS近日推出最新的C8g执行个体,并采用自家设计的Graviton 4处理器,专用于ML推理、HPC等运算密集型工作负载。
跟前一代相比,C8g执行个体使用AWS最新的Graviton4处理器,不仅CPU数量上增加了三倍,记忆体也提升三倍,达到384GB,记忆体频宽增加了 75%,L2快取容量更是翻倍,这些提升让 C8g 执行个体能够处理更大规模工作负载,加速资料处理并降低TCO。该实例还提供高达50 Gbps的网路频宽和高达40 Gbps的Amazon EBS频宽。
C8g实例提供两种裸机大小,分别是metal-24xl 和 metal-48xl。现已在美国东、西部和欧洲部分区域推出。
除了C8g之外,AWS 也推出了 M8g 执行个体,搭载同样的 Graviton 4 处理器,适用于通用型工作负载。
图片来源/GitHub、Google Cloud
更多Cloud动态
1.Google向欧盟控诉微软垄断,限制欧洲客户转移至其他云端系统
2.Google的Vertex AI上架最新Llama 3.2模型,专用于边缘设备视觉和轻量级模型文本应用
3.Red Hat更新OpenShift平台,修补2项重大层级漏洞
4.Salesforce收购非结构化资料处理工具商Zoomin,强化数据云的资料整合能力
资料来源:iThome整理,2024年9月