AI趋势周报第235期:Mamba架构横空出世,克服Transformer运算效率缺陷还具5倍吞吐量

卡内基美隆(CMU)大学和Together AI的专家Albert Gu和Tri Dao打造Mamba架构,克服Transformer运算效率低下的问题,且在语言建模表现比同规模的Transformer好。

图片来源: 

Tri Dao

重点新闻(1201~1207)

 Mamba     Transformer     运算资源  

Mamba横空出世引起AI社群关注,克服Transformer运算缺陷还具5倍吞吐量

自2017年Google释出Transformer架构以来,它就成为大模型的主流架构,不只是BERT、T5,就连GPT系列模型、Gemini等大型语言模型(LLM)都以Transformer为基础。但最近,来自卡内基美隆(CMU)大学和Together AI的专家Albert Gu和Tri Dao共同打造Mamba架构,克服了Transformer的运算效率缺陷,挑战Transformer的霸权地位。

这是因为,Transformer模型中的自我注意力机制,其运算资源会随上下文长度增加而呈平方倍增长,比如上下文增加20倍,所需的运算资源就会达到400倍,非常庞大。也因此,  Gemini     Google     GPT-4V  

GPT-4V最强对手来了,Google多模态Gemini模型登场

Google正式推出原生的多模态大型语言模型Gemini,可同时支援文字、图片和声音的输入。在32项AI测试中,有30项的评分超越了OpenAI的GPT-4V。Google预计推出3种Gemini版本,包括模型最大的Ultra版、通用性最广的Pro版,以及可在手机装置上运作的Nano版。

Google展示一段实测影片,来呈现Gemini多模态的回答能力。他们让Gemini一边看影片,一边解读画面内容,包括展示人员即时手绘,Gemini能给出每一个动作所对应的意义,如这是只鸭子,现在在水上游泳,有蓝色外观。当展示人员拿出实体玩具鸭子按压发生声音时,AI甚至打趣的说,真的拿出了呱呱叫的鸭子,AI还能纠正展示人员对于「鸭子」中文发音的重音位置错误。

不只能同时分辨和理解文字、图片和声音,Gemini还能分辨、解释几种热门开发语言,包括Python、Java、C++和Go语言。Google也用Gemini打造了新版的程式码生成系统AlphaCode 2,比2年前的第一代进步许多,可解决两倍的问题。

 

  Meta    AI联盟      开源  

Meta、IBM等巨头合组开源AI联盟

Meta联手IBM,在12月5日宣布与英特尔、AMD、Linux基金会等组织跨界合组AI联盟,推动AI开源码技术的开发和共享,来推动负责任AI的发展。这个组织创始成员除了Meta、IBM,还有50多个组织成员,包括英特尔、AMD、Dell、Stability AI、Hugging Face、甲骨文、Red Hat、Sony、ServiceNow、Linux基金会等业者,美国航太总署(NASA)、欧洲核子研究组织(CERN)、医学中心Cleveland Clinic,以及哈佛大学、耶鲁大学、洛桑联邦理工学院、加州大学柏克莱分校、东京大学等,但Google、微软、OpenAI和AWS等并未加入。

AI联盟的目的是,借由公开和分享,来避免如ChatGPT这类封闭式AI引发的偏见、假资讯、幻觉和漏洞等风险。该联盟的开发计划包括打造安全工具与标准,像是建立AI安全与信任的工具型录,并协助将这些工具推广到厂商,再来是打造解决气候、教育等问题的多模态、多语言的科学模型,此外还要建置强大的AI硬体加速器,并协助全球性的AI技术养成。另外也要开发AI教育、规范内容,并推动负责任AI开发的宣导活动。,来加速AI任务的执行和处理。进一步来说,今年11月,Google才推出Cloud TPU v5e,最近发表Cloud TPU v5p,前者强调成本效益,后者则号称是目前最强大的TPU。每个TPU v5p pod具备8,960个晶片,晶片间的互连速度达4,800 Gbps,相较于上一代的TPU v4,提供了2倍的FLOPS和3倍的高频宽记忆体(HBM)。

至于AI Hypercomputer架构,整合了最佳化效能的硬体、开源软体、主流机器学习框架,比如JAX、TensorFlow、PyTorch等开源机器学习框架,或Multislice Training、Multihost Inferencing等软体,且还整合GKE与Google Compute Engine。就资源管理工具Dynamic Workload Scheduler来说,它支援Cloud TPU与Nvidia GPU,可同时调度所需的加速器,其中的Flex Start还能用来微调模型、实验、较短的训练任务、蒸馏、离线推理和批次任务,并在准备执行请求GPU与TPU容量,是一种相对经济的选择。  思科     防火墙     规则管理  

思科推AI助理,简化防火墙规则管理

思科最近推出资安AI助理(Cisco AI Assistant for Security),能提供自动化规则配置、协助用户分析和决策,来强化企业防火墙管理。企业防火墙的用意是保护网路免受恶意流量侵害,但防火墙规则却不好管理,比如普通防火墙就有数千条规则和处理流量,其中许多规则过时、冗余甚至矛盾。于是Cisco打造LLM防火墙规则管理助理,用户可以自然语言管理防火墙,如排除故障和配置设定、找出可疑活动等。思科这款助理具多种功能,主要能在Cisco云端防火墙管理中心与Cisco Defense Orchestrator(CDO)发挥作用,解决设定和维护复杂政策和防火墙规则的挑战。

此外,Cisco还推出适用于所有防火墙模型的AI加密能见度引擎,经数十亿个样本训练而成,不需解密流量,就能判断流量是由哪一个作业系统以及客户端应用程式产生,直接从加密流量找出恶意软体传输。  JetBrains     IDE     程式开发  

JetBrains新AI程式开发助理整合自家IDE

拥有IntelliJ IDEA、PyCharm等多款旗下IDE产品的JetBrains,最近推出程式开发AI助理,要提高开发者软体开发的效率和品质。JetBrains AI助理能解释程式码、回答程式码相关问题,也能生成文件或转换程式语言等工作。

JetBrains透过将AI助理融入使用者工作流程,善用IDE对开发者程式码的理解,掌握整体开发上下文和专案结构,来对AI助理底层语言模型提供详细资讯。而且,开发者能以开放式聊天介面和AI助理对话,查询特定函式功能,或编写、除错程式码。此外,AI助理也能在重构任务帮上忙,虽然JetBrains IDE本身也有重构功能,但AI助理能进一步提供潜在程式码的重构建议,并解释原因。目前,该AI助理为订阅服务,可在IntelliJ IDEA、PyCharm、PhpStorm、ReSharper、Fleet等JetBrains IDE中使用。