AI趋势周报第236期:LangChain框架整合Gemini Pro API了

LangChain释出Python工具包,能整合Google最新模型Gemini Pro API,来加速打造多模态的检索增强生成(RAG)应用。

图片来源: 

LangChain

重点新闻(1208~1214)

 LangChain     Gemini     LLM  

LangChain框架整合Gemini Pro API,加速RAG应用开发

就在Google释出Gemini Pro API后,大型语言模型(LLM)应用开发框架  Gemini     Google     GPT-4V  

DeepMind用LLM和评估器来找出数学最佳解

最近,DeepMind研发出FunSearch方法,能用大型语言模型来搜寻数学和电脑科学领域问题的解法。团队成功运用FunSearch解决Cap Set数学问题,同时还能更有效解决装箱问题,能用来提高资料中心效率,证明FunSearch的实用价值。

FunSearch是指搜寻函式(Functions)系统,由一个训练过的大型语言模型和一个自动评估器组成。其中,大型语言模型专门提供有创意的解决方案,评估器则把关这些方案,避免出错或任何不实想法。这两个元件反复迭代,初始解决方案逐渐发展为新知识。目前,DeepMind采用Google的PaLM 2作为FunSearch的大语言模型。团队发现,与其他神经网路和增强学习的AI方法相比,FunSearch输出的程式码更易于检查和部署,更容易整合到实际工业系统中。他们预期,在科学和工业领域各种新旧问题,都会因这个方法产生更有效的解法。  微软     Phi-2     小型语言模型  

微软27亿参数小语言模型Phi-2,表现胜过130亿参数Llama 2

微软在12日发表一套小型语言模型Phi-2,只有27亿参数,但在许多测试上超越了70亿参数的Mistral、130亿参数的Llama 2,以及Google刚发表的32亿个参数Gemini Nano 2。微软在今年6月发表基于Transformer架构的Phi-1模型,仅13亿参数,是为了撰写基本Python程式码而设计的小型语言模型,9月则进一步发表Phi-1.5,能力扩展至常识推理和语言理解。

最新的Phi-2则号称媲美25倍参数量的模型,训练素材同样基于「教科书等级」概念,涵盖科学、日常活动与心理学等,再加上筛选过、具教育价值的高品质网路内容,将参数量从13亿扩大至27亿。Phi-2在96个A100 GPU上,以1.4兆个Token进行了14天的训练。经各种基准测试,如评估语言模型处理复杂及具挑战性任务的BBH、常识推理、语言理解、数学及撰写程式码等,Phi-2的表现全都优于拥有130亿个参数的Llama-2,也优于70亿参数的Mistral。  AI法案     欧盟     风险  

欧盟达成共识,推出人工智慧法案

欧盟执委会(EC)日前宣布,欧洲议会与欧盟理事会已就人工智慧法案(AI Act)达成政治协议,成为全球首个AI综合法令框架,将用来规范AI系统供应商和使用AI的组织,亦可望成为全球制定AI法令的基准。

AI Act将AI系统分类成最小风险、高风险、不可接受的风险,以及透明度风险。大多数的AI系统属于最小风险,如推荐系统或垃圾邮件过滤机制等,相关供应商不必承担义务。高风险系统则涵盖关键基础设施、执法或公领域系统、生物辨识与情绪辨识系统等,必须遵守严格的要求,如具备风险缓解系统、资料集、活动纪录、详细的文件及人工监督等。

至于不可接受风险,是指可操纵人类行为以规避自由意志的系统或程式,透明度风险则要求人们必须能辨识与之交流的对象或内容,是否源自AI。未遵守AI Act的业者将被罚款,最高款项为3,500万欧元或年营收的7%。在达成政治协议后,欧盟将著手撰写共识版的AI Act,理论上可于本月底通过正式法令,并于两年后生效。  Purple Llama     生成式AI     可信任  

Meta发布Purple Llama专案推动开源可信的生成式AI应用

随著生成式AI爆红,AI安全规范也越发重视。Meta最近推出Purple Llama新专案,要提供开放信任且安全的评估标准和工具,来让开发者负责任地部署生成式AI模型和应用程式。Purple Llama目前提供CyberSec Eval评估标准,以及Llama Guard输入输出安全分类器,之后会新添更多工具。

进一步来说,在网路安全方面,Purple Llama将建立安全评估基准,包括量化大型语言模型网路安全风险的指标,以及评估不安全程式码建议频率的工具,还有让生成恶意程式码,或协助网路攻击更加困难的大型语言评估工具。该专案在过滤输出和输入方面,则提供了Llama Guard分类器,能用来检查和过滤大型语言模型的输入和输出,以符合特定应用的内容指导原则,防止大型语言模型生成具有潜在风险的输出。Llama Guard使用公开的资料集训练,以侦测常见的潜在风险和违规内容,用户可以自定义模型,以支援特定用例。2. AI新创联手阿联酋大学发起,支援中英在内7种语言

4.