Databricks投资Mistral AI并整合模型到平台

AI资料分析平台Databricks上周宣布投资法国AI新创公司Mistral AI,也将其Mistral 7B及Mixtral 8x7B模型整合到其平台。

Databricks已经加入了这家AI新创公司的A轮募资,同时也将Mistral AI的模型整合到Databricks AI分析平台Data Intelligence Platform。现在Databricks用户可以在AI模型市集Databricks Marketplace存取Mistral AI的模型,在AI图像建立平台Mosaic AI Playground中和模型互动(下图),以AI部署与管理平台Mosaic AI Model Serving作为模型端点使用模型,或是以自有资料来客制化这些模型。

Databricks表示,从今年初开始,该公司平台上已经有将近1,000家企业使用Mistral的模型,并做了100万次模型推论。因此该公司希望透过这次技术整合,企业用户可以更方便为其AI应用存取Mistral AI的模型,而不用担心损及Databricks平台最核心的安全、资料隐私和治理。

Databricks引入Mitral AI的二个开放模型,包括Mistral 7B和Mixtral 8x7B。其中Mistral 7B以8K脉络长度训练,是70亿参数的小模型,且使用分组查询注意力(grouped query attention,GQA)及滑窗注意力(sliding window attention,SWA)的架构使其模型相当有效率。Mixtral 8x7B则是专家模型的稀疏混合(SMoE),支援32k脉络长度,能处理英、法、德、义与西语。Mixtral 8x7B效能在多个标竿测试超越Llama 2 70B,且拜其SMoE架构之赐,推论时只启动120亿,而非450亿个参数,使效能更加提升。

目前Databricks客户已经有信用评分业者Experian使用Mixtral 8x7B分析资料,而AI分析软体顾问业者Celebal Technologies也使用了Mistral支持检索增强生成(Retrieval-Augmented Generation,RAG)AI助理答复银行用户查询。

Databricks是继2月份的Amazon Bedrock后,最新一家使用Mistral AI相同2款模型的大型软体平台。