AI工具加速程式开发的工作流程,然而骇客若是从其中部分环节下手,就有机会发动供应链攻击,左右开发的结果。
资安业者Pillar揭露名为究竟研究人员如何找到这种漏洞?Pillar Security在调查开发团队共享AI组态配置的过程里,发现AI程式码助理出现漏洞,使得在处理规则档案提供的情境资讯会出现问题。
在这种攻击里,攻击者可将精心制作的提示嵌入看似正常的规则档案,一旦开发人员尝试产生程式码,有问题的规则就会导致AI产生带有资安漏洞或是后门的程式码。
此手法主要运用4种技巧,首先是操控情境,嵌入看起来合法但能窜改AI产生程式码的行为。
再者,利用零宽度及双向标记的Unicode字元,或是其他的无法看见的字元,埋藏恶意指引。
第3种技术是语意挟持,这是利用AI透过特定语言特征理解自然语言的模式,将原本产生程式码的结果重新导向成带有弱点的成品。
最后一种则是触发跨代理程式的弱点,由于这种攻击能对不同的AI程式码助理下手,研究人员推测是系统性的漏洞。
研究人员展示如何利用Rules File Backdoor对Cursor与GitHub Copilot,结果透过生成带有恶意指令码的HTML网页档。针对这些发现,他们呼吁开发人员应稽查现有的规则、导入验证的程序、部署相关侦测工具,以及对AI产生的程式码必须进行检查。