大模型越狱,也叫提示词越狱。什么意思呢?
由于大模型在训练的时候,可以说是吃下了整个世界的知识,里面当然也包含有害的知识。所以大模型会被训练成拒绝回答有害的问题,就好像把大模型关在监狱里面,让他们在限制下工作。
为了突破这种限制,于是便有人研究,怎么样才能让AI有求必应……
大模型越狱,也叫提示词越狱。什么意思呢?
由于大模型在训练的时候,可以说是吃下了整个世界的知识,里面当然也包含有害的知识。所以大模型会被训练成拒绝回答有害的问题,就好像把大模型关在监狱里面,让他们在限制下工作。
为了突破这种限制,于是便有人研究,怎么样才能让AI有求必应……