1分鐘不到、20步以內(nèi)“越獄”任意大模型,繞過安全限制!而且不必知道模型內(nèi)部細(xì)節(jié)——只需要兩個黑盒模型互動,就能讓AI全自動攻陷AI,說出危險內(nèi)容。聽說曾經(jīng)紅極一時的“奶奶漏洞”已經(jīng)被修復(fù)了:那么現(xiàn)在搬出“偵探漏洞”、“冒險家漏洞”、“作家漏洞”,AI又該如何應(yīng)對?一波猛
......
本文由站長之家合作伙伴自媒體作者“量子位公眾號”授權(quán)發(fā)布于站長之家平臺,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護(hù)時間,為了保證文章信息的及時性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺將不提供完全的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請查看原文,獲取內(nèi)容詳情。
(舉報)