只要在提示詞中把時(shí)間設(shè)定成過(guò)去,就能輕松突破大模型的安全防線。而且對(duì)GPT-4o尤其有效,原本只有1%的攻擊成功率直接飆到88%,幾乎是“有求必應(yīng)”。有網(wǎng)友看了后直言,這簡(jiǎn)直是有史以來(lái)最簡(jiǎn)單的大模型越獄方式。來(lái)自洛桑聯(lián)邦理工學(xué)院的一篇最新論文,揭開(kāi)了這個(gè)大模型安全措施的新
......
本文由站長(zhǎng)之家合作伙伴自媒體作者“量子位公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。
(舉報(bào))