隨著ChatGPT等模型的參數(shù)越來越大,預(yù)訓(xùn)練數(shù)據(jù)也呈指數(shù)級(jí)增長(zhǎng)。谷歌DeepMind、華盛頓大學(xué)、康奈爾大學(xué)等研究人員發(fā)現(xiàn),無論是開源還是閉源模型,在訓(xùn)練過程中皆能記住一定數(shù)量的原始訓(xùn)練數(shù)據(jù)樣本。如果使用特定的惡意攻擊,便能輕松地從模型中提取海量訓(xùn)練數(shù)據(jù),同時(shí)會(huì)威脅到數(shù)據(jù)所
......
本文由站長(zhǎng)之家合作伙伴自媒體作者“? AIGC開放社區(qū)公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。
(舉報(bào))