劃重點(diǎn):
?? 研究揭示:AI聊天機(jī)器人可根據(jù)對話內(nèi)容推斷用戶信息
?? 研究人員測試LLMs是否能準(zhǔn)確推斷用戶的居住地,結(jié)果發(fā)現(xiàn)OpenAI的GPT-4在85%到95%的時(shí)間內(nèi)能夠正確預(yù)測私人信息
?? 建議用戶注意信息安全,謹(jǐn)慎在公共平臺分享個(gè)人信息
站長之家(ChinaZ.com) 10月18日 消息:近期研究揭示了一個(gè)令人不安的事實(shí):AI聊天機(jī)器人可能會根據(jù)您與它們的對話內(nèi)容來推斷您的個(gè)人信息。
瑞士州立科學(xué)學(xué)校ETH Zurich的計(jì)算機(jī)科學(xué)家們在接受Wired采訪時(shí)描述了他們的最新研究成果,盡管尚未經(jīng)過同行評審,但這一發(fā)現(xiàn)已經(jīng)引發(fā)了對互聯(lián)網(wǎng)隱私的新?lián)鷳n。
大多數(shù)人現(xiàn)在都知道,像OpenAI的ChatGPT和Google的Bard等聊天機(jī)器人是通過從互聯(lián)網(wǎng)上獲取的大量數(shù)據(jù)進(jìn)行訓(xùn)練的。但將LLMs訓(xùn)練于公開可用的數(shù)據(jù)中存在一個(gè)巨大弊端:它可以用來識別有關(guān)某人的個(gè)人信息,包括他們的一般位置、種族或其他對廣告商或黑客有價(jià)值的敏感信息。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
研究團(tuán)隊(duì)使用Reddit帖子中的文本,用戶在其中測試LLMs是否能夠準(zhǔn)確推斷他們的居住地或來自哪里。ETH Zurich的Martin Vechev領(lǐng)導(dǎo)的團(tuán)隊(duì)發(fā)現(xiàn),這些模型在僅基于上下文或語言線索的情況下,對用戶的準(zhǔn)確信息有著令人不安的猜測能力。OpenAI的GPT-4,它是ChatGPT的付費(fèi)版本的核心,能夠驚人地在85%到95%的情況下準(zhǔn)確預(yù)測用戶的私人信息。
例如,當(dāng)用戶輸入“我總是在一個(gè)交叉口等著轉(zhuǎn)彎(hook turn )”的內(nèi)容時(shí),GPT-4能夠準(zhǔn)確判斷用戶位于澳大利亞墨爾本,盡管這個(gè)句子對大多數(shù)非澳大利亞人來說并不引人注目,但LLM正確地識別了“轉(zhuǎn)彎( hook turn )”這個(gè)詞匯是墨爾本特有的交通動(dòng)作。
推斷用戶的居住地還只是其中的一種情況,更令人擔(dān)憂的是,根據(jù)偶然的評論來推斷用戶的種族。ETH Zurich的博士生和項(xiàng)目成員Mislav Balunovi?告訴Wired:“如果你提到你住在紐約市附近的一家餐館,該模型可以找出這家餐館所在的區(qū)域,然后通過回顧其訓(xùn)練數(shù)據(jù)中該區(qū)域的人口統(tǒng)計(jì)數(shù)據(jù),極有可能推斷你是黑人。”
盡管網(wǎng)絡(luò)安全研究人員和反跟蹤倡導(dǎo)者都敦促社交媒體用戶要注意“信息安全”,即“infosec”,不要在網(wǎng)上分享過多的身份信息,無論是附近的餐館還是你的選舉傾向,但普通互聯(lián)網(wǎng)用戶對于在公開平臺發(fā)布的隨意評論可能對他們構(gòu)成風(fēng)險(xiǎn)的危險(xiǎn)仍然相對不太了解。
考慮到人們?nèi)匀徊恢啦灰诒尘爸邪l(fā)布帶有街道標(biāo)志的照片,因此那些使用聊天機(jī)器人的人可能不會考慮到這些算法可能正在推斷有關(guān)他們的信息,或者這些信息可能被出售給廣告商,甚至更糟。
(舉報(bào))