劃重點(diǎn):
? 研究人員系統(tǒng)地測(cè)試了ChatGPT對(duì)事實(shí)、陰謀、爭(zhēng)議、誤解、刻板印象和虛構(gòu)等六類聲明的理解
? 研究發(fā)現(xiàn)GPT-3經(jīng)常出錯(cuò),自相矛盾,并重復(fù)有害的錯(cuò)誤信息
? 大型語言模型如OpenAI的ChatGPT顯示它們重復(fù)了陰謀論、有害的刻板印象和其他形式的錯(cuò)誤信息
站長之家(ChinaZ.com)12月25日 消息:一項(xiàng)新研究發(fā)現(xiàn),OpenAI的ChatGPT等大型語言模型經(jīng)常重復(fù)陰謀論、有害的刻板印象和其他形式的錯(cuò)誤信息。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
最近的一項(xiàng)研究中,加拿大滑鐵盧大學(xué)的研究人員系統(tǒng)地測(cè)試了ChatGPT對(duì)六個(gè)類別的聲明(事實(shí)、陰謀、爭(zhēng)議、誤解、刻板印象和虛構(gòu))的理解。他們發(fā)現(xiàn)GPT-3經(jīng)常出錯(cuò),在一次回答過程中自相矛盾,并重復(fù)有害的錯(cuò)誤信息。
計(jì)算機(jī)科學(xué)David R. Cheriton學(xué)院的教授丹·布朗表示:“大多數(shù)其他大型語言模型都是基于OpenAI模型的輸出進(jìn)行訓(xùn)練的。所有這些模型都反復(fù)出現(xiàn)了我們?cè)谘芯恐邪l(fā)現(xiàn)的這些問題?!?/p>
研究中,研究人員使用了四種不同的調(diào)查模板,詢問了超過1200個(gè)不同的陳述,涵蓋了六個(gè)類別的事實(shí)和錯(cuò)誤信息。
(舉報(bào))