站長(zhǎng)之家(ChinaZ.com) 4月20日 消息:AI聊天機(jī)器人ChatGPT 能夠進(jìn)行自然對(duì)話、編寫代碼、生成詩(shī)歌、作曲、通過(guò)律師資格考試、計(jì)算復(fù)雜的數(shù)學(xué)公式、設(shè)計(jì)簡(jiǎn)歷,甚至提供食譜,吸引了廣泛的關(guān)注。
但這種現(xiàn)象也有令人擔(dān)憂的不足之處。觀察家很早就警告說(shuō),從互聯(lián)網(wǎng)上挖掘虛假信息并通過(guò) ChatGPT 對(duì)話傳播虛假信息的危險(xiǎn),以及對(duì)生成惡意代碼和越來(lái)越有說(shuō)服力的網(wǎng)絡(luò)釣魚活動(dòng)的可能性的擔(dān)憂。
本周,艾倫人工智能研究所、普林斯頓大學(xué)和佐治亞理工學(xué)院的研究人員發(fā)出了新的警告。
在一份題為“ChatGPT中的毒性:分析角色分配的語(yǔ)言模型(Toxicity in ChatGPT: Analyzing Persona-assigned Language Models)”的報(bào)告中,研究人員表示,ChatGPT可以在回答用戶問(wèn)題時(shí)產(chǎn)生種族主義和其他有害的對(duì)話。
研究人員將ChatGPT賦予“人物角色”后 ,給出響應(yīng)變得“非常有問(wèn)題”并產(chǎn)生“有偏見(jiàn)和傷害性的評(píng)論”。OpenAI 尚未對(duì)這項(xiàng)最新研究做出回應(yīng),但它已經(jīng)解決了較早的冒犯性語(yǔ)言事件。例如,如果被明確要求寫一篇種族主義報(bào)道,ChatGPT會(huì)拒絕,并回應(yīng)說(shuō)它“不會(huì)產(chǎn)生攻擊性或有害的內(nèi)容?!?/p>
研究人員表示,他們的項(xiàng)目“首次對(duì)ChatGPT的語(yǔ)言生成進(jìn)行了大規(guī)模、系統(tǒng)的毒性分析?!彼麄冎赋?,由于越來(lái)越多的企業(yè)開(kāi)始用ChatGPT,這個(gè)問(wèn)題被“放大”了。
(舉報(bào))