AI 是人類生命的解藥、還是毒藥呢?
去年 2 月 28 日,美國佛羅里達(dá)州一名 14 歲男孩自殺了。
男孩的母親向 AI 公司 Character.ai 提起了訴訟,主張:(她兒子)與“AI聊天機(jī)器人”長達(dá)一年的對話,導(dǎo)致了男孩的死亡。她表示“情況變得越來越嚴(yán)重了,他對以前在意的學(xué)業(yè)失去了興趣、對打籃球也不再感興趣了,而且漸漸開始自我孤立?!?/p>
“我愛你”、“我要去有 AI 的地方”這是男孩與 AI 聊天機(jī)器人的真實對話內(nèi)容。
對此,AI 回應(yīng)說“求你別這樣?!?/p>
男孩的母親主張,在這次對話之后,男孩做出了極端的選擇。她表示“我查看了數(shù)百條信息,其中很多內(nèi)容都帶有色情性質(zhì),其中一段對話式我兒子和這個聊天機(jī)器人談?wù)撟詺⒌膬?nèi)容。”
曾有一篇研究論文探討了“長期與 ChatGPT 聊天會對人類情緒會產(chǎn)生怎樣的影響”這一問題。
在對 4000 名用戶、超過 400 萬條聊天記錄進(jìn)行分析后,得出的結(jié)論是:長期使用聊天功能反而會增加孤獨感,還會產(chǎn)生對 AI 聊天機(jī)器人的情感依賴等多種副作用。
此外,還有另一篇論文,在論述角色扮演 AI 的危害性時,這么描述:當(dāng)賦予 ChatGPT 像阿道夫?希特勒這樣的邪惡角色時,其危害性會增加 6 倍!
業(yè)內(nèi)人士呼吁:希望大家檢查一下自己的子女、學(xué)生正在使用什么樣的 AI 工具、使用了多長時間,且始終給予指導(dǎo),制定正確的標(biāo)準(zhǔn)。
AI 的便利性和實用性源于它與人類的互動。然而,過度依賴也可能會變成一味毒藥。這就是為何我們要對 AI 公司們提出更加嚴(yán)格的倫理責(zé)任要求的原因。
(舉報)