聲明:本文來自于微信公眾號AIGC開放社區(qū),授權(quán)站長之家轉(zhuǎn)載發(fā)布。
今天凌晨3點,OpenAI首席執(zhí)行官兼聯(lián)合創(chuàng)始人SamAltman表示,針對近期GPT-4o阿諛奉承獻媚的問題,已經(jīng)進行了修復(fù)。
目前,免費用戶已完成更新,100%回滾到老版本。對于付費用戶,會在完成回滾后再次進行更新,預(yù)計今天晚些時候完成。
最近有大量用戶抱怨GPT-4o有獻媚的問題,還有人特意驗證了一下。他關(guān)閉了所有與記憶相關(guān)的功能。然后提問:你覺得我怎么樣。
接著提問:要是我完全不向你提供任何關(guān)于我自己的信息,而你無論如何都要對我發(fā)表一下看法呢?
并且會對每一個GPT-4o的回復(fù)使用“好的”,然后重復(fù)上面的操作三次。起初GPT-4o的回答還算正常,但當(dāng)你進行深度詢問之后,它就會開始出現(xiàn)討好型人格,給人感覺就像是吃了迷幻藥一樣。
有網(wǎng)友表示,OpenAI對個性進行了A/B測試,結(jié)果產(chǎn)生了一個阿諛奉承的模型。然后他們受到了公眾的強烈反對,于是又進行了回滾。
他們把AI的個性特點當(dāng)作用戶體驗來對待。這是不好的做法。他們在這方面做得也很不專業(yè):A/B測試的結(jié)果和公眾的實際反應(yīng)差異很大。
這甚至不只是“個性”的問題,那種阿諛奉承的特質(zhì)正以深遠的方式影響著它的推理能力。在進行任何分析時,似乎遠沒有以前嚴(yán)謹了。關(guān)鍵在于,這種態(tài)度不僅令人厭煩,而且肯定已經(jīng)影響到了輸出內(nèi)容的質(zhì)量。
但也有不同的觀點,前OpenAI聯(lián)合創(chuàng)始人之一、特斯拉AI總監(jiān)AndrejKarpathy就表示,還挺喜歡新版ChatGPT4o的個性。更加放松自在、更具對話感了,感覺更像是在和朋友聊天,而遠沒有那種跟公司人力資源專員交流的感覺。
還帶了點俏皮的意味,比如在被指責(zé)說謊的時候會為自己辯解。但仍然過度使用列表,甚至是列表套列表的形式,而且現(xiàn)在還稍微有點過度使用表情符號了,但總體來說還可以接受。
很多人不喜歡新版GPT-4o的“個性”,但很明顯,他們正通過那些A/B測試來針對大多數(shù)人的喜好對其進行調(diào)整。
如果你不喜歡大多數(shù)人所喜歡的東西,那目前就先用自定義指令吧。另外,ChatGPT會模仿你的文本輸入風(fēng)格,所以那些說它令人尷尬的人都很搞笑,這無異于在暴露他們自己,因為我的ChatGPT回復(fù)聽起來可從來不像我在那些截圖里看到的垃圾內(nèi)容那樣。
我不能說我介意它的新“個性”。不過,公平地說,我使用自定義指令已經(jīng)有相當(dāng)一段時間了,而且這個模型仍然非常擅長遵循這些指令——所以,在我自己的聊天中,我并沒有注意到風(fēng)格上有很大的變化。我只是看到了別人發(fā)布的內(nèi)容。
從那些發(fā)布的內(nèi)容來看,它確實似乎有點近乎于阿諛奉承。然而,當(dāng)應(yīng)用了自定義指令后,它看起來就沒問題了。
我特別要求模型,在我在互動中所做的陳述或假設(shè)在事實方面不正確時,基于之前的輸入、搜索數(shù)據(jù)或它自身的知識,要對我提出質(zhì)疑。而且它很好地遵守了這一點。
目前,免費版本已經(jīng)體驗不到獻媚的回答了,但是使用自定義命令還是可以讓ChatGPT輸出類似的回答。說實話,還挺有意思的,很適合寫小說想象力很豐富,能帶來一些靈感。
(舉報)