文章概要:
1. MIT教授Max Tegmark警告人工智能科技公司正在進行激烈的“競賽”,無法停止發(fā)展以考慮AI風險。
2. Tegmark于2023年3月發(fā)起了一封開放信,呼吁暫停六個月開發(fā)巨大的AI系統(tǒng),但未能實現(xiàn)這一目標。
3. 該信函警告了AI開發(fā)的“失控競賽”,并敦促政府干預,以避免開發(fā)比GPT-4更強大的系統(tǒng)。
站長之家(ChinaZ.com)9月21日 消息:麻省理工學院(MIT)的物理學家Max Tegmark教授發(fā)出警告,指出人工智能(AI)科技公司正處于一場“失控競賽”,使得他們無法停下來考慮潛在的AI風險。他是未來生命研究所的共同創(chuàng)始人,于2023年3月組織了一封開放信,呼吁將巨大AI系統(tǒng)的開發(fā)暫停六個月。盡管這封信得到了超過3萬名簽署者的支持,包括埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,但未能實現(xiàn)對最有抱負的系統(tǒng)的暫停開發(fā)。
Tegmark教授表示,他并沒有指望這封信能夠阻止科技公司繼續(xù)努力開發(fā)比GPT-4更強大的AI模型,因為競爭變得如此激烈。他說道:“私下里,我與許多企業(yè)領導人交談時,他們想要(暫停),但他們陷入了相互之間的這場失控競賽之中,因此沒有公司可以單獨暫?!薄?/p>
這封信警告了一場“失控競賽”,該競賽旨在開發(fā)無人能夠“理解、預測或可靠控制”的思維,敦促政府干預,如果不能在領先的AI公司之間達成暫停開發(fā)比GPT-4更強大系統(tǒng)的禁令,例如谷歌、ChatGPT的所有者OpenAI和微軟。
信中提出了以下問題:“我們是否應該開發(fā)可能最終數(shù)量超過、智勝、使我們過時并取代我們的非人類思維?我們是否應該冒失去對我們文明的控制的風險?”
Tegmark還敦促政府在全球達成安全標準之前暫停開發(fā)。他補充說:“在滿足約定的安全標準之前,不應該使模型更加強大,這必須暫停。”他補充說:“就安全標準達成一致意見將自然導致暫停。”
此外,Tegmark還敦促政府采取行動,對可以被公眾訪問和適應的開源AI模型采取行動。馬克·扎克伯格的Meta最近發(fā)布了一個名為Llama2的開源大型語言模型,并受到一位英國專家的警告,認為這種舉動類似于“向人們提供了建造核彈的模板”。
“危險的技術不應該是開源的,無論是生物武器還是軟件,”Tegmark表示。
這一問題引發(fā)了對AI發(fā)展的擔憂,從能夠生成深度偽造視頻和批量制造虛假信息等即時問題,到由超級智能AI引發(fā)的對人類控制的威脅或做出不可逆轉和高度重大決策的潛在威脅。不過,Tegmark警告稱,描述數(shù)字“上帝般的通用智能”的發(fā)展為長期威脅可能不恰當,他援引了一些AI從業(yè)者認為這可能在幾年內發(fā)生。
(舉報)