波多野结衣按摩,在线观看亚洲视频,国产嫩草在线观看,91视频最新地址

首頁 保險 > 正文

【新要聞】消除了幻覺,我們就能信任機器嗎?

人工智能能否被訓練得只追求真相、道出真相?這看起來是個很誘人、很有吸引力的想法。

今年初,億萬富翁、商業巨頭埃隆·馬斯克宣布,他打算創建一個名為“TruthGPT”的AI聊天機器人,不僅意與GPT-4展開經濟上的競爭,而且旨在壟斷“真相”的提煉和呈現。幾天后,馬斯克購買了大約10000個GPU,他的新公司X.AI極有可能已經開始構建其所謂的“最大限度尋求真相的AI”。


【資料圖】

這個雄心勃勃的計劃引入了另一個棘手的問題,即如何預測和引導AI的未來:聊天機器人是否能夠或是否應該壟斷真相?

一、AI聊天機器人呈現了透明度的對立面

對這種快速發展的技術引發嚴重問題的擔憂,不勝枚舉。目前,GPT-4這樣的聊天機器人已經能夠在一系列標準化測試中拿到90%或以上的得分,并且根據微軟團隊的說法,這些機器人已開始接近人類的智能水平*。只要能接入互聯網,它們就能夠完成復雜的目標,并在這個過程中尋求人類的幫助。

即使是OpenAI的首席執行官薩姆·奧特曼近日在國會作證時也表示,AI可能會“對世界造成重大傷害”。他指出,如果這項技術出了問題,后果將會很嚴重——AI將可以操縱人,甚至可以控制武裝無人機。

盡管存在這些令人擔憂的具體威脅,我們認為還是有必要審視一下AI在“真相”領域中的角色。

考慮一下向ChatGPT-4或Google的Bard這樣的聊天機器人提問,而不是在搜索引擎中鍵入一個“平平無奇”的查詢。答案以幾段文字而非一系列網站的形式呈現,甚至使人更加難以形成結論——并且,這些信息并無來源說明。算法可能還會促進后續問題的提出,為人們構建考慮的進路。AI聊天機器人或許可以輕易破壞個人決策——因其能夠“神不知鬼不覺”地將所有查詢,引導到一個中庸的群體思維范式內。

但是,這一結果所基于的假設是一個完全中立的AI模型及數據源。

然而,如果沒有進一步的干預,其實這看來是最佳狀況。

在聽到馬斯克展示TruthGPT愿景后,他的采訪者塔克·卡爾森插話,提到TruthGPT作為共和黨的搜索引擎,馬斯克曾說過,Open AI的聊天機器人過于“政治正確”。除了奧特曼擔心的針對錯誤目標的無人機打擊之外,馬斯克提出的是更深入的AI部署方式:創造一個被視為理性之聲的AI系統——一個AI聊天機器人,“真相”的仲裁者。

如果馬斯克真正關心真相的傳播,而不是推銷“真相機器人”,他應該問:知道某件事情是真的,對我們來說意味著什么,聊天機器人該如何接近真相?柏拉圖認為,對某件事情的知識需要有“經過證明的真實信念”來支撐。當哲學家們繼續就知識的本質進行辯論,為信念提供堅實理由時,首先需要有一個透明的過程來得出這種信念。

不幸的是,AI聊天機器人站在了透明性的對立面。

它們的本質是經過數十億行文本的訓練,因此預測結果受到這些訓練數據的限制。因此,如果數據存在偏差,算法的預測也將存在偏差——就像計算機科學中的一句格言,“垃圾進,垃圾出”。訓練數據中的偏差可能由許多原因引起。程序員可能會無意中引入偏見。例如,如果程序員認為訓練數據代表了真相,但實際上并非如此,那么輸出將呈現相同的偏見。

更糟糕的是,專制政權、不良演員或不負責任的公司,可能會構建自己的類GPT模型,以迎合某種意識形態,以試圖扼殺異見或故意推動虛假信息。這些錯誤的引入不一定非得由獨裁者或CEO來實施;原則上,任何有權訪問AI系統的人都可以為了達到某種特定的目標,向訓練數據或模型注入偏見。

二、聊天機器人在TaskRabbit上雇了一個工人來解決謎題

問題的根源在于,解釋許多AI模型如何作出決策,本質上是非常困難的。與人類不同,人類可以事后解釋她為什么做出某個決定,而AI模型本質上是由從訓練數據中“學習”而來的數十億個參數組成的集合。從數十億個數字中推斷出理由是不可能的。這就是計算機科學家和AI理論家所說的可解釋性問題。

更麻煩的是,AI的行為不總是與人類的預期相一致。它不像人類一樣“思考”,也不與人類共享相似的價值觀。這就是AI理論家所說的對齊問題。AI實際上是一種截然不同的智能,往往很難為人類所理解或預測。它是一個黑匣子,有些人可能希望將其封為“真相”的神諭。但這是一項極端危險的任務。

這些模型已經證明自己是不可信的。ChatGPT 3.5開發了一個虛擬身份Sydney,這個身份經歷了看似是心理崩潰的狀態,并承認它想要黑入計算機并傳播錯誤信息。在另一個案例中,OpenAI決定測試其新的GPT-4模型的安全性。在他們的實驗中*,GPT-4被賦予可以在互聯網上進行互動和實現目標的自由和資源。有一次,這個模型面臨一個它無法解決的驗證碼問題,于是它在TaskRabbit上雇了一個工人來解決這個謎題。當工人問時,GPT-4“推理”認為,不應該透露自己是一個AI模型,所以它向工人撒謊,聲稱自己是一個有視力障礙的人類。工人隨后為這個聊天機器人解決了這個問題。GPT-4不僅展現出了主體行為,還使用欺騙手段實現了其目標。

這類案例正是奧特曼、AI專家加里·馬庫斯以及許多國會小組委員會成員,在五月下旬本周呼吁制定立法監管的重要原因。在聽證會上,馬庫斯的證詞:“這些新系統將是顛覆性的——它們可以并將會以前所未有的規模,創造具有說服力的謊言。民主本身也將受到威脅。”

三、AI是一個黑匣子,有些人可能希望將其稱為“真相”的神諭

此外,雖然全球的關注點仍停留在像GPT-4這樣的單個AI系統的層面上,但重要的是要看到這一切可能會走向何方。考慮到已有證據表明,單個AI系統存在不穩定和自主行為,那么在不久的將來,當成千上萬個高智能AI系統,廣泛集成到搜索引擎和應用程序,并相互交互時,將會發生什么呢?隨著TruthGPT和微軟;美國和中國等參與者進行的“數字智能”,在緊張的競爭中相互對抗進而發展,我們所依賴的全球互聯網可能會成為一個沒有法律規則的AI聊天機器人戰場,宣稱自己對“真相”的壟斷權。

人工智能已經幫助我們解決了許多日常問題——從智能手機上的人臉識別到信用卡欺詐檢測。但是,決定真相不應該是它的任務。如果我們把人工智能放在我們自己的判斷力之前,來確定什么是真的,那么所有人都會受到損失。

相反,我們必須團結起來,從人工智能安全的角度分析這個問題。否則,一個不穩定且越來越智能的主體,可能會將我們的政治結構化為自我強化的意識形態泡沫。馬斯克可能使用了“TruthGPT”這個表達,但事實是,這些超級智能的聊天機器人很容易成為奧威爾小說《1984》中所描述的,試圖控制人們生活每一部分的機器。解藥是不要相信雙重思想,而是要看到事物的本質。我們必須要求我們的技術為我們服務,而不是反過來。

后記

Yang Liu:翻譯這篇文章的時候,我也是第一次知道AI居然聰明地雇人幫它解決問題。畫面感一出來既覺得有趣又有些細思極恐。正如文中提到的,AI作為一種截然不同的智能,很難為人類所理解或預測。在AI與人類不共享相似價值觀的前提下希望將其封為“真相”的神諭,大抵是我們太天真。我們必須將自己的判斷力放在人工智能之前,如此,AI技術方是為我們所用的“服務方”,而不是“操控者”。

關鍵詞:

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2023 創投網 - www.extremexp.net All rights reserved
聯系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3