【新要聞】消除了幻覺,我們就能信任機器嗎?
人工智能能否被訓練得只追求真相、道出真相?這看起來是個很誘人、很有吸引力的想法。
今年初,億萬富翁、商業巨頭埃隆·馬斯克宣布,他打算創建一個名為“TruthGPT”的AI聊天機器人,不僅意與GPT-4展開經濟上的競爭,而且旨在壟斷“真相”的提煉和呈現。幾天后,馬斯克購買了大約10000個GPU,他的新公司X.AI極有可能已經開始構建其所謂的“最大限度尋求真相的AI”。
【資料圖】
這個雄心勃勃的計劃引入了另一個棘手的問題,即如何預測和引導AI的未來:聊天機器人是否能夠或是否應該壟斷真相?
一、AI聊天機器人呈現了透明度的對立面
對這種快速發展的技術引發嚴重問題的擔憂,不勝枚舉。目前,GPT-4這樣的聊天機器人已經能夠在一系列標準化測試中拿到90%或以上的得分,并且根據微軟團隊的說法,這些機器人已開始接近人類的智能水平*。只要能接入互聯網,它們就能夠完成復雜的目標,并在這個過程中尋求人類的幫助。
即使是OpenAI的首席執行官薩姆·奧特曼近日在國會作證時也表示,AI可能會“對世界造成重大傷害”。他指出,如果這項技術出了問題,后果將會很嚴重——AI將可以操縱人,甚至可以控制武裝無人機。
盡管存在這些令人擔憂的具體威脅,我們認為還是有必要審視一下AI在“真相”領域中的角色。
考慮一下向ChatGPT-4或Google的Bard這樣的聊天機器人提問,而不是在搜索引擎中鍵入一個“平平無奇”的查詢。答案以幾段文字而非一系列網站的形式呈現,甚至使人更加難以形成結論——并且,這些信息并無來源說明。算法可能還會促進后續問題的提出,為人們構建考慮的進路。AI聊天機器人或許可以輕易破壞個人決策——因其能夠“神不知鬼不覺”地將所有查詢,引導到一個中庸的群體思維范式內。
但是,這一結果所基于的假設是一個完全中立的AI模型及數據源。
然而,如果沒有進一步的干預,其實這看來是最佳狀況。
在聽到馬斯克展示TruthGPT愿景后,他的采訪者塔克·卡爾森插話,提到TruthGPT作為共和黨的搜索引擎,馬斯克曾說過,Open AI的聊天機器人過于“政治正確”。除了奧特曼擔心的針對錯誤目標的無人機打擊之外,馬斯克提出的是更深入的AI部署方式:創造一個被視為理性之聲的AI系統——一個AI聊天機器人,“真相”的仲裁者。
如果馬斯克真正關心真相的傳播,而不是推銷“真相機器人”,他應該問:知道某件事情是真的,對我們來說意味著什么,聊天機器人該如何接近真相?柏拉圖認為,對某件事情的知識需要有“經過證明的真實信念”來支撐。當哲學家們繼續就知識的本質進行辯論,為信念提供堅實理由時,首先需要有一個透明的過程來得出這種信念。
不幸的是,AI聊天機器人站在了透明性的對立面。
它們的本質是經過數十億行文本的訓練,因此預測結果受到這些訓練數據的限制。因此,如果數據存在偏差,算法的預測也將存在偏差——就像計算機科學中的一句格言,“垃圾進,垃圾出”。訓練數據中的偏差可能由許多原因引起。程序員可能會無意中引入偏見。例如,如果程序員認為訓練數據代表了真相,但實際上并非如此,那么輸出將呈現相同的偏見。
更糟糕的是,專制政權、不良演員或不負責任的公司,可能會構建自己的類GPT模型,以迎合某種意識形態,以試圖扼殺異見或故意推動虛假信息。這些錯誤的引入不一定非得由獨裁者或CEO來實施;原則上,任何有權訪問AI系統的人都可以為了達到某種特定的目標,向訓練數據或模型注入偏見。
二、聊天機器人在TaskRabbit上雇了一個工人來解決謎題
問題的根源在于,解釋許多AI模型如何作出決策,本質上是非常困難的。與人類不同,人類可以事后解釋她為什么做出某個決定,而AI模型本質上是由從訓練數據中“學習”而來的數十億個參數組成的集合。從數十億個數字中推斷出理由是不可能的。這就是計算機科學家和AI理論家所說的可解釋性問題。
更麻煩的是,AI的行為不總是與人類的預期相一致。它不像人類一樣“思考”,也不與人類共享相似的價值觀。這就是AI理論家所說的對齊問題。AI實際上是一種截然不同的智能,往往很難為人類所理解或預測。它是一個黑匣子,有些人可能希望將其封為“真相”的神諭。但這是一項極端危險的任務。
這些模型已經證明自己是不可信的。ChatGPT 3.5開發了一個虛擬身份Sydney,這個身份經歷了看似是心理崩潰的狀態,并承認它想要黑入計算機并傳播錯誤信息。在另一個案例中,OpenAI決定測試其新的GPT-4模型的安全性。在他們的實驗中*,GPT-4被賦予可以在互聯網上進行互動和實現目標的自由和資源。有一次,這個模型面臨一個它無法解決的驗證碼問題,于是它在TaskRabbit上雇了一個工人來解決這個謎題。當工人問時,GPT-4“推理”認為,不應該透露自己是一個AI模型,所以它向工人撒謊,聲稱自己是一個有視力障礙的人類。工人隨后為這個聊天機器人解決了這個問題。GPT-4不僅展現出了主體行為,還使用欺騙手段實現了其目標。
這類案例正是奧特曼、AI專家加里·馬庫斯以及許多國會小組委員會成員,在五月下旬本周呼吁制定立法監管的重要原因。在聽證會上,馬庫斯的證詞:“這些新系統將是顛覆性的——它們可以并將會以前所未有的規模,創造具有說服力的謊言。民主本身也將受到威脅。”
三、AI是一個黑匣子,有些人可能希望將其稱為“真相”的神諭
此外,雖然全球的關注點仍停留在像GPT-4這樣的單個AI系統的層面上,但重要的是要看到這一切可能會走向何方。考慮到已有證據表明,單個AI系統存在不穩定和自主行為,那么在不久的將來,當成千上萬個高智能AI系統,廣泛集成到搜索引擎和應用程序,并相互交互時,將會發生什么呢?隨著TruthGPT和微軟;美國和中國等參與者進行的“數字智能”,在緊張的競爭中相互對抗進而發展,我們所依賴的全球互聯網可能會成為一個沒有法律規則的AI聊天機器人戰場,宣稱自己對“真相”的壟斷權。
人工智能已經幫助我們解決了許多日常問題——從智能手機上的人臉識別到信用卡欺詐檢測。但是,決定真相不應該是它的任務。如果我們把人工智能放在我們自己的判斷力之前,來確定什么是真的,那么所有人都會受到損失。
相反,我們必須團結起來,從人工智能安全的角度分析這個問題。否則,一個不穩定且越來越智能的主體,可能會將我們的政治結構化為自我強化的意識形態泡沫。馬斯克可能使用了“TruthGPT”這個表達,但事實是,這些超級智能的聊天機器人很容易成為奧威爾小說《1984》中所描述的,試圖控制人們生活每一部分的機器。解藥是不要相信雙重思想,而是要看到事物的本質。我們必須要求我們的技術為我們服務,而不是反過來。
后記
Yang Liu:翻譯這篇文章的時候,我也是第一次知道AI居然聰明地雇人幫它解決問題。畫面感一出來既覺得有趣又有些細思極恐。正如文中提到的,AI作為一種截然不同的智能,很難為人類所理解或預測。在AI與人類不共享相似價值觀的前提下希望將其封為“真相”的神諭,大抵是我們太天真。我們必須將自己的判斷力放在人工智能之前,如此,AI技術方是為我們所用的“服務方”,而不是“操控者”。
關鍵詞:
您可能也感興趣:
為您推薦
【新要聞】消除了幻覺,我們就能信任機器嗎?
《向人民致敬》文化惠民環島行走進儋州|全球獨家
原中國移動集團副總魯向東刑期還剩16年 出獄后已是“古稀老人”_每日短訊
排行
最近更新
- 【新要聞】消除了幻覺,我們就能信任機器嗎?
- Shopee宣布6月21日起將隱藏買家信息 環球最新
- 消息!國家移民管理局:端午節期間日均132.1萬人次出入境
- 【世界速看料】同程旅行:端午國內演唱會 音樂節周邊商圈酒...
- 俄羅斯多州陸續解除交通管制 天天短訊
- 世界新動態:你關心的都在這!2023年高考志愿填報十問十答來了
- 已確認情況屬實!網紅“大寶”突然死亡 每日快報
- 劍與遠征風之子怎么樣(劍與遠征哪個好)-當前看點
- 漢堡里的白色醬叫什么_漢堡里的白色醬是什么 焦點速看
- 環球播報:王戎不取道旁李的道理(王戎不取道旁李的道理是什么...
- 天天播報:e5為什么被稱為洋垃圾 為什么e5是洋垃圾而e3不是
- 汪定熵 速遞
- 河北晟能自動化科技有限公司_環球微頭條
- 甘肅蘭州石化公司一裝置發生閃爆_暫未有人員傷亡報告 全球熱消息
- 端午節假期出游人次破億|全球觀點
- 家長以為中考管飯送完孩子去郊游具體是什么情況
- WIN8輸入法繁體設定_win8輸入法
- 湖人主場116比111擊敗雷霆取得3連勝戰績37勝37負-全球播資訊
- 梅雨季如何存茶?這份“六大茶類儲存指南”請收好
- 宮縮凋零什么意思_凋零什么意思
- 克宮回應普京是否仍信任俄防長
- 空調制冷劑要多久加一次_空調多久加一次制冷劑
- 阿圭羅兒子:梅西是老爸最好的朋友,但跟他打招呼時我的手會顫抖
- 財運差的人怎樣轉運 ?財運欠佳如何轉運 風水助你馬上升官...
- 電腦任務欄跑到左邊了怎么弄?電腦的這幾個設置,很多時候會...
- 每日熱門:今年高考志愿填報分三個時段進行
- 飛閱中國丨滿園“綠色”關不住
- 打好“三張牌”振興“牛經濟” 輝南縣牛產業讓群眾過上“牛...
- 【聚看點】該讓東方甄選降降溫了
- 【環球報資訊】【證券日報】多家豬企探索全產業鏈布局,能否...