波多野结衣按摩,在线观看亚洲视频,国产嫩草在线观看,91视频最新地址

首頁 資訊 > 洞察 > 正文

清華大學新聞學院教授沈陽:高開快走、蓬勃發展 生成式AI的風險與治理 環球新動態

今年以來,以ChatGPT為代表的生成式人工智能掀起新一輪科技熱潮,國內一些大模型的發布引發廣泛關注,海內外互聯網企業也在應用層面加快布局。生成式人工智能成為社會各界廣泛關注的話題。

近日,中國日報網就此采訪清華大學新聞學院教授沈陽,以下為采訪實錄:

請您介紹一下目前國內外生成式人工智能的發展現狀。


(資料圖片)

沈陽:目前看來,現狀是高開快走、蓬勃發展。

第一個特點是高開快走:高開快走是指ChatGPT發布后,迅速將生成式人工智能應用的智能性能提升到一個新高度。基本上每周都有一些新動態出現。

第二個特點是開源領域發展迅速,如LLaMA模型(Large Language Model Meta AI,Facebook Meta AI推出的開源大模型)以及許多其他大語言模型出現。

對比國內和國外,目前國內發布的大模型與GPT-4.0仍存在差距。按照創新擴散理論,這個差距可能會擴大。因為在創新事物高速發展的過程中,也就是起飛期,領先者通常會擴大與第二名之間的差距。但目前,人工智能仍具有一定的爭議性。我們認為,下一步中國通過開源模型的進一步迭代,完全有可能縮短與美國的差距。

對于新聞媒體行業來說,AIGC的出現以及大模型應用,可能會給內容生產帶來哪些影響?

沈陽:首先是生產成本大幅度下降。過去很多內容需要人去編寫,現在可能已經不需要這么多了。

第二點,從形態來看,可能會出現大量內容是真實的,但混雜了一小部分假的內容,這種形態可能比較普遍。這帶來了一個嚴重問題,即辨識真相的難度增加,這個問題也很突出。
第三個情況是傳播者有所變化。以前的傳播者大多是人,但隨著時間的推移,他們逐漸轉變為AI賬號。美國已經出現了一個純AI賬號的社區叫Chirper,這類網站中的AI賬號是主流、是博主。因此,從傳播源、傳播渠道到傳播者,都會發生很大的變化。

AI可以用于核查新聞事實嗎?

沈陽:AI既是核查事實的工具,又是需要被核查的對象,它是一把雙刃劍。一方面它通過多個信息渠道進行交叉驗證,另一方面我們知道大語言模型具有幻覺和一本正經的胡說八道的特點。因此,有時候它內部產生的內容需要我們進一步核實。所以現在在搜索引擎加入大語言模型的版本里,它會提供原始鏈接。我們稱之為溯源追查,但真正的溯源仍需回歸現實,所以記者的作用仍然非常重要。

對于媒體機構和從業者,您認為生成式人工智能技術面臨哪些風險和挑戰?未來我們應該如何應對?

沈陽:首先,美國已經出現了無記者新聞。其次,大家對新聞交互性要求提高,出現了對話式新聞。第三點是,在閱讀新聞過程中,對于新聞所涉及的有傳播價值的敏感新聞點,它具有擴展閱讀需求。這對新聞界帶來了幾個重大挑戰。

首先,AIGC技能需要進一步提升。對于每個記者來說,要進一步提升AIGC技能,提升自己的生產力。因為我們的競爭對手并非AIGC本身,而是掌握AIGC技能的其他人。當整個社會的人員逐步掌握AIGC時,作為社會風險的洞察者,記者應該優先掌握高科技生產力的工具。這是第一個原因。

第二個方面是,記者對判斷消息真假的能力要求更高。無記者新聞或者剛才提到的AI幻覺等現象,都可能導致信息變異和失真的程度在某些領域增加,并且傳播速度更快。因此,記者的真實記錄能力變得更加重要。

第三個方面是AI具有自動交互能力。原來的記者可能僅是發稿,現在可能需要培養合適的AI分身來進行交互。當人人都具有AI分身并進行交互時,記者的AI分身在這個過程中應該有哪些特點?這是我們需要先行嘗試的。因此,我認為這對我們帶來的挑戰非常巨大。

我國網信部門也就生成式人工智能的服務管理向社會公開征求意見,您對此如何看待?您關注哪些條款?

沈陽:我個人認為,首先一定要精準治理,但不要過度治理或不治理。為了快速促進AIGC發展,日本最近的動作相當猛烈,他們將AIGC訓練語料的版權全部放開。這對AIGC行業發展的影響會非常明顯。因此,我們一方面要考慮技術發展邏輯,另一方面要考慮國際形勢和各行業的勞動替代問題,這是一個均衡的結果,不應該偏廢某一方面。

沒有發展的治理,就談不上治理。沒有治理的發展也談不上好的發展。因此,我認為一定要辯證地處理,這是我想談的第一個大觀點。

第二大觀點是,我們需要促進生產力發展,同時提升生產力技術。在提升過程中,要避免對現有生產關系的沖擊,實現平緩過渡。當我們不希望這些沖擊對社會結構產生顛覆性影響時,我們應該采取措施。社會也需要適應沖擊,因為沒有風險就沒有收益。我們要盡可能讓沖擊平緩,讓大家可以承受,同時促進生產力發展。目前的狀態是AI技術發展過快,這可能對社會結構產生很大沖擊。因此,我們需要做好預判,并進行精準治理。

您認為當前大模型在訓練提示詞及生成方面,是否需要考慮版權問題?通過AI生產出的數據代碼和圖文等內容,版權應該如何界定?

沈陽:這是一個大家還在討論的問題。首先是訓練語料的版權問題。其次是訓練完成后,與交互過程中提示詞的版權問題,這是一個新出現的問題。第三個是生產內容的版權問題。

我們最近在研究一個課題叫做“最小版權識別單元”。對于文本來說,我們是否能在非篇章結構上進行版權保護,而是在最小版權識別單元上進行一些版權保護,這是我們最近在探討的話題。

“最小版權識別單元”的意思是能識別出具有獨創性的知識產權的最小單元。以“最小版權識別單元”為例,這8個字組成的詞語從未被大家使用過,我將這部分保護起來。如果AI將這8個字連在一起,我們可能會懷疑它侵占了我們的獨創性智慧。在這種情況下,如果他們連用這8個字,我們是不是應該詢問他們要支付版稅?

圖像和視頻的版權保護可能比文字處理更復雜,我們還在繼續研究。大家都在思考這些問題。總的原則是,首先應該延續原有法律,能適用的盡量適用;其次,針對新出現的情況,我們應該如何調整。

關于大模型在媒體方面的應用,您最近了解到了哪些新進展?

沈陽:最近我們團隊也在為媒體進行一些大模型研發工作,首先是優化內容生產過程。第二個方面是用于檢查內容中的錯誤,這也是可以進行的。第三個是翻譯。第四點是,我們是否能夠自動化地形成更多報道角度,包括特定人物的評論風格。這些都是我們現在可以嘗試的,最近我們也正在進行研發。

(編輯:王輝)

關鍵詞:

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2023 創投網 - www.extremexp.net All rights reserved
聯系我們:39 60 29 14 2@qq.com
皖ICP備2022009963號-3