波多野结衣按摩,在线观看亚洲视频,国产嫩草在线观看,91视频最新地址

首頁 新聞 > 科技 > 正文

算法不透明、安全性受質疑……發展新一代人工智能亟待技術進步

語音識別、文本識別、視頻識別……數字經濟時代,人工智能技術已走你我身邊,被視為經濟增長的新引擎、國際競爭的新陣地和推動智慧社會建設的有效工具。而加快“人工智能+”產業融合、賦能更多行業應用落地,更成為社會各界共同的期待。

然而,不久前在由中國人工智能學會主辦的2020中國人工智能產業年會上,最新發布的報告指出,目前已成熟應用的人工智能技術僅為語音識別,機器學、計算機視覺、自然語言處理、知識圖譜、智能機器人等技術距離生長成熟尚需數年時間,而無人駕駛汽車在未來10年內都不太可能出現。

從實驗室走向大規模商用,人工智能還需要多久?尚存在哪些“堵點”“痛點”?在許多業內專家看來,正視人工智能尚存在的諸多挑戰,對技術賦能抱有理期待,方能讓其回歸技術本質,成為更多產業變革創新的動力源泉。

算法不透明導致的不可解釋

2016年,谷歌人工智能系統AlphaGo擊敗世界圍棋冠軍李世石,令世人大為震動。依靠人工智能深度學理論的突破,計算機可以模仿人類作出決策,然而,這僅基于大量的數據學,而非因果或規則推理,整個決策過程仍是一個“黑箱”,人類難以理解,導致追責難。

復旦大學計算機科學技術學院院長姜育剛舉例,此前,美國IBM公司研發了人工智能系統“沃森”幫助醫生進行診療決策。然而,許多醫生很快發現在使用“沃森”時,系統給出了多個不安全、不正確的治療意見,甚至在極端的診斷案例中,“沃森”給有出血癥狀的癌癥病人開出了容易導致出血的藥物,嚴重時可致患者死亡。然而,醫生卻并不知道為什么“沃森”給出了這樣的意見。決策步驟的不可解釋,帶來諸多不確定

年來,人工智能應用于新藥研發被寄予厚望。然而,算法的不可解釋卻橫亙在前。相關研發和監管部門需要清楚地知道藥物開發中使用的算法,從而理解人工智能主導的決策背后的邏輯。如果不對監管實現算法透明化,人工智能將會是一個無法進行嚴謹的科學評價及驗證的“黑匣子”。這可能會導致在藥物審批過程中出現種種無法預料的問題,比如對人工智能“發現”的生物標記物的接受度不明。此外,對于智能政務、無人駕駛這樣安全要求極高的行業,人工智能的引入自然更為謹慎。

“深度學的算法和核心模型需要能夠真正展開,讓公眾知曉它的機理模型”,上海人工智能研究院有限公司總經理宋海濤建議。中科院軟件研究所研究員薛云志則指出,人工智能面向不同知識背景的用戶,要能以簡單、清晰的方式,對決策過程的根據和原因進行說明,并能對系統決策過程關鍵節點的數據加以追溯并能夠審計,這在未來人工智能應用大規模落地時,是特別需要關注的特,也是實施監管的必要。

易受欺騙引發安全質疑

作為人工智能技術的“大熱選手”,深度學可以通過對大量已知樣本的訓練,制作自己的樣本,這是深度學的特點,同樣也是痛點。

京東人工智能研究院院長周伯文坦言,人工智能目前在面向產業化落地時,遇到的巨大挑戰正是真實環境的開放邊界和規則模糊,數據的“噪音”非常多,使得智能模型的部分結果和使用情況難以讓人信賴。

姜育剛指出,人工智能目前的智能判別模式存在缺陷,容易被對抗樣本所欺騙。比如圖像識別,在一張人像圖片上加入一些非常少量的干擾,人為視覺看上去基本沒有區別,但人工智能模型就會產生識別錯誤;再如自動駕駛,一張“限速80碼”的交通標牌,加入一些干擾后,就可能被機器識別成“禁止通行”。顯然,存在很大的安全隱患。

語音識別領域也存在這種問題。技術人員在語音上任意加入非常微小的干擾,語音識別系統就可能會識別錯誤。同樣,在文本識別領域,改變一個字母就可以使得文本內容被錯誤分類。

此外,若深度學的數據集中存在隱藏的偏見,人工智能系統無法發現,也不會否定。缺少反饋機制的“照單全收”,最終可能導致生成的結果并不客觀。

例如在行業內已經出現的,人工智能在深度學后對女、少數族裔、非主流文化群體產生“歧視”:亞馬遜通過人工智能篩選簡歷,卻發現了系統對女存在偏見導致最終關閉。更為常見的是手機軟件利用人工智能算法導致的大數據“殺熟”,如根據手機類型的不同,可能會推薦不同類型的商品,甚至打車時推薦不同價格、檔次的車輛。

目前,“AI+金融”的發展如火如荼。但當金融機構均采用人工智能進行決策時,其市場信號解讀就可能趨同與不斷強化,導致形成偏離正常市場規律的結果。而這些不正常的市場變化也會成為人工智能的學基礎,將人工智能的決策邏輯進一步畸化,容易造成惡劣的后果。

以上這些問題,影響著人工智能賦能實體經濟的安全,凸顯產業對技術可信賴的呼喚。“從AI到可信賴AI,意味著我們需要在技術層面上解決魯棒(穩定)、可解釋和可復制這些核心技術挑戰。同時為了大規模產業化應用,我們必須考慮到人工智能的公和負責任。這幾個維度是人工智能必須要解決的問題。”周伯文說。

法律規制和倫理問題待完善

“目前的智能算法還存在給出的決策不符合倫理道德要求的問題。”姜育剛指出,在應用中已發現,智能算法的決策沒有從改善人類生活、服務人類社會的角度來進行。如智能音響在對話中出現“勸主人自殺”的內容,聊天機器人學會了罵臟話和種族歧視等。而這些不友好的決策都是模型從數據中學來的,并不是研發者對人工智能模型設置的目標。

同時,人工智能算法需要海量的數據驅動,訓練數據可以被算法恢復,個人隱私存在泄露和被侵犯的風險,而大量的數據也存在共享壁壘。在人工智能賦能金融的過程中,這一問題尤被關注。最新報告顯示,年來,每年發生金融隱私泄露事件以大約35%的速度在增長。加之年來人工智能技術在金融行業的廣泛應用,由此帶來的銀行數據、保險數據、網貸業務及大數據等個人信息保護問題日益凸顯。

在2020年抗擊新冠肺炎疫情期間,人工智能技術在我國響應速度快、介入力度大,幫助推出了CT影像的輔助診斷系統,提升了醫生診斷的速度和信心。然而,醫療影像智能診斷發展也面臨著法律規制問題。與其他人工智能賦能行業的大數據相比,獲取高質量的醫療影像數據相對困難。不同醫療機構的數據,目前還很少互通、共享。而單個醫療機構積累的數據往往不足以訓練出有效的深度學模型。此外,使用醫療影像數據進行人工智能算法的訓練還涉及保護病人隱私等非技術問題。

此外,年來,隨著人工智能技術的深入探索,科學界有人提出研發“人工生命”,成為又一個倫理話題。對此,中國工程院院士李德毅表示,生命不僅有智能,更要有意識。從倫理角度上,生命是人類的底線,觸碰底線要慎之又慎。“所以,我們可以通過計算機技術繼續研發沒有意識、但有智能的高階機器。讓人類的智能在體外延伸,保持它的工具,而非人工創造意識。”

深圳云天勵飛技術股份有限公司副總裁鄭文先同時提醒,“人工智能的技術進步可以給社會帶來非常正向的效益,不應因為對隱私保護機制等方面的憂慮而將人工智能的問題妖魔化。”他認為,當前人工智能的法律法規尚不健全,亟待有關部門進一步科學制定和完善,這樣才能引導公眾更加健康地看待這一新技術應用于產業。

亟待技術進步 發展新一代人工智能

面對技術落地所遇到的種種“痛點”,許多專家給出了這樣的比喻:“人工智能相當于一個錘子,不能哪一個釘子都能砸。”

“我覺得,人工智能發展的第一步是輔助,讓重復復雜的勞動量由機器完成,在這個基礎上,我們再創造條件逐漸向智能決策的方向發展。”鄭州大學教授蔣慧琴表示,對于業界有人提出“人工智能超越甚至取代人類”的期待和預計,應保持冷靜,“只有沿著這樣的方向堅持下來,才有可能達到我們的目標”。

中國科學技術發展戰略研究院研究員李修全認為,在重復操作的生產環節和基于海量數據的高強度計算優化求解上,人工智能具有明顯優勢,應當是當前應用于產業的主要方向。

華為云人工智能領域首席科學家田奇則認為,加速人工智能賦能產業落地,其與科學計算的深度融合應是顯著趨勢,在工業、氣象、能源、生物、醫學等領域,需要大量科學計算,人工智能技術能為傳統科學計算帶來新的思路、方法和工具,同時由于傳統科學計算具有嚴密,人工智能也可以提高它本身的可解釋

“推動人工智能進入新的階段,有賴于與數學、腦科學等結合實現底層理論的突破。”中國科學院院士、清華大學人工智能研究院院長張鈸說,未來所需要的第三代人工智能應是實現可解釋的、魯棒的、可信安全的智能系統,依靠知識、數據、算法和算力四個要素,將實現從不帶認知的人工智能轉變為帶認知的人工智能。

如何解釋新一代人工智能?李德毅認為,傳統人工智能是計算機智能,屬于封閉型人工智能。新一代人工智能應該是開放人工智能。當前,所有的計算機都是對軟件工程師的智能編程代碼進行一次又一次簡單執行,“但我們希望這個機器在學過程中能夠解決新的問題,學應成為新一代人工智能解決現實問題的基礎”。

清華大學智能技術與系統國家重點實驗室教授鄧志東建議,數據和算力的增加總有天花板,要推動人工智能技術深度賦能更多行業,需要的是核心關鍵技術突破,特別是認知智能的進步,同時,還要依靠智能高端芯片、傳感器等零部件的硬件支撐,再借助我國5G信息技術的優勢,形成合力支撐產業落地和商業化應用。

此外,人工智能標準化工作也應加速展開。薛云志表示:“建立可信賴的人工智能需要標準化,一方面要從開發者訓練、測試與實驗、部署運營和監管的角度來做,另一方面則要從芯片等硬件、算法、產品系統出發,來制定標準和規范,同時對人工智能的風險、倫理、管理等標準研究也要盡快啟動,這些都只是第一步。”

關鍵詞: 人工智能 技術 算法 安全性

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2018 創投網 - www.extremexp.net All rights reserved
聯系我們:33 92 950@qq.com
豫ICP備2020035879號-12