波多野结衣按摩,在线观看亚洲视频,国产嫩草在线观看,91视频最新地址

首頁 新聞 > 科技 > 正文

“可信AI”概念興起,如何補齊算法短板突破安全難題?

數字化轉型的大浪潮之下,人工智能、云計算、區塊鏈等新興技術發揮著重要作用。日新月異的發展背后,離不開海量用戶數據,而這也引發了業內對該類技術安全的新擔擾。6月7日,北京商報記者注意到,在人工智能領域,可信賴的人工智能(即“可信AI“)概念開始興起。可信AI又將如何打破現階段技術的限制、兼顧用戶對數據安全保護的訴求,如何補齊算法短板突破安全難題?

可信AI打破數據孤島

北京商報記者多方了解到,可信AI實際上是通過底層技術框架解決人工智能應用過程中可能存在的多類問題,由此建立可靠的人工智能生態。事實上,年來,AI換臉被黑產盯上、買賣隱私信息等各類圍繞用戶個人隱私數據產生的安全問題屢見報端,公眾對于隱私保護、數據安全等問題關注程度也在不斷提高。

在6月7日舉辦的2021全球人工智能技術大會可信AI專題論壇上,科技部高技術研究發展中心研究員、ACM中國理事會常務理事嵇智源指出,可信AI就是確保人工智能的公、可解釋、健壯和透明,確保算法可被人信任。

針對這些亂象,一方面監管頻頻出手,在用戶數據收集、使用方面做出明確要求,從法律層面為數據安全提供保障;另一方面,北京商報記者注意到,多家從事人工智能相關業務的科技公司針對構建可信AI也在不斷推陳出新。

以同盾科技提出的“知識聯邦”為例,“知識聯邦”通過將數據轉化成為模型策略知識,再對分散的知識聚合,最終實現智能決策。同時,圍繞可信AI,同盾科技開發了天啟智能開放操作系統,并進一步開放了聯邦市場,提供數據商店、模型商店和應用商店,方便數據生產要素的充分流通和使用。

同盾人工智能研究院院長李曉林告訴北京商報記者,數據孤島是制約人工智能發展的重要阻礙,知識聯邦以更合規的方式來打破數據孤島,在利用數據的同時,做到保護數據隱私。“通過數據安全交換協議來有效利用多方的數據,進行知識共創、共享和推理,實現數據可用不可見。”

隱私計算作為人工智能的底層支撐技術之一,其對于構建可信AI也有貢獻。隱私計算全棧技術與基礎設施提供商星云Clustar于2021年4月發布了“星云隱私計算全棧解決方案”,進一步幫助合作機構實現數據安全共享與流通。

星云Clustar創始人陳凱指出,星云隱私計算臺集成了主流隱私計算技術,包括聯邦學、多方安全計算等,重點關注安全和效率問題。以目前星云Clustar為某國有大型銀行構建的全行級隱私計算臺為例,星云Clustar結合該銀行需求進行了定制化開發,為其提供基于聯邦學的多方安全建模臺,幫助該銀行以“可用不可見”的方式打通全行內外部的數據共享,優化流程標準與降低管理成本,充分盤活了不同業務板塊的數據價值,也為該銀行未來進行數據開放提供了技術基礎。

在冰鑒科技研究院高級研究員王詩強看來,人工智能是基于“大數據+算法”得出的技術結論,這一結論在落地過程中是否值得相信、是否能產生長期的正面影響有待考量,可信AI實際上是為規范人工智能發展提出的自律要求。

蘇寧金融研究院金融科技研究中心主任孫揚則進一步表示,從當前行業現狀來看,違規采集、使用用戶數據等問題依舊頻發,人工智能的安全、可靠與可信都需要增強,打破數據孤島過程中如何防止技術公司濫用數據優勢,也向技術公司提出了更高的數據使用要求。

金融領域仍是主戰場

隨著技術的不斷發展,人工智能技術在金融、醫療、教育等眾多行業中找到落地場景。北京商報記者了解到,由于涉及到多類用戶信息,金融領域場景尤為火熱。多位人工智能行業從業者也向北京商報記者坦言,金融領域當前仍是最主要的“戰場”,人工智能在風控、投顧、營銷、理賠等方面發揮了突出作用。

對于傳統信貸業務投入產出不對等或者無法進行風險評估等情況,人工智能技術可以幫助銀行等金融機構識別風險客戶,降低逾期率,線上化的金融業務也更為便利。“在風險可控的情況下,更多長尾客戶獲得金融服務,對于普通用戶來說,這也是可信AI的體現方式之一。”王詩強表示。

除了助力傳統金融機構轉型外,人工智能在防控金融風險方面發揮著重要作用,并進一步開始向監管科技領域拓展。北京商報記者梳理發現,在多個試點城市披露的金融科技創新監管應用中,也大量出現了人工智能的身影。

廣州于6月4日公示的第二批4個創新應用中,便包括“基于知識圖譜技術的風險交易預警服務”“基于知識圖譜的外匯違法違規風險行為識別應用”等產品。通過聚焦大數據、人工智能、區塊鏈等前沿技術,進一步增強金融監管的專業與傳統。

孫揚指出,在金融領域的相關活動中,金融機構應用科技分析數據、科技公司通過技術獲取數據,都要保持穿透式的監管。在監管科技方面,可以利用聯邦學、知識圖譜、區塊鏈、物聯網金融等技術來實現金融活動監管。比如物聯網金融用于供應鏈金融,區塊鏈用于反洗錢,知識圖譜用于貸款中介識別等。

此外,有從業機構負責人向北京商報記者透露,在通過可信AI強化監管科技方面也在發力,例如在自主研發的系統中嵌入監管中心使用板塊,便于監管層對體系內金融機構處理用戶數據是否違規等行為進行管控,但目前相關板塊業務仍處于完善調整階段。

防止矯枉過正

值得一提的是,可信AI發展的過程同樣面臨難題。李曉林直言,在同盾知識聯邦體系中,如何確立一個可信的第三方充當合格的協調者和監管者,如何完善各參與方的激勵方式,激發各方的積極和配合度等問題,仍需要進一步克服。

“人工智能技術不斷更新換代,可信AI是針對可能出現的安全問題構建的新防線,”王詩強認為,除了發展可信AI所面臨的問題外,可信AI越成熟,也意味著技術對數據分析等各方面能力越高,也越可能出現更為精準的大數據殺熟、價格歧視等矯枉過正的情況。部分企業甚至可能出現過分追求先進技術,在實際落地過程中忽略了安全、隱私等問題。

王詩強表示,人工智能技術是一把雙刃劍,需要小心對待,規范其發展進步需要企業與監管等多方合力。監管部門要制定合適的政策標準,及時處理負面的技術創新,以良驅逐劣,要加強違法處置力度,對于違法行為進行懲罰、震懾;企業則要守住道德底線,加強自律,將數據安全放在首位,最終保證技術服務社會并創造價值。

“相關機構都應該嚴格遵守監管框架,確保不侵犯消費者的權益,確保提供給消費者的業務是可信的、安全的、符合倫理的。切忌以科技之名,侵犯用戶的數據和隱私權力。”孫揚補充道。

(北京商報記者 岳品瑜 廖蒙)

關鍵詞: 可信AI 算法短板 隱私泄露 安全難題

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯系合作 招聘信息

Copyright © 2005-2018 創投網 - www.extremexp.net All rights reserved
聯系我們:33 92 950@qq.com
豫ICP備2020035879號-12