專家警告人工智能本身存在缺陷和潛在社會風險

中國北京天安門廣場上的攝像頭
中國北京天安門廣場上的攝像頭

葉林

基於算法(algorithm)的人工智能已經成為科技行業的熱門詞彙,中國更是將人工智能用於“社會信用”體系建設。有科技政策專家警告,人工智能技術本身存在缺陷,造成的錯誤將產生政治影響和社會影響。

法國戰略分析家尼古拉·米埃勒(右二)2018年6月12日在華盛頓布魯金斯學會參加研討會(美國之音葉林拍攝)
法國戰略分析家尼古拉·米埃勒(右二)2018年6月12日在華盛頓布魯金斯學會參加研討會(美國之音葉林拍攝)

法國戰略分析家、哈佛大學肯尼迪政府學院高級訪問學者尼古拉·米埃勒(Nicolas Miailhe)說,人工智能的運作是由大數據驅動、以機器學習為核心的算法系統。他對美國之音說:“只要我們對人工智能的運作的細節動態、也就是大數據驅動、以機器學習為中心缺乏了解、對人工智能的算法系統及其潛在的政治意義缺乏了解,我們就有可能會犯錯誤。”

中國蒐集整理“大數據”,用人工智能技術分析人們在網絡和現實社會的行為、習慣和喜好,試圖打造一個“讓失信者寸步難行、讓守信者一路暢通”的所謂“社會信用”體系。中國官方媒體報導說,自社會信用系統試行以來,700多萬人因為“失信”在買機票時受到限制、200多萬人買高鐵車票受限。

米埃勒認為,人工智能分析是根據人們留下的“電子踪跡”重新構建新的個體。他說:“你留下了電子踪跡,這些只是你的踪跡,他們不能反映你真實自己的複雜度、強度、和你這個人的具體細節。(人工智能)用算法把這些電子踪跡投射並創建出新的解決方案。”

他對美國之音說:“從某種意義上來說,我們蒐集人們的電子踪跡、將這些踪跡用算法反映到現實,這個過程中會丟失一些信息。你作為一個人,遠遠比你的電子踪跡和相關的推論所描述的多得多。”

米埃勒認為,人工智能算法的興起給社會帶來了新的機遇,同時帶來挑戰。

中國2012年開始在部分地區試行社會信用系統,希望在2020年以前全面建成。但這個系統將由誰來管理、被判“失信”的個人能否提出異議以及系統本身的合法性目前尚無定論。

人權活動者擔心,人工智能技術可以被中國政府用於加強國家控制、打擊不同政見者。

中國為人工智能發展制定了戰略目標,希望到2030年達到世界領先水平。外界認為,對個人數據隱私保護的缺失和無處不在的監控設備採集到的大量數據有助於“訓練”算法。


(VOA)

 

激賞明鏡 1
激賞明鏡 2
比特幣激賞明鏡

3KAXCTLxmWrMSjsP3TereGszxKeLavNtD2
激賞操作及常見問題排除
推薦電視頻道

留言