fb防自殺AI識別試驗成功 擬全球推行 監測用戶發帖恐侵私隱



全球最大社交網站facebook(fb)周一宣布,過去半年在美國做的人工智能防止自殺測試,能辨識出有輕生念頭的用戶,將把這套系統推廣到其他國家地區。這套系統將會監測所有影片、貼文及留言,當發現特定字眼時,就會按情况自動通報fb,工作人員有需要時甚至會報警求助。做法雖獲防止自殺組織支持,但亦有學者擔心這套系統可能侵犯私隱,將來亦可能會用作防止自殺以外的用途。

按情况提供協助 危急時報警

fb今年3月在美國開始測試這套「模式識別軟件」(pattern recognition software),用以掃描超過20億個戶口的貼文內容與留言,找出可能隱藏涉及輕生的蛛絲馬迹。fb產品管理副總裁羅森(Guy Rosen)指軟件可以搜尋可能含有自殺徵兆的特定留言,例如「你還好嗎?」(Are you ok?)和「我能幫你什麼嗎?」(Can I help?)等。如果軟件偵測到用戶有自殺傾向,fb成立的專門團隊會收到系統自動通報,團隊會按情况向該用戶提供協助,包括提供求助熱線電話、向用戶提供渡過現時困境的貼士,或是致電朋友或留言等。如果fb工作人員認為情况危急,會即時通報當地警方介入。

「速度很重要 必須及時伸援手」

「模式識別軟件」除了自動篩選可疑留言外,也能夠識別直播影片中可疑的時段(譬如在片段去到某位置時突然有大量觀眾發表關心留言),然後將該時段資料傳給fb團隊,方便團隊快速地判斷片段是否涉及自殺。此外,系統也會找尋通知當局的有效方法。羅森說:「速度真的很重要。我們必須及時伸出援手。」

羅森表示,單是過去一個月,fb軟件偵測到用戶有自殺意念後報警求助的個案已超過100次。他說,由於測試成功,fb已開始將軟件推廣到其他國家地區,並在各地聘請人員以隨時聯絡當局。不過,由於歐盟受私隱條例監管,fb無法監測資料,因此推出無期。

學者憂監測系統作其他用途

fb現時已有舉報自殺機制,用戶在發現貼文或直播片段有問題後可以向fb舉報,內容包括自殺或自殘、暴力、欺凌、騷擾、裸露或色情行為和仇恨言論等。如果舉報的屬於自殺行為,fb會即時將資料傳給團隊分析,同時向舉報者提議收看與80個組織合作的求助資源資料,甚至聯絡當地求助熱線或其他朋友。雖然fb會靠人工智能尋找有自殺傾向的用戶,但fb團隊仍會優先處理用戶舉報的個案。

fb總裁朱克伯格昨日說:「未來人工智能將能夠更了解語言微妙的差異,除了分辨出自殺個案外,還可以快速地找出涉及欺凌與仇恨的內容。」外界關注fb會否利用人工智能系統作監測自殺以外的用途,例如其他罪案,甚至是政治審查。華盛頓大學法律學教授卡洛(Ryan Calo)說:「當你打開了大門,你就會懷疑有什麼還會被審查。」

專家質疑改善形象 「粉飾太平」

fb強調,10年前已開始研究如何對付自殺問題,但自去年fb推出直播功能後,透過fb公開自殺、甚至殺人的個案增加,令公司形象受損。有專家表示,今次fb高調針對自殺行為,目的只是改善形象,並非解決問題。

曾聘3000人監察 直播自殺未停

美國匹茲堡大學醫學院和哈佛商學院今年的研究均顯示,社交網絡與美國青少年抑鬱問題有關,他們愈多用社交網絡,抑鬱機會愈大,因為社交網絡充斥親友美好一面,令當事人倍感低落。到fb在4月出現一連串網上直播自殺事件,包括一名男子殺死年幼女兒後自殺,轟動網絡世界,令fb備受壓力。fb在5月時表示,會額外聘請3000人監察網內影片和其他內容。不過,藉這個主要網上平台公開自殺的事件並未停過,上月土耳其一名父親就因女兒未有通知他就訂婚,於是在fb直播吞槍自殺。

fb總裁朱克伯格曾表示,網上公開自殺很難應付,無論請多少人,也永遠無法看到所有事,但fb仍致力透過人工智能加強監察,輔助人手找出自殺高危一族,過去8個月在美國的測試漸見成效。

除了fb,Google的搜尋引擎也參與誘導有自殺傾向者,在部分相關搜尋結果旁顯示防止自殺熱線的資料。在香港Google搜尋器內輸入「自殺」、「燒炭」等字眼時,率先顯示的內容就是「生命熱線」的電話號碼和網址等聯絡方法,這也屬於簡單人工智能的一種。

不過,科技分析家莫羅佐夫(Evgeny Morozov)指出,這類科網企業利用解決人道問題來表現「富同情心」一面,但同時向外界發出「問題已因此受控」的錯覺,而問題其實並未解決。

香港 明報

 

激賞明鏡
激賞明鏡 2
激賞操作及常見問題排除
推薦電視頻道

留言