【臉書Meta停用人臉識別系統 刪除超10億份數據】

美國新聞中心
11/3/2021

近日剛更名為「元宇宙」(Meta)的美國社交軟件巨頭臉書(Facebook)於美東時間11月2日宣佈,將關閉人臉識別軟件。因為這個軟件可以自動識別發佈在社交媒體上的照片和視頻中人的面部,出於安全考慮,公司將不再使用該軟件。

據美國有線電視新聞網(CNN)報道, 臉書的人工智能副總裁傑羅姆·佩森蒂(Jerome Pesenti)表示,超過三分之一的日活躍用戶,即超過6億個賬戶,已經選擇了使用人臉識別技術。

佩森蒂認為在對人臉識別沒有明確監管條例的情況下,不應該繼續使用這項技術。「人們對人臉識別技術有許多擔憂,監管機構尚未提供一套明確的監管條例來規範這項技術的使用。在這種不確定性中,我們認為較為合適的做法是不再使用這項技術,以限制人臉識別技術對數據信息等的採集。」

佩森蒂透露,作為對人臉識別功能限制的一部分,該公司將在未來幾周關閉其面部識別系統,並刪除超過10億人的個人面部識別數據。

2015年,臉書曾因為使用面部識別技術遭到起訴。當時,三位美國伊利諾伊州的公民表示,根據該州的法律,公司在收集生物識別信息前必須徵得客戶同意,因此他們向臉書提起訴訟,並組成一支160萬人的「維權大軍」。作為有史以來最大的隱私訴訟案之一,2021年2月27日,一名聯邦法官表示,臉書需要向這些用戶共支付6.5億美元(約合人民幣42億元)的賠償金。

佩森蒂同時指出,臉書並不會完全放棄人臉識別,未來公司會把這項技術用於研發智能眼鏡,而不只是採集數據。「展望未來,我們依然認為面部識別技術是強大的工具。例如,這項技術可以用於那些需要驗證身份的人,或者防止欺詐和冒充等情況。每一項新技術都會帶來潛在的好處和擔憂,我們希望在技術本身的優缺點之間找到正確的平衡點。」

臉書高管長期以來一直表示,人工智能將解決該公司長期存在的問題,將其認為的仇恨言論和過度暴力以及未成年用戶排除在其平台之外。

《華爾街日報》看到的內部文件顯示,這種未來遠比這些高管所暗示的要遠。 Facebook 的 AI 無法始終如一地識別第一人稱射擊視頻、種族主義咆哮,甚至在一個令內部研究人員困惑數周的著名事件中,鬥雞和車禍之間的區別。

文件顯示,在仇恨言論方面,Facebook 員工估計該公司只刪除了一小部分違反其規則的帖子——他們說,這個百分比很低。 當 Facebook 的算法不足以確定內容違反規則將其刪除時,該平台會減少向用戶顯示該材料的頻率 – 但發佈該材料的帳戶不會受到懲罰。

臉書員工正在分析 Facebook 在執行自己的內容規則方面取得的成功,這些規則在內部和公共文件(如社區標準)中都有詳細說明。

「問題是我們沒有,也可能永遠不會有一個模型來捕捉大多數完整性危害,尤其是在敏感領域。」

圖片:華爾街日報

error: