mahbuba567 发表于 2024-4-2 04:30:46

Twitter 演算法存在種族歧視嗎?了解爭議


一家普通媒體試圖在視訊會議平台 Zoom 上展示可能存在的種族主義,最終卻在Twitter上引發了巨大爭議。 這一切都始於用戶@colinmadland發布了一張照片,顯示他的黑人朋友在更改虛擬背景時遇到的困難。那是因為 Zoom 的演算法總是會裁切你的臉。 由於照片比行動裝置上顯示的要大,Twitter 自動裁剪了照片。但用戶注意到,該平台總是將白人面孔置於聚光燈下,總是將黑人面孔排除在外。 從此時起,一些用戶開始進行測試,試圖了解 Twitter 演算法的動態。

很快我們就發現,這不是順序問題,例如照片 荷蘭 電話號碼 的優先順序是上、下、左還是右。這甚至不是臭名昭著的問題,因為就連美國前總統巴拉克·歐巴馬也被隱藏起來反對參議員米奇·麥康奈爾。 推特回應 爭議發生後,該微博在其個人主頁上發布了一則說明。 Twitter 在其中表示,他們在測試演算法時沒有被指控有任何類型的種族主義偏見,但將進行更多測試來解決問題。 此外,該說明還表示,他們將開源程式碼,以便更多人可以調查該問題。 使用者繼續向網路施壓,要求不斷更新流程,並表示如果出版物的每個作者都必須手動裁剪照片,這個問題就會得到解決。




機器學習如何干擾 Twitter 演算法 自動學習,英文稱為機器學習,是一種機器自動修改行為的邏輯系統。 簡而言之,機器自主學習如何解決問題。這意味著,機器為給定問題找到的解決方案通常沒有人工互動。 正因為如此,推特演算法最終自動得出結論:優先顯示白人面孔而不是黑人面孔。 Rock Convert提供支持 許多人批評這條微博,表示機器學習團隊本來可以毫無偏見地向機器的人工智慧提供資料庫。換句話說,機器看到了許多不同種族的臉孔,因此它不會優先考慮任何一個。 其他人則表示,找到一個足夠大的資料庫來進行自動學習並且沒有偏見是非常複雜的。 不管怎樣,這場爭議進一步加劇了關於機器學習困難的討論。兩週前,Netflix 的紀錄片《社會困境》提出了關於社群媒體演算法決策缺乏人為控制的問題。 儘管如此,Twitter 演算法中的錯誤背後的確切原因仍然未知。


页: [1]
查看完整版本: Twitter 演算法存在種族歧視嗎?了解爭議