英國多個組織呼吁監管機構限制Meta利用人工智能進行風險評估
6 月 9 日消息,據衛報報道, 互聯網 安全活動人士向英國通信監管機構 Ofcom 發出呼吁,要求限制人工智能(AI)在關鍵風險評估中的使用。這一呼吁是在有報道稱 Meta 公司(旗下擁有 Facebook、Instagram 和 WhatsApp)計劃將風險評估流程自動化之后提出的。
Ofcom 表示,在上個月一份報告稱 Facebook、Instagram 和 WhatsApp 的母公司高達 90% 的風險評估工作將很快由人工智能完成后,該局正在“考慮活動人士在信中提出的擔憂”。
據IT之家了解,根據英國的《在線安全法案》, 社交 媒體 平臺需要評估在其平臺上可能出現的傷害風險,并制定相應的緩解措施,特別是要保護兒童用戶并防止非法內容的出現。風險評估流程被視為該法案的關鍵內容。
包括莫莉?羅斯基金會(Molly Rose Foundation)、國家防止虐待兒童協會(NSPCC)和互聯網觀察基金會(Internet Watch Foundation)在內的多個組織在致 Ofcom 首席執行官梅蘭妮?道斯(Melanie Dawes)的信中表示,使用 AI 驅動的風險評估是一種“倒退且令人高度擔憂的舉措”。
這些組織在信中強調:“我們敦促您公開聲明,根據法案要求的‘合適且充分’標準,完全或主要通過自動化生成的風險評估通常不應被視為符合要求。”信中還要求監管機構對平臺可能試圖簡化風險評估流程的假設提出質疑。
Ofcom 的一位發言人表示:“我們已明確要求相關服務告知我們,誰完成了、審查了和批準了他們的風險評估。我們正在考慮這封信中提出的關切,并將在適當的時候作出回應。”
Meta 公司則回應稱,這封信故意歪曲了該公司在安全方面的立場。Meta 表示,公司致力于遵守法規并保持高標準的安全措施。Meta 的發言人指出:“我們并不是使用 AI 來做出風險決策。相反,我們的專家開發了一種工具,幫助團隊識別特定產品是否符合法律和政策要求。我們在人類監督下使用技術,以提高我們管理有害內容的能力,而我們的技術進步顯著改善了安全結果。”
此前,美國國家公共廣播電臺(NPR)曾報道,Meta 計劃通過 AI 系統審批其算法更新和新的安全功能,而不再由員工進行審查。一位匿名的 Meta 前高管向 NPR 表示,這種改變將使公司能夠更快地推出 Facebook、Instagram 和 WhatsApp 的應用更新和新功能,但可能會給用戶帶來“更高的風險”,因為潛在問題在新產品發布前更難被預防。
NPR 還報道稱,Meta 正在考慮將青少年風險和虛假信息傳播監測等敏感領域的審查流程自動化。
【來源: IT之家 】