9 月 12 日消息,歐洲隱私監(jiān)管機構正在調查谷歌在開發(fā)其人工智能模型過程中處理個人數(shù)據(jù)的方式,此舉標志著監(jiān)管機構對大型科技公司的 AI 野心的審查力度不斷加大。
愛爾蘭的數(shù)據(jù)保護委員會(DPC)負責執(zhí)行歐盟的《通用數(shù)據(jù)保護條例》(GDPR),該委員會表示,已經對谷歌的 PaLM 2 語言模型啟動了一項法定調查。PaLM 2 于 2023 年 5 月推出,早于谷歌最新的 Gemini 模型。Gemini 于同年 12 月推出,現(xiàn)在是其文本和圖像生成產品的核心模型。
該調查將評估谷歌是否違反了 GDPR 關于處理歐盟和歐洲經濟區(qū)公民個人數(shù)據(jù)的規(guī)定。根據(jù)該框架,當處理個人信息的方式可能對個人的權利和自由構成高風險時,公司必須在開始處理此類信息之前進行數(shù)據(jù)保護影響評估。
該監(jiān)管機構在一份聲明中表示,這尤其適用于新技術,對于確保充分考慮和保護個人的基本權利和自由“至關重要”。
谷歌發(fā)言人表示:“我們認真對待 GDPR 規(guī)定的義務,并將與 DPC 建設性地合作,回答他們的問題�!�
IT之家注意到,這是 DPC 對正在構建大型語言模型的大型科技集團采取的一系列行動中的最新一起。今年 6 月,在與愛爾蘭監(jiān)管機構進行討論后,Meta 暫停了使用歐洲各地成年人在 Facebook 和 Instagram 上共享的公共內容訓練其模型 Llama 的計劃。隨后,Meta 限制了其部分 AI 產品在該地區(qū)的可用性。