觀點
Google AI 預設值暗藏玄機:用戶隱私的代價與選擇的假象

摘要
Google 的 AI 服務 Gemini 正全面整合至其產品生態系,但其隱私控制機制卻複雜且令人困惑。文章揭露 Google 利用「暗黑模式」設計,讓用戶難以拒絕 AI 訓練的資料收集或關閉 AI 功能,導致用戶在保護個人資料與享受 AI 便利之間,面臨著選擇的假象與隱藏的代價。
AI 將會監控你Google 聲稱其 AI 服務尊重用戶隱私,但實際情況並非如此非黑即白。Gemini 的隱私控制機制多面向且常令人困惑。許多人希望——不,是祈禱——潛在的 AI 泡沫能盡快破裂。但聽 Google 的說法,生成式 AI 是未來,公司產品必須隨技術現實而改變。因此,Gemini 正滲透到 Google 生態系的每個角落。生成式 AI 仰賴資料,而 Google 在 Gmail 和 Drive 等產品中擁有大量你的資料。這對你的隱私意味著什麼?如果你不希望 Gemini 窺探你的資料,又會發生什麼事?嗯,這真是一團糟。Gemini 保留的資料量取決於你如何存取該 AI,而選擇退出資料收集可能直接撞上所謂的「暗黑模式」——那些與用戶利益相悖的 UI 元素。這就是未來嗎?Google 不用你的資料訓練 AI,除非它用了對 Google 如何使用你的私人資料的擔憂,早在生成式 AI 蓬勃發展之前就已存在。當 Google 加強在 Gmail 中的廣告投放時,公司澄清它不會使用你電子郵件的內容來投放廣告。相反地,廣告個人化(你可以停用)是一項全球功能,它利用你的網路活動和基本統計資料來鎖定目標。大多數人已經接受了這一點,但在 AI 領域,情況變得更加模糊。隨著 Google 將更多 Gemini 功能整合到 Gmail 等標誌性產品中,它再次需要澄清何時使用以及何時不使用你的資料。在最近的一篇部落格文章(以及相關的 YouTube Short)中,Google 試圖澄清你的電子郵件不會直接傳輸到 Gemini。相反地,Gemini 僅在「獨立任務」中獲取你的資料。當你在 Workspace 應用程式(如 Gmail 或 Drive)中與 Gemini 功能互動時,AI 會處理你的資料,但不會儲存它。「保護用戶隱私和對其資料的控制權,是我們在 Google Workspace 中開發和部署 AI 的基礎,」一位 Google 發言人表示。「你放入 Workspace 的內容——例如你的私人 Drive 檔案——是你的,當在 Workspace 中使用 Gemini 時,我們不會使用這些個人內容來訓練我們的基礎生成式 AI 模型。」所以 Google 不會掃描你的收件匣或文件來訓練 Gemini。太好了。但 Gemini 可以根據你的提示詞,使用工具連接到 Workspace 和其他 Google 產品。Google 表示,其 AI 模型可以透過 Gemini 的輸入和輸出進行訓練。你猜這些輸出可能包含什麼?沒錯,就是你的資料。Gemini 的輸出可能包含電子郵件或檔案的摘要和片段,而這些資料隨後可能成為 AI 訓練的素材。Google 表示,目標是訓練 Gemini 成為更好的助理,而人們與聊天機器人互動的方式是關鍵要素,但它會嘗試「過濾並減少」進入 AI 訓練資料集中的個人資訊。然而,我們無法得知這個自動化過程的運作效果如何。Google 很快指出,用戶可以控制這些功能。如果你想讓你的私人資料真正保持私密,你可以避免讓 Gemini 存取你的檔案,或者選擇不分享任何資料用於 AI 訓練。不幸的是,Google 並沒有讓用戶輕易地擺脫 Gemini。在聊天機器人的黑暗中確保你的個人資料不會進入 Google 的 AI 訓練集有幾種方法,其中一些比其他方法更直接。最簡單的方法是讓你與 Gemini 的互動保持輕量和非個人化:不要允許 Gemini 存取你的其他 Google 應用程式,並將任何稍微敏感的內容限制在臨時聊天中。這樣,Gemini 在輸出中就不會有任何個人資料可供挖掘。當然,這會大大降低 Gemini 的實用性,對於那些試圖保護隱私的人來說,這是一個熟悉的困境。要完全阻止 AI 訓練使用你的資料,你需要關閉一個名為「Gemini 應用程式活動」的功能。這個深奧的設定頁面允許你關閉 Gemini 歷史記錄,或者關閉並刪除你現有的 Gemini 資料。如果你不儲存活動,Google 就不會用它來訓練。然而,這也意味著你將失去你的聊天歷史記錄。所以你必須在不保留 AI 聊天記錄以供將來參考,或者允許這些聊天內容用於 AI 訓練之間做出選擇。公司通常不會承認設計介面來操縱用戶,但意圖並不能決定 UI 設計是否為暗黑模式。「無論是否故意,這都不重要,」Fair Patterns 的 Marie Potel 說,這家新創公司正在建立檢測暗黑模式和掠奪性設計的 AI 模型。「重要的是用戶的自主權是否受到尊重,以及設計是否違背了用戶的意願。」如果退出 AI 訓練的唯一方法是永久停用你的聊天歷史記錄,這種安排似乎不尊重用戶的自主權——這是一種強迫行為。即使找到正確的選單來退出訓練也可能是一項苦差事。Gemini 應用程式設定中隱藏著一個連結,但它只標示為「活動」,如果你搜尋 Google 的支援文章,也會有直接連結。有趣的是,Gemini 的控制項在 Google 的帳戶隱私設定中卻沒有出現,而你通常會期望在那裡找到它們。一位公司代表表示,在「活動控制項」中應該有一個連結,以及 Android、地圖、搜尋、助理等子選單。在檢查了多個帳戶後,我們尚未看到 Gemini 隱私選單的連結。兩個不同的 Google 帳戶,都沒有 Gemini 隱私選單的連結。一個對用戶隱私如此重要的開關,即使它會大大降低體驗,也不應該如此難以找到。不幸的是,這並不是 Google 第一次似乎「放錯」了隱私選項。Marie Potel 指出,隱藏和失效的連結幾乎是與網路一樣古老的暗黑模式。「Google 有隱藏功能的歷史,尤其是隱私設定,需要點擊多次才能找到,這顯然是為了阻止人們使用它們。」AI 是新的預設體驗累積訓練資料並非 Google 使用 Gemini 的唯一目標——它還希望將生成式 AI 融入你的生活。使用 Gemini 功能的人越多,Google 就越容易證明對這項技術的巨額投資(僅 2026 年預計就達 1850 億美元)是合理的。自然地,Google 的核心產品更積極地使用 AI 功能,並且假設你想要它們。在 Gmail 中,Gemini 可以撰寫和修改電子郵件、總結電子郵件鏈、整理收件匣,並創建你的電子郵件的 AI 總覽。你獲得的 AI 量取決於你是否支付更高的 AI 限制,但每個人都會獲得一些,而且這些功能正在不斷擴展。但也許你不希望 AI 在你的電子郵件中生成幻覺般的摘要。關閉它是一項令人沮喪的練習,因為它沒有細緻的控制——許多功能在 Gmail 設定中都有簡單的開關,但 Gemini 沒有。要在 Gmail 中停用 Gemini 功能,你必須透過 Google 所謂的「智慧功能」將它們全部關閉,有兩種方法可以做到這一點。其中一種會破壞大量 Gmail 功能,而且兩者都解釋得不清楚。在 Gmail 設定中,有一個「智慧功能」的核取方塊開關,可以停用 Gemini,但它也會關閉許多在 AI 繁榮之前就已存在的熱門功能。使用此選項意味著放棄收件匣篩選(主要、社交、促銷等分頁)、智慧撰寫、包裹追蹤等等。你可能以為自己只有 20 封未讀郵件,但現在你卻有 500 封,因為所有那些你忽略的社交更新突然塞滿了你的主要收件匣。停用 Gemini 並失去所有這些功能後,Gmail 會彈出一個提示,給你第二次機會重新啟用所有這些功能,包括 Gemini。另一個「智慧功能」開關,在設定中更深一層,是 Workspace 版本。這個開關除了停用 Gemini 外,還會停用個人化的 Drive 搜尋、將會員卡複製到 Wallet 以及從 Gmail 提取日曆事件。這應該也會從 Drive 中移除 Gemini,但你切換開關後可能看不到任何差異,因為 Gemini 的 UI 元素並不會消失。點擊其中任何一個都會彈出提示,要求重新開啟智慧功能(和 Gemini)。有兩種方法可以在 Gmail 中停用 Gemini,但都沒有明確標示。因此,停用 Gemini 功能意味著要面對措辭模糊的選單以及失去不相關的功能,這看起來像是「阻礙」和「強迫行為」暗黑模式的組合。「顯然,這是不可接受的,」Potel 說。「你停用 Gemini 時,它會改變你的使用參數,這顯然是為了阻止你停用它。」即使沒有掠奪性設計,預設設定也具有強大的影響力,但預設值的管理方式很容易走向黑暗。根據 2010 年創造「暗黑模式」一詞的 Harry Brignull 博士的說法,公司長期以來一直依賴預設值來引導用戶。談到科技產業,Brignull 表示,公司非常清楚這種效應及其可能帶來的好處。「我們可以將其稱為預選暗黑模式,」他說。「如果你想讓人們選擇加入某項功能,與其在註冊步驟中明確詢問並提供連結以了解更多資訊,你可以將其預選。將其放在三到四層深的設定中,這樣你可能會覺得自己有理由聲稱用戶有選擇權,但實際上,你從自己的統計數據中知道,透過這種設計方式,很少有人會到達那個頁面。」Google 擁有數十億用戶依賴其產品,這賦予它很大的權力來向用戶推廣新功能,因為人們很少更改預設值。Google 為此支付了高額費用,以在 iPhone 等設備上設定預設值。這個問題在 Google 最近的反壟斷案件中反覆出現,政府律師利用它將該公司描繪成反競爭。我們在免費和付費 Google 帳戶中看到的,都是預設值的力量。
標籤
GoogleGemini隱私權暗黑模式資料收集用戶自主權
以上為 AI 自動翻譯導讀。原文版權歸 Ars Technica AI 所有。 建議透過上方「閱讀原文」前往原始網站,以取得最完整資訊與支持原作者。