Categories: 資訊保安

Google 向員工發出警告 勿向 AI 聊天機械人洩露秘密

Published by
唐美鳳
Share

Google 的人工智能聊天機械人 Bard 現時已經在全球 180 個國家提供服務,相信每天都有大量網民使用。使用聊天機械人時可能引發的資料外洩風險,未必每位用戶都是先理解清楚,亦不是所有人都知道如何自保。日前 Google 就向員工發出警告,給予一項最為重要的建議。

根據《路透》日前的報導,Google 母公司 Alphabet 向員工發出警告,當事人任何人工智能聊天機械人時,都不應該輸入任何機密資料。Google 還特別提醒員工,這項禁令包括自家開發的 Bard 聊天機械人。很多用戶都不清楚 ChatGPT、Bard 或其他人工智能聊天機械人的開發商,都會將對話儲存並容許員工取用和審視其內容。

此外,開發商亦會將用戶提交的資料用於訓練人工智能語言模型,令聊天機械人能夠不斷學習和進步,但這個過程則有導致用戶提交的資料,在聊天機械人給予他人的回應中出現,機密資料因此外洩。ChatGPT 於官網表明有可能以用戶的數據去改善他們的模型,而 Google 亦在 Bard 的支援頁面提醒用戶,不要將能夠識別自己或他人身份的資料輸入。

資料及圖片來源:mashable


相關文章:
  • 【教學】「ImageFX」Google AI 繪圖工具教學 免費使用、一鍵生成旅行/食物圖片
  • OpenAI 安全團隊遭解散 曾高調成立避免未來 AI 失控危害人類
  • Sony Music 警告勿擅用內容訓練 AI 指有理由相信內容已被擅自取用

  • Published by
    唐美鳳