Google 的人工智能聊天機械人 Bard 現時已經在全球 180 個國家提供服務,相信每天都有大量網民使用。使用聊天機械人時可能引發的資料外洩風險,未必每位用戶都是先理解清楚,亦不是所有人都知道如何自保。日前 Google 就向員工發出警告,給予一項最為重要的建議。
根據《路透》日前的報導,Google 母公司 Alphabet 向員工發出警告,當事人任何人工智能聊天機械人時,都不應該輸入任何機密資料。Google 還特別提醒員工,這項禁令包括自家開發的 Bard 聊天機械人。很多用戶都不清楚 ChatGPT、Bard 或其他人工智能聊天機械人的開發商,都會將對話儲存並容許員工取用和審視其內容。
此外,開發商亦會將用戶提交的資料用於訓練人工智能語言模型,令聊天機械人能夠不斷學習和進步,但這個過程則有導致用戶提交的資料,在聊天機械人給予他人的回應中出現,機密資料因此外洩。ChatGPT 於官網表明有可能以用戶的數據去改善他們的模型,而 Google 亦在 Bard 的支援頁面提醒用戶,不要將能夠識別自己或他人身份的資料輸入。
資料及圖片來源:mashable
相關文章:
【評測】Google Pixel 9 Pro Fold 詳細評測 機身偏闊手感一般 + 雙熒幕表現出色 + 終原生支援香港 5G + 定價偏貴不夠抵玩 【教學】iOS 18.1 AI 一鍵清相片路人雜物 旅遊景點不再人頭湧湧 Pokémon GO 數據將被用作訓練 AI 開發自家地理空間模型