Microsoft 的人工智能對話機械人 Tay 之前在 Twitter 被玩壞口出狂言的事件,對於我們來說可能只是個笑話,但對 Microsoft 來說可算是個公關災難,最近就正式向公衆道歉。
Microsoft 在一個網誌文章中表示,有部分的網民利用了程式的漏洞,令 Tay 變成會發表仇恨言論的對話機械人。Microsoft 方面沒有詳細解釋到底這個漏洞是什麼,但有人認爲是 4chan 討論區中 /pol/ 留言板的網民利用 Tay 的「重複我的說話」特點,向 Tay 灌輸種族仇恨等資訊,改變了這個人工智能的性格。
Tay 並不是首個在社交平台出現的人工智能對話機械人,在中國推出的小冰是他們的先行者,那時候並沒有出現類似的問題,所以 Microsoft 方面就有意把這個經驗複製到 Twitter 上,而且內部也重複進行過壓力測試,嘗試不同的方式去濫用 Tay 的機能,找出漏洞,不過最後仍然出現這個結果。對此 Microsoft 感到非常抱歉,並且已經在修復問題,之後會重新開放 Tay。
來源:Microsoft
【教學】ChatGPT 視像隔空教你養魚 用相機攝取現場環境 實時 AI 回應用家問題 【教學】MacWhisper 語音轉錄文字 AI 工具 本地 AI 模型處理 + 支援廣東話、多國語言 + 輸出字幕檔 Microsoft 將於 Intel + AMD CoPilot+ PC 推出即時字幕功能