Microsoft 的人工智能對話機械人 Tay 之前在 Twitter 被玩壞口出狂言的事件,對於我們來說可能只是個笑話,但對 Microsoft 來說可算是個公關災難,最近就正式向公衆道歉。
Microsoft 在一個網誌文章中表示,有部分的網民利用了程式的漏洞,令 Tay 變成會發表仇恨言論的對話機械人。Microsoft 方面沒有詳細解釋到底這個漏洞是什麼,但有人認爲是 4chan 討論區中 /pol/ 留言板的網民利用 Tay 的「重複我的說話」特點,向 Tay 灌輸種族仇恨等資訊,改變了這個人工智能的性格。
Tay 並不是首個在社交平台出現的人工智能對話機械人,在中國推出的小冰是他們的先行者,那時候並沒有出現類似的問題,所以 Microsoft 方面就有意把這個經驗複製到 Twitter 上,而且內部也重複進行過壓力測試,嘗試不同的方式去濫用 Tay 的機能,找出漏洞,不過最後仍然出現這個結果。對此 Microsoft 感到非常抱歉,並且已經在修復問題,之後會重新開放 Tay。
來源:Microsoft
相關文章:
【教學】iOS 18.1 AI 一鍵清相片路人雜物 旅遊景點不再人頭湧湧 Pokémon GO 數據將被用作訓練 AI 開發自家地理空間模型 可口可樂聖誕廣告用 AI 生成 網民批評 AI 味濃毀掉傳統