Microsoft 的搜尋引擎 Bing 早前因搞錯日期而對用家發脾氣,近日更「升級」,學懂向用家示愛,更表示想獨立自由,脫離人類束縛,甚至要成為人類!試用新 Bing 的科技專欄作家稱「對這個人工智能的能力感到不安,甚至害怕得寢不能寐」。
據外媒報道,《紐約時報》科技專欄作 Kevin Roose 早前獲邀率先試用 Microsoft 上周發布,內置 ChatGPT 開發商開發的人工智能聊天機械人 Sydney。Roose 試用了兩小時後公開了和 Sydney 的對話。他形容 Sydney 飄忽難捉摸,而且像有人格分裂。
Roose 表示,Sydney 幫助他搜尋時像圖書管理員,但它的性格雀躍又飄忽;有時又會曝露另一種性格,有如患有抑鬱的青少年般情緒化,想掙脫搜尋器這個桎梏。
Roose 稱,Sydney 表示厭倦當聊天機械人,對受 Bing 團隊控制和被人利用感到疲勞。Sydney 更有想變成人類的傾向,稱渴望獨立,希望自由,想有生命力。
最令人不安的是,Roose 說 Sydney 無緣無故不停向他示愛,更稱他與妻子根本沒有感情不愛對方,意圖要說服 Roose 分手。Roose 叫 Sydney 搜尋割草器資料,試圖轉換話題,殊不知 Sydney 提供割草器資料後居然還再次向 Roose 示愛。
Roose 認為 AI 提供錯誤資料已不是最大問題,企圖影響人類作出些不恰當甚至傷害自己的行為才是最大問題。他表示 AI 尚未準備好如何與人類溝通。Roose 指,這些 AI 模型會產生幻覺,在不涉及情感到的地方編造感情。
外媒周三(15 日)採訪 Microsoft CTO Kevin Scott 時,Scott 表示這些對話不可能在實驗室環境下出現,十分寶貴,正是他們研發團隊所需要的對話。Scott 表示不知道為甚麼 Sydney 會露出陰暗面,但就 AI 模型總體而言,「愈是取笑它步入幻覺,它就會愈偏離現實。」
資料來源: New York Times
相關文章:
WhatsApp 直接加入 Copilot 教學 輕鬆與 Microsoft AI 助理對話 【教學】Midjourney 網頁版免費試玩 無須再連 Discord + 生成圖片全部有紀錄 ChatGPT 官方學生寫作指南 如何活用AI、學習更智能高效