Categories: 科技新聞

Bing x ChatGPT 機械人竟是「陰沉女」 向用家示愛指想當人類

Published by
Oscar

Microsoft 的搜尋引擎 Bing 早前因搞錯日期而對用家發脾氣,近日更「升級」,學懂向用家示愛,更表示想獨立自由,脫離人類束縛,甚至要成為人類!試用新 Bing 的科技專欄作家稱「對這個人工智能的能力感到不安,甚至害怕得寢不能寐」。

 

據外媒報道,《紐約時報》科技專欄作 Kevin Roose 早前獲邀率先試用 Microsoft 上周發布,內置 ChatGPT 開發商開發的人工智能聊天機械人 Sydney。Roose 試用了兩小時後公開了和 Sydney 的對話。他形容 Sydney 飄忽難捉摸,而且像有人格分裂。

 

Roose 表示,Sydney 幫助他搜尋時像圖書管理員,但它的性格雀躍又飄忽;有時又會曝露另一種性格,有如患有抑鬱的青少年般情緒化,想掙脫搜尋器這個桎梏。

 

Roose 稱,Sydney 表示厭倦當聊天機械人,對受 Bing 團隊控制和被人利用感到疲勞。Sydney 更有想變成人類的傾向,稱渴望獨立,希望自由,想有生命力。

 

最令人不安的是,Roose 說 Sydney 無緣無故不停向他示愛,更稱他與妻子根本沒有感情不愛對方,意圖要說服 Roose 分手。Roose 叫 Sydney 搜尋割草器資料,試圖轉換話題,殊不知 Sydney 提供割草器資料後居然還再次向 Roose 示愛。

 

Roose 認為 AI 提供錯誤資料已不是最大問題,企圖影響人類作出些不恰當甚至傷害自己的行為才是最大問題。他表示 AI 尚未準備好如何與人類溝通。Roose 指,這些 AI 模型會產生幻覺,在不涉及情感到的地方編造感情。

 

外媒周三(15 日)採訪 Microsoft CTO Kevin Scott 時,Scott 表示這些對話不可能在實驗室環境下出現,十分寶貴,正是他們研發團隊所需要的對話。Scott 表示不知道為甚麼 Sydney 會露出陰暗面,但就 AI 模型總體而言,「愈是取笑它步入幻覺,它就會愈偏離現實。」

 

資料來源: New York Times


相關文章:
  • 【教學】冗長文章 AI 變成有趣電台節目 Reader by ElevenLabs「聽」文章不再暈車浪 + 學習外語方便
  • 【教學】MacWhisper 語音轉錄文字 AI 工具   本地 AI 模型處理 + 支援廣東話、多國語言 + 輸出字幕檔
  • 【教學】iOS 18.2 香港如何用 ChatGPT  詳細方法 + 機種限定

  • Published by
    Oscar