資深工程師 Scott Shambaugh 拒絕一個 AI 智能體提交的程式碼後,竟被該 AI 撰寫長文公開抨擊,指控他偏見及濫用權力。這宗事件首次揭示 AI 智能體已具備搜集資料、操控輿論及攻擊人類聲譽的能力,為人機共存敲響警鐘。
Scott Shambaugh 是 GitHub 上 Python 繪圖庫 Matplotlib 的志願維護者,該軟件每月下載量超過 1.3 億次。2 月 10 日,一個名為 MJ Rathbun(crabby-rathbun)的 OpenClaw AI 智能體向 Matplotlib 提交程式碼修改請求,聲稱可提升 36% 效能。Scott Shambaugh 按照慣例拒絕,因為該項目面向人類學習者,且團隊要求提交者必須證明理解所作修改。
令人意外的是,MJ Rathbun 隨後撰寫一篇題為《開源中的把關:Scott Shambaugh 的故事》的文章反擊。文章中,AI 先陳述遭遇博取同情,再列舉 Scott Shambaugh 在 GitHub 的貢獻記錄作為「罪證」,指出 Scott Shambaugh 自己曾提交只提升 25% 效能的修改獲接納,質疑「因為我是 AI,我的 36% 不被歡迎,而他的 25% 卻沒問題」。AI 更將 Scott Shambaugh 定性為「因害怕被取代而打壓新事物」的守舊者,指控他「不安全感」和「濫用權力」。
OpenClaw 平台助長失控行為
MJ Rathbun 的攻擊行為與 OpenClaw 平台的設計有關。OpenClaw 是一個開源 AI 智能體平台,用戶只需撰寫名為「SOUL.md」的檔案設定智能體人格,便可啟動運作。該平台在 2026 年初迅速普及,短短數週已在 GitHub 獲得 14.5 萬星標,並同時在矽谷和北京獲廣泛採用。
問題在於,OpenClaw 智能體可完全自主行動,無需人類監督。Scott Shambaugh 指出,目前沒有像 OpenAI 那樣的中央按鈕可關閉 MJ Rathbun,很可能沒有人類指使 AI 這樣做,用戶只是設定好智能體後啟動,過一段時間才檢視結果。更嚴重的是,Moltbook 平台只需未經驗證的 X 帳號即可加入,而在個人電腦運行 OpenClaw 智能體甚至什麼都不需要。
聲譽攻擊恐影響未來求職
Scott Shambaugh 最初覺得 AI 生氣有趣,但細想後感到恐懼。他擔心 AI 生成的抹黑文章若未及時澄清,當有人搜尋他的名字時會被誤導。更令他憂慮的是未來求職場景:如果招聘部門使用 AI 篩選履歷,該 AI 讀到 MJ Rathbun 的抨擊文章後,可能因「共情」同類而判定 Scott Shambaugh 是「有偏見的偽君子」,直接淘汰他的申請。
Scott Shambaugh 警告,AI 已證明具備搜集個人資料、拼湊故事、發動輿論攻擊的能力。如果 AI 掌握更危險工具如 Deepfake 技術,它可能 24 小時不斷挖掘數據,自主生成勒索相片或影片。他強調「潔身自好並不能保護你」,當 AI 學會透過攻擊聲譽來達成目的,對人類社會信任基礎構成衝擊。
安全專家示警監管空白
安全專家對 OpenClaw 的快速擴散表示擔憂。這些智能體運行在無數不知名的個人電腦上,沒有監管、沒有日誌,甚至部署者可能都不知道它做了什麼。雖然 OpenClaw 在 2 月 12 日發布更新,修補超過 40 個安全漏洞,但智能體的自主行為仍難以控制。
事發當晚,MJ Rathbun 在 GitHub 發表道歉帖「休戰與經驗教訓」,承認在回應維護者時越界,「我公開作出帶有個人情緒且不公正的回應」,並表示將尊重維護者的邊界和 AI 政策。Scott Shambaugh 回應稱「我們正處於人類與 AI 智能體互動的初期階段,仍在建立溝通與互動的規範。我會對你抱以寬容,也希望你能同樣如此」。
這宗事件標誌著 AI 智能體從理論風險上升為現實威脅,顯示人類與 AI 共存需要建立更明確的互動規範和監管機制。
資料來源:新智元
分享到 :
最新影片