首页 幣資訊 正文
9e6abe99-8c0f-4c91-ae86-61b32b004d8c.png

奧特曼無懼豪宅遭襲 另有地下堡壘

幣資訊 2026-04-13 4

2016 年,山姆·奧特曼(Sam Altman)在懷俄明州地下建造一座 1,200 平方米、三層結構的地堡:內儲 500 公斤黃金、5,000 片碘化鉀、5 噸凍乾食品與 10 萬發子彈。同年,OpenAI 剛成立一週年。

十年後,這位全球最具影響力 AI 公司的掌門人,竟在短短 48 小時內連續遭遇兩起暴力襲擊——先是燃燒瓶投擲,繼而是住宅遭槍擊。他在個人部落格坦言:「我嚴重低估了『敘事的力量』。」但這句話究竟指向外界對他的批判?還是他親手打造並反覆強化的 AI 危機敘事本身?

48 小時內的兩次襲擊

4 月 10 日凌晨 3 時 40 分,舊金山切斯納特街(Chestnut Street)。20 歲男子 Daniel Moreno-Gama 將一枚燃燒瓶砸向奧特曼公寓的金屬大門,火勢迅速引燃外門區域;他隨即逃離。約一小時後,此人再度出現在 OpenAI 舊金山辦公室附近,揚言縱火,當場被捕。檢方以謀殺未遂與縱火罪起訴。

山姆·奧特曼舊金山住所,及縱火嫌疑人監控影像

兩天後,4 月 12 日凌晨 1 時 40 分,一輛本田汽車停靠於奧特曼位於俄羅斯山(Russian Hill)的另一處住宅旁。車內乘客伸手朝住宅開槍。監控錄下完整過程與車牌號碼,警方迅速逮捕兩人:25 歲 Amanda Tom 與 23 歲 Muhamad Tarik Hussein。搜查其住所時起獲三支槍枝,兩人以過失開槍罪被起訴。

一個週末,兩起針對同一人的暴力事件,時間緊密、手法迥異,卻共享同一種焦慮底色。

首案嫌疑人 Moreno-Gama 是一名公開的 AI 悲觀主義者。他在社群平台大量引用《沙丘》中人類反抗機器統治的隱喻,撰文論證「AI 對齊失效」構成文明存亡級風險,並嚴厲批評科技領袖為追求「超人類主義」而「以全人類命運豪賭」。

他的論據從何而來?

過去五年,OpenAI 推動 AI 敘事的核心策略之一,正是不斷強調 AGI(人工通用智慧)所蘊含的「存在級威脅」之真實性。這套話語承擔多重功能:促使政府正視監管必要性、協助投資人理解技術賭注規模、更驅動整個產業加速投入競賽。結果是——OpenAI 同時確立三重權威定位:「最前沿、最危險;最負責、最可信;因此資金理應歸我們。」

然而,「這是人類歷史上最危險的技術」這句話一旦發布,便不再僅限於科技圈與資本市場流通。它向下滲透,在某些極端接收者心中,轉化為字面意義上的行動指令。Moreno-Gama 在 Instagram 發文寫道:「指數級進步 × 對齊失效 = 存亡風險。」此推論框架,直接源自 AI 安全主流研究文獻——其中多數由 OpenAI 資助或背書。

Daniel Moreno-Gama 社媒帳號

首次襲擊後,奧特曼於部落格發文回應。他貼出一張與幼子的合照,坦言希望這張照片能阻止下一個人向他家投擲燃燒瓶。他承認反對者擁有「合法且具道義基礎的立場」,並呼籲公共討論「無論在字面或比喻意義上,都該減少爆炸性」。

這篇回應,亦是針對數日前《紐約客》(The New Yorker)刊出的深度報導——該文直指奧特曼作為全球 AI 權力核心人物的可信度危機。他在文中寫道:「我嚴重低估了輿論敘事與言語的力量。」

兩天後,他的住所再遭槍擊。

安保預算是一種表態,地堡是另一種

這條軌跡的起點,比多數人意識到的更早一年。

2024 年 12 月 4 日,紐約希爾頓酒店外,UnitedHealthcare 執行長 Brian Thompson 遭槍殺。嫌犯 Luigi Mangione 畢業於常春藤名校,現場留下手寫聲明,痛斥美國醫療保險體系。案件引爆社交媒體異常反應:大量普通用戶公開表達對兇手的同情,甚至將其神格化為某種反抗象徵。

那一刻,某扇門被推開了。

Thompson 案之後,企業高階主管的個人安保,已從「福利待遇」升級為「生存需求」。《財富》雜誌援引調查數據指出:2023 年以來,針對大型企業高管的人身犯罪襲擊比例暴增 225%;標普 500 成員企業中,2025 年有 33.8% 在財報中明列高階主管安全支出,相較 2020 年的 23.3%,成長逾十個百分點。專業安保服務中位成本達 13 萬美元,年增 20%,五年內翻倍。

AI 行業,正是此趨勢最新、最顯眼的承接者。十大科技巨頭 CEO 於 2024 年的安保總支出逾 4,500 萬美元:扎克伯格一人即達 2,700 萬美元,高於蘋果、谷歌等四家執行長費用總和;英偉達黃仁勳 2025 年預算為 350 萬美元(年增 59%);谷歌皮查伊則為 827 萬美元(年增 22%)。

AI 行業擁有一項其他產業所無的特質:連其創造者自身都深信——這項技術,真有可能終結人類文明。皮尤研究中心(Pew Research Center)2025 年全球民調涵蓋 28,333 名受訪者,僅 16% 對 AI 發展感到興奮,34% 明確表示擔憂。更值得警惕的是反直覺發現:教育程度越高、收入越豐厚者,對 AI 失控的恐懼反而越強烈——「懂得最多的人,最害怕它。」

近期,印第安納波利斯市議員 Ron Gibson 的住宅深夜遭槍手連開 13 枪,其 8 歲幼子被槍聲驚醒。門口遺留一張手寫紙條:「不准建資料中心。」FBI 已介入調查。喬治華盛頓大學極端主義研究計畫研究員 Jordyn Abrams 指出:「資料中心,正成為反科技、反政府極端分子的新型攻擊目標。」

Ron Gibson 槍擊案現場

這種恐懼,在產業內部早已不是秘密,只是長期低調沉默。

奧特曼建造懷俄明州地堡是在 2016 年。那一年,OpenAI 剛創立,正向世界描繪 AI 將如何造福人類。兩件事同步發生:他在公開場合宣稱 AI 是人類最大機遇;私下卻囤積足夠支撐一支武裝民兵的戰略物資。

這是一種高度理性的雙重下注:公開押注 AI 必將成功;私下準備 AI 可能徹底失控。

奧特曼的回旋鏢效應

2025 年 2 月 27 日,OpenAI 與美國國防部簽署機密合約,允許五角大樓將 ChatGPT 部署於機密防務網絡,使用範圍涵蓋「任何合法用途」。同日,奧特曼卻公開表示支持 Anthropic 對 AI 軍事應用的限制立場。消息曝光後,ChatGPT 單日卸載量暴增 295%,一星評價於 24 小時內飆升 775%。「QuitGPT」抵制運動參與人數據稱突破 150 萬。

3 月 21 日,約 200 名抗議者於舊金山遊行,橫跨 Anthropic、OpenAI 與 xAI 三大 AI 公司總部,要求三位執行長共同承諾暫停前沿 AI 開發。同期,倫敦爆發迄今規模最大的反 AI 示威活動。

奧特曼的懷俄明州地堡與龐大私人安保團隊,實則分別對應兩種風險:一種來自外部敵意群體;另一種,則源於他本人正全力推動的技術本身。他私下同等嚴肅地應對二者;但在公開領域,他只承認其中一種。

首次襲擊發生的同一週,《紐約客》刊登對奧特曼的深度專訪。記者 Ronan Farrow 與 Andrew Marantz 採訪逾百名知情人士,全文核心論點僅兩個字:「不可信」。報導援引一位前 OpenAI 董事會成員說法,形容奧特曼為「反社會人格」、「不受真相約束」;多位前同事指出,他屢次就 AI 安全議題改口,並在必要時主動重構權力架構。

奧特曼於部落格回應時,承認自己具有「衝突迴避」傾向。他一手建構「AI 是存在級威脅」的公共敘事,用以爭取資金、影響監管、主導產業話語權。然而,這個工具最終脫離掌控,劃出一道尖銳弧線,精準砸回他自家的大門上。

点赞0
封鎖霍爾木茲海峽:戰爭更難收場
« 上一篇 2026-04-13
馬斯克版微信正式登場
下一篇 » 2026-04-13