首页 幣資訊 正文
9e6abe99-8c0f-4c91-ae86-61b32b004d8c.png

Odaily專訪余弦:Anthropic新模型洩漏衝擊加密安全

幣資訊 2026-03-30 3

原創|Odaily 星球日報(@OdailyChina)

作者|Azuma(@azuma_eth)

一場意外的數據洩露,提前揭開 Anthropic 下一代「核彈級」AI 模型的面紗 —— 這不僅是技術進化的里程碑,更是一記敲響加密資產安全警鐘的重擊。

據《財富》雜誌上周四報導,Anthropic 正在訓練一款內部代號為 Capybara(亦稱 Mythos)的全新模型,公司內部將其定位為「迄今為止開發過最強大的 AI 模型」。該資訊源自一篇遺留在未受保護、可公開搜尋之數據緩存中的部落格草稿(現已下線),經網路安全研究人員發現後,Anthropic 在《財富》查證時正式承認其存在。

與目前 Claude 最強版本 Opus 4.6 相比,Capybara 在軟體編碼、學術推理及網路安全等關鍵指標上實現顯著躍升,尤其針對漏洞挖掘、攻擊鏈建模與智能合約逆向分析等高階任務展現出前所未有的能力。

值得注意的是,Anthropic 去年12月已成功完成一項具里程碑意義的實驗:利用 AI 自主發起對加密貨幣智能合約的真實攻擊,並實現可複製、可盈利的完整攻防閉環——詳見〈成功模擬竊取460萬美元,AI 已學會自主攻擊智能合約〉。

當更強大、且專精於網路安全的新模型正式登場,加密生態的攻防平衡將如何被重塑?Odaily 星球日報特邀業界權威安全專家、慢霧科技創辦人余弦(X:@evilcos),深入解析 AI 時代下的新威脅格局與應對之道。

AI 的安全威脅,不是未來式,而是現在進行式

余弦開宗明義指出:「許多業內人士仍將 AI 安全風險視為『未來時』,但現實早已進入『現在進行式』—— 加密安全正被 AI 從底層重構,而非等待某天到來。」他將 AI 對加密領域的影響歸納為兩大主軸:

第一類:攻擊者主動以 AI 為武器 涵蓋廣泛應用的社交工程攻擊(如深度偽造影音詐騙),以及更具技術深度的自動化攻擊流程:基於歷史漏洞樣本、真實攻擊案例與技術細節,訓練 AI 學習漏洞發現、利用邏輯與鏈式滲透策略。此類能力不侷限於智能合約,凡具備可學習性與可操作性的安全環節,皆可能成為 AI 攻擊的目標。

第二類:項目方無意中「自埋地雷」 隨著 AI 編程(Vibe-Coding)普及,愈來愈多團隊依賴 Claude、Gemini 等模型生成生產級程式碼。效率提升雖明顯,風險卻同步升高:AI 可能因訓練資料污染、錯誤套件引用或幻覺(hallucination)輸出致命漏洞。今年2月,借貸協議 Moonwell 因採用 Claude Opus 4.6 生成的預言機價格公式錯誤,導致 cbETH 價格被誤設為 1.12 美元(實際約 2200 美元),最終遭盜 178 萬美元 —— 這絕非個案,而是 AI 開發常態下的典型風險。

誰最容易成為 AI 時代的攻擊目標?

在 AI 全面賦能攻防雙方的背景下,哪些項目最脆弱?余弦提出三類高危對象:

1. TVL 規模龐大的頭部協議 去中心化特性使資金狀態完全透明,攻擊 ROI(投資報酬率)極高。只要鎖倉價值夠大,必成重點研究、持續掃描與定向突破對象。

2. 新上線、漏洞明顯的早期項目 雖資金有限,卻易遭「搶跑式攻擊」:AI 批量掃描 + 自動識別 + 快速利用的流水線已趨成熟,多支攻擊團隊可能同步鎖定同一低級漏洞。勝負關鍵不在智慧,而在速度。

3. 運行多年、被市場默認為「絕對安全」的老牌協議 如去年 Balancer V2 合約漏洞導致逾 1.1 億美元資產遭盜。長期穩定易催生「安全疲勞」,團隊審計鬆懈、治理流程冗長、甚至假期期間響應遲緩,反而放大單點失守的毀滅性後果。

項目方與用戶,各自該如何防禦?

余弦強調:「項目方必須主動擁抱 AI,而非被動挨打。」當外部攻擊者已全面 AI 化,僅靠傳統人工審計與「運行久=安全」的思維,等同於在資訊嚴重不對等的戰場上裸奔。

他建議: ✅ 將 AI 納入研發流程是必然,但須同步建立匹配的安全機制; ✅ 上線前實施多重 AI 模型交叉驗證(如 Claude + Qwen + 自建模型); ✅ 由具備實戰經驗的安全工程師執行終極人工把關; ✅ TVL 高企的項目應主動啟動「AI 時代安全升級計畫」,重新評估架構、合約與治理流程。

對普通用戶而言,防禦難度則大幅提高。余弦坦言:「對大多數散戶來說,真正有效保護自己確實非常困難。」 具備鏈上監控系統、AI 風險預警工具與快速撤資能力者,實質已是加密世界的「科學家」;而缺乏技術門檻、反應遲緩、判斷力不足的用戶,往往淪為最後一環的損失承擔者。

AI 不會帶來更公平的安全環境,反而會加劇專業用戶與普通用戶之間的資訊差、工具差與反應速度差。對一般使用者最務實的建議是: 🔸 減少在高風險協議中的暴露時間與資金配置; 🔸 對複雜交互保持謹慎,拒絕盲目信任; 🔸 對「已上線多年」「經多次審計」「社區口碑好」等敘事,始終保有基本質疑精神。

更強模型登場,代表更大威脅?答案可能相反

面對 Capybara / Mythos 等新一代模型的出現,直覺上似乎只會加劇風險。但余弦給出顛覆性觀點:「這反而是件好事。」

他指出,業界最大迷思在於將威脅想像成「從零開始」。事實是:許多頂尖能力早已存在,只是未被公眾看見—— 如本次 Mythos 泄露純屬偶然;許多私有化、垂直訓練的 AI 安全模型,早已在頂尖白帽團隊與黑客組織內部靜默運作多年。

換言之,新模型的曝光不是風險的誕生,而是風險的「顯影」。它讓產業看清:漏洞發現與利用的自動化,早已超越理論階段,進入實戰驗證期。這也意味著——

AI 是一場嚴苛的篩選機制: ❌ 無法承受 AI 攻擊的項目,本就不該繼續成長; ✅ 真正能存活下來的,是即使面對 AI 審視仍具備堅實架構、嚴謹流程與敏捷響應能力的協議。

長期來看,AI 將加速行業出清:漏洞更快被揭露、風險更早被暴露、攻擊更頻繁發生。安全薄弱、流程粗糙、反應遲鈍的項目,淘汰速度將前所未有地加快。

但這未必是壞事。因為 AI 在擴大攻擊面的同時,也拉高了整個產業的生存標準——它將倒逼項目方升級研發規範、安全體系與危機應變機制,推動加密世界徹底告別野蠻生長,邁向工程化、制度化與可持續發展的新階段。

点赞0
摩根士丹利攜0.14%費率進軍比特幣ETF終局之戰
« 上一篇 2026-03-30
13週首斷購 Saylor轉推STRC優先股
下一篇 » 2026-03-30