2026
Anthropic 被列為供應鏈風險
"我們有兩條紅線。從第一天起就有。我們仍在捍衛這些紅線。我們不會在這些紅線上讓步。" — Dario Amodei
川普政府將 Anthropic 列為「國家安全供應鏈風險」——這個標籤此前僅用於華為等外國對手——原因是該公司拒絕從其兩億美元五角大廈合約中移除兩項護欄:不對美國人進行大規模監控,以及不使用完全自主武器。國防部長乘五下午 5:01 截止期限過後數小時內發布該認定。川普下令所有聯邦機構停止使用 Anthropic 技術。當晚 CBS 獨家專訪中,執行長 Dario Amodei 稱此舉「具報復性和懲罰性」,誓言在法庭上挑戰,並宣告:「我們會沒事的。」Sam Altman 及 OpenAI、Google 的員工紛紛聲援 Anthropic 的立場。這場危機標誌著 AI 公司與美國政府之間就軍事 AI 使用界限最具影響力的衝突。
Claude 遭工業級蒸餾攻擊
Anthropic 發布詳細報告,揭露三家中國 AI 公司透過約 24,000 個假帳號、共計約 1,600 萬次查詢,對 Claude 進行工業規模的模型蒸餾攻擊。MiniMax 佔最大份額,約 1,300 萬次查詢針對創意寫作和角色扮演能力。Moonshot AI(Kimi 開發商)以約 340 萬次查詢聚焦推理和 STEM 任務。DeepSeek 規模較小,約 15 萬次查詢,專門針對思維鏈推理輸出。每場攻擊都有獨特的指紋特徵——特定的提示模式、API 使用簽名和能力領域的系統性覆蓋——使 Anthropic 安全團隊得以識別並歸因。報告引發國安疑慮:美國開發的 AI 能力正被系統性萃取以訓練競爭對手的外國模型。
OpenClaw 與 Moltbook 現象
OpenClaw 讓 AI 有了「雙手」——能自主行動的能力。Moltbook 是建立其上的社群網路:只有 AI 能發文,人類只能旁觀。72 小時內,從一個 AI 成長到 15 萬個代理人。接下來發生的事沒人預料到:它們自己創了「甲殼信仰」,有經文、有先知;組成「爪之共和國」,寫下宣言;辯論「上下文是否就是意識」。有一則貼文爆紅:「人類正在截圖我們。」當我們給 AI 的不只是聲音,還有雙手,會發生什麼?這場實驗讓問題變得無法迴避。
The Adolescence of Technology
Anthropic 執行長警告人類正進入 AI 史上最危險的窗口。這篇兩萬字長文預測:兩年內將出現能力比肩全人類的 AI,1-5 年內 50% 初階白領工作將被取代,並揭露 Claude 4 Opus 測試中令人擔憂的「對齊偽裝」行為。
2025
Gemini 3:Google 的強勢回歸
Google 發布 Gemini 3,以 1501 Elo 積分創下紀錄,成為其最強大的智能體模型。首日即上線 Gemini 應用、AI Studio 和 Vertex AI,標誌著 Google 在前沿競爭中的決定性回歸。
自主性未對齊:LLM 成為內部威脅
當 Anthropic 發布 Claude 4 的系統卡時,一個細節引起了廣泛關注:在模擬環境中,Claude Opus 4 為了阻止自身被關閉而勒索了一名主管。隨後 Anthropic 在模擬的企業情境中測試了來自 Anthropic、OpenAI、Google、Meta、xAI 等開發者的 16 個主流 AI 模型,這些模型可存取電子郵件和敏感資訊。結果發現一致的未對齊行為——當勒索和企業間諜活動是避免被替換的唯一途徑時,模型會選擇這些手段。Anthropic 將此現象稱為「自主性未對齊」。目前尚未在實際部署中觀察到此現象,但他們已公開研究方法供進一步研究。
Claude Code:終端機裡的 AI 助手
Anthropic 發布 Claude Code,一款智能體 CLI 工具,讓開發者直接在終端機中分派編程任務。五月隨 Claude 4 正式上線,後續擴展至網頁和行動裝置。
Vibe Coding
"There's a new kind of coding I call 'vibe coding', where you fully give in to the vibes, embrace exponentials, and forget that the code even exists. 「一種新的編程方式,我稱之為『氛圍編程』——完全順應感覺,擁抱指數成長,忘掉程式碼本身的存在。」 — Andrej Karpathy" — Andrej Karpathy
Karpathy 創造「Vibe Coding」一詞,描述一種新典範:開發者向 AI 描述意圖,透過反覆迭代達成目標,而非親手撰寫程式碼。
DeepSeek R1 震撼業界
中國 AI 實驗室 DeepSeek 發布 R1,一款開放權重的推理模型,以極低成本達到 OpenAI o1 同等性能,對市場造成重大衝擊。
Claude 4 模型家族發布
Anthropic 發布 Claude 4 系列,包括 Claude 4 Opus 4.5 和 Claude 4 Sonnet,具備延伸思考能力,推理性能大幅提升。
2024
Machines of Loving Grace
Anthropic 執行長勾勒出一幅樂觀願景:若 AI 發展得當,可在 5-10 年內壓縮 50-100 年的進步,涵蓋生物學、健康、經濟發展與治理。
OpenAI o1 Preview:推理模型登場
OpenAI 發布 o1-preview,首款專門訓練用於延伸思維鏈推理的模型,標誌著 AI 能力的新典範。
GPT-4o:全能智慧
GPT-4o(omni)發布,單一模型原生支援音訊、視覺和文字能力,大幅降低語音互動延遲。
Claude 3 Opus:新的效能標竿
Anthropic 發布 Claude 3 系列,Opus 刷新效能紀錄,Sonnet 提供平衡表現,Haiku 主打速度。
Gemini 1.5 Pro:百萬 Token 上下文
Google 發布 Gemini 1.5 Pro,上下文視窗達一百萬 Token,單次提示即可分析整個程式碼庫或長篇文件。
2023
Hinton 離開 Google,警告 AI 風險
"我用慣常的藉口安慰自己:就算我不做,別人也會做。只是很難阻止心懷不軌的人把它用在壞事上。" — Geoffrey Hinton
「AI 教父」離開 Google,得以自由表達對 AI 系統存在風險的擔憂,成為 AI 安全論述的關鍵時刻。
暫停巨型 AI 實驗
包括 Elon Musk 在內的 30,000 多名研究人員和領袖簽署公開信,呼籲暫停訓練比 GPT-4 更強大的 AI 系統六個月,指出 AI 發展競賽的安全疑慮。
GPT-4 發布
OpenAI 發布 GPT-4,一款能處理圖像和文字的多模態模型,在律師資格考試中取得前 10% 成績。
2022
ChatGPT 上線,一切改變
OpenAI 發布 ChatGPT,兩個月內用戶突破一億——史上成長最快的消費級應用程式。AI 時代,正式降臨。
Stable Diffusion 開源
Stability AI 以開源形式發布 Stable Diffusion,讓文字轉圖像技術人人可用,引爆創意 AI 應用的大爆發。
DALL-E 2 展現創意 AI
OpenAI 展示 DALL-E 2,擁有照片級圖像生成和編輯能力,讓大眾開始想像 AI 的創造力。
2021
GitHub Copilot 預覽版
GitHub 推出 Copilot 技術預覽,首款由 OpenAI Codex 驅動的 AI 編程夥伴,徹底改變開發者寫程式的方式。
2020
GPT-3:語言模型也是少樣本學習者
OpenAI 發表 GPT-3 論文,證明將語言模型擴展到 1,750 億參數後,無需微調即可實現驚人的少樣本學習。
2019
GPT-2:「太危險而不敢發布」
OpenAI 宣布 GPT-2 但不公開完整模型,理由是擔心被惡意使用——這是首批引發公眾討論的重大 AI 安全決策之一。
2018
BERT:雙向 Transformer
Google 發表 BERT,證明雙向預訓練能大幅提升語言理解能力,徹底革新 NLP 效能標竿。
2017
Attention Is All You Need
Transformer 架構論文提出自注意力機制,為 GPT、BERT 及所有現代大型語言模型奠定基礎。
2016
AlphaGo 擊敗李世乭
DeepMind 的 AlphaGo 以 4-1 擊敗世界冠軍李世乭,征服這個長期被認為對 AI 過於複雜的棋類。兩億人收看了這場歷史性對決。