初創公司 Subquadratic 2026 年 5 月正式發布旗下首款大型語言模型 SubQ,採用全新次二次方稀疏注意力架構(Subquadratic Sparse Attention,SSA),研究模型支援高達 1,200 萬 token 上下文窗口。該公司同步宣布完成 2,900 萬美元(約港幣 2.26 億元)種子輪融資,投資方包括 Tinder 聯合創始人 Justin Mateen。

架構突破:跳過無關運算
現有 Transformer 模型計算注意力時,需評估輸入文字中每個詞語間關係,令運算量隨上下文長度呈二次方增長。SubQ 採用的 SSA 架構只計算真正重要詞語關係,跳過其餘冗餘運算。官方資料顯示,於 1,200 萬 token 長度下,SubQ 注意力運算量比其他市場領先的模型減少近 1,000 倍,運算量隨上下文長度呈線性增長。

▲ SubQ 注意力運算量比其他前沿模型減少近 1,000 倍
基準測試:多項成績通過第三方驗證
根據官方公布並經第三方驗證基準測試,SubQ 架構層面稀疏注意力運算速度比 FlashAttention 快 52 倍,同時減少 63% 運算量,運行成本不足 Claude Opus 5%。長上下文測試方面,SubQ 於 RULER 128K benchmark 取得 95% 準確率,略高於 Claude Opus 4.6 的 94.8%;於 MRCR v2 benchmark,生產模型第三方驗證得分為 65.9,勝過 Claude Opus 4.7 的 32.2 及 Gemini 3.1 Pro 的 26.3,但低於 GPT-5.5 的 74。SWE-bench Verified 智能編碼測試中,SubQ 取得 81.8%,高於 Claude Opus 4.6 的 80.8% 及 DeepSeek 4.0 Pro 的 80.0%。
實際應用:大型程式碼庫一次過處理
SubQ 超長上下文窗口令 AI 於單次推理中可處理完整程式碼庫、大型檔案集合或長達數百萬字互動歷史,減少對資料檢索管道及多代理工作流程依賴。Subquadratic 同步推出 SubQ Code 編碼助手及 SubQ Search 長上下文搜尋工具,均以私人測試版形式開放申請。

▲SubQ 超長上下文窗口令 AI 於單次推理中可處理完整程式碼庫
研究團隊背景
Subquadratic 研究團隊共有 11 名博士研究員,成員來自 Meta、Google、Oxford、Cambridge、字節跳動、Adobe 及 Microsoft。聯合創始人兼 CTO Alex Whedon 曾任 Meta 軟件工程師及 TribeAI 生成式 AI 主管,主導逾 40 個企業 AI 實施項目。早期使用申請現已於 subq.ai 開放。
資料來源:Subquadratic
