ディープシークはAIの未来をどう変えたか、国家安全保障にとっての意味とは(Defense One)―この記事何回見直しても頭にすっと入ってこないのですが...もっとうまく説明してもらえないものでしょうか
中国の躍進は、効率的なツールを米国企業が構築する機会となる。米軍にとっても助けとなるだろう
中国のDeepSeekが、米国の著名なツールで必要とするコンピューティングパワーのほんの一部で済む生成型AIへのアプローチを詳細に説明して数日がたち、国防総省によるAIの購入と利用方法から、外国勢力がプライバシーを含む米国の生活を混乱させる可能性まで、AIと国家安全保障に関する世界的な議論が変化を示している。
DeepSeekによる発表で、ホワイトハウス、ウォール街、シリコンバレーから一斉に悲鳴が出た。ワシントンD.C.では、トランプ大統領がこれを「中国と競争するために、我々の産業がレーザーのように焦点を絞る必要があるという警鐘」と呼んだ。ホワイトハウスの報道官、カロライン・リービットは、国家安全保障会議が現在このアプリを検討中であると述べた。海軍はすでにこれを禁止している。ウォール街では、チップメーカーNvidiaの株価が急落した。DeepSeekの米国における最も近い競合企業であるOpenAIは不正を訴え、このアプリは本質的に自社のモデルを蒸留したものと主張している。
もし読者が、米国は「戦略的競争を激化させている中国とのAI競争に勝たなければならない」という、2021年にエリック・シュミット元グーグル会長とロバート・ワーク元国防副長官が書いた内容に同意するなら、DeepSeekは重要な存在となる。
なぜDeepSeekがそれほど重要なのか? 第一に、他のモデルよりもはるかにオープンソースであることが挙げられる。しかし、決定的な技術革新は、巨大モデルから高度な推論能力を抽出して、より小さく効率的なモデルに変換した能力だ。DeepSeekモデルは、より大きなオープンソースの代替モデルより優れた性能を発揮し、コンパクトなAIパフォーマンスの新たな基準(少なくとも非常に公的な基準)を設定している。
DeepSeekは、推論能力の開発に強化学習を大いに活用しており、OpenAIなど競合他社が初期段階で一般的に使用する教師ありの微調整を回避した。このアプローチは、米国を拠点とするAI大手企業が採用するハイブリッドトレーニング戦略から意図的に乖離したものだ。
論文で説明されているベンチマーク結果によると、DeepSeekのモデルは推論を多用するタスクにおいて非常に高い競争力を発揮し、数学やコーディングなどの分野で常にトップクラスのパフォーマンスを達成している。しかし、この研究では、推論を多用しないタスクや事実照会精度の面で脆弱性が浮き彫りになっており、この点ではOpenAIの最も進化した製品には及ばない。
DeepSeekが大規模なコンピューティングリソースを使用せずベンチマーク結果を達成している(または本質的にはOpenAIをコピーしていない)ことを独自に検証した者はまだないが、米国によるマイクロチップの高度な管理により、中国で利用できるリソースは制限されよう。
AIモデルの評価も行うScale AIのCEOアレックス・ワンは、CNBCのインタビューでDeepSeekをOpenAIと同等と表現した。また、同氏は中国が輸出規制にもかかわらず、NvidiaのH100チップを約5万個入手したと述べた。
Nvidiaの広報担当者はこの主張に直接言及せず、Defense Oneに対し、「DeepSeekは優れたAIの進歩であり、テスト時間スケーリングの完璧な例です」と述べた。テスト時間スケーリングとは、モデルが新しい結果を生成するためにデータを取得している際に、コンピューティング能力を向上させる技術である。この余剰の演算能力により、モデルはさまざまな選択肢を検討し、回答の改善ができ、その結果、トレーニング(演算)回数を減らしてより良い回答に到達することができる。 モデルはその後、演算エネルギーをより効果的に集中させることができる。 これはある意味、運動に近い。最初は運動でエネルギーが消耗しますが、長期的にはエネルギーを蓄え、より効果的に使用する能力を身体に備えることとなる。
「DeepSeekの研究は、広く利用可能なモデルと輸出管理に完全に準拠した演算を活用し、その手法を用いて新しいモデルがどのように作成できるかを示しています。推論には膨大な数のNVIDIA製GPUと高性能なネットワーク接続が必要です。現在、私たちは3つのスケーリング法則を持っています。事前トレーニングと事後トレーニング、そして継続する新しいテストタイム・スケーリングです」とNvidiaの広報担当者は語った。
この開発は、AIの優位性を構築する方法についての議論に根本的な変化をもたらす。OpenAIのような企業が膨大なデータセット、非常に大規模なモデル、そして拡大を続けるコンピューターリソースに基づいて成果を達成する一方で、AIの次の段階では、より少ないコンピューターリソースで済む小規模なモデルが主流になる可能性が高い。
これは、トランプ大統領の就任式に出席した大手テクノロジー企業を含む大手エンタープライズクラウドプロバイダーにとっては、悪い兆しとなるかもしれない。多くの企業は、リソースを大量消費する生成型AI製品に大きな需要を見込んでおり、代替アプローチを排除してきた。しかし、AIの構築方法に関する議論の変化は、強力なツールを必要とする軍に朗報となる可能性がある。また、国防総省が最高のAI能力を獲得しながら、同時に支出を抑える課題にも役立つ可能性がある。
人工知能が示すより小さな未来
OpenAIや大手クラウドプロバイダーとは全く異なる道を模索していたAI研究者たちは、DeepSeekの画期的な成果に驚いていない。
データサイエンティストのドリュー・ブルーニグは本誌に対し、「DeepSeekの成功から得られる教訓があるとすれば、それは『進歩への道が単純に支出増である場合には用心すべきだ』ということだ。この道ではイノベーションは育たず、劣る競合他社は創造性を発揮し、制約の範囲内で作業せざるを得なくなり、最終的には...彼らが勝利するでしょう。支出はイノベーションではありません」。
最近のブログ投稿で、ブルーニグは合成データが高性能モデルの生成に必要となる生データと演算能力を削減できることを説明した。「この戦術は、大規模モデルと同等の効果を小規模モデルにもたらします」と彼は述べた。
AIスタートアップ企業Useful SensorsのCEOであるPete Wardenは、本誌に対し、「DeepSeekは、より大きなモデルに多くの費用をかけることがAIの改善につながる唯一のアプローチではないことを示しています。TinyMLは、トレーニングにかかる費用がより少ない小さなモデルを使用することで、規模に関わらず大きな影響を与えるアプリケーションを構築できるという考えがベースです」と語った。
しかし、スタンフォード大学のAI研究者リトウィク・グプタは、同僚数名とともに大きな成果を生み出す小型AIモデルの構築に関する画期的な論文を執筆しており、DeepSeekに関する多くの誇張された報道は、その実態を正しく理解していないと警告している。グプタは、6710億のパラメータを持つ「依然として大きなモデル」と表現している。
「しかし、DeepSeek-R1チームがファーストパーティの『蒸留』バージョンのモデルを提供していることが注目に値します」と、グプタは本誌に語った。「DeepSeekが行ったのは、15億から70億のパラメータを持つLlamaとQwenの小型バージョンを取り出し、DeepSeek-R1の出力で訓練したことです。これにより、『R1のような』モデルをラップトップやスマートフォンなど小型デバイスで動作させることが可能になります」。
DeepSeekの性能は、可能性を示す限りにおいて、国防総省が業界との協議で有利な立場を得ることを可能にし、また、国防総省はより多くの競合企業を見つけることが可能になるだろう。
「国防総省がDeepSeekとQwenのアメリカ製オープンソース版を採用しても驚きません」とグプタは言う。「国防総省は、本来はクラウドのみで提供されるサービスについて、特別なオンプレミス版を要求する権限を常に持っています。彼らがOpenAIとClaudeに同様の要求をしたとしても私は驚きません」。
AI Now Instituteの主任AI科学者Heidy Khlaafは、兵器システムと国家安全保障におけるAIの安全性に研究の焦点を当てている。フラーフはこの画期的な技術が現実なら、生成型AIの使用が、潜在的には小規模メーカーを含むより小規模なプレイヤーにも開放される可能性があると本誌に述べた。しかし、そのようなモデルは戦闘には適さないという。
「一般的に、LLMや基礎モデルは、信頼性と正確性が求められるアプリケーションではエラーが発生しやすいことから、安全が重視される作業には適しません。しかし、DeepSeekの規模と能力により、これまでアクセスできなかった小規模事業者でも基礎モデルが利用できるようになります。これには、基礎モデルを安全が重視されない方法で使用することに関心を持つ自動車メーカーも含まれるでしょう」。
バークレーにある政治におけるセキュリティセンターでテクノロジーとサイバーセキュリティのポートフォリオを統括するアンドリュー・レッディングは、本誌に対し、「DeepSeekの性能は、AI研究者が計算量を減らしながらモデルを開発できるようになった経緯を追っている私たちにとっては、まったく驚くことではありません」と語った。
米国企業は、この画期的な成果を、異なる方向でのイノベーションを追求する好機と捉えるべきであるとレッディングは述べた。「中国の研究者が直面しているコンピューティング上の課題(NVIDIA GPUの輸出規制)は、コンピューティング能力が制限されている米国の研究者が直面している課題と、それほど違いはありません」。
米軍はすでに、戦闘員に可能な限り近い場所でコンピューティングパワーを確保するために、エッジ機能に多額の資金を投じている。小型モデルの性能における画期的な進歩は、エッジコンピューティングへの投資が価値を増していることを示すものだと、レディングは述べた。
「軍事的な文脈において、クローズドモデルとオープンモデルのどちらを使用するかという点は非常に興味深い問題です」と、述べ、前者の利点は、政府ネットワーク内で簡単に移動でき、政府/軍事データを利用できることだが、敵対国が訓練データやモデルの重み付けなどにアクセスする明白なリスクがあります。
しかし、DeepSeekの発表から得られる最も重要な教訓は、米国と中国の競争での意味ではなく、個人や公共機関、そしてテクノロジー業界のプレイヤーがますます少数のグループに絞られていくことを懐疑的に見る人々にとっての意味であるのかもしれない。大手企業が提供するツールに頼らず、自分で生成型AIツールを構築し、自分で管理するデータを使用したい人にとっては、これは朗報となる。
「インターネットは、歴史的に分散型サービスとして発展してきました」とグプタは述べた。「もし、誰もが自分だけの『パーソナルAI』を持ちたいとすれば、小規模モデルを個人のデバイス上で実行する必要が出てくる。プライバシーを最優先するモデルを持つAppleのような企業が、オフラインで非接続mpアルゴリズムを推進し続けることを期待したい」。
しかし、フラーフは、精製モデルを大規模モデルに置き換えることは、個人情報の公開が民間人と同様に軍にも影響を及ぼし、敵対的な標的設定や強制などで脆弱性を生み出すため、軍隊にもプライバシーリスクをもたらす可能性があると警告している。
そして、アメリカ人の個人情報の広範な公開は、それ自体が国家の脆弱性であり、軍指導者が指摘しているように、紛争時に敵対者に利用される可能性がある。個人が自身のデータをより適切に保護できる改革を行わない限り、DeepSeekのような強力な小型モデルが蔓延することで、悪い傾向がさらに悪化する可能性がある。
「DeepSeekは、大規模モデルが常に高い性能を発揮するという考え方に異議を唱えるものです。AIモデルを大規模に構築することに伴うセキュリティとプライバシーの脆弱性という観点で重要な意味を持ちます」(フラーフ)。
個人のプライバシーに関しては、「蒸留技術により、より大きなモデルの特性の多くを維持したまま、小さなモデルに圧縮することが可能になります。基礎モデルを訓練するため自らのデータを提供した市民にとっては、DeepSeekの蒸留モデルにもプライバシーの問題がすべて引き継がれることになります。それが、機密データでAIモデルを訓練することが国家安全保障上のリスクをもたらす可能性があると警告している理由です」。
コメント
コメントを投稿
コメントをどうぞ。