DeepSeekで確信!これからはAIアプリの時代

AIメディアを運営する男性2人が”ながら聞きでも未来がわかる”をテーマに30分で生成AIのトレンドを解説するPodcast「AI未来話」。

この記事では番組のエピソードからトピックをピックアップして再構成したものをお届けします。

今回は「DeepSeekで確信!これからはAIアプリの時代」を再構成した内容をお届けします。

目次

DeepSeekとは何か

中国発の巨大オープンソースLLM

最近、中国発のDeepSeekという言語モデルが大きく注目を集めています。

そもそもDeepSeekは、中国のAI企業が開発したモデルであり、2025年1月時点では世界最大規模のオープンソース系LLM(大規模言語モデル)といわれています。

正確にいうと、完全なオープンソースではなく、コードや学習データのすべてが公開されているわけではありません。

しかし、モデルの一部のウェイトや利用方法が無料で公開されているため、便宜的にオープンソース扱いをされるケースが多いです。

特にDeepSeekの最新版であるDeepSeek R1が特に話題になっています。

R1は6,710億パラメーターという驚異的な大きさを誇り、同時期に公開されている他の多くのオープンソースモデルよりも圧倒的に規模が大きいと言われています。

あわせて読みたい
中国発「DeepSeek-R1」、OpenAIに匹敵するAIモデルが商用利用可能で登場 中国のAIラボ「DeepSeek」は、新しい推論型AIモデル「DeepSeek-R1」を発表しました。 このモデルは、OpenAIの「o1」と同等の性能を持ち、MITライセンスのもとで提供されるため、商用利用や再配布が自由に行えます。 R1は、最先端の技術を活用した大規模AIモデルで、物理学、科学、数学などの分野で高い信頼性を示しています。

もともとDeepSeekにはV3というモデルが存在し、それでも話題性は十分ありましたが、R1が登場したことで一気に注目度が高まった印象です。

あわせて読みたい
DeepSeek V3とは?使い方と料金!日本語での性能も抜群に高い DeepSeekで使えるモデル「DeepSeek-V3」の使い方が気になる方も多いのではないでしょうか。 本記事では、「DeepSeek-V3」の基本機能や使い方、さらに日本語対応における...

モデルの規模に加えて、DeepSeekが注目を浴びる最大の要因は、開発コストの低さだと私たちは認識しています。

DeepSeek R1の開発にはわずか約600万ドル(日本円で約9億円弱)ほどしかかかっていないとされ、OpenAIがGPT-4を開発するのに費やした1億ドル(日本円で155億円以上)と比べると、10分の1以下という衝撃的な差があります。

このモデルは、600万ドル(約9億円)未満のコストで訓練されたといいます。

高価な最新チップを輸入できないなら、安い旧バージョンを使いつつ効率をアップしてみせる。見事な切り返し。

ちなみに、OpenAIのサム・アルトマンCEOによると、GPT-4の訓練には1億ドル(約150億円)以上ぶっ込まれているのだとか。DeepSeekの訓練コストはGPT-4のわずか6%。コスパすごすぎ。

出典:DeepSeekの成功は必然。ビッグテックがやりたくないことをやった | ギズモード・ジャパン

もちろん、実際には前モデルの研究開発費やGPUの調達コストが含まれていない可能性もあり、数字の算出方法がやや不透明だと感じる部分はあります。

ただ、少なくとも最終的にモデルを仕上げるプロセスで必要だった費用は確かに安く済んでいるようです。

また、DeepSeekが非常に安価に開発できた理由の一つとして、中国企業がNVIDIA A100というGPUを大量に確保していた点を私たちは重要だと考えています。

NVIDIAの最新GPUであるH100はアメリカの輸出規制で中国に渡りづらい状況が続いていました。

しかし、規制がかかる前にA100を大量購入しており、それらを活用して開発を進めたことが、この“安く巨大会話モデルを作る”というビジョンを可能にしたようです。

A100を1万台、さらに下位グレードのH800を2000~3000台程度追加で利用し、最新チップなしでも十分に高性能を引き出せるというイノベーションを起こしています。

“オープンソース”と呼ばれる背景

私たちは、DeepSeekが「世界最大のオープンソースLLM」として脚光を浴びているのは、やはり無料で使える点が大きいと思っています。

DeepSeek is an AI model (a chatbot) that functions similarly to ChatGPT, enabling users to perform tasks like coding, reasoning and mathematical problem-solving. It is powered by the R1 model, which boasts 670 billion parameters, making it the largest open-source large language model as of Jan. 28, 2025.

出典:Cointelegraph Bitcoin & Ethereum Blockchain News

開発元はコードや学習データをすべて公開しているわけではありませんが、一般の開発者が自由に試せる部分をしっかり用意しています。

そうした“半オープンソース”とも言える手法が、AIコミュニティへの浸透を加速させているのではないかと考えています。

一方で、私たちはこうした無料公開の背景に対し、データを収集する意図があるのではないかという見方も耳にしています。

特に、中国政府の検閲の仕組みを考えると、深いところでデータや対話情報をどのように取り扱っているのかについて完全には透明性が担保されていない可能性も拭えません。

しかし、少なくとも“無料かつ巨大規模”という魅力は、世界中の企業や開発者を一気に惹きつけていると感じています。

DeepSeekの技術的特徴

MOE(Mixture of Experts)の活用

DeepSeekのコアとなる技術として、私たちはまずMOE(Mixture of Experts)に注目しています。

MOEは巨大モデルを複数の専門家(Expert)に分割し、入力データに応じて必要な専門家だけが計算に参加する仕組みです。

これによって、不要な部分は計算を行わず、オンデマンドで必要な専門家のみ動かすので、膨大なパラメーター数を抱えながらも計算コストを抑えられるメリットがあります。

OpenAIのGPT-4やGPT-3.5も内部的にはMOEに近い発想を取り入れていましたが、DeepSeekはその分割の仕方がより細分化されている点が特徴的です。

私たちは、これが開発コストを安くできた大きな要因だと見ています。

全パラメーターを一度にフル動員することなく、適切に働かせる部分を制御する技術は、学習や推論にかかるリソースを大幅に削減します。

中国側は過去モデルのV3でこのMOEを導入して以来、よりきめ細かい制御が可能な実装を重ねてきたようで、R1ではその完成度がさらに高まったと言われています。

MLA(Memory-Level Attention)の最適化

DeepSeekで採用されている二つ目の技術がMLA(Memory-Level Attention)という新しい注意機構です。

一般的に、大規模言語モデルでは文章中の単語同士の関連性を計算する“アテンション機構”が非常に大きなメモリーを消費します。

私たちは従来のモデルにおける注意機構の計算量こそが、学習や推論のボトルネックになっていると理解しています。

MLAでは、簡単にいうと入力データを圧縮し、同等の計算をするときに必要なメモリー容量を半分程度にまで抑え込む技術が採用されています。

その結果、搭載しているGPUが最新でなくても、膨大なパラメーターを動かせるようになっています。

私たちは、輸出規制の影響で最新のH100を入手しづらい状況がかえってこのMLA開発を後押ししたのではないか、と考えています。

MTP(Multi-Token Prediction)の導入

三つ目の技術はMTP(Multi-Token Prediction)です。

これは一度に複数のトークン(単語やサブワード)を推定する仕組みで、従来の一トークンずつ予測する方法よりも学習効率を高められるとされています。

私たちは、単純にモデルが次の単語を一つひとつ予測していくのではなく、“次の数単語”をまとめて予測しながら学習を進めることで高速化を実現していると認識しています。

こうしたMOE、MLA、MTPの三本柱がDeepSeekの強さを支えており、その結果、数億円という比較的低予算で6,710億ものパラメーターを持つ巨大モデルが作られたわけです。

私たちは、これらの技術アプローチこそが今後のAI業界に大きな影響を与えるとみています。

なぜなら、最新の高性能チップがなくても十分な精度を引き出せる可能性が示されたからです。

DeepSeekの開発チームは、NVIDIA A100H800といった一世代前、あるいは廉価版のGPUを活用してモデルを完成させました。

私たちは“必要なところに必要なだけ計算を集中させる”という発想をうまく体現した技術群だと受け止めています。

これがAI産業におけるコスト構造や独占状態を崩すきっかけになるかもしれないと考えています。

利用時のリスクとセキュリティ

中国政府の検閲リスク

DeepSeekを活用するうえで、私たちはセキュリティ面や政治的なリスクを考慮せざるを得ないと感じています。

最大の懸念は、中国政府による検閲や情報収集です。

DeepSeekを中国サーバーでホストしている場合、入力データやログが現地政府の監視・検閲下に置かれる可能性があるため、企業が機密情報を取り扱う場面などでは細心の注意が必要です。

具体例として、天安門事件に関する質問をDeepSeekに投げかけると、回答が曖昧になったり、場合によっては検閲を想起させるような反応があると報告されています。

私たちはこうした事例から、政治的に微妙なトピックに対しては、中国寄りの回答が返ってきたり、出力が極端に制限される可能性があると考えています。

もちろん、クラウド環境で独自にホスティングしたり、外部のコンテナ内で動かしたりすれば中国側へのデータ送信リスクを下げられます。

しかし、元モデルの内部に検閲や偏向が学習されている場合、私たちができる対策は限定的です。

結果として回答が現実と異なる、あるいは特定の政治思想に寄ってしまう可能性は拭えないと感じています。

バックドアの可能性と実際に起きたデータ漏洩

私たちは、もう一つ深刻な懸念として、バックドアの仕込みが理論上可能な点を認識しています。

特定の文字列を入力すると不正な挙動を引き起こすようにモデルに仕込むという方法はやろうと思えば可能ですし、DeepSeekが絶対にしていないという確証はありません。

実際、1月30日の時点でDeepSeekのデータベースから複数のチャット履歴が漏洩可能な状態であったという報道があり、セキュリティ体制に不安を感じています。

DeepSeekデータベースからチャット履歴など数百万件が漏洩可能な状態にあったことが判明

AI企業のDeepSeekが所有するデータベースに誰でもアクセスできる不具合があったことが、セキュリティ企業Wizの調査により明らかになりました。DeepSeekは報告を受けて既に問題を解決しているとのことです。

出典:DeepSeekデータベースからチャット履歴など数百万件が漏洩可能な状態にあったことが判明 – GIGAZINE

こうした事例を見ると、利用者は「本当に学習済みモデルの内部に変な改変がされていないか」「ログ管理はしっかりされているか」を慎重に見極める必要があると痛感します。

中国企業だから危険だという単純な二元論だけではなく、AIモデルの内部挙動やソフトウェア的な安全措置がどこまで担保されているのかを確かめる態度が重要です。

私たちは、DeepSeekが無料で公開されている背景に、データ収集の目的や政府の政策的意図が隠されているかもしれないという声を耳にしています。

一方で、Microsoft Azureなどの海外クラウド上でホスティングする形なら中国側にデータが行かない設定にできるという話も出てきており、うまく運用すればセキュリティ上のリスクを低減できるとも考えています。

世界のAI競争とNVIDIAへの影響

NVIDIA株価へのインパクト

今回のDeepSeekの台頭が、アメリカのNVIDIAに大きな影響を与えました。

具体的には、NVIDIAの株価が一時的に17%も急落し、時価総額にして約90兆円が吹き飛んだという報道がありました。

あわせて読みたい
「DeepSeek-R1」が米テック株を直撃 Nvidia株価17%急落もトランプ大統領は「前向き」に評価 中国のスタートアップDeepSeekが開発した新しい大規模言語モデル「DeepSeek-R1」の登場により、米国のテクノロジー株式市場が大きな打撃を受けています。

高性能GPUを使わなくても巨大LLMが作れることが示唆されたことで、市場がNVIDIAの成長シナリオに一瞬疑問を抱いたのではないかと私たちは推測しています。

もっとも、その後NVIDIAの株価はある程度持ち直し、急落が恒常的な株安につながる状況ではないとも見られています。

実際、私たちはNVIDIAがロボットの中核技術や自動運転、さらには医療技術など広範な分野でGPUを活用できるポジションを確立しており、そう簡単には需要が減らないと考えています。

チップ市場の先行きは一筋縄ではいかず、今後もDeepSeekのような動きで下振れと期待が入り混じりながら推移していく可能性が高いです。

チップ規制と中国のイノベーション

DeepSeekの開発チームは、A100H800のように最新ではないGPUを大量に保有していたことで、アメリカの輸出規制の壁を乗り越えて開発を進めました。

私たちは、これがまさにイノベーションの源になったと感じています。最

新チップが手に入らない状況だからこそ、MLAなどのメモリ効率化技術やMTPの学習効率化を徹底的に追求しなければならず、その結果低コストで高性能なモデルを完成させたという見方です。

一部報道では、中国企業がNVIDIA H100のような最新GPUを別の国経由で調達しているのではないかという疑惑も取り沙汰されています。

私たちは、実情ははっきりしないものの、大量のチップを合法・非合法を問わず確保しようとする動きがあっても不思議ではないと思っています。

ただ、実際にDeepSeekが完成した時点で使用されたのは、主にA100とH800だったという説明がなされており、それだけでも十分な性能を引き出せた点は技術面で評価に値すると感じています。

今後のGPU市場の行方

DeepSeekは、最先端のチップを使わなくても大規模で高性能なLLMを構築できる可能性を示した一例です。

私たちは、これによってNVIDIAが単独でAI市場を牛耳る時代から、ほかのGPUベンダーやチップ開発企業との競争が加速する流れが強まるのではないかと考えています。

さらに、ハードウェア側の独自最適化よりも、ソフトウェア的な効率化が産業を変えるスピードを加速させる局面に入ったとも感じています。

いずれにせよ、NVIDIAが持つ強力なGPU製造とソフトウェアエコシステムは依然として有力であり、単純に“DeepSeekが出たからもう不要になる”という話では決してありません。

しかし、2025年以降は、チップ規制や各国の技術競争の影響を受けながら、AI開発のコスト構造が大きく変わる兆しを私たちは感じています。

そうした状況が「スプートニク・モーメント」(他国の技術的偉業を見て競争意識が劇的に高まる瞬間)だとマーク・アンドリーセン氏が表現した背景だと考えています。

https://twitter.com/pmarca/status/1883640142591853011

AIはこれからアプリの時代へ

オープンソースAIと無料化の波

私たちは、DeepSeekの無料公開によって、AIモデルが急速に“無料化”へ向かう流れを確信しています。

過去にもウェブサーバーのApache HTTP Serverや、スマートフォンOSのAndroid、ブログシステムのWordPressといった例が示すように、オープンソース化によって急速に普及し、結果的に多くの企業やユーザーが広く使えるインフラに成長していきました。

WordPressは今でも世界中のウェブサイトの約43%に採用されており、これはまさにオープンソースソフトウェアが業界標準化した好例だと私たちは思っています。

WordPressの市場シェアは、2011年以降一貫して成長を続けています。2023年には、2011年以来初めて成長率を落としましたが、わずか0.1%にとどめています。

2017年の初めには、WordPressは全ウェブサイトの27.3%を支え、2024年8月までに43.5%まで市場シェアを拡大しています。

出典:WordPressの市場シェア統計(2011〜2025 年)|Kinsta®

DeepSeekは厳密には完全オープンソースではありませんが、無料で使える巨大LLMとして多くの開発者が試せる環境が整っており、この流れは今後も加速すると見ています。

その結果、多くの企業がOpenAIAnthropicなどのクローズドなモデルを有料利用せずに、オープンソース寄りのモデルに乗り換える可能性があります。

もちろん、クローズドモデルのほうが先端を突き詰めた性能を示すかもしれませんが、コストや自由度の面でオープンソースが有利になるシーンは確実に増えるはずです。

オープンAIとAnthropicの動向

私たちは、これまでAI界隈といえばOpenAIのChatGPTか、AnthropicのClaudeかという二大勢力のイメージが強かったと感じています。

しかし、今ではGoogleのGeminiなども台頭し、さらに中国発のDeepSeekが“無料かつ巨大”という新たな指標を提示したことで、競争は激化するばかりです。

AnthropicのCEOは、AIモデルの無料化が進むという見方に対して否定的な発言をしています。

彼らは、より高度な性能を追求するには膨大なチップと資金が必要であり、いずれは数百万枚のチップを集められるかどうかが勝負を決めると主張しています。

私たちは、これが単なるポジショントークにとどまらず、実際にハイエンド志向のモデルが一部のトップ企業に集約する可能性も否定しきれないと感じています。

一方で、今回のDeepSeekのように大規模かつ無料というモデルが出てきたことで、性能差がそこまで大きくない範囲の用途なら、わざわざ高額なモデルを使わなくてもいいというユーザーも増えるはずです。

インフラとアプリのサイクル

私たちは過去のテクノロジー史を振り返ると、アプリ(商品)が誕生し、インフラ(プラットフォーム)が整ったのち、その上でアプリケーションが花開く、というサイクルが繰り返されてきたと感じています。

たとえば、電球が発明されたことで送電網が必要になり、その後電球が普及しました。

他にも、飛行機ができたことで空港の建設が進み、空港が整ったことで現在ではたくさんの飛行機が飛び交っています。

このように、最初に“使いたい機能やアプリ”があり、それを支える基盤が後から整備されてきたという流れです。

現在のAI領域でいうと、元々LLMという技術があり、それだけでは普及しなかった所にチャット形式のChatGPTが登場したことで、LLMを使うためのインフラ的存在となり、たちまちLLMの技術が普及しました。

私たちは、DeepSeekがもたらす無料モデルの波によって、次はいよいよアプリケーション側の発展期に突入すると予測しています。

いわゆる「AIラッパー」と揶揄される、バックエンドではChatGPTやDeepSeekなどのモデルを使いながら、UIやUXを高度に最適化したアプリが増え、多様化していくと考えています。

ラッパーツールは単に既存モデルをラップしているだけという批判を受けがちでしたが、私たちは今後はそういったUI・UXや独自機能で差別化を図るアプリの戦国時代になるとみています。

そして、この流れはまさしくAndroidをベースに各社が独自端末を出す形や、WordPressで多種多様なテーマやプラグインが出る状況に似ていると感じています。

モデルが一般に普及し「次はアプリ開発で勝負する時代へ」私たちは、その流れが今まさに始まったと捉えています。

まとめ

DeepSeekは、中国の企業が開発した巨大言語モデルでありながら、わずかな費用で6,710億パラメーターを実現した点が画期的です。

MOEやMLAなどの技術的工夫を凝縮し、検閲や政治的リスクはあるものの、オープンソースモデルとして無料公開されたインパクトは大きいと考えています。

結果として、AIインフラが整いつつある今、私たちはアプリケーション側の時代が訪れると確信しています。

NVIDIAをはじめとするハード面の影響や、OpenAI・Anthropicとの競争も注目ポイントですが、本質はAIを使って何を生み出すか、というアプリケーション中心の競争が加速する流れにあると感じています。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次