ディープシークの登場でAIバブル崩壊が早まる
![リアルインテリジェンス250210102.jpg](https://media.real-int.jp/images/taN34RoFecTo-riaruinteriziensu2502.2e16d0ba.fill-600x400.jpg)
AIを賢くさせるための巨額「AI関連投資」がAIバブルを生みだしたわけだが…
中国の新興AI企業、ディープシークが、昨年12月の「V3」に続いて、年明け1月に最先端生成AIモデル「R1」を発表すると、米テック関連株は暴落した。
AIバブル相場をけん引してきたエヌビディアは1月27日に一時17%下落し、時価総額約5,900億ドルが吹き飛んだ。
ディープシークは、中国・浙江省の杭州に拠点を置く新興AI企業だ。2023年に設立され、オープンソースの大規模言語モデルの開発を行っている。
ディープシークのモデル「R1」は、数学などの分野で、オープンAIの最高モデル「o1(オーワン)」と同等かそれ以上の性能を持ち、しかも開発費用はそのわずか数%だと言われる。
AIを賢くするため、つまりAI開発のためには、大量のデータを用いて、ディープラーニング(深層学習)させる必要がある。
そのために使われているのが、GPU(Graphics Processing Unit)だ。通常、パソコンの頭脳として使われるCPU(Central Processing Unit、中央処理演算装置)は、汎用的な処理を得意とする半導体で、CPUのコア(処理装置)の数は数十個だ。
これに対して、GPUは、画像描写に必要とされる計算処理を担う半導体で、高速な画像処理を得意とする。GPUはコアの数が数千個と多く、CPUに比べて大量のデータを高速で同時に処理することができる。
また、GPUはデータ量が大きい画像や3Dデータ、映像などでも、より速く、よりきれいに映すことが可能だ。そのため、AIのディープラーニングにはGPUが使われることになった。「GPUを多く投入すればするほどAIは賢くなる」ことになった。これはスケーリング則と呼ばれる。
1993年創業のエヌビディアは、1999年に自社で発明したGPUに強みを持ち、生成AIの開発などに必要とされる高性能のGPUは、その多くが同社製だ。
主にゲーム向けの半導体を生産していた同社は、生成AI学習のためのデータセンター向け半導体を独占的に生産するAI関連企業に変身した。
AI開発には大量のGPUが必要であり、GPUをほぼ独占的に生産するエヌビディアは、AIバブルを牽引することとなった。
高性能で高価なGPUを大量に必要であるということは、巨額な資金が必要であることだ。
資金が豊富な米国の大手テック企業は、エヌビディアの生産する、高性能で高価なGPUを先を争って大量購入し、AI開発のための投資を進めた。
加えて、AI開発のためのデータセンターは大量の電力を消費するため、再生可能エネルギーや原子力発電などへの投資も進められた。
結果として、大手テック企業による、AIを賢くするための「AI関連投資」は、米国経済を牽引した。ただ、「AI関連投資」はAI開発のためのコストにすぎない。
最近では、投資した大手テック企業が、この高額なコストに見合う利益を得ることができるか、疑問視する向きも広がっていた。「AI関連投資」は、AIが生み出す需要であると勘違いする向きも多いようだが、間違いだ。
後述する通り、AIはヒトの仕事を奪う側面がある。そのため、ほぼ確実に雇用を減らす効果がある。一方、AIの利用によって将来的にどういう仕事が新たに生み出されるのか、人々がAIを使うことによってどういった需要が新たに生まれるか、という点はさほど明らかでない。
AIを賢くするには必ずしも膨大な資金が必要でないことがわかった
ディープシークの登場により、「GPUが多いほどAIは賢くなる」という、スケーリング則が間違いだったことがわかった。
ディープシークは、GPUの大量投入ではなく、オープンソースで、効率を重視し独自の工夫を重ねて、安価にAIを学習させることに成功した。ディープシークが2024年12月に発表した「V3」の開発費用は560万ドルだったとされる。
これに対して、オープンAI社が「GPT4」にかけた開発費は7,800万ドル、グーグル社の「Geminiウルトラ」の開発費1億9,100万ドルだった。
ディープシークのAIは、極めて低コストでの開発だったことになる。
MITテクノロジーレビューによると、ディープシークを立ち上げた梁文鋒(Liang Wenfeng リャンウェンフォン)氏は1985年生まれで、中国の浙江大学で電気通信工学を学んだ。
AI開発には、同氏が、2015年に設立したヘッジファンド「ハイフライヤー」の資産が使用されたようだ。ある程度の資金が投入されたであろうが、米大手テックの資金とは比べ物にならないだろう。
また、米国の対中半導体輸出規制により、ディープシークの開発には高性能のエヌビディア製GPUが大量に利用されているとは考えにくい。
ディープシークは米国の規制に沿ったエヌビディアのH800(米企業が使用する高性能GPUのダウングレード版)を使ったとされる。
低コストでの開発が実現したのは、まず「Mixture of Experts(専門家の混合)」と呼ばれるアプローチがとられたためだ。この手法では、複雑なタスクの処理時に、モデル全体ではなく、必要な専門サブモデル(エキスパート)のみを選択的に活用することで、処理効率を大幅に向上させることができる。
また、オープンソース型の開発手法がとられた。自社のイノベーションをオープンソースとして公開し、広く改良を重ねていくと共に、逆に、公開されている他社のモデルも活用していくやり方だ。
いくつかの手法を組み合わせて、コスト削減が実現されたわけだが、「蒸留」という手法については問題になっている。「蒸留」は、一からデータを学習させるのではなく、別の高性能のAIを先生役に据えて、その大規模な学習内容を小規模なモデルに反映させることだ。それによって、開発効率を向上させることができたと言われている。
チャットGPTのオープンAI社は、ディープシークがチャットGPTのデータを不正に利用したのではないかと考え、調査しているようだ。「ディープシークがデータを不正利用した」との主張は、中国を敵視する米国においては、確かにある程度、認められる可能性もある。
だが、巨額な資金を投ずる形でのAI開発ではなく、オープンソースで、独自の工夫を重ねて、低コストでのAI開発ができたことの意味は大きい。こうした形での低コストでのAI開発は今後も続けられるだろう。
もともと著作権や肖像権などで保護されるべきネット上のデータが、ディープラーニングという形で、AI開発を手掛ける一部のIT企業に独占的に利用されていること自体、問題があるように思われる。
・・・
続きを読みたい方は、「イーグルフライ」よりご覧ください。
2025/2/10の「イーグルフライ」掲示板より抜粋しています。
関連記事
https://real-int.jp/articles/2758/
https://real-int.jp/articles/2668/