開発費はChatGPTの100分の1、中華製AI「DeepSeek」はエヌビディアを駆逐するほどすごいのか、東大入試問題を解かせてみた(東洋経済オンライン) – Yahoo!ニュース

世界を驚愕させているDeepSeeekとはいったいどんなAIなのか(画像:DeepSeek)

創業からわずか1年余りの中国AI企業「DeepSeek(ディープシーク)」がアメリカの株式市場を大きく揺るがせた。 【この記事の他の画像を見る】 ここ数年、生成AIブームの象徴と見られたNVIDIA(エヌビディア)の株価は1月27日に17%安と急落。これに引きずられるようにハイテク株中心のナスダック総合指数は3%以上も下落。翌日の日経平均株価も548円安になるなど影響は広がった。 ■アメリカ製の「100分の1」の開発費 それまで無名だったDeepSeekの何がそれほどの破壊力を生み出したのか? それはChatGPTなどアメリカ製AIに匹敵する高性能AIを、アメリカ製品のわずか「100分の1」程度の開発費で作り上げてしまう並外れた技術力である。

ChatGPTなどアメリカ製AIの基盤となる大規模言語モデル(LLM)の開発には、エヌビディアの「H100」など先端GPUを最低でも何万個と購入し、これらを使ってLLMをトレーニング(機械学習)する必要がある。それによる開発費は数億ドル(数百億円)〜10億ドル(約1500億円)に上ると見られている。 これに対しDeepSeekは同じくエヌビディア製の「H800」と呼ばれる格落ちのGPUをわずか2048個使っただけで、OpenAI製の「GPT-4o」や「o1」などトップ製品とほぼ同じ性能のLLMを開発した。

それに要したコストは約560万ドル(約8億7000万円)という。つまりOpenAIなどアメリカ勢よりも、ほぼ2桁小さい開発費で成し遂げたことになる。 これほど高度の技術力を誇るDeepSeekとはいったいどんな会社なのか? 創業したのは、中国のクォンツ・ヘッジファンド「High-Flyer Quant」の創業者でもある梁文峰(リャン・ウェンフェン)氏だ。彼はヘッジファンドの資金運用を高速・高精度に行う投資AI技術を開発するため、2023年にHigh-Flyer Quant傘下の研究機関としてDeepSeekを設立した。

Page 2

ほかにも、DeepSeekは「Knowledge Distillation(知識蒸留)」と呼ばれる手法を採用することで開発コストを抑えている。これはOpenAIのGPT-4oなど同業他社の大規模言語モデルを言わば「教師役」として使い、その膨大な知識やパラメーター(AIの基本的性能を決める変数)をDeepSeekのような「生徒役」が直に受け継ぐことによって、より高速かつ効率的にAI製品を開発する手法だ。

■東大入試の数学問題を解かせてみたら… これらの創意工夫によって開発されたチャットボット「DeepSeek」(社名と製品名が同じ)は昨年12月と今月、それぞれ汎用型の「V3」と推論型の「R1」という個別のバージョン名でリリースされたが間もなく一体化された。この統合版DeepSeekの入出力画面はOpenAIのChatGPTとよく似ている。 DeepSeekの推論型モデルR1は、ChatGPTの推論型モデル「o1」とほぼ同等の高い思考力を持つと言われる。試しに筆者が2024年度の東京大学・入試問題・数学理系の第2問(図2)をDeepSeekに入力して解かせたところ見事に正解を返した(図3)。

ただし同入試問題の全6問(各々、複数の小問を含む)をDeepSeekに解かせてみると、全体の正解率は30%を若干下回る。ちなみにChatGPTの「o1」にもまったく同じ問題を解かせてみたが、正解率は概ね30%だ。両者の性能は同程度とする見方は当たらずとも遠からずという印象を受ける。 かなり高度な性能を有するDeepSeekだが、基本的に有料のChatGPT-4oやo1とは対照的にDeepSeekは無料で使える。このため先日、アメリカではアップルのアップストアで提供されるアプリのダウンロード回数でChatGPTなどを抜いて第1位となった。

ただし一般ユーザーにとって、DeepSeekの利用には警戒が必要との声も聞かれる。昨年から今年にかけてアメリカで政治問題となった中国製アプリ「TikTok」同様、DeepSeekを利用したユーザーの個人情報が同社のような中国企業を経由して、中国政府の手に渡る危険性が指摘されているからだ。 これはアメリカのみならず、日本をはじめ自由主義諸国のユーザー全体について当てはまるが、少なくともアメリカではDeepSeekアプリがアップストアで第1位にランクされたことから見て、ユーザーの大半はほとんど気にしていないようだ。

Page 3

かつて中国浙江省の名門、浙江大学でコンピュータ科学を専攻した梁氏はDeepSeekの設立に際して、北京大学、精華大学、北京航空工科大学など中国のエリート校からコンピュータ科学等の博士号取得者を次々と採用し、生成AIのベースとなる大規模言語モデル(LLM)の開発に当たらせた。 ■中国国内でAI技術力を養う これらの博士研究者らは、(前出の)中国国内の大学で高度なAI技術力を養った。 DeepSeekに採用された彼らは当初から、LLMの開発に必要な部品を十分に入手できないなど苦難の道を強いられた。が、こうしたハードウエアの不足が結果的に高度なソフトウエアの技術力を育むことにつながった。

アメリカのバイデン前政権の中国に対する輸出規制により、DeepSeekのような中国企業は(OpenAIなどアメリカ企業が機械学習に使っている)エヌビディア製GPU「H100」など最先端の半導体チップを使うことができない。 その代わりにDeepSeekは(中国への禁輸措置を免れた)「H800」と呼ばれるGPUを多数輸入して、LLMの機械学習に投入した。H800はH100など最先端商品の性能をあえて大幅にダウンさせた、言わば「格落ち製品」である(ちなみに現在では、このH800さえ中国への輸出が禁止されている)。

このように性能が落ちるGPUを多数使って、安くAIを作ることができた理由は開発手法の違いにある。 DeepSeekは「MoE(Mixture of Experts:専門家の集合)」と呼ばれる特殊な手法を採用している。これはLLMのようなAIモデルの全体を使うのではなく、必要に応じて特定のタスク(仕事)に最適化された「専門家(エキスパート)」と呼ばれる部分モデルだけを動かす仕組みだ。このようにしてAIモデルを効率化することで、開発コストを抑えながら性能を向上させることができるという。

Page 4

■中国の近・現代史や政治問題には回答拒否も また、DeepSeekは中国の近・現代史や政治問題など答え難い質問には、回答を拒否したり、プロパガンダや虚偽情報を返してくることもある(図4、5)。 以上のように中国の政治問題など一部の分野では、DeepSeekの回答はほぼ信頼できないが、裏を返せば、それ以外の大半の領域ではDeepSeekはChatGPT-4oやo1などアメリカ製AIにほとんど引けを取らない。

これはOpenAIやグーグルをはじめアメリカのIT企業には脅威となる。これらアメリカ勢が有料で提供する生成AI製品と性能的にほぼ同等のものを、中国のDeepSeekは無料で提供するからだ。 また最近、トランプ大統領と共に、OpenAIとソフトバンク、オラクルが共同で発表した最大5000億ドル(約78兆円)のAIインフラ計画「スターゲート」など、これまでアメリカ勢が生成AI開発に投入してきた巨額資金への評価も根本的な修正を迫られる。

なぜなら、DeepSeekのような中国勢が米国勢の「100分の1」のコストでほぼ同等のAI製品を作れるのであれば、アメリカ勢による巨額投資がそもそも無駄金という結論になるからだ。それまで巨額のAIインフラ投資を見込んで上昇していたエヌビディアなどの株価が急落したのはそのためだ。 ■DeepSeekの登場はNVIDIAには追い風? ただ、今後本当にエヌビディア製の先端GPUなどAIインフラへの需要が減少するかというと、実際にはその逆との見方が優勢である。

19世紀の産業革命など過去の歴史を振り返ると、技術革新によって石炭など資源の利用効率が向上し、その資源を節約できるようになると、むしろ資源の利用量は増加してきた。 利用効率が高まると、石炭を使った製品やサービスがより安価になり、社会におけるそれらの利用が増えるからだ。これは一般に「ジェヴォンズの逆説(Jevons paradox)」と呼ばれる。 今後の生成AIもDeepSeekによる低コスト化を引き金に安価になって利用量が増え、それに伴い生成AIの資源となるGPUの使用量(需要)も減るどころか、むしろ増加していくと見られる。従ってエヌビディアの株価は一時的に急落しても、いずれ持ち直して再び上昇基調に戻ると見られている。

Leave a Reply

Your email address will not be published. Required fields are marked *