中国の AI 双子が、シリコンバレーでのやり方を OpenAI に教える?

中国の AI 双子が、シリコンバレーでのやり方を OpenAI に教える?

国内のビッグモデル界は熾烈な戦いを繰り広げている。 OpenAI は目覚めて、世界は変わったと叫んだのでしょうか?

1月20日、DeepSeekは予告なしにDeepSeek-R1モデルをリリースしました。 2時間も経たないうちに、新しいKimi k1.5モデルがリリースされました。モデルに加えて、詳細な技術トレーニングレポートも含まれています。

2 つの推論モデルは OpenAI o1 に対して完全にベンチマークされており、複数のベンチマーク テストで o1 と同等かそれ以上の良好な結果を達成しています。 DeepSeek-R1 テキスト推論モデルはオープンソースであり、工場出荷時に市販されています。 Kimi k1.5 はテキストと視覚の両方の推論をサポートし、すべての指標が最大化されており、o1 レベルのフルバージョンを達成した最初のマルチモーダル モデルになります。

中国の大型模型産業の「双子星」が一夜にして海外に流出し、シリコンバレーに大きな衝撃を与えた。ソーシャル プラットフォーム X 上の多くの業界リーダーや学術リーダーが、DeepSeek-R1 と Kimi k1.5 に関する投稿を転送したり、「いいね」したりしました。

NvidiaのAI科学者ジム・ファン氏は、すぐに両者の類似点と相違点をまとめた記事を投稿し、公開された論文を「ブロックバスター」レベルと評価した。

(写真提供:X)

(写真提供:X)

多くのAI技術専門家がKimi k1.5に対して肯定的なコメントを寄せています。 「またひとつ重量級のモデルが誕生した。ハイライトはテキストと視覚のマルチモーダル推論機能で、マルチモーダルAIの分野における大きな進歩だ」と評する声もある。これを OpenAI o1 と比較し、OpenAI が祭壇から引きずり降ろされたのではないかと考える人もいます。 「OpenAI o1 を上回るモデルが増えている」?

(写真提供:X)

中国からの「挑戦者」を前に、歯磨き粉を絞り出すように未来を発表してきたOpenAIのCEO、サム・アルトマン氏は、自身の個人アカウントにメッセージを投稿し、AGIに関するメディアの誇大宣伝に不満を述べ、ネットユーザーに対し期待を下げるよう求めた。「AGIは来月には配備されないし、AGIは構築されないだろう」予想外に、これはネットユーザーを怒らせ、「泥棒が『泥棒を止めろ』と叫んでいる」と揶揄された。

AIの世界ではいくつかの変化が起こっています。 DeepSeek-R1 と Kimik1.5 は強化学習 (RL) のアイデアの実現可能性を検証し、OpenAI の絶対的なリーダーシップの地位に挑戦し始めました。

同時に、中国の現地モデルが不可能に挑戦し、追い越しを達成したことは、国内の大型モデル業界への精神的な励ましにもなっている。今後も中国のAI企業には、シリコンバレーの技術独占を打ち破り、中国独自の技術ルートを開発するチャンスが残されているだろう。

本物のフルブラッドO1がここにあります

Kimiは、昨年11月に数学モデル「k0-math」、12月に視覚思考モデル「k1」をリリースした後、3か月連続でアップグレードし、Kシリーズ強化学習モデル「Kimi k1.5」をリリースしました。

Kimi Kシリーズの思考モデルロードマップによれば、K0からKNへの進化はモードとフィールドの包括的な拡張です。 k0 は数学に重点を置いたテキストベースのモデルです。 k1 は視覚状態を追加し、OpenAI 以外では初の o1 のマルチモーダル バージョンとなり、その分野は物理学と化学にまで拡張されました。アップグレードされた k1.5 は依然としてマルチモーダルであり、これも Kimi モデルの優れた機能の 1 つです。分野としては、数学、物理学、化学から、コードや一般性など、より一般的に使用される幅広い分野へとアップグレードされました。

ベンチマークテストの結果から判断すると、k1.5 マルチモーダル思考モデルは、SOTA (最先端) レベルのマルチモーダル推論と一般的な推論機能を実現します。

国内外でo1レベルに到達したと宣伝されているモデルは数多くありますが、データから判断すると、現在、KimiとDeepSeekがリリースしたモデルだけが真のo1の本格版であり、他社がリリースしたモデルはまだo1-Previewレベルであり、その差は30%~40%です。

OpenAI o1をベンチマークとすると、数学レベルのスコアは74.4ポイント、プログラミングレベルのスコアは67.2ポイントで、マルチモーダル性をサポートしています。この基準によれば、中国で発表された推論モデルは、実際の o1 レベルからはまだ遠いと言えます。 DeepSeek モデルと Kimi モデルはどちらも数学的レベルで OpenAI を上回っており、プログラミング レベルは o1 レベルに近いです。しかし、DeepSeekと比較すると、Kimiはマルチモーダル視覚推論をサポートしていますが、DeepSeekはテキストしか認識できず、画像認識はサポートしていません。

具体的には、ショートCoT(ショートシンキング)モードでは、Kimi k1.5 は他のすべてのモデルを上回ります。その数学、コード、視覚的マルチモーダル、および一般的な機能は、グローバルな短期思考 SOTA モデル GPT-4o および Claude 3.5 Sonnet のレベルをはるかに上回り、550% の差をつけています。

ロングCoT(ロング思考)モードでは、Kimi k1.5の数学、コード、マルチモーダル推論機能も、ロング思考SOTAモデルOpenAI o1の公式バージョンのレベルに達します。 2 つの数学能力テスト (AIME 2024 および MATH-500) で o1 に勝ち、プログラミング能力テスト (Codeforces) では o1 と同点になりました。 OpenAI以外の企業がo1正式版のマルチモーダル推論性能を達成したのは、世界初のこととなる。

キミk1.5トレーニングの秘密

国内外の人々が彼を応援しており、彼の強さのレベルは試練に耐えた。キミはいかにして「最強の頭脳」になったのか?

役立つ情報が満載の技術レポートを読んだ後、それをトレーニングのアイデア、トレーニング計画、トレーニング フレームワークにまとめることができます。その中には、効率的な推論と最適化のアイデアが貫かれています。

データ量の制限により、「努力すれば奇跡が起こる」という事前トレーニング方法は、実際のトレーニングで何度も障害に遭遇してきました。 OpenAI o1 を皮切りに、業界ではトレーニングのパラダイムを変え、強化学習にさらに力を入れ始めました。

これまでの考え方は「直接的なフィーディング」として理解できます。つまり、人間が自発的にビッグモデルにデータを「フィード」し、ビッグモデルの作業を監督し、ビッグモデルの「トレーニング」プロセスに介入する必要があります。しかし、強化学習の中心的な考え方は、人間の介入をあまり必要とせずに、大規模なモデルが自ら学習し、進化できるようにすることです。

今回、キミの新しいモデルのアップデートでは強化学習の道が採用されました。トレーニングプロセス中に、モンテカルロツリー検索、価値関数、プロセス報酬モデルに依存せずにモデルが優れたパフォーマンスを達成できることが証明されました。

強化学習のアイデアは「Long2Short」トレーニング プログラムに集中しており、これは Kimi の技術レポートのハイライトでもあります。公式紹介によると、具体的なアプローチは、まずより大きなコンテキストウィンドウを使用してモデルが長連鎖思考を学習できるようにし、次に「長いモデル」の推論経験を「短いモデル」に転送して 2 つをマージし、最後に「短いモデル」で強化学習の微調整を実行することです。

注: 左上隅に近いほど良い

このアプローチの利点は、トークンの使用率とトレーニング効率を向上させ、モデルのパフォーマンスと効率の間の最適なソリューションを見つけることができることです。

業界の観点から見ると、キミの「Long2Short」トレーニング プログラムも「モデル蒸留」の現れです。ここで、「長いモデル」は教師であり、「短いモデル」は生徒です。教師は生徒に知識を伝え、大きなモデルを使用して小さなモデルのパフォーマンスを向上させます。もちろん、キミは効率を向上させるためにいくつかの方法も採用しました。たとえば、「ロングモデル」によって生成された複数のサンプルを使用し、最短の正のソリューションを正のサンプルとして、生成時間が最も長いものを負のサンプルとして、コントロールグループのトレーニングデータセットを形成しました。

強化学習トレーニングに適応するために、Kimi k1.5 は、トレーニング システム全体をサポートする基盤として、特別な強化学習フレームワークを特別に設計しました。

k1.5 モデルは最大 128k のコンテキスト長をサポートします。モデルが毎回完全な思考連鎖の生成と推論プロセスを完了する必要がある場合、コンピューティング リソース、メモリ ストレージ、およびトレーニングの安定性に影響します。そこで、キミは、生成されたリンクを一度に完了するのではなく、複数のステップに分割する「部分ロールアウト」テクノロジーを導入しました。

基盤となる AI インフラを構築するというアイデアは、『Dark Side of the Moon』の長いテキストの蓄積を反映しています。リソースを最大限に活用し、効率を達成する方法が常にその取り組みの焦点となってきました。この考え方は、思考連鎖の生成と推論にまで拡張されます。

中国の「ツインスター」は OpenAI 神話を終わらせるか?

Kimi と DeepSeek から、将来のモデル トレーニングに関するいくつかの傾向がわかるかもしれません。強化学習のトレーニングとリソース割り当てへの投資が増加するでしょう。 OpenAI o1 は、次の段階への大規模モデルの参入の新たな閾値となり、技術とリソースに追いつけないことは遅れをとることを意味します。文脈に沿った長文テキスト技術は特に重要であり、長い思考の連鎖を生成し推論するための基礎として役立ちます。スケーリング法則は完全に失敗したわけではなく、長いコンテキストなどの一部の領域ではまだ存在し、可能性を秘めています。

中国の「双星」がOpenAIのブラックボックスを公開した。以前、OpenAI は、大規模モデルのトレーニングの 4 つの段階 (事前トレーニング、教師あり微調整、報酬モデリング、強化学習) を定義しました。現在、このパラダイムは崩れ、Kimi と DeepSeek はどちらも、特定のステップをスキップして簡素化することで、モデルのトレーニング効率とパフォーマンスを向上できることを実証しました。

Kimi と DeepSeek の効果は 2 つあります。海外に進出するにあたっては、シリコンバレーを中心とする海外の AI 界に対して、継続的な注力によって奇跡が生み出されること、そして中国が依然として技術の最前線で競争する能力を有していることを証明しなければなりません。

OpenAIは、多くのリソースを投資し、優秀な人材の密度も高いにもかかわらず、多くの面で中国企業に追い抜かれた理由を振り返るべきだ。これにより、世界の競争環境に微妙な変化がもたらされる可能性があります。 OpenAI の先行者利益はいつまで続くのだろうか、と疑問に思わざるを得ません。同社は、同じ国にAnthropicという宿敵を抱え、ToBの受注を奪われているだけでなく、中国のAI企業にも警戒しなければならない。

国内では新たなパターンが変化しつつあるようだ。 DeepSeek は、オープンソースであり、OpenAI のパフォーマンスを上回るモデルであることから、これまでにない注目を集めています。中には、これを「AI の六小虎」の仲間に加える人も現れ始めています。

過去と比べると、現段階のキミはk0からknまでの技術的なルートがより明確になっています。 「Kimiという1つの製品に注力する」としているが、Kimiが担うものは、通常のAIアプリケーションをはるかに超えている。

「Kimi k1.5」はDark Side of the Moonが次のステージへの切符を獲得するのに貢献し、将来の競争においてもさらに主導権を握ることとなった。一定のリードを確保した上で、2025年に向けた新たな目標は、いかにしてより良い生活を送るかということだ。

新たな人事異動が静かに始まった。誰が最初に遅れをとり、誰が最初に突破するのか?

<<:  蘭富金融網が2024年新浪金融ヘッドライン年間賞を受賞

>>:  新亜ケーブルのIPO: 成長の弱さ、研究開発投資の低さ、そして単一の支配株主による欠点

推薦する

スポーツ会場運営コンテンツ(中国スポーツ会場運営産業現状分析と発展動向レポート(2023年))

中国スポーツ会場運営業界の現状分析と発展動向レポート(2023年) 1. 業界関連の定義スポーツ施設...

ブランドマーケティング企画事例(企業ブランドイメージ・コミュニケーション・マーケティング企画・プロモーション活動・ライブ放送・eコマース企画実践事例集)

企業ブランドイメージコミュニケーション、マーケティング企画、プロモーション活動、ライブストリーミング...

Namecheap ドメイン マーケットプレイス チュートリアル: 他の人が販売したいドメインを購入する方法

海外のドメイン名登録業者である Nmechep は、国内のウェブマスターの間で人気のある選択肢です。...

製品運用とマーケティング計画(マーケティングとは何か?計画とは何か?運用とは何か?)

マーケティングとは何ですか?計画とは何ですか?オペレーションとは何ですか?現代のビジネスでは、マーケ...

ブランド広告とマーケティング計画(2024年:ブランドはいかに効率的に広告を掲載し、市場機会を捉えるか)

2024年: ブランドは市場機会を捉えるためにどのように効果的に広告を掲載できるでしょうか?テクノ...

海外コンテンツ運用(完全個人理解による海外商品運用)

完全に人的理解に基づいた海外製品オペレーションデータ分析の方法は一貫していますが、実装の詳細は業界や...

運用データ化(商品のデジタル運用をマインドマップで説明:トラフィックと売上高を増やす方法)

マインドマップは、データに基づいた製品の運用を説明します。トラフィックと売上高を増やす方法これは、製...

情報フロー広告の量を増やす方法(新規参入者が情報フローを引き継いだばかりですが、どうすればすぐに量を増やすことができますか?)

新人が情報の流れを引き継ぎました。どうすればコンテンツの量を素早く増やせるでしょうか?情報フローの...

Arch Linux に GNOME デスクトップ環境をインストールする方法

GNOME デスクトップはデスクトップ環境そのものに重点を置いており、組み込みソフトウェアが少なく、...

プライベートドメインユーザー間の信頼を築く方法

基本的に、近年プライベートドメインに参入したすべての人の目標は、プライベートドメインを通じて収益化を...

ココブランド企画(セカンドディメンションと連携し、ココが共同マーケティングをどのように展開できるかをご覧ください)

2次元と手を組んで、CoCoが共同マーケティングをどのように展開できるかをご覧くださいあらゆるもの...

蘭富金融網が2024年新浪金融ヘッドライン年間賞を受賞

1月22日、「Sina Finance Headlines Annual List」がリリースされ、...

情報フロー広告のやり方(情報フロー広告のやり方)

情報フロー広告のやり方インターネット上での情報発信はますます注目を集めています。実際、インターネット...

ANTAブランドプロモーション手法(ANTAブランド分析レポート(11部))

アンタブランド分析レポート(11部)アンタの二輪駆動安踏の2023年の収益は623.6億元となる。...