Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
![](https://static.wixstatic.com/media/2b1e48_5ea8bd5af1fd41c3bf7bbdf697446c0f~mv2.webp/v1/fill/w_980,h_744,al_c,q_85,usm_0.66_1.00_0.01,enc_avif,quality_auto/milad-fakurian-CN2FEPXERRI-unsplash%20(1).webp)
OpenAI、AIスケーリング法則の画期的な発見を発表
Generatived
25/2/13 4:30
人工知能 (AI) の進化により、AI モデルのパフォーマンスを規定する 3 つの異なるスケーリング法則が確立されました。それは、事前トレーニング スケーリング、事後トレーニング スケーリング、テスト時スケーリングです。これらの法則は、AI 機能を強化するためにコンピューティング リソースを適用する微妙な方法を示しています。元の AI 開発法則である事前トレーニング スケーリングは、より多くのデータとコンピューティング パワーでトレーニングされた大規模なモデルの方がパフォーマンスが向上することを示唆しています。この原則により、数十億のパラメーターを持つ高度なモデルが生まれ、かなりのコンピューティング リソースが必要になりました。
トレーニング後のスケーリングにより、組織は既存の事前トレーニング済みモデルを基にして、特定のアプリケーションに適応させることができます。このプロセスでは、最初の事前トレーニングよりも最大 30 倍のコンピューティングが必要になる場合があり、高速コンピューティングの需要が高まっています。微調整や蒸留などの手法を使用して、モデルの効率性と特定のタスクへの関連性を向上させ、強力なコンピューティング ソリューションの必要性をさらに高めています。
テスト時間のスケーリングはロングシンキングとも呼ばれ、AI モデルが推論中に追加のコンピューティングを使用して複雑なクエリを処理するという新しい概念です。この方法により、AI は問題を推論して、特に複数の推論ステップを必要とするオープンエンドの質問に対して、高品質の応答を生成できます。このアプローチは、複雑な問題をより単純なコンポーネントに分解してから解決策に到達するという人間の問題解決を反映しています。この集中的な計算プロセスにより、高速コンピューティング リソースの需要が大幅に増加する可能性があります。
OpenAI の o1-mini やGoogle DeepMind の Gemini 2.0 などの AI 推論モデルの進歩は、テスト時間のスケーリングの重要性を強調しています。これらのモデルは、複雑な問題を解決するために膨大なコンピューティングを必要とし、企業が高度な AI 推論ツールをサポートするためにコンピューティング能力を拡張しなければならない将来を示しています。AI モデルの継続的な開発とその複雑さの増大は、AI がさまざまな業界の多面的な課題に対処できるようにする上で、アクセラレーテッド コンピューティングが果たす重要な役割を浮き彫りにしています。
最新のニュース
楽天新日本語AIモデルリリース
25/2/13 4:30
楽天(東京)は、新しい日本語大規模言語モデル「Rakuten AI 2.0」と小規模言語モ デル「Rakuten AI 2.0 mini」をリリースした。
Copyright © 2024 Generatived - All right Reserved.
ニュース
Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。