Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
NVIDIA、大規模データセットを効率的に扱えるXGBoostツールを発表
Generatived
23/9/8 9:31
データサイエンティストは、多くの場合、広範なデータセットで大規模なモデルをトレーニングするというタスクに取り組んでいる。堅牢な勾配ブースティング フレームワークであるXGBoostは、大規模な表形式データに対する速度とパフォーマンスにより人気のあるツールだ。理論的には、複数のGPUを使用すると計算能力が大幅に向上し、モデルのトレーニングが高速化されるはずだ。ただし、多くのユーザーは、並列コンピューティング用の柔軟なオープンソースPythonライブラリーであるDask XGBoostを通じてこの機能を活用するのが難しいと感じている。Dask XGBoostのトレーニングでは、トレーニングデータのロード、DataFrameのXGBoostのDMatrix形式への変換、および実際のモデルのトレーニング中など、さまざまな段階でメモリー不足(OOM)エラーの処理が行われることがよくある。これらのメモリーの問題に対処するのは困難だが、マルチGPUトレーニングの潜在的な利点により、やりがいがある。この記事では、複数のGPUでDask XGBoostを最適化し、メモリーエラーを管理する方法について説明する。大規模なデータセットでXGBoostをトレーニングすると、さまざまな課題が生じる。例えば、1億8,000万行と152列があり、メモリーにロードされると合計110 GBになるOtto Group製品分類チャレンジデータセットは、OOM問題とその解決方法を示すために使用される。取り扱う問題には、最新バージョンのRAPIDSと正しいバージョンのXGBoostを使用したインストール、環境変数の設定、OOMエラーの処理、さらなる高速化のためのUCX-pyの利用などが含まれる。RapidsaiチャネルのXGBoostは、RMMプラグインを有効にして構築されており、マルチGPUトレーニングに関して最適なパフォーマンスを提供する。
最新のニュース
Copyright © 2024 Generatived - All right Reserved.
ニュース
Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。