top of page
Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
logo.png

NVIDIA TensorRT-LLM Memperkenalkan Fitur Chunked Prefill yang Efisien

Generatived

24/11/18 4:30

NVIDIA telah memperkenalkan fitur baru dalam TensorRT-LLM yang meningkatkan pemanfaatan GPU dan menyederhanakan proses penerapan bagi para pengembang. Fitur ini, yang dikenal sebagai chunked prefill, mengatasi tantangan komputasi yang ditimbulkan oleh fase prefill dan decode inference tradisional. Dengan membagi token input menjadi potongan-potongan yang lebih kecil, sistem dapat memproses cache KV dengan lebih efisien, memungkinkan penanganan beberapa permintaan secara bersamaan dan mencegah kemacetan selama fase prefill.

Pendekatan prapengisian berpotongan tidak hanya meningkatkan kinerja GPU tetapi juga memungkinkan sistem untuk mengelola konteks yang lebih panjang dan tingkat konkurensi yang lebih tinggi tanpa meningkatkan permintaan memori. Hal ini sangat bermanfaat karena memisahkan konsumsi memori dari panjang konteks permintaan yang masuk, sehingga memungkinkan pemrosesan panjang konteks yang lebih besar secara lebih efektif.

Selain itu, NVIDIA telah membuat langkah maju dalam menyederhanakan proses pembuatan mesin dengan penerapan ukuran chunk dinamis. Fitur ini secara otomatis merekomendasikan ukuran chunk optimal berdasarkan metrik penggunaan GPU, sehingga menghilangkan kebutuhan pengembang untuk secara manual menentukan panjang input maksimum. Hasilnya, ukuran buffer aktivasi kini ditentukan oleh ukuran chunk yang dikonfigurasi, yang menghasilkan penggunaan memori yang lebih efisien selama eksekusi.

Pengenalan chunked prefill di TensorRT-LLM menandai peningkatan signifikan dalam kinerja dan pemanfaatan sistem. Dengan memfasilitasi paralelisasi yang lebih baik antara fase prefill dan decode serta mengurangi waktu penyelesaian kueri, NVIDIA meningkatkan pengalaman pengguna. Pengembang yang tertarik memanfaatkan fitur ini dapat menemukan informasi lebih lanjut dan memulai melalui dokumentasi GitHub NVIDIA, mengikuti perkembangan terbaru dalam kinerja inferensi AI.

Bagikan artikel ini:

Berita terkini
NVIDIA、データセンター向けH200 NVL GPUを発表

NVIDIA、データセンター向けH200 NVL GPUを発表

24/11/19 4:30

NVIDIA は、Supercomputing 2024 カンファレンスで重要な発表を行い、Hopper ファミリーの新メンバーである NVIDIA H200 NVL PCIe GPU を公開しました。

Meta AI 音声サービスが Ray-Ban メガネで開始

Meta AI 音声サービスが Ray-Ban メガネで開始

24/11/19 4:30

Meta AI は、その範囲を拡大し、フランス、イタリア、アイルランド、スペインの Ray-Ban Meta メガネで音声起動 AI サービスの提供を開始しました。

NVIDIA、量子スーパーコンピューティングへの AI 統合を発表

NVIDIA、量子スーパーコンピューティングへの AI 統合を発表

24/11/19 4:30

NVIDIA は、Supercomputing 2024 で量子スーパーコンピューティングの将来ビジョンを発表し、量子ハードウェアと AI スーパーコンピューティングの統合を強調しました。

NVIDIA ALCHEMI が新素材の発見を加速

NVIDIA ALCHEMI が新素材の発見を加速

24/11/19 4:30

AI テクノロジーは、材料科学と化学の状況を一変させ、AI スペシャリスト、化学者、材料科学者の共同作業を促進しています。

Copyright © 2024 Generatived - All right Reserved.

Bagikan artikel ini:

Bagikan artikel ini:

Generatived

Ikuti kami

  • Facebook
  • X

Bahasa

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

Generatived

Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.

  • Facebook
  • X

Ikuti kami

Bahasa

Berita terkini
NVIDIA、データセンター向けH200 NVL GPUを発表

NVIDIA、データセンター向けH200 NVL GPUを発表

24/11/19 4:30

NVIDIA は、Supercomputing 2024 カンファレンスで重要な発表を行い、Hopper ファミリーの新メンバーである NVIDIA H200 NVL PCIe GPU を公開しました。

Meta AI 音声サービスが Ray-Ban メガネで開始

Meta AI 音声サービスが Ray-Ban メガネで開始

24/11/19 4:30

Meta AI は、その範囲を拡大し、フランス、イタリア、アイルランド、スペインの Ray-Ban Meta メガネで音声起動 AI サービスの提供を開始しました。

NVIDIA、量子スーパーコンピューティングへの AI 統合を発表

NVIDIA、量子スーパーコンピューティングへの AI 統合を発表

24/11/19 4:30

NVIDIA は、Supercomputing 2024 で量子スーパーコンピューティングの将来ビジョンを発表し、量子ハードウェアと AI スーパーコンピューティングの統合を強調しました。

NVIDIA ALCHEMI が新素材の発見を加速

NVIDIA ALCHEMI が新素材の発見を加速

24/11/19 4:30

AI テクノロジーは、材料科学と化学の状況を一変させ、AI スペシャリスト、化学者、材料科学者の共同作業を促進しています。

bottom of page