Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
NVIDIA TensorRT-LLM Memperkenalkan Fitur Chunked Prefill yang Efisien
Generatived
24/11/18 4:30
NVIDIA telah memperkenalkan fitur baru dalam TensorRT-LLM yang meningkatkan pemanfaatan GPU dan menyederhanakan proses penerapan bagi para pengembang. Fitur ini, yang dikenal sebagai chunked prefill, mengatasi tantangan komputasi yang ditimbulkan oleh fase prefill dan decode inference tradisional. Dengan membagi token input menjadi potongan-potongan yang lebih kecil, sistem dapat memproses cache KV dengan lebih efisien, memungkinkan penanganan beberapa permintaan secara bersamaan dan mencegah kemacetan selama fase prefill.
Pendekatan prapengisian berpotongan tidak hanya meningkatkan kinerja GPU tetapi juga memungkinkan sistem untuk mengelola konteks yang lebih panjang dan tingkat konkurensi yang lebih tinggi tanpa meningkatkan permintaan memori. Hal ini sangat bermanfaat karena memisahkan konsumsi memori dari panjang konteks permintaan yang masuk, sehingga memungkinkan pemrosesan panjang konteks yang lebih besar secara lebih efektif.
Selain itu, NVIDIA telah membuat langkah maju dalam menyederhanakan proses pembuatan mesin dengan penerapan ukuran chunk dinamis. Fitur ini secara otomatis merekomendasikan ukuran chunk optimal berdasarkan metrik penggunaan GPU, sehingga menghilangkan kebutuhan pengembang untuk secara manual menentukan panjang input maksimum. Hasilnya, ukuran buffer aktivasi kini ditentukan oleh ukuran chunk yang dikonfigurasi, yang menghasilkan penggunaan memori yang lebih efisien selama eksekusi.
Pengenalan chunked prefill di TensorRT-LLM menandai peningkatan signifikan dalam kinerja dan pemanfaatan sistem. Dengan memfasilitasi paralelisasi yang lebih baik antara fase prefill dan decode serta mengurangi waktu penyelesaian kueri, NVIDIA meningkatkan pengalaman pengguna. Pengembang yang tertarik memanfaatkan fitur ini dapat menemukan informasi lebih lanjut dan memulai melalui dokumentasi GitHub NVIDIA, mengikuti perkembangan terbaru dalam kinerja inferensi AI.
Bagikan artikel ini:
Berita terkini
Zhuding Bergabung dengan AWS untuk Meningkatkan Daur Ulang Air
24/11/18 4:30
Zhuding International Limited telah mengumumkan penyelesaian Perjanjian Penggabungan Terbalik dengan Automated Water Solutions Inc. (AWS)
NTTSportict Digital Transformation Olahraga Pemenang Penghargaan Teratas
24/11/18 4:30
NTTSportict (Miyakojima-ku, Osaka) berpartisipasi dalam "INTER BEE AWARD 2024", yang diselenggarakan bertepatan dengan peringatan 60 tahun Inter BEE. Produk perusahaan
Perluasan aktivitas konservasi energi di Ennet dan MUFG
24/11/18 4:30
Ennet (Minato-ku, Tokyo) dan Mitsubishi UFJ Bank (Chiyoda-ku, Tokyo) akan memulai kegiatan penghematan energi menggunakan "Enneteye"
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.
Generatived adalah layanan yang memberikan informasi dan tren khusus dalam AI Generatif. Kami akan melakukan yang terbaik untuk menyampaikan informasi tentang dunia yang berubah dengan cepat.
Profil perusahaan
Berita terkini
Zhuding Bergabung dengan AWS untuk Meningkatkan Daur Ulang Air
24/11/18 4:30
Zhuding International Limited telah mengumumkan penyelesaian Perjanjian Penggabungan Terbalik dengan Automated Water Solutions Inc. (AWS)
NTTSportict Digital Transformation Olahraga Pemenang Penghargaan Teratas
24/11/18 4:30
NTTSportict (Miyakojima-ku, Osaka) berpartisipasi dalam "INTER BEE AWARD 2024", yang diselenggarakan bertepatan dengan peringatan 60 tahun Inter BEE. Produk perusahaan
Perluasan aktivitas konservasi energi di Ennet dan MUFG
24/11/18 4:30
Ennet (Minato-ku, Tokyo) dan Mitsubishi UFJ Bank (Chiyoda-ku, Tokyo) akan memulai kegiatan penghematan energi menggunakan "Enneteye"