Generatif (Beta) |. Memberikan berita dan tren terkini dalam AI generatif
.png)
Cerebras Mencapai Kecepatan Inferensi AI yang Terobosan
Generatived
25/1/31 5:00
Cerebras Systems mengumumkan peningkatan signifikan dalam kinerja AI, mencapai lebih dari 1.500 token per detik pada inferensi DeepSeek-R1-Distill-Llama-70B. Kecepatannya dilaporkan 57 kali lebih cepat daripada solusi berbasis GPU yang ada, sehingga mempercepat pemrosesan tugas AI yang kompleks secara signifikan. Hagay Lupesko, SVP AI Cloud di perusahaan tersebut, menyoroti transformasi proses inferensi yang panjang menjadi respons yang hampir instan, dengan mengatakan bahwa hal ini dapat mengubah cara pengembang dan bisnis memanfaatkan model AI tingkat lanjut.
Didukung oleh Cerebras Wafer Scale Engine, platform perusahaan tersebut telah mengalami peningkatan dramatis dalam kinerja di dunia nyata. Misalnya, perintah pengodean standar yang memerlukan waktu 22 detik pada platform lain dapat diselesaikan hanya dalam waktu 1,5 detik pada Cerebras, yang menunjukkan peningkatan waktu respons sebesar 15 kali lipat. Peningkatan ini diharapkan dapat memfasilitasi penerapan praktis model inferensi tingkat lanjut yang biasanya memerlukan sumber daya komputasi yang signifikan.
Cerebras telah mengintegrasikan kemampuan inferensi tingkat lanjut dari model Mixture of Experts (MoE) 671B parameter milik DeepSeek ke dalam arsitektur Llama yang dikembangkan oleh Meta. Ukuran parameter 70B yang efisien dari model tersebut masih mengungguli model yang lebih besar dalam tugas matematika dan pengodean yang rumit. Lupesko juga menyoroti komitmen perusahaan terhadap keamanan dan privasi, dengan mencatat bahwa semua permintaan inferensi diproses dalam pusat data yang berbasis di AS dan memiliki kebijakan penyimpanan data nol yang ketat, yang memastikan data tetap berada di AS dan berada di bawah kepemilikan tunggal pelanggan.
Model DeepSeek-R1-Distill-Llama-70B saat ini tersedia melalui Cerebras Inference, dengan akses API yang diberikan kepada pelanggan terpilih melalui program pratinjau pengembang. Pihak yang berminat untuk memanfaatkan kemampuan inferensi instan ini untuk aplikasi mereka dapat mengunjungi situs web Cerebras untuk informasi lebih lanjut. Cerebras Systems terus mendukung berbagai klien, termasuk perusahaan terkemuka, lembaga penelitian, dan lembaga pemerintah, dalam pengembangan model dan aplikasi AI yang inovatif.
Bagikan artikel ini:
Tin tức mới nhất
Konsultasi Gratis Cloud AI Pelanggan Dimulai
25/2/26 4:30
Customer Cloud (Shinjuku-ku, Tokyo) telah mengumumkan akan mulai menawarkan konsultasi awal gratis mengenai strategi AI perusahaan.
Topaz LLC meluncurkan platform AI
25/2/26 4:30
Topaz LLC (Kota Sakura, Prefektur Chiba) mulai menawarkan "Claude 3.7 Sonnet" milik Anthropic pada platform Generative AI berorientasi bisnis "Business AI" pada tanggal 25 Februari 2025.
Asosiasi BM Meluncurkan Kursus Baru Pemanfaatan ChatGPT
25/2/26 4:30
Asosiasi Sertifikasi Manajer Merek (Shinjuku-ku, Tokyo) telah mengumumkan akan meluncurkan kursus baru tentang merek.
Copyright © 2024 Generatived - All right Reserved.
Bagikan artikel ini:
Bagikan artikel ini:
Kategori
Berita
AI dan hukum/peraturan/masyarakat
Generatived là dịch vụ cung cấp thông tin và xu hướng chuyên về Generative AI. Chúng tôi sẽ cố gắng hết sức để cung cấp thông tin về thế giới đang thay đổi nhanh chóng.
Berita terkini
Konsultasi Gratis Cloud AI Pelanggan Dimulai
25/2/26 4:30
Customer Cloud (Shinjuku-ku, Tokyo) telah mengumumkan akan mulai menawarkan konsultasi awal gratis mengenai strategi AI perusahaan.
Topaz LLC meluncurkan platform AI
25/2/26 4:30
Topaz LLC (Kota Sakura, Prefektur Chiba) mulai menawarkan "Claude 3.7 Sonnet" milik Anthropic pada platform Generative AI berorientasi bisnis "Business AI" pada tanggal 25 Februari 2025.
Asosiasi BM Meluncurkan Kursus Baru Pemanfaatan ChatGPT
25/2/26 4:30
Asosiasi Sertifikasi Manajer Merek (Shinjuku-ku, Tokyo) telah mengumumkan akan meluncurkan kursus baru tentang merek.