H100 GPU’lar İlk MLPerf Benchmark’ta Yapay Zeka Kuşağı İçin Standardı Belirledi | NVIDIA Blogları

H100 GPU’lar İlk MLPerf Benchmark’ta Yapay Zeka Kuşağı İçin Standardı Belirledi | NVIDIA Blogları


Önde gelen kullanıcılar ve endüstri standardı karşılaştırmalı değerlendirmeler şu konularda hemfikirdir: NVIDIA H100 Tensör Çekirdekli GPU’lar özellikle büyük dil modellerini (LLM’ler) destekleyen en iyi yapay zeka performansını sunar üretici yapay zeka.

H100 GPU’lar, bugün yayınlanan en son MLPerf eğitim testlerindeki sekiz testin hepsinde yeni rekorlar kırarak, üretken yapay zeka için yeni bir MLPerf testinde mükemmel bir performans sergiliyor. Bu mükemmellik, devasa sunucularda hem hızlandırıcı başına hem de ölçekte sağlanır.

Örneğin, başlangıç ​​Inflection AI tarafından ortaklaşa geliştirilen ve tarafından işletilen, piyasada bulunan 3.584 H100 GPU kümesinde CoreWeaveGPU ile hızlandırılmış iş yüklerinde uzmanlaşmış bir bulut hizmeti sağlayıcısı olan sistem, devasa GPT-3 tabanlı eğitim karşılaştırmasını on bir dakikadan daha kısa sürede tamamladı.

CoreWeave’in kurucu ortağı ve CTO’su Brian Venturo, “Müşterilerimiz, hızlı, düşük gecikme süreli InfiniBand ağları üzerindeki binlerce H100 GPU’muz sayesinde bugün geniş ölçekte son teknoloji üretken AI ve LLM’ler oluşturuyor” dedi. “NVIDIA ile ortak MLPerf gönderimimiz, müşterilerimizin keyif aldığı harika performansı açıkça gösteriyor.”

Bugün Mevcut En İyi Performans

Inflection AI, ilk kişisel AI’sinin arkasında gelişmiş LLM’yi oluşturmak için bu performansı kullandı. Pikişisel zeka anlamına gelir. Şirket, kullanıcıların basit ve doğal yollarla etkileşime girebileceği kişisel yapay zekalar yaratarak bir yapay zeka stüdyosu gibi hareket edecek.

Inflection AI CEO’su Mustafa Suleyman, “CoreWeave’in güçlü H100 GPU ağı üzerinde eğitilen son teknoloji büyük dil modelimize dayalı olarak bugün herkes kişisel bir yapay zekanın gücünü deneyimleyebilir” dedi.

2022’nin başlarında DeepMind’den Mustafa ve Karén Simonyan ve Reid Hoffman tarafından ortaklaşa kurulan Inflection AI, NVIDIA GPU’ları kullanarak dünyanın en büyük bilgi işlem kümelerinden birini oluşturmak için CoreWeave ile birlikte çalışmayı hedefliyor.

Kasetin Hikayesi

Bu kullanıcı deneyimleri, MLPerf testlerinde gösterilen performansı yansıtır bugün açıklandı.

NVIDIA, MLPerf Training v3.0'daki sekiz testi de kazandı

H100 GPU’lar, büyük dil modelleri, tavsiyeler, bilgisayar görüşü, tıbbi görüntüleme ve konuşma tanıma dahil olmak üzere her kıyaslamada en yüksek performansı sağladı. NVIDIA yapay zeka platformunun çok yönlülüğünü gösteren sekiz testi de gerçekleştiren tek yongalardı.

Geniş Ölçekte Çalışan Mükemmellik

Eğitim, genellikle art arda çalışan birçok GPU tarafından ölçekte yürütülen bir iştir. H100 GPU’lar, her MLPerf testinde yapay zeka eğitimi için yeni ölçekli performans rekorları kırar.

Eksiksiz teknoloji yığınındaki optimizasyonlar, yüzlerce ila binlerce H100 GPU arasında ölçeklendirilen gönderimler nedeniyle zorlu LLM testinde doğrusala yakın performans ölçeklendirmeyi mümkün kıldı.

NVIDIA, MLPerf Training v3.0'da geniş ölçekte verimlilik gösteriyor

Ayrıca CoreWeave, NVIDIA’nın yerel bir veri merkezinde çalışan yapay zeka süper bilgisayarından elde ettiği performansın benzerini buluttan sağladı. Bu, düşük gecikmeli ağ oluşturmanın bir kanıtıdır. NVIDIA Quantum-2 InfiniBand CoreWeave’in kullandığı ağ.

Bu turda, MLPerf ayrıca öneri sistemleri için kıyaslamasını da güncelledi.

Yeni test, bulut hizmeti sağlayıcılarının karşılaştığı zorlukları daha iyi yansıtmak için daha büyük bir veri kümesi ve daha modern bir yapay zeka modeli kullanıyor. NVIDIA, geliştirilmiş kıyaslama sonuçlarını sunan tek şirketti.

Genişleyen NVIDIA Yapay Zeka Ekosistemi

Bu turda yaklaşık bir düzine şirket NVIDIA platformunda sonuç sundu. Çalışmaları, NVIDIA AI’nın makine öğreniminde endüstrinin en geniş ekosistemi tarafından desteklendiğini gösteriyor.

Başvurular, aralarında ASUS, Dell Technologies, GIGABYTE, Lenovo ve QCT’nin de bulunduğu büyük sistem üreticilerinden geldi. H100 GPU’larda 30’dan fazla gönderim yapıldı.

Bu katılım düzeyi, kullanıcıların hem bulutta hem de kendi veri merkezlerinde çalışan sunucularda NVIDIA AI ile harika performans elde edebileceklerini bilmelerini sağlar.

Tüm İş Yüklerinde Performans

NVIDIA ekosistem iş ortakları, yapay zeka platformlarını ve satıcıları değerlendiren müşteriler için değerli bir araç olduğunu bildikleri için MLPerf’e katılıyor.

Kıyaslamalar, üretken yapay zeka ve öneri sistemlerine ek olarak, kullanıcıların önem verdiği iş yüklerini (bilgisayarla görme, çeviri ve pekiştirmeli öğrenme) kapsar.

Testler şeffaf ve objektif olduğu için kullanıcılar bilinçli satın alma kararları vermek için MLPerf sonuçlarına güvenebilir. Kıyaslamalar, Arm, Baidu, Facebook AI, Google, Harvard, Intel, Microsoft, Stanford ve Toronto Üniversitesi’ni içeren geniş bir gruptan destek alıyor.

MLPerf sonuçları bugün H100, L4 ve NVIDIA Jetson yapay zeka eğitimi, çıkarım ve HPC kıyaslamaları genelinde platformlar. başvuruları yapacağız NVIDIA Grace Haznesi gelecekteki MLPerf turlarında da sistemler.

Enerji Verimliliğinin Önemi

Yapay zekanın performans gereksinimleri büyüdükçe, bu performansın elde edilme biçiminin verimliliğini artırmak çok önemlidir. Hızlandırılmış bilgi işlemin yaptığı da budur.

NVIDIA GPU’larla hızlandırılan veri merkezleri daha az sunucu düğümü kullanır, dolayısıyla daha az raf alanı ve enerji kullanırlar. Ek olarak, hızlandırılmış ağ, verimliliği ve performansı artırır ve devam eden yazılım optimizasyonları, aynı donanım üzerinde x faktörü kazanımları sağlar.

Enerji verimli performans, gezegen ve işletme için de iyidir. Artırılmış performans, pazara çıkış süresini hızlandırabilir ve kuruluşların daha gelişmiş uygulamalar geliştirmesine olanak sağlayabilir.

NVIDIA GPU’larla hızlandırılan veri merkezleri daha az sunucu düğümü kullandığından, enerji verimliliği de maliyetleri düşürür. Gerçekten de, NVIDIA en iyi 30 süper bilgisayardan 22’sini en yeni sürümlerde çalıştırıyor Green500 listesi.

Herkese Açık Yazılım

NVIDIA AI EnterpriseNVIDIA AI platformunun yazılım katmanı olan , önde gelen hızlandırılmış bilgi işlem altyapısında optimize edilmiş performans sağlar. Yazılım, yapay zekayı kurumsal veri merkezinde çalıştırmak için gereken kurumsal düzeyde destek, güvenlik ve güvenilirlikle birlikte gelir.

Bu testler için kullanılan tüm yazılımlar MLPerf deposundan edinilebilir, böylece neredeyse herkes bu birinci sınıf sonuçları alabilir.

Optimizasyonlar sürekli olarak şu adreste bulunan kaplara katlanır: NGCNVIDIA’nın GPU hızlandırmalı yazılım kataloğu.

Oku bunu teknik blog NVIDIA’nın MLPerf performansını ve verimliliğini besleyen optimizasyonlara daha derin bir dalış için.


Kaynak : https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

SMM Panel PDF Kitap indir