Elon Musk, yeni nesil Grok 3 modelinin eğitilmesi için 100.000 Nvidia H100 GPU gerektireceğini söyledi

Elon Musk, yeni nesil Grok 3 modelinin eğitilmesi için 100.000 Nvidia H100 GPU gerektireceğini söyledi

Tesla’nın CEO’su ve xAI’nin kurucusu Elon Musk, yapay genel zekanın (AGI) gelişimi hakkında bazı cesur tahminlerde bulundu ve yapay zeka endüstrisinin karşı karşıya olduğu zorlukları tartıştı. YZG’nin gelecek yıl ya da 2026’ya kadar insan zekasını geçebileceğini ancak eğitilmesi için aşırı sayıda işlemci gerekeceğini ve bunun da çok büyük miktarda elektrik gerektireceğini öngörüyor. Reuters.

Musk’un girişimi xAI şu anda Grok geniş dil modunun ikinci versiyonunu eğitiyor ve bir sonraki eğitim aşamasını Mayıs ayına kadar tamamlamayı bekliyor. Grok’un sürüm 2 modelinin eğitimi 20.000 kadar Nvidia H100 GPU gerektirdi ve Musk, Grok 3 modelinin eğitilmesi için yaklaşık 100.000 Nvidia H100 yongasına ihtiyaç duymasıyla gelecekteki yinelemelerin daha da büyük kaynaklar gerektireceğini öngörüyor.

Musk’a göre yapay zeka teknolojisinin ilerlemesi şu anda iki ana faktör tarafından engelleniyor: Nvidia’nın H100’ü gibi gelişmiş işlemcilerdeki arz sıkıntısı ve bunlardan 100.000 tanesini hızlı bir şekilde elde etmek kolay değil – ve elektriğin bulunabilirliği.

Nvidia’nın H100 GPU’su tam olarak kullanıldığında yaklaşık 700 W enerji tüketir ve dolayısıyla AI ve HPC iş yükleri için 100.000 GPU, 70 megavatlık devasa bir güç tüketebilir. Bu GPU’ların çalışması için sunuculara ve soğutmaya ihtiyaç duyulduğundan, 100.000 Nvidia H100 işlemcili bir veri merkezinin 100 megavat civarında güç tüketeceğini söylemek yanlış olmaz. Bu, küçük bir şehrin güç tüketimiyle karşılaştırılabilir.

Musk, hesaplama GPU tedariğinin şu ana kadar önemli bir engel olduğunu, ancak elektrik tedariğinin önümüzdeki bir veya iki yıl içinde giderek daha kritik hale geleceğini vurguladı. Bu ikili kısıtlama, artan bilgi işlem taleplerini karşılamak için yapay zeka teknolojilerini ölçeklendirmenin zorluklarını vurguluyor.

Zorluklara rağmen, bilgi işlem ve bellek mimarilerindeki gelişmeler, önümüzdeki yıllarda giderek daha büyük olan büyük dil modellerinin (LLM’ler) eğitilmesine olanak tanıyacaktır. Nvidia Blackwell B200’ü tanıttı Trilyonlarca parametreyle LLM’lere ölçeklenmek üzere tasarlanmış bir GPU mimarisi ve platformu olan GTC 2024’te. Bu, YGZ’nin geliştirilmesinde kritik bir rol oynayacaktır.

Aslında Musk, önümüzdeki bir veya iki yıl içinde en akıllı insandan daha akıllı bir yapay zekanın ortaya çıkacağına inanıyor. Musk, X Spaces’a verdiği bir röportajda, “YGZ’yi en akıllı insandan daha akıllı olarak tanımlarsanız, bunun muhtemelen önümüzdeki yıl, yani iki yıl içinde olacağını düşünüyorum” dedi. Bu, görünüşe göre Terminatör’ü tekrar izlemenin ve gelecekteki AGI derebeylerimizin Skynet’ten daha iyi olmasını ummanın zamanının geldiği anlamına geliyor. ☺

Yorum gönder