Fransız startup FlexAI, yapay zeka hesaplamalarına erişimi kolaylaştırmak için 30 milyon dolar ile gizlilikten çıkıyor

Fransız startup FlexAI, yapay zeka hesaplamalarına erişimi kolaylaştırmak için 30 milyon dolar ile gizlilikten çıkıyor

Fransız bir girişim AI uygulamalarını daha verimli bir şekilde oluşturmak ve eğitmek isteyen geliştiriciler için “bilgi işlem altyapısını yeniden tasarlamak” amacıyla büyük bir başlangıç ​​yatırımı gerçekleştirdi.

FlexAIŞirketin adı, Ekim 2023’ten bu yana gizli olarak faaliyet gösteriyor, ancak Paris merkezli şirket Çarşamba günü resmi olarak 28,5 milyon Euro (30 milyon $) fonla faaliyete geçiyor ve ilk ürününün tanıtımını yapıyor: isteğe bağlı bir bulut hizmeti. Yapay zeka eğitimi.

Bu, bir tohum turu için büyük bir değişiklik, ki bu normalde gerçekten önemli bir kurucu soyağacı anlamına gelir – ve burada da durum böyle. FlexAI kurucu ortağı ve CEO’su Brijesh Tripathi daha önce GPU devinde kıdemli tasarım mühendisiydi ve şimdi AI sevgilim Nvidia, Apple’da çeşitli üst düzey mühendislik ve mimarlık görevlerine başlamadan önce; Tesla (doğrudan Elon Musk’un altında çalışıyor); Zoox (önceden Amazon satın alındı otonom sürüş başlangıcı); ve son olarak Tripathi, Intel’in yapay zeka ve süper bilgi işlem platformu kolu AXG’nin Başkan Yardımcısıydı.

FlexAI kurucu ortağı ve CTO’su Çin’e gel Etkileyici bir CV’si de var; Nvidia ve Zynga gibi şirketlerde çeşitli teknik rollerde görev yapıyor ve son olarak CTO rolünü üstleniyor. Fransız startup LifenSağlık sektörü için dijital altyapı geliştiren .

Başlangıç ​​turu Alpha Intelligence Capital (AIC), Elaia Partners ve Heartcore Capital tarafından yönetildi ve Frst Capital, Motier Ventures, Partech ve InstaDeep CEO’su Karim Beguir’in katılımıyla gerçekleşti.

FlexAI ekibi Paris'te

FlexAI ekibi Paris’te

Hesaplama bilmecesi

Tripathi ve Kilani’nin FlexAI ile neyi denediğini anlamak için öncelikle geliştiricilerin ve yapay zeka uygulayıcılarının “bilgi işlem”e erişim konusunda neyle karşı karşıya olduklarını anlamak gerekir; bu, verileri işlemek, algoritmaları çalıştırmak ve makine öğrenimi modellerini yürütmek gibi hesaplama görevlerini gerçekleştirmek için gereken işlem gücünü, altyapıyı ve kaynakları ifade eder.

“Yapay zeka alanındaki herhangi bir altyapıyı kullanmak karmaşıktır; Tripathi, TechCrunch’a “Bu cesareti zayıf olanlar için değil ve deneyimsizler için de değil” dedi. “Altyapıyı kullanmadan önce nasıl inşa edileceğine dair çok fazla bilgi sahibi olmanızı gerektiriyor.”

Buna karşılık, geçtiğimiz birkaç on yılda gelişen genel bulut ekosistemi, bir sektörün, geliştiricilerin arka uç hakkında çok fazla endişelenmeden uygulama geliştirme ihtiyacından nasıl ortaya çıktığına dair güzel bir örnek teşkil ediyor.

“Küçük bir geliştiriciyseniz ve bir uygulama yazmak istiyorsanız, uygulamanın nerede çalıştırıldığını veya arka ucunun ne olduğunu bilmenize gerek yoktur; yalnızca bir EC2’yi çalıştırmanız yeterlidir (Amazon Elastik Bilgi İşlem bulutu) örnek ve işiniz bitti,” dedi Tripathi. “Bugün yapay zeka hesaplamasıyla bunu yapamazsınız.”

Yapay zeka alanında geliştiricilerin, kurulumundan tamamen kendilerinin sorumlu olduğu bir yazılım ekosistemi aracılığıyla yönetilen, ne tür bir ağ üzerinden kaç GPU’yu (grafik işlem birimi) birbirine bağlamaları gerektiğini bulmaları gerekiyor. Bir GPU veya ağ arızalanırsa veya bu zincirdeki herhangi bir şey ters giderse, bunu çözme sorumluluğu geliştiriciye aittir.

Tripathi, “Yapay zeka bilgi işlem altyapısını genel amaçlı bulutun ulaştığı basitlik düzeyine getirmek istiyoruz – 20 yıl sonra evet, ancak yapay zeka bilişimin aynı faydaları görememesi için hiçbir neden yok” dedi. “Yapay zeka iş yüklerini çalıştırmanın veri merkezi uzmanı olmanızı gerektirmediği bir noktaya ulaşmak istiyoruz.”

FlexAI, ürününün mevcut versiyonunda bir avuç beta müşteriyle aynı adımları atarken, ilk ticari ürününü bu yılın sonlarında piyasaya sürecek. Temel olarak geliştiricileri “sanal heterojen hesaplamaya” bağlayan bir bulut hizmetidir; bu, iş yüklerini çalıştırabilecekleri ve AI modellerini birden fazla mimariye dağıtabilecekleri, GPU’ları saat başına dolar üzerinden kiralamak yerine kullanım esasına göre ödeme yapabilecekleri anlamına gelir.

GPU’lar yapay zeka geliştirmede hayati önem taşıyan çarklardır; örneğin büyük dil modellerinin (LLM’ler) eğitilmesine ve çalıştırılmasına hizmet eder. Nvidia, GPU alanının önde gelen oyuncularından biri ve tetiklediği yapay zeka devriminden en çok yararlananlardan biri. OpenAI ve ChatGPT. OpenAI’den bu yana geçen 12 ayda Mart 2023’te ChatGPT için bir API başlattıGeliştiricilerin ChatGPT işlevselliğini kendi uygulamalarına dahil etmelerine olanak tanıyan Nvidia’nın hisseleri yaklaşık 500 milyar dolardan 200 milyar dolara yükseldi. 2 trilyon dolardan fazla.

Yüksek Lisans’lar teknoloji endüstrisinden dökülüyorGPU’lara olan talebin de hızla artmasıyla birlikte. Ancak GPU’ların çalıştırılması pahalıdır ve bunları daha küçük işler veya geçici kullanım durumları için bir bulut sağlayıcısından kiralamak her zaman mantıklı değildir ve aşırı derecede pahalı olabilir; bu nedenle AWS, daha küçük AI projeleri için sınırlı süreli kiralamalarla ilgileniyor. Ancak kiralama hala kiralama anlamına geliyor; bu nedenle FlexAI, altta yatan karmaşıklıkları ortadan kaldırmak ve müşterilerin ihtiyaç duyuldukça yapay zeka bilgi işlemine erişmesine izin vermek istiyor.

“Yapay Zeka için Çoklu Bulut”

FlexAI’nin başlangıç ​​noktası çoğu geliştiricinin bunu yapmamasıdır. Gerçekten Nvidia, AMD, Intel, Graphcore veya Cerebras olsun, çoğunlukla kimin GPU’larını veya çiplerini kullandıklarına dikkat edin. Ana endişeleri, bütçe kısıtlamaları dahilinde yapay zekalarını geliştirebilmek ve uygulamalar oluşturabilmektir.

FlexAI’nin “evrensel yapay zeka hesaplama” konsepti burada devreye giriyor; burada FlexAI kullanıcının gereksinimlerini alır ve bunu söz konusu iş için anlamlı olan mimariye tahsis eder, farklı platformlar arasında gerekli tüm dönüşümleri üstlenir. Intel’in Gaudi altyapısı, AMD’nin Rocm’i veya Nvidia’nın CUDA’sı.

Tripathi, “Bu, geliştiricinin yalnızca modelleri oluşturmaya, eğitmeye ve kullanmaya odaklandığı anlamına geliyor” dedi. “Altındaki her şeyle biz ilgileniyoruz. Arızalar, kurtarma, güvenilirlik, hepsi bizim tarafımızdan yönetiliyor ve kullandığınız kadar ödersiniz.”

FlexAI birçok açıdan bulutta halihazırda olup bitenleri yapay zeka için hızlandırmak üzere yola çıkıyor; bu, kullanım başına ödeme modelini kopyalamaktan daha fazlası anlamına geliyor: Bu, farklı avantajlardan yararlanarak “çoklu buluta” geçme yeteneği anlamına geliyor Farklı GPU ve çip altyapılarının

Örneğin FlexAI, önceliklerinin ne olduğuna bağlı olarak müşterinin özel iş yükünü kanalize edecektir. Bir şirketin yapay zeka modellerini eğitmek ve ince ayar yapmak için sınırlı bütçesi varsa, paralarının karşılığını maksimum miktarda bilgi işlem artışı elde etmek için bunu FlexAI platformunda ayarlayabilirler. Bu, daha ucuz (ancak daha yavaş) bilgi işlem için Intel’den geçmek anlamına gelebilir, ancak bir geliştiricinin mümkün olan en hızlı çıktıyı gerektiren küçük bir çalışması varsa, o zaman bunun yerine Nvidia aracılığıyla kanalize edilebilir.

FlexAI temelde bir “talep toplayıcı”dır, donanımı geleneksel yollarla kiralar ve Intel ve AMD’deki kişilerle olan “güçlü bağlantılarını” kullanarak kendi müşteri tabanına yaydığı ayrıcalıklı fiyatları güvence altına alır. Bu mutlaka Nvidia’nın elebaşından geri adım atmak anlamına gelmiyor ancak muhtemelen büyük ölçüde bu anlamına geliyor. Intel ve AMD, GPU artıkları için savaşıyor Nvidia’nın izinden gittiler; FlexAI gibi toplayıcılarla top oynamaları için büyük bir teşvik var.

“Müşteriler için çalışmasını sağlayabilirsem ve altyapılarına onlarca, yüzlerce müşteri getirebilirsem, onlar da [Intel and AMD] çok mutlu olacak,” dedi Tripathi.

Bu, alandaki benzer GPU bulut oynatıcılarının aksine duruyor iyi finanse edilen CoreWeave gibi Ve Lambda Laboratuvarlarıdoğrudan Nvidia donanımına odaklanmıştır.

Tripathi, “Yapay zeka hesaplamasını mevcut genel amaçlı bulut bilişimin olduğu noktaya getirmek istiyorum” dedi. “Yapay zeka üzerinde çoklu bulut yapamazsınız. Belirli bir donanımı, GPU sayısını, altyapıyı, bağlantıyı seçmeniz ve ardından bunların bakımını kendiniz yapmanız gerekir. Bugün yapay zeka hesaplaması elde etmenin tek yolu bu.”

Lansman ortaklarının tam olarak kim olduğu sorulduğunda Tripathi, bazılarının “resmi taahhütlerinin” olmaması nedeniyle hepsinin adını veremediğini söyledi.

“Intel güçlü bir ortak, kesinlikle altyapı sağlıyorlar, AMD de altyapı sağlayan bir ortak” dedi. “Ancak Nvidia ve diğer birkaç silikon şirketi ile henüz paylaşmaya hazır olmadığımız ikinci bir ortaklık katmanı var, ancak bunların hepsi karışım ve Mutabakat Anlaşması’nın içinde. [memorandums of understanding] Şu anda imzalar atılıyor.”

Elon etkisi

Dünyanın en büyük teknoloji şirketlerinden bazılarında çalışmış olan Tripathi, önündeki zorluklarla başa çıkmak için fazlasıyla donanımlı.

“GPU’lar hakkında yeterince bilgim var; Eskiden GPU’lar üretiyordum,” dedi Tripathi, Nvidia’daki yedi yıllık görevi hakkında ve 2007’de Apple’a geçmesiyle sona erdi. ilk iPhone’u piyasaya sürmek. “Apple’da gerçek müşteri sorunlarını çözmeye odaklandım. Apple ilk SoC’lerini oluşturmaya başladığında oradaydım [system on chips] telefonlar için.”

Tripathi ayrıca 2016’dan 2018’e kadar Tesla’da donanım mühendisliği lideri olarak iki yıl geçirdi ve üst düzey iki kişinin aniden şirketten ayrılmasının ardından son altı ayında doğrudan Elon Musk’un altında çalışmaya başladı.

“Tesla’da öğrendiğim ve girişimime kattığım şey, bilim ve fizik dışında hiçbir kısıtlamanın olmadığıdır” dedi. “Bugün işlerin nasıl yapıldığı, olması gerektiği ya da yapılması gerektiği gibi değil. İlk prensiplerden itibaren doğru olanın peşinden gitmeli, bunun için de her kara kutuyu kaldırmalısınız.”

Tripathi dahil oldu Tesla’nın kendi çiplerini üretmeye geçişio zamandan beri yapılan bir hareket GM tarafından taklit edildi Ve Hyundaidiğer otomobil üreticileri arasında.

“Tesla’da yaptığım ilk şeylerden biri, bir arabada kaç tane mikrodenetleyici bulunduğunu bulmaktı ve bunu yapmak için, kelimenin tam anlamıyla, etrafında metal koruyucu ve muhafaza bulunan o büyük kara kutulardan bir demetini ayırmamız gerekiyordu. Tripathi, “Orada bu gerçekten çok küçük mikrodenetleyicileri bulacaksınız” dedi. “Sonunda bunu bir masaya koyduk, ortaya koyduk ve şöyle dedik: ‘Elon, bir arabada 50 mikrodenetleyici var. Ve bazen onlara 1000 kat marj ödüyoruz çünkü bunlar büyük bir metal mahfaza içinde korunuyor ve korunuyor.’ O da ‘Hadi gidip kendimizinkini yapalım’ dedi. Ve biz de bunu yaptık.”

Teminat olarak GPU’lar

Geleceğe baktığımızda FlexAI’nin veri merkezleri de dahil olmak üzere kendi altyapısını oluşturma arzusu da var. Tripathi, bunun borç finansmanı ile finanse edileceğini ve bu alanda rakipler görülen son trendi temel aldığını söyledi. CoreWeave dahil Ve Lambda Laboratuvarları Nvidia çiplerini kullanıyor Daha fazla özsermaye vermek yerine, kredileri güvence altına almak için teminat olarak.

Tripathi, “Bankacılar artık GPU’ları teminat olarak nasıl kullanacaklarını biliyor” dedi. “Neden eşitlikten vazgeçelim ki? Gerçek bir bilgi işlem sağlayıcısı oluncaya kadar şirketimizin değeri, veri merkezleri kurmaya yatırım yapmak için ihtiyaç duyduğumuz yüz milyonlarca doları sağlamaya yeterli değildir. Eğer sadece eşitlik yaparsak, para gittiğinde yok oluruz. Ancak bunu gerçekten teminat olarak GPU’lara yatırırsak, GPU’ları alıp başka bir veri merkezine koyabilirler.”

Yorum gönder