Apmeklētājiem elektronikā 2024

Rezervējiet savu laiku tūlīt!

Viss, kas nepieciešams, ir daži klikšķi, lai rezervētu savu vietu un iegūtu kabīnes biļeti

C5 Hall 220 kabīne

Iepriekšēja reģistrācija

Apmeklētājiem elektronikā 2024
Jūs visi reģistrējaties! Paldies, ka norunājāt tikšanos!
Kad būsim pārbaudījis jūsu rezervāciju, mēs jums nosūtīsim kabīnes biļetes pa e -pastu.
Mājas > Jaunumi > Amazon palielina centienus izveidot pielāgotas AI mikroshēmas, samazinot atkarību no Nvidia
RFQs/pasūtījums (0)
Latviešu
Latviešu

Amazon palielina centienus izveidot pielāgotas AI mikroshēmas, samazinot atkarību no Nvidia


Amazon gatavojas sākt savu jaunāko mākslīgā intelekta (AI) mikroshēmu, jo lielais tehnoloģiju konglomerāts cenšas gūt peļņu no miljardiem dolāru pusvadītāju ieguldījumos un samazināt tās paļaušanos uz tirgus līderi Nvidia.

Amazon mākoņdatošanas nodaļas vadītāji lielā mērā iegulda pielāgotās mikroshēmās, cerot uzlabot savu desmitiem datu centru efektivitāti un galu galā samazināt izmaksas sev un Amazon AWS klientiem.

Šo darbu vada Annapurna Labs, mikroshēmas starta, kas atrodas Ostinā, kuru Amazon iegādājās par 350 miljoniem USD 2015. gada sākumā. Paredzams, ka Annapurna jaunākie sasniegumi tiks demonstrēti decembrī, kad Amazon paziņos par plaši izplatīto “Trainium 2” pieejamību, kas 2 ”, kas 2”, kas 2 ", kas ir 2", kas 2 ", kas 2", kas 2 ", kas ir 2", ir plaša pieejamība, kas 2 ", kas 2", kas 2 ", kas ir 2", kas ir 2 ".ir daļa no AI mikroshēmu sērijas, kas paredzēta lielāko modeļu apmācībai.

Trainium 2 jau tiek pārbaudīts Anthropic (Openai konkurents, kurš ir saņēmis 4 miljardus dolāru par atbalstu no Amazon), kā arī Vnet, Deutsche Telekom, Ricoh Japan un Stockmark.

Amazon AWS un Annapurna mērķis ir konkurēt ar NVIDIA, kas ir kļuvusi par vienu no pasaules vērtīgākajiem uzņēmumiem, pateicoties dominējošajai pozīcijai AI mikroshēmu tirgū.

Mēs ceram, ka būs labākā vieta NVIDIA mikroshēmu vadīšanai, "sacīja Deivs Brauns, Amazon AWS skaitļošanas un tīkla pakalpojumu viceprezidents.Citas profesionālās AI mikroshēmas "Cefinentia" ir samazinājušas darbības izmaksas par 40%, un to var izmantot reaģējošiem ģeneratīviem AI modeļiem.

Tagad Amazon sagaida, ka kapitāla izdevumi 2024. gadā ir aptuveni 75 miljardi USD, lielākoties virzoties uz tehnoloģiju infrastruktūru.Uzņēmuma jaunākā ieņēmumu konferences zvana laikā izpilddirektors Andijs Jassijs paziņoja, ka sagaida, ka uzņēmumam 2025. gadā būs vairāk izdevumu.

Tas ir pieaugums, salīdzinot ar pilnu gadu izdevumiem - 48,4 miljardi ASV dolāru 2023. gadā. Lielākie mākoņu pakalpojumu sniedzēji, ieskaitot Microsoft un Google, lielā mērā iegulda mākslīgajā intelektā, un šī tendence parāda mazu vājināšanos.

Amazon, Microsoft un Meta ir visi galvenie NVIDIA klienti, taču viņi arī izstrādā savas datu centra mikroshēmas, lai liktu pamatu AI izaugsmes vilnim, ko viņi paredz.

Daniels Ņūmens no Futurum Group sacīja: "Katrs lielais mākoņu pakalpojumu sniedzējs dedzīgi mainās uz lielāku vertikalitāti un, ja iespējams, virzās uz viendabīgu un integrētu“ čipu tehnoloģijas ”kaudzi

Ņūmens norādīja, ka "no Openai līdz Apple, visi cenšas izveidot savas mikroshēmas", jo viņi meklē "zemākas ražošanas izmaksas, lielāku peļņas normu, augstāku pieejamību un lielāku kontroli".

Pēc AWS "Nitro" drošības mikroshēmas izveidošanas Annapurna ir izstrādājusi vairākas paaudzes Graviton-uz rokas balstītu centrālo apstrādes vienību (CPU), kas nodrošina mazjaudas alternatīvu tradicionālajiem servera lieldatoriem, ko nodrošina Intel vai AMD.

Techinsights analītiķis G Dan Hutcheson sacīja: “Viena no galvenajām AWS priekšrocībām ir tā, ka viņu mikroshēmas var izmantot mazāk enerģijas, un viņu datu centri var būt efektīvāki”, tādējādi samazinot izmaksas.Viņš sacīja, ka, ja NVIDIA grafikas apstrādes vienība (GPU) ir jaudīgs vispārējas nozīmes rīks (tādām automašīnām kā stacijas vagoni), tad Amazon var optimizēt savas mikroshēmas īpašiem uzdevumiem un pakalpojumiem (piemēram, kompaktiem vai hečbeka automašīnām).

Tomēr līdz šim AWS un Annapurna diez vai ir novājinājuši Nvidia dominējošo stāvokli AI infrastruktūrā.

NVIDIA AI datu centra mikroshēmu pārdošanas ieņēmumi 2024. gada otrajā ceturksnī sasniedza USD 26,3 miljardus. Šis skaitlis ir tāds pats kā visas AWS nodaļas ieņēmumi, ko Amazon paziņoja otrajā ceturksnī.Tiek ziņots, ka tikai nelielu daļu no tā var attiecināt uz klientiem, kuri darbojas AI darba slodzēs Annapurna infrastruktūrā.

Kas attiecas uz neapstrādātu AWS mikroshēmu un NVIDIA mikroshēmu veiktspēju, Amazon izvairās no tiešiem salīdzinājumiem un neiesniedz savas mikroshēmas neatkarīgiem veiktspējas etaloniem.

Moor Insights & Strategy CHIP konsultants Patriks Moorhead uzskata, ka Amazon prasība par četrkārtīgu veiktspējas uzlabošanos starp Trainium 1 un Trainium 2 ir precīza, jo viņš gadiem ilgi pārskata uzņēmumu.Bet veiktspējas dati var nebūt tik svarīgi kā vienkārši nodrošināt klientiem lielāku izvēli.

Cilvēki novērtē visus jauninājumus, ko ienes Nvidia, bet neviens nevēlas redzēt, kā Nvidia aizņem 90% no tirgus daļas, "viņš piebilda."Šī situācija nebūs pārāk ilga

Izvēlēties valodu

Noklikšķiniet uz vietas, lai izietu