Az Nvidia felkészül az inferencia harcára, egy Groq alapú chipek létrehozásával az OpenAI és AI-ügynökökhöz.

Az Nvidia felkészül az inferencia harcára, egy Groq alapú chipek létrehozásával az OpenAI és AI-ügynökökhöz.

6 hardware

Új Nvidia chipe – lépés a gyorsabb MI‑alkalmazások felé

Az Nvidia tervez egy új processzort bemutatni márciusban, amelyet kifejezetten az inferencia (már betanított modellek számítása) felgyorsítására fejlesztettek ki, és célja olyan ügyfelek, mint az OpenAI. Ez a vállalat irányának megváltoztatása, amely korábban elsősorban a MI‑rendszerek tanítására koncentrált.

Mi fog megjelenni
- Az új platformot a GTC (Graphics Technology Conference) fejlesztői konferencián mutatják be.
- A platform magját egy Groq startup chip fogja alkotni – az egyik leggyorsabb inferencia megoldás.
- A platformnak versenyeznie kell a Google és Amazon saját gyorsítóival, amelyek már jelentős sikereket értek el.

Miért fontos ez
A „web‑kódolás” (MI által generált kód szöveg alapján) népszerűsége növekedésével nő az igény a gyors és energiahatékony infrastruktúrára.

Az OpenAI számára az új processzor kulcsfontosságú tényező:

- Januárban a vállalat megállapodást kötött a Cerebras-szal egy inferencia orientált chipről, amely szerintük gyorsabb a versenytársaknál.
- Az OpenAI közleménye előtt nagy üzletet nyitott meg az Nvidia-val, amely során „dedikált inferencia kapacitásokat” kaptak és 30 milliárd dollárt fektettek be egy „zöld” gyártótól.

Versenykörnyezet
| Vállalat | Termék | Orientáció |
|---|---|---|
| Nvidia | GPU család: Hopper, Blackwell, Rubin | Tanítás és inferencia |
| Google | TPU | Inferencia |
| Amazon | Trainium | Inferencia |
| Cerebras | Speciális chip | Inferencia |
| Groq | „Nyelvi feldolgozó blokkokkal” rendelkező chipek | Inferencia |

Az Nvidia több mint 90 % -os GPU piaci részesedéssel rendelkezik, de chipejét gyakran drága és energiaigényesnek tartják inferenciás feladatokhoz. Ez vonzza a vállalatokat, akik alternatívát keresnek.

Kulcsalkalmazások
- Kódgenerálás: a Claude Code (Anthropic) és Codex (OpenAI) szolgáltatások Amazon és Google felhőinfrastruktúráját használják, de a Codex az új Nvidia platformra tervez átállni.
- Reklám célzás: a Meta együttműködik az Nvidia-val MI‑rendszerek inferenciájához, ahol a központi processzorok a leghatékonyabbak.

Összegzés
Az Nvidia nemcsak bővíti termékvonalát, hanem közvetlenül verseng a szektor óriásaival. Az új Groq-szal integrált chip döntő tényezővé válhat azok számára, akik gyorsabb és költséghatékonyabb MI‑modell feldolgozást keresnek.

Hozzászólások (0)

Oszd meg a véleményed — kérjük, légy udvarias és maradj a témánál.

Még nincsenek hozzászólások. Írj hozzászólást és oszd meg a véleményed!

Hozzászóláshoz kérjük, jelentkezz be.

Jelentkezz be a hozzászóláshoz