Az Ollama mostantól támogatja az Apple M5 chipek hardveres gyorsítását, ha 32 GB RAM van telepítve

Az Ollama mostantól támogatja az Apple M5 chipek hardveres gyorsítását, ha 32 GB RAM van telepítve

18 software

Ollama – a mesterséges intelligencia modellek helyi futtatására szolgáló alkalmazás most gyorsabb az M5 Mac chipeken

Hogyan néz ki
Az új Ollama 0.19 verzió támogatja a következő operációs rendszereket: Windows, macOS, Linux
Hardveres felgyorsítás
Csak Apple M5 chipek (M5 Pro, M5 Max) esetén
Memóriaigény
Minimum 32 GB egyesített RAM

Mi változott
Az Ollama lehetővé teszi a felhasználók számára, hogy mesterséges intelligencia modelleket töltsenek le és futtassanak közvetlenül számítógépükön. Ellentétben az olyan felhőszolgáltatásokkal, mint a ChatGPT, itt nem szükséges állandó internetkapcsolat.

A 0.19-es verzió óta a fejlesztők hozzáadták az Apple MLX – gépi tanulási keretrendszer támogatását, valamint az egyesített memória (Unified Memory Architecture) használatát. Ez lehetővé teszi a modellek gyorsabb futtatását az új Apple M5 chipeken, csökkentve a token első előállításához szükséges időt és növelve a generálás általános sebességét.

Hogyan működik
* Neurális felgyorsítók: Az Ollama kihasználja az M5 chipekben található speciális neurális hálózati blokkokat, ami gyorsabb token kimenetet eredményez.
* Modellek: Gyorsabban futnak a személyes AI-ügynökök (pl. OpenClaw), valamint nagyobb rendszerek – OpenCode, Anthropic Claude Code, OpenAI Codex és mások.

Korlátok
1. A felgyorsítás csak Apple M5 chipeken érhető el (M5 Pro/Max).
2. A számítógépen legalább 32 GB egyesített memória kell legyen; különben a felgyorsítás nem működik.

Tehát, ha Mac géphez M5 chip és elegendő RAM van, jelentősen növelheti az Ollama helyi AI alkalmazás teljesítményét.

Hozzászólások (0)

Oszd meg a véleményed — kérjük, légy udvarias és maradj a témánál.

Még nincsenek hozzászólások. Írj hozzászólást és oszd meg a véleményed!

Hozzászóláshoz kérjük, jelentkezz be.

Jelentkezz be a hozzászóláshoz