Ollama перешёл на Apple MLX — инференс LLM на Mac стал вдвое быстрее
Ollama 0.19 использует Apple MLX вместо llama.cpp на Mac — скорость инференса LLM на Apple Silicon вырастает до 2x. Разбираем бенчмарки и как обновиться.
— Читать дальше «Ollama перешёл на Apple MLX — инференс LLM на Mac стал вдвое быстрее»
