Ollama wird schneller auf dem Mac: Apple MLX beschleunigt lokale KI deutlich
Lokale KI-Anwendungen auf dem Mac waren bislang vor allem eines: möglich, aber oft zäh. Gerade größere Sprachmodelle fordern viel Speicher und Rechenleistung, was die Nutzung im Alltag schnell einschränkt. Genau hier setzt ein aktuelles Update an. Die Software Ollama integriert…











