KI auf dem Mac Lokale KI · keine Ausreden

Alle Artikel

6
  1. Setting Up Ollama on Mac Mini M4 — Your Local AI Assistant

  2. Mac Mini M4 als KI-Server — lohnt sich das?

    Kosten, Benchmarks und ehrliche Einschätzung: Lohnt sich der Mac Mini M4 als lokaler KI-Server?

  3. Mac Mini M4 as an AI Server — Is It Worth It?

  4. LM Studio vs. Ollama — Welches Tool für Apple Silicon?

    Praktischer Vergleich von LM Studio und Ollama für Mac-Nutzer mit lokalen LLMs auf Apple Silicon. Installation, Features, Performance und die beste Wahl für deinen Workflow.

  5. LM Studio vs. Ollama — Which One Should You Use on Apple Silicon?

    A practical comparison of LM Studio and Ollama for Mac users running local LLMs on Apple Silicon. Installation, features, performance, and the best choice for your workflow.

Über
diesen
Blog

Ein Tech-Blog über lokale KI auf Apple Silicon Macs. Ich teste Modelle, vergleiche Tools und schreibe Anleitungen — ohne Marketing-Sprech, ohne Buzzwords.

Ehrlich über das, was funktioniert — und was nicht. Keine Cloud, keine Abhängigkeit.

Fokus
  • Ollama
  • LM Studio
  • MLX
  • llama.cpp
  • Apple Silicon M1–M4