Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet und auf Apple Silicon setzt, kann MLX-Modelle nicht nur lokal ausführen, sondern direkt in FileMaker verwenden – mit nativen Funktionen, ganz ohne Zwischenschichten.
Modelo linguístico
Artigos sobre modelos de linguagem e suas possíveis aplicações. Esta secção trata de GPT, LLaMA, Mistral e outros LLMs - desde os conceitos básicos até às aplicações práticas.
MLX no Apple Silicon como IA local em comparação com o Ollama & Co.
Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.
Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.
Ollama encontra Qdrant: Uma memória local para a sua IA no Mac
IA local com memória - sem nuvem, sem subscrição, sem desvios
Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.
No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.
IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama
Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick ein lokales Sprachmodell auf Ihrem Mac einrichten können. In diesem Artikel finden Sie eine pragmatische Anleitung von der Installation bis zum ersten Prompt – mit Hinweisen aus der Praxis, wo Dinge traditionell gern schiefgehen.