Embora o MLX tenha sido originalmente lançado como uma estrutura experimental pela Apple Research, um desenvolvimento silencioso, mas significativo, ocorreu nos últimos meses: Com o lançamento do FileMaker 2025, a Claris integrou firmemente o MLX no servidor como uma infraestrutura de IA nativa para o Apple Silicon. Isto significa que qualquer pessoa que trabalhe com um Mac e utilize o Apple Silicon pode não só executar modelos MLX localmente, mas também utilizá-los diretamente no FileMaker - com funções nativas, sem quaisquer camadas intermédias.
Modelo linguístico
Artigos sobre modelos de linguagem e suas possíveis aplicações. Esta secção trata de GPT, LLaMA, Mistral e outros LLMs - desde os conceitos básicos até às aplicações práticas.
MLX no Apple Silicon como IA local em comparação com o Ollama & Co.
Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.
Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.
Ollama encontra Qdrant: Uma memória local para a sua IA no Mac
IA local com memória - sem nuvem, sem subscrição, sem desvios
Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.
No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.
IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama
A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.