A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.
Vantagens da IA local em relação aos sistemas em nuvem
Um modelo de idioma local como o Ollama no Mac oferece vantagens decisivas que são difíceis de superar, especialmente para empresas, programadores e utilizadores preocupados com a proteção de dados.
Soberania e proteção dos dados
Todos os pedidos de informação e respostas permanecem completamente no seu próprio computador. As informações sensíveis - dados de clientes, documentos de estratégia interna ou dados médicos - nunca saem do sistema local. Não existem ficheiros de registo ou mecanismos de análise de um fornecedor de serviços na nuvem que possam ser analisados inadvertida ou intencionalmente.
Sem dependência de serviços de terceiros
Os sistemas em nuvem podem alterar os modelos de preços, introduzir restrições de acesso ou desativar funcionalidades individuais. Com uma instalação local, o utilizador tem controlo total sobre o ambiente de execução, as versões e as variantes do modelo. As actualizações são efectuadas quando se pretende e não quando o fornecedor o determina.
Custos calculáveis
Em vez de taxas contínuas por pedido ou mês, faz um investimento único em hardware (por exemplo, um Mac com RAM suficiente) e depois trabalha com o modelo indefinidamente. Para tarefas de computação intensiva, pode expandir o hardware de forma direcionada sem se preocupar com o aumento das contas da API.
Capacidade offline
Um modelo local também funciona quando não está disponível uma ligação à Internet - por exemplo, em viagem, em estaleiros de construção ou em redes altamente seguras sem acesso externo.
Elevada flexibilidade e integração nos sistemas existentes
Outra vantagem dos sistemas locais de IA é a sua capacidade de integração. Como o Ollama fornece um servidor API local, quase todas as aplicações podem ser ligadas - desde simples scripts a complexos sistemas ERP.
Ligação FileMaker
Usando a API Ollama, o FileMaker pode enviar prompts diretamente para o modelo e armazenar respostas em campos com apenas algumas linhas de código de script ou através de chamadas de plugin MBS. Isso permite que análises automatizadas de texto, classificações, traduções ou resumos de conteúdo sejam implementados inteiramente no FileMaker - sem latência na nuvem e sem riscos de proteção de dados.
Fluxos de trabalho automatizados
O ponto de extremidade da API local também permite a integração de ferramentas como Zapier, n8n ou scripts Python/bash personalizados. Isto permite a automatização de processos complexos, como a extração de informações de mensagens de correio eletrónico, a geração de relatórios ou a criação de módulos de texto para documentos.
Controlo total sobre as variantes do modelo
É possível executar vários modelos em paralelo, alternar entre eles ou carregar modelos de compartimentos especiais optimizados para o seu projeto. As personalizações, como a afinação ou os modelos LoRA, também podem ser efectuadas localmente.
Vantagem prática: velocidade de reação e latência
Um fator que é frequentemente subestimado é a velocidade de resposta. Enquanto os LLM na nuvem são frequentemente atrasados por caminhos de rede, limites de API ou carga do servidor, os modelos locais - dependendo do hardware - respondem quase em tempo real. Especialmente com tarefas repetitivas ou processos interactivos (por exemplo, durante uma apresentação ou análise de dados em direto no FileMaker), isto pode fazer a diferença entre "trabalho tranquilo" e "frustração de espera".
Que hardware é adequado para executar modelos de língua local, que modelos têm que vantagens e que Comparação entre Apple Silicon e NVIDIA foram objeto de um artigo separado.
Inquérito atual sobre a utilização de sistemas locais de IA
1) Pré-requisitos e condições gerais
macOS 12 "Monterey" ou mais recente (recomendado: Sonoma/Sequoia mais recente). A transferência oficial do macOS requer o Monterey+. ollama.com
Apple Silicon (M1-M4) de preferência. Também funciona em Macs Intel, mas Apple-Silicon é muito mais eficiente; modelos grandes precisam de muita memória RAM/unificada. (Para tamanhos de biblioteca/modelo, veja a biblioteca Ollama.) ollama.com
A porta 11434 é utilizada localmente para a API. Anote a porta - ela é importante para testes e integrações posteriores. GitHubollama.readthedocs.io
O conselho cético, segundo a boa e velha tradição: "Instalar e avançar" geralmente funciona - os estrangulamentos são o espaço RAM/disco (ficheiros GGUF grandes), a variante de modelo errada ou processos paralelos que bloqueiam a porta.
2) Ollama installieren (Mac)
Tem duas formas simples - instalador GUI ou Homebrew. Ambas estão corretas; escolha o estilo que mais se adequa ao seu dia a dia.
OPÇÃO A: INSTALADOR OFICIAL DO MACOS (DMG)
Descarregar o Ollama para macOS do sítio oficial.
Abrir o DMG, arrastar a aplicação para "Programas", iniciar.
(Requer macOS 12+.) ollama.com
Se utilizar esta variante 1TP12, pode utilizar diretamente o software macOS para descarregar o modelo. Todos os comandos de terminal seguintes referem-se apenas à possibilidade de automatizar o modelo linguístico através de um script.
VARIANTE B: HOMEBREW (CLI, SCRIPTÁVEL LIMPO)
Abra o terminal e (se necessário) actualize o Homebrew:
brew update
Barril (Variante da aplicação) 1TP12Animais:
brew install --cask ollama-app
(Normalmente mostra a aplicação de ambiente de trabalho atual; a partir de hoje 0.11.x.) Homebrew Fórmulas
Ou a fórmula (pacote CLI) installieren:
brew install ollama
(Binários disponíveis para Apple-Silicon/Intel.) Homebrew Fórmulas
Verificar versão:
ollama --version
(Os comandos básicos e as variantes estão documentados na documentação oficial e no repositório do GitHub). GitHub
3) Iniciar e testar o serviço/servidor
O Ollama é fornecido com um servidor local. Se necessário, inicie-o explicitamente:
ollama serve
Se o serviço já estiver em execução (por exemplo, através da aplicação), o shell pode informar que a porta 11434 está a ser utilizada - então está tudo bem.
O servidor escuta http://localhost:11434 por defeito.
Teste de função no browser:
Chamada http://localhost:11434/ - a instância deve responder (algumas instruções utilizam esta verificação porque a porta está ativa por defeito). Médio
Cuidado tradicional: se nada responder, um processo antigo ou uma suite de segurança está frequentemente a bloquear. Verifique se um segundo terminal ainda está em execução com ollama serve - ou saia/reinicie a aplicação.
4) Carregar e utilizar o modelo da primeira língua
4.1 PUXAR O MODELO OU INICIAR DIRECTAMENTE (EXECUTAR)
Utilizar diretamente (puxar + correr num só):
ollama run llama3.1
Apenas descarregar:
ollama pull llama3.1
O repositório oficial mostra os comandos comuns (run, pull, list, show, ps, stop, rm) e exemplos com Llama 3.2, entre outros; idêntico para Llama 3.1, Mistral, Gemma etc. GitHubnotes.kodekloud.comglukhov.org
Mais páginas de modelos / biblioteca:
Llama 3 / 3.1 / 3.2 em diferentes tamanhos (1B-405B; naturalmente, as variantes grandes estão disponíveis numa versão altamente quantificada). Basta chamar o Sítio Web de Ollama para encontrar outros modelos e installiere-os no seu Mac.
4.2 CHAT INTERACTIVO (TERMINAL)
Por exemplo, iniciar o Llama 3.1 em modo de conversação:
ollama run llama3.1
Em seguida, digite diretamente:
É um assistente útil. Explique-me em duas frases o que é um índice numa base de dados.
Sair com Ctrl+D.
Ao iniciar a aplicação Ollama no seu Mac, também pode selecionar diretamente um modelo e introduzir uma mensagem. Se o modelo ainda não estiver disponível no seu Mac, será descarregado automaticamente.

4.3 GERIR MODELOS
# Quais são os modelos disponíveis no local?
ollama list
# Ver pormenores/quantificação/etiquetas:
ollama show llama3.1
# Verificar os processos do modelo em curso:
ollama ps
# Modelo de paragem de funcionamento:
ollama stop llama3.1
# Limpar espaço (apagar modelo):
ollama rm llama3.1
(Os comandos são idênticos em várias visões gerais actuais documentado.) notes.kodekloud.comBlog de Geshanglukhov.org
5) Utilizar a API HTTP localmente (por exemplo, para scripts, ferramentas, integrações)
O Ollama oferece uma API REST (por defeito http://localhost:11434). Exemplo de chamadas:
Gerar (prompt simples):
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Erkläre kurz den Unterschied zwischen RAM und SSD.",
"stream": false
}'
Chat (baseado em funções):
curl http://localhost:11434/api/chat -d '{
"model": "llama3.1",
"messages": [
{ "role": "system", "content": "Du antwortest knapp und sachlich." },
{ "role": "user", "content": "Was ist eine Normalisierung in Datenbanken?" }
],
"stream": false
}'
(Os pontos finais, o comportamento de fluxo contínuo e os campos são descritos no documento oficial Documentação da API/GitHub descrito).
Sugestão de acessibilidade:
Localmente, tudo é acessível através do localhost.
Se o Mac tiver de ser acessível na LAN, associe deliberadamente o Ollama a um endereço de rede, por exemplo
export OLLAMA_HOST=0.0.0.0 ollama serve
(O servidor pode então ser acedido através do IP na rede. Verifique o aspeto da segurança!) Reddit
Conteúdo misto/HTTPS (apenas se as integrações do navegador não estiverem a funcionar):
Alguns add-ins/navegadores (especialmente o Safari) bloqueiam chamadas HTTP a partir de contextos HTTPS. Nesses casos, um proxy reverso local com HTTPS ajuda.
6) Conselhos práticos para o Mac (experiência e cuidados conservadores)
- Começar de forma conservadora com a seleção de modelosComece com quantificações mais pequenas (por exemplo, variantes de 4 bits), verifique a qualidade e, em seguida, aumente lentamente a escala.
- Manter a memória e o disco debaixo de olho: Os modelos grandes ocupam vários GB - o programa ollama ajuda na categorização. notes.kodekloud.com
- Apple-Silicon e metalO Ollama utiliza a aceleração Apple (Metal) no Mac. Podem ocorrer erros de driver/Metal com compilações de modelos muito recentes - mantenha o Ollama atualizado e esteja atento aos problemas conhecidos. GitHub
- Conflitos portuáriosSe o ollama serve reclamar, a aplicação ou outro processo já está a escutar o 11434 - feche a aplicação ou pare o servidor CLI. postman.com
7) Fluxos de trabalho mínimos frequentes (copiar e colar)
A) Newinstallation & first chat (Llama 3.1)
# Installation (eine Variante wählen) brew install --cask ollama-app # oder brew install ollama# Server starten (falls App nicht läuft) ollama serve # Erstes Modell testen ollama run llama3.1
("run" carrega o modelo se este ainda não existir.) Homebrew Formulae+1GitHub
B) Preparar o modelo offline (retirar primeiro, utilizar depois)
ollama pull mistral ollama show mistral ollama run mistral
("mistral" é um modelo comum e compacto - bom para testes iniciais).
C) Integração da API num script/ferramenta
curl http://localhost:11434/api/generate -d '{
"modelo": "llama3.1",
"prompt": "Dê-me três razões conservadoras para preferir a documentação à automatização."
}‘
(Os exemplos de API são 1:1 do referência oficial retirado de)
8) Onde posso encontrar modelos?
A biblioteca Ollama contém modelos selecionados com etiquetas/tamanhos (Llama 3.1/3.2, Gemma, Qwen, etc.). Escolha deliberadamente de acordo com a finalidade (chat, ferramentas, embeddings) e o tamanho. Pode criar novos modelos diretamente na aplicação Ollama no Mac ou na aplicação Sítio Web de Ollama encontrar.
9) O que fazer quando as coisas correm mal?
- lista ollama / ollama ps verificar: O modelo pretendido está disponível/ativo?
- ollama show Ver: Que quantização/tamanho foi carregado? Isso corresponde à RAM do Mac? notes.kodekloud.com
Atualização:
brew upgrade ollama ollama-app
Ver problemas: Ocorrem ocasionalmente erros de metal, especialmente com modelos/funcionalidades muito novos; uma atualização ou mudança de variante do modelo ajuda frequentemente.
10) Alternativas com conforto Mac (GUI)
Se preferir utilizar uma interface gráfica com mais opções ou quiser navegar/trocar de modelos:
Estúdio LM - um popular frontend para Mac com downloader integrado, interface de chat e servidor API local. Página de download e notas de lançamento ligadas. LM Studio+1Uptodown
(Existem também UIs de terceiros, como o Open WebUI, que podem ser conectados ao Ollama - mas para a maioria das configurações do Mac, Ollama + Terminal ou LM Studio é suficiente).
Com o Ollama, pode configurar um ambiente LLM local no Mac em apenas alguns minutos - de uma forma clássica, compreensível e sem dependência da nuvem. Siga os passos testados e comprovados (Installer/Brew → ollama serve → ollama run), verifique os recursos e trabalhe de pequeno a grande porte. Se você prefere clicar a digitar, o LM Studio é uma alternativa sólida no Mac. ollama.comGitHubLM Studio
Boa sorte - e mantenha-se crítico com um sistema: primeiro documente corretamente, depois automatize.
Nova série de artigos: Utilizar a exportação de dados do ChatGPT como uma memória pessoal de IA
Se já tem uma IA local com o Ollama no Mac installiert, pode dar o passo seguinte: construir o seu próprio sistema de conhecimento. Numa nova série de artigos, vou mostrar-lhe como o Utilizar a exportação de dados do ChatGPT para criar uma base de dados de conhecimentos pessoais. Em vez de as conversas desaparecerem no histórico do chat, podem ser exportadas, processadas de forma estruturada e integradas numa base de dados vetorial. Isto cria uma IA que pode aceder aos seus próprios pensamentos, ideias e análises. A série acompanha-o passo a passo ao longo de todo o processo - desde a exportação de dados até à incorporação e integração num sistema RAG. Desta forma, simples histórias de conversação tornam-se gradualmente uma memória digital para a sua própria IA.
Perguntas mais frequentes
- O que significa realmente „IA local“ e por que razão devo executar um modelo linguístico no meu próprio Mac?
A IA local significa que um modelo linguístico é executado inteiramente no seu próprio computador, em vez de aceder a servidores externos através de uma ligação à Internet. O modelo é operado localmente 1TP12 e processa os seus dados diretamente no seu dispositivo. As principais vantagens são a proteção dos dados, o controlo e a independência: os dados não saem do seu computador, não há custos de API nem dependência de fornecedores de serviços na nuvem. Ao mesmo tempo, o utilizador pode personalizar o sistema de acordo com as suas próprias necessidades, integrar os seus próprios dados ou até desenvolver os seus próprios fluxos de trabalho. Para muitos utilizadores - como programadores, autores ou empresas com dados sensíveis - a IA local é, portanto, uma alternativa particularmente interessante aos serviços em nuvem. - Que vantagens oferece o Ollama em relação a outras ferramentas para modelos linguísticos locais?
O Ollama tornou-se rapidamente uma das ferramentas mais populares para a IA local, porque simplifica bastante muitas etapas complexas. Em vez de descarregar, configurar e iniciar modelos manualmente, o Ollama assume estas tarefas automaticamente. Um modelo de linguagem pode normalmente ser criado e iniciado com um único comando install. O Ollama também oferece uma API REST para que os modelos possam ser facilmente integrados em seus próprios programas - como scripts, bancos de dados ou aplicativos. Isso torna o Ollama adequado tanto para iniciantes que desejam testar um modelo rapidamente quanto para desenvolvedores que desejam integrar a IA local em seus próprios projetos de software. - Quais os requisitos que o meu Mac tem de cumprir para executar um modelo linguístico localmente?
Para obter bons resultados, recomendamos um Mac com um processador Apple-Silicon (M1, M2, M3 ou mais recente). Estes chips têm uma arquitetura particularmente adequada para cálculos de IA, por exemplo, através de estruturas de memória partilhada e aceleração de GPU. Também é importante ter memória suficiente e espaço de armazenamento livre suficiente, uma vez que os modelos de linguagem podem ter vários gigabytes de tamanho. Os modelos mais pequenos já funcionam em dispositivos com memória moderada, ao passo que os modelos maiores requerem muito mais RAM. Uma versão actualizada do macOS também é útil, uma vez que muitas ferramentas de IA são optimizadas para bibliotecas de sistemas modernos. - Que modelos de línguas posso utilizar com o Ollama no meu Mac?
O Ollama suporta uma série de modelos linguísticos modernos de fonte aberta. Estes incluem, por exemplo, variantes de Llama, Mistral, Gemma ou Qwen. Estes modelos diferem em tamanho, desempenho e estilo. Alguns são bastante compactos e funcionam rapidamente em computadores mais pequenos, outros são maiores e fornecem respostas mais complexas. A grande vantagem: pode experimentar e comparar diferentes modelos com relativa facilidade, sem ter de reconstruir a sua infraestrutura. Isto cria um ambiente flexível no qual pode escolher o modelo que melhor se adapta às suas tarefas. - Quão complicada é realmente a instalação de um modelo de língua local com o Ollama?
A instalação tornou-se muito mais fácil do que era há alguns anos. Em muitos casos, o processo consiste em apenas alguns passos: Primeiro instala o installier Ollama no seu Mac, depois descarrega um modelo de linguagem e inicia-o através do terminal ou de uma interface gráfica. O modelo é preparado automaticamente e pode então ser utilizado diretamente. Muitos utilizadores ficam surpreendidos com a rapidez com que este processo funciona. Mesmo sem conhecimentos técnicos aprofundados, é possível criar um sistema de IA local funcional em poucos minutos. - Porque é que a IA local funciona particularmente bem em Macs Apple-Silicon?
Os processadores Apple-Silicon foram desenvolvidos a pensar nas tarefas de computação modernas, incluindo a aprendizagem automática. Utilizam a chamada arquitetura de memória unificada, na qual a CPU, a GPU e outras unidades de computação utilizam a mesma memória. Isto permite que grandes quantidades de dados sejam processadas de forma mais eficiente. Esta é uma grande vantagem para os modelos de IA, uma vez que os modelos de linguagem têm de aceder constantemente a grandes estruturas de dados durante a inferência. Ferramentas como o Ollama ou o MLX utilizam esta arquitetura de forma orientada e obtêm um desempenho surpreendentemente bom, mesmo sem uma placa gráfica dedicada. - Com que rapidez é que um modelo de língua local funciona num Mac?
A velocidade depende principalmente de três factores: o modelo utilizado, a RAM do Mac e o desempenho do processador. Os modelos mais pequenos reagem frequentemente quase em tempo real, enquanto os modelos maiores podem funcionar mais lentamente. No entanto, os Macs Apple-Silicon são surpreendentemente potentes e podem executar muitos modelos populares com facilidade. Para projectos experimentais ou processos de trabalho pessoais, o desempenho é normalmente mais do que suficiente. Se necessitar de respostas particularmente rápidas, pode utilizar modelos mais pequenos ou mais comprimidos. - Posso também trabalhar offline com uma IA local?
Sim, essa é uma das maiores vantagens. Uma vez descarregado o modelo, deixa de ser necessária uma ligação à Internet. Todos os cálculos são efectuados diretamente no seu Mac. Isto significa que também pode utilizar a IA em movimento, sem uma rede ou em ambientes isolados. Para muitas aplicações profissionais - como documentos sensíveis ou análises internas - esta capacidade offline é uma vantagem decisiva. - Quão seguros estão os meus dados se eu operar um modelo linguístico localmente?
Se o modelo for executado completamente a nível local, os seus dados permanecem sempre no seu computador. Não há transferência automática para servidores externos. Isto significa que pode trabalhar com textos confidenciais sem ter de se preocupar com o armazenamento na nuvem ou com o acesso não autorizado. Naturalmente, a segurança continua a depender da configuração do seu sistema - por exemplo, se outros programas têm acesso aos seus dados. Mas, basicamente, uma IA local oferece um controlo significativamente maior sobre a sua própria informação. - Posso treinar ou alargar um modelo de língua local com os meus próprios dados?
Sim, é possível, mas normalmente não diretamente através do sistema de base. Muitos utilizadores combinam modelos linguísticos locais com os chamados sistemas RAG ou bases de dados para integrar os seus próprios conteúdos. Isto implica a análise de documentos ou textos e o seu armazenamento numa base de dados vetorial. O modelo linguístico pode posteriormente aceder a este conteúdo e incorporá-lo nas suas respostas. Desta forma, uma IA pode especializar-se no seu próprio conhecimento sem ter de reciclar completamente o próprio modelo. - Qual é a diferença entre um modelo linguístico e uma aplicação de IA como o ChatGPT?
Um modelo linguístico é basicamente apenas o „motor“ da IA - a rede neural que analisa e gera textos. Serviços como o ChatGPT, por outro lado, são plataformas completas que combinam um modelo com uma interface de utilizador, uma infraestrutura de nuvem e funções adicionais. Se utilizar um modelo linguístico localmente installier, trabalha diretamente com este sistema central. Isto dá-lhe mais controlo, mas também tem de decidir por si próprio quais as ferramentas ou interfaces adicionais que pretende utilizar. - Quanto espaço de armazenamento é necessário para um modelo de idioma local no Mac?
O tamanho de um modelo de linguagem pode variar muito. Os modelos pequenos requerem apenas alguns gigabytes de memória, enquanto as variantes maiores podem ocupar muito mais espaço. A RAM também é necessária para carregar o modelo durante a execução. No entanto, para muitas aplicações práticas, são suficientes modelos compactos que utilizem relativamente pouca memória e que sejam surpreendentemente poderosos. - Posso executar vários modelos no meu Mac 1TP12 ao mesmo tempo?
Sim, esta é de facto uma grande vantagem dos ambientes de IA locais. Pode descarregar vários modelos e iniciá-los conforme necessário. Alguns são mais adequados para textos criativos, outros para análises técnicas ou códigos de programas. Esta flexibilidade permite-lhe utilizar o seu ambiente de IA como uma caixa de ferramentas e escolher o modelo que melhor se adequa à tarefa em causa. - O Ollama também pode ser integrado nos vossos próprios programas?
Sim, o Ollama oferece uma interface de programação de aplicações (API) que outras aplicações podem utilizar para aceder ao modelo de linguagem. Isto permite-lhe integrar a IA local nos seus próprios projectos - por exemplo, em scripts, automatizações ou sistemas de bases de dados. Os programadores utilizam frequentemente esta opção para criar assistentes de IA personalizados ou para acrescentar funções inteligentes ao software existente. - Um modelo linguístico local é tão poderoso como os grandes modelos na nuvem?
Em muitos casos, não é bem assim - pelo menos quando se comparam modelos muito grandes com milhares de milhões de parâmetros. Os fornecedores de serviços de computação em nuvem utilizam hardware extremamente potente e podem, por conseguinte, executar modelos de grande dimensão. Os modelos locais são frequentemente mais compactos para poderem ser executados num computador normal. No entanto, são incrivelmente potentes para muitas tarefas práticas e podem escrever, analisar ou estruturar textos. Este desempenho é completamente suficiente para muitos processos de trabalho. - Porque é que cada vez mais pessoas estão interessadas em IA local em vez de serviços em nuvem?
Uma razão importante é o controlo dos dados e da infraestrutura. Muitos utilizadores não querem transferir permanentemente os seus conteúdos para serviços externos. Os sistemas locais também podem ser mais baratos a longo prazo, porque não há custos contínuos de API. Para os programadores e utilizadores com conhecimentos técnicos, existe uma outra vantagem: podem conceber e experimentar eles próprios o seu ambiente de IA. Isto cria uma nova forma de soberania técnica. - Posso combinar uma IA local com outros sistemas mais tarde?
De facto, esta é uma das possibilidades mais interessantes. Os modelos linguísticos locais podem ser ligados a bases de dados, plataformas de automatização ou aos seus próprios programas. Isto pode resultar em fluxos de trabalho complexos - como sistemas que analisam documentos, resumem conteúdos ou recuperam conhecimentos das suas próprias bases de dados. Estas combinações constituem frequentemente a base de assistentes de IA personalizados ou de ferramentas de análise automatizadas. - Para quem é que uma IA local no Mac é particularmente útil?
É particularmente interessante para programadores, autores, analistas e empresas que trabalham regularmente com textos ou dados. A IA local é também uma opção interessante para os utilizadores com experiência em tecnologia que pretendem controlar eles próprios a sua infraestrutura digital. Permite utilizar a moderna tecnologia de IA sem estar dependente de grandes plataformas. Em Macs potentes, em particular, isto cria um ambiente que pode ser surpreendentemente versátil e produtivo.











