MLX no Apple Silicon como IA local em comparação com o Ollama & Co.

IA local no Mac com MLX

Numa altura em que os serviços centralizados de IA, como o ChatGPT, o Claude ou o Gemini, estão a dominar as manchetes, muitos utilizadores profissionais têm uma necessidade crescente de uma alternativa - uma infraestrutura de IA local e auto-controlável. Especialmente para processos criativos, dados sensíveis ou fluxos de trabalho recorrentes, uma solução local é frequentemente a opção mais sustentável e segura.

Qualquer pessoa que trabalhe com um Mac - especialmente com o Apple Silicon (M1, M2, M3 ou M4) - pode agora encontrar ferramentas incrivelmente poderosas para executar os seus próprios modelos linguísticos diretamente no dispositivo. No centro de tudo isto está um novo componente, em grande parte desconhecido: MLX, uma estrutura de aprendizagem automática desenvolvida pelo Apple que irá provavelmente desempenhar um papel cada vez mais central no ecossistema de IA da empresa nos próximos anos.

Ler mais

RAG com Ollama e Qdrant como motor de pesquisa universal para dados próprios

Alargar a IA local com bases de dados utilizando RAG, Ollama e Qdrant

Num mundo de informação cada vez mais confuso, é cada vez mais importante tornar as suas próprias bases de dados pesquisáveis de forma direcionada - não através de pesquisas clássicas de texto integral, mas através de respostas semanticamente relevantes. É exatamente aqui que entra em jogo o princípio da base de dados RAG - uma solução de pesquisa apoiada por IA que consiste em dois componentes centrais:

Ler mais

Ollama encontra Qdrant: Uma memória local para a sua IA no Mac

Memória para IA local com Ollama e Qdrant

IA local com memória - sem nuvem, sem subscrição, sem desvios

Num artigos anteriores Expliquei como configurar o Ollama no Mac install. Se já tiver concluído este passo, tem agora um modelo de língua local poderoso - como o Mistral, LLaMA3 ou outro modelo compatível que pode ser abordado através da API REST.

No entanto, o modelo apenas "sabe" o que está no prompt atual. Não se lembra de conversas anteriores. O que falta é uma memória.

Ler mais

IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama

A IA local no Mac há muito que é prática - especialmente nos computadores Apple-Silicon (série M). Com o Ollama obtém-se um ambiente de execução simples para muitos modelos de linguagem de código aberto (por exemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). A versão atual do Ollama vem agora também com uma aplicação de fácil utilização que lhe permite configurar um modelo linguístico local no seu Mac com um simples clique do rato. Neste artigo, encontrará um guia pragmático desde a instalação até ao primeiro aviso - com dicas práticas sobre os pontos onde tradicionalmente as coisas tendem a correr mal.

Ler mais

Atravessar a crise com clareza: como a IA abre novas perspectivas

Livro "As crises como pontos de viragem - aprender, crescer, moldar

As crises fazem parte da vida. Mas, embora muitos as encarem como uma interrupção dolorosa ou mesmo como um revés pessoal, o Markus Schall apresenta uma perspetiva diferente neste livro extraordinário: Se bem compreendidas, as crises podem tornar-se pontos de viragem profundos. Oportunidades que permitem o crescimento. E momentos em que os nossos pensamentos, acções e sentimentos podem ser reorganizados.

Com um sentido apurado da experiência humana, combinado com a sabedoria da vida prática e o uso reflexivo da IA, o autor leva o leitor numa viagem pelas paisagens interiores - sem apontar o dedo, mas com um encorajamento sincero. O livro não pretende ser um trabalho académico, mas um companheiro de vida real para quem quer reorientar-se - seja após uma separação, doença, dificuldades financeiras ou convulsões sociais.

Ler mais