{"id":3461,"date":"2025-11-12T08:31:02","date_gmt":"2025-11-12T08:31:02","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=3461"},"modified":"2026-04-23T08:58:38","modified_gmt":"2026-04-23T08:58:38","slug":"apple-mlx-vs-nvidia-como-funciona-a-inferencia-local-de-ki-no-mac","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/pt\/2025\/11\/apple-mlx-vs-nvidia-como-funciona-a-inferencia-local-de-ki-no-mac\/","title":{"rendered":"Apple MLX vs. NVIDIA: Como funciona a infer\u00eancia local de IA no Mac"},"content":{"rendered":"<p>Atualmente, quem trabalha com intelig\u00eancia artificial pensa frequentemente no ChatGPT ou em servi\u00e7os online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que \u00e9 facilmente esquecido: Cada entrada, cada frase, cada palavra viaja atrav\u00e9s da Internet para servidores externos. \u00c9 a\u00ed que o trabalho real \u00e9 feito - em computadores enormes que nunca chegamos a ver.<\/p>\n<p>Em princ\u00edpio, um modelo de l\u00edngua local funciona exatamente da mesma forma - mas sem a Internet. O modelo \u00e9 armazenado como um ficheiro no pr\u00f3prio computador do utilizador, \u00e9 carregado na mem\u00f3ria de trabalho no arranque e responde a perguntas diretamente no dispositivo. A tecnologia subjacente \u00e9 a mesma: uma rede neuronal que compreende a linguagem, gera textos e reconhece padr\u00f5es. A \u00fanica diferen\u00e7a \u00e9 que todo o c\u00e1lculo \u00e9 efectuado internamente. Pode dizer-se: ChatGPT sem a nuvem.<!--more--><\/p>\n<p>O que \u00e9 especial neste caso \u00e9 o facto de a tecnologia se ter desenvolvido a tal ponto que j\u00e1 n\u00e3o depende de grandes centros de dados. Os computadores Apple modernos com processadores M (como o M3 ou M4) t\u00eam uma enorme capacidade de computa\u00e7\u00e3o, liga\u00e7\u00f5es de mem\u00f3ria r\u00e1pidas e um motor neural especializado para aprendizagem autom\u00e1tica. Como resultado, muitos modelos podem agora ser operados diretamente num Mac Mini ou Mac Studio - sem um parque de servidores, sem uma configura\u00e7\u00e3o complicada e sem qualquer ru\u00eddo significativo.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-592 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-small-grid-column: 33.33%;--dpt-large-grid-column: 33.3333333333%;--dpt-h-gutter: 10px;--dpt-v-gutter: 10px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-592 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">T\u00f3picos actuais sobre intelig\u00eancia artificial<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-592\" class=\"dpt-wrapper dpt-grid1 multi-col dpt-mason-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"lokale ki auf dem mac: so installieren sie ein sprachmodell mit ollama\" data-id=\"2442\"  data-category=\"ki-systeme tipps &amp; anleitungen\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mac mistral ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/08\/local-ki-no-mac-como-este-1tp12para-criar-um-modelo-de-linguagem-com-ollama\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Local AI installieren com Ollama no Mac\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Lokale-KI-auf-Apple-Mac-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 67%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/08\/local-ki-no-mac-como-este-1tp12para-criar-um-modelo-de-linguagem-com-ollama\/\" rel=\"bookmark\">IA local no Mac: Como installerceirizar um modelo de linguagem com o Ollama<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die neuen eu-zensurgesetze: was chatcontrol, dsa, emfa und der ai act bedeuten\" data-id=\"3586\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"datenschutz digitales eigentum eu-gesetze europa k\u00fcnstliche intelligenz llm meinungsfreiheit spieltheorie sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/11\/as-novas-leis-de-censura-da-ue-o-que-significa-chatcontrol-dsa-emfa-e-a-lei-ai\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">As novas leis de censura da UE: O que significam o Chatcontrol, o DSA, o EMFA e a Lei da IA<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Leis de censura da UE\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 67%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/11\/as-novas-leis-de-censura-da-ue-o-que-significa-chatcontrol-dsa-emfa-e-a-lei-ai\/\" rel=\"bookmark\">As novas leis de censura da UE: O que significam o Chatcontrol, o DSA, o EMFA e a Lei da IA<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mlx auf apple silicon als lokale ki im vergleich mit ollama &#038; co.\" data-id=\"2857\"  data-category=\"apple macos ki-systeme\" data-post_tag=\"datenschutz k\u00fcnstliche intelligenz llama llm mistral mlx ollama sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/09\/mlx-em-silicio-de-maca-como-ki-local-em-comparacao-com-ollama-co\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">MLX no Apple Silicon como IA local em compara\u00e7\u00e3o com o Ollama &amp; Co.<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"576\" class=\"attachment-full size-full\" alt=\"IA local no Mac com MLX\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-300x169.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-768x432.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/mlx-lokale-ki-apple-silicon-18x10.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 56%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/09\/mlx-em-silicio-de-maca-como-ki-local-em-comparacao-com-ollama-co\/\" rel=\"bookmark\">MLX no Apple Silicon como IA local em compara\u00e7\u00e3o com o Ollama &amp; Co.<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>\u00daltimas not\u00edcias sobre Apple MLX e NVIDIA<\/h2>\n<p><strong>26.03.2026<\/strong>: O Apple continua a fazer avan\u00e7ar estrategicamente a sua estrutura MLX AI e est\u00e1 a abri-la cada vez mais a outras plataformas. Originalmente optimizado exclusivamente para o Apple Silicon, <a href=\"https:\/\/www.ad-hoc-news.de\/boerse\/news\/ueberblick\/apple-mlx-ki-framework-ueberwindet-hardware-grenzen\/68647549\" target=\"_blank\" rel=\"noopener\"><strong>O MLX agora tamb\u00e9m suporta GPUs CUDA<\/strong><\/a> e, por conseguinte, hardware Nvidia cl\u00e1ssico. Isto elimina um obst\u00e1culo importante para os programadores: at\u00e9 agora, os modelos tinham frequentemente de ser desenvolvidos no Mac e depois treinados em sistemas separados de elevado desempenho. Ao abrir-se, o MLX torna-se uma plataforma de desenvolvimento mais flex\u00edvel que permite tanto a IA local em dispositivos Apple como o treino escal\u00e1vel em hardware externo. Ao mesmo tempo, mant\u00e9m-se a vantagem da estreita integra\u00e7\u00e3o com a arquitetura do Apple, por exemplo, atrav\u00e9s de uma gest\u00e3o eficiente da mem\u00f3ria e da utiliza\u00e7\u00e3o direta da GPU. O desenvolvimento aponta para uma mudan\u00e7a estrat\u00e9gica de rumo: o Apple est\u00e1 a abandonar gradualmente o seu ecossistema fechado e a posicionar o MLX como uma alternativa s\u00e9ria \u00e0s estruturas de IA estabelecidas - com potenciais implica\u00e7\u00f5es para o desenvolvimento da IA como um todo.<\/p>\n<hr \/>\n<p>Isto abre uma nova porta, n\u00e3o s\u00f3 para os programadores, mas tamb\u00e9m para empres\u00e1rios, autores, advogados, m\u00e9dicos, professores e comerciantes. Todos podem agora ter a sua pr\u00f3pria pequena IA - na sua secret\u00e1ria, sob controlo total, pronta a ser utilizada em qualquer altura. Um modelo lingu\u00edstico local pode:<\/p>\n<ul>\n<li><strong>Textos<\/strong> resumir ou corrigir,<\/li>\n<li><strong>Emails<\/strong> formular ou estruturar,<\/li>\n<li><strong>Perguntas<\/strong> responder a perguntas e analisar conhecimentos,<\/li>\n<li><strong>Processos<\/strong> apoio nos programas,<\/li>\n<li><strong>Documentos<\/strong> pesquisar ou classificar,<\/li>\n<li>ou simplesmente como <strong>assistente pessoal<\/strong> sem nunca divulgar dados ao mundo exterior.<\/li>\n<\/ul>\n<p>Esta abordagem est\u00e1 a tornar-se cada vez mais importante, especialmente numa altura em que a prote\u00e7\u00e3o de dados e a soberania digital est\u00e3o novamente no centro das aten\u00e7\u00f5es. N\u00e3o \u00e9 necess\u00e1rio ser um programador para o utilizar - basta um Mac moderno. Os modelos podem ser simplesmente iniciados atrav\u00e9s de uma aplica\u00e7\u00e3o ou de uma janela de terminal e respondem quase t\u00e3o naturalmente como uma janela de chat no browser.<\/p>\n<p>Este artigo mostra quais os modelos que podem ser executados em que Mac atualmente, o que o hardware precisa de fazer e porque \u00e9 que os computadores Apple Silicon s\u00e3o particularmente adequados para isso. Resumindo, trata-se de saber como colocar o poder da IA de volta nas suas pr\u00f3prias m\u00e3os - de forma silenciosa, eficiente e local.<\/p>\n<h2>Modelos de linguagem local no Mac - Porque \u00e9 que isto faz sentido agora<\/h2>\n<p>Executar um modelo lingu\u00edstico \"localmente\" significa que este \u00e9 operado inteiramente no seu pr\u00f3prio computador - sem liga\u00e7\u00e3o a um servi\u00e7o de nuvem. O c\u00e1lculo, a an\u00e1lise das entradas, a gera\u00e7\u00e3o de textos ou respostas - tudo acontece diretamente no seu pr\u00f3prio dispositivo. O modelo \u00e9, portanto, armazenado como um ficheiro no SSD, \u00e9 carregado na RAM no arranque e funciona a\u00ed com todo o desempenho do sistema.<\/p>\n<p>A principal diferen\u00e7a em rela\u00e7\u00e3o \u00e0 variante de nuvem \u00e9 a independ\u00eancia. N\u00e3o h\u00e1 fluxos de dados na Internet, n\u00e3o s\u00e3o utilizados servidores externos e ningu\u00e9m pode localizar o que est\u00e1 a ser processado internamente. Isto proporciona um grau consider\u00e1vel de prote\u00e7\u00e3o e controlo dos dados - especialmente numa \u00e9poca em que os movimentos de dados se tornam cada vez mais dif\u00edceis de rastrear.<\/p>\n<p>No passado, era impens\u00e1vel executar tais modelos localmente. Era necess\u00e1rio um computador mainframe ou um parque de GPUs para manter uma rede neural desta dimens\u00e3o a funcionar. Atualmente, com o poder de computa\u00e7\u00e3o dos modernos chips Apple-Silicon, isto pode ser realizado num dispositivo de secret\u00e1ria - de forma eficiente, silenciosa e com baixo consumo de energia.<\/p>\n<h3>Porque \u00e9 que o Apple Silicon \u00e9 ideal<\/h3>\n<p>Com a mudan\u00e7a do Apple para o Silicon, o Apple baralhou as cartas. Em vez da arquitetura cl\u00e1ssica da Intel com CPU e GPU separados, o Apple baseia-se no chamado design de mem\u00f3ria unificada: processador, gr\u00e1ficos e motor neural acedem \u00e0 mesma mem\u00f3ria principal r\u00e1pida. Isto elimina a necessidade de c\u00f3pias de dados entre componentes individuais - uma vantagem decisiva para c\u00e1lculos de IA.<\/p>\n<p>O motor neural propriamente dito \u00e9 um n\u00facleo de computa\u00e7\u00e3o especializado para a aprendizagem autom\u00e1tica, integrado diretamente nos chips. Permite bili\u00f5es de opera\u00e7\u00f5es de computa\u00e7\u00e3o por segundo - com um consumo de energia muito baixo. Juntamente com a biblioteca MLX (Machine Learning for Apple Silicon) e estruturas modernas como o OLaMA, os modelos podem agora ser executados diretamente no macOS sem controladores GPU complexos ou depend\u00eancias CUDA.<\/p>\n<p>Um chip M4 no Mac Mini j\u00e1 \u00e9 suficiente para executar modelos de linguagem compactos (por exemplo, 3-7 mil milh\u00f5es de par\u00e2metros) sem problemas. Num Mac Studio com M4 Max ou M3 Ultra, pode at\u00e9 executar modelos com 30 mil milh\u00f5es de par\u00e2metros - completamente localmente.<\/p>\n<h3>Compara\u00e7\u00e3o: Apple Silicon vs. hardware NVIDIA<\/h3>\n<p>Tradicionalmente, as placas gr\u00e1ficas RTX da NVIDIA t\u00eam sido o padr\u00e3o de ouro para c\u00e1lculos de IA. Uma RTX 5090 atual, por exemplo, oferece um enorme desempenho bruto e continua a ser a primeira escolha para muitos sistemas de treino. No entanto, vale a pena fazer uma compara\u00e7\u00e3o detalhada - porque as prioridades s\u00e3o diferentes.<\/p>\n<div style=\"overflow-x: auto;\">\n<table style=\"width: 100%; border-collapse: collapse; font-family: system-ui; font-size: 15px;\">\n<thead style=\"background-color: #f5f5f5;\">\n<tr>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Aspeto<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Apple Silicon (M4 \/ M4 Max \/ M3 Ultra)<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">GPU NVIDIA (5090 &amp; Co.)<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Consumo de energia<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Muito eficiente - normalmente menos de 100 W de consumo total<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">At\u00e9 450 W s\u00f3 para a GPU<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Desenvolvimento do ru\u00eddo<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Praticamente silencioso<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Claramente aud\u00edvel sob carga<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Pilha de software<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">MLX \/ N\u00facleo ML \/ Metal<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">CUDA \/ cuDNN \/ PyTorch<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Manuten\u00e7\u00e3o<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Sem condutor e est\u00e1vel<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Actualiza\u00e7\u00f5es frequentes e problemas de compatibilidade<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Rela\u00e7\u00e3o pre\u00e7o\/desempenho<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Alta efici\u00eancia a um pre\u00e7o moderado<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Melhor desempenho de pico, mas mais caro<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Ideal para<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Infer\u00eancia local e funcionamento cont\u00ednuo<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Forma\u00e7\u00e3o e grandes modelos<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<p>Resumindo: a NVIDIA \u00e9 a escolha para centros de dados e forma\u00e7\u00e3o extrema. O Apple Silicon, por outro lado, \u00e9 ideal para utiliza\u00e7\u00e3o local e a longo prazo - sem ru\u00eddo, sem acumula\u00e7\u00e3o de calor, com uma base de software est\u00e1vel e um consumo de energia control\u00e1vel.<\/p>\n<h2>Apple Silicon comparado com NVIDIA para infer\u00eancia<\/h2>\n<p>O M3 Ultra representa um avan\u00e7o significativo para o Apple Silicon: para al\u00e9m de um design de chip altamente integrado com CPU, GPU e motor neural num \u00fanico pacote, baseia-se numa arquitetura de mem\u00f3ria unificada em que a RAM \u00e9 utilizada por todas as unidades de computa\u00e7\u00e3o em simult\u00e2neo - sem a cl\u00e1ssica separa\u00e7\u00e3o da RAM e da VRAM da GPU. De acordo com os testes de refer\u00eancia, esta abordagem j\u00e1 atinge um desempenho compar\u00e1vel ou mesmo melhor em tarefas de infer\u00eancia local do que as placas gr\u00e1ficas topo de gama da NVIDIA em alguns casos. Um exemplo: No teste, o M3 Ultra alcan\u00e7ou aproximadamente 2.320 tokens\/s com um modelo Qwen3-30B de 4 bits, em compara\u00e7\u00e3o com o RTX 3090 com 2.157 tokens\/s.<\/p>\n<p>Al\u00e9m disso, uma compara\u00e7\u00e3o entre Apple Silicon e NVIDIA sob cargas de IA sugere que um sistema M3\/M4 Max atingir\u00e1 cerca de 40-80W sob carga, enquanto uma RTX 4090 consumir\u00e1 normalmente at\u00e9 450W.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-3467 alignnone\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-1024x570.png\" alt=\"NVIDIA e Apple Silicon em compara\u00e7\u00e3o\" width=\"1024\" height=\"570\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-1024x570.png 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-300x167.png 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-768x427.png 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-1536x855.png 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich-18x10.png 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/NVIDIA-Apple-Silicon-Vergleich.png 1779w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p>Isto mostra que, se olharmos n\u00e3o s\u00f3 para o desempenho m\u00e1ximo, mas tamb\u00e9m para a efici\u00eancia por watt, o Apple Silicon est\u00e1 numa posi\u00e7\u00e3o excelente. Por outro lado, existem as placas NVIDIA (por exemplo, 3090, 4090, 5090) com a sua enorme arquitetura de GPU paralelizada, uma densidade muito elevada de n\u00facleos CUDA\/tensor e bibliotecas especializadas (CUDA, cuDNN, TensorRT). \u00c9 aqui que o desempenho bruto dos top-flops est\u00e1 muitas vezes \u00e0 frente - mas com limita\u00e7\u00f5es decisivas para os modelos de linguagem local: a VRAM dispon\u00edvel (por exemplo, 24-32 GB para placas de jogos) torna-se rapidamente um estrangulamento se forem carregados modelos com 20-30 mil milh\u00f5es de par\u00e2metros ou mais. Um relat\u00f3rio de utilizador, por exemplo, afirma que com uma RTX 5090 com aproximadamente 32 GB de VRAM, um modelo com 20-22 mil milh\u00f5es de par\u00e2metros j\u00e1 \u00e9 dif\u00edcil de acomodar.<\/p>\n<p>A este respeito, n\u00e3o se deve olhar apenas para os n\u00facleos GPU, mas tamb\u00e9m para o tamanho da mem\u00f3ria dispon\u00edvel, a largura de banda e a arquitetura da mem\u00f3ria. O M3 Ultra com at\u00e9 512 GB de mem\u00f3ria unificada (nas configura\u00e7\u00f5es de topo), por exemplo, oferece vantagens em muitos cen\u00e1rios de implementa\u00e7\u00e3o local - especialmente se os modelos n\u00e3o forem executados na nuvem, mas permanentemente localmente.<\/p>\n<div style=\"overflow-x: auto;\">\n<table style=\"width: 100%; border-collapse: collapse; font-family: system-ui; font-size: 15px;\">\n<thead style=\"background-color: #f5f5f5;\">\n<tr>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Hardware<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Modelo \/ Configura\u00e7\u00e3o<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Tokens por segundo (aproximado)<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Observa\u00e7\u00e3o<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Apple M3 Ultra (Mac Studio)<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">z. por exemplo, Gemma-3-27B-Q4 em M3 Ultra<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">\u2248 41 tok\/s :contentReference[oaicite:2]{index=2}<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Infer\u00eancia LLM, contexto 4k tokens, quantificado<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>NVIDIA RTX 5090<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">8 Modelo B (quantificado) de acordo com o estudo<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">\u2248 213 tok\/s :contentReference[oaicite:3]{index=3}<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Modelo 8 B, 4 bits, ambiente RLHF<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>NVIDIA RTX 4090<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">8 B Refer\u00eancia do modelo<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">\u2248 128 tok\/s :contentReference[oaicite:4]{index=4}<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">24 GB VRAM Ambiente<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>NVIDIA RTX 3090<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Or\u00e7amento HighEnd em compara\u00e7\u00e3o<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">\u2248 112 tok\/s :contentReference[oaicite:5]{index=5}<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Mercado em segunda m\u00e3o, 24 GB VRAM<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<h3>Relev\u00e2ncia pr\u00e1tica: Onde os modelos lingu\u00edsticos locais fazem sentido<\/h3>\n<p>Atualmente, as aplica\u00e7\u00f5es poss\u00edveis da IA local s\u00e3o quase ilimitadas. Sempre que os dados t\u00eam de permanecer confidenciais ou os processos t\u00eam de ser executados em tempo real, a vers\u00e3o local vale a pena. Exemplos da pr\u00e1tica:<\/p>\n<ul>\n<li><strong>Sistemas ERP<\/strong>An\u00e1lise autom\u00e1tica de texto, sugest\u00f5es, previs\u00f5es ou ajudas \u00e0 comunica\u00e7\u00e3o - diretamente a partir do software.<\/li>\n<li><strong>Produ\u00e7\u00e3o de livros e de suportes<\/strong>Verifica\u00e7\u00e3o de estilo, tradu\u00e7\u00e3o, resumo, expans\u00e3o de texto - tudo localmente, sem depend\u00eancia da nuvem.<\/li>\n<li><strong>Advogados e not\u00e1rios<\/strong>An\u00e1lise de documentos, projectos de pe\u00e7as processuais, pesquisas - sob a mais estrita confidencialidade.<\/li>\n<li><strong>M\u00e9dicos e terapeutas<\/strong>Avalia\u00e7\u00e3o de casos, documenta\u00e7\u00e3o ou relat\u00f3rios automatizados - sem que os dados do doente saiam do sistema.<\/li>\n<li><strong>Gabinetes de engenharia e arquitectos<\/strong>Assistentes de texto, projeto e c\u00e1lculo que tamb\u00e9m funcionam sem Internet.<\/li>\n<li><strong>Empresa em geral<\/strong>Gest\u00e3o de conhecimentos, assistentes de conversa\u00e7\u00e3o interna, an\u00e1lise de protocolos, classifica\u00e7\u00e3o de correio eletr\u00f3nico - tudo dentro da sua pr\u00f3pria rede.<\/li>\n<\/ul>\n<p>Este \u00e9 um grande passo, especialmente no sector comercial: em vez de pagar por servi\u00e7os externos de IA e enviar dados para a nuvem, pode agora executar modelos personalizados nas suas pr\u00f3prias m\u00e1quinas. Estes podem ser personalizados, ajustados e expandidos com os conhecimentos da pr\u00f3pria empresa - totalmente sob controlo.<\/p>\n<p>O resultado \u00e9 um cen\u00e1rio inform\u00e1tico moderno, mas tradicionalmente soberano, que utiliza a tecnologia sem renunciar \u00e0 soberania sobre os seus pr\u00f3prios dados. Uma abordagem que nos recorda as velhas virtudes: manter as coisas nas nossas pr\u00f3prias m\u00e3os.<\/p>\n<hr \/>\n<h3>Inqu\u00e9rito atual sobre sistemas locais de IA<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"67dcaf865ee3b3878080b63861de3a4b\" data-pid=\"2857\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"f946d374fd\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"ff5d307b77afdf5a94e772f4f270d94b\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">O que pensa de um software de IA de execu\u00e7\u00e3o local, como o MLX ou o Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"142\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenious - finalmente independente da nuvem<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"25\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interessante, mas (ainda) demasiado complicado<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Vou experiment\u00e1-lo em breve<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">N\u00e3o preciso dela - a nuvem \u00e9 suficiente para mim<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">N\u00e3o sei exatamente do que se trata<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Vota\u00e7\u00e3o<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"pt\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Descri\u00e7\u00e3o geral: Mac Mini e Mac Studio - o que est\u00e1 atualmente dispon\u00edvel<\/h2>\n<p>Se quisermos executar modelos lingu\u00edsticos locais num Mac, h\u00e1 duas classes de computadores de secret\u00e1ria que s\u00e3o particularmente importantes: o Mac mini e o Mac Studio.<\/p>\n<ul>\n<li><strong>Mac Mini<\/strong>A \u00faltima gera\u00e7\u00e3o oferece o chip Apple M4 ou, opcionalmente, o M4 Pro. De acordo com as especifica\u00e7\u00f5es t\u00e9cnicas, est\u00e3o dispon\u00edveis variantes com 24 GB ou 32 GB de mem\u00f3ria unificada; a variante Pro \u00e9 oferecida com mem\u00f3ria unificada configur\u00e1vel de at\u00e9 48 GB ou 64 GB. Isto torna o Mac Mini adequado para muitas aplica\u00e7\u00f5es - especialmente se o modelo n\u00e3o for extremamente grande ou n\u00e3o tiver de executar v\u00e1rias tarefas muito grandes em paralelo.<\/li>\n<li><strong>Est\u00fadio Mac<\/strong>Aqui vamos um passo mais al\u00e9m. Equipado, por exemplo, com o chip Apple M4 Max ou o chip M3 Ultra - consoante o modelo. Com a vers\u00e3o M4 Max, s\u00e3o poss\u00edveis 48 GB, 64 GB ou at\u00e9 128 GB de mem\u00f3ria unificada. A vers\u00e3o M3 Ultra do Mac Studio pode ser equipada com at\u00e9 512 GB de mem\u00f3ria unificada. O tamanho dos SSDs e a largura de banda da mem\u00f3ria tamb\u00e9m aumentam consideravelmente. Isto torna o Mac Studio adequado para modelos mais exigentes ou processos paralelos.<\/li>\n<\/ul>\n<p>Como nota breve: O <strong>Mac Pro<\/strong> tamb\u00e9m existe e muitas vezes oferece \u201emais chassis\u201c ou ranhuras PCI-e no exterior - mas em termos de modelos lingu\u00edsticos, n\u00e3o oferece grande vantagem sobre o Mac Studio para a vers\u00e3o local se n\u00e3o tiver quaisquer placas de expans\u00e3o adicionais ou requisitos PCIe especiais.<\/p>\n<p>Tamb\u00e9m <strong>Cadernos de notas<\/strong> (por exemplo, MacBook Pro) podem certamente ser utilizados - mas com restri\u00e7\u00f5es: Os sistemas de arrefecimento s\u00e3o mais pequenos, o desempenho t\u00e9rmico \u00e9 mais limitado e o or\u00e7amento de RAM \u00e9 frequentemente inferior. A utiliza\u00e7\u00e3o prolongada (como nos modelos com IA) pode reduzir o desempenho.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_q1UM6grX-IM\"><div id=\"lyte_q1UM6grX-IM\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2Fq1UM6grX-IM%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/q1UM6grX-IM\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fq1UM6grX-IM%2F0.jpg\" alt=\"Miniatura de v\u00eddeo do YouTube\" width=\"640\" height=\"340\" \/><br \/>Ver este v\u00eddeo no YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nIA: Apple \u00e9 melhor do que a Nvidia! \ud83d\ude2e | <a href=\"https:\/\/www.youtube.com\/@ct3003\" target=\"_blank\" rel=\"noopener\">c't 3003<\/a><\/p>\n<h3>Porque \u00e9 que a RAM \/ mem\u00f3ria unificada \u00e9 t\u00e3o importante<\/h3>\n<p>Quando um modelo de linguagem \u00e9 executado localmente, n\u00e3o \u00e9 apenas o desempenho da CPU ou da GPU que \u00e9 necess\u00e1rio - a RAM (ou no caso do Apple: \"mem\u00f3ria unificada\") \u00e9 crucial. Porqu\u00ea?<\/p>\n<p>O modelo propriamente dito (pesos, activa\u00e7\u00f5es, resultados interm\u00e9dios) deve ser armazenado na mem\u00f3ria. Quanto maior for o modelo, mais mem\u00f3ria \u00e9 necess\u00e1ria. Os chips Apple-Silicon utilizam \"mem\u00f3ria unificada\", ou seja, a CPU, a GPU e o motor neural acedem ao mesmo conjunto de mem\u00f3ria. Isto elimina a necessidade de c\u00f3pias de dados entre componentes, o que aumenta a efici\u00eancia e a velocidade.<\/p>\n<p>Se n\u00e3o houver mem\u00f3ria RAM suficiente, o sistema tem de ser trocado ou os modelos n\u00e3o s\u00e3o totalmente carregados - o que pode significar uma queda no desempenho, instabilidade ou cancelamento. Especialmente no caso de aplica\u00e7\u00f5es inferenciais (gera\u00e7\u00e3o de respostas, introdu\u00e7\u00e3o de texto, extens\u00e3o de modelos), o tempo de resposta e o rendimento s\u00e3o cruciais - uma mem\u00f3ria suficiente ajuda consideravelmente neste dom\u00ednio. Um PC de secret\u00e1ria tradicional costumava pensar em termos de \"RAM da CPU\" e \"RAM da GPU separada\" - com o Apple Silicon, tudo \u00e9 elegantemente combinado, o que torna a execu\u00e7\u00e3o de modelos de linguagem particularmente atractiva.<\/p>\n<h3>Valores estimados: Que ordem de grandeza \u00e9 realista?<\/h3>\n<p>Para o ajudar a estimar o hardware de que vai precisar, eis alguns valores de refer\u00eancia aproximados:<\/p>\n<ul>\n<li><strong>Para modelos mais pequenos<\/strong> (por exemplo, alguns milhares de milh\u00f5es de par\u00e2metros), 16 GB a 32 GB de RAM podem ser suficientes - especialmente se apenas forem processadas consultas individuais. Um Mac Mini com 16\/32 GB seria, portanto, um bom come\u00e7o.<\/li>\n<li><strong>Para modelos m\u00e9dios<\/strong> (por exemplo, 3-10 mil milh\u00f5es de par\u00e2metros) ou tarefas com v\u00e1rias conversas paralelas ou grandes quantidades de texto, deve considerar 32 GB de RAM ou mais - por exemplo, Mac Studio com 32 ou 48 GB.<\/li>\n<li><strong>Para modelos grandes<\/strong> (&gt;20 mil milh\u00f5es de par\u00e2metros) ou se v\u00e1rios modelos tiverem de ser executados em paralelo, pode escolher 64 GB ou mais - as variantes Mac mini e Mac Studio com 64 GB ou mais s\u00e3o poss\u00edveis aqui.<\/li>\n<\/ul>\n<p>Importante: N\u00e3o se esque\u00e7a de planear alguma mem\u00f3ria interm\u00e9dia - n\u00e3o s\u00f3 o modelo, mas tamb\u00e9m o funcionamento (por exemplo, o sistema operativo, E\/S de ficheiros, outras aplica\u00e7\u00f5es) requerem reservas de mem\u00f3ria.<\/p>\n<div style=\"overflow-x: auto;\">\n<table style=\"width: 100%; border-collapse: collapse; font-family: system-ui; font-size: 15px;\">\n<thead style=\"background-color: #f5f5f5;\">\n<tr>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Categoria<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Tamanho t\u00edpico do modelo<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Or\u00e7amento de RAM recomendado<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Exemplo de utiliza\u00e7\u00e3o<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Pequeno<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">1-3 mil milh\u00f5es de par\u00e2metros<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">16-32 GB<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Assistente simples, reconhecimento de texto<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>M\u00e9dio<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">7-13 mil milh\u00f5es Par\u00e2metros<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">32-64 GB<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Chat, an\u00e1lise, cria\u00e7\u00e3o de texto<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Grande<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">30-70 mil milh\u00f5es de par\u00e2metros<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">64 GB +<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Textos especializados, documentos jur\u00eddicos<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<h3>Questionar a mentalidade tradicional \"servidor vs. desktop\"<\/h3>\n<p>Tradicionalmente, pensava-se que a IA exigia parques de servidores, muitas GPUs, muita energia e um centro de dados. Mas o cen\u00e1rio est\u00e1 a mudar: os computadores de secret\u00e1ria, como o Mac Mini ou o Mac Studio, oferecem agora desempenho suficiente para muitos modelos de linguagem operados localmente - sem uma enorme infraestrutura. Em vez de custos elevados de eletricidade, arrefecimento potente e manuten\u00e7\u00e3o complexa, o utilizador ganha um dispositivo silencioso e eficaz na sua secret\u00e1ria.<\/p>\n<p>\u00c9 claro que, se quiser treinar modelos em grande escala ou utilizar um grande n\u00famero de par\u00e2metros, as solu\u00e7\u00f5es de servidor continuam a fazer sentido. No entanto, o hardware de secret\u00e1ria \u00e9 muitas vezes suficiente para a infer\u00eancia, a personaliza\u00e7\u00e3o e a utiliza\u00e7\u00e3o quotidiana. Este facto est\u00e1 associado a uma atitude tradicional: utilizar a tecnologia, mas sem a sobredimensionar - em vez disso, utiliz\u00e1-la de forma direcionada e eficiente. Se construir uma base local s\u00f3lida hoje, estar\u00e1 a criar os alicerces para o que ser\u00e1 poss\u00edvel amanh\u00e3.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_nwIZ5VI3Eus\"><div id=\"lyte_nwIZ5VI3Eus\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2FnwIZ5VI3Eus%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/nwIZ5VI3Eus\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2FnwIZ5VI3Eus%2F0.jpg\" alt=\"Miniatura de v\u00eddeo do YouTube\" width=\"640\" height=\"340\" \/><br \/>Ver este v\u00eddeo no YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nM3 Ultra vs RTX 5090 | A Batalha Final (Ingl\u00eas)<\/p>\n<h2>Caracteriza\u00e7\u00e3o t\u00e9cnica dos modelos lingu\u00edsticos<\/h2>\n<p>Atualmente, os modelos lingu\u00edsticos diferem n\u00e3o s\u00f3 nas suas capacidades, mas tamb\u00e9m no formato t\u00e9cnico em que est\u00e3o dispon\u00edveis. Estes formatos determinam a forma como o modelo \u00e9 guardado, carregado e utilizado - e se pode ser executado num determinado sistema.<\/p>\n<p><strong>GGUF (Formato Unificado Gerado por GPT)<\/strong><\/p>\n<p>Este formato foi desenvolvido para utiliza\u00e7\u00e3o pr\u00e1tica em ferramentas como o Ollama, o LM Studio ou o Llama.cpp. \u00c9 compacto, port\u00e1til e altamente optimizado para a infer\u00eancia local. Os modelos GGUF s\u00e3o geralmente quantificados, o que significa que consomem muito menos mem\u00f3ria porque os valores num\u00e9ricos internos s\u00e3o armazenados numa forma reduzida (por exemplo, 4 ou 8 bits). Como resultado, os modelos que originalmente tinham 30-50 GB de tamanho podem ser comprimidos para 5-10 GB - apenas com uma ligeira perda de qualidade.<\/p>\n<ul>\n<li><strong>Vantagem<\/strong>Funciona em quase todos os sistemas (macOS, Windows, Linux), sem necessidade de GPU especial.<\/li>\n<li><strong>Desvantagem<\/strong>N\u00e3o se destina a treino ou afina\u00e7\u00e3o - pura infer\u00eancia (ou seja, utiliza\u00e7\u00e3o).<\/li>\n<\/ul>\n<p><strong>MLX (Aprendizagem autom\u00e1tica para Apple Silicon)<\/strong><\/p>\n<p>MLX \u00e9 a pr\u00f3pria estrutura de c\u00f3digo aberto do Apple para aprendizado de m\u00e1quina no Apple Silicon. Foi especialmente desenvolvido para utilizar todo o poder da CPU, GPU e Neural Engine em M-Chips. Os modelos MLX est\u00e3o normalmente dispon\u00edveis no formato MLX nativo ou s\u00e3o convertidos de outros formatos.<\/p>\n<ul>\n<li><strong>Vantagem<\/strong>M\u00e1ximo desempenho e efici\u00eancia energ\u00e9tica em hardware Apple.<\/li>\n<li><strong>Desvantagem<\/strong>Ecossistema ainda relativamente jovem, menos modelos comunit\u00e1rios dispon\u00edveis do que com o GGUF ou o PyTorch.<\/li>\n<\/ul>\n<p><strong>Safetensors (.safetensors)<\/strong><\/p>\n<p>Este formato tem origem no mundo PyTorch (e \u00e9 fortemente promovido pelo Hugging Face). \u00c9 um formato de armazenamento bin\u00e1rio seguro para modelos grandes que n\u00e3o permite a execu\u00e7\u00e3o de c\u00f3digo - da\u00ed o nome \"safe\".<\/p>\n<ul>\n<li><strong>Vantagem<\/strong>Carregamento muito r\u00e1pido, poupan\u00e7a de mem\u00f3ria, normaliza\u00e7\u00e3o.<\/li>\n<li><strong>Desvantagem<\/strong>: Destina-se principalmente a quadros como PyTorch ou TensorFlow - ou seja, mais comuns em ambientes de desenvolvimento e para processos de forma\u00e7\u00e3o.<\/li>\n<\/ul>\n<div style=\"overflow-x: auto;\">\n<table style=\"width: 100%; border-collapse: collapse; font-family: system-ui; font-size: 15px;\">\n<thead style=\"background-color: #f5f5f5;\">\n<tr>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Formato<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Plataforma<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Objetivo<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Vantagens<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Desvantagens<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>GGUF<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">macOS, Windows, Linux<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Infer\u00eancia<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Compacto, r\u00e1pido, universal<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">N\u00e3o \u00e9 poss\u00edvel efetuar forma\u00e7\u00e3o<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>MLX<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">macOS (Apple Silicon)<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Infer\u00eancia + Forma\u00e7\u00e3o<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Optimizado para M-Chips, elevada efici\u00eancia<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Menos modelos dispon\u00edveis<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Sensores de seguran\u00e7a<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Plataforma cruzada (PyTorch \/ TensorFlow)<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Forma\u00e7\u00e3o e investiga\u00e7\u00e3o<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Seguro, normalizado, r\u00e1pido<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">N\u00e3o \u00e9 diretamente compat\u00edvel com Ollama \/ MLX<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<h3>Hugging Face - a fonte central de abastecimento<\/h3>\n<p>Atualmente, o Hugging Face \u00e9 algo como a \"biblioteca\" do mundo da IA. Em <a href=\"https:\/\/huggingface.co\" target=\"_blank\" rel=\"noopener\"><strong>huggingface.co<\/strong><\/a> encontrar\u00e1 dezenas de milhares de modelos, conjuntos de dados e ferramentas - muitos dos quais s\u00e3o de utiliza\u00e7\u00e3o gratuita. Pode filtrar por nome, arquitetura, tipo de licen\u00e7a ou formato de ficheiro. Quer se trate de Mistral, LLaMA, Falcon, Gemma ou Phi-3 - quase todos os modelos conhecidos est\u00e3o a\u00ed representados. Muitos programadores j\u00e1 oferecem vers\u00f5es personalizadas para utiliza\u00e7\u00e3o local com GGUF ou MLX.<\/p>\n<p>Isto faz com que o Hugging Face seja o primeiro porto de escala para a maioria dos utilizadores se quiserem experimentar um modelo ou encontrar uma variante adequada para o macOS.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"size-large wp-image-3464 alignnone\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-1024x644.jpg\" alt=\"Site da Huggingface\" width=\"1024\" height=\"644\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-1024x644.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-300x189.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-768x483.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-1536x966.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-2048x1288.jpg 2048w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/huggingface-website-18x12.jpg 18w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<h3>Modelos t\u00edpicos e respectivos dom\u00ednios de aplica\u00e7\u00e3o<\/h3>\n<p>O n\u00famero de modelos dispon\u00edveis \u00e9 atualmente quase imposs\u00edvel de controlar. No entanto, existem algumas fam\u00edlias principais que se revelaram particularmente bem sucedidas para utiliza\u00e7\u00e3o local:<\/p>\n<ul>\n<li><strong>Fam\u00edlia LLaMA (Meta)<\/strong>Modelo de c\u00f3digo aberto: Um dos modelos de c\u00f3digo aberto mais conhecidos. Constitui a base de in\u00fameros derivados (por exemplo, Vicuna, WizardLM, Open-Hermes). Pontos fortes: Compreens\u00e3o da l\u00edngua, di\u00e1logo, utiliza\u00e7\u00e3o vers\u00e1til. Dom\u00ednio de aplica\u00e7\u00e3o: Aplica\u00e7\u00f5es gerais de conversa\u00e7\u00e3o, gera\u00e7\u00e3o de conte\u00fados, sistemas de assist\u00eancia.<\/li>\n<li><strong>Mistral e Mixtral (Mistral AI)<\/strong>Conhecido pela sua elevada efici\u00eancia e boa qualidade com um modelo de dimens\u00f5es reduzidas. O Mixtral 8x7B combina v\u00e1rios modelos de peritos (arquitetura Mixture-of-Experts). Pontos fortes: Respostas r\u00e1pidas e precisas, economia de recursos. Dom\u00ednio de aplica\u00e7\u00e3o: Assistentes internos de empresas, an\u00e1lise de textos, prepara\u00e7\u00e3o de dados.<\/li>\n<li><strong>Phi-3 (Microsoft Research)<\/strong>Modelo compacto, optimizado para uma elevada qualidade de voz apesar de um n\u00famero reduzido de par\u00e2metros. Pontos fortes: Efic\u00e1cia, boa gram\u00e1tica, respostas estruturadas. Dom\u00ednio de aplica\u00e7\u00e3o: Sistemas mais pequenos, modelos de conhecimento local, assistentes integrados.<\/li>\n<li><strong>Gemma (Google)<\/strong>: Publicado pelo Google Research como um modelo aberto. Bom para tarefas de s\u00edntese e de explica\u00e7\u00e3o. Pontos fortes: Coer\u00eancia, explica\u00e7\u00f5es contextualizadas. Dom\u00ednio de aplica\u00e7\u00e3o: processamento de conhecimentos, forma\u00e7\u00e3o, sistemas de aconselhamento.<\/li>\n<li><strong>Modelos GPT-OSS \/ OpenHermes<\/strong>Juntamente com as modifica\u00e7\u00f5es LLaMA, formam a \"ponte\" entre os modelos de c\u00f3digo aberto e o \u00e2mbito funcional dos sistemas comerciais. Pontos fortes: Ampla base lingu\u00edstica, utiliza\u00e7\u00e3o flex\u00edvel. Dom\u00ednio de aplica\u00e7\u00e3o: Cria\u00e7\u00e3o de conte\u00fados, tarefas de conversa\u00e7\u00e3o e an\u00e1lise, assist\u00eancia interna de IA.<\/li>\n<li><strong>Claude \/ Command R \/ Falcon \/ Yi \/ Zephyr<\/strong>Estes e muitos outros modelos (na sua maioria provenientes de projectos de investiga\u00e7\u00e3o ou de comunidades abertas) oferecem fun\u00e7\u00f5es especiais como a recupera\u00e7\u00e3o de conhecimentos, a gera\u00e7\u00e3o de c\u00f3digos ou o multilinguismo.<\/li>\n<\/ul>\n<p>O ponto mais importante \u00e9 que nenhum modelo pode fazer tudo na perfei\u00e7\u00e3o. Cada um tem os seus pontos fortes e fracos - e, dependendo da aplica\u00e7\u00e3o, vale a pena fazer uma compara\u00e7\u00e3o direcionada.<\/p>\n<h3>Que modelo \u00e9 adequado para que fim?<\/h3>\n<p>Para obter uma avalia\u00e7\u00e3o realista, os modelos podem ser classificados, grosso modo, em classes de desempenho e de aplica\u00e7\u00e3o:<\/p>\n<p>Para a maioria das aplica\u00e7\u00f5es de secret\u00e1ria realistas - tais como resumos, correspond\u00eancia, tradu\u00e7\u00e3o, an\u00e1lise - os modelos m\u00e9dios (<strong>7-13 B<\/strong>) s\u00e3o completamente suficientes. Apresentam resultados incrivelmente bons, funcionam sem problemas numa <strong>Mac Mini M4 Pro com 32-48 GB de RAM<\/strong> e n\u00e3o requerem praticamente qualquer reajustamento.<\/p>\n<p><strong>Modelos grandes<\/strong> mostram os seus pontos fortes quando uma compreens\u00e3o mais profunda ou contextos mais longos s\u00e3o importantes - por exemplo, no tratamento de textos jur\u00eddicos ou de documenta\u00e7\u00e3o t\u00e9cnica. No entanto, deve ter pelo menos um <strong>Mac Studio com 64-128 GB<\/strong> Utilizar a mem\u00f3ria de trabalho.<\/p>\n<div style=\"overflow-x: auto;\">\n<table style=\"width: 100%; border-collapse: collapse; font-family: system-ui; font-size: 15px;\">\n<thead style=\"background-color: #f5f5f5;\">\n<tr>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Fam\u00edlia de modelos<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Origem<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Pontos fortes<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px;\">Dom\u00ednio de aplica\u00e7\u00e3o<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>LLaMA<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Meta<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Compreens\u00e3o da l\u00edngua, di\u00e1logo<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Aplica\u00e7\u00f5es gerais de conversa\u00e7\u00e3o<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Mistral \/ Mixtral<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Mistral AI<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Efici\u00eancia, alta precis\u00e3o<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Assistentes de empresa, an\u00e1lise<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Phi-3<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Pesquisa da Microsoft<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Compacto, linguisticamente forte<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Pequenos sistemas, IA local<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Gemma<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Pesquisa Google<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Coer\u00eancia, explicabilidade<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Consultoria, ensino, explica\u00e7\u00e3o de textos<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<h2>Op\u00e7\u00f5es para operar modelos lingu\u00edsticos localmente<\/h2>\n<p>Se quiser utilizar um modelo de linguagem no seu pr\u00f3prio Mac, existem v\u00e1rias op\u00e7\u00f5es vi\u00e1veis - dependendo dos seus requisitos t\u00e9cnicos e do objetivo pretendido. O melhor de tudo \u00e9 que j\u00e1 n\u00e3o precisa de um ambiente de desenvolvimento complexo para come\u00e7ar.<\/p>\n<h3>Ollama - o in\u00edcio sem complica\u00e7\u00f5es<\/h3>\n<p><a href=\"https:\/\/ollama.com\" target=\"_blank\" rel=\"noopener\"><strong>Ollama<\/strong><\/a> tornou-se rapidamente uma ferramenta padr\u00e3o para modelos locais de IA. Funciona nativamente no macOS, utiliza de forma \u00f3ptima o desempenho do Apple Silicon e permite iniciar um modelo com um \u00fanico comando:<\/p>\n<p><code data-no-translation=\"\">ollama run mistral<\/code><\/p>\n<p>Isto carrega e prepara automaticamente o modelo desejado, que fica ent\u00e3o dispon\u00edvel no terminal ou atrav\u00e9s de interfaces locais. O Ollama suporta o formato GGUF, permite descarregar modelos da Hugging Face e pode ser integrado atrav\u00e9s de APIs REST ou diretamente noutros programas.<\/p>\n<p>Como trabalhar com <a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/08\/local-ki-no-mac-como-este-1tp12para-criar-um-modelo-de-linguagem-com-ollama\/\"><strong>Ollama um modelo lingu\u00edstico local installiert<\/strong><\/a> e as outras op\u00e7\u00f5es que tem \u00e0 sua disposi\u00e7\u00e3o s\u00e3o descritas em pormenor noutro artigo. Existem tamb\u00e9m outros artigos sobre como utilizar o <a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/08\/rag-com-ollama-e-qdrant-como-motor-de-pesquisa-universal-para-dados-proprios\/\"><strong>Qdrant uma mem\u00f3ria flex\u00edvel<\/strong><\/a> para a sua IA local.<\/p>\n<h3>LM Studio - interface gr\u00e1fica do utilizador e administra\u00e7\u00e3o<\/h3>\n<p><a href=\"https:\/\/lmstudio.ai\" target=\"_blank\" rel=\"noopener\"><strong>Est\u00fadio LM<\/strong><\/a> destina-se a todos os que preferem uma interface gr\u00e1fica de utilizador. Oferece downloads de modelos, janelas de conversa\u00e7\u00e3o, controlos de temperatura, avisos de sistema e gest\u00e3o de mem\u00f3ria numa \u00fanica aplica\u00e7\u00e3o. Isto \u00e9 ideal sobretudo para principiantes: pode experimentar, comparar, guardar e alternar entre diferentes modelos sem ter de trabalhar com a linha de comandos. O software funciona de forma est\u00e1vel em Apple Silicon e tamb\u00e9m suporta modelos GGUF.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-3465 size-full\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lm-studio-modelle-scaled.jpg\" alt=\"Descarregar modelos no LM-Studio\" width=\"1024\" height=\"681\" \/><\/p>\n<h3>MLX \/ Python - para programadores e integradores<\/h3>\n<p>Se quiser ir mais longe ou integrar modelos nos seus pr\u00f3prios programas, pode utilizar o quadro MLX do Apple. Esta permite que os modelos sejam integrados diretamente em aplica\u00e7\u00f5es Python ou Swift. A vantagem reside no controlo m\u00e1ximo e na integra\u00e7\u00e3o em fluxos de trabalho existentes - por exemplo, se uma empresa quiser adicionar fun\u00e7\u00f5es de IA ao seu pr\u00f3prio software.<\/p>\n<h3>FileMaker Servidor 2025 - IA no contexto empresarial<\/h3>\n<p>Desde <a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/lora-training-como-o-filemaker-2025-simplifica-a-afinacao-de-grandes-modelos-linguisticos\/\"><strong>FileMaker Servidor 2025<\/strong><\/a> Os modelos lingu\u00edsticos baseados em MLX tamb\u00e9m podem ser abordados no lado do servidor. Isto torna poss\u00edvel, pela primeira vez, equipar uma aplica\u00e7\u00e3o empresarial central (por exemplo, um sistema ERP ou CRM) com a sua pr\u00f3pria IA local. Por exemplo, os pedidos de apoio podem ser automaticamente classificados, os pedidos de informa\u00e7\u00e3o dos clientes avaliados ou o conte\u00fado dos documentos analisado - sem que os dados saiam da empresa.<\/p>\n<p>Isto \u00e9 particularmente interessante para sectores que t\u00eam requisitos rigorosos de prote\u00e7\u00e3o de dados ou de conformidade (medicina, direito, administra\u00e7\u00e3o, ind\u00fastria).<\/p>\n<h2>Obst\u00e1culos t\u00edpicos e como evit\u00e1-los<\/h2>\n<p>Mesmo que a barreira de entrada seja baixa, h\u00e1 alguns pontos a que deve estar atento:<br \/>\nLimites de mem\u00f3ria: Se o modelo for demasiado grande para a mem\u00f3ria dispon\u00edvel, n\u00e3o arrancar\u00e1 de todo ou ser\u00e1 extremamente lento. A quantiza\u00e7\u00e3o (por exemplo, 4 bits) ou um modelo mais pequeno pode ajudar neste caso.<\/p>\n<ul>\n<li><strong>C\u00e1lculo da carga e do desenvolvimento de calor<\/strong>O Mac pode ficar visivelmente quente durante sess\u00f5es mais longas. \u00c9 aconselh\u00e1vel uma boa ventila\u00e7\u00e3o e estar atento ao ecr\u00e3 de atividade.<\/li>\n<li><strong>Falta de suporte de GPU para software de terceiros<\/strong>Algumas ferramentas ou portas mais antigas n\u00e3o utilizam o Neural Engine de forma eficiente. Nesses casos, o MLX pode fornecer melhores resultados.<\/li>\n<li><strong>Portas e direitos de rede<\/strong>Se v\u00e1rios clientes tiverem de aceder ao mesmo modelo (por exemplo, dentro da rede de uma empresa), as portas locais devem ser libertadas - de prefer\u00eancia protegidas por HTTPS ou atrav\u00e9s de um proxy interno.<\/li>\n<li><strong>Seguran\u00e7a dos dados<\/strong>Mesmo que os modelos sejam executados localmente, os textos sens\u00edveis n\u00e3o devem ser armazenados em ambientes inseguros. Os registos locais e os registos de conversa\u00e7\u00e3o s\u00e3o f\u00e1ceis de esquecer, mas cont\u00eam frequentemente informa\u00e7\u00f5es valiosas.<\/li>\n<\/ul>\n<p>Se prestar aten\u00e7\u00e3o a estes pontos, pode operar um sistema de IA local poderoso que funciona de forma segura, silenciosa e eficiente com surpreendentemente pouco esfor\u00e7o.<\/p>\n<h3>Cronograma e considera\u00e7\u00f5es estrat\u00e9gicas<\/h3>\n<p>Estamos apenas no in\u00edcio de uma evolu\u00e7\u00e3o que ir\u00e1 mudar o quotidiano de muitas profiss\u00f5es nos pr\u00f3ximos anos. Os modelos locais de IA est\u00e3o a tornar-se cada vez mais pequenos, mais r\u00e1pidos e mais eficientes, enquanto a sua qualidade continua a melhorar. O que atualmente ainda requer 30 GB de mem\u00f3ria, dentro de um ano poder\u00e1 requerer apenas 10 GB - com a mesma qualidade de voz. Ao mesmo tempo, est\u00e3o a surgir novas interfaces que podem ser utilizadas para integrar modelos diretamente em programas do Office, browsers ou software da empresa.<\/p>\n<p>As empresas que d\u00e3o hoje o passo em dire\u00e7\u00e3o a uma infraestrutura de IA local est\u00e3o a criar uma vantagem para si pr\u00f3prias. Desenvolvem conhecimentos especializados, asseguram a soberania dos seus dados e tornam-se independentes das flutua\u00e7\u00f5es de pre\u00e7os ou das restri\u00e7\u00f5es de utiliza\u00e7\u00e3o impostas por fornecedores externos. Uma estrat\u00e9gia sensata poderia ser a seguinte:<\/p>\n<ul>\n<li>Primeiro, experimente com um modelo pequeno (por exemplo, 3-7 mil milh\u00f5es de par\u00e2metros, atrav\u00e9s do Ollama ou do LM Studio).<\/li>\n<li>Em seguida, verifique especificamente quais as tarefas que podem ser automatizadas.<\/li>\n<li>Se necess\u00e1rio, integre modelos maiores ou crie um Mac Studio central como \"servidor de IA\".<\/li>\n<li>A m\u00e9dio prazo, reorganizar os processos internos (por exemplo, documenta\u00e7\u00e3o, an\u00e1lise de texto, comunica\u00e7\u00e3o) com o apoio da IA.<\/li>\n<\/ul>\n<p>Esta abordagem passo a passo n\u00e3o \u00e9 apenas economicamente sensata, mas tamb\u00e9m sustent\u00e1vel - segue o princ\u00edpio de adotar a tecnologia ao seu pr\u00f3prio ritmo, em vez de se deixar levar pelas tend\u00eancias.<\/p>\n<p>Num artigo separado, descrevi em pormenor a forma como os novos <a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/09\/mlx-em-silicio-de-maca-como-ki-local-em-comparacao-com-ollama-co\/\"><strong>Formato MLX comparado com GGUF<\/strong><\/a> via Ollama no Mac.<\/p>\n<h2>A IA local como via discreta para a soberania digital<\/h2>\n<p>Os modelos lingu\u00edsticos locais marcam o regresso \u00e0 auto-determina\u00e7\u00e3o no mundo digital.<br \/>\nEm vez de enviar dados e ideias para centros de dados remotos na nuvem, pode agora voltar a trabalhar com as suas pr\u00f3prias ferramentas - diretamente na sua secret\u00e1ria, sob o seu pr\u00f3prio controlo.<\/p>\n<p>Quer seja num Mac Mini, num Mac Studio ou num port\u00e1til potente - se tiver o hardware certo, pode agora utilizar, treinar e desenvolver a sua pr\u00f3pria IA. Quer seja como assistente pessoal, como parte de um sistema ERP, como auxiliar de investiga\u00e7\u00e3o numa editora ou como solu\u00e7\u00e3o de prote\u00e7\u00e3o de dados num escrit\u00f3rio de advogados - as possibilidades s\u00e3o surpreendentemente vastas.<\/p>\n<p>E o melhor de tudo \u00e9 que nos recorda a antiga for\u00e7a do computador - nomeadamente ser uma ferramenta que se controla a si pr\u00f3prio, em vez de um servi\u00e7o que dita como devemos trabalhar. Isto faz da IA local um s\u00edmbolo da autonomia moderna - silenciosa, eficiente e, no entanto, com um efeito impressionante.<\/p>\n<h3>A IA local na empresa revela o seu valor com a base correta do sistema<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/pt\/software-erp\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright wp-image-3182 size-medium\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg\" alt=\"Software ERP\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>A discuss\u00e3o sobre a IA local centra-se frequentemente no hardware, nos modelos e na velocidade - mas os benef\u00edcios reais s\u00f3 se tornam evidentes quando interage com os seus pr\u00f3prios dados e processos. Para utilizar a IA de forma sensata, \u00e9 necess\u00e1rio um ambiente est\u00e1vel e controlado em que a informa\u00e7\u00e3o n\u00e3o esteja dispersa, mas sim dispon\u00edvel de forma estruturada. \u00c9 precisamente aqui que um <a href=\"https:\/\/www.markus-schall.de\/pt\/software-erp\/\"><strong>solu\u00e7\u00e3o ERP operada localmente<\/strong><\/a> Forma a espinha dorsal para dados, processos e correla\u00e7\u00f5es dentro da empresa. Em combina\u00e7\u00e3o com uma solu\u00e7\u00e3o como o gFM Business ERP, isto cria um ciclo fechado no qual a IA local n\u00e3o s\u00f3 fornece respostas, mas tamb\u00e9m trabalha contextualmente - por exemplo, integrando o seu pr\u00f3prio gr\u00e1fico de conhecimento. As decis\u00f5es j\u00e1 n\u00e3o se baseiam em modelos gerais, mas em dados reais da empresa. O resultado \u00e9 um passo discreto mas eficaz em dire\u00e7\u00e3o \u00e0 verdadeira soberania digital: mais controlo, mais efici\u00eancia e um sistema que se adapta \u00e0 empresa - e n\u00e3o o contr\u00e1rio.<\/p>\n<h2>Fontes recomendadas<\/h2>\n<ul>\n<li><a href=\"https:\/\/arxiv.org\/abs\/2508.08531\" target=\"_blank\" rel=\"noopener\"><strong>Cria\u00e7\u00e3o de perfis de infer\u00eancia de modelos lingu\u00edsticos de grande dimens\u00e3o no Apple Silicon<\/strong><\/a>A Quantisation Perspective (Benazir &amp; Lin et al., 2025) - Examina em pormenor o desempenho da infer\u00eancia no Apple Silicon em compara\u00e7\u00e3o com as GPUs NVIDIA, especificamente com foco na quantifica\u00e7\u00e3o.<\/li>\n<li><a href=\"https:\/\/arxiv.org\/abs\/2511.05502\" target=\"_blank\" rel=\"noopener\"><strong>Infer\u00eancia LLM local de n\u00edvel de produ\u00e7\u00e3o em Apple Silicon<\/strong><\/a>Um estudo comparativo de MLX, MLC-LLM, Ollama, llama.cpp, e PyTorch MPS (Rajesh et al., 2025) - Compara\u00e7\u00e3o de diferentes plataformas em Apple Silicon incl. MLX, no que diz respeito ao d\u00e9bito, lat\u00eancia, comprimento do contexto.<\/li>\n<li><a href=\"https:\/\/arxiv.org\/abs\/2510.18921\" target=\"_blank\" rel=\"noopener\"><strong>Avalia\u00e7\u00e3o comparativa da aprendizagem autom\u00e1tica no dispositivo em Apple Silicon com MLX<\/strong><\/a> (Ajayi &amp; Odunayo, 2025) - Centrou-se no MLX e no Apple Silicon, com dados de refer\u00eancia em rela\u00e7\u00e3o aos sistemas NVIDIA.<\/li>\n<\/ul>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-593 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-593 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Quest\u00f5es sociais da atualidade<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-593\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"zukunft mit ladeger\u00e4t \u2013 herr von l&#8217;oreot kauft einen e-scooter\" data-id=\"3229\"  data-category=\"allgemein gesellschaft kunst &amp; kultur stories &amp; humor\" data-post_tag=\"erfahrungen\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/futuro-com-carregador-o-sr-von-loreot-compra-uma-e-scooter\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Futuro com um carregador - von L'oreot compra uma trotinete el\u00e9ctrica<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"747\" class=\"attachment-full size-full\" alt=\"\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-300x219.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-768x560.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-16x12.jpg 16w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/futuro-com-carregador-o-sr-von-loreot-compra-uma-e-scooter\/\" rel=\"bookmark\">Futuro com um carregador - von L'oreot compra uma trotinete el\u00e9ctrica<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"energie, macht und abh\u00e4ngigkeit: europas weg vom exportweltmeister zum nachfrager\" data-id=\"4945\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle deutschland energiepolitik eu-gesetze europa geopolitik krisen meinungsfreiheit sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/poder-e-dependencia-energetica-a-transicao-da-europa-de-campea-mundial-de-exportacao-para-consumidora\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Energia, poder e depend\u00eancia: a trajet\u00f3ria da Europa de campe\u00e3 mundial de exporta\u00e7\u00e3o a consumidora<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"A Europa e a energia\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Europa-Energie.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Europa-Energie.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Europa-Energie-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Europa-Energie-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Europa-Energie-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/poder-e-dependencia-energetica-a-transicao-da-europa-de-campea-mundial-de-exportacao-para-consumidora\/\" rel=\"bookmark\">Energia, poder e depend\u00eancia: a trajet\u00f3ria da Europa de campe\u00e3 mundial de exporta\u00e7\u00e3o a consumidora<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"hohe energiepreise in deutschland verstehen: gas, strom und benzin einfach erkl\u00e4rt\" data-id=\"4103\"  data-category=\"allgemein featured gesellschaft tipps &amp; anleitungen\" data-post_tag=\"deutschland energiepolitik eu-gesetze europa krisen ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/12\/compreender-os-elevados-precos-da-energia-na-alemanha-gas-eletricidade-e-gasolina-explicados-de-forma-simples\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Compreender os pre\u00e7os elevados da energia na Alemanha: G\u00e1s, eletricidade e gasolina explicados de forma simples<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Pre\u00e7os da energia na Alemanha\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/energiepreise-deutschland.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/energiepreise-deutschland.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/energiepreise-deutschland-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/energiepreise-deutschland-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/energiepreise-deutschland-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/12\/compreender-os-elevados-precos-da-energia-na-alemanha-gas-eletricidade-e-gasolina-explicados-de-forma-simples\/\" rel=\"bookmark\">Compreender os pre\u00e7os elevados da energia na Alemanha: G\u00e1s, eletricidade e gasolina explicados de forma simples<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"digitales eigentum erkl\u00e4rt \u2013 so entstehen nachhaltige online-verm\u00f6genswerte\" data-id=\"4766\"  data-category=\"allgemein b\u00fccher featured gesellschaft ki-systeme\" data-post_tag=\"buch datenbanken denkmodelle digitales eigentum erp-software k\u00fcnstliche intelligenz prozesse publishing\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/a-propriedade-digital-explicou-como-sao-criados-activos-sustentaveis-em-linha\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">A propriedade digital explicada - Como s\u00e3o criados activos em linha sustent\u00e1veis<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"O que \u00e9 a propriedade digital\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Digitales-Eigentum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/a-propriedade-digital-explicou-como-sao-criados-activos-sustentaveis-em-linha\/\" rel=\"bookmark\">A propriedade digital explicada - Como s\u00e3o criados activos em linha sustent\u00e1veis<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Perguntas mais frequentes<\/h2>\n<ol>\n<li><strong>O que \u00e9 exatamente um modelo de l\u00edngua local?<\/strong><br \/>\nUm modelo de l\u00edngua local \u00e9 uma IA que pode compreender e gerar textos - semelhante ao ChatGPT. A diferen\u00e7a \u00e9 que n\u00e3o funciona atrav\u00e9s da Internet, mas diretamente no seu pr\u00f3prio computador. Todos os c\u00e1lculos s\u00e3o efectuados localmente e nenhum dado \u00e9 enviado para servidores externos. Isto significa que o utilizador mant\u00e9m o controlo total sobre a sua pr\u00f3pria informa\u00e7\u00e3o.<\/li>\n<li><strong>Que vantagens oferece uma IA local em rela\u00e7\u00e3o a uma solu\u00e7\u00e3o na nuvem como o ChatGPT?<\/strong><br \/>\nAs tr\u00eas maiores vantagens s\u00e3o a prote\u00e7\u00e3o dos dados, a independ\u00eancia e o controlo dos custos.<br \/>\n- Prote\u00e7\u00e3o de dados: nenhum texto sai do computador.<br \/>\n- Independ\u00eancia: N\u00e3o \u00e9 necess\u00e1ria qualquer liga\u00e7\u00e3o \u00e0 Internet, nem mudan\u00e7a de fornecedor ou risco de falha.<br \/>\n- Custos: Sem taxas cont\u00ednuas por consulta. Paga uma vez pelo hardware - \u00e9 s\u00f3 isso.<\/li>\n<li><strong>S\u00e3o necess\u00e1rias compet\u00eancias de programa\u00e7\u00e3o para utilizar um modelo lingu\u00edstico localmente?<\/strong><br \/>\nN\u00e3o. Com ferramentas modernas como o Ollama ou o LM Studio, um modelo pode ser iniciado com apenas alguns cliques. Atualmente, mesmo os principiantes podem executar uma IA local em apenas alguns minutos, sem escrever uma \u00fanica linha de c\u00f3digo.<\/li>\n<li><strong>Que dispositivos Apple s\u00e3o particularmente adequados?<\/strong><br \/>\nPara os principiantes, um Mac Mini com M4 ou M4 Pro e pelo menos 32 GB de RAM \u00e9 muitas vezes suficiente. Se pretender utilizar modelos maiores ou v\u00e1rios ao mesmo tempo, \u00e9 melhor optar por um Mac Studio com 64 GB ou 128 GB de RAM. Um Mac Pro n\u00e3o oferece praticamente nenhuma vantagem, exceto se precisar de ranhuras PCI-e. Os computadores port\u00e1teis s\u00e3o adequados, mas atingem os seus limites t\u00e9rmicos mais rapidamente.<\/li>\n<li><strong>Qual \u00e9 a quantidade m\u00ednima de RAM que deve ter?<\/strong><br \/>\nIsto depende do tamanho do modelo.<br \/>\n- Modelos pequenos (1-3 mil milh\u00f5es de par\u00e2metros): 16-32 GB s\u00e3o suficientes.<br \/>\n- Modelos m\u00e9dios (7-13 mil milh\u00f5es): melhor 48-64 GB.<br \/>\n- Modelos grandes (mais de 30 mil milh\u00f5es): 128 GB ou mais.<br \/>\n\u00c9 importante planear com alguma reserva - caso contr\u00e1rio, haver\u00e1 tempos de espera ou cancelamentos.<\/li>\n<li><strong>O que significa \"Mem\u00f3ria Unificada\" para Apple Silicon?<\/strong><br \/>\nA mem\u00f3ria unificada \u00e9 uma mem\u00f3ria partilhada que \u00e9 acedida simultaneamente pela CPU, GPU e motor neural. Isso economiza tempo e energia, pois n\u00e3o h\u00e1 necessidade de copiar dados entre diferentes \u00e1reas de mem\u00f3ria. Esta \u00e9 uma enorme vantagem, especialmente para c\u00e1lculos de IA, porque tudo funciona num \u00fanico fluxo.<\/li>\n<li><strong>Qual \u00e9 a diferen\u00e7a entre a GGUF, a MLX e a Safetensors?<\/strong><br \/>\n- GGUF: Um formato compacto para utiliza\u00e7\u00e3o local (por exemplo, no Ollama ou no LM Studio). Ideal para a infer\u00eancia, ou seja, a execu\u00e7\u00e3o de modelos acabados.<br \/>\n- MLX: formato pr\u00f3prio do Apple, especialmente para chips M. Muito eficiente, mas ainda jovem.<br \/>\n- Safetensors: Um formato do mundo PyTorch, destinado principalmente \u00e0 forma\u00e7\u00e3o e \u00e0 investiga\u00e7\u00e3o.<br \/>\nGGUF ou MLX s\u00e3o ideais para utiliza\u00e7\u00e3o local no Mac.<\/li>\n<li><strong>Onde \u00e9 que arranja os modelos?<\/strong><br \/>\nA plataforma mais conhecida \u00e9 huggingface.co - uma enorme biblioteca de modelos de IA. A\u00ed pode encontrar variantes de LLaMA, Mistral, Gemma, Phi-3 e muitos outros. Muitos modelos j\u00e1 est\u00e3o dispon\u00edveis no formato GGUF e podem ser carregados diretamente no Ollama.<\/li>\n<li><strong>Quais s\u00e3o as ferramentas mais f\u00e1ceis de utilizar?<\/strong><br \/>\nPara come\u00e7ar, o Ollama e o LM Studio s\u00e3o ideais. O Ollama \u00e9 executado no terminal e \u00e9 leve. O LM Studio oferece uma interface gr\u00e1fica de usu\u00e1rio com uma janela de bate-papo. Ambos carregam e iniciam modelos automaticamente e n\u00e3o requerem configura\u00e7\u00e3o complicada.<\/li>\n<li><strong>Os modelos lingu\u00edsticos tamb\u00e9m podem ser utilizados com o servidor FileMaker?<\/strong><br \/>\nSim - desde o FileMaker Server 2025, os modelos MLX podem ser endere\u00e7ados diretamente. Isso permite an\u00e1lises de texto, classifica\u00e7\u00f5es ou avalia\u00e7\u00f5es autom\u00e1ticas dentro de sistemas ERP ou CRM, por exemplo. Isto permite que os dados comerciais confidenciais sejam processados localmente, sem necessidade de os enviar para fornecedores externos.<\/li>\n<li><strong>Qual \u00e9 o tamanho normal destes modelos?<\/strong><br \/>\nOs modelos pequenos t\u00eam apenas alguns gigabytes, os grandes podem ter 20 a 30 GB ou mais. O seu tamanho pode ser bastante reduzido atrav\u00e9s da quantiza\u00e7\u00e3o (por exemplo, 4 bits), muitas vezes com uma perda m\u00ednima de qualidade. Um modelo 13-B comprimido, por exemplo, pode ocupar apenas 7 GB - perfeito para um Mac Mini M4 Pro.<\/li>\n<li><strong>\u00c9 poss\u00edvel treinar ou personalizar modelos locais?<\/strong><br \/>\nBasicamente sim - mas a forma\u00e7\u00e3o \u00e9 muito intensiva em termos de computa\u00e7\u00e3o. As estruturas MLX ou Python podem ser utilizadas para afina\u00e7\u00e3o local de modelos mais pequenos. Atualmente, o FileMaker cont\u00e9m uma fun\u00e7\u00e3o integrada para <a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/lora-training-como-o-filemaker-2025-simplifica-a-afinacao-de-grandes-modelos-linguisticos\/\"><strong>Afinar diretamente os modelos lingu\u00edsticos<\/strong><\/a> para o poder fazer. No entanto, para um treino em grande escala (por exemplo, 50 mil milh\u00f5es de par\u00e2metros), seria necess\u00e1rio um parque de GPU dedicado. Para a maioria das aplica\u00e7\u00f5es, \u00e9 suficiente utilizar os modelos existentes e control\u00e1-los especificamente atrav\u00e9s de avisos.<\/li>\n<li><strong>Quanta energia consome um Mac durante os c\u00e1lculos de IA?<\/strong><br \/>\nSurpreendentemente pouco. Um Mac Studio tem frequentemente menos de 100 W em pleno funcionamento, enquanto uma \u00fanica placa gr\u00e1fica NVIDIA (por exemplo, RTX 5090) consome at\u00e9 450 W - sem CPU e perif\u00e9ricos. Isto significa que a IA local em hardware Apple n\u00e3o \u00e9 apenas mais silenciosa, mas tamb\u00e9m significativamente mais eficiente em termos energ\u00e9ticos.<\/li>\n<li><strong>Um MacBook Pro \u00e9 adequado para IA local?<\/strong><br \/>\nSim, mas com restri\u00e7\u00f5es.<br \/>\nEmbora o desempenho seja elevado, a capacidade de carga t\u00e9rmica \u00e9 limitada. O processador fica estrangulado durante sess\u00f5es mais longas. Um MacBook Pro M3\/M4 \u00e9 perfeito para conversas curtas, tarefas de texto ou an\u00e1lises - mas n\u00e3o para uma utiliza\u00e7\u00e3o a longo prazo.<\/li>\n<li><strong>At\u00e9 que ponto os modelos locais s\u00e3o realmente seguros?<\/strong><br \/>\nT\u00e3o seguros como o sistema em que s\u00e3o executados. Uma vez que n\u00e3o s\u00e3o enviados dados atrav\u00e9s da Internet, n\u00e3o existe praticamente qualquer risco por parte de terceiros. No entanto, deve certificar-se de que os ficheiros tempor\u00e1rios, os registos ou os hist\u00f3ricos de conversa\u00e7\u00e3o n\u00e3o v\u00e3o parar acidentalmente a pastas na nuvem (por exemplo, iCloud Drive). O armazenamento local no SSD interno \u00e9 o ideal.<\/li>\n<li><strong>Quais s\u00e3o os erros t\u00edpicos que os principiantes cometem?<\/strong><br \/>\n- Carregamento de modelos demasiado grandes, apesar de n\u00e3o haver mem\u00f3ria RAM suficiente.<br \/>\n- Utilizar vers\u00f5es antigas do Ollama ou do LM Studio.<br \/>\n- N\u00e3o ativar a acelera\u00e7\u00e3o da GPU (por exemplo, MLX).<br \/>\n- Demasiados processos em execu\u00e7\u00e3o em segundo plano.<br \/>\n- Carregamento de modelos de fontes duvidosas.<br \/>\nSolu\u00e7\u00e3o: Utilizar apenas fontes fi\u00e1veis (por exemplo, Hugging Face) e estar atento aos recursos do sistema.<\/li>\n<li><strong>Como \u00e9 que a tecnologia local de IA se ir\u00e1 desenvolver nos pr\u00f3ximos anos?<\/strong><br \/>\nOs modelos est\u00e3o a tornar-se ainda mais compactos e precisos. Apple, Mistral e Meta j\u00e1 est\u00e3o a trabalhar em arquitecturas que requerem menos mem\u00f3ria e energia para a mesma qualidade. Ao mesmo tempo, est\u00e3o a ser desenvolvidas interfaces convenientes - como plug-ins de IA para processamento de texto, programas de correio ou aplica\u00e7\u00f5es de notas. A longo prazo, \u00e9 prov\u00e1vel que cada sistema profissional tenha uma esp\u00e9cie de \"IA local incorporada\".<\/li>\n<li><strong>Porque \u00e9 que vale a pena come\u00e7ar agora?<\/strong><br \/>\nPorque as bases para os pr\u00f3ximos anos est\u00e3o a ser lan\u00e7adas agora mesmo. Qualquer pessoa que aprenda hoje a iniciar um modelo localmente, a processar dados de forma estruturada e a formular avisos de forma direcionada ser\u00e1 capaz de agir de forma independente mais tarde - sem ter de depender de fornecedores de servi\u00e7os de nuvem dispendiosos. Resumindo: a IA local \u00e9 o caminho calmo e confiante para um futuro digital em que pode voltar a ter os seus dados e ferramentas nas suas pr\u00f3prias m\u00e3os.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-594 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-594 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Artigos actuais sobre arte e cultura<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-594\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"zukunft mit ladeger\u00e4t \u2013 herr von l&#8217;oreot kauft einen e-scooter\" data-id=\"3229\"  data-category=\"allgemein gesellschaft kunst &amp; kultur stories &amp; humor\" data-post_tag=\"erfahrungen\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/futuro-com-carregador-o-sr-von-loreot-compra-uma-e-scooter\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Futuro com um carregador - von L'oreot compra uma trotinete el\u00e9ctrica<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"747\" class=\"attachment-full size-full\" alt=\"\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-300x219.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-768x560.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/loereot-e-scooter-1-16x12.jpg 16w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2025\/10\/futuro-com-carregador-o-sr-von-loreot-compra-uma-e-scooter\/\" rel=\"bookmark\">Futuro com um carregador - von L'oreot compra uma trotinete el\u00e9ctrica<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cancel culture im westen: sport, universit\u00e4ten, milit\u00e4r und eu-sanktionen analysiert\" data-id=\"5009\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/cultura-do-cancelamento-no-ocidente-desporto-universidades-sancoes-militares-e-da-ue-analisadas\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Cancelar Cultura no Ocidente: an\u00e1lise do desporto, das universidades, das for\u00e7as armadas e das san\u00e7\u00f5es da UE<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Cancelar a cultura no Ocidente\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/cultura-do-cancelamento-no-ocidente-desporto-universidades-sancoes-militares-e-da-ue-analisadas\/\" rel=\"bookmark\">Cancelar Cultura no Ocidente: an\u00e1lise do desporto, das universidades, das for\u00e7as armadas e das san\u00e7\u00f5es da UE<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"helge schneider: haltung, humor und die freiheit, sich nicht erkl\u00e4ren zu m\u00fcssen\" data-id=\"4756\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland erfahrungen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/helge-schneider-atitude-o-humor-e-a-liberdade-de-nao-ter-de-se-explicar\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Helge Schneider: Atitude, humor e a liberdade de n\u00e3o ter de se explicar<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Retrato de Helge Schneider\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Helge-Schneider-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/02\/helge-schneider-atitude-o-humor-e-a-liberdade-de-nao-ter-de-se-explicar\/\" rel=\"bookmark\">Helge Schneider: Atitude, humor e a liberdade de n\u00e3o ter de se explicar<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mehr als punk: nina hagen, cosma shiva und die kunst, sich nicht vereinnahmen zu lassen\" data-id=\"4521\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"auswandern deutschland erfahrungen europa krisen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pt\/2026\/01\/more-than-punk-nina-hagen-cosma-shiva-and-the-art-of-not-being-taken-in\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Mais do que punk: Nina Hagen, Cosma Shiva e a arte de n\u00e3o se deixar enganar<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Retrato de Nina e Cosma Shiva Hagen\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Nina-Cosma-Shiva-Hagen-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/01\/more-than-punk-nina-hagen-cosma-shiva-and-the-art-of-not-being-taken-in\/\" rel=\"bookmark\">Mais do que punk: Nina Hagen, Cosma Shiva e a arte de n\u00e3o se deixar enganar<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>Atualmente, quem trabalha com intelig\u00eancia artificial pensa frequentemente no ChatGPT ou em servi\u00e7os online semelhantes. Escreve-se uma pergunta, espera-se alguns segundos - e recebe-se uma resposta como se estivesse do outro lado da linha um interlocutor paciente e muito culto. Mas o que \u00e9 facilmente esquecido: Cada entrada, cada frase, cada palavra viaja atrav\u00e9s do ... <a title=\"Mais do que punk: Nina Hagen, Cosma Shiva e a arte de n\u00e3o se deixar enganar\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/pt\/2026\/01\/more-than-punk-nina-hagen-cosma-shiva-and-the-art-of-not-being-taken-in\/\" aria-label=\"Leia mais sobre More than punk: Nina Hagen, Cosma Shiva e a arte de n\u00e3o se deixar levar\">Ler mais<\/a><\/p>","protected":false},"author":1,"featured_media":3462,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":4269,"footnotes":""},"categories":[15,3,147,431],"tags":[10,469,410,471,435,433,11,437,465,432,434],"class_list":["post-3461","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple-macos","category-filemaker","category-hardware","category-ki-systeme","tag-apple","tag-datenschutz","tag-filemaker","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mac","tag-mistral","tag-mlx","tag-ollama","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/posts\/3461","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/comments?post=3461"}],"version-history":[{"count":21,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/posts\/3461\/revisions"}],"predecessor-version":[{"id":5873,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/posts\/3461\/revisions\/5873"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/media\/3462"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/media?parent=3461"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/categories?post=3461"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/pt\/wp-json\/wp\/v2\/tags?post=3461"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}