{"id":2502,"date":"2025-08-20T13:39:23","date_gmt":"2025-08-20T13:39:23","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=2502"},"modified":"2026-03-16T08:38:18","modified_gmt":"2026-03-16T08:38:18","slug":"ollama-meets-qdrant-una-memoria-local-para-tu-ki-en-el-mac","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/es\/2025\/08\/ollama-meets-qdrant-una-memoria-local-para-tu-ki-en-el-mac\/","title":{"rendered":"Ollama se re\u00fane con Qdrant: una memoria local para tu IA en el Mac"},"content":{"rendered":"<h2>IA local con memoria: sin nube, sin suscripci\u00f3n, sin distracciones<\/h2>\n<p>En un <a href=\"https:\/\/www.markus-schall.de\/es\/2025\/08\/ki-local-en-el-mac-asi-1tp12para-crear-un-modelo-lingueistico-con-ollama\/\"><strong>art\u00edculos anteriores<\/strong><\/a> He explicado c\u00f3mo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a trav\u00e9s de REST API.<\/p>\n<p>Sin embargo, el modelo s\u00f3lo \"sabe\" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. <strong>Lo que falta es un recuerdo<\/strong>.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-107 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-107 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Cuestiones sociales de actualidad<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-107\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie ich in vier monaten f\u00fcnf b\u00fccher in zwei sprachen geschrieben habe\" data-id=\"2775\"  data-category=\"allgemein b\u00fccher gesellschaft tipps &amp; anleitungen\" data-post_tag=\"buch digitales eigentum lernen prozesse publishing verlag\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/09\/como-escribi-cinco-libros-en-dos-idiomas-en-cuatro-meses\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">C\u00f3mo escrib\u00ed cinco libros en dos idiomas en cuatro meses<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1920\" height=\"1280\" class=\"attachment-full size-full\" alt=\"Escribir libros con Affinity y BoD\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing.jpg\" data-dpt-sizes=\"(max-width: 1920px) 100vw, 1920px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing.jpg 1920w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing-1024x683.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing-1536x1024.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/buecher-affinity-bod-selfpublishing-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/09\/como-escribi-cinco-libros-en-dos-idiomas-en-cuatro-meses\/\" rel=\"bookmark\">C\u00f3mo escrib\u00ed cinco libros en dos idiomas en cuatro meses<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"elektroauto, hybrid und e-roller: eine realistische betrachtung jenseits der ideologie\" data-id=\"4255\"  data-category=\"allgemein gesellschaft tipps &amp; anleitungen\" data-post_tag=\"energiepolitik erfahrungen prozesse ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/coche-electrico-hibrido-y-e-scooter-una-vision-realista-mas-alla-de-la-ideologia\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Coche el\u00e9ctrico, h\u00edbrido y e-scooter: una visi\u00f3n realista m\u00e1s all\u00e1 de la ideolog\u00eda<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Electromovilidad - e-scooter\/scooter, h\u00edbrido, coche el\u00e9ctrico\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Elektromobilitaet-Titel-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/01\/coche-electrico-hibrido-y-e-scooter-una-vision-realista-mas-alla-de-la-ideologia\/\" rel=\"bookmark\">Coche el\u00e9ctrico, h\u00edbrido y e-scooter: una visi\u00f3n realista m\u00e1s all\u00e1 de la ideolog\u00eda<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cloud-act, datenhoheit und die schweiz: ein wendepunkt f\u00fcr europ\u00e4ische it-strategien?\" data-id=\"3727\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"datenbanken datenschutz digitales eigentum eu-gesetze europa\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/cloud-act-soberania-de-datos-y-suiza-un-punto-de-inflexion-para-las-estrategias-europeas-de-it\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Ley CLOUD, soberan\u00eda de datos y Suiza: \u00bfun punto de inflexi\u00f3n para las estrategias europeas de TI?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"\u00bfQu\u00e9 significa para Europa la resoluci\u00f3n suiza sobre la nube?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/schweiz-cloud-resolution-eu-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/cloud-act-soberania-de-datos-y-suiza-un-punto-de-inflexion-para-las-estrategias-europeas-de-it\/\" rel=\"bookmark\">Ley CLOUD, soberan\u00eda de datos y Suiza: \u00bfun punto de inflexi\u00f3n para las estrategias europeas de TI?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die neuen eu-zensurgesetze: was chatcontrol, dsa, emfa und der ai act bedeuten\" data-id=\"3586\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"datenschutz digitales eigentum eu-gesetze europa k\u00fcnstliche intelligenz llm meinungsfreiheit spieltheorie sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/las-nuevas-leyes-de-censura-de-la-ue-que-significan-chatcontrol-dsa-emfa-y-la-ley-ai\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Las nuevas leyes de censura de la UE: Qu\u00e9 significan Chatcontrol, DSA, EMFA y la Ley de AI<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Leyes de censura de la UE\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/eu-zensurgesetze-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/11\/las-nuevas-leyes-de-censura-de-la-ue-que-significan-chatcontrol-dsa-emfa-y-la-ley-ai\/\" rel=\"bookmark\">Las nuevas leyes de censura de la UE: Qu\u00e9 significan Chatcontrol, DSA, EMFA y la Ley de AI<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<p>Precisamente por eso utilizamos Qdrant, una moderna base de datos sem\u00e1ntica de vectores.<br \/>\nEn este art\u00edculo te lo mostrar\u00e9 paso a paso:<\/p>\n<ul>\n<li>c\u00f3mo installier Qdrant en el Mac (v\u00eda Docker)<\/li>\n<li>C\u00f3mo crear incrustaciones con Python<\/li>\n<li>c\u00f3mo guardar, buscar e integrar contenidos en el flujo de trabajo Ollama<\/li>\n<li>y c\u00f3mo es una secuencia completa de pregunta\u2192memoria\u2192respuesta<\/li>\n<\/ul>\n<h2>\u00bfPor qu\u00e9 Qdrant?<\/h2>\n<p>Qdrant no almacena textos tradicionales, sino vectores que representan el significado de un texto como un c\u00f3digo num\u00e9rico. Esto significa que el contenido no solo puede encontrarse con exactitud, sino tambi\u00e9n con similitud sem\u00e1ntica, aunque las palabras var\u00eden.<\/p>\n<p>Ollama + Qdrant por lo tanto resulta:<\/p>\n<p>Un modelo de lenguaje local con memoria a largo plazo: seguro, controlable y ampliable.<\/p>\n<h3>Requisitos previos<\/h3>\n<ul>\n<li>Ollama es installiert y se ejecuta (\u2192 por ejemplo, ollama ejecutar mistral).<\/li>\n<li>Docker es installiert: <a href=\"https:\/\/www.docker.com\/products\/docker-desktop\" target=\"_blank\" rel=\"noopener\">https:\/\/www.docker.com\/products\/docker-desktop<\/a><\/li>\n<li>Python 3.9+<\/li>\n<\/ul>\n<h3>Paqueteinstallaci\u00f3n de Qdrant:<\/h3>\n<pre class=\"notranslate\" data-no-translation=\"\">pip install qdrant-client sentence-transformers<\/pre>\n<h3>Iniciar Qdrant (Docker)<\/h3>\n<pre class=\"notranslate\" data-no-translation=\"\">docker run -p 6333:6333 -p 6334:6334 qdrant\/qdrant<\/pre>\n<p>A continuaci\u00f3n, Qdrant se ejecuta:<\/p>\n<p><strong>http:\/\/localhost:6333 <\/strong>(API REST)<\/p>\n<p>http:\/\/localhost:6334 (gRPC, no es necesario para este art\u00edculo)<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-2506\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-scaled.jpg\" alt=\"Qdrant en Docker bajo macOS Apple\" width=\"2560\" height=\"1541\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-scaled.jpg 2560w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-300x181.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-1024x616.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-768x462.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-1536x925.jpg 1536w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-2048x1233.jpg 2048w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Docker-Qdrant-18x12.jpg 18w\" sizes=\"auto, (max-width: 2560px) 100vw, 2560px\" \/><\/p>\n<h2>Ejemplo en Python para Ollama + Qdrant<\/h2>\n<p>Ahora escribimos un sencillo script b\u00e1sico que:<\/p>\n<ul>\n<li>acepta la solicitud del usuario<\/li>\n<li>genera un vector de incrustaci\u00f3n a partir de este<\/li>\n<li>busca memorias sem\u00e1nticamente similares en Qdrant<\/li>\n<li>la respuesta se genera con contexto a trav\u00e9s de Ollama<\/li>\n<li>guarda la nueva conversaci\u00f3n como recordatorio<\/li>\n<\/ul>\n<pre class=\"notranslate\" data-no-translation=\"\">Python-Script: <strong>ollama_memory.py<\/strong><\/pre>\n<pre class=\"notranslate\" data-no-translation=\"\">import requests\r\nfrom sentence_transformers import SentenceTransformer\r\nfrom qdrant_client import QdrantClient\r\nfrom qdrant_client.models import Distance, VectorParams, PointStruct\r\n\r\n# Einstellungen\r\nOLLAMA_URL = \"http:\/\/localhost:11434\/api\/generate\"\r\nCOLLECTION_NAME = \"memory\"\r\nVECTOR_SIZE = 384 # f\u00fcr 'all-MiniLM-L6-v2'\r\n\r\n# Lade Embedding-Modell\r\nembedder = SentenceTransformer(\"all-MiniLM-L6-v2\")\r\n\r\n# Verbinde mit Qdrant\r\nqdrant = QdrantClient(host=\"localhost\", port=6333)\r\n\r\n# Erstelle Collection (einmalig)\r\ndef create_collection():\r\nif COLLECTION_NAME not in qdrant.get_collections().collections:\r\nqdrant.recreate_collection(\r\ncollection_name=COLLECTION_NAME,\r\nvectors_config=VectorParams(size=VECTOR_SIZE, distance=Distance.COSINE)\r\n)\r\n\r\n# F\u00fcge Eintrag ins Ged\u00e4chtnis hinzu\r\ndef add_to_memory(text: str):\r\nvector = embedder.encode(text).tolist()\r\npoint = PointStruct(id=hash(text), vector=vector, payload={\"text\": text})\r\nqdrant.upsert(collection_name=COLLECTION_NAME, points=[point])\r\n\r\n# Suche im Ged\u00e4chtnis\r\ndef search_memory(query: str, top_k=3):\r\nvector = embedder.encode(query).tolist()\r\nhits = qdrant.search(\r\ncollection_name=COLLECTION_NAME,\r\nquery_vector=vector,\r\nlimit=top_k\r\n)\r\nreturn [hit.payload[\"text\"] for hit in hits]\r\n\r\n# Sende Anfrage an Ollama\r\ndef query_ollama(context: list[str], user_prompt: str):\r\nprompt = \"\\n\\n\".join(context + [user_prompt])\r\nresponse = requests.post(OLLAMA_URL, json={\r\n\"model\": \"mistral\",\r\n\"prompt\": prompt,\r\n\"stream\": False\r\n})\r\nreturn response.json()[\"response\"]\r\n\r\n# Ablauf\r\ndef main():\r\ncreate_collection()\r\nprint(\"Frage an die KI:\")\r\nuser_prompt = input(\"&gt; \")\r\ncontext = search_memory(user_prompt)\r\nanswer = query_ollama(context, user_prompt)\r\nprint(\"\\nAntwort von Ollama:\")\r\nprint(answer.strip())\r\n\r\n# Speichern der Konversation\r\nfull_entry = f\"Frage: {user_prompt}\\nAntwort: {answer.strip()}\"\r\nadd_to_memory(full_entry)\r\n\r\nif __name__ == \"__main__\":\r\nmain()<\/pre>\n<h2>Notas sobre la pr\u00e1ctica<\/h2>\n<p>Tambi\u00e9n puede utilizar sus propios modelos de incrustaci\u00f3n, por ejemplo, a trav\u00e9s de Ollama (por ejemplo, nomic-embed-text) o los modelos Hugging Face<\/p>\n<p>Qdrant admite filtros de carga \u00fatil, periodos de tiempo y campos (\u00a1muy \u00fatil para ampliaciones posteriores!)<\/p>\n<p>El hash(text)-ID es suficiente para pruebas sencillas, para aplicaciones profesionales deber\u00eda utilizar UUIDs<\/p>\n<h2>IA local con memoria - y lo que puede hacer con ella<\/h2>\n<p>En los cap\u00edtulos anteriores, te mostr\u00e9 c\u00f3mo construir una memoria de IA real y local en un Mac con Ollama y Qdrant. Una configuraci\u00f3n que funciona sin la nube, sin suscripci\u00f3n y sin servidores externos: r\u00e1pida, segura y privada.<\/p>\n<h3>\u00bfY ahora qu\u00e9?<\/h3>\n<p>\u00bfPara qu\u00e9 puede utilizarse realmente esta tecnolog\u00eda? \u00bfQu\u00e9 se puede hacer con ella hoy, ma\u00f1ana y pasado ma\u00f1ana?<\/p>\n<p>La respuesta: bastante.<\/p>\n<p>Porque lo que tenemos aqu\u00ed es algo m\u00e1s que un chatbot. Es una m\u00e1quina de pensar independiente de la plataforma y con memoria a largo plazo. Y eso abre puertas.<\/p>\n<h3>\ud83d\udd0d 1. base de datos de conocimientos personales<\/h3>\n<p>Puedes utilizar Ollama + Qdrant como tu memoria personal a largo plazo.<br \/>\nDocumentos, notas de conversaciones, ideas... todo lo que le cuentes puede almacenarse y recuperarse sem\u00e1nticamente.<\/p>\n<p><strong>Ejemplo:<\/strong><\/p>\n<blockquote><p>\"\u00bfCu\u00e1l era mi idea de negocio del jueves pasado?\"<\/p>\n<p>\"\u00bfQu\u00e9 clientes quer\u00edan una actualizaci\u00f3n en marzo?\"<\/p><\/blockquote>\n<p>En lugar de buscar en carpetas, basta con preguntar al sistema. Lo m\u00e1s interesante es que tambi\u00e9n funciona con preguntas imprecisas porque Qdrant busca sem\u00e1nticamente, no solo por palabras clave.<\/p>\n<h3>\ud83d\udcc4 2. registro y resumen autom\u00e1ticos<\/h3>\n<p>En combinaci\u00f3n con la entrada de audio o de texto, el sistema puede mantener un registro continuo:<\/p>\n<ul>\n<li>Notas en las reuniones<\/li>\n<li>Llamadas con clientes<\/li>\n<li>Registros diarios o historiales de proyectos<\/li>\n<\/ul>\n<p>Estos datos se introducen autom\u00e1ticamente en la memoria de Qdrant, por lo que pueden consultarse posteriormente como un asistente:<\/p>\n<blockquote><p>\"\u00bfQu\u00e9 dijo el Sr. Meier sobre la entrega de nuevo?\"<\/p>\n<p>\"\u00bfC\u00f3mo fue el proceso en el proyecto XY?\"<\/p><\/blockquote>\n<h3>\ud83e\udde0 3. entrenador personal o asistente de agenda<\/h3>\n<p>Si anotas regularmente tus pensamientos, estados de \u00e1nimo o decisiones, podr\u00e1s crear un compa\u00f1ero de reflexi\u00f3n:<\/p>\n<blockquote><p>\"\u00bfCu\u00e1l ha sido mi mayor progreso este mes?\"<\/p>\n<p>\"\u00bfC\u00f3mo reaccionaba entonces ante los contratiempos?\".<\/p><\/blockquote>\n<p>El sistema llega a conocerte con el tiempo y se convierte en un espejo real, no s\u00f3lo en un chatbot.<\/p>\n<h3>\ud83d\udcbc 4. aplicaciones empresariales con FileMaker<\/h3>\n<p>Si, como yo, utilizas FileMaker, puedes conectar esta configuraci\u00f3n directamente:<\/p>\n<ul>\n<li>Enviar mensajes desde FileMaker<\/li>\n<li>Recuperar y guardar respuestas autom\u00e1ticamente<\/li>\n<li>Controle el acceso a la memoria directamente a trav\u00e9s de REST API o shell script<\/li>\n<\/ul>\n<p>Esto crea una combinaci\u00f3n extremadamente potente:<\/p>\n<ul>\n<li><strong>FileMaker<\/strong> = Front end, interfaz de usuario, centro de control<\/li>\n<li><strong>Ollama<\/strong> = Inteligencia ling\u00fc\u00edstica<\/li>\n<li><strong>Qdrant<\/strong> = memoria sem\u00e1ntica a largo plazo<\/li>\n<\/ul>\n<p>El resultado: un aut\u00e9ntico componente de IA para las soluciones FileMaker: local, seguro y personalizado.<\/p>\n<h3>\ud83d\udee0\ufe0f 5. Apoyo en la vida cotidiana: recordatorios, ideas, recomendaciones<\/h3>\n<blockquote><p>\"Recu\u00e9rdame esta idea la semana que viene\"<\/p>\n<p>\"\u00bfQu\u00e9 libros te he recomendado ya?\"<\/p>\n<p>\"\u00bfQu\u00e9 podr\u00eda ofrecerle al Sr. M\u00fcller a continuaci\u00f3n?\"<\/p><\/blockquote>\n<p>Con una l\u00f3gica de memoria espec\u00edfica (marcas de tiempo, categor\u00edas, usuarios), puedes estructurar tu memoria de forma espec\u00edfica y utilizarla para muchos \u00e1mbitos de la vida y los negocios.<\/p>\n<h3>\ud83e\udd16 6. bases para un sistema de agentes<\/h3>\n<p>Si piensas en el futuro, tambi\u00e9n puedes construir sistemas similares a los agentes con esta configuraci\u00f3n:<\/p>\n<ul>\n<li>La IA se encarga de tareas sencillas<\/li>\n<li>La IA reconoce patrones a lo largo del tiempo<\/li>\n<li>La IA da pistas proactivas<\/li>\n<\/ul>\n<p><strong>Ejemplo:<\/strong><\/p>\n<blockquote><p>\"Ha hecho la misma pregunta cuatro veces esta semana: \u00bfquiere guardar una nota?\".<\/p>\n<p>\"Un llamativo n\u00famero de clientes ha mencionado este producto: \u00bfse lo resumo?\".<\/p><\/blockquote>\n<h3>\ud83c\udf10 7. integraci\u00f3n con otras herramientas<\/h3>\n<p>El sistema puede conectarse f\u00e1cilmente con otras herramientas:<\/p>\n<ul>\n<li><strong>Neo4j<\/strong>representar gr\u00e1ficamente las relaciones sem\u00e1nticas<\/li>\n<li><strong>Archivos y PDF<\/strong>para indexar contenidos autom\u00e1ticamente<\/li>\n<li><strong>Analizador de correo<\/strong>analizar y memorizar correos electr\u00f3nicos<\/li>\n<li><strong>Asistentes de voz<\/strong>interactuar por voz<\/li>\n<\/ul>\n<h3>\ud83d\udd10 8. todo sigue siendo local - y bajo control<\/h3>\n<p>La mayor ventaja: t\u00fa decides lo que se guarda. T\u00fa decides cu\u00e1nto tiempo se guarda. Y: nunca sale de tu ordenador si t\u00fa no quieres. En un mundo en el que mucha gente conf\u00eda ciegamente en la IA en la nube, esto es un poderoso contrapeso, especialmente para aut\u00f3nomos, desarrolladores, autores y emprendedores.<\/p>\n<hr \/>\n<h3>Encuesta actual sobre el uso de sistemas locales de IA<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"c2dc2b3af996c900460789b19a3769d6\" data-pid=\"3586\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"f946d374fd\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"499c12fc56b183fb11b6474ab4dab9c4\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">\u00bfQu\u00e9 opina de la ejecuci\u00f3n local de programas de IA como MLX o Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"142\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenioso: por fin independiente de la nube<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"25\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interesante, pero (a\u00fan) demasiado complicado<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Lo probar\u00e9 pronto<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">No lo necesito, con la nube me basta<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">No s\u00e9 exactamente de qu\u00e9 se trata.<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">Vote<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"es\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Doma Ollama + Qdrant: C\u00f3mo dotar a tu IA local de estructura, reglas y ajuste<\/h2>\n<p>Cualquiera que se haya tomado la molestia de instalar Ollama y Qdrant localmente en el Mac ya ha conseguido grandes cosas. Ahora tienes:<\/p>\n<ul>\n<li>Una IA en lengua local<\/li>\n<li>Una memoria sem\u00e1ntica<\/li>\n<li>Y una cadena de procesos que asigne Preguntar \u2192 Memoria \u2192 Ollama \u2192 Respuesta.<\/li>\n<\/ul>\n<p>Pero cualquiera que trabaje con ella se da cuenta enseguida: necesita normas. Estructura. Orden.<br \/>\nPorque sin control, su asistente se convertir\u00e1 r\u00e1pidamente en un charlat\u00e1n que recuerda demasiado, se repite constantemente o saca a relucir recuerdos irrelevantes.<\/p>\n<h2>\ud83e\udded \u00bfQu\u00e9 falta todav\u00eda?<\/h2>\n<p>Una orquesta tambi\u00e9n tiene un director. Y ese es exactamente tu trabajo ahora: controlar en lugar de solo utilizar.<\/p>\n<h3>M\u00f3dulo 1: Un \"router\" para la l\u00f3gica de la memoria<\/h3>\n<p>En lugar de guardarlo todo o buscarlo todo sin m\u00e1s, deber\u00edas decidir de antemano si algo debe guardarse o cargarse. Puedes hacerlo, por ejemplo, con un simple enrutador de relevancia que colocas entre el prompt y la memoria:<\/p>\n<p><strong>Ejemplo<\/strong>Compruebe la relevancia a trav\u00e9s de la consulta al propio Ollama<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">def is_relevant_for_memory(prompt, response):\r\npr\u00fcf_prompt = f\"\"\"\r\nNutzer hat gefragt: \"{prompt}\"\r\nDie KI hat geantwortet: \"{response}\"\r\nSollte man sich diesen Dialog langfristig merken? Antworte nur mit 'Ja' oder 'Nein'.\r\n\"\"\"\r\nresult = query_ollama([], pr\u00fcf_prompt).strip().lower()\r\nreturn result.startswith(\"ja\")<\/pre>\n<p>As\u00ed que le das a Ollama la tarea de evaluar su respuesta - y s\u00f3lo si es clasificada como relevante la guardas en Qdrant.<\/p>\n<h3>M\u00f3dulo 2: Excluir mensajes antiguos (limitaci\u00f3n de contexto)<\/h3>\n<p>Sobre todo en las sesiones m\u00e1s largas, resulta problem\u00e1tico que los mensajes antiguos sigan reapareciendo en el contexto. El modelo no olvida, sino que se atasca.<\/p>\n<p><strong>Soluci\u00f3n<\/strong>Limitar la ventana contextual.<\/p>\n<p>Puede hacerlo de dos maneras:<\/p>\n<p><strong>M\u00e9todo 1<\/strong>Limitar el n\u00famero de aciertos<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\">context = search_memory(user_prompt, top_k=3)<\/pre>\n<p>Aqu\u00ed s\u00f3lo se carga lo que es sem\u00e1nticamente relevante, no todo.<\/p>\n<p><strong>M\u00e9todo 2<\/strong>: Limitar el tiempo<\/p>\n<pre class=\"notranslate\" data-no-translation=\"\"># Nur Nachrichten der letzten 7 Tage\r\nnow = datetime.utcnow()\r\nfilter = Filter(\r\nmust=[\r\nFieldCondition(key=\"timestamp\", range=Range(gte=now - timedelta(days=7)))\r\n]\r\n)<\/pre>\n<p>Por tanto, puede \"cortar\" el tiempo si el sistema llega demasiado lejos en el pasado.<\/p>\n<h3>M\u00f3dulo 3: Introducci\u00f3n a los pesos contextuales y las etiquetas<\/h3>\n<p>No todas las entradas de tu memoria tienen el mismo valor. Puedes darles peso o categor\u00edas:<\/p>\n<ul>\n<li><strong>Fijo<\/strong> (por ejemplo, \"El usuario se llama Markus\")<\/li>\n<li><strong>Temporal<\/strong> (por ejemplo, \"Hoy es martes\")<\/li>\n<li><strong>Situacional<\/strong> (por ejemplo, \"Chat a partir de hoy a las 10:30 horas\")<\/li>\n<\/ul>\n<p>Qdrant admite las llamadas cargas \u00fatiles, es decir, informaci\u00f3n adicional por entrada. Esto permite filtrar o priorizar posteriormente.<\/p>\n<h3>M\u00f3dulo 4: Puesta a punto mediante el prompt<\/h3>\n<p>El propio indicador es una potente unidad de control.<br \/>\nAqu\u00ed tienes algunos trucos que puedes utilizar para que Ollama sea m\u00e1s inteligente:<\/p>\n<p><strong>Ejemplo de aviso con instrucciones:<\/strong><\/p>\n<blockquote><p>Eres un asistente local con memoria sem\u00e1ntica. Si encuentra varios recuerdos, utilice s\u00f3lo los tres m\u00e1s relevantes. No haga referencia a informaci\u00f3n de m\u00e1s de 10 d\u00edas de antig\u00fcedad a menos que est\u00e9 expl\u00edcitamente marcada. Ignore los recordatorios triviales como \"Buenos d\u00edas\" o \"Gracias\". Responda con precisi\u00f3n y con el estilo de un consejero experimentado.<\/p><\/blockquote>\n<p>Esto le permite realizar el ajuste fino directamente en el propio prompt, sin nuevos modelos, sin formaci\u00f3n.<\/p>\n<p>Y: puede generar el aviso din\u00e1micamente, en funci\u00f3n de la situaci\u00f3n.<\/p>\n<h3>M\u00f3dulo 5: Higiene del almacenamiento<\/h3>\n<p>A medida que la memoria crece, se vuelve confusa.<br \/>\nUn simple script de mantenimiento que elimine contenido irrelevante o duplicado vale su peso en oro.<\/p>\n<p><strong>Ejemplo:<\/strong><\/p>\n<blockquote><p>\"Olvida todo lo que tenga que ver con el 'tiempo'\".<\/p>\n<p>\"Borrar entradas que tengan m\u00e1s de 3 meses y nunca se hayan recuperado\".<\/p><\/blockquote>\n<p>Qdrant lo soporta v\u00eda API - y puedes automatizarlo una vez a la semana, por ejemplo.<\/p>\n<h3>M\u00f3dulo 6: FileMaker como panel de control<\/h3>\n<p>Si, como yo, trabajas con FileMaker, puedes controlar todo esto de forma remota a trav\u00e9s de REST-API:<\/p>\n<ul>\n<li>Enviar puntualmente<\/li>\n<li>Recuperar contexto<\/li>\n<li>Respuesta recibida<\/li>\n<li>Realizar una valoraci\u00f3n<\/li>\n<li>Guardar u olvidar<\/li>\n<\/ul>\n<p>Todo lo que necesita es un peque\u00f1o m\u00f3dulo REST en FileMaker (Insertar desde URL con JSON) y algunos scripts.<\/p>\n<p>El resultado: una interfaz que te permite controlar tu IA como si fuera un cuaderno viviente, pero con inteligencia.<\/p>\n<h2>\ud83d\udd1a Conclusi\u00f3n: la IA es tan buena como su liderazgo<\/h2>\n<p>Ollama es potente. Qdrant es flexible. Pero sin reglas claras, ambos se convierten en un mont\u00f3n de datos desestructurados. El truco no est\u00e1 en almacenarlo todo, sino en conservar s\u00f3lo lo que es relevante y pensar de forma espec\u00edfica en lugar de limitarse a recordar.<\/p>\n<h3>Nueva serie de art\u00edculos: Los historiales de ChatGPT como base de conocimientos para su IA<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/la-exportacion-de-datos-de-chatgpt-explica-como-tus-chats-de-ki-se-convierten-en-un-sistema-de-conocimiento-personal\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-5296\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg\" alt=\"Exportaci\u00f3n de datos ChatGPT\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ChatGPT-Datenexport.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Si ya has construido tu propia memoria de IA con Ollama y Qdrant, merece la pena que eches un vistazo a una nueva serie de art\u00edculos que empieza aqu\u00ed mismo. Trata de c\u00f3mo la <a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/la-exportacion-de-datos-de-chatgpt-explica-como-tus-chats-de-ki-se-convierten-en-un-sistema-de-conocimiento-personal\/\"><strong>Integrar la exportaci\u00f3n de datos ChatGPT en este sistema<\/strong><\/a> permite. Muchos usuarios ni siquiera se dan cuenta de que pueden exportar todo su historial de chats, y de que estos datos son una valiosa fuente de conocimiento. En esta serie, te mostrar\u00e9 c\u00f3mo analizar estas conversaciones, convertirlas en incrustaciones y luego importarlas a una base de datos vectorial. Esto permite a tu IA local acceder posteriormente a conversaciones anteriores y utilizarlas como contexto para las respuestas. De este modo, un archivo de conocimiento personal crece paso a paso a partir de di\u00e1logos individuales.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-108 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-108 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Art\u00edculos de actualidad sobre inteligencia artificial<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-108\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"lora-training: wie filemaker 2025 das feintuning gro\u00dfer sprachmodelle vereinfacht\" data-id=\"3220\"  data-category=\"filemaker &amp; erp ki-systeme\" data-post_tag=\"datenbanken filemaker k\u00fcnstliche intelligenz llm mlx sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/lora-training-como-filemaker-2025-simplifica-el-ajuste-fino-de-grandes-modelos-lingueisticos\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Entrenamiento LoRA: c\u00f3mo FileMaker 2025 simplifica el ajuste fino de grandes modelos ling\u00fc\u00edsticos<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"LoRA Ajuste fino - FileMaker 2025\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/10\/lora-training-como-filemaker-2025-simplifica-el-ajuste-fino-de-grandes-modelos-lingueisticos\/\" rel=\"bookmark\">Entrenamiento LoRA: c\u00f3mo FileMaker 2025 simplifica el ajuste fino de grandes modelos ling\u00fc\u00edsticos<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"vom content zur substanz: wie digitale systeme entstehen, die nicht kopierbar sind\" data-id=\"5899\"  data-category=\"allgemein b\u00fccher gesellschaft tipps &amp; anleitungen\" data-post_tag=\"buch datenlogik denkmodelle digitales eigentum erfahrungen k\u00fcnstliche intelligenz prozesse publishing ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/04\/del-contenido-a-la-sustancia-como-se-crean-sistemas-digitales-que-no-pueden-copiarse\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Del contenido a la sustancia: c\u00f3mo se crean sistemas digitales que no se pueden copiar<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"682\" class=\"attachment-full size-full\" alt=\"Sistema en lugar de contenido individual\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Organische-Reichweite.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Organische-Reichweite.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Organische-Reichweite-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Organische-Reichweite-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Organische-Reichweite-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/04\/del-contenido-a-la-sustancia-como-se-crean-sistemas-digitales-que-no-pueden-copiarse\/\" rel=\"bookmark\">Del contenido a la sustancia: c\u00f3mo se crean sistemas digitales que no se pueden copiar<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"der iran\u2013israel-konflikt: warum diese eskalation der strategische albtraum des westens ist\" data-id=\"5212\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle energiepolitik europa geopolitik krisen k\u00fcnstliche intelligenz meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/el-conflicto-iran-israel-por-que-esta-escalada-es-la-pesadilla-estrategica-de-occidente\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">El conflicto Ir\u00e1n-Israel: por qu\u00e9 esta escalada es la pesadilla estrat\u00e9gica de Occidente<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Israel-Ir\u00e1n - Pesadilla estrat\u00e9gica\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Israel-Iran-Strategischer-Albtraum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/03\/el-conflicto-iran-israel-por-que-esta-escalada-es-la-pesadilla-estrategica-de-occidente\/\" rel=\"bookmark\">El conflicto Ir\u00e1n-Israel: por qu\u00e9 esta escalada es la pesadilla estrat\u00e9gica de Occidente<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"wie tiere zeit wahrnehmen \u2013 und was das f\u00fcr die zukunft der ki bedeutet\" data-id=\"4918\"  data-category=\"allgemein gesellschaft ki-systeme\" data-post_tag=\"denkmodelle erfahrungen k\u00fcnstliche intelligenz llm portrait prozesse sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/como-perciben-el-tiempo-los-animales-y-que-significa-esto-para-el-futuro-del-ki\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">C\u00f3mo perciben el tiempo los animales y qu\u00e9 significa para el futuro de la IA<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Animales, IA y percepci\u00f3n del tiempo\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Tiere-KI-Zeitwahrnehmung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/como-perciben-el-tiempo-los-animales-y-que-significa-esto-para-el-futuro-del-ki\/\" rel=\"bookmark\">C\u00f3mo perciben el tiempo los animales y qu\u00e9 significa para el futuro de la IA<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Preguntas m\u00e1s frecuentes<\/h2>\n<ol>\n<li><strong>\u00bfPor qu\u00e9 necesita una IA local una \u201ememoria\u201c? \u00bfNo basta con el modelo ling\u00fc\u00edstico?<\/strong><br \/>\nUn modelo ling\u00fc\u00edstico s\u00f3lo funciona con la petici\u00f3n actual y el contexto que le est\u00e1s dando en ese momento. Por lo tanto, no recuerda permanentemente conversaciones, documentos o informaci\u00f3n anteriores. Aqu\u00ed es donde entra en juego la memoria local. Una base de datos adicional permite a la IA guardar contenidos anteriores y recuperarlos cuando sea necesario. De este modo, el modelo no s\u00f3lo recibe su pregunta actual al responder, sino tambi\u00e9n la informaci\u00f3n pertinente de esta memoria. El resultado son respuestas mucho m\u00e1s coherentes y fundamentadas. Sin un sistema de este tipo, un modelo ling\u00fc\u00edstico sigue siendo b\u00e1sicamente un puro generador de texto sin ning\u00fan conocimiento a largo plazo de tus propios datos o proyectos.<\/li>\n<li><strong>\u00bfQu\u00e9 es exactamente Qdrant y por qu\u00e9 se utiliza en este sistema?<\/strong><br \/>\nQdrant es una moderna base de datos vectorial especialmente desarrollada para b\u00fasquedas sem\u00e1nticas. A diferencia de las bases de datos tradicionales, almacena la informaci\u00f3n no s\u00f3lo como texto, sino como los llamados vectores, representaciones matem\u00e1ticas del significado. Esto le permite buscar contenido no s\u00f3lo por palabras id\u00e9nticas, sino tambi\u00e9n por proximidad de contenido. As\u00ed, si se formula una pregunta, Qdrant puede encontrar pasajes de texto adecuados de su base de conocimientos, aunque no contengan exactamente los mismos t\u00e9rminos. En combinaci\u00f3n con un modelo ling\u00fc\u00edstico, esto crea una especie de memoria inteligente para la IA.<\/li>\n<li><strong>\u00bfQu\u00e9 significa el t\u00e9rmino \u201eGAR\u201c, que se utiliza a menudo en este contexto?<\/strong><br \/>\nRAG son las siglas de \u201eRetrieval Augmented Generation\u201c (generaci\u00f3n aumentada de recuperaci\u00f3n). Se trata de una t\u00e9cnica en la que un modelo ling\u00fc\u00edstico recupera informaci\u00f3n adicional de una base de datos antes de dar una respuesta. As\u00ed, el modelo no s\u00f3lo genera su respuesta a partir del entrenamiento, sino que la complementa con informaci\u00f3n adecuada procedente de una fuente de conocimiento. Este m\u00e9todo resuelve un problema t\u00edpico de los modelos ling\u00fc\u00edsticos: S\u00f3lo conocen lo aprendido durante el entrenamiento. En cambio, RAG les permite acceder a datos actuales o personales, como documentaci\u00f3n, sitios web o sus propias notas.<\/li>\n<li><strong>\u00bfC\u00f3mo funcionan juntos Ollama y Qdrant?<\/strong><br \/>\nEn esta configuraci\u00f3n, Ollama asume el papel de modelo ling\u00fc\u00edstico, mientras que Qdrant act\u00faa como memoria sem\u00e1ntica. Cuando haces una pregunta, Qdrant busca primero fragmentos de texto relevantes. Los resultados se transmiten al modelo ling\u00fc\u00edstico junto con la pregunta. El modelo utiliza esta informaci\u00f3n adicional para formular una respuesta fundamentada. Por lo tanto, la secuencia t\u00edpica es: Pregunta \u2192 B\u00fasqueda en la memoria \u2192 Ampliar contexto \u2192 Generar respuesta.<\/li>\n<li><strong>\u00bfQu\u00e9 tipos de datos puedo incluir en esta memoria de IA?<\/strong><br \/>\nB\u00e1sicamente, casi cualquier cosa que pueda convertirse en texto. Esto incluye documentaci\u00f3n, sitios web, archivos Markdown, PDF, entradas de bases de datos o incluso notas personales. Lo \u00fanico importante es que el contenido pueda dividirse en secciones de texto m\u00e1s peque\u00f1as antes de guardarlo en la base de datos. Estos \u201etrozos\u201c constituyen la base de la b\u00fasqueda sem\u00e1ntica. Esto permite a la IA acceder espec\u00edficamente a secciones individuales relevantes en lugar de tener que buscar en documentos enteros.<\/li>\n<li><strong>\u00bfPor qu\u00e9 se utiliza una base de datos vectorial en lugar de una b\u00fasqueda de texto normal?<\/strong><br \/>\nLos motores de b\u00fasqueda cl\u00e1sicos suelen trabajar con palabras clave. Esto significa que s\u00f3lo encuentran resultados que contengan exactamente los mismos t\u00e9rminos. En cambio, una base de datos vectorial busca por significado. Por tanto, tambi\u00e9n puede encontrar textos similares en contenido, aunque se hayan utilizado otras palabras. Esto es crucial para los sistemas de IA, porque las preguntas suelen formularse de forma diferente a los documentos originales. Las b\u00fasquedas sem\u00e1nticas hacen que el v\u00ednculo entre pregunta y respuesta sea mucho m\u00e1s fiable.<\/li>\n<li><strong>\u00bfC\u00f3mo se convierten los textos en vectores?<\/strong><br \/>\nPara ello se utilizan los llamados modelos de incrustaci\u00f3n. Estos modelos analizan los textos y los convierten en vectores num\u00e9ricos que representan su significado. Cada secci\u00f3n del texto recibe as\u00ed una representaci\u00f3n matem\u00e1tica en lo que se conoce como espacio vectorial. Los contenidos similares est\u00e1n m\u00e1s cerca unos de otros que los temas completamente diferentes. Si posteriormente se formula una pregunta, \u00e9sta tambi\u00e9n se convierte en un vector. Qdrant puede entonces encontrar muy r\u00e1pidamente las entradas m\u00e1s similares en la memoria.<\/li>\n<li><strong>\u00bfPor qu\u00e9 se suele utilizar Qdrant a trav\u00e9s de Docker installiert?<\/strong><br \/>\nDocker simplifica considerablemente la instalaci\u00f3n de software complejo. En lugar de configurar manualmente muchas dependencias individuales, Qdrant simplemente se ejecuta en un contenedor. Esto significa que la instalaci\u00f3n funciona de forma fiable en diferentes sistemas y se puede iniciar o detener f\u00e1cilmente. Este m\u00e9todo es particularmente pr\u00e1ctico en Mac porque mantiene el sistema limpio y proporciona un entorno estable para la base de datos al mismo tiempo.<\/li>\n<li><strong>\u00bfPuedo utilizar este sistema completamente desconectado?<\/strong><br \/>\nS\u00ed, \u00e9sa es una de las mayores ventajas de esta arquitectura. Tanto el modelo ling\u00fc\u00edstico como la base de datos vectorial se ejecutan localmente en su propio ordenador. Esto significa que no se env\u00edan datos a servidores externos. Esto crea un entorno de IA completamente privado. Se trata de una ventaja decisiva frente a los sistemas en la nube, especialmente para datos sensibles o documentos internos de la empresa.<\/li>\n<li><strong>\u00bfC\u00f3mo de grande puede llegar a ser esa memoria local de la IA?<\/strong><br \/>\nEsto depende sobre todo del espacio de almacenamiento y del rendimiento del sistema. Las bases de datos vectoriales modernas pueden gestionar f\u00e1cilmente millones de fragmentos de texto. Para muchos proyectos personales, sin embargo, bastan unos pocos miles de documentos para crear un sistema de conocimiento muy potente. La calidad de la estructura de datos es m\u00e1s importante que la cantidad de informaci\u00f3n.<\/li>\n<li><strong>\u00bfPuede la IA \u201eaprender\u201c realmente con este sistema?<\/strong><br \/>\nNo en el sentido cl\u00e1sico. El modelo ling\u00fc\u00edstico en s\u00ed no se vuelve a entrenar. El conocimiento se almacena fuera del modelo y se recupera cuando es necesario. De este modo, la inteligencia artificial parece capaz de aprender, pero en realidad s\u00f3lo accede a un almac\u00e9n de conocimientos cada vez mayor. Este enfoque tiene una gran ventaja: se puede a\u00f1adir nueva informaci\u00f3n en cualquier momento sin tener que volver a entrenar el modelo.<\/li>\n<li><strong>\u00bfQu\u00e9 aplicaciones pr\u00e1cticas se derivan de una memoria local de IA de este tipo?<\/strong><br \/>\nLas posibilidades son incre\u00edblemente diversas. Por ejemplo, puede crear una base de datos de conocimientos personales, hacer que la documentaci\u00f3n t\u00e9cnica sea consultable o que se analicen documentos internos de la empresa. Autores, desarrolladores o investigadores tambi\u00e9n se benefician de ello porque pueden hacer accesibles grandes cantidades de informaci\u00f3n de forma estructurada. B\u00e1sicamente, se crea una especie de asistente personal de investigaci\u00f3n que entiende sus propios datos.<\/li>\n<li><strong>\u00bfPuedo integrar varias fuentes de datos al mismo tiempo?<\/strong><br \/>\nS\u00ed, Qdrant permite dotar a cada fragmento de texto de metadatos adicionales, como fuente, categor\u00eda o idioma. Esto permite gestionar conjuntamente diferentes bases de datos. Estos metadatos pueden incluso filtrarse espec\u00edficamente durante la b\u00fasqueda. Por ejemplo, la IA s\u00f3lo puede tener en cuenta el contenido de una documentaci\u00f3n espec\u00edfica o de un proyecto concreto.<\/li>\n<li><strong>\u00bfEn qu\u00e9 se diferencia este sistema de los chatbots cl\u00e1sicos?<\/strong><br \/>\nLa mayor\u00eda de los chatbots trabajan exclusivamente con el conocimiento de su conjunto de datos de entrenamiento. Por tanto, no pueden proporcionar informaci\u00f3n espec\u00edfica sobre su propio contenido. Un sistema RAG, en cambio, combina un modelo ling\u00fc\u00edstico con una base de conocimientos individual. Esto permite a la IA ofrecer respuestas directamente adaptadas a sus propios datos. Esto la hace mucho m\u00e1s \u00fatil para el trabajo productivo.<\/li>\n<li><strong>\u00bfQu\u00e9 papel desempe\u00f1a Python en esta configuraci\u00f3n?<\/strong><br \/>\nPython se utiliza a menudo para controlar la conexi\u00f3n entre el modelo ling\u00fc\u00edstico y la base de datos. Con unos pocos scripts se pueden leer textos, convertirlos en vectores y guardarlos en Qdrant. Python tambi\u00e9n puede realizar la b\u00fasqueda y transferir los resultados encontrados al modelo ling\u00fc\u00edstico. De este modo se crea un proceso flexible que puede adaptarse a las necesidades del usuario.<\/li>\n<li><strong>\u00bfCrear un sistema de este tipo es s\u00f3lo cosa de desarrolladores?<\/strong><br \/>\nNo necesariamente. Aunque la configuraci\u00f3n del sistema requiere ciertos conocimientos t\u00e9cnicos, muchas de las herramientas necesarias son ahora mucho m\u00e1s sencillas. Con un poco de paciencia, se puede montar un sistema que funcione incluso sin tener conocimientos profundos de programaci\u00f3n. Cualquiera que se haya ocupado de ello alguna vez reconocer\u00e1 r\u00e1pidamente el enorme potencial de estas infraestructuras locales de IA.<\/li>\n<li><strong>\u00bfCu\u00e1les son los l\u00edmites de la memoria local de la IA?<\/strong><br \/>\nLa limitaci\u00f3n m\u00e1s importante es la potencia de c\u00e1lculo de tu propio ordenador. Los grandes modelos o las enormes bases de datos de conocimientos pueden requerir m\u00e1s memoria y potencia de CPU. La calidad de las respuestas tambi\u00e9n depende en gran medida de la estructura de los datos. Si los documentos est\u00e1n mal preparados, la IA s\u00f3lo puede ofrecer buenos resultados hasta cierto punto.<\/li>\n<li><strong>\u00bfPor qu\u00e9 se considera que esta combinaci\u00f3n de Ollama y Qdrant es una arquitectura especialmente interesante para la IA local?<\/strong><br \/>\nPorque re\u00fane dos componentes cruciales: un potente modelo ling\u00fc\u00edstico y una r\u00e1pida base de datos sem\u00e1ntica. Juntos, crean un entorno de trabajo de IA completo que puede funcionar de forma totalmente local. Esto permite crear sistemas de conocimiento personales, motores de b\u00fasqueda inteligentes o asistentes especializados, sin depender de la nube y con pleno control sobre sus propios datos.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-109 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-109 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Art\u00edculos de actualidad sobre arte y cultura<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-109\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"johann sebastian bach \u2013 ordnung, haltung und das fundament unserer musik\" data-id=\"5033\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/johann-sebastian-bach-orden-actitud-y-fundamento-de-nuestra-musica\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Johann Sebastian Bach: orden, actitud y fundamento de nuestra m\u00fasica<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Retrato de Johann Sebastian Bach\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Johann-Sebastian-Bach-Portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/johann-sebastian-bach-orden-actitud-y-fundamento-de-nuestra-musica\/\" rel=\"bookmark\">Johann Sebastian Bach: orden, actitud y fundamento de nuestra m\u00fasica<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"warum dieter bohlen spricht, wenn andere schweigen: ein portr\u00e4t \u00fcber flei\u00df und klarheit\" data-id=\"3744\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"auswandern deutschland erfahrungen krisen meinungsfreiheit musik portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/por-que-dieter-bohlen-habla-cuando-otros-callan-un-retrato-de-diligencia-y-claridad\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Por qu\u00e9 Dieter Bohlen habla cuando otros callan: Un retrato de diligencia y claridad<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Dieter-Bohlen-Portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Dieter-Bohlen-Portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Dieter-Bohlen-Portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Dieter-Bohlen-Portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Dieter-Bohlen-Portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/por-que-dieter-bohlen-habla-cuando-otros-callan-un-retrato-de-diligencia-y-claridad\/\" rel=\"bookmark\">Por qu\u00e9 Dieter Bohlen habla cuando otros callan: Un retrato de diligencia y claridad<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"cancel culture im westen: sport, universit\u00e4ten, milit\u00e4r und eu-sanktionen analysiert\" data-id=\"5009\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland europa geopolitik krisen meinungsfreiheit sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/la-cultura-de-la-cancelacion-en-occidente-universidades-deportivas-militares-y-sanciones-de-la-ue-analizadas\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Cancelar La cultura en Occidente: deporte, universidades, ej\u00e9rcito y sanciones de la UE analizadas<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Cancelar la cultura en Occidente\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Cancel-Culture-Westen-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2026\/02\/la-cultura-de-la-cancelacion-en-occidente-universidades-deportivas-militares-y-sanciones-de-la-ue-analizadas\/\" rel=\"bookmark\">Cancelar La cultura en Occidente: deporte, universidades, ej\u00e9rcito y sanciones de la UE analizadas<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"reichweite ist kein eigentum \u2013 warum sichtbarkeit heute nicht mehr ausreicht\" data-id=\"3994\"  data-category=\"allgemein filemaker &amp; erp gesellschaft kunst &amp; kultur\" data-post_tag=\"datenlogik datenschutz denkmodelle digitales eigentum erp-software\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/el-alcance-no-es-propiedad-por-que-la-visibilidad-ya-no-es-suficiente-hoy-en-dia\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">El alcance no es la propiedad - Por qu\u00e9 la visibilidad ya no es suficiente hoy en d\u00eda<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Alcance frente a propiedad\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/reichweite-vs-eigentum-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/el-alcance-no-es-propiedad-por-que-la-visibilidad-ya-no-es-suficiente-hoy-en-dia\/\" rel=\"bookmark\">El alcance no es la propiedad - Por qu\u00e9 la visibilidad ya no es suficiente hoy en d\u00eda<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>IA local con memoria - sin nube, sin suscripci\u00f3n, sin desv\u00edos En un art\u00edculo anterior, expliqu\u00e9 c\u00f3mo Ollama en el Mac installiert. Si ya has dado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible al que se puede acceder a trav\u00e9s de REST API. Pero a partir de ... <a title=\"El alcance no es la propiedad - Por qu\u00e9 la visibilidad ya no es suficiente hoy en d\u00eda\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/es\/2025\/12\/el-alcance-no-es-propiedad-por-que-la-visibilidad-ya-no-es-suficiente-hoy-en-dia\/\" aria-label=\"Leer m\u00e1s sobre Alcance no es propiedad - Por qu\u00e9 la visibilidad ya no es suficiente hoy en d\u00eda\">Vaciar m\u00e1s<\/a><\/p>","protected":false},"author":1,"featured_media":2504,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":743,"footnotes":""},"categories":[431,15,3,4],"tags":[452,410,471,435,433,437,453,432,450,434,451],"class_list":["post-2502","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ki-systeme","category-apple-macos","category-filemaker","category-tipps-anleitungen","tag-docker","tag-filemaker","tag-kuenstliche-intelligenz","tag-llama","tag-llm","tag-mistral","tag-neo4j","tag-ollama","tag-qdrant","tag-sprachmodell","tag-vektordatenbank"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2502","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/comments?post=2502"}],"version-history":[{"count":12,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2502\/revisions"}],"predecessor-version":[{"id":5333,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/posts\/2502\/revisions\/5333"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/media\/2504"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/media?parent=2502"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/categories?post=2502"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/es\/wp-json\/wp\/v2\/tags?post=2502"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}