Cuando se oye la palabra litio, mucha gente piensa primero en las modernas pilas recargables, en la tecnología de las baterías o -con mirada escéptica- en las drogas psicotrópicas. Pero, en realidad, el litio es mucho más que eso: es un oligoelemento natural presente en nuestro entorno desde tiempos inmemoriales: en las rocas, en el agua y también en pequeñas cantidades en los alimentos de origen vegetal.
Consejos e instrucciones
En esta categoría encontrará Consejos prácticos, instrucciones paso a paso y guías prácticas sobre diversos temas de la tecnología, la empresa y la vida cotidiana. Los artículos muestran de forma comprensible e inteligible cómo resolver problemas típicos, utilizar eficazmente el software o probar nuevas formas de trabajar. Ya sea sobre Dispositivos Apple, FileMaker, Software ERP, Temas de salud u otras cuestiones prácticas: aquí se hace hincapié en los beneficios concretos. Las instrucciones están estructuradas de tal forma que pueden aplicarse directamente y ayudar rápidamente en la vida cotidiana o en la empresa.
Integración de MLX en FileMaker 2025: la IA local como nueva norma
Aunque MLX fue lanzado originalmente como un marco experimental por Apple Research, en los últimos meses se ha producido un desarrollo silencioso pero significativo: Con el lanzamiento de FileMaker 2025, Claris ha integrado firmemente MLX en el servidor como infraestructura nativa de IA para Apple Silicon. Esto significa que cualquiera que trabaje con un Mac y utilice Apple Silicon no sólo puede ejecutar modelos MLX localmente, sino también utilizarlos directamente en FileMaker, con funciones nativas, sin capas intermedias.
Por qué no basta con el software ERP y cómo entender realmente los procesos
En muchas empresas, siempre sigue el mismo patrón: en algún momento, la dirección se da cuenta de que "algo ya no funciona bien". Tal vez los procesos se han vuelto demasiado lentos, se acumulan los errores o la empresa pierde cada vez más de vista las cifras, los clientes o los procesos internos. La demanda de una nueva solución de software se hace oír con fuerza, preferiblemente un software ERP moderno y potente que "pueda hacerlo todo". Pero aquí suele empezar una falacia fatal.
Cómo escribí cinco libros en dos idiomas en cuatro meses
...y por qué no es un milagro, sino el resultado de una estrategia clara
Durante mucho tiempo, escribir libros se ha considerado algo tedioso, un proyecto solitario que se prolonga durante meses o incluso años. Pero, ¿y si nos olvidamos de esta imagen? ¿Y si te replanteas la escritura con un enfoque claro, procesos bien pensados y un uso específico de la IA?
En mi nuevo libro "Escribir libros 2.0: guía práctica para autores en la era de la IA" Describo exactamente este camino. Un camino que me ha permitido escribir cinco libros en solo cuatro meses, publicarlos en dos idiomas y no aceptar ninguna pérdida de calidad en comparación con la publicación tradicional.
Escribir libros 2.0 - Guía práctica para autores en la era de la IA
Este libro no ofrece visiones especulativas del futuro, sino una respuesta fundamentada y práctica a partir de la vida cotidiana de un autor que escribe él mismo con IA, y que deliberadamente no se centra en la automatización, sino en la autonomía. "Escribir libros 2.0" está dirigido a cualquiera que esté pensando en escribir su propio libro -o que ya esté en proceso de hacerlo- y se pregunte cómo pueden aprovecharse herramientas modernas como ChatGPT, generadores de imágenes de IA o ayudas a la traducción. La atención no se centra en los "productos acabados de IA", sino en un enfoque holístico: la IA como herramienta, los humanos como autores.
Ollama se reúne con Qdrant: una memoria local para tu IA en el Mac
IA local con memoria: sin nube, sin suscripción, sin distracciones
En un artículos anteriores He explicado cómo configurar Ollama en el Mac install. Si ya has completado este paso, ahora tienes un potente modelo de lenguaje local - como Mistral, LLaMA3 u otro modelo compatible que se puede abordar a través de REST API.
Sin embargo, el modelo sólo "sabe" lo que hay en la solicitud actual. No recuerda conversaciones anteriores. Lo que falta es un recuerdo.
IA local en el Mac: cómo installiere un modelo lingüístico con Ollama
La IA local en Mac es práctica desde hace tiempo, especialmente en los ordenadores Apple-Silicon (serie M). Con Ollama se obtiene un entorno de ejecución sencillo para muchos modelos lingüísticos de código abierto (por ejemplo, Llama 3.1/3.2, Mistral, Gemma, Qwen). La versión actual de Ollama también incluye una aplicación fácil de usar que le permite configurar un modelo lingüístico local en su Mac con un simple clic del ratón. En este artículo encontrarás una guía pragmática desde la instalación hasta la primera consulta, con consejos prácticos sobre dónde suelen fallar las cosas.
Consejos de salud (no sólo) para usuarios de FileMaker
El desarrollo del software gFM-Business ERP ha sido un poco más lento de lo habitual durante el último año y medio porque, como desarrollador del software, he tenido que lidiar con algunos síntomas extraños de enfermedad en los que no era tan fácil encontrar la causa. Aunque la medicina convencional no fue de gran ayuda en mi caso, pude encontrar las causas y eliminar mis problemas con el apoyo activo de algunos médicos alternativos y un dentista holístico. Como los resultados de esta investigación son tan interesantes, he decidido escribir aquí un breve artículo al respecto para que usted, como lector, también pueda beneficiarse de ellos. A continuación encontrará mis favoritos como puros consejos, no gano nada de la remisión y no uso ningún enlace ref.