Wenn man das Wort Lithium hört, denken viele zunächst an moderne Akkus, Batterietechnik oder – mit einem skeptischen Blick – an Psychopharmaka. Doch Lithium ist in Wahrheit viel mehr als das: Es ist ein natürlich vorkommendes Spurenelement, das seit Urzeiten in unserer Umwelt vorkommt – im Gestein, im Wasser und auch in geringen Mengen in pflanzlichen Lebensmitteln.
Tipps & Anleitungen
In dieser Kategorie finden Sie praktische Tipps, Schritt-für-Schritt-Anleitungen und praxisnahe Ratgeber zu verschiedenen Themen aus Technik, Business und Alltag. Die Beiträge zeigen verständlich und nachvollziehbar, wie man typische Probleme löst, Software effizient nutzt oder neue Arbeitsweisen ausprobiert. Ob es um Apple-Geräte, FileMaker, ERP-Software, Gesundheitsthemen oder andere praktische Fragestellungen geht – hier steht der konkrete Nutzen im Vordergrund. Die Anleitungen sind so aufgebaut, dass sie direkt umsetzbar sind und im Alltag oder im Unternehmen schnell weiterhelfen.
Integration von MLX in FileMaker 2025: Lokale KI als neuer Standard
Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet und auf Apple Silicon setzt, kann MLX-Modelle nicht nur lokal ausführen, sondern direkt in FileMaker verwenden – mit nativen Funktionen, ganz ohne Zwischenschichten.
Warum eine ERP-Software allein nicht reicht – und wie man Prozesse wirklich versteht
In vielen Unternehmen läuft es immer nach dem gleichen Muster: Irgendwann kommt der Punkt, an dem die Geschäftsführung feststellt, dass „etwas nicht mehr rund läuft“. Vielleicht sind die Abläufe zu langsam geworden, die Fehler häufen sich, oder man verliert zunehmend den Überblick über Zahlen, Kunden oder interne Vorgänge. Der Ruf nach einer neuen Softwarelösung wird laut – am besten gleich eine moderne, leistungsfähige ERP-Software, die „alles kann“. Doch hier beginnt oft ein verhängnisvoller Trugschluss.
Wie ich in vier Monaten fünf Bücher in zwei Sprachen geschrieben habe
…und warum das kein Wunderwerk ist, sondern das Ergebnis einer klaren Strategie
Bücher zu schreiben galt lange Zeit als etwas Langwieriges – ein einsames Projekt, das sich über Monate oder gar Jahre zieht. Doch was, wenn man sich von diesem Bild verabschiedet? Was, wenn man das Schreiben neu denkt – mit klarem Fokus, durchdachten Abläufen und gezieltem KI-Einsatz?
In meinem neuen Buch „Bücher schreiben 2.0 – Praxisleitfaden für Autoren im KI-Zeitalter“ beschreibe ich genau diesen Weg. Ein Weg, der es mir ermöglicht hat, in gerade einmal vier Monaten fünf Bücher zu schreiben, sie in zwei Sprachen zu veröffentlichen – und dabei keinen Qualitätsverlust gegenüber klassischen Verlagswerken in Kauf zu nehmen.
Bücher schreiben 2.0 – Praxisleitfaden für Autoren im KI-Zeitalter
Dieses Buch liefert keine spekulativen Zukunftsvisionen, sondern eine fundierte, praxisnahe Antwort aus dem Alltag eines Autors, der selbst mit KI schreibt – und dabei bewusst nicht auf Automatisierung, sondern auf Eigenständigkeit setzt. „Bücher schreiben 2.0“ richtet sich an alle, die mit dem Gedanken spielen, ein eigenes Buch zu schreiben – oder bereits dabei sind – und sich fragen, wie moderne Werkzeuge wie ChatGPT, KI-Bildgeneratoren oder Übersetzungshilfen sinnvoll eingesetzt werden können. Der Fokus liegt nicht auf „fertigen KI-Produkten“, sondern auf einem ganzheitlichen Ansatz: KI als Werkzeug, der Mensch als Autor.
Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac
Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg
In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist.
Doch von allein „weiß“ das Modell nur das, was im aktuellen Prompt steht. Es erinnert sich nicht an frühere Konversationen. Was fehlt, ist ein Gedächtnis.
Lokale KI auf dem Mac: So installieren Sie ein Sprachmodell mit Ollama
Lokale KI auf dem Mac ist längst praxistauglich – vor allem auf Apple-Silicon-Rechnern (M-Serie). Mit Ollama holen Sie sich eine schlanke Laufzeitumgebung für viele Open-Source-Sprachmodelle (z. B. Llama 3.1/3.2, Mistral, Gemma, Qwen). Mit der aktuellen Ollama-Version wird nun auch eine benutzerfreundliche App geliefert, mit der Sie per Mausklick ein lokales Sprachmodell auf Ihrem Mac einrichten können. In diesem Artikel finden Sie eine pragmatische Anleitung von der Installation bis zum ersten Prompt – mit Hinweisen aus der Praxis, wo Dinge traditionell gern schiefgehen.
Gesundheitstipps (nicht nur) für FileMaker-Nutzer
Die Entwicklung der gFM-Business ERP-Software ging in den letzten anderthalb Jahren etwas langsamer als sonst vonstatten, weil ich als Entwickler der Software mit einigen merkwürdigen Krankheitssymptomen zu tun hatte, bei denen es nicht so einfach war, deren Ursache herauszufinden. Auch wenn die klassische Schulmedizin in meinem Fall keine wirkliche Hilfe war, konnte ich die Ursachen mit tatkräftiger Unterstützung durch einige Heilpraktiker und einen ganzheitlichen Zahnarzt finden und meine Probleme beseitigen. Weil die Ergebnisse dieser Recherche so interessant sind, habe ich mich dazu entschlossen, hier einen kurzen Artikel darüber zu schreiben, damit Sie als Leser auch davon profitieren können. Im folgenden finden Sie meine Top-Favoriten als reine Tipps, ich verdiene nichts an der Vermittlung und verwende auch keine Ref-Links.