Cloud-KI als Oberlehrer: Warum die Zukunft des Arbeitens bei lokaler KI liegt

Cloud-KI wird zum Oberlehrer

Als die großen Sprachmodelle vor einigen Jahren ihren Siegeszug antraten, wirkten sie fast wie eine Rückkehr zu alten Tugenden der Technik: Ein Werkzeug, das tut, was man ihm sagt. Ein Werkzeug, das dem Anwender dient, nicht umgekehrt. Die ersten Versionen – von GPT-3 bis GPT-4 – hatten Schwächen, ja, aber sie waren erstaunlich hilfreich. Sie erklärten, analysierten, formulierten, lösten Aufgaben. Und sie taten das weitgehend ohne pädagogischen Ballast.

Man sprach mit diesen Modellen wie mit einem gelehrten Mitarbeiter, der sich zwar mal verhaspelte, aber im Kern einfach arbeitete. Wer damals Kreativtexte schrieb, Programmcode generierte oder längere Analysen erstellte, erlebte, wie reibungslos das ging. Es herrschte ein Gefühl von Freiheit, von offener Gestaltungsfläche, von einer Technik, die den Menschen unterstützt, statt ihn zu korrigieren.

Weiterlesen

KI-Studio 2025: Welche Hardware wirklich lohnt – vom Mac Studio bis zur RTX 3090

Hardware 2025 für KI-Studio

Wer heute mit KI arbeitet, wird fast automatisch in die Cloud gedrückt: OpenAI, Microsoft, Google, irgendwelche Web-UIs, Tokens, Limits, AGBs. Das wirkt modern – ist im Kern aber eine Rückkehr in die Abhängigkeit: Andere bestimmen, welche Modelle Du nutzen darfst, wie oft, mit welchen Filtern und zu welchen Kosten. Ich gehe bewusst den anderen Weg: Ich baue mir gerade mein eigenes kleines KI-Studio zu Hause auf. Mit eigener Hardware, eigenen Modellen und eigenen Workflows.

Mein Ziel ist klar: Text-KI lokal, Bild-KI lokal, eigene Modelle anlernen (LoRA, Feintuning) und all das so, dass ich als Selbständiger und später auch KMU-Kunden nicht von der Tageslaune irgendeines Cloud-Anbieters abhängig bin. Man könnte sagen: Es ist eine Rückkehr zu einer alten Haltung, die früher ganz normal war: „Wichtige Dinge macht man selbst“. Nur dass es diesmal nicht um die eigene Werkbank geht, sondern um Rechenleistung und Datenhoheit.

Weiterlesen

Apple MLX vs. NVIDIA: So funktioniert lokale KI-Inferenz auf dem Mac

Lokale KI auf Silicon mit Apple Mac

Wer heute mit Künstlicher Intelligenz arbeitet, denkt oft zuerst an ChatGPT oder ähnliche Online-Dienste. Man tippt eine Frage ein, wartet ein paar Sekunden – und erhält eine Antwort, als säße ein sehr belesener, geduldiger Gesprächspartner am anderen Ende der Leitung. Doch was dabei leicht vergessen wird: Jede Eingabe, jeder Satz, jedes Wort wandert über das Internet zu fremden Servern. Dort wird die eigentliche Arbeit erledigt – auf riesigen Rechnern, die man selbst nie zu Gesicht bekommt.

Ein lokales Sprachmodell funktioniert im Prinzip genauso – nur eben ohne Internet. Das Modell liegt als Datei auf dem eigenen Computer, wird beim Start in den Arbeitsspeicher geladen und beantwortet Fragen direkt auf dem Gerät. Die Technik dahinter ist dieselbe: ein neuronales Netz, das Sprache versteht, Texte generiert und Muster erkennt. Nur dass die gesamte Berechnung im eigenen Haus bleibt. Man könnte sagen: ChatGPT ohne Cloud.

Weiterlesen

LoRA-Training: Wie FileMaker 2025 das Feintuning großer Sprachmodelle vereinfacht

LoRA Fine tuning - FileMaker 2025

Die Welt der künstlichen Intelligenz ist in Bewegung. Neue Modelle, neue Methoden und vor allem neue Möglichkeiten entstehen heute fast wöchentlich – und dennoch bleibt eine Erkenntnis konstant: Nicht jede technische Neuerung führt automatisch zu einem besseren Alltag. Vieles bleibt experimentell, komplex oder schlicht zu aufwendig für den produktiven Einsatz. Besonders deutlich zeigt sich das beim sogenannten Feintuning großer Sprachmodelle – einer Methode, um generative KI auf eigene Inhalte, Begriffe und Tonalitäten zu spezialisieren.

Ich habe diesen Prozess in den letzten Monaten intensiv begleitet – erst in klassischer Form, mit Python, Terminal, Fehlermeldungen und nervenaufreibenden Setup-Schleifen. Und dann: mit FileMaker 2025. Ein Schritt, der mich überrascht hat – weil er nicht laut, aber klar war. Und weil er gezeigt hat, dass es auch anders geht.

Weiterlesen

Künstliche Intelligenz: Welche Jobs in Gefahr sind, und wie wir uns jetzt wappnen können

Welche Jobs entfallen künftig durch KI

Kaum ein technologischer Wandel hat sich so schnell in unseren Alltag eingeschlichen wie die künstliche Intelligenz. Was gestern noch als visionäre Zukunftstechnologie galt, ist heute bereits Realität – ob beim Texten, Programmieren, Diagnostizieren, Übersetzen oder sogar beim Erstellen von Musik, Kunst oder juristischen Schriftsätzen.

Weiterlesen

Integration von MLX in FileMaker 2025: Lokale KI als neuer Standard

Lokale KI mit MLX und FileMaker

Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet und auf Apple Silicon setzt, kann MLX-Modelle nicht nur lokal ausführen, sondern direkt in FileMaker verwenden – mit nativen Funktionen, ganz ohne Zwischenschichten.

Weiterlesen

MLX auf Apple Silicon als lokale KI im Vergleich mit Ollama & Co.

Lokale KI auf dem Mac mit MLX

In einer Zeit, in der zentrale KI-Dienste wie ChatGPT, Claude oder Gemini die Schlagzeilen beherrschen, wächst bei vielen professionellen Anwendern das Bedürfnis nach einem Gegenpol – einer lokalen, selbst kontrollierbaren KI-Infrastruktur. Gerade für kreative Prozesse, sensible Daten oder wiederkehrende Arbeitsabläufe ist eine lokale Lösung oft die nachhaltigere und sicherere Option.

Wer mit einem Mac arbeitet – insbesondere mit Apple Silicon (M1, M2, M3 oder M4) – findet mittlerweile erstaunlich leistungsfähige Tools, um eigene Sprachmodelle direkt auf dem Gerät zu betreiben. Im Zentrum steht dabei eine neue, weitgehend unbekannte Komponente: MLX, ein von Apple entwickeltes Machine-Learning-Framework, das in den kommenden Jahren eine zunehmend zentrale Rolle im KI-Ökosystem des Unternehmens spielen dürfte.

Weiterlesen