Cloud-KI als Oberlehrer: Warum die Zukunft des Arbeitens bei lokaler KI liegt

Cloud-KI wird zum Oberlehrer

Als die großen Sprachmodelle vor einigen Jahren ihren Siegeszug antraten, wirkten sie fast wie eine Rückkehr zu alten Tugenden der Technik: Ein Werkzeug, das tut, was man ihm sagt. Ein Werkzeug, das dem Anwender dient, nicht umgekehrt. Die ersten Versionen – von GPT-3 bis GPT-4 – hatten Schwächen, ja, aber sie waren erstaunlich hilfreich. Sie erklärten, analysierten, formulierten, lösten Aufgaben. Und sie taten das weitgehend ohne pädagogischen Ballast.

Man sprach mit diesen Modellen wie mit einem gelehrten Mitarbeiter, der sich zwar mal verhaspelte, aber im Kern einfach arbeitete. Wer damals Kreativtexte schrieb, Programmcode generierte oder längere Analysen erstellte, erlebte, wie reibungslos das ging. Es herrschte ein Gefühl von Freiheit, von offener Gestaltungsfläche, von einer Technik, die den Menschen unterstützt, statt ihn zu korrigieren.

Weiterlesen

KI-Studio 2025: Welche Hardware wirklich lohnt – vom Mac Studio bis zur RTX 3090

Hardware 2025 für KI-Studio

Wer heute mit KI arbeitet, wird fast automatisch in die Cloud gedrückt: OpenAI, Microsoft, Google, irgendwelche Web-UIs, Tokens, Limits, AGBs. Das wirkt modern – ist im Kern aber eine Rückkehr in die Abhängigkeit: Andere bestimmen, welche Modelle Du nutzen darfst, wie oft, mit welchen Filtern und zu welchen Kosten. Ich gehe bewusst den anderen Weg: Ich baue mir gerade mein eigenes kleines KI-Studio zu Hause auf. Mit eigener Hardware, eigenen Modellen und eigenen Workflows.

Mein Ziel ist klar: Text-KI lokal, Bild-KI lokal, eigene Modelle anlernen (LoRA, Feintuning) und all das so, dass ich als Selbständiger und später auch KMU-Kunden nicht von der Tageslaune irgendeines Cloud-Anbieters abhängig bin. Man könnte sagen: Es ist eine Rückkehr zu einer alten Haltung, die früher ganz normal war: „Wichtige Dinge macht man selbst“. Nur dass es diesmal nicht um die eigene Werkbank geht, sondern um Rechenleistung und Datenhoheit.

Weiterlesen

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit

gFM-Business und KI + Wissensgraph

Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windows, macOS und iOS lauffähig, und kann sowohl von Entwicklern als auch von ambitionierten Power-Usern angepasst werden.

Mit dem Aufkommen der künstlichen Intelligenz (KI) – insbesondere durch sogenannte Sprachmodelle wie ChatGPT – entstehen nun neue Chancen, die weit über klassische Automatisierung hinausgehen. gFM-Business bereitet sich aktiv auf diese Zukunft vor: mit dem Ziel, nicht nur Daten zu verwalten, sondern Wissen zu erschließen.

Weiterlesen

Ollama trifft Qdrant: Ein lokales Gedächtnis für Deine KI auf dem Mac

Gedächtnis für lokale KI mit Ollama und Qdrant

Lokale KI mit Erinnerungsvermögen – ohne Cloud, ohne Abo, ohne Umweg

In einem früheren Artikel habe ich erklärt, wie man Ollama auf dem Mac installiert. Wer diesen Schritt bereits hinter sich hat, verfügt nun über ein leistungsfähiges lokales Sprachmodell – etwa Mistral, LLaMA3 oder ein anderes kompatibles Modell, das per REST-API ansprechbar ist.

Doch von allein „weiß“ das Modell nur das, was im aktuellen Prompt steht. Es erinnert sich nicht an frühere Konversationen. Was fehlt, ist ein Gedächtnis.

Weiterlesen