Reichweite ist kein Eigentum – Warum Sichtbarkeit heute nicht mehr ausreicht

Reichweite vs. Eigentum

Vor gut zehn Jahren habe ich mir einmal eher zufällig einen Vortrag angesehen, in dem es um den Übergang von der Informationsgesellschaft zur Wissensgesellschaft ging. Damals klang vieles davon noch theoretisch, fast akademisch. Es ging um Begriffe wie Datenhoheit, Eigentum an Informationen und die Frage, wer künftig eigentlich bestimmt, was zugänglich ist – und was nicht. Heute, mit etwas Abstand, wirkt dieser Vortrag erstaunlich präzise. Denn vieles von dem, was damals als Entwicklung beschrieben wurde, ist inzwischen Realität geworden. Immer mehr Daten sind in die Cloud gewandert. Immer mehr Informationen liegen nicht mehr auf eigenen Systemen, sondern in fremden Infrastrukturen. Und immer häufiger entscheidet nicht mehr der Nutzer, sondern ein Anbieter, eine Plattform oder ein Regelwerk darüber, was möglich ist.

Um diese Entwicklung zu verstehen, lohnt sich ein Schritt zurück. Denn die Informationsgesellschaft, in der viele von uns aufgewachsen sind, war kein Normalzustand. Sie war ein historischer Sonderfall.

Weiterlesen

Apple MLX vs. NVIDIA: So funktioniert lokale KI-Inferenz auf dem Mac

Lokale KI auf Silicon mit Apple Mac

Wer heute mit Künstlicher Intelligenz arbeitet, denkt oft zuerst an ChatGPT oder ähnliche Online-Dienste. Man tippt eine Frage ein, wartet ein paar Sekunden – und erhält eine Antwort, als säße ein sehr belesener, geduldiger Gesprächspartner am anderen Ende der Leitung. Doch was dabei leicht vergessen wird: Jede Eingabe, jeder Satz, jedes Wort wandert über das Internet zu fremden Servern. Dort wird die eigentliche Arbeit erledigt – auf riesigen Rechnern, die man selbst nie zu Gesicht bekommt.

Ein lokales Sprachmodell funktioniert im Prinzip genauso – nur eben ohne Internet. Das Modell liegt als Datei auf dem eigenen Computer, wird beim Start in den Arbeitsspeicher geladen und beantwortet Fragen direkt auf dem Gerät. Die Technik dahinter ist dieselbe: ein neuronales Netz, das Sprache versteht, Texte generiert und Muster erkennt. Nur dass die gesamte Berechnung im eigenen Haus bleibt. Man könnte sagen: ChatGPT ohne Cloud.

Weiterlesen

LoRA-Training: Wie FileMaker 2025 das Feintuning großer Sprachmodelle vereinfacht

LoRA Fine tuning - FileMaker 2025

Die Welt der künstlichen Intelligenz ist in Bewegung. Neue Modelle, neue Methoden und vor allem neue Möglichkeiten entstehen heute fast wöchentlich – und dennoch bleibt eine Erkenntnis konstant: Nicht jede technische Neuerung führt automatisch zu einem besseren Alltag. Vieles bleibt experimentell, komplex oder schlicht zu aufwendig für den produktiven Einsatz. Besonders deutlich zeigt sich das beim sogenannten Feintuning großer Sprachmodelle – einer Methode, um generative KI auf eigene Inhalte, Begriffe und Tonalitäten zu spezialisieren.

Ich habe diesen Prozess in den letzten Monaten intensiv begleitet – erst in klassischer Form, mit Python, Terminal, Fehlermeldungen und nervenaufreibenden Setup-Schleifen. Und dann: mit FileMaker 2025. Ein Schritt, der mich überrascht hat – weil er nicht laut, aber klar war. Und weil er gezeigt hat, dass es auch anders geht.

Weiterlesen

Elektronische Rechnungen im Mittelstand: XRechnung, ZUGFeRD und ERP im Überblick

Übersicht zur Pflicht elektronischer Rechnungen

Deutschland hat die E-Rechnung nicht über Nacht erfunden – sie ist Ergebnis jahrelanger Normierungsarbeit (EN 16931), Bundes- und Länderverordnungen (B2G) und nun, über das Wachstumschancengesetz, der schrittweisen Ausweitung in den B2B-Alltag. Seit 1. Januar 2025 gilt eine neue gesetzliche Ausgangslage: Eine „elektronische Rechnung“ ist nur dann eine E-Rechnung, wenn sie strukturiert und maschinenlesbar ist – reine PDF-Anhänge per E-Mail sind nach der Definition keine E-Rechnung mehr. Das klingt technisch, hat aber betriebliche Folgen vom Rechnungseingang über die Buchhaltung bis zur Archivierung.

Weiterlesen

Digitale Abhängigkeit: Wie wir unsere Selbstbestimmung an die Cloud verloren haben

Digitale Abhängigkeit mit Cloud-Systemen

Ich habe es schon immer für einen Fehler gehalten, wenn Menschen ihre Daten aus der Hand geben – sei es in der Cloud, über Apps oder bei irgendwelchen „kostenlosen“ Diensten. Datenhoheit war für mich nie ein Modewort, sondern eine Frage der Selbstachtung. Wer Technik nutzt, ohne die Konsequenzen zu überdenken, begibt sich in eine Abhängigkeit, die oft erst Jahre später spürbar wird – aber dann umso tiefer greift.

Weiterlesen

gFM-Business und die Zukunft des ERP: Lokale Intelligenz statt Cloud-Abhängigkeit

gFM-Business und KI + Wissensgraph

Seit über einem Jahrzehnt steht die Software gFM-Business für eine Besonderheit im deutschen ERP-Markt: Sie basiert nicht auf einem schwerfälligen, schwer wartbaren System, sondern auf der leichtgewichtigen, anpassbaren und visuell modellierten FileMaker-Plattform. Das hat viele Vorteile: gFM-Business lässt sich individuell erweitern, ist auf Windows, macOS und iOS lauffähig, und kann sowohl von Entwicklern als auch von ambitionierten Power-Usern angepasst werden.

Mit dem Aufkommen der künstlichen Intelligenz (KI) – insbesondere durch sogenannte Sprachmodelle wie ChatGPT – entstehen nun neue Chancen, die weit über klassische Automatisierung hinausgehen. gFM-Business bereitet sich aktiv auf diese Zukunft vor: mit dem Ziel, nicht nur Daten zu verwalten, sondern Wissen zu erschließen.

Weiterlesen

FileMaker-Konferenz 2025: KI, Community und ein unerwarteter Vorfall

FileMaker Konferenz 2025: Feueralarm mit Feuerwehr

Die FileMaker-Konferenz 2025 in Hamburg ist vorbei – und sie war in vielerlei Hinsicht ein besonderer Meilenstein. Nicht nur, weil sich in diesem Jahr viele Themen rund um Künstliche Intelligenz, Performance und moderne Workflows konzentrierten – sondern auch, weil der persönliche Austausch und das „Familiäre“ der FileMaker-Community wieder voll zum Tragen kam. Für mich persönlich war es eine intensive, inspirierende und rundum bereichernde Zeit – und das bereits ab dem ersten Abend.

Weiterlesen

Integration von MLX in FileMaker 2025: Lokale KI als neuer Standard

Lokale KI mit MLX und FileMaker

Während MLX ursprünglich als experimentelles Framework von Apple Research gestartet ist, hat sich in den letzten Monaten eine stille, aber bedeutende Entwicklung vollzogen: Mit der Veröffentlichung von FileMaker 2025 hat Claris MLX als native KI-Infrastruktur für Apple Silicon fest in den Server integriert. Das bedeutet: Wer mit einem Mac arbeitet und auf Apple Silicon setzt, kann MLX-Modelle nicht nur lokal ausführen, sondern direkt in FileMaker verwenden – mit nativen Funktionen, ganz ohne Zwischenschichten.

Weiterlesen