ChatGPT-Datenexport erklärt: Wie Deine KI-Chats zu einem persönlichen Wissenssystem werden

ChatGPT Datenexport

Wenn Du regelmäßig mit einer KI arbeitest, dann kennst Du das wahrscheinlich: Ein Gedanke führt zum nächsten. Du stellst eine Frage, bekommst eine Antwort, formulierst nach, entwickelst eine Idee weiter. Aus einer kurzen Frage entsteht plötzlich ein längerer Dialog. Manchmal entstehen daraus sogar ganze Projekte.

Doch die meisten dieser Gespräche verschwinden wieder. Sie liegen irgendwo in der Chatliste, rutschen nach unten und geraten mit der Zeit in Vergessenheit. Genau hier liegt eine der großen Besonderheiten moderner KI-Systeme: Während frühere Gespräche mit Kollegen, Freunden oder Beratern nur in unserer Erinnerung existierten, bleiben KI-Dialoge vollständig erhalten.

Das bedeutet etwas Entscheidendes: Mit jeder Unterhaltung entsteht ein digitales Archiv Deines Denkens. Dies ist der erste Teil einer kleinen Artikelserie, mit der Du Deine Chat-Historie aus ChatGPT exportieren und als persönlichen Wissensschatz mit Deinem lokalen KI-System effektiv nutzen kannst.

Weiterlesen

Vom Commodore C16 bis WordPress: Eine Reise durch die frühen Jahre des Internets

Vom Modem zum Internet und Magazin

Wenn Du heute ein Smartphone in die Hand nimmst, steckt darin mehr Rechenleistung als früher in ganzen Computerräumen. In den 1980er-Jahren war das noch völlig anders. Computer waren selten, teuer und für viele Menschen eine geheimnisvolle Maschine. Wer damals einen eigenen Heimcomputer hatte, gehörte zu einer kleinen Gruppe von Bastlern, Tüftlern und Neugierigen. Das Spannende war: Man konsumierte Computer nicht einfach nur. Man musste sie verstehen. Viele Programme gab es nicht fertig zu kaufen. Stattdessen standen in Computerzeitschriften seitenlange Listings mit BASIC-Code, die man Zeile für Zeile abtippen musste. Erst danach konnte man sehen, ob das Programm überhaupt funktionierte.

Das klingt heute mühsam, hatte aber einen großen Vorteil. Man lernte automatisch, wie Computer funktionieren. Wer einen Fehler machte, bekam sofort eine Fehlermeldung – und musste selbst herausfinden, wo der Fehler lag. Auf diese Weise entstand bei vielen jungen Computerfans ein ganz natürlicher Zugang zu Technik und Programmierung.

Genau in dieser Zeit begann auch mein eigener Weg in die Welt der Computer.

Weiterlesen

Wenn der Mac zuhört: Was Apples integrierte KI mit Gemini und Siri künftig für Nutzer bedeutet

Apple, Siri und Gemini

Wer heute einen Mac aufklappt, erwartet Verlässlichkeit. Programme starten, Dateien liegen an ihrem Platz, Abläufe sind eingeübt. Viele haben sich über Jahre – manche über Jahrzehnte – eine Arbeitsweise aufgebaut, die funktioniert. Man weiß, wo man klicken muss. Man kennt seine Werkzeuge. Und genau darin liegt ein stiller Komfort. Doch im Hintergrund bereitet sich seit einiger Zeit eine Veränderung vor, die größer ist als neue Farben, neue Symbole oder zusätzliche Menüpunkte. Zum ersten Mal zieht eine Form von künstlicher Intelligenz nicht nur als einzelne Anwendung ein, sondern rückt näher an das Herz des Betriebssystems selbst. Dorthin, wo tägliche Routinen entstehen.

Das klingt zunächst abstrakt. Vielleicht sogar ein wenig nach Zukunftsmusik. Aber im Grunde geht es um etwas sehr Bodenständiges: Der Computer soll besser verstehen, was gemeint ist. Nicht nur, was angeklickt wird. Viele Menschen haben KI bislang außerhalb ihres eigentlichen Arbeitens erlebt. In Chatfenstern, auf Webseiten, als Experiment oder Spielerei. Man probiert etwas aus, staunt vielleicht, schließt das Fenster wieder – und kehrt zurück zum normalen Alltag.

Weiterlesen

KI-Studio 2025: Welche Hardware wirklich lohnt – vom Mac Studio bis zur RTX 3090

Hardware 2025 für KI-Studio

Wer heute mit KI arbeitet, wird fast automatisch in die Cloud gedrückt: OpenAI, Microsoft, Google, irgendwelche Web-UIs, Tokens, Limits, AGBs. Das wirkt modern – ist im Kern aber eine Rückkehr in die Abhängigkeit: Andere bestimmen, welche Modelle Du nutzen darfst, wie oft, mit welchen Filtern und zu welchen Kosten. Ich gehe bewusst den anderen Weg: Ich baue mir gerade mein eigenes kleines KI-Studio zu Hause auf. Mit eigener Hardware, eigenen Modellen und eigenen Workflows.

Mein Ziel ist klar: Text-KI lokal, Bild-KI lokal, eigene Modelle anlernen (LoRA, Feintuning) und all das so, dass ich als Selbständiger und später auch KMU-Kunden nicht von der Tageslaune irgendeines Cloud-Anbieters abhängig bin. Man könnte sagen: Es ist eine Rückkehr zu einer alten Haltung, die früher ganz normal war: „Wichtige Dinge macht man selbst“. Nur dass es diesmal nicht um die eigene Werkbank geht, sondern um Rechenleistung und Datenhoheit.

Weiterlesen

Die stille Gefahr von Wearables: Wenn Bequemlichkeit zur Überwachung wird

Wearables, Smartwatch, In-Ear-Kopfhörer

Wearables gehören inzwischen zum Alltag. Viele Menschen tragen heute selbstverständlich eine Smartwatch, zählen ihre Schritte, schauen auf ihre Schlafqualität oder lassen sich im Alltag an Pausen erinnern. Und ich gestehe gern: Ich selbst habe auch eine Apple Watch, und ich finde diese Technik auf ihre Art absolut faszinierend. Sie kann Dinge, die vor wenigen Jahren noch reine Zukunftsmusik gewesen wären. Trotzdem nutze ich meine Apple Watch nur selten.

Und gerade jetzt, nach den neuesten Berichten und Aussagen von Fachleuten, fällt mir wieder auf, dass diese Zurückhaltung gar nicht so falsch ist. Denn viele moderne Kopfhörer und Wearables enthalten heute Sensoren, die weit mehr messen können, als man auf den ersten Blick ahnt. Nicht jeder Kopfhörer hat das – aber die Richtung ist eindeutig: immer mehr Technik wandert unauffällig in kleine Geräte, die wir dicht am Körper tragen.

Weiterlesen

Apple MLX vs. NVIDIA: So funktioniert lokale KI-Inferenz auf dem Mac

Lokale KI auf Silicon mit Apple Mac

Wer heute mit Künstlicher Intelligenz arbeitet, denkt oft zuerst an ChatGPT oder ähnliche Online-Dienste. Man tippt eine Frage ein, wartet ein paar Sekunden – und erhält eine Antwort, als säße ein sehr belesener, geduldiger Gesprächspartner am anderen Ende der Leitung. Doch was dabei leicht vergessen wird: Jede Eingabe, jeder Satz, jedes Wort wandert über das Internet zu fremden Servern. Dort wird die eigentliche Arbeit erledigt – auf riesigen Rechnern, die man selbst nie zu Gesicht bekommt.

Ein lokales Sprachmodell funktioniert im Prinzip genauso – nur eben ohne Internet. Das Modell liegt als Datei auf dem eigenen Computer, wird beim Start in den Arbeitsspeicher geladen und beantwortet Fragen direkt auf dem Gerät. Die Technik dahinter ist dieselbe: ein neuronales Netz, das Sprache versteht, Texte generiert und Muster erkennt. Nur dass die gesamte Berechnung im eigenen Haus bleibt. Man könnte sagen: ChatGPT ohne Cloud.

Weiterlesen

Digitale Abhängigkeit: Wie wir unsere Selbstbestimmung an die Cloud verloren haben

Digitale Abhängigkeit mit Cloud-Systemen

Ich habe es schon immer für einen Fehler gehalten, wenn Menschen ihre Daten aus der Hand geben – sei es in der Cloud, über Apps oder bei irgendwelchen „kostenlosen“ Diensten. Datenhoheit war für mich nie ein Modewort, sondern eine Frage der Selbstachtung. Wer Technik nutzt, ohne die Konsequenzen zu überdenken, begibt sich in eine Abhängigkeit, die oft erst Jahre später spürbar wird – aber dann umso tiefer greift.

Weiterlesen

gFM-Dental 1.1 enthält Konstanzprüfung nach DIN 6868-157.

Konstanzprüfung durchführen in gFM-Dental

Die auf dem FileMaker-Fachportal goFileMaker erhältliche Software null für Zahnärzte enthält ab sofort die Möglichkeit, die arbeitstägliche Konstanzprüfung von Befundmonitoren digitaler Röntgengeräte nach der neuen Richtlinie DIN 6868-157 unter Apple Mac OS X durchzuführen. gFM-Dental 1.1 enthält ein entsprechendes Testbild, um die Konstanzprüfung nach der neuen Norm durchführen zu können. In einem Fachartikel wird erläutert, … Weiterlesen