Vom ChatGPT-Datenexport zur eigenen Wissens-KI: Schritt-für-Schritt mit Ollama und Qdrant

Der Weg zum eigenen KI-Gedächtnis

Im ersten Teil dieser Artikelserie haben wir gesehen, dass der ChatGPT-Datenexport weit mehr ist als nur eine technische Funktion. In Deinen exportierten Daten steckt eine Sammlung aus Gedanken, Ideen, Analysen und Gesprächen, die sich über längere Zeit angesammelt haben. Doch solange diese Daten nur als Archiv auf der Festplatte liegen, bleiben sie genau das: ein Archiv. Der entscheidende Schritt besteht darin, diese Informationen wieder nutzbar zu machen. Genau hier beginnt der Aufbau einer persönlichen Wissens-KI.

Die Idee ist eigentlich erstaunlich einfach: Eine KI soll nicht nur mit allgemeinem Wissen arbeiten, sondern auch auf Deine eigenen Daten zugreifen können. Sie soll frühere Gespräche durchsuchen, passende Inhalte finden und diese in neue Antworten einbeziehen. Damit wird aus einer gewöhnlichen KI eine Art digitales Gedächtnis. Dies ist der zweite Teil der Artikelserie, in dem es nun um die Praxis geht.

Weiterlesen

ChatGPT-Datenexport erklärt: Wie Deine KI-Chats zu einem persönlichen Wissenssystem werden

ChatGPT Datenexport

Wenn Du regelmäßig mit einer KI arbeitest, dann kennst Du das wahrscheinlich: Ein Gedanke führt zum nächsten. Du stellst eine Frage, bekommst eine Antwort, formulierst nach, entwickelst eine Idee weiter. Aus einer kurzen Frage entsteht plötzlich ein längerer Dialog. Manchmal entstehen daraus sogar ganze Projekte.

Doch die meisten dieser Gespräche verschwinden wieder. Sie liegen irgendwo in der Chatliste, rutschen nach unten und geraten mit der Zeit in Vergessenheit. Genau hier liegt eine der großen Besonderheiten moderner KI-Systeme: Während frühere Gespräche mit Kollegen, Freunden oder Beratern nur in unserer Erinnerung existierten, bleiben KI-Dialoge vollständig erhalten.

Das bedeutet etwas Entscheidendes: Mit jeder Unterhaltung entsteht ein digitales Archiv Deines Denkens. Dies ist der erste Teil einer kleinen Artikelserie, mit der Du Deine Chat-Historie aus ChatGPT exportieren und als persönlichen Wissensschatz mit Deinem lokalen KI-System effektiv nutzen kannst.

Weiterlesen

Künstliche Intelligenz ohne Hype: Warum weniger KI-Tools oft bessere Arbeit bedeuten

Künstliche Intelligenz ohne Hype

Wer sich heute mit dem Thema künstliche Intelligenz beschäftigt, stößt fast zwangsläufig auf ein merkwürdiges Gefühl: ständige Unruhe. Kaum hat man sich an ein Werkzeug gewöhnt, tauchen schon die nächsten zehn auf. Auf YouTube jagt ein Video das nächste: „Dieses KI-Tool verändert alles“, „Das musst du jetzt unbedingt nutzen“, „Wer das verpasst, bleibt zurück“. Und jedes Mal schwingt unterschwellig dieselbe Botschaft mit: Du bist zu spät. Die anderen sind weiter. Du musst aufholen.

Das betrifft längst nicht nur IT-Leute. Auch Selbstständige, Kreative, Unternehmer oder ganz normale Angestellte spüren diesen Druck. Viele wissen gar nicht genau, was diese Tools eigentlich machen – aber sie haben das Gefühl, dass sie etwas verpassen könnten. Und genau das erzeugt Stress.

Weiterlesen

Cloud-KI als Oberlehrer: Warum die Zukunft des Arbeitens bei lokaler KI liegt

Cloud-KI wird zum Oberlehrer

Als die großen Sprachmodelle vor einigen Jahren ihren Siegeszug antraten, wirkten sie fast wie eine Rückkehr zu alten Tugenden der Technik: Ein Werkzeug, das tut, was man ihm sagt. Ein Werkzeug, das dem Anwender dient, nicht umgekehrt. Die ersten Versionen – von GPT-3 bis GPT-4 – hatten Schwächen, ja, aber sie waren erstaunlich hilfreich. Sie erklärten, analysierten, formulierten, lösten Aufgaben. Und sie taten das weitgehend ohne pädagogischen Ballast.

Man sprach mit diesen Modellen wie mit einem gelehrten Mitarbeiter, der sich zwar mal verhaspelte, aber im Kern einfach arbeitete. Wer damals Kreativtexte schrieb, Programmcode generierte oder längere Analysen erstellte, erlebte, wie reibungslos das ging. Es herrschte ein Gefühl von Freiheit, von offener Gestaltungsfläche, von einer Technik, die den Menschen unterstützt, statt ihn zu korrigieren.

Weiterlesen

Apple MLX vs. NVIDIA: So funktioniert lokale KI-Inferenz auf dem Mac

Lokale KI auf Silicon mit Apple Mac

Wer heute mit Künstlicher Intelligenz arbeitet, denkt oft zuerst an ChatGPT oder ähnliche Online-Dienste. Man tippt eine Frage ein, wartet ein paar Sekunden – und erhält eine Antwort, als säße ein sehr belesener, geduldiger Gesprächspartner am anderen Ende der Leitung. Doch was dabei leicht vergessen wird: Jede Eingabe, jeder Satz, jedes Wort wandert über das Internet zu fremden Servern. Dort wird die eigentliche Arbeit erledigt – auf riesigen Rechnern, die man selbst nie zu Gesicht bekommt.

Ein lokales Sprachmodell funktioniert im Prinzip genauso – nur eben ohne Internet. Das Modell liegt als Datei auf dem eigenen Computer, wird beim Start in den Arbeitsspeicher geladen und beantwortet Fragen direkt auf dem Gerät. Die Technik dahinter ist dieselbe: ein neuronales Netz, das Sprache versteht, Texte generiert und Muster erkennt. Nur dass die gesamte Berechnung im eigenen Haus bleibt. Man könnte sagen: ChatGPT ohne Cloud.

Weiterlesen

Künstliche Intelligenz: Welche Jobs in Gefahr sind, und wie wir uns jetzt wappnen können

Welche Jobs entfallen künftig durch KI

Kaum ein technologischer Wandel hat sich so schnell in unseren Alltag eingeschlichen wie die künstliche Intelligenz. Was gestern noch als visionäre Zukunftstechnologie galt, ist heute bereits Realität – ob beim Texten, Programmieren, Diagnostizieren, Übersetzen oder sogar beim Erstellen von Musik, Kunst oder juristischen Schriftsätzen.

Weiterlesen

MLX auf Apple Silicon als lokale KI im Vergleich mit Ollama & Co.

Lokale KI auf dem Mac mit MLX

In einer Zeit, in der zentrale KI-Dienste wie ChatGPT, Claude oder Gemini die Schlagzeilen beherrschen, wächst bei vielen professionellen Anwendern das Bedürfnis nach einem Gegenpol – einer lokalen, selbst kontrollierbaren KI-Infrastruktur. Gerade für kreative Prozesse, sensible Daten oder wiederkehrende Arbeitsabläufe ist eine lokale Lösung oft die nachhaltigere und sicherere Option.

Wer mit einem Mac arbeitet – insbesondere mit Apple Silicon (M1, M2, M3 oder M4) – findet mittlerweile erstaunlich leistungsfähige Tools, um eigene Sprachmodelle direkt auf dem Gerät zu betreiben. Im Zentrum steht dabei eine neue, weitgehend unbekannte Komponente: MLX, ein von Apple entwickeltes Machine-Learning-Framework, das in den kommenden Jahren eine zunehmend zentrale Rolle im KI-Ökosystem des Unternehmens spielen dürfte.

Weiterlesen

RAG mit Ollama und Qdrant als universelle Suchmaschine für eigene Daten

Lokale KI um Datenbanken erweitern mit RAG, Ollama und Qdrant

In einer zunehmend unübersichtlichen Informationswelt wird es immer wichtiger, eigene Datenbestände gezielt durchsuchbar zu machen – nicht über klassische Volltextsuche, sondern durch semantisch relevante Antworten. Genau hier kommt das Prinzip der RAG-Datenbank ins Spiel – also einer KI-gestützten Suchlösung, die sich aus zwei zentralen Komponenten zusammensetzt:

Weiterlesen