Als die großen Sprachmodelle vor einigen Jahren ihren Siegeszug antraten, wirkten sie fast wie eine Rückkehr zu alten Tugenden der Technik: Ein Werkzeug, das tut, was man ihm sagt. Ein Werkzeug, das dem Anwender dient, nicht umgekehrt. Die ersten Versionen – von GPT-3 bis GPT-4 – hatten Schwächen, ja, aber sie waren erstaunlich hilfreich. Sie erklärten, analysierten, formulierten, lösten Aufgaben. Und sie taten das weitgehend ohne pädagogischen Ballast.
Man sprach mit diesen Modellen wie mit einem gelehrten Mitarbeiter, der sich zwar mal verhaspelte, aber im Kern einfach arbeitete. Wer damals Kreativtexte schrieb, Programmcode generierte oder längere Analysen erstellte, erlebte, wie reibungslos das ging. Es herrschte ein Gefühl von Freiheit, von offener Gestaltungsfläche, von einer Technik, die den Menschen unterstützt, statt ihn zu korrigieren.