Kiedy duże modele językowe rozpoczęły swój triumfalny marsz kilka lat temu, wydawały się niemal powrotem do starych cnót technologii: narzędzia, które robi to, co mu się każe. Narzędzie, które służy użytkownikowi, a nie odwrotnie. Pierwsze wersje - od GPT-3 do GPT-4 - miały słabości, owszem, ale były niesamowicie pomocne. Wyjaśniały, analizowały, formułowały i rozwiązywały zadania. I robiły to w dużej mierze bez pedagogicznego balastu.
Rozmawiało się z tymi modelami tak, jakby rozmawiało się z erudytą, który czasami mylił się w słowach, ale zasadniczo po prostu działał. Każdy, kto pisał kreatywne teksty, generował kod programu lub tworzył dłuższe analizy w tamtych czasach, doświadczył, jak płynnie to działało. Istniało poczucie wolności, otwartej przestrzeni twórczej, technologii, która wspierała ludzi, zamiast ich poprawiać.