Quando qualche anno fa i grandi modelli linguistici hanno iniziato la loro marcia trionfale, sembravano quasi un ritorno alle vecchie virtù della tecnologia: uno strumento che fa quello che gli viene detto. Uno strumento che serve l'utente, non il contrario. Le prime versioni, da GPT-3 a GPT-4, avevano sì dei punti deboli, ma erano incredibilmente utili. Spiegavano, analizzavano, formulavano e risolvevano i compiti. E lo facevano in gran parte senza zavorre pedagogiche.
Si parlava con questi modelli come se si stesse parlando con un impiegato erudito, che a volte sbagliava le parole, ma che essenzialmente lavorava e basta. Chiunque abbia scritto testi creativi, generato codici di programma o prodotto analisi più lunghe all'epoca ha sperimentato quanto tutto ciò funzionasse senza problemi. C'era una sensazione di libertà, di spazio creativo aperto, di tecnologia che supportava le persone invece di correggerle.