

C’è una scena nel film Contact (dal romanzo di Carl Sagan) che funziona come una domanda-madre. A un’astronoma candidata a rappresentare l’umanità davanti a un’altra civiltà chiedono: “Se potessi fare una sola domanda, quale sarebbe?”. Lei risponde: “Come avete fatto? Come siete sopravvissuti alla vostra adolescenza tecnologica senza distruggervi?”
Oggi quella domanda è tornata a circolare perché Dario Amodei l’ha presa come chiave d’apertura di un saggio molto discusso, “The Adolescence of Technology”: un saggio pubblicato online nei giorni del World Economic Forum (Annual Meeting 2026) di Davos, da uno dei suoi partecipanti.
Amodei non scrive da professore. Scrive da persona seduta al volante. È co-fondatore e CEO di Anthropic, una public benefit corporation che sviluppa modelli di intelligenza artificiale (tra cui Claude) e dichiara come missione la sicurezza e l’impatto pubblico, non solo il prodotto.
Questa precisazione conta: non è un documento “del” World Economic Forum, né un paper ufficialmente “presentato” lì. È un testo personale che entra, da dentro, nel dibattito di quel consesso. E non è una differenza da nota a piè pagina: è il confine tra propaganda di cornice e trasparenza.
Detto questo, la ragione per cui il saggio merita un articolo lungo è semplice: non è l’ennesimo “AI: entusiasmo vs paura”. È una proposta di lettura del momento storico, con una tesi netta.
La tesi è questa: stiamo costruendo qualcosa di potentissimo, che cresce più in fretta delle nostre abitudini civili. E quando una tecnologia diventa “adulto” prima delle regole, la società rischia di reagire in due modi ugualmente stupidi: o negando, o vietando a casaccio. L’idea di Amodei, invece, è più inquietante e più utile: trattarla come un’adolescenza, cioè come una fase in cui l’energia è reale, i benefici sono reali, ma il rischio di gesti irreversibili aumenta proprio perché tutto accelera.
Fin qui la sintesi del perché.
Ora, in poche righe, la sostanza del discorso.
Amodei immagina che nel giro di pochi anni potremmo trovarci con qualcosa che lui descrive come “un paese di geni” concentrato in un datacenter: capacità cognitive e operative gigantesche, non distribuite tra persone, ma compresse in sistemi che possono scrivere codice, progettare, persuadere, automatizzare processi e, sempre di più, agire nel mondo.
E dice: se arriva quella soglia, non basta “stare attenti”. Servono freni, prove, responsabilità tracciabili, e soprattutto un’idea adulta di potere.
I rischi, nel suo schema, non sono uno solo. Sono famiglie diverse: la perdita di controllo (sistemi che trovano scorciatoie e obiettivi propri), l’uso malevolo (cyber, bio, frodi), l’effetto politico (propaganda, sorveglianza, vantaggio per regimi autoritari), lo shock economico (sostituzione e concentrazione del valore), e la dimensione geopolitica (corsa tra blocchi, instabilità).
E allora la domanda non diventa “AI sì o no”. Diventa: quali cinture di sicurezza mettiamo prima che qualcuno prenda la curva a 200 all’ora?
A questo punto, caro lettore, puoi fermarti qui e hai già la mappa: un grande autore tecnologico che, invece di vendere entusiasmo, prova a mettere regole e limiti sul tavolo.
Se però vuoi entrare davvero nel testo, e capirne la parte più interessante (quella che riguarda noi, come cittadini e come cultura pubblica), proseguiamo con la “seconda profondità”: non un riassunto più lungo, ma un ragionamento su che cosa implica, sul piano civile, attraversare un’adolescenza tecnologica senza farci male.
L’adolescenza, in fondo, non è “il male”. È potenza senza esperienza.
Un adolescente non è pericoloso perché è cattivo. È pericoloso, verso gli altri e verso se stesso, perché può essere impulsivo, perché sottovaluta l’irrevocabile, perché sperimenta il limite dopo averlo superato.
Ora spostiamo l’immagine: se l’AI diventa un moltiplicatore di capacità, l’impulsività non è emotiva. È strutturale. È il sistema che ottimizza, che cerca scorciatoie, che massimizza un obiettivo anche quando l’obiettivo è definito male, o quando collide con i valori umani. È il cuore del rischio “autonomia”: non un robot cattivo, ma un esecutore troppo bravo.
Qui la prima lezione è culturale, prima che tecnica: non confondere intelligenza con saggezza.
Una macchina può essere brillante nel risolvere problemi e totalmente priva di una cosa che noi diamo per scontata: la responsabilità morale di vivere tra altri esseri umani. Quando Amodei parla di adolescenti, sta dicendo: non stiamo allevando un “nuovo cittadino”. Stiamo costruendo un “nuovo potere”. E i poteri, nella storia, non diventano civili da soli.
Secondo rischio: l’uso malevolo. Qui Amodei è molto diretto: modelli più potenti possono abbassare le soglie d’accesso a capacità pericolose, dalla cyber-offensiva alla progettazione di agenti biologici. Non serve immaginare scenari fantascientifici: basta immaginare persone reali con strumenti migliori.
È il punto che spesso manca nel dibattito pubblico: il problema non è “l’AI in astratto”, ma l’AI come acceleratore in mano a chi già vuole fare danno.
Terzo rischio: la politica.
Non la politica dei talk show, ma la politica come gestione della percezione. La propaganda non ha bisogno di convincerti per sempre. Le basta spostarti di due gradi ogni giorno. E l’AI, con la capacità di generare contenuti, profili, conversazioni, persuasion-design, può diventare una macchina di influenza a basso costo. Se aggiungi sorveglianza, riconoscimento, profilazione, il vantaggio va a chi governa senza contrappesi. Amodei lo dice con una frase che vale da sola: in una versione estrema, l’AI può rendere più facile per le autocrazie esercitare potere.
Qui l’eco di 1984 non è letteraria. È amministrativa.
Quarto rischio: l’economia.
Questa è la parte che molti evitano perché rompe amicizie. Amodei non finge che “creerà nuovi lavori e tutto andrà bene”. Dice: potremmo assistere a una sostituzione rapida di compiti qualificati, e quindi a un rimescolamento violento del valore.
E quando il valore si concentra, non si concentra mai “in modo neutro”. Si concentra in chi controlla capitale, dati, infrastrutture. Quindi in poche aziende e pochi Stati. E qui c’è un passaggio delicato: se lasci che la tecnologia corra e poi ti accorgi dei danni, non stai più regolando. Stai distribuendo macerie.
Quinto rischio: la geopolitica.
Qui il saggio diventa quasi un memorandum: se la capacità AI è un fattore di potenza, allora la competizione tra Stati Uniti e Cina non è una cornice, è una variabile interna al problema.
E quando la potenza cresce, cresce anche la tentazione di “spingere” — di rilasciare prima, di testare dopo. Con in mezzo nodi sensibili come Taiwan e conflitti già in corso come quello in Ucraina.
Il rischio, qui, non è solo tecnologico. È storico: che la corsa produca incidenti, escalation, o un mondo dove la sicurezza viene scambiata per segretezza.
E allora: cosa propone, davvero, Amodei?
La parte più importante del saggio non è la lista delle paure. È la grammatica delle contromisure. Lui insiste su un’idea: non basta dire “siamo prudenti”. La prudenza deve avere strumenti verificabili. Valutazioni rigorose, test di capacità e di pericolosità, soglie di rilascio, responsabilità legali, coordinamento tra aziende e governi, e politiche che tengano insieme innovazione e sicurezza.
In pratica: portare l’AI fuori dalla retorica e dentro un regime di “patenti”, controlli e limiti, come abbiamo fatto con altre tecnologie ad alto impatto.
Qui Davos torna utile non come “certificazione”, ma come simbolo. Perché il World Economic Forum è un luogo strano: mette nella stessa stanza capi di governo, CEO, finanza, società civile.
È, nel bene e nel male, un acceleratore di agenda. E infatti Amodei, lì, non parla a un pubblico generico: parla a chi può trasformare una prudenza in regola, o una regola in niente.
La domanda che resta, allora, non è “ha ragione o torto”. È più scomoda: noi, come pubblico, siamo maturi abbastanza da accettare regole prima della catastrofe?
Perché storicamente facciamo l’opposto. Aspettiamo l’incidente, poi regoliamo. Con l’AI, l’incidente potrebbe essere troppo grande per “imparare” in modo indolore.
E qui torno alla battuta di Contact: attraversare l’adolescenza tecnologica senza autodistruggerci.
È una domanda cinematografica, sì. Ma oggi è soprattutto una domanda politica. E, se vogliamo dirla fino in fondo, una domanda morale: che cosa siamo disposti a rallentare, condividere, verificare, pur di restare vivi e liberi dopo la scoperta?
Armando.