“Human in the Loop”: perché l’IA ha bisogno di un’anima

Immaginiamo un mondo in cui le decisioni più importanti – un prestito, una diagnosi, una condanna, un diritto – non vengono più prese da persone, ma da sistemi invisibili che analizzano dati e restituiscono verità assolute in forma di percentuali. Sembra comodo, efficiente, quasi inevitabile. Ma cosa accade quando la macchina decide senza comprendere, quando il calcolo sostituisce il giudizio, quando il numero prende il posto del senso, quando scompare dall’equazione ogni forma di “pietas”? Ho trovato parecchi spunti di riflessione in un libro sull’intelligenza artificiale che si sviluppa intorno ad una domanda chiave: fino a che punto siamo disposti a delegare l’umano all’algoritmo? E cosa rischiamo di perdere se restiamo fuori dal circuito decisionale che noi stessi abbiamo creato?

Si parla tanto di Intelligenza Artificiale, ma “Human in the Loop” di Paolo Benanti affronta l’argomento da un punto di vista differente: è un testo che non feticizza l’algoritmo e non demonizza la tecnologia, ma chiede con lucidità come rimettere l’essere umano al centro del processo decisionale

Ma partiamo da capire chi è l’autore. Paolo Benanti è una figura che rompe gli schemi: è un frate francescano, porta il saio, vive secondo la regola di San Francesco, e allo stesso tempo è uno degli esperti più ascoltati al mondo quando si parla di intelligenza artificiale. Non un informatico, non uno scienziato, non un futurista in giacca e cravatta, ma un religioso che riflette sul destino dell’uomo nell’era degli algoritmi. Eppure proprio lui è stato scelto dal Segretario Generale delle Nazioni Unite come membro dello High-level Advisory Body on Artificial Intelligence, l’organismo che riunisce 38 esperti internazionalichiamati a definire le regole della governance mondiale dell’IA. In questo contesto Benanti, siede accanto a scienziati, giuristi, ingegneri, diplomatici, portando uno sguardo fuori dagli stereotipi: quello di chi si occupa non solo di come funzionano le macchine, ma di quale posto resta all’uomo.

Ho apprezzato molto l’aspetto filosofico di “Human in the Loop” perché questo saggio non è un trattato tecnico, né un manifesto tecnofobo; è un invito a pensare con metodo il rapporto tra etica e sviluppo dell’intelligenza artificiale, là dove si gioca davvero il futuro delle nostre istituzioni, delle imprese, della convivenza civile. In questa cornice, l’idea di “algoretica” assume il ruolo di bussola: non una morale contro le macchine, ma una grammatica dei fini per orientare i mezzi. 

“La tecnologia è potente quando ha un perché; senza scopo, resta solo calcolo”.

Il libro insiste su un punto che oggi troppo spesso diamo per scontato: automazione ed efficienza non coincidono con giustizia e senso. I sistemi di IA apprendono correlazioni, generalizzano dai dati, eccellono nel prevedere. Ma il prevedere non è capire, e il decidere non è soltanto massimizzare una funzione di costo. È qui che Benanti richiama la responsabilità di restare “nel loop”. 

“Se deleghiamo tutto al modello, abbandoniamo anche la domanda sul fine. I numeri misurano il mondo, ma non lo giustificano”

La grande tentazione dell’epoca algoritmica, suggerisce l’autore, è quella di sostituire la causa con la correlazione, la deliberazione con l’ottimizzazione, la prudenza con la velocità. Ma una società non si regge sulla prestazione; si regge sul significato

In quest’ottica, la figura dell’umano non è l’ostacolo obsoleto che rallenta il flusso; è l’unico soggetto capace di tenere insieme fatti e valori. Avere “l’umano nel ciclo” non vuol dire chiedere a un operatore di cliccare ‘conferma’ in fondo a una pipeline automatizzata. Vuol dire progettare sistemi e contesti organizzativi nei quali la decisione sia spiegabile, contestualizzata, sindacabile. 

“Una decisione che non si può spiegare non si può difendere. È questo il senso dell’algoretica. Non chiediamo alle macchine di essere morali; chiediamo a noi di usare le macchine moralmente”

Non basta quindi l’interpretabilità tecnica dei modelli; serve una intellegibilità sociale delle scelte: chi risponde quando sbaglia la macchina? in nome di quali scopi sono stati selezionati i dati e allenati i criteri? con quale mandato etico e normativo? Benanti chiama “algoretica” la cornice che permette di tenere queste domande aperte senza bloccare l’innovazione. È un’etica dei mezzi e dei fini insieme, capace di tradursi in governance: affidabilità, trasparenza, tracciabilità delle responsabilità, proporzionalità d’uso, rispetto della dignità e dei diritti fondamentali. In questo senso, l’algoretica è un lavoro istituzionale prima che individuale: riguarda le pratiche di raccolta e cura dei dati, l’analisi dei bias, la supervisione umana competente, la possibilità concreta di contestare un esito e rivederlo. È un’etica del design e dell’organizzazione: come costruiamo pipeline che incorporano checkpoint di senso, come rendiamo auditable l’intero percorso che va dal problema alla decisione automatizzata, come fissiamo limiti ex ante su cosa non si automatizza, perché non tutto ciò che è automatizzabile è legittimo automatizzare. Il lecito tecnico – secondo Benanti – non coincide con il lecito umano.

“L’ingiustizia quando diventa automatica, diventa invisibile. Progredire non è correre più veloce, è sapere dove andare”

Il libro affronta anche la fascinazione contemporanea per la neutralità del dato. Non esistono dati innocenti: sono sempre frutto di selezioni, mediazioni, poteri. Se addestriamo sistemi con archivi segnati da diseguaglianze, otterremo decisioni che le riproducono con efficienza industriale. Il rischio non è solo l’errore statistico; è l’errore etico amplificato. Per questo l’autore diffida sia dell’ottimismo ingenuo, sia del pessimismo sterile. La via maestra è un’alleanza tra competenza tecnica, cultura giuridica, saggezza pratica: ingegneri, giuristi, eticisti, manager e cittadini chiamati a un linguaggio comune. Non per frenare la ricerca, ma per orientarla.

“Quanto più la decisione tocca la persona, tanto più la persona deve toccare la decisione. L’algoritmo ottimizza; l’uomo orienta”

Uno snodo decisivo riguarda la distinzione tra uso strumentale e delega sostitutiva. Ci sono ambiti in cui l’automazione aumenta l’umano — riduce errori ripetitivi, libera tempo, estende capacità percettive — e ambiti dove, al contrario, lo esautora. La domanda non è “possiamo farlo?”, ma “dovremmo farlo?” e “a quali condizioni?”. Le decisioni ad alto impatto sui diritti, sulla libertà, sull’accesso a beni essenziali richiedono presidi forti di supervisione, revocabilità, ricorso. Qui l’algoretica diventa architettura delle responsabilità: chi progetta, chi approva, chi monitora, chi risponde. L’IA non è un oracolo: è un’infrastruttura di potere e, come tale, va regolata con misure di accountability all’altezza del suo impatto.

Il testo dialoga con i dilemmi classici — dal paradosso del carrello alle scelte in condizioni di incertezza — per mostrare che l’etica non è un plug-in sopra la tecnologia, ma una condizione preliminare della buona tecnologia. Le simulazioni morali scolastiche hanno un limite: nella realtà le decisioni sono immerse in contesti, vincoli, conseguenze non pienamente computabili. Il compito dell’umano nel loop non è sostituire l’algoritmo con l’arbitrio, ma integrare il calcolo con la prudenza, la compassione, la visione. Questa integrazione non accade da sola: va educata, istituzionalizzata, messa alla prova con audit indipendenti, protocolli di fallimento sicuro, percorsi formativi che rendano i decisori capaci di leggere ciò che i sistemi producono e, se serve, di dire no.

“Una società è libera quando può spegnere la macchina. La fretta costruisce strumenti; la prudenza costruisce civiltà”

C’è poi un tema che attraversa sottotraccia tutto il libro: la distinzione tra controllo e dominio. Controllare una tecnologia significa comprenderne i limiti e governarne gli effetti; esserne dominati significa crederla neutra, onnipotente, salvifica. La prima postura costruisce libertà; la seconda genera sudditanza.
Anche sul piano culturale, l’autore invita a sottrarci al mito della sostituzione totale: non perché l’IA non possa superare l’uomo in compiti specifici — lo fa già — ma perché la dignità non è una prestazione comparativa. La dignità è il diritto di restare autori e responsabili delle nostre scelte, persino quando scegliamo di farci aiutare dalle macchine.

In filigrana, “Human in the Loop” è anche un libro sul tempo. L’innovazione ci spinge a un presente accelerato; l’etica chiede la pazienza del discernimento. Non per rimandare, ma per decidere meglio. È una differenza che si vede nelle politiche pubbliche come nelle imprese: dove l’adozione dell’IA è accompagnata da criteri di proporzionalità, da valutazioni d’impatto, da percorsi di ascolto, la tecnologia radica fiducia; dove invece è calata dall’alto e opacizzata da retoriche salvifiche, produce resistenze, scandali, regressioni. L’etica non è freno a mano: è sterzo.

Forse l’indicazione più preziosa del libro — ed è qui che la proposta di Benanti risulta più contemporanea — è che la domanda etica non è “chi è più intelligente?” ma “come convivono intelligenze diverse?”. Non esiste un’unica intelligenza legittima; esistono forme differenti di comprensione, umana e artificiale, che possono cooperare. Ma la cooperazione richiede regole, ruoli, limiti. 

“L’IA è una straordinaria alleata quando conosce il suo posto. La vera innovazione è una tecnica con un’anima” 

E conoscere il suo posto significa che siamo noi a definirlo: come cittadini che pretendono trasparenza, come organizzazioni che investono nella qualità dei dati e nella cura dei processi, come legislatori che costruiscono cornici capaci di aggiornarsi, come educatori che formano una nuova alfabetizzazione morale e digitale.

In definitiva, “Human in the Loop” non chiede meno tecnologia, chiede più umanità nella tecnologia. Ricorda che la responsabilità non si può esternalizzare, che la dignità non si può comprimere in una metrica, che il progresso non si misura soltanto in FLOPS ma nella qualità delle decisioni che sappiamo prendere insieme. La vera innovazione è una tecnica con un’anima: è una tesi esigente e, proprio per questo, profondamente liberante: ci restituisce il compito di essere autori del futuro, non suoi passeggeri.

Categorie