Contenuto riservato ai sostenitori de L'Araldo
Un documento che si concentra sulla dimensione etica e morale e lascia in secondo piano l’aspetto più tecnico. La nota “Antiqua et nova” sul rapporto tra intelligenza artificiale e intelligenza umana, a cura del Dicastero per la dottrina della Fede e del Dicastero per la cultura e l’educazione della Santa sede, è focalizzata proprio sulla natura di questo rapporto e su quali sono i rischi e le opportunità connesse all’IA, nella convinzione che «vi è ampio consenso sul fatto che l’IA segni una nuova e significativa fase nel rapporto dell’umanità con la tecnologia».
QUESTIONE DI TERMINI E lo fa a partire dal lessico, cercando di definire cosa si intenda per “intelligenza” se riferito all’uomo piuttosto che alla macchina. «Vi è l’assunto implicito – si legge – che la parola “intelligenza” vada usata allo stesso modo» per entrambe, «tuttavia, ciò non sembra riflettere la reale portata del concetto». Se per l’essere umano è impossibile scinderla dal contesto, per l’IA è proprio il contesto a mancare. Per evitare di valutarla solo «sulla base della sua capacità di produrre risposte appropriate», occorre ricordare che essa concerne «sia le capacità di astrazione sia le emozioni, la creatività, il senso estetico, morale e religioso». Ancora vi è una dimensione di «incarnazione», nel pensiero cristiano «l’anima non è la “parte” immateriale […] ma è tutto l’essere umano ad essere, allo stesso tempo, sia materiale che spirituale», e di «relazionalità» nel processo di intelligenza umano, nonché un «desiderio di verità» che spinge «la ragione ad andare sempre oltre», motivo per cui «si mostra come una facoltà che è parte integrante del modo in cui tutta la persona si coinvolge nella realtà». Non così l’IA, anche se «elabora e simula alcune espressioni dell’intelligenza, essa rimane fondamentalmente confinata in un ambito logico-matematico». In definitiva, richiamando le parole di papa Francesco, la Nota definisce il termine “intelligenza” «fuorviante».
RESPONSABILITÀ Nondimeno anche l’uomo e la sua intelligenza, come emerge da psicoterapia, psichiatria e neuroscienze, devono convivere con stereotipi, pregiudizi e bias che possono rendere molto meno efficace questa capacità; qual è la differenza allora? Il documento sembra suggerire che la chiave è nella responsabilità e per questo sottolinea che «è importante che colui che compie decisioni sulla base dell’IA sia ritenuto responsabile per le stesse e che sia possibile rendere conto dell’uso dell’IA in ogni fase». Da un lato «ha massima rilevanza l’essere in grado di identificare e definire chi sia responsabile dei processi di IA», dall’altro «oltre a determinare le responsabilità, si devono stabilire quali siano gli scopi dati ai sistemi di IA», da cui consegue che «chi usa l’IA […] è in ultima analisi responsabile del potere che ha delegato».
ETICA Sulla base di queste due premesse è possibile impostare un’etica dell’uso dell’IA più che dell’IA stessa. La Nota individua diverse sfere: società, relazioni, lavoro, sanità, educazione, disinformazione, privacy, custodia del creato, guerra. A livello sociale l’IA potrebbe essere usata a favore dei più deboli e per un pieno sviluppo umano, ma «i dati finora raccolti sembrano suggerire che le tecnologie digitali siano servite ad aumentare le disuguaglianze», anche perché «nelle mani di poche aziende». Nell’ambito delle relazioni invece è determinante favorire la consapevolezza che, per quanto in grado di produrre «testi, discorsi, immagini e altri output», l’IA resta «uno strumento, non una persona» poiché non può «provare davvero empatia».
Sul fronte economico-lavorativo i due discrimini principali sono lo scarso legame con i territori e la difesa del lavoro umano, che non deve diventare ancillare rispetto all’IA o al profitto.
CHI CURA? Ancora più delicato, se possibile, il rapporto con la salute, perché se l’IA ha «un enorme potenziale in svariate applicazioni in campo medico» – già oggi è più precisa dell’uomo nel riconoscimento di un melanoma ed è usata, anche nel sistema sanitario lombardo, in sperimentazioni “doppio cieco” per diagnosi convergenti tra IA e medici – diverso è sostituirla al personale sanitario (anche se in Giappone già accade e l’Italia fronteggia lo stesso declino demografico) e ancora differente è decidere chi è responsabile di diagnosi e trattamenti sviluppati a partire dall’IA (o del tutto). Spostandosi nella dimensione educativa, la Nota sottolinea l’importanza del ruolo degli insegnanti non solo per «trasmettere la conoscenza», ma anche come «modelli» e «ispiratori» in una «dinamica relazionale che l’IA non può replicare»; l’uso, secondo il Dicastero, dovrebbe andare nella direzione di un «supporto personalizzato» all’apprendimento evitando la dipendenza tecnologica.
CHI CONTROLLA? Nella sfera della formazione delle opinioni e del controllo sociale, l’uso dell’IA si intreccia con l’esercizio della libertà: può generare e veicolare «contenuti fittizi» e può essere usata intenzionalmente «a fini di manipolazione». Si rischia di «minare le fondamenta della società», anche perché questo tema si collega al possesso dei dati personali da parte delle “big tech”, con studi che hanno dimostrato la capacità degli algoritmi di conoscerci meglio di noi stessi. Senza immaginare scenari alla “Minority Report”, già oggi la tecnologia e l’IA consentono il controllo della popolazione, soprattutto nelle autocrazie. Gli ultimi due temi etici affrontati sono la custodia del creato, che l’IA ha le carte in regola per favorire, ma senza dimenticare il grande consumo di energia e di acqua nonché le emissioni di CO2, e la guerra, dove «i sistemi di armi autonome e letali, in grado di identificare e colpire obiettivi senza intervento umano diretto, sono “grave motivo di preoccupazione etica”» tanti da portare papa Francesco a chiedere di «bandirne l’uso».
TECNOCRAZIA Sullo sfondo le preoccupazioni e le criticità, più che essere connesse con l’IA in quanto tale, paiono legate al modello di sviluppo e all’ideologia che ne stanno accompagnando lo sviluppo. La Nota si conclude con un paragrafo sulla «vera sapienza», «per affrontare le profonde questioni e le sfide etiche poste dall’IA» poiché «“ciò che misura la perfezione delle persone è il loro grado di carità, non la quantità di dati e conoscenze che possono accumulare”, il modo in cui si adotta l’IA “per includere gli ultimi, cioè i fratelli e le sorelle più deboli e bisognosi, è la misura rivelatrice della nostra umanità”». Il riferimento è a ciò che papa Francesco ha identificato come «paradigma tecnocratico», la tentazione di «risolvere i problemi del mondo attraverso i soli mezzi tecnologici» col rischio di un «mondo di un’umanità asservita all’efficienza, nel quale, in ultima analisi, il costo di tale umanità deve essere tagliato», un mondo in cui si cerca di «estrarre tutto quando è possibile dalla natura».
Giuseppe Del Signore