Non va considerata come una persona l’Intelligenza Artificiale, non va divinizzata, non deve sostituire le relazioni umane, ma deve essere utilizzata “solo come strumento complementare all’intelligenza umana”. I moniti del Papa sull’Intelligenza Artificiale di questi ultimi anni fanno da traccia ad Antiqua et Nova (in riferimento alla “sapienza”, antica e nuova), la nota sul rapporto tra intelligenza artificiale e intelligenza umana frutto della mutua riflessione tra Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l’Educazione.
Documento rivolto a genitori, insegnanti, preti, vescovi e quanti sono chiamati a educare e trasmettere la fede, ma anche a coloro che condividono l’esigenza di uno sviluppo scientifico e tecnologico “al servizio della persona e del bene comune”.
Pubblicata oggi, la Nota è stata approvata dal Papa. In 117 paragrafi, mette in luce sfide e opportunità dello sviluppo dell’Intelligenza Artificiale (IA) nei campi di educazione, economia, lavoro, sanità, relazioni internazionali e interpersonali, contesti di guerra. In quest’ultimo ambito, ad esempio, le potenzialità dell’IA – avverte la Nota – potrebbero accrescere le risorse belliche “ben oltre la portata del controllo umano”, accelerando “una corsa destabilizzante agli armamenti con conseguenze devastanti per i diritti umani”.
Il documento elenca i pericoli dell’IA ma anche i progressi, che anzi incoraggia. La preoccupazione, tuttavia, è grande ed è quella data da tutte le innovazioni i cui effetti sono ancora imprevedibili, anche per ciò che al momento appare innocuo come la generazione di testi e immagini. Dunque sono considerazioni etiche e antropologiche quelle al centro della riflessione dei due Dicasteri che dedicano diversi paragrafi alla distinzione “decisiva” tra Intelligenza artificiale e umana, cioè quella che “si esercita nelle relazioni”, modellata da Dio e “plasmata da una miriade di esperienze vissute nella corporeità”. L’IA “manca della capacità di evolversi in questo senso”]. E la sua è “una visione funzionalista”, con le persone valutate solo in base a lavori e risultati, laddove la dignità umana è imprescindibile e rimane intatta sempre. “Fuorviante”, allora, usare la parola stessa “intelligenza” in riferimento all’IA: non è “una forma artificiale dell’intelligenza”, ma “uno dei suoi prodotti”.
“La presunzione di sostituire Dio con un’opera delle proprie mani è idolatria”, afferma la Nota, che cita le Sacre Scritture per mettere in guardia dal fatto che l’IA può risultare “più seducente rispetto agli idoli tradizionali”. Ricorda pertanto che essa non è altro che “un pallido riflesso” dell’umanità: “Non è l’IA a essere divinizzata e adorata, ma l’essere umano, per diventare, in questo modo, schiavo della propria stessa opera”. Da qui, una raccomandazione conclusiva: “L’IA dovrebbe essere utilizzata solo come uno strumento complementare all’intelligenza umana e non sostituire la sua ricchezza”.
E come ogni prodotto dell’ingegno umano, anche l’IA può essere diretta verso “fini positivi o negativi”. Antiqua et Nova non nega che essa possa introdurre “importanti innovazioni” in vari campi, ma si rischia anche di aggravare situazioni di marginalizzazione, discriminazione, povertà, “divario digitale”, disuguaglianze sociali. A sollevare “preoccupazioni etiche” è in particolare il fatto che “la maggior parte del potere sulle principali applicazioni dell’IA sia concentrato nelle mani di poche potenti aziende”, così che questa tecnologia finisca ad essere manipolata per “guadagni personali o aziendali” o ad “orientare l’opinione pubblica verso l’interesse di un settore”.
Immancabile il riferimento alla guerra. Le “capacità analitiche” dell’IA potrebbero essere impiegate per aiutare le nazioni a ricercare pace e sicurezza, ma “grave motivo di preoccupazione etica” sono i sistemi di armi autonome e letali, in grado di “identificare e colpire obiettivi senza intervento umano diretto”. Le macchine in grado di uccidere con precisione in modo autonomo e altre capaci di distruzione di massa sono una minaccia vera e propria per “la sopravvivenza dell’umanità o di intere regioni”. Queste tecnologie “danno alla guerra un potere distruttivo incontrollabile, che colpisce molti civili innocenti, senza risparmiare nemmeno i bambini”, denuncia Antiqua et Nova. Per evitare che l’umanità precipiti in “spirali di autodistruzione”, è necessario allora “assumere una posizione netta contro tutte le applicazioni della tecnologia che minacciano intrinsecamente la vita e la dignità della persona umana”.
Sulle relazioni umane il documento osserva che l’IA può, sì, “favorire le connessioni” ma, al contempo, portare a “un dannoso isolamento”. “Erroneo”, poi, rappresentare l’IA come una persona ed è “una grave violazione etica” attuare ciò per scopi fraudolenti. Così come “utilizzare l’IA per ingannare in altri contesti – quali l’educazione o le relazioni umane, compresa la sfera della sessualità – è profondamente immorale e richiede un’attenta vigilanza”. La stessa vigilanza viene domandata in ambito economico-finanziario. In particolare nel campo del lavoro si rileva che se, da una parte, l’IA ha “potenzialità” per accrescere competenze e produttività o per creare nuovi posti di lavoro, dall’altra, può “dequalificare i lavoratori, sottoporli a una sorveglianza automatizzata e relegarli a funzioni rigide e ripetitive”, al punto da “soffocare” ogni capacità innovativa.
“Non si deve cercare di sostituire sempre più il lavoro umano con il progresso tecnologico: così facendo l’umanità danneggerebbe sé stessa”, si sottolinea. Ampio spazio viene dedicato al tema della sanità. Pur detenendo un enorme potenziale in svariate applicazioni in campo medico, l’IA qualora andasse a sostituire la relazione medico-paziente rischierebbe di “peggiorare quella solitudine che frequentemente accompagna la malattia”. Pure l’ottimizzazione delle risorse non deve “penalizzare i più fragili” o creare “forme di pregiudizio e discriminazione” che portino a rafforzare una “medicina per i ricchi”. Rischi vengono evidenziati anche nel campo dell’educazione. Se usata in maniera prudente, l’IA può migliorare l’accesso all’istruzione e offrire “riscontri immediati” agli studenti. Il problema è che molti programmi “si limitano a fornire risposte invece di spingere gli studenti a reperirle da sé, oppure a scrivere essi stessi dei testi”; questo porta a perdere l’allenamento nell’accumulare informazioni o nello sviluppare un pensiero critico.
Senza dimenticare quante “informazioni distorte o artefatte” o “contenuti inesatti” alcuni programmi possono generare, andando così a legittimare le fake news. Proprio in tema di fake news il documento rammenta il serio rischio che l’IA “generi contenuti manipolati e informazioni false” così da alimentare una “allucinazione” da IA, con contenuti non veritieri che sembrano reali.
Ancora più preoccupante è quando tali contenuti fittizi sono usati intenzionalmente a fini di manipolazione. Ad esempio, quando si divulgano intenzionalmente immagini, video e audio deepfake (rappresentazioni modificate o generate da algoritmo) per “ingannare o danneggiare”.
Su privacy e controllo, la Nota evidenzia che alcuni tipi di dati possono arrivare a toccare l’intimità della persona, “forse persino la sua coscienza”. Sul Creato vengono giudicate “promettenti” le applicazioni dell’IA per migliorare il rapporto con la casa comune. Basti pensare ai modelli per la previsione di eventi climatici estremi, la gestione dei soccorsi o il supporto all’agricoltura sostenibile. Al contempo, gli attuali modelli di IA e il sistema hardware che li supporta richiedono “ingenti quantità di energia e di acqua e contribuiscono in modo significativo alle emissioni di CO2, oltre a consumare risorse in modo intensivo”. È quindi un tributo “pesante” quello si esige dall’ambiente.
“Ad essere fuorviante è innanzitutto il nome. Quello della cosiddetta ‘Intelligenza artificiale’ è uno di quei casi in cui il nome ha contato e conta molto nella comune percezione del fenomeno. La Nota ‘Antiqua et nova’ dei Dicasteri per la Dottrina della fede e per la Cultura ci ricorda innanzitutto che l’IA è uno strumento: esegue compiti, ma non pensa. Non è in grado di pensare. È dunque ingannevole attribuirle caratteristiche umane, perché si tratta di una ‘macchina’ che rimane confinata nell’ambito logico-matematico.
Non possiede cioè una comprensione semantica della realtà, né una capacità autenticamente intuitiva e creativa”. E’ quanto scrive il direttore editoriale dei media vaticani, Andrea Tornielli, in un editoriale per Vatican News sulla Nota sull’IA, approvata dal Papa, pubblicata oggi dai Dicasteri per la Dottrina della Fede e per la Cultura e l’Educazione.
“Non è in grado di replicare il discernimento morale o un’apertura disinteressata a ciò che è vero, buono e bello, al di là di ogni utilità particolare – sottolinea -. Insomma, le manca tutto ciò che è veramente e profondamente umano. L’intelligenza umana è infatti individuale e insieme sociale, razionale e allo stesso tempo affettiva. Vive attraverso continue relazioni mediate dalla insostituibile corporeità della persona”. L’IA dovrebbe dunque “essere utilizzata solo come uno strumento complementare all’intelligenza umana, e non pretendere di sostituirne in qualche modo la peculiare ricchezza”.
Nonostante il progredire della ricerca e delle sue possibili applicazioni, “l’IA continua a rimanere una ‘macchina’ che non ha responsabilità morale, quella responsabilità che permane invece su coloro che la progettano e la utilizzano”. Per questo, sottolinea il nuovo documento, “è importante che quanti prendono decisioni in base all’IA siano ritenuti responsabili per le scelte fatte, e che sia possibile rendere conto dell’uso di questo strumento in ogni fase del processo decisionale. Sia i fini che i mezzi utilizzati nelle applicazioni dell’IA devono essere valutati per assicurarsi che rispettino e promuovano la dignità umana e il bene comune: questa valutazione costituisce un criterio etico fondamentale per discernere la legittimità o meno dell’uso dell’intelligenza artificiale”.
Un altro criterio di valutazione morale dell’IA, suggerisce la Nota, “riguarda la sua capacità di implementare la positività delle relazioni che l’uomo ha con il suo ambiente e con quello naturale, di favorire una costruttiva interconnessione dei singoli e delle comunità ed esaltare una responsabilità condivisa verso il bene comune”. Per raggiungere questi obiettivi “è necessario andare oltre la mera accumulazione di dati e di sapere, adoperandosi per raggiungere una vera ‘sapienza del cuore’, così come suggerisce papa Francesco, affinché l’uso dell’intelligenza artificiale aiuti l’essere umano a diventare effettivamente migliore”.
In questo senso, la Nota – osserva Tornielli – “mette in guardia da qualsiasi subalternità alla tecnologia invitando ad utilizzarla non per sostituire progressivamente il lavoro umano – fatto che creerebbe nuove forme di emarginazione e di disuguaglianza sociale – ma piuttosto come strumento per migliorare l’assistenza e arricchire i servizi e la qualità delle relazioni umane”. E anche “come aiuto nella comprensione di fatti complessi e guida nella ricerca della verità”. Per questo, “il contrasto alle falsificazioni alimentate dall’IA non è un lavoro soltanto per gli esperti del settore, ma richiede gli sforzi di tutti”.
“Bisogna anche evitare che l’intelligenza artificiale sia impiegata come forma di sfruttamento o per limitare la libertà delle persone, per avvantaggiare pochi a spese di molti, o come forma di controllo sociale, riducendo le persone ad un insieme di dati. E non è accettabile che in ambito bellico si affidi a una macchina la scelta di togliere vite a degli esseri umani: purtroppo abbiamo constatato di quante e quali devastazioni siano responsabili le armi guidate dall’intelligenza artificiale, come tragicamente dimostrato nei tanti conflitti in atto”, aggiunge.