Il Papa al G7: “Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano”
16 Giugno 2024
Papa Francesco è stato il primo pontefice a prendere la parola in un G7, “un momento storico”, lo ha definito il presidente del consiglio Giorgia Meloni. Nel suo discorso sull’intelligenza artificiale, il Papa ha detto che la IA è “uno strumento affascinante e tremendo al tempo stesso”. Ecco perché serve una “politica sana” capace di decidere con saggezza: la “phrónesis” della filosofia greca.
Esiste una differenza tra le macchine e gli uomini: le prime effettuano delle “scelte algoritmiche” mentre invece “l’essere umano non solo sceglie, ma in cuor suo è capace di decidere”. Quello che dobbiamo evitare insomma è la “eclissi del senso dell’umano”. In particolare il Papa ha condannato l’uso delle cosiddette “armi letali autonome” perché “nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”.
“In un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette ‘armi letali autonome’ per bandirne l’uso” ha detto il Papa, “cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”.
In un’epoca segnata da avanzamenti tecnologici senza precedenti come la nostra, uno dei compiti più critici che ci troviamo ad affrontare riguarda proprio preservare l’umano soprattutto in contesti come quello bellico. Le armi letali autonome, programmate per decidere autonomamente chi, quando e dove colpire, sono governate da algoritmi e prive di una supervisione umana diretta. Esse rappresentano una enorme sfida ai principi etici fondamentali.
Più in generale, al vertice G7 in Puglia, il Pontefice ha sottolineato l’importanza dell’intelligenza artificiale (IA) come strumento potente, capace di trasformare vari settori come medicina, lavoro e comunicazione. Ha evidenziato i benefici potenziali dell’IA, come la democratizzazione del sapere, ma anche i rischi, inclusi l’ingiustizia e le disuguaglianze. Ha sottolineato quindi la necessità di un uso etico e responsabile dell’IA, con un significativo controllo umano, evitando che le macchine prendano decisioni vitali.