Immagine
Articolo
Sviluppo tecnologico e innovazione

L’appello al Papa per un’intelligenza artificiale responsabile

28 Ottobre 2025
Federico Cella, Michela Rovelli

Si sono mossi dalle loro cattedre universitarie e dai loro uffici all’interno delle più grandi multinazionali della tecnologia: l’obiettivo, raggiunto, era di ritrovarsi in Vaticano e discutere, davanti a papa Leone, del futuro dell’umanità al cospetto dell’intelligenza artificiale. E se padre Paolo Benanti – consigliere sull’Ai di Bergoglio - si può dire che giocava in casa, la presenza e l’impegno messi nell’evento di metà settembre da due come Yoshua Bengio e Geoffrey Hinton, ha lasciato il segno. I due vincitori del Premio Turing (a Hinton anche il Nobel per la Fisica nel 2024), chiamati anche i “padrini” dell’Ai moderna, hanno animato e fatto emergere discussioni e contenuti che alla fine hanno dato vita a un appello laico rivolto “a Sua Santità Papa Leone XIV, a tutti i leader globali, a tutte le persone di buona volontà”.

L’incipit ne dichiara le intenzioni: “Mossi da un profondo desiderio di un futuro in cui gli esseri umani plasmino la società e le decisioni, noi, un gruppo di lavoro indipendente, composto da esperti, leader tecnologici, opinion leader e studiosi di molte nazioni – con background e fedi diverse - lanciamo il seguente appello per un futuro in cui l'IA debba essere sviluppata in modo responsabile da e per le persone”. Sono quindi undici i principi sostenuti nella carta etica, “per promuovere il dialogo e la riflessione su come l'IA possa servire al meglio l'intera umanità”. Vediamoli assieme.

  • Vita e dignità umane: l'IA non deve mai essere sviluppata o utilizzata in modi che minaccino, sminuiscano o squalifichino la vita, la dignità o i diritti fondamentali.
  • L'IA deve essere utilizzata come strumento, non come autorità: l'IA deve rimanere sotto il controllo umano. Costruire sistemi incontrollabili o delegare eccessivamente le decisioni è moralmente inaccettabile e deve essere vietato legalmente. Pertanto, lo sviluppo di tecnologie di intelligenza artificiale di superintelligenza non dovrebbe essere consentito fino a quando non vi sarà un ampio consenso scientifico sul fatto che sarà fatto in modo sicuro e controllabile e vi sarà un chiaro e ampio consenso pubblico.
  • Responsabilità: solo gli esseri umani hanno una responsabilità morale e legale e quindi i sistemi di intelligenza artificiale non possono essere titolari di diritti. All'IA non può quindi essere concessa la personalità giuridica.
  • Decisioni di vita o di morte: ai sistemi di intelligenza artificiale non deve mai essere consentito di prendere decisioni di vita o di morte, specialmente in ambito militare durante i conflitti armati.
  • Sviluppo sicuro ed etico: gli sviluppatori devono progettare l'IA mettendo al centro sicurezza, trasparenza ed etica. Prima della distribuzione e durante l'intero ciclo di vita dei sistemi di IA devono essere richiesti test indipendenti e un'adeguata valutazione del rischio.
  • Amministrazione: i governi, le aziende e chiunque altro non devono utilizzare l'IA come arma per qualsiasi tipo di dominio, guerre, aggressioni, coercizione, manipolazione, social scoring o sorveglianza di massa.
  • Progettazione responsabile: l'IA dovrebbe essere progettata e valutata in modo indipendente per evitare effetti involontari e catastrofici sugli esseri umani e sulla società.
  • Nessun monopolio dell'IA: i benefici dell'IA (economici, medici, scientifici, sociali) non devono essere monopolizzati.
  • Nessuna svalutazione umana: la progettazione e l'implementazione dell'IA devono far prosperare gli esseri umani nelle attività che hanno scelto, non rendere l'umanità ridondante, privata dei propri diritti, svalutata o sostituibile.
  • Responsabilità ecologica: l’uso dell'IA non deve mettere in pericolo il nostro pianeta e gli ecosistemi.
  • Nessuna concorrenza globale irresponsabile: dobbiamo evitare una corsa irresponsabile tra aziende e Paesi verso un'IA sempre più potente.