di Suor M. Caterina Gatti icms
Il cristiano alle prese con queste ‘diavolerie moderne’: fede, etica e il timore dell’ignoto
Spesso le persone hanno due atteggiamenti antitetici dinanzi alle nuove tecnologie: da un lato, chi le teme e le vede come “diavolerie” da cui tenersi ben alla larga, specie se si è cattolici praticanti (sono viste come qualcosa di assolutamente negativo); dall’altro, chi ci si butta dentro a capofitto, rimanendone, però, invischiato – a volte inconsapevolmente – peggio che nelle sabbie mobili… L’atteggiamento corretto, invece, è quello di studiare, ponderare, testare, vedere quali sono le conseguenze nell’uso, riflettere su quali siano le opportunità di crescita personali oppure i rischi in cui si può cadere. Tutto ciò richiede fatica, raziocinio, confronto con chi magari ne sa qualcosa in più e – perché no – anche tanta preghiera. Il mio parere è che i mezzi di comunicazione o l’informatica o l’IA non siano dei nemici né per il cristiano laico e nemmeno per un Consacrato o un Sacerdote: tutto sta nell’utilizzo che se ne fa. Il Signore vuole che ce ne serviamo per il bene e che non li utilizziamo in maniera smodata, o diventandone dipendenti, o usandoli in maniera “mondana”. Il cristiano deve distinguersi anche nell’utilizzo di internet, social network e IA.
La Nota “Antiqua ed nova” sottolinea una cosa importantissima: “a essere eticamente significativi non sono soltanto i fini, ma anche i mezzi impiegati per raggiungerli” (n. 41). Nel caso dell’IA, il rischio è che si cerchi di raggiungere un fine buono ma con un mezzo che può non essere buono. Esempio: chiedo al chatbot di scrivermi degli articoli di apologetica, nella speranza che chi leggerà il mio blog possa convertirsi. Nei testi pubblicati, però, ci sono degli errori che l’IA ha fatto, per esempio nelle citazioni bibliche o evangeliche, dove le parole sono riportate diverse dall’originale. Interessante ciò che scrive Luke Plant, un cristiano britannico, autore di un blog: “Se scrivessi un articolo di apologetica cristiana, ma includessi accidentalmente informazioni false, ne sarei molto imbarazzato, e giustamente: tali falsità disonorano il nome di Cristo. Non importa se queste falsità siano ‘utili’ in un certo senso, ad esempio nel persuadere qualcuno a diventare cristiano. Questo non giustifica la loro presenza”. Come dicevamo, il fine non giustifica i mezzi, e allora questo non sarebbe un uso eticamente corretto dell’IA. Continua Luke nel suo articolo: “un sito apologetico con un chatbot che produce disinformazione plausibile è esattamente l’ultima cosa di cui abbiamo bisogno. Non […] abbiamo bisogno di un’altra fonte di disinformazione. […] Dio ha scelto di affidare l’evangelizzazione agli uomini, non alle macchine!”.
Un altro esempio che deve far riflettere. Una persona di mia conoscenza fa un esame specifico, di quelli che ti lasciano in ansia finché non hai tra le mani il risultato, giusto per capirci. Ed ecco finalmente il referto (qui invento la diagnosi, ma non il modo in cui è stata presentata), nel quale è scritta la frase incriminata e terribile: “Con evidenti tumefazioni linfonodali”… peccato che lo specialista avesse dettato al pc queste parole: “Non evidenti tumefazioni linfonodali”. Pensate: una lettera, solo una, che però cambia totalmente il significato di quella frase. Una semplice “c” al posto della “n”, che può però cambiare la vita di una persona, lo stato d’animo, la reazione dinanzi a quel foglio che accompagna l’esame clinico, dandone spiegazione. Questo, appunto, è un esempio di come l’IA può essere usata male: occorre sempre la supervisione della persona umana, il controllo che i dati “sputati” dalla macchina siano corretti. Se così non è, eticamente siamo dinanzi ad una cosa non buona. La Nota “Antiqua et nova” spiega che “qualora l’IA venisse usata non per migliorare, ma per sostituire interamente la relazione tra pazienti e operatori sanitari, lasciando che i primi interagiscano con una macchina piuttosto che con un essere umano, si verificherebbe la riduzione di una struttura relazionale umana assai importante in un sistema centralizzato, impersonale e non equo” (n. 73). Non è precisamente quello che vi ho presentato, ma certamente la responsabilità di quel medico, per non aver riletto ciò che l’IA ha scritto, è grande: il paziente si è trovato dinanzi ad un foglio “scritto” da una macchina, sotto dettatura, senza che ci fosse poi l’aspetto di attenzione e di cura da parte dello specialista, che era tenuto a controllare quanto era riportato su quel referto.
Ah, beh, se lo dice ChatGPT…
Mio fratello Lorenzo 17 anni fa ha iniziato gli studi universitari proprio sull’IA, quando il tutto era ancora in germe. Da ormai 5 anni è docente e ricercatore all’università di Enschede, in Olanda, e di recente ha avuto un episodio che fa riflettere, con uno studente, dopo un esame. “Professore, perché questa risposta me l’ha segnata come sbagliata? ChatGPT dice esattamente questo”, si è sentito dire. L’esame è stato evidentemente preparato dal ragazzo studiando con l’aiuto del chatbot più che sui libri di testo di riferimento. Bella “furbata” eh? Il punto nodale, però, non è tanto che il giovane universitario abbia fatto questo, quanto che abbia voluto insistere nell’ aver ragione: se ChatGPT lo dice, è sicuramente giusto! E lo è, a suo dire, anche se il docente, e con lui il libro, affermano che la risposta è errata, o per lo meno non tecnicamente esposta nel modo corretto. Questo studente è già troppo dipendente dall’IA, come ben mette in guardia il documento della Santa Sede: “gli utenti dovrebbero fare attenzione a non diventare eccessivamente dipendenti dall’IA per le proprie decisioni, accrescendo il già alto grado di subalternità alla tecnologia che caratterizza la società contemporanea” (n. 46)
La persona umana non può abbassare la propria intelligenza al punto da diventare dipendente dalle risposte di un chatbot! L’uomo deve servirsi dell’IA, ma mai deve essere asservito ad essa, come è capitato a questo studente. Non dimentichiamo che Dio ha creato la persona e l’ha corredata di un pacchetto di “accessori” niente male: volontà, capacità di decidere, libertà, emozioni, sentimenti, senso estetico, creatività, e chi più ne ha, più ne metta! Tutto questo un computer non ce l’ha né potrà mai averlo! Luke Plant, il nostro amico britannico che ho citato prima, conclude il suo articolo in maniera molto forte: afferma che i chatbot, al contrario degli esseri umani “non solo hanno una scarsa considerazione della verità, ma non hanno nemmeno la capacità morale di migliorare. Se creo un chatbot e lo metto su internet, nel Giorno del Giudizio sarò responsabile di ogni singola parola che dice”. Forte, no? Eppure ha pienamente ragione. La Nota pubblicata dalla Santa Sede spende qualche paragrafo proprio sul discorso della responsabilità morale (cfr. n. 44 e seguenti), e sembra che questo nostro amico protestante abbia colto appieno la questione.
Concludo qui il mio “sproloquio”, che spero abbia creato in voi – questo era il mio intento – il desiderio di approfondire maggiormente questo argomento, leggendo questo documento della Chiesa (la Nota “Antiqua et nova”) che mi sembra molto esaustivo e che offre spunti di riflessione.
Ah, mi raccomando, leggetelo per intero e non fatevi fare un riassunto da ChatGPT!
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link