In un tempo di sfide come quello attuale, in cui la tecnologia digitale avanza a passi da gigante, insinuandosi nelle nostre vite e condizionando le nostre relazioni, è quanto mai opportuno fermarsi a riflettere per inquadrare il fenomeno e agire il più efficacemente possibile, come persone e come professionisti. Lo facciamo insieme a Luigi (Gigio) Rancilio, giornalista, esperto di comunicazione digitale e di intelligenza artificiale.
Luigi Rancilio, dal tuo osservatorio di esperto di comunicazione digitale e intelligenza artificiale, pensi che il massiccio utilizzo di questi strumenti – da una parte molto preziosi nello studio, nel lavoro e nella vita in generale – rischi di generare un appiattimento nello sviluppo del pensiero critico, e quindi una maggiore omologazione fra gli esseri umani?
Il rischio indubbiamente c’è. Per interagire in modo corretto con l’IA occorre conoscerne il funzionamento e poi, per ottenere risultati di qualità, dobbiamo imparare a porre le domande giuste. Non è quindi tanto importante conoscere l’informatica, l’elettronica o essere dei tecnici, ma studiare le materie umanistiche. Solo grazie alla storia, alla filosofia e alla letteratura possiamo imparare ad affrontare i problemi utilizzando al meglio le macchine, costruendo relazioni con loro e sviluppando ragionamenti di qualità. Altrimenti rischiamo di cadere nello stesso fraintendimento che spesso è alla base delle azioni di contrasto al cyberbullismo, cioè il credere che si tratti di temi riservati agli esperti digitali, mentre i più competenti in questo campo sono gli educatori stessi. Chi educa infatti conosce il comportamento umano, e si fa carico dell’altro per aiutarlo a crescere e a migliorare. Il fatto che certi comportamenti si sviluppino nel digitale non fa alcuna differenza rispetto a quello che definiamo reale. Semmai, un aspetto critico dell’uso dell’intelligenza artificiale è che ci abitua alle scorciatoie, ci regala sommari e formulette che ci illudono di spiegarci questioni complesse ma che in realtà, molto spesso, ci abituano soltanto a non andare in profondità. Andiamo sempre di fretta – è vero – ma non per questo dobbiamo smettere di pensare. Tanto più che anche quando l’intelligenza artificiale amplifica gli aspetti negativi, siamo sempre noi ad avere il timone in mano per decidere la giusta direzione.
A me sembra che i media, ma anche i consulenti e gli specialisti della materia, ci stiano trasmettendo una paura – che poi rischia di sfociare nell’ansia – che il fenomeno dell’IA ci sopravanzi, senza che riusciamo a governarlo. Tu come leggi questo fenomeno?
La paura da sempre è un’ottima leva per creare attenzione e vendere libri, giornali, corsi. Ma la paura non è mai una buona consigliera, perché ci fa prendere decisioni sulla spinta dell’emotività. Dobbiamo quindi rimanere lucidi e con i piedi per terra. L’utilizzo di strumenti come questi – molto potenti, e quindi potenzialmente anche pericolosi – comporta una conoscenza del loro funzionamento e necessita di ragionamenti profondi su come e a cosa possono servirci. Non meno dannosa è l’ansia che tutto il mondo digitale in qualche modo ci trasmette, basti pensare anche ai social e all’insicurezza e inadeguatezza che spesso trasmettono, soprattutto nei ragazzi. Allo stesso modo, anche l’intelligenza artificiale può portare benefici e, allo stesso tempo, problemi: esistono delle chat conversazionali che vengono utilizzate sempre di più come supporti psicologici, perché permettono di raccontarsi a un interlocutore che è dotato di una pazienza e di una capacità di ascolto infinite. Ma, volendo analizzare il problema, non possiamo concentrarci soltanto sulla macchina e il suo funzionamento, perché rischia di rimanere sullo sfondo la criticità più importante: la solitudine sempre crescente che spinge in questa direzione, sulla quale dovremmo interrogarci come esseri umani.
Dal punto di vista normativo come sta procedendo il mondo?
La normativa è molto diversa fra Stati Uniti ed Europa. Gli USA, pur di vincere la gara con la Cina, stanno lasciando l’industria completamente libera, mentre il vecchio continente ha messo dei paletti di buon senso, legati soprattutto alla privacy ma che, pur favorendo i cittadini, stanno in parte penalizzando chi produce intelligenza artificiale. L’Italia, in particolare, ha approvato una legge nazionale sull’intelligenza artificiale, entrata in vigore il 10 ottobre 2025, che integra il regolamento europeo e disciplina l’uso dell’IA in settori chiave come pubblica amministrazione, sanità, lavoro e giustizia. Ci sono tante altre questioni, poi, che non si possono normare per legge, come le grandi questioni etiche, ma dobbiamo avere il coraggio di ammettere che le più grandi responsabilità sono umane e non delle macchine. Troppo spesso, come accennavo prima, ci scagliamo contro le macchine ma tendiamo a essere indulgenti con noi stessi.
Prima parlavi di una grande solitudine che spinge le persone a cercare aiuti per compensarla in modo apparentemente semplice, con il rischio però di ritrovarsi più sole di prima. Come educare a un uso consapevole degli strumenti?
Ci sono derive molto pericolose che coinvolgono sempre più giovani, come alcuni siti porno che permettono di costruire da soli l’androide che interloquisce con te, del quale ti puoi anche innamorare perdutamente, salvo poi rendersi conto della cruda realtà. Il passaggio futuro, su questa strada, potrebbe essere la possibilità di accoppiarsi con le macchine, con conseguenze pesanti sui rapporti sociali e, nello specifico, sessuali e affettivi. Ma c’è sempre un altro lato della medaglia, cioè quando la robotica è veramente di aiuto nelle relazioni umane, come nel caso dei robot in grado di agire come figure professionali, quali ad esempio quelle impegnate nelle RSA (Residenze Sanitarie Assistenziali per anziani). Non dico che debbano sostituire gli infermieri esistenti, ma che potrebbero intervenire laddove si fatica a reperirne, per garantire un servizio efficiente alle persone. Detta così, la questione potrebbe far inorridire molte persone, ma abbiamo costruito noi una società dove non riusciamo più ad accudire in prima persona gli anziani, come si faceva un tempo.
Dobbiamo impegnarci tutti per prendere consapevolezza dei rischi e dei benefici dell’intelligenza artificiale, coltivando – soprattutto nelle scuole, ma non solo – l’avvicinamento alle tematiche affettive ma soprattutto, come dicevamo prima, con lo sviluppo di un’autonomia di pensiero e un approccio relazionale che solo le materie umanistiche possono favorire. Ci piace ripetere come un mantra l’espressione “restiamo umani”, ma il problema è come, in che modo? Siamo di fronte a cambiamenti epocali, e sono tante le domande alle quali l’umanità dovrà rispondere.
Veniamo all’aspetto spirituale, dove ti occupi – fra le altre cose – anche di formazione per operatori del mondo cattolico. Quale in questo ambito la postura verso le nuove tecnologie?
L’IA non può avere effetti positivi in questo campo, dove la crescita spirituale richiede relazioni autentiche, come del resto nell’ambito affettivo. Esistono chatbot con i quali è possibile confessarsi, ma è una follia, perché sono sistemi che non hanno alcun valore. Così come è possibile avere chatbot che creano omelie, ma anche qui la cosa più importante non può essere la qualità del testo prodotto, quanto la capacità e la credibilità di chi interagisce con i fedeli. Gli strumenti possono migliorare e continueranno a farlo, ma tutto quello che riguarda la spiritualità e la preghiera non può entrare nell’ambito dell’intelligenza artificiale, se non per aspetti totalmente secondari. Moltissimi papi, da Benedetto XVI in poi, hanno affrontato il rapporto con l’intelligenza artificiale. In particolare Papa Francesco, nell’enciclica Laudato si’, ci ha messi in guardia da quello che ha definito il paradigma tecnocratico dominante, che ci fa credere che la tecnologia e il potere tecnico siano il criterio ultimo del bene e del progresso, con il rischio di ridurre la politica, l’etica e la cultura a funzioni subordinate alla tecnica, e di produrre una cultura globale omologata e una perdita di senso umano, spirituale e comunitario.
Come pensi che noi counselor possiamo avvicinarci alle evoluzioni tecnologiche e alle loro possibili conseguenze, per riuscire a essere veramente di aiuto alle persone e alla società in generale?
C’è un grande bisogno di figure come le vostre, di professionisti che aiutino gli altri a gestire le difficoltà, a migliorare la qualità della propria vita e del proprio lavoro, a sviluppare le proprie potenzialità, e tutto attraverso un dialogo e un ascolto attivi. Il modo migliore per avvicinarci alle nuove tecnologie è quello di darci il tempo di capirle. Dobbiamo tutti studiare di più, pensare di più e non avere fretta di esprimere le nostre opinioni prima di aver avuto il tempo di elaborarle. Questa consapevolezza può aiutare anche a comprendere meglio l’utilizzo dei social, dell’IA e dei cambiamenti che si ripercuotono sulla collettività e, soprattutto, sulla vita quotidiana. Aspetti che rappresentano comunque un fenomeno sociale da conoscere e accogliere. Ma, alla base di tutto, torno a ripetere che niente come la comprensione emotiva fra le persone può essere di aiuto a riflettere e prevenire le varie problematiche.
Luigi (Gigio) Rancilio
Giornalista, è stato caporedattore di “Avvenire” e curatore della rubrica “Vite digitali” dedicata alle sfide tecnologiche e ai cambiamenti che stanno portando nelle nostre esistenze, nonché social media editor dello stesso quotidiano. Autore di Il futuro dell’informazione tra carta, web e tanto altro e di Gli influencer cattolici: un identikit e un decalogo. Oggi si dedica alla formazione e alla divulgazione.
Come spunti di riflessione leggera sul rapporto fra esseri umani e nuove tecnologie, in questo stesso numero di Evoluzioni. Lo sguardo del counseling consigliamo la visione di Her e di Electric Dreams, n.d.r.
