MISSATGE DEL SANT PARE LLEÓ XIV
PER A LA LX JORNADA MUNDIAL DE LES COMUNICACIONS SOCIALS

Custodiar veus i rostres humans

 

Benvolguts germans i germanes,

El rostre i la veu són trets únics, distintius, de cada persona; manifesten la seva identitat irrepetible i són l’element constitutiu de tota trobada. Els antics ho sabien bé. Així, per definir la persona humana, els antics grecs utilitzaven la paraula “rostre” (prósōpon), que etimològicament indica allò que és a la vista, el lloc de la presència i de la relació. El terme llatí persona (de per-sonare), en canvi, inclou el so; no qualsevol so, sinó la veu inconfusible d’algú.

El rostre i la veu són sagrats. Ens han estat donats per Déu, que ens ha creat a la seva imatge i semblança, cridant-nos a la vida amb la Paraula que Ell mateix ens ha adreçat. Paraula que va ressonar primer al llarg dels segles en les veus dels profetes, i després es va fer carn en la plenitud dels temps. Aquesta Paraula —aquesta comunicació que Déu fa de si mateix— l’hem poguda escoltar i veure directament (cf. 1Jn 1,1-3), perquè s’ha fet conèixer en la veu i en el rostre de Jesús, Fill de Déu.

Des del moment de la seva creació, Déu ha volgut l’home com a interlocutor seu i, com diu sant Gregori de Nissa[1], ha imprès en el seu rostre un reflex de l’amor diví, perquè pugui viure plenament la pròpia humanitat mitjançant l’amor. Per tant, custodiar els rostres i les veus humanes significa conservar aquest segell, aquest reflex indeleble de l’amor de Déu. No som una espècie feta d’algoritmes bioquímics definits per endavant. Cadascun de nosaltres té una vocació insubstituïble i inimitable que sorgeix de la vida i que es manifesta precisament en la comunicació amb els altres.

La tecnologia digital, si no aconseguim mantenir-ne la custòdia, corre el risc de modificar radicalment alguns dels pilars fonamentals de la civilització humana, que de vegades donem per descomptats. Simulant veus i rostres humans, saviesa i coneixement, consciència i responsabilitat, empatia i amistat, els sistemes coneguts com a intel·ligència artificial no només interfereixen en els ecosistemes informatius, sinó que també envaeixen el nivell més profund de la comunicació: el de la relació entre les persones humanes.

El repte, per tant, no és tecnològic sinó antropològic. Custodiar els rostres i les veus significa, en última instància, tenir cura de nosaltres mateixos. Acollir amb valentia, determinació i discerniment les oportunitats que ofereixen la tecnologia digital i la intel·ligència artificial no significa ocultar-nos els punts crítics, les opacitats, els riscos.

No renunciar al pensament propi

Des de fa temps existeixen múltiples proves del fet que algoritmes dissenyats per maximitzar la implicació a les xarxes socials —rendible per a les plataformes— premien emocions ràpides i, en canvi, penalitzen expressions humanes que necessiten temps, com l’esforç per comprendre i la reflexió. En tancar grups de persones en bombolles de consens fàcil i d’indignació fàcil, aquests algoritmes afebleixen la capacitat d’escolta i de pensament crític i augmenten la polarització social.

A això s’hi ha afegit una confiança ingènuament acrítica en la intel·ligència artificial com a “amiga” omniscient, dispensadora de tota informació, arxiu de tota memòria, “oracle” de tot consell. Tot plegat pot desgastar encara més la nostra capacitat de pensar de manera analítica i creativa, de comprendre els significats, de distingir entre sintaxi i semàntica.

Tot i que la IA pot proporcionar suport i assistència en la gestió de tasques comunicatives, eludir l’esforç de pensar per nosaltres mateixos i conformar-nos amb una recopilació estadística artificial, a la llarga, corre el risc d’erosionar les nostres capacitats cognitives, emocionals i comunicatives.

En els darrers anys, els sistemes d’intel·ligència artificial estan assumint cada vegada més el control de la producció de textos, música i vídeos. Gran part de la indústria creativa humana corre així el risc de ser desmantellada i substituïda per l’etiqueta «Powered by AI», transformant les persones en simples consumidors passius de pensaments no pensats, de productes anònims, sense autoria, sense amor. Mentre que les obres mestres del geni humà en el camp de la música, l’art i la literatura es redueixen a un simple camp d’entrenament per a les màquines.

La qüestió que ens importa, tanmateix, no és allò que la màquina aconsegueix o aconseguirà fer, sinó què podem o podrem fer nosaltres, creixent en humanitat i coneixement, amb un ús savi d’instruments tan poderosos al nostre servei. Des de sempre, l’ésser humà s’ha vist temptat d’apropiar-se del fruit del coneixement sense l’esforç que comporten el compromís, la recerca i la responsabilitat personal. Tanmateix, renunciar al procés creatiu i cedir a les màquines les nostres funcions mentals i la nostra imaginació significa enterrar els talents que hem rebut per créixer com a persones en relació amb Déu i amb els altres. Significa ocultar el nostre rostre i silenciar la nostra veu.

Ser o fingir: simulació de les relacions i de la realitat

A mesura que ens desplacem pels nostres fluxos d’informacions (feeds), cada vegada és més difícil saber si estem interactuant amb altres éssers humans o amb els bots o els influencers virtuals. Les intervencions opaques d’aquests agents automatitzats influeixen en els debats públics i en les decisions de les persones. Sobretot, els xatbots basats en grans models lingüístics (LLM) es mostren sorprenentment eficaços en la persuasió oculta, mitjançant una optimització contínua de la interacció personalitzada. L’estructura dialògica, adaptativa i mimètica d’aquests models lingüístics és capaç d’imitar els sentiments humans i de simular així una relació. Aquesta antropomorfització, que fins i tot pot resultar divertida, és al mateix temps enganyosa, sobretot per a les persones més vulnerables. Perquè els xatbots excessivament «afectuosos», a més d’estar sempre presents i disponibles, es poden convertir en arquitectes ocults dels nostres estats emocionals i, d’aquesta manera, envair i ocupar l’esfera de la intimitat de les persones.

La tecnologia que s’aprofita de la nostra necessitat de relacionar-nos no només pot tenir conseqüències doloroses per al destí de les persones, sinó que també pot danyar el teixit social, cultural i polític de les societats. Això succeeix quan substituïm les relacions amb els altres per relacions amb IA entrenades per catalogar els nostres pensaments i, per tant, per construir al nostre voltant un món de miralls, on tot està fet «a la nostra imatge i semblança». D’aquesta manera, ens deixem privar de la possibilitat de trobar l’altre, que sempre és diferent de nosaltres i amb qui podem i hem d’aprendre a enfrontar-nos. Sense l’acollida de l’alteritat no pot haver-hi ni relació ni amistat.

Un altre gran repte que plantegen aquests sistemes emergents és el de la parcialitat (en anglès bias), que porta a adquirir i transmetre una percepció distorsionada de la realitat. Els models d’IA estan modelats per la visió del món de qui els construeix i, alhora, poden imposar maneres de pensar que reprodueixen els estereotips i els prejudicis presents en les dades de les quals s’alimenten. La manca de transparència en el disseny dels algoritmes, juntament amb una representació social inadequada de les dades, tendeixen a mantenir-nos atrapats en xarxes que manipulen els nostres pensaments i perpetuen i aprofundeixen les desigualtats i les injustícies socials existents.

El risc és gran. El poder de la simulació és tal que la IA també pot enganyar-nos mitjançant la fabricació de «realitats» paral·leles, apropiant-se dels nostres rostres i de les nostres veus. Estem immersos en una multidimensionalitat en què cada vegada és més difícil distingir la realitat de la ficció.

A això s’hi afegeix el problema de la manca de precisió. Els sistemes que fan passar una probabilitat estadística per coneixement ens ofereixen, en realitat, com a molt, aproximacions a la veritat, que de vegades són autèntiques «al·lucinacions». La manca de verificació de les fonts, juntament amb la crisi del periodisme de camp —que implica un treball continu de recollida i verificació d’informació en els llocs on passen els esdeveniments—, pot afavorir un terreny encara més fèrtil per a la desinformació, provocant una creixent sensació de desconfiança, desconcert i inseguretat.

Una possible aliança

Darrere d’aquesta força invisible enorme que ens involucra a tots, hi ha només un grapat d’empreses, aquelles els fundadors de les quals han estat recentment presentats com els creadors de la «persona de l’any 2025», és a dir, els arquitectes de la intel·ligència artificial. Això suscita una preocupació important pel control oligopolístic dels sistemes algorítmics i de la intel·ligència artificial capaços d’orientar subtilment els comportaments i fins i tot de reescriure la història de la humanitat —inclosa la història de l’Església— sovint sense que ens n’adonem realment.

El repte que ens espera no és el de frenar la innovació digital, sinó el de guiar-la i ser conscients del seu caràcter ambivalent. Correspon a cadascun de nosaltres alçar la veu en defensa de les persones humanes perquè aquests instruments puguin ser realment integrats per nosaltres com a aliats.

Aquesta aliança és possible, però necessita fonamentar-se en tres pilars: responsabilitat, cooperació i educació.

En primer lloc, la responsabilitat. Segons les funcions, aquesta es pot traduir en honestedat, transparència, valentia, capacitat de visió, deure de compartir coneixements, dret a estar informat. Però, en general, ningú no pot eludir la seva responsabilitat davant del futur que estem construint.

Per a aquells que es troben al vèrtex de les plataformes online, això significa assegurar-se que les pròpies estratègies empresarials no estiguin guiades només pel criteri del màxim benefici, sinó també per una visió de futur que tingui en compte el bé comú, de la mateixa manera que cadascun d’ells es preocupa pel benestar dels seus fills.

Als creadors i programadors de models d’IA se’ls demana transparència i responsabilitat social respecte als principis de planificació i als sistemes de moderació que són a la base dels seus algoritmes i els models dissenyats, amb la finalitat d’afavorir un consens informat per part dels usuaris.

La mateixa responsabilitat s’exigeix també als legisladors nacionals i a les entitats reguladores supranacionals, a qui correspon vetllar pel respecte de la dignitat humana. Una reglamentació adequada pot protegir les persones d’un lligam emocional amb els xatbots i contenir la difusió de continguts falsos, manipuladors o confusos, preservant la integritat de la informació davant d’una simulació enganyosa de la mateixa.

Les agències de notícies i els mitjans de comunicació no poden permetre, al seu torn, que els algoritmes orientats a guanyar a tota costa la batalla per uns segons més d’atenció prevalguin sobre la fidelitat als seus valors professionals, orientats a la recerca de la veritat. La confiança del públic es guanya amb la precisió i la transparència, no amb la recerca de qualsevol tipus d’implicació. Els continguts generats o manipulats per la IA s’han d’indicar i de distingir clarament dels continguts creats per persones. Cal protegir l’autoria i la propietat sobirana del treball dels periodistes i dels altres creadors de continguts. La informació és un bé públic. Un servei públic constructiu i significatiu no es basa en l’opacitat, sinó en la transparència de les fonts, la inclusió de les parts implicades i un alt nivell de qualitat.

Tots estem cridats a cooperar. Cap sector no pot afrontar tot sol el repte de guiar la innovació digital ni la manera de governar la IA. És necessari, per tant, crear mecanismes de protecció. Totes les parts interessades —des de la indústria tecnològica fins als legisladors, des de les empreses creatives fins al món acadèmic, des dels artistes fins als periodistes i els educadors— han de participar en la construcció i la implementació d’una ciutadania digital conscient i responsable.

És a això que mira l’educació: a augmentar les nostres capacitats personals de reflexionar críticament; a avaluar la credibilitat de les fonts i els possibles interessos que hi ha darrere de la selecció de les informacions que ens arriben; a comprendre els mecanismes psicològics que activen; i a permetre a les nostres famílies, comunitats i associacions d’elaborar criteris pràctics per a una cultura de la comunicació més sana i responsable.

Precisament per això és cada vegada més urgent introduir en els sistemes educatius de tots els nivells també l’alfabetització en els mitjans de comunicació, en la informació i en la IA, que algunes institucions civils ja estan promovent. Com a catòlics, podem i hem de donar la nostra contribució perquè les persones, especialment els joves, adquireixin la capacitat de pensar críticament i creixin en la llibertat de l’esperit. Aquesta alfabetització també s’hauria d’integrar en iniciatives més àmplies d’educació permanent, arribant també a les persones grans i als membres marginats de la societat, que sovint se senten exclosos i impotents davant dels ràpids canvis tecnològics.

L’alfabetització en els mitjans de comunicació, en la informació i en la IA ajudarà a tots a no adaptar-se a la deriva antropomorfitzant d’aquests sistemes, sinó a tractar-los com a eines; a utilitzar sempre una validació externa de les fonts —que podrien ser imprecises o errònies— proporcionades pels sistemes d’IA; a protegir la seva privadesa i les seves dades coneixent els paràmetres de seguretat i les opcions d’impugnació. És important educar i educar-se per fer servir la IA de manera intencional i, en aquest context, protegir la pròpia imatge (foto i àudio), el propi rostre i la pròpia veu, per evitar que siguin utilitzats en la creació de continguts i comportaments nocius com estafes digitals, ciberassetjament o deepfakes que violen la privadesa i la intimitat de les persones sense el seu consentiment. Igual que la revolució industrial exigia una alfabetització bàsica perquè les persones poguessin reaccionar davant de les novetats, la revolució digital també requereix una alfabetització digital (al costat d’una formació humanística i cultural) per comprendre com els algoritmes modelen la nostra percepció de la realitat, com funcionen els prejudicis de la IA, quins són els mecanismes que determinen l’aparició de determinats continguts en els nostres fluxos d’informació (feeds), quins són i com poden canviar els supòsits i models econòmics de l’economia de la IA.

Necessitem que el rostre i la veu tornin a expressar la persona. Necessitem custodiar el do de la comunicació com la veritat més profunda de l’home, vers la qual orientar també tota innovació tecnològica.

En proposar aquestes reflexions, agraeixo a aquells que estan treballant pels fins aquí exposats i beneeixo de tot cor tots els qui treballen pel bé comú amb els mitjans de comunicació.

Vaticà, 24 de gener de 2026, memòria de sant Francesc de Sales.

LLEÓ XIV PP.

[1] «El fet d’haver estat creats a imatge de Déu significa que, en l’home, des del moment de la seva creació, hi ha estat imprès un caràcter reial. […] Déu és amor i font d’amor; el diví Creador també ha posat aquest tret en el nostre rostre, perquè, mitjançant l’amor —reflex de l’amor diví—, l’ésser humà reconegui i manifesti la dignitat de la seva naturalesa i la semblança amb el seu Creador» (cf. sant Gregori de Nissa, La creació de l’home: PG 44, 137).