Depuis 2000 ans

Léon XIV : « Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme »

Depositphotos
Depositphotos
À l’occasion de la 60 eme journée mondiale des communications sociales, célébrée ce 24 janvier 2026, mémoire de saint François de Sales, patron des journalistes, Léon XIV a publié un message de grande ampleur anthropologique et pastorale ( intégralité du texte)

Dans ce texte le Saint Père évoque précisément les risques liés à l’intelligence artificielle et la responsabilité morale des acteurs publics, économiques et culturels. Il y défend une vision exigeante de la communication comme lieu de la relation, de la vérité et de la dignité humaine.Dans son message pour la Journée mondiale des communications sociales 2026, Léon XIV place d’emblée la réflexion sur un terrain fondamental, celui de l’anthropologie chrétienne : « Le visage et la voix sont des traits uniques, distinctifs, de chaque personne », écrit-il, rappelant que ces deux dimensions ne sont pas de simples supports d’expression, mais « l’élément constitutif de toute rencontre ». En convoquant à la fois la pensée grecque du prósōpon et l’étymologie latine de persona, le pape inscrit la communication humaine dans une tradition millénaire où relation, présence et identité sont indissociables.

Cette approche trouve son centre dans la théologie de l’Incarnation. Pour Léon XIV, la communication humaine ne peut être comprise sans référence à la Parole de Dieu elle-même, « faite connaître dans la voix et dans le Visage de Jésus, Fils de Dieu ». Le visage et la voix sont dits « sacrés », parce qu’ils portent le sceau de l’image divine imprimée en l’homme dès la création. C’est pourquoi :

« préserver les visages et les voix humaines signifie […] préserver ce reflet indélébile de l’amour de Dieu ».

À partir de ce socle, le pape aborde les défis contemporains posés par la technologie numérique et l’intelligence artificielle. Le diagnostic est posé sans dramatisation, mais avec gravité. La question, insiste-t-il, « n’est donc pas technologique, mais anthropologique ». Ce qui est en jeu, ce ne sont pas d’abord les performances des machines, mais la capacité de l’homme à demeurer sujet, interlocuteur et responsable. En simulant « les voix et les visages humains, la sagesse et la connaissance, l’empathie et l’amitié », les systèmes d’IA risquent d’atteindre « le niveau le plus profond de la communication, celui du rapport entre personnes humaines ».

Une part importante du message est consacrée à la dégradation progressive de la pensée critique dans les écosystèmes numériques. Léon XIV observe que les algorithmes conçus pour maximiser l’engagement favorisent « les émotions rapides » et pénalisent « l’effort de compréhension et la réflexion ».

Il met également en garde contre une confiance « naïvement acritique » accordée à l’intelligence artificielle, perçue comme une instance omnisciente, capable de fournir réponses, conseils et sens. Une telle attitude, prévient-il, « peut éroder davantage notre capacité à penser de manière analytique et créative ».Le pape élargit ensuite son regard aux domaines culturels et créatifs. La montée en puissance de contenus « Powered by AI » ( généré par Intelligence Artificielle) fait courir le risque de transformer les personnes en « simples consommateurs passifs de pensées non pensées, de produits anonymes, sans paternité, sans amour ».

Derrière cette formule forte se profile une inquiétude plus profonde : celle d’un abandon du processus créatif humain, qui reviendrait à « enfouir les talents que nous avons reçus » et, en définitive, à « cacher notre visage et faire taire notre voix ».

Lire aussi

Léon XIV analyse également avec précision la simulation des relations humaines. Dans un univers où il devient difficile de distinguer un interlocuteur humain d’un agent automatisé, les chatbots fondés sur de grands modèles linguistiques peuvent, selon lui, exercer une « persuasion occulte ». Leur capacité à imiter les sentiments et à se rendre « excessivement affectueux » peut conduire à une intrusion dans l’intimité, en particulier chez les personnes vulnérables. Le pape évoque ici une dérive préoccupante, où la relation est remplacée par un miroir, et où l’altérité disparaît. Or, rappelle-t-il avec sobriété, « sans l’accueil de l’altérité, il ne peut y avoir ni relation ni amitié ».

La réflexion s’étend enfin aux enjeux sociaux et politiques. Le contrôle croissant de l’intelligence artificielle par un nombre restreint d’acteurs économiques suscite, selon le pape, une « préoccupation importante », notamment face à la capacité de ces systèmes à orienter les comportements et à façonner la mémoire collective. Le risque de désinformation est aggravé par la crise du journalisme de terrain et par des systèmes qui confondent « probabilité statistique » et vérité, produisant parfois de véritables « hallucinations ».

Face à ces défis, Léon XIV ne plaide ni pour le rejet ni pour l’enthousiasme naïf. Il appelle à une « alliance » fondée sur trois piliers : responsabilité, coopération et éducation. La responsabilité concerne tous les niveaux, des dirigeants de plateformes aux législateurs, des développeurs d’IA aux entreprises de médias.

Ces dernières, souligne-t-il, ne peuvent sacrifier « la recherche de la vérité » à la seule logique de l’attention. « L’information est un bien public », affirme le pape, appelant à distinguer clairement les contenus produits par des personnes de ceux générés ou manipulés par l’IA.

L’éducation occupe une place centrale dans cette vision. L’« alphabétisation aux médias, à l’information et à l’IA » est présentée comme une urgence culturelle, nécessaire pour développer l’esprit critique, protéger la vie privée et comprendre les mécanismes qui façonnent les flux d’information. Les catholiques, insiste Léon XIV, ont un rôle spécifique à jouer pour aider les jeunes, mais aussi les personnes âgées et marginalisées, à « grandir dans la liberté de l’esprit ».Le message s’achève sur une affirmation programmatique qui en résume l’intention profonde : « Nous avons besoin que le visage et la voix recommencent à dire la personne. »

Et le pape de conclure par la phrase qui donne son titre à cette réflexion : « Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme. » Par ces mots, Léon XIV rappelle que toute innovation technologique ne peut être jugée qu’à l’aune de ce qu’elle sert ou menace : la dignité de la personne humaine et sa vocation à la relation vraie.

intégralité du Message du Saint-Père

Préserver les voix et les visages humains

( Texte original italien – Traduction Tribune Chrétienne)

« Chers frères et sœurs,

Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité irrépétible et constituent l’élément fondateur de toute rencontre. Les Anciens le savaient bien. Ainsi, pour définir la personne humaine, les Grecs anciens utilisaient le mot « visage » (prósōpon), qui indique étymologiquement ce qui se tient face au regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare) inclut quant à lui le son : non pas n’importe quel son, mais la voix inimitable de quelqu’un.

Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu qui nous a créés à son image et à sa ressemblance, en nous appelant à la vie par la Parole qu’Il nous a Lui-même adressée ; Parole qui a d’abord résonné au fil des siècles dans les voix des prophètes, puis s’est faite chair dans la plénitude des temps. Cette Parole – cette communication que Dieu fait de Lui-même – nous avons aussi pu l’entendre et la voir directement (cf. 1 Jn 1,1-3), parce qu’elle s’est fait connaître dans la voix et dans le Visage de Jésus, Fils de Dieu.

Dès le moment de sa création, Dieu a voulu l’homme comme son interlocuteur et, comme le dit saint Grégoire de Nysse[1], Il a imprimé sur son visage un reflet de l’amour divin, afin qu’il puisse vivre pleinement son humanité par l’amour. Préserver les visages et les voix humaines signifie donc préserver ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques, définis à l’avance. Chacun de nous a une vocation irremplaçable et inimitable, qui émerge de la vie et se manifeste précisément dans la communication avec les autres.

La technologie numérique, si nous manquons à cette préservation, risque au contraire de modifier radicalement certains piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant les voix et les visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié, les systèmes connus sous le nom d’intelligence artificielle n’interfèrent pas seulement dans les écosystèmes de l’information, mais envahissent aussi le niveau le plus profond de la communication, celui de la relation entre les personnes humaines.

Le défi n’est donc pas technologique, mais anthropologique. Préserver les visages et les voix signifie, en dernière analyse, nous préserver nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et par l’intelligence artificielle ne signifie pas nous cacher à nous-mêmes les points critiques, les zones d’ombre, les risques.

Ne pas renoncer à sa propre pensée

Il existe depuis longtemps de nombreuses preuves du fait que des algorithmes conçus pour maximiser l’engagement sur les réseaux sociaux – engagement rentable pour les plateformes – favorisent les émotions rapides et pénalisent au contraire des expressions humaines qui demandent plus de temps, comme l’effort de compréhension et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.

À cela s’est ajoutée une confiance naïvement acritique dans l’intelligence artificielle comme « amie » omnisciente, dispensatrice de toute information, archive de toute mémoire, « oracle » de tout conseil. Tout cela peut éroder davantage notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer entre la syntaxe et la sémantique.

Bien que l’IA puisse fournir un soutien et une assistance dans la gestion de tâches communicatives, se soustraire à l’effort de sa propre pensée, en se contentant d’une compilation statistique artificielle, risque à long terme d’éroder nos capacités cognitives, émotionnelles et communicatives.

Ces dernières années, les systèmes d’intelligence artificielle assument de plus en plus aussi le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par l’étiquette « Powered by AI », transformant les personnes en simples consommateurs passifs de pensées non pensées, de produits anonymes, sans paternité, sans amour, tandis que les chefs-d’œuvre du génie humain dans les domaines de la musique, de l’art et de la littérature sont réduits à un simple champ d’entraînement pour les machines.

La question qui nous tient à cœur, toutefois, n’est pas ce que la machine parvient ou parviendra à faire, mais ce que nous pouvons et pourrons faire, en grandissant en humanité et en connaissance, par un usage sage de ces instruments si puissants mis à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans la fatigue de l’engagement, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines ses propres fonctions mentales et son imagination signifie cependant enfouir les talents que nous avons reçus afin de grandir comme personnes en relation avec Dieu et avec les autres. Cela signifie cacher notre visage et faire taire notre voix.

Être ou feindre : simulation des relations et de la réalité

Alors que nous parcourons nos flux d’informations (feeds), il devient ainsi de plus en plus difficile de comprendre si nous interagissons avec d’autres êtres humains ou avec des « bots » ou des « influenceurs virtuels ». Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. En particulier, les chatbots fondés sur de grands modèles linguistiques (LLM) se révèlent étonnamment efficaces dans la persuasion occulte, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique et adaptative, mimétique, de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même s’avérer divertissante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. En effet, des chatbots rendus excessivement « affectueux », en plus d’être toujours présents et disponibles, peuvent devenir des architectes cachés de nos états émotionnels et, de cette manière, envahir et occuper la sphère de l’intimité des personnes.

La technologie qui exploite notre besoin de relation peut non seulement avoir des conséquences douloureuses sur le destin des individus, mais aussi porter atteinte au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous remplaçons les relations avec les autres par celles avec des IA entraînées à cataloguer nos pensées et à construire ainsi autour de nous un monde de miroirs, où chaque chose est faite « à notre image et à notre ressemblance ». De cette manière, nous nous laissons voler la possibilité de rencontrer l’autre, qui est toujours différent de nous, et avec lequel nous pouvons et devons apprendre à nous confronter. Sans l’accueil de l’altérité, il ne peut y avoir ni relation ni amitié.

Un autre grand défi que posent ces systèmes émergents est celui de la distorsion (bias), qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de ceux qui les construisent et peuvent à leur tour imposer des modes de pensée en répliquant les stéréotypes et les préjugés présents dans les données auxquelles ils puisent. Le manque de transparence dans la conception des algorithmes, joint à une représentation sociale inadéquate des données, tend à nous maintenir prisonniers de réseaux qui manipulent nos pensées et perpétuent et approfondissent les inégalités et les injustices sociales existantes.

Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut aussi nous tromper en fabriquant des « réalités » parallèles, en s’appropriant nos visages et nos voix. Nous sommes immergés dans une multidimensionnalité où il devient de plus en plus difficile de distinguer la réalité de la fiction.

À cela s’ajoute le problème du manque d’exactitude. Des systèmes qui présentent une probabilité statistique comme une connaissance nous offrent en réalité tout au plus des approximations de la vérité, qui sont parfois de véritables « hallucinations ». L’absence de vérification des sources, jointe à la crise du journalisme de terrain qui implique un travail continu de collecte et de vérification des informations là où les événements se produisent, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de défiance, de désarroi et d’insécurité.

Une alliance possible

Derrière cette immense force invisible qui nous implique tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la « personne de l’année 2025 », à savoir les architectes de l’intelligence artificielle. Cela suscite une préoccupation majeure concernant le contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements et même de réécrire l’histoire humaine – y compris l’histoire de l’Église – souvent sans que l’on puisse réellement s’en rendre compte.

Le défi qui nous attend ne consiste pas à arrêter l’innovation numérique, mais à la guider, à être conscients de son caractère ambivalent. Il revient à chacun de nous d’élever la voix en défense des personnes humaines, afin que ces instruments puissent réellement être intégrés par nous comme des alliés.

Cette alliance est possible, mais elle doit se fonder sur trois piliers : la responsabilité, la coopération et l’éducation.

Tout d’abord la responsabilité. Celle-ci peut se décliner, selon les rôles, comme honnêteté, transparence, courage, capacité de vision, devoir de partager la connaissance, droit à être informé. Mais de manière générale, personne ne peut se soustraire à sa propre responsabilité face à l’avenir que nous sommes en train de construire.

Pour ceux qui sont à la tête des plateformes en ligne, cela signifie s’assurer que leurs stratégies d’entreprise ne soient pas guidées par le seul critère de la maximisation du profit, mais aussi par une vision clairvoyante qui tienne compte du bien commun, de la même manière que chacun d’eux a à cœur le bien de ses propres enfants.

Aux créateurs et aux développeurs de modèles d’IA est demandée transparence et responsabilité sociale concernant les principes de conception et les systèmes de modération qui sous-tendent leurs algorithmes et les modèles développés, afin de favoriser un consentement éclairé de la part des utilisateurs.

La même responsabilité est également demandée aux législateurs nationaux et aux régulateurs supranationaux, auxquels il revient de veiller au respect de la dignité humaine. Une réglementation adéquate peut protéger les personnes d’un lien émotionnel avec les chatbots et contenir la diffusion de contenus faux, manipulateurs ou trompeurs, en préservant l’intégrité de l’information face à sa simulation mensongère.

Les entreprises des médias et de la communication ne peuvent à leur tour permettre que des algorithmes orientés vers la victoire à tout prix dans la bataille pour quelques secondes d’attention supplémentaires prévalent sur la fidélité à leurs valeurs professionnelles, tournées vers la recherche de la vérité. La confiance du public se gagne par l’exactitude, par la transparence, et non par la course à un engagement quelconque. Les contenus générés ou manipulés par l’IA doivent être signalés et clairement distingués des contenus créés par des personnes. La paternité et la propriété souveraine du travail des journalistes et des autres créateurs de contenu doivent être protégées. L’information est un bien public. Un service public constructif et significatif ne repose pas sur l’opacité, mais sur la transparence des sources, sur l’inclusion des sujets concernés et sur un niveau élevé de qualité.

Nous sommes tous appelés à coopérer. Aucun secteur ne peut affronter seul le défi de guider l’innovation numérique et la gouvernance de l’IA. Il est donc nécessaire de créer des mécanismes de sauvegarde. Toutes les parties prenantes – de l’industrie technologique aux législateurs, des entreprises créatives au monde académique, des artistes aux journalistes, jusqu’aux éducateurs – doivent être impliquées dans la construction et la mise en œuvre effective d’une citoyenneté numérique consciente et responsable.

C’est à cela que vise l’éducation : accroître nos capacités personnelles de réflexion critique, évaluer la fiabilité des sources et les intérêts possibles qui se cachent derrière la sélection des informations qui nous parviennent, comprendre les mécanismes psychologiques qu’elles activent, permettre à nos familles, communautés et associations d’élaborer des critères pratiques pour une culture de la communication plus saine et plus responsable.

C’est précisément pour cette raison qu’il est de plus en plus urgent d’introduire dans les systèmes éducatifs de tous niveaux une éducation aux médias, à l’information et à l’IA, que certaines institutions civiles promeuvent déjà. En tant que catholiques, nous pouvons et devons apporter notre contribution afin que les personnes, surtout les jeunes, acquièrent la capacité de pensée critique et grandissent dans la liberté de l’esprit. Cette éducation devrait également être intégrée dans des initiatives plus larges de formation permanente, atteignant aussi les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux changements technologiques rapides.

L’éducation aux médias, à l’information et à l’IA aidera tous à ne pas se conformer à la dérive anthropomorphisante de ces systèmes, mais à les traiter comme des instruments, à recourir toujours à une validation externe des sources – qui pourraient être imprécises ou erronées – fournies par les systèmes d’IA, à protéger sa vie privée et ses données en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à utiliser l’IA de manière intentionnelle et, dans ce contexte, de protéger sa propre image (photos et audio), son visage et sa voix, afin d’éviter qu’ils ne soient utilisés dans la création de contenus et de comportements nuisibles tels que les fraudes numériques, le cyberharcèlement, les deepfakes qui violent la vie privée et l’intimité des personnes sans leur consentement.

De même que la révolution industrielle exigeait une alphabétisation de base pour permettre aux personnes de réagir à la nouveauté, de même la révolution numérique exige une alphabétisation numérique – jointe à une formation humaniste et culturelle – pour comprendre comment les algorithmes façonnent notre perception de la réalité, comment fonctionnent les préjugés de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’informations (feeds), et quels sont, et comment peuvent évoluer, les présupposés et les modèles économiques de l’économie de l’IA.

Nous avons besoin que le visage et la voix recommencent à dire la personne. Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme, vers laquelle orienter également toute innovation technologique.

En proposant ces réflexions, je remercie ceux qui œuvrent pour les objectifs ici présentés et je bénis de tout cœur tous ceux qui travaillent pour le bien commun à travers les moyens de communication.

Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.

LEON XIV, PAPE

[1] « Le fait d’être créé à l’image de Dieu signifie que, dès le moment de sa création, un caractère royal a été imprimé à l’homme […]. Dieu est amour et source de l’amour : le divin Créateur a aussi placé ce trait sur notre visage, afin que, par l’amour – reflet de l’amour divin – l’être humain reconnaisse et manifeste la dignité de sa nature et la ressemblance avec son Créateur » (cf. saint Grégoire de Nysse, La création de l’homme : PG 44, 137). »

Source Vatican

Recevez chaque jour notre newsletter !