L14: 60° Journée Mondiale de la Communication Sociale

From Patrimonies Immatérielles
Revision as of 17:48, 24 January 2026 by Sysop (talk | contribs) (Created page with "<center> '''MESSAGE DE SA SAINTETÉ LÉON XIV '''POUR LA 60E JOURNÉE MONDIALE DES COMMUNICATIONS SOCIALES _______________________ '''Protection des voix et des visages humains </center> Chers frères et sœurs : Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité propre et irremplaçable et constituent l'élément fondamental de toute rencontre. Les Anciens le savaient bien. Ainsi, pour définir la personne...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Jump to navigation Jump to search

MESSAGE DE SA SAINTETÉ LÉON XIV POUR LA 60E JOURNÉE MONDIALE DES COMMUNICATIONS SOCIALES


_______________________

Protection des voix et des visages humains

Chers frères et sœurs :

Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité propre et irremplaçable et constituent l'élément fondamental de toute rencontre. Les Anciens le savaient bien. Ainsi, pour définir la personne humaine, les Grecs anciens utilisaient le mot « visage » ( prosōpon ), qui, étymologiquement, désigne ce qui est visible, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare ), en revanche, inclut le son ; non pas n'importe quel son, mais la voix si particulière d'une personne.

Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’il nous a adressée. Cette Parole a d’abord résonné à travers les siècles dans la voix des prophètes, puis s’est faite chair dans la plénitude des temps. Cette Parole – cette communication que Dieu fait de lui-même – nous avons pu l’entendre et la voir directement (cf. 1 Jn 1, 1-3), car elle a été révélée dans la voix et le visage de Jésus, le Fils de Dieu.

Dès la Création, Dieu a voulu l’humanité pour interlocutrice et, comme le dit saint Grégoire de Nysse [1], a imprimé sur nos visages le reflet de l’amour divin, afin que nous puissions vivre pleinement notre humanité par l’amour. Par conséquent, préserver les visages et les voix humaines, c’est conserver cette marque, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce constituée d’algorithmes biochimiques prédéfinis. Chacun de nous a une vocation irremplaçable et inimitable qui naît de la vie et se manifeste précisément dans la communication avec autrui.

Les technologies numériques, lorsqu'elles sont mal gérées, risquent de bouleverser radicalement certains piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant les voix et les visages humains, la sagesse et le savoir, la conscience et la responsabilité, l'empathie et l'amitié, les systèmes dits d'intelligence artificielle perturbent non seulement les écosystèmes informationnels, mais s'immiscent aussi au niveau le plus profond de la communication : la relation entre les personnes.

Le défi n’est donc pas technologique, mais anthropologique. Préserver les visages et les voix, c’est en fin de compte prendre soin de soi. Saisir les opportunités offertes par le numérique et l’intelligence artificielle avec courage, détermination et discernement ne signifie pas se voiler la face face aux points critiques, aux ambiguïtés et aux risques.

Ne renoncez pas à votre propre réflexion.

Il existe depuis longtemps de nombreuses preuves que les algorithmes conçus pour maximiser l'engagement sur les réseaux sociaux — ce qui est profitable aux plateformes — privilégient les émotions passagères tout en pénalisant les expressions humaines qui exigent du temps, comme l'effort de compréhension et de réflexion. En enfermant des groupes de personnes dans des bulles de consensus et d'indignation faciles, ces algorithmes affaiblissent la capacité d'écoute et de pensée critique, et accentuent la polarisation sociale.

À cela s'ajoute une confiance naïve et aveugle en l'intelligence artificielle, perçue comme une « amie » omnisciente, dispensatrice de toutes les informations, dépositaire de toute la mémoire et « oracle » de tous les conseils. Tout cela peut encore davantage éroder notre capacité de pensée analytique et créative, notre aptitude à comprendre le sens des choses et à distinguer la syntaxe de la sémantique.

Bien que l'IA puisse apporter un soutien et une assistance dans la gestion des tâches de communication, en nous évitant l'effort de réfléchir par nous-mêmes et en nous contentant de compilations statistiques artificielles, elle risque à long terme d'éroder nos capacités cognitives, émotionnelles et communicatives.

Ces dernières années, les systèmes d'intelligence artificielle ont pris une place de plus en plus importante dans la production de textes, de musique et de vidéos. Une grande partie du secteur créatif humain risque ainsi d'être démantelée et remplacée par l'étiquette « Propulsé par l'IA », transformant les individus en simples consommateurs passifs de produits impersonnels et sans âme, dépourvus de toute dimension créative. Parallèlement, les chefs-d'œuvre du génie humain en musique, en art et en littérature sont réduits à un simple terrain d'entraînement pour les machines.

La question qui nous préoccupe n'est cependant pas ce que la machine peut ou fera, mais ce que nous pouvons ou serons capables de faire, en progressant en humanité et en connaissance, grâce à un usage judicieux de ces puissants outils mis à notre service. L'humanité a toujours été tentée de s'approprier les fruits du savoir sans fournir l'effort qu'impliquent l'engagement, la recherche et la responsabilité personnelle. Or, renoncer au processus créatif et abandonner nos facultés mentales et notre imagination aux machines, c'est enterrer les talents que nous avons reçus pour nous épanouir en tant que personnes, en relation avec Dieu et avec les autres. C'est se cacher et faire taire sa voix.

Être ou faire semblant : simulation des relations et de la réalité

À mesure que nous consultons nos flux d'informations , il devient de plus en plus difficile de discerner si nous interagissons avec d'autres êtres humains ou avec des « bots » ou des « influenceurs » virtuels. Les interventions opaques de ces agents automatisés influencent les débats publics et les décisions des individus. En particulier, les chatbots basés sur de grands modèles linguistiques (GML) se révèlent étonnamment efficaces pour une persuasion insidieuse grâce à l'optimisation continue des interactions personnalisées. La structure dialogique, adaptative et mimétique de ces modèles linguistiques est capable d'imiter les sentiments humains et ainsi de simuler une relation. Cette anthropomorphisation, qui peut même être amusante, est simultanément trompeuse, surtout pour les plus vulnérables. Les chatbots trop « affectueux » , en plus d'être omniprésents et facilement accessibles, peuvent devenir des architectes discrets de nos états émotionnels, envahissant ainsi la sphère de l'intimité.

Les technologies qui exploitent notre besoin de connexion peuvent non seulement avoir des conséquences douloureuses sur la vie des individus, mais aussi nuire au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous substituons les relations humaines par des relations avec une intelligence artificielle entraînée à catégoriser nos pensées et, par conséquent, à construire autour de nous un monde de miroirs, où tout est fait « à notre image ». De cette manière, nous nous privons de la possibilité de rencontrer l'autre, toujours différent de nous et avec lequel nous pouvons et devons apprendre à entrer en relation. Sans acceptation de la différence, il ne peut y avoir ni relation ni amitié.

Un autre défi majeur posé par ces systèmes émergents est celui des biais , qui conduisent à acquérir et à transmettre une perception déformée de la réalité. Les modèles d'IA sont façonnés par la vision du monde de ceux qui les conçoivent et, par conséquent, peuvent imposer des modes de pensée qui reproduisent les stéréotypes et les préjugés présents dans les données qu'ils exploitent. Le manque de transparence dans la conception des algorithmes, associé à une représentation sociale insuffisante des données, tend à nous maintenir prisonniers de réseaux qui manipulent nos pensées et perpétuent et aggravent les inégalités et les injustices sociales existantes.

Le risque est considérable. La puissance de la simulation est telle que l'intelligence artificielle peut aussi nous tromper en fabriquant des « réalités » parallèles, en s'appropriant nos visages et nos voix. Nous sommes plongés dans un monde multidimensionnel où il devient de plus en plus difficile de distinguer le réel de la fiction.

À cela s'ajoute le problème du manque de précision. Les systèmes qui présentent les probabilités statistiques comme des connaissances ne nous offrent en réalité, au mieux, que des approximations de la vérité, qui ne sont parfois que de pures illusions. L'absence de vérification des sources, conjuguée à la crise du journalisme de terrain – qui repose sur le travail continu de collecte et de vérification des informations sur le terrain – peut créer un terreau encore plus fertile pour la désinformation, engendrant un sentiment croissant de méfiance, de désarroi et d'insécurité.

Une alliance possible

Derrière cette force immense et invisible qui nous concerne tous, se cachent quelques entreprises, dont les fondateurs ont récemment été désignés comme les créateurs de la « Personnalité de l'année 2025 », autrement dit, les architectes de l'intelligence artificielle. Ceci soulève de sérieuses inquiétudes quant au contrôle exercé par cet oligopole sur les systèmes algorithmiques et d'IA, capables de façonner subtilement les comportements et même de réécrire l'histoire de l'humanité – y compris celle de l'Église – souvent à notre insu.

Le défi à relever n'est pas de freiner l'innovation numérique, mais de l'orienter et de prendre conscience de sa nature ambivalente. Il appartient à chacun d'entre nous de défendre l'humain afin que ces outils soient véritablement considérés comme des alliés.

Cette alliance est possible, mais elle doit reposer sur trois piliers : la responsabilité , la coopération et l’éducation .

Avant tout, la responsabilité . Selon le rôle, cela peut se traduire par l'honnêteté, la transparence, le courage, la vision, le devoir de partager les connaissances et le droit à l'information. Mais, d'une manière générale, nul ne peut se soustraire à sa responsabilité envers l'avenir que nous construisons.

Pour ceux qui dominent les plateformes en ligne , cela signifie veiller à ce que leurs stratégies commerciales ne soient pas guidées uniquement par le critère du profit maximal, mais aussi par une vision d'avenir qui prenne en compte le bien commun, tout comme chacun d'eux se soucie du bien-être de ses enfants.

Les créateurs et programmeurs de modèles d'IA sont appelés à faire preuve de transparence et de responsabilité sociale concernant les principes de planification et les systèmes de modération qui sous-tendent leurs algorithmes et modèles conçus pour promouvoir le consentement éclairé des utilisateurs.

Cette même responsabilité incombe également aux législateurs nationaux et aux organismes de réglementation supranationaux, chargés de garantir le respect de la dignité humaine. Une réglementation appropriée peut protéger les individus contre la formation de liens affectifs avec les chatbots et freiner la diffusion de contenus faux, manipulateurs ou trompeurs, préservant ainsi l'intégrité de l'information face à toute simulation trompeuse.

Les agences de presse et les médias ne peuvent laisser des algorithmes conçus pour gagner quelques secondes d'attention à tout prix l'emporter sur leur fidélité à leurs valeurs professionnelles, fondées sur la recherche de la vérité. La confiance du public se gagne par l'exactitude et la transparence, et non par la recherche de la partialité. Les contenus générés ou manipulés par l'IA doivent être clairement identifiés et distingués des contenus créés par des humains. La paternité et la propriété intellectuelle des œuvres des journalistes et autres créateurs de contenu doivent être protégées. L'information est un bien public. Un service public constructif et utile ne repose pas sur l'opacité, mais sur la transparence des sources, l'inclusion des parties prenantes et un haut niveau de qualité.

Nous sommes tous appelés à coopérer . Aucun secteur ne peut relever seul le défi de guider l'innovation numérique et de gouverner l'IA. Il est donc nécessaire de mettre en place des garde-fous. Toutes les parties prenantes – de l'industrie technologique aux décideurs politiques, des entreprises créatives au monde universitaire, des artistes aux journalistes et aux enseignants – doivent participer à l'élaboration et à la mise en œuvre d'une citoyenneté numérique consciente et responsable.

Voilà ce que vise l’éducation : accroître nos capacités personnelles de réflexion critique ; évaluer la crédibilité des sources et les intérêts potentiels qui sous-tendent la sélection des informations qui nous parviennent ; comprendre les mécanismes psychologiques qui s’activent en réponse ; permettre à nos familles, communautés et associations de développer des critères pratiques pour une culture de la communication plus saine et plus responsable.

C’est précisément pourquoi il est de plus en plus urgent d’intégrer l’éducation aux médias, à l’information et à l’intelligence artificielle dans les systèmes éducatifs à tous les niveaux, une démarche déjà entreprise par certaines institutions civiles. En tant que catholiques, nous pouvons et devons contribuer à aider chacun, et notamment les jeunes, à développer leur esprit critique et à s’épanouir spirituellement. Cette éducation devrait également s’inscrire dans des initiatives plus larges de formation continue, afin de toucher les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face à l’évolution technologique rapide.

L'éducation aux médias, à l'information et à l'intelligence artificielle permettra à chacun d'éviter l'anthropomorphisme de ces systèmes et de les considérer comme de simples outils. Elle permettra également de toujours vérifier les sources fournies par les systèmes d'IA – qui peuvent être inexactes ou erronées – et de protéger sa vie privée et ses données en comprenant les paramètres de sécurité et les possibilités de les contester. Il est important de s'informer et d'informer les autres sur l'utilisation responsable de l'IA et, dans ce contexte, de protéger son image (photos et enregistrements audio), son visage et sa voix afin d'empêcher leur utilisation pour créer des contenus et des comportements nuisibles tels que les arnaques numériques, le cyberharcèlement et les deepfakes, qui violent la vie privée et l'intimité des personnes sans leur consentement. De même que la révolution industrielle exigeait une alphabétisation de base pour que les gens puissent réagir aux nouveautés, la révolution numérique requiert également une culture numérique (ainsi qu'une éducation humaniste et culturelle) pour comprendre comment les algorithmes façonnent notre perception de la réalité, comment fonctionnent les biais de l'IA, quels mécanismes déterminent l'apparition de certains contenus dans nos flux d'informations , et quelles sont les hypothèses et les modèles économiques de l'économie de l'IA et comment ils peuvent évoluer.

Nous avons besoin du visage et de la voix pour exprimer à nouveau la personne. Nous devons préserver le don de la communication, vérité la plus profonde de l'humanité, vers laquelle devrait tendre toute innovation technologique.

En proposant ces réflexions, je remercie celles et ceux qui œuvrent à la réalisation des objectifs énoncés ici et je bénis de tout cœur tous ceux qui travaillent pour le bien commun par le biais des médias.

Cité du Vatican, 24 janvier 2026, Mémoire de saint François de Sales.

LÉON XIV PP.

___________________________


[1] « Le fait d’être créé à l’image de Dieu signifie que, dès le moment de sa création, l’homme s’est vu donner un caractère royal [...]. Dieu est amour et la source de l’amour ; le divin Créateur a également placé ce trait sur nos visages, afin que par l’amour – reflet de l’amour divin – les êtres humains puissent reconnaître et manifester la dignité de leur nature et leur ressemblance avec leur Créateur » (cf. saint Grégoire de Nysse, La Création de l’homme : PG 44, 137).