Добавить новость
ru24.net
World News in French
Апрель
2026
1 2 3 4 5 6 7 8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

L’essor inquiétant des IA comme arbitres de l’information, par Gérald Bronner

0

Dans un livre paru en 2013, La démocratie des crédules (PUF), j’avais eu l’occasion de souligner combien le biais de confirmation – la tendance à rechercher, interpréter et retenir prioritairement les informations qui vont dans le sens de nos croyances préalables – avait été amplifié par l’apparition d’Internet. Cet invariant de l’esprit humain – repéré déjà en son temps par Francis Bacon et mis en exergue expérimental en 1960 par le psychologue Peter Wason – se trouve être complété par son symétrique en quelque sorte, qui est de nature à fracturer un peu plus l’espace commun nécessaire à nos démocraties.

C’est ce que montre, en partie, une étude récente signée par Thomas Renault, Mohsen Mosleh et David G. Rand qui se situe au croisement des sciences sociales computationnelles et de l’analyse des comportements informationnels. Elle convoque la façon dont les IA sont questionnées sur le réseau X. On a beaucoup insisté sur les capacités génératives des grands modèles de langage : rédiger, résumer, traduire, coder. Mais une autre fonction est en train de s’imposer, politiquement plus sensible : celle d’outil de vérification de l’information. Les LLM (grands modèles de langage) deviennent de plus en plus des arbitres auxquels les usagers demandent de trancher le vrai du faux dans le flux des réseaux sociaux.

Les auteurs analysent 1 671 841 demandes de vérification en anglais adressées sur X à Grok et à Perplexity (deux IA consultables sur ce réseau) entre février et septembre 2025. Premier constat : cet usage n’est plus marginal. Ces demandes représentent 7,6 % de l’ensemble des interactions avec ces deux bots et concernent surtout la politique, l’économie et l’actualité. Longtemps, la vérification des faits a été le domaine des journalistes spécialisés ou des sites de fact-checking. Désormais, des utilisateurs ordinaires s’adressent directement à un LLM pour lui demander : est-ce vrai ? La validation de l’information se déplace ainsi vers des interfaces conversationnelles intégrées aux plateformes mêmes où circulent les contenus litigieux. Nous ne sommes probablement qu’au début du processus mais celui-ci est déjà tangible.

Logiques partisanes

L’étude montre aussi que ces usages sont immédiatement pris dans des logiques partisanes. Les utilisateurs qui sollicitent Grok sont souvent républicains ; ceux qui sollicitent Perplexity, en revanche, sont plus souvent démocrates. Ces outils de vérification s’encapsulent donc dans l’univers des préférences politiques : on ne choisit plus seulement ses sources d’information, on choisit aussi son instance de vérification. Il faut remarquer, malgré tout, que les demandes de vérification portent plus souvent sur des publications issues de comptes républicains, y compris lorsque les demandeurs sont eux-mêmes républicains. Ceci tempère l’impression que l’on pourrait avoir de l’existence d’un biais d’infirmation, c’est-à-dire la volonté de convoquer des instances de contradiction lorsque les faits ne conviennent pas à nos attentes partisanes. La raison en est que les contenus républicains sont objectivement plus faux en moyenne que les autres comme la recherche l’a plusieurs fois montré. Le biais partisan n’éteint donc pas tout à fait la lumière de la lucidité.

Cependant, il reste que ces arbitres artificiels ne sont pas infaillibles. Grok et Perplexity ne convergent qu’un peu plus d’une fois sur deux lorsqu’ils évaluent les mêmes contenus. Dans ces conditions, une certaine latitude interprétative est laissée aux usagers selon leur préférence. C’est ce que montre aussi, dans le même papier, une expérience menée par les auteurs auprès de 1 592 Américains. Les vérifications d’informations produites par IA sont plus ou moins admises selon l’identité du modèle. Lorsque celui-ci est révélé aux utilisateurs, en condition de laboratoire, leurs réactions se polarisent selon leur appartenance partisane : on se méfie plus ou moins de l’outil selon sa sensibilité politique.

Les IA deviennent des outils ordinaires de vérification des faits et vont peu à peu organiser notre rapport au réel. Une question que pose la recherche contemporaine et à laquelle seul le futur pourra répondre demeure : que devient l’espace public lorsque chacun choisit non seulement ses informations, mais aussi son vérificateur ?

Gérald Bronner est sociologue et professeur à Sorbonne Université.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса