Comment aborder le sujet : l'information face à l'intelligence artificielle ?
Question d'origine :
Bonjour, je me permet de vous demander comment traiteriez vous cette thèse :
L'information face à l'intelligence artificielle.
Votre réponse aurait pour but de compléter et conforter mes recherches, merci d'avance et bonne journée à vous.
Réponse du Guichet
Les arguments que nous vous présentons seront certainement des éléments que vous connaissez déjà .. mais vous permettront peut-être d'enrichir votre réflexion.
Bonjour,
Vaste question qui mériterait une longue dissertation !
Nous n’aurons malheureusement pas le temps de débattre à ce sujet mais la lecture des articles de presse est intéressante car présentant les discussions et débats alimentés par l'IA, de l’enthousiasme débordant avec une intelligence artificielle présentée comme une opportunité pour produire de nouveaux contenus à une approche beaucoup plus pessimiste pointant les dérives possibles. Pour illustrer notre propos et nourrir votre réflexion, nous reproduisons ici certains extraits d'articles que vous pourrez consulter dans leur intégralité via Europresse.
Ainsi, dans L’article « La presse cherche une alternative au pillage par l’IA », publié dans Les Echos le 11 janvier 2024, Marina Alcaraz et Elsa freyssenet rapportent que :
Depuis un an, les robots d'intelligence artificielle moissonnent sans autorisation ni rémunération toutes les informations mises en ligne. Longtemps hésitants, les titres français s'apprêtent à contre-attaquer.
Le « New York Times » va-t-il faire école en France ? Fin décembre, le quotidien américain a porté plainte pour violation des droits d'auteur contre OpenAI, la société mère du logiciel d'intelligence artificielle grand public ChatGPT, et contre son principal investisseur Microsoft. En ce mois de janvier, à Paris, l'Alliance de la presse d'information générale, l'Apig, nourrit le même projet pour ses éditeurs. « C'est le début de la contre-attaque », espère Pierre Petillault, le directeur général de l'Apig. « On ne restera pas passif », abonde Julie Lorimy, directrice générale du SEPM, le Syndicat des éditeurs de la presse magazine.
Les organisations patronales fourbissent leurs armes et veulent convaincre un maximum de titres d'engager la bataille. Ce jeudi, ils réuniront les éditeurs et des avocats pour préparer la suite. Il y a urgence. Depuis son arrivée sur le Web, il y a un peu plus d'un an, le désormais célèbre ChatGPT a moissonné librement, sans autorisation et sans contrepartie financière, toutes les informations mises en ligne, pour s'entraîner et répondre aux internautes.
« Un effet de sidération »
Attaquer ou discuter ? Alors que plusieurs plaintes ont été déposées par des auteurs, des spécialistes de la musique ou de l'image, les médias étaient jusqu'à présent en retrait. « Il y a un effet de sidération face à l'IA et aussi une fascination générale », explique Louis Dreyfus, le président du directoire du groupe Le Monde. ChatGPT, tout comme Bard (son homologue chez Google) ou d'autres, ont besoin d'une masse énorme d'informations pour s'entraîner et espérer éviter les hallucinations qui faussent leurs réponses. Aussi OpenAI a-t-il négocié aux Etats-Unis avec l'agence Associated Press l'utilisation de sa masse d'archives de dépêches contre rétribution et, en Allemagne, avec le groupe Axel Springer, éditeur de taille mondiale avec « Politico » et « Business Insider ». Les Français auraient bien aimé négocier eux aussi, mais aucun groupe de presse n'a encore réussi à entrer en contact avec OpenAI. Comme si, vu de la Silicon Valley, la presse hexagonale était quantité négligeable.
(…)
Retour en arrière. La presse écrite avait, historiquement, deux sources de rémunération majeures : ses lecteurs payants et la publicité. Depuis une vingtaine d'années, les moteurs de recherche et les réseaux sociaux ont capté l'essentiel de la publicité numérique tout en se nourrissant des contenus produits par des journalistes et payés par les titres de presse.
(…)
Avec ChatGPT et Bard, le lien hypertexte a disparu et les sources ne sont pas forcément citées. L'internaute pressé n'ira pas vérifier si les informations sont fiables ou non. « C'est le règne du vraisemblable contre le règne du vrai. Il y a un côté angoissant pour l'avenir de notre démocratie », résume Christophe Walter Petit, directeur juridique de l'AFP. Au-delà de cette menace sur laquelle beaucoup de choses ont déjà été écrites, cette absence de lien hypertexte vient saper la raison d'être et le modèle économique de la presse
(…)
Pierre Petillault résume ainsi le pire cauchemar des éditeurs de presse écrite : « Demain, tous les contenus à disposition du grand public seraient fournis par l'intelligence artificielle générative, avec derrière des journalistes qui travailleraient en direct pour une espèce de ferme de production.
(…)
La seule chose que l'IA est incapable de faire, c'est aller sur le terrain - la vraie vie ne se déroule pas sur le Web - chercher des informations et les vérifier.Philippe Carli, président de l'Apig et patron du groupe de presse régionale Ebra, parle franchement : « Si je veux être capable de garder des équipes fortes dans un monde 100 % numérique, je vais devoir faire des choix. C'est notre devoir de ne pas faire l'autruche. » Il a lancé à « L'Est républicain » une expérimentation de l'IA comme aide à l'édition des articles des correspondants locaux. Il est loin d'être le seul à mener des expériences. Mais certains éditeurs déchantent. « Nous avons lancé beaucoup de tests de manière enthousiaste et certains sont intéressants pour améliorer la productivité de quelques métiers, raconte Bérénice Lajouanie. Mais sur l'éditorial et la rédaction, c'est très compliqué de protéger les contenus qui nous appartiennent et les modèles sont coûteux à utiliser de manière sécurisée. »Alors comment se défendre ? Développer sa propre intelligence artificielle ? Oui, mais il faut avoir les moyens financiers et la masse critique de données pour entraîner l'outil. (…)
Bientôt SGE en Europe ?
L'IA attire, l'IA fait peur… A fortiori depuis que Google est entré dans la danse. La firme de Montain View est à la fois l'un des rares géants de la tech qui prend la peine de discuter avec des éditeurs français et celui dont nos titres sont les plus dépendants, puisque 92 % des internautes français utilisent ce moteur de recherche. « Google est à la fois un adversaire commun et un partenaire dont on ne peut pas se passer », résume Philippe Carli.
(…)
Lobbying
Alors que la Commission européenne est souvent critiquée pour sa propension à réglementer (qui étoufferait l'innovation), la perception de nombre d'éditeurs de la presse française est toute autre : « La Commission européenne est plus qu'accommodante avec les Gafam. Elle est pénétrée par leur lobbying », lâche un expert du secteur. L'AI Act en cours de discussion à Bruxelles promeut, dans ses principes, la transparence et le respect du copyright. Mais en matière de réglementation européenne, le diable se niche dans les détails, c'est-à-dire dans les discussions d'apparence technique qui peuvent vider les principes de leur sens….
Autre plongée dans l’IA et l’information avec l’article de Maud Guilbeault, « Comment l'intelligence artificielle bouscule l'information ?, La Croix, 16 mars 2023 :
Au mois de novembre 2022, un séisme numérique secoue la planète médias : ChatGPT, une intelligence artificielle générative dont la version 4, plus « créative et collaborative » que jamais, bien que toujours hors ligne, a été présentée mardi 14 mars. Très rapidement, des journalistes et des citoyens du monde entier ont fait subir des tests au robot conversationnel conçu par l'entreprise américaine OpenAI, afin de cerner ses aptitudes, ses limites, comme le danger potentiel qu'il représente.
En matière d'information pourtant, l'intelligence artificielle n'a pas attendu ce dernier-né pour exhiber ses pouvoirs. Depuis plusieurs années déjà, propulsée par les grandes plateformes numériques, elle a profondément modifié notre manière de suivre l'actualité.
Les algorithmes de recommandation, déjà maîtres de la diffusion de l'information
Plus insidieux que le désormais très célèbre ChatGPT, les algorithmes de recommandation décident de l'information qui nous parvient, et de celle qui nous échappe. Chaque plateforme a le sien et en conserve les secrets, mais leur fonctionnement à tous repose sur ce principe : « Exploiter des données pour capter notre temps d'attention et capitaliser dessus », explique Asma Mhalla, spécialiste des enjeux politiques et géopolitiques de la tech.
(…)
Cette révolution des usages, ceux qui produisent l'information ne peuvent pas l'ignorer, insiste Bruno Patino : « La formation des journalistes à l'utilisation et à la compréhension de ces nouvelles technologies est primordiale. »D'ailleurs, l'intelligence artificielle s'est déjà imposée dans leur travail. « On s'en sert pour collecter et organiser les résultats des élections ou du sport, pour traduire, mais aussi pour vérifier ou trier des données en vue d'une enquête », détaille le journaliste.
Une nouvelle ère de production d'information, et de désinformation
Si l'intelligence artificielle a révolutionné la diffusion et la hiérarchie de l'information ces dernières années, ChatGPT ouvre une nouvelle ère : « Celle de la production, estime Bruno Patino. C'est vertigineux, tant sur le plan des possibilités que sur celui des dangers induits. » Car l'un des talents de la nouvelle coqueluche robotique est d'imiter le langage humain, à peu près aussi bien que la capacité, tout aussi humaine, à se tromper.
Une faculté qui, d'après Asma Mhalla, pourrait faire de ce type d'intelligence artificielle « un outil de désinformation majeur, capable de produire non seulement un discours, mais aussi un avatar, une vidéo, du son, et de les combiner pour en faire un contenu très convaincant,explique la chercheuse. Elle peut devenir une arme puissante dans un contexte de guerre informationnelle. »
Parallèlement, ces technologies ultra-performantes devraient « rapidement devenir des outils pour les organes de presse, qui pourraient leur déléguer des tâches répétitives et à faible valeur ajoutée, comme la rédaction de brèves ou le bâtonnage de dépêches », estime Nicolas Gaudemet, spécialiste de l'intelligence artificielle au sein du cabinet de conseil Onepoint.
L'ancien dirigeant de médias Antoine de Tarlé, auteur de La Fin du journalisme ? (Les Éditions de l'Atelier, 2019), s'inquiète même de « voir émerger des sites d'information dont la quasi-totalité du contenu serait produite par des intelligences artificielles génératives. Des robinets à texte efficaces et sans aspérité. » Avec des conséquences économiques non négligeables pour le secteur : « En répondant aux exigences des algorithmes, de tels sites seraient capables de capter une audience conséquente à moindre coût. »
Pour autant, Nicolas Gaudemet tempère la crainte de voir la production d'informations déléguée à des programmes informatiques : « Une intelligence artificielle, aussi performante soit-elle, ne remplacera pas le travail sur le terrain d'un reporter, la prise de position d'un éditorialiste, l'oeil d'un photographe de presse ou encore l'analyse d'un journaliste d'investigation. »
Aux rédactions d'allouer le temps et les ressources libérées par l'intelligence artificielle à ces contenus à plus forte valeur ajoutée, ajoute celui qui conseille plusieurs médias. « Nous avons une responsabilité à proposer un contenu de qualité, impossible à confondre avec celui des IA, et il y a un public pour ce contenu », confirme Bruno Patino .
Rapidité technologique contre lenteur juridique, l'enjeu de la régulation
Désinformation, plagiat, protection des données personnelles, responsabilisation des plateformes... Le nombre et l'ampleur des problèmes juridiques liés à l'IA ne cessent de croître, et le législateur peine à tenir le rythme.
(…)
Pour y parvenir, le Conseil de l'Union européenne a voté un Règlement sur les services numériques, applicable dès 2023 pour les très grosses plateformes. Il prévoit, entre autres, l'obligation de distinguer les contenus auxquels l'utilisateur a choisi de s'abonner et ceux que la plateforme lui recommande. ..
(…)
Au sujet de la propriété intellectuelle, notamment. Car il ne faut pas oublier que ChatGPT, aussi agile soit-il, n'invente rien. Pour fournir un discours cohérent, il doit piocher dans les données sur lesquelles il s'est entraîné, sans toujours les mentionner et sans jamais rémunérer leurs auteurs. « On pourrait éventuellement imaginer un système d'exclusion de certains sites Web, comme celui d'un média ou d'une revue, de la base de données de ces IA génératives,propose Samir Merabet. Mais alors on s'expose au risque qu'elles ne s'appuient plus que sur des sources douteuses... »
Reste la délicate question de la responsabilité en cas de désinformation. En l'état actuel du droit, celle du créateur d'une IA peut être engagée seulement s'il est prouvé qu'il a poursuivi une entreprise malveillante, et celle des plateformes si elles ont eu connaissance d'un contenu illicite. « L'Union européenne travaille activement à la résolution de ces problèmes »,rassure Samir Merabet. Asma Mhalla, elle, invite à ne pas se reposer seulement sur un système coercitif . « La loi est aussi indispensable qu'elle est insuffisante,estime la chercheuse. L'entrée en scène fracassante de ChatGPT a fait souffler un vent de panique, mais nous allons apprendre à nager en eaux troubles et peu à peu à vivre avec. »
Claire Guillot s’intéresse elle à un autre aspect, celui de la production d’images et partage ses réflexions dans Le Monde,« Le photojournalisme face aux chimères de l’IA », le 21 septembre 2023 :
Avez-vous vu, au printemps, ces images étonnantes d’Emmanuel Macron pourchassé par des manifestants ? Ou manifestant contre sa propre loi de réforme des retraites ? Des scènes qui n’ont jamais eu lieu, mais qui ont circulé sur les réseaux sociaux, produites par des intelligences artificielles (IA) génératives. Les progrès fulgurants de ces technologies, bon marché et faciles d’accès, telles que DALL-E, Midjourney ou Stable Diffusion, ont stupéfié par leur capacité à créer des images proches des photographies. « C’est comme si on habitait dans le multivers : chacun peut inventer sa version alternative de la réalité », analyse David Fathi, un artiste qui travaille sur le sujet (The Machine Seems to Need a Ghost , L’Artière, 144 pages, 40 euros).
Avec Midjourney, il a créé et publié sur son compte Instagram des images du président aux prises avec des manifestants. Une expérimentation qui a démontré la puissance des illusions de ces images, mais aussi leur côté incontrôlable : dans l’une de ses images, l’IA avait, sans qu’il l’ait demandé, coiffé d’une casquette nazie un policier à l’arrière-plan. Puis il a retrouvé cette image postée, sans son accord, sur un site d’extrême droite pour illustrer un article…
La montée en puissance des IA génératives, opérées par des entreprises comme OpenAI (qui détient aussi ChatGPT) ou Stability AI, a créé un choc majeur chez les photojournalistes. Au point qu’un débat sur ce thème a été organisé par le journaliste Gilles Courtinat lors du festival Visa pour l’image, en septembre, à Perpignan. « Très vite, les derniers défauts des IA génératives seront corrigés, et on ne pourra plus faire la différence avec la photographie », alerte Jean-François Leroy, le directeur du festival, qui s’est amusé à recréer avec Midjourney certaines photos de la précédente édition. « C’était bluffant. Et ça ne coûte rien, donc la tentation est grande de les utiliser », se désole-t-il.
Conséquences bien réelles
Dans les faits, les médias utilisent déjà quotidiennement les IA pour nombre de tâches : suggestion d’articles, traduction, indexation… et les photographes ne sont pas en reste. « L’intelligence artificielle est dans les boîtiers photo depuis des années , a rappelé, à Perpignan, Benoît Tabaka, secrétaire général de Google France. L’autofocus, l’ajustement des lumières, la retouche automatique, c’est de l’IA. »
Mais les images générées par IA font peur. Parmi les inquiétudes, la crainte que le public confonde ces images inventées avec de vraies photos, avec des conséquences bien réelles.
(…)
Des ONG ayant pignon sur rue ont aussi utilisé les IA, non sans susciter la polémique : comment prétendre dénoncer des faits avec des images déconnectées de ces mêmes faits ? Après avoir illustré à l’aide d’une IA les violences policières en Colombie, en avril, Amnesty International Norvège a fait machine arrière et a dépublié sa campagne. Récemment, plusieurs médias ont décidé d’un moratoire : Les Echos , Le Parisien ou Franceinfo ont mis au point des chartes dans lesquelles ils s’interdisent de publier des images des IA génératives – sauf si c’est le sujet de l’article. Le Monde travaille, de son côté, à une adaptation de sa charte d’éthique et de déontologie.
Certains photographes documentaires se sont toutefois risqués à expérimenter cette technologie.
(…)
Crise de confiance
A Perpignan, Alexandre Lavallée, cofondateur de Passeport IA, organisme de formation spécialisé dans le domaine, a relevé l’opacité généralisée qui entoure le fonctionnement des algorithmes et les données utilisées pour entraîner les IA, les fameux datasets. « Les algorithmes travaillent à partir de millions d’images sur Internet, rappelle-t-il. Or, Internet est totalement biaisé – notre culture visuelle est scandaleuse ! La correction de ces biais est l’un des plus gros enjeux actuels de l’IA. »
La question des datasets touche une autre corde sensible chez les photographes : le droit d’auteur. Car les IA sont entraînées à partir de millions d’images, sans autorisation ni rémunération…
(…)
Mais, chez les photojournalistes interrogés, les appréhensions liées aux images de l’intelligence artificielle tiennent avant tout à la menace qu’elles représentent, selon eux, pour l’information, cœur de leur métier. L’approche des élections américaines fait craindre que de tels outils facilitent l’interférence de puissances étrangères. Déjà, les partis politiques, aux Etats-Unis, les utilisent pour discréditer l’adversaire. L’équipe du républicain Ron DeSantis a publié, en juin, une image montrant Donald Trump embrassant le docteur Anthony Fauci, ancien conseiller de la Maison Blanche pour le Covid-19 et bête noire des conservateurs – une scène qui n’a jamais eu lieu.
(…)
Dans ces IA génératives, les photographes et les spécialistes d’images voient une nouvelle menace face à la crise de confiance que traverse la presse. L’historienne Marie Peltier, qui étudie le complotisme, confirme que les images sont un pilier de la propagande, en raison de l’engagement du public qu’elles suscitent : « Elles sont, depuis vingt ans, un support idéal dans la complosphère. Le but étant de créer une désensibilisation du public, une confusion, d’instiller le poison du doute pour empêcher l’empathie et l’identification aux victimes. » Pour autant, la chercheuse assure que la désinformation n’a pas besoin de l’IA générative : « On peut discréditer des photos existantes, les nier, les mettre en doute. C’est ce qui s’est passé après la publication des images du massacre des habitants de Boutcha par les forces russes, en 2022. »
(…)
Renforcer la fiabilité
De leur côté, les agences et les médias ont pris le parti de renforcer la fiabilité de leurs propres photographies. Reuters a ainsi créé un programme pilote avec le laboratoire Starling, de Stanford (Californie), et l’entreprise Canon pour que chaque modification d’une photographie produise un nouveau fichier et soit enregistrée dans une blockchain. « Etant donné que la menace vient de la technologie, la meilleure réponse est technologique, veut croire Rickey Rogers. Le but étant de fournir un système où l’on peut vérifier les images et renforcer la confiance dans les médias. »Une initiative qui s’inscrit dans la Content Authenticity Initiative, de la société Adobe, qui regroupe des médias et des entreprises de la tech dans le but de combattre la désinformation.
Google, qui possède plusieurs outils d’intelligence artificielle générative (Bard, Imagen) ainsi que la plate-forme YouTube, a aussi développé des solutions pour marquer avec une empreinte, un watermark(« filigrane »), les fichiers créés par IA. Et imposé que toutes les publicités utilisant des IA génératives l’annoncent désormais clairement sur ses plates-formes.
Mais les réponses techniques sont-elles suffisantes face à une technologie toujours plus puissante ?
Nous vous laissons poursuivre vos lectures que vous pourrez compléter par l’écoute des très nombreuses émissions consacrées à ce thème sur Radio France.
En 3 minutes, nous vous suggérons :
openai crée la discorde entre les différents groupes de presse
IA et médias... ne pas se précipiter !
Et pour une écoute plus longue :
Intelligence artificielle : cauchemar ou révolution ?
Enfin, le site de l'Observatoire du journalisme s’intéresse à la thématique.
En complément, vous pouvez lire
HARTRON Ghislaine, RAULIN Antoine, « L’intelligence artificielle dans le secteur de l’information et de la documentation : défis, impacts et perspectives », I2D - Information, données & documents, 2022/1 (n° 1), p. 8-12.
TEYSSOU Denis, « L’intelligence artificielle face à la désinformation : problème autant que solution ? », I2D - Information, données & documents, 2022/1 (n° 1), p. 66-72.
Enfin, en guise de conclusion, nous vous signalons dex publicatiosn récentes :
Intelligence artificielle, culture et médias / sous la direction de , Véronique Guèvremont
sous la direction de , Colette Brin, 2023 : "Les nouveaux outils conversationnels ou générateurs d’œuvres créées par l'IA soulèvent des interrogations. À d'autres égards, l’IA est source d’opportunités pour la culture et les médias. Ce livre est un guide pour la réflexion et un marqueur (benchmark) pour mesurer l’évolution de ces travaux dans les années à venir".
La fabrique du sens à l'ère de l'information numérique : enjeux et défis : actes de H2PTM'23, 18, 19 et 20 octobre 2023, Valenciennes-Arenberg Creative Mine / coordonnateurs Imad Saleh, Nasreddine Bouhaï, Sylvie Leleu-Merviel et al., 2023 : "Des communications autour des questions liées au sens et au traitement de l'information à l'heure où les sociétés sont hyperconnectées. L'intelligence artificielle et la désinformation sont notamment abordées".