Newsletter #5:  Intelligence artificielle et journalisme

Drucken

Édito Susan Boos, présidente du Conseil suisse de la presse

L’édition de mai du magazine « Lisa Kochen & Backen » des éditions allemandes Burda a fait date. Elle n’a rien de particulier, sinon qu’elle a été rédigée par une intelligence artificielle, comme l’a relevé la « Süddeutsche Zeitung ». Personne n’a testé les 99 soi-disant recettes géniales de pâtes pour gourmets qu’elle contenait. Peut-on faire ça ? 

Le code de déontologie des journalistes comporte des règles claires concernant de nombreuses questions que soulèvent les programmes tels que ChatGPT et consorts. La « Déclaration » indique que les journalistes s’engagent à :

« ne publier que les informations, les documents, les images et les sons dont l’origine est connue (d’eux) ; ne pas supprimer des informations ou des éléments d’information essentiels ; ne dénaturer aucun texte, document, image et son, ni l’opinion d’autrui ; donner très précisément comme telles les nouvelles non confirmées ; signaler les montages photographiques et sonores ». Ces prescriptions sont précisées dans les directives relatives à l’usage des sources et des images.

Le principe suivant s’applique en matière d’intelligence artificielle comme de manière générale : 

➤        les journalistes sont toujours pleinement responsables des contenus qu’ils publient, quels que soient les outils qu’ils utilisent. 

La transparence est primordiale :

➤        les journalistes sont tenus de faire la transparence sur l’emploi d’outils d’intelligence artificielle générant des images dans le cadre de l’élaboration de leurs articles. 

Il en va des textes générés de manière artificielle comme des photos : les lecteurs doivent au moins savoir que ces textes ont été rédigés par un outil et non par un être humain. Les éditions Burda ont omis d’informer leurs lecteurs que le cuisinier était en fait une intelligence artificielle. Les recettes ne sont pas des textes journalistiques. Sinon, il s’agirait d’une atteinte au code de déontologie. Le Conseil allemand de la presse s’est déjà prononcé sur une affaire ayant trait à l’intelligence artificielle. Le magazine féminin « Die Aktuelle » a publié un article sous le titre « Michael Schumacher: Das erste Interview! » (Michael Schumacher : la première interview !), article qualifié de «Welt-Sensation» (un événement mondial). Le magazine a prétendu que le coureur automobile s’était tenu à disposition pour des questions pour la première fois depuis son grave accident de ski. Le Conseil allemand de la presse est parvenu à la conclusion mi-juin que le magazine avait violé le principe de vérité. Il a noté que la rédaction n’avait indiqué que dans le dernier tiers de l’article que les prétendues réponses du coureur étaient le fait d’une intelligence artificielle. Selon lui, induire à ce point les lecteurs en erreur était de nature à décrédibiliser la presse ».

La Suisse n’a pas connu jusqu’ici de cas comparable. Aucune plainte n’a encore été déposée au Conseil suisse de la presse en la matière. Cependant, l’utilisation d’outils d’intelligence artificielle pose question. Le Conseil suisse de la presse mène des débats intenses à l’interne en vue de déterminer si les directives et la « Déclaration des devoirs et des droits du/de la journaliste » doivent être adaptées, et si oui de quelle manière. 

Diverses maisons de presse suisses se sont déjà fixé des règles pour l’usage de l’intelligence artificielle. Le Conseil suisse de la presse s’en félicite, mais voudrait élaborer des directives uniformes pour tous. 

Newsletter 5