En juin dernier, une enquête de la VRT a révélé que plusieurs articles publiés par différents magazines, dont le magazine « ELLE », avaient été signés par de faux profils de journalistes générés par l’intelligence artificielle (IA). Après la révélation, les profils ont été supprimés et les articles portent désormais la mention « Ce contenu a été généré à l’aide de l’intelligence artificielle », les magazines reconnaissant une erreur et affirmant avoir modifié leur méthode pour davantage de transparence.
Le Règlement sur l’IA, adopté le 13 juin 2024, impose aux fournisseurs et déployeurs d’IA des obligations de transparence (article 50).
L’objectif de ces obligations est de protéger le public, prévenir la désinformation, et assurer la conformité au RGPD, tout en laissant des exceptions pour les usages légaux liés à la sécurité publique.
Quelles sont les obligations spécifiques pour les fournisseurs d’IA ?
- Les fournisseurs doivent informer les personnes qu’elles interagissent avec une IA,sauf si cela ressort clairement du point de vue d’une personne physique normalement informée et raisonnablement attentive et avisée, compte tenu des circonstances et du contexte d’utilisation.
Il s’agit, par exemple, des cas de recours à un chatbot de type GPT, Mistral ou Copilot par des personnes.
Cette obligation ne s’applique toutefois pas aux systèmes utilisés légalement pour la prévention ou la détection d’infractions (police, justice, etc.), sauf s’ils sont mis à disposition du public pour permettre de signaler une infraction pénale. - Les fournisseurs de systèmes génératifs (texte, image, audio, vidéo) doivent :
- Marquer clairement les contenus générés ou manipulés par une IA (dans un format lisible par machine).
- S’assurer que ce marquage est fiable, interopérable et techniquement solide, en fonction de la technologie et des coûts, afin d’éviter un masquage trop facile ou une disparition en cas d’utilisation sur certains outils de lecture.
Cette obligation ne s’applique pas aux :
- Systèmes d’IA remplissant une fonction d’assistance pour la mise en forme standard ou ne modifiant pas de manière substantielle les données d’entrées fournies par le déployeur ;
- Systèmes d’IA dont l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière.
Quelles sont les obligations spécifiques pour les déployeurs d’IA ?
- Lorsque le système d’IA est un système de reconnaissance des émotions ou d’un système de catégorisation biométrique, les déployeurs doivent :
- Informer les personnes exposées au fonctionnement du système;
- Respecter la législation sur la protection des données (RGPD et règlements associés).
Cette obligation ne s’applique pas lors d’une utilisation à des fins de prévention ou de détection des infractions pénales.
- Lorsque le système d’IA est un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage (deepfakes), les déployeurs doivent indiquer que les contenus ont été générés ou manipulés par une IA.
Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière.
- Lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue, les obligations de transparence se limitent à la divulgation de l’existence de tels contenus générés ou manipulés d’une manière appropriée qui n’entrave pas l’affichage ou la jouissance de l’œuvre.
- Lorsque le système d’IA génère ou manipule des textes publiés dans le but d’informer le public sur des questions d’intérêt public,les déployeurs doivent indiquer que le texte a été généré ou manipulé par une IA.
Cette hypothèse vise spécifiquement l’exemple des articles publiés par les magazines cité ci-dessus.
Cette obligation ne s’applique pas dans les situations suivantes :
- lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière;
- lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial ;
- lorsqu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu.
Comment se conformer à cette obligation de transparence ?
Ces informations doivent être communiquées aux personnes concernées de manière claire et reconnaissable au plus tard au moment de la première interaction ou de la première exposition au système d’IA.
Notre conseil :
L’utilisation d’outils IA par les entreprises est devenue une nécessité afin de demeurer compétitif.
En tant que fournisseur d’outils IA, il est nécessaire de configurer les outils d’IA destinés à interagir directement avec les personnes, afin que les obligations de transparence soient correctement mises en œuvre.
Il est également nécessaire de définir une politique d’usage de l’IA ainsi que d’assurer une formation du personnel, lorsque les membres du personnel ont la qualité de déployeur d’outil d’IA et ce afin que l’usage de l’IA ne puisse être effectué d’une manière préjudiciable à l’entreprise
Le département Creactivity se tient à votre disposition pour vous accompagner dans l’encadrement de l’usage de systèmes d’IA au sein des entreprises et organisations. Nous proposons d’ailleurs différents packs de conformité. Les informations sont disponibles via le lien suivant : Pack Règlement IA (AI Act) – Lexing et Pack Atelier Politique IA (AI Policy) – Lexing
Auteurs : Anne-Valentine RENSONNET et Alexandre CRUQUENAIRE, avocats chez Lexing