L'Arcom réunit des experts sur les impacts de l'intelligence artificielle dans les domaines de la création et de l'information

Publié le 14 octobre 2024

  • Intelligence artificielle
  • Création et production
  • Plateforme Numérique
  • Cinéma
  • VàD
  • SMAD
  • Internet
  • Télévision

    L'Arcom organisait, lundi 14 octobre à partir de 15h, au siège de l'Autorité, des conférences et tables rondes sur les usages et impacts de l'IA dans la communication audiovisuelle et numérique. Des échanges à revoir sur le site de l'Arcom et sur les réseaux sociaux.

    L’Arcom avait lancé, au mois de septembre 2023, une mission consacrée aux impacts de l’intelligence artificielle (IA) dans la communication audiovisuelle et numérique. Les technologies d’intelligence artificielle occupent en effet une place croissante au cœur de l’activité des acteurs régulés par l’Autorité, tant dans le domaine de la création audiovisuelle et artistique que dans celui de la création et de la diffusion de l'information.

    Mais quels usages sont d’ores et déjà en vigueur en France au sein des acteurs du secteur ? Et quels constats généraux et sujets clés ressortent des travaux de la mission de l'Arcom ?

     

    Revoir l'événement IA de l'Arcom

    Présentation des conclusions de la mission de l'Arcom sur l'IA, keynotes et tables rondes, ... L'Arcom organisait, lundi 14 octobre, au siège de l'Autorité, à Paris, un moment d'échanges dédiés à l'intelligence artificielle, en présence de Roch-Olivier Maistre, président de l'Arcom, d'Antoine Boilley, membre du collège de l'Arcom et président du groupe de travail "Création et production audiovisuelles", et de Benoît Loutrel, membre du collège de l'Arcom et président du groupe de travail "Supervision des plateformes en ligne".

    Découvrez le programme.

     

    Revoir l'événement ci-dessous :

    Session d’ouverture par Roch-Olivier Maistre, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

    Bonjour à tous, merci d’être si nombreux pour cette réunion. Nous voulions partager les réflexions du régulateur sur l'usage et les conséquences de l'intelligence artificielle dans les domaines que nous régulons, donc le domaine de la communication audiovisuelle et numérique. Chacun sait ici que l'émergence, le développement rapide des outils d'intelligence artificielle dite générative sont porteurs de transformation profondes, sur notre façon d'informer, mais aussi de créer, de consommer les contenus audiovisuels. Ce sont des nouvelles technologies qui sont en réalité au cœur de l'activité des acteurs que nous régulons. Donc c'est important pour l'ARCOM, c'est ce qu'on essaie de faire depuis six ans, de prendre la mesure de l'impact de ces technologies sur nos métiers, les métiers des entreprise que nous régulons pour nourrir une réflexion prospective sur l'avenir du secteur, accompagner au mieux les acteurs, adapter la régulation à ce nouvel environnement. C'est ce qui a motivé mon souhait de lancer une réflexion sur le sujet. J'avais demandé à Benoît Loutrel, qui préside le groupe de travail consacré à la régulation des plateformes en ligne, ici présent, Antoine Boilley qui présente le groupe de travail sur le volet culturel de la régulation, donc les sujets de création cinématographique et musicale, de conduire une réflexion sur le sujet, ne pas inventer des choses nouvelles, mais entendre tous les acteurs du secteur pour se faire, nous, régulateur, une juste appréciation de l'impact de ces technologies et la façon de mieux les appréhender à l'avenir. Je veux les remercier tous les deux pour leur investissement, leur engagement pour conduire cette réflexion, pour remercier aussi tous les opérateurs qui ont prêté leur concours, les éditeurs, les plateformes, les interlocuteurs que vous êtes, nombreux, qui ont participé à cette réflexion collective et partager cet instant de restitution collective. Aussi remercier chaleureusement les équipes de l'autorité, on ne le fait jamais assez, je le dis souvent, c'est une des plus belles administrations que j'aurais servie dans ma carrière avec beaucoup de savoir-faire, de compétences, Pauline Combredet-Blassel, directrice générale adjointe, qui a coordonné ces travaux et Didier Wang, chef du département des données, des technologies et de la prospective. Une direction qui produit un gros travail d'analyse, les points sur lesquels je souhaitais mettre l'accent. Apporter un regard, une vision transversale sur les sujets du secteur, avec le regard que nous pouvons avoir. Le développement des usages numériques a bouleversé le paysage, c'est peu de le dire. Le développement de l'IA générative sera d'une ampleur comparable. Et cela pose donc la question: comment adapter la régulation à de telles transformations? Les débats, on l'a vu avec le développement européen sur l'intelligence artificielle, les débats sur les évolutions technologiques opposent souvent le passé, l'avenir, la précaution et l'innovation. Pourtant, les techniques peuvent évoluer, naturellement être remplacées et quand on regarde bien les choses, les grands principes qui fondent la régulation restent eux-mêmes intemporels. La boussole de la régulation, de l'ARCOM, est en réalité, si on regarde bien, la même dans le champ du numérique et dans le champ du visuel. Pour nous, c'est assurer cet équilibre subtil et fin qui rend la question passionnante entre garantir, d'un côté, une liberté publique fondamentale, et vous le savez, je me suis très souvent exprimé sur cette question durant les six dernières années, j'y suis attaché car on ne protège jamais assez cette liberté fondamentale dans nos démocraties, mais de l'autre, aussi assurer la protection des publics. C'est cette balance que nous appliquons dans le champ de l'audiovisuel et dans le champ du numérique. Les mêmes questions vont se poser avec le déploiement de l'intelligence artificielle. On ne peut pas, si les principes sont les mêmes, on ne peut pas réguler de la même façon ces champs. On ne peut pas réguler les plateformes numériques comme on régule l'audiovisuel. Le monde audiovisuel reste un monde fini avec un nombre d'opérateurs identifiés et nous le faisons chaque semaine avec des réunions du collège. Pour les acteurs du numérique, c'est très différent. Il faut imaginer, et c'est tout l'objet du règlement européen sur les services numériques, inventer une nouvelle forme de régulation et on a la chance, tous, collectivement, d'être sur un continent qui ouvre la voie, qui déplace les lignes. C'est un moment particulier où on quitte une rive, on la voit s'éloigner et on ne voit pas encore la rive vers laquelle nous allons atterrir, mais elle est là, se dessine progressivement sous nos yeux. C'est tout l'enjeu de l'adaptation, de la régulation. C'est pour nous un enjeu d'adaptation à la régulation aux évolutions, sans les brider, sans non plus les subir. Les asymétries de régulation existent entre les acteurs traditionnels de la sphère du média et les grands acteurs du numérique. On l'a souvent relevé dans nos travaux. Je pense à l'étude sur l'évolution des ressources publicitaires des médias traditionnels à échéance 2030. Mais on voit qu'on peut les appréhender, la directive de 2018 qui sera revue par la nouvelle Commission européenne, on on a pu appréhender ces grandes plateformes par abonnement qui sont maintenant, ça ne paraissait pas évident au moment de la directive, qui font partie du périmètre de la régulation comme les médias traditionnels. Pour l'IA, dans nos secteurs et je laisserai les deux tables rondes développer le point, on voit deux thématiques qui vont pas s'imposer à nous: la question de l'information, comment garde-t-on une information honnête et rigoureuse permettant d'éclairer un débat public dans un univers démocratique, dans notre espace démocratique? Et puis, la création d'autre part, comment ces outils qui sont déjà en action pour faciliter le travail des créateurs ne viennent pas menacer des principes fondamentaux, notamment la protection des auteurs? Au-delà de ces deux questions éclairées par les deux tables rondes de cet après-midi, plusieurs questions se posent. D'abord, comment favoriser la confiance? Ce qui veut dire, comment trouver des procédures, des process, comme on dit aujourd'hui, pour mettre en oeuvre des pratiques éthiques, dans une logique de transparence? C'est tout ce qui est au coeur, en réalité, du règlement européen sur l'intelligence artificielle, qui proportionne les obligations selon les risques que ces différents outils peuvent faire courir à l'utilisateur. Mais cette question de la confiance est pour nous centrale. On sait que sur l'information, la défiance est aujourd'hui très forte à l'égard des médias, y compris des médias traditionnels. Il faut donc, collectivement, qu'on trouve une solution sur le sujet. La deuxième question qui se pose à nous, c'est l'information. Comment maîtriser ces outils? Comment s'adapte-t-on aux enjeux de l'intelligence artificielle? A la fois pour les professionnels, pour les journalistes, tous les créateurs du secteur qui interviennent dans nos domaines, mais aussi pour le grand public. Il faut que les citoyens, les pouvoirs publics, le régulateur, c'est pour nous un enjeu très important, qu'on arrive à monter en compétences pour appréhender ces outils, pour appréhender leurs compétences et arriver à nous adapter. Et puis, la troisième question, bien évidemment, c'est comment mettre ces innovations technologiques au service de nos métiers, je veux dire au service du régulateur, de la régulation? C'est un sujet sur lequel le directeur général de l'ARCOM, à ma demande, a engagé une réflexion. Nous avons d'ores et déjà des pistes sur lesquelles nous travaillons, elles ne sont pas encore tranchées et arbitrées, mais on voit que ces outils, pour nous, pour l'exercice des missions qui sont les nôtres, étendues ces dernières années, ces outils peuvent rendre nos tâches plus simples, faciliter notre action. Et en même temps, soulever aussi des questions que le régulateur doit bien évidemment regarder avec beaucoup d'attention. Donc c'est une réflexion qui est, à ce stade, en cours. Alors, cet après-midi, on a prévu d'organiser deux tables rondes. La première va être organisée par notre plus jeune collaborateur au sein du collège de l'ARCOM, Antoine Boilley, avec la participation de Marianne Carpentier, directrice de l'innovation de New One Studio. La grand reporter, Solène Chalvon-Fioriti, présélectionnée pour le prix Albert Londres, sur un documentaire réalisé avec l'intelligence artificielle: Nous, jeunesses d'Iran. Il y aura également, David El Sayegh, directeur général adjoint de la Sacem, avec qui nos échanges sont fréquents et réguliers, ainsi que Samuel Kaminka, président d'AnimFrance, je ne l'ai pas aperçu... Au temps pour moi. Et l'autre table ronde, elle, sera pilotée par Benoît Loutrel, consacrée à l'impact de l'IA sur les médias de l'information, elle accueillera mon ami et collègue de la cour des comptes, Fabrice Fries, le PDG de l'agence France Presse, Cichi, directrice adjointe de l'information du groupe TFI et Florent Latrive, directeur adjoint de l'information à Radio France. Et entre les deux tables rondes, une keynote de la professeure Alexandra Bensamoun, qu'on ne présente pas, qui est avec nous cet après-midi, qui a beaucoup travaillé sur ces sujets, que je remercie pour sa présence parmi nous. Ces échanges seront passionnants et pour engager la discussion, je donne la parole à Pauline Combredet-Blassel et Didier Wang qui vont vous présenter les principales conclusions des travaux conduits ces derniers mois.

     

    Présentation des conclusions de la mission de l'Arcom sur l'IA par Pauline Combredet-Blassel, directrice générale adjointe de l’Arcom et Didier Wang, chef du département Données et technologies à la direction des études, de l’économie et de la prospective de l’Arcom.

    Pauline, Didier. - Bonjour à toutes et à tous, merci pour votre présence aujourd'hui à nos côtés et pour votre intérêt aussi. Durant cet présentation, revenir sur le déroulé de notre mission sur l'intelligence artificielle, sur les cas d'usage observés et sur les constats qui ont permis d'identifier les sujets clés sur lesquels nous reviendrons. La raison d'être de cette mission vient d'être évoquée, mais l'objectif était de dresser un état des lieux des usages concrets de l'IA aujourd'hui dans les secteurs régulés par l'ARCOM et d'autre part, évaluer dans quelle mesure le régulateur peut avoir un rôle à jouer vis-à-vis de ces nouvelles technologies. Pour cela, une trentaine d'auditions et entretiens avec des acteurs du secteur public, privé, dans l'audiovisuel, la musique, les titulaires de droit, les journalistes, en complément des rencontres avec les spécialistes de l'intelligence artificielle, une veille continue. Avec la participation de plusieurs directions de l'ARCOM, donc je remercie les interlocuteurs, les participants avec lesquels nous avons échangés. Les apports de cette mission sont multiples pour l'ARCOM: au-delà de nous permettre d'acquérir une meilleure compréhension des enjeux et réaliser l'état des lieux des pratiques en cours, les travaux ont fait émerger des constats dont certains sont rassurants, mais aussi des points de vigilance qui nécessiteront un suivi particulier de l'ARCOM sans doute. Au-delà, les échanges ont permis d'alimenter notre propre réflexion sur les usages dans l'intelligence artificielle, les usages du régulateur. Pour présenter succinctement les cas d'usage et concrets de l'IA remontés, on a opté pour une analyse par support, les médias éditorialisés, puis les médias algorithmiques et selon deux domaines. Nous aurons l'occasion de revenir sur ces cas d'usage durant les tables rondes et une version plus complète de la présentation est disponible en ligne pour elles et ceux que ça intéresse. Pour les médias éditorialisés dans le domaine de la création, on relève que l'IA intervient à toutes les étapes des cycles de vie des projets, des usages qui vont au-delà des preuves de concept, donc évidemment, elle aide à l'écriture des projets, en stimulant la créativité des auteurs. Il y a la maîtrise des projets. Pendant la post-production, les décors qui peuvent être générés avec l'IA et les outils propres à l'animation. Également la modification de la voix des personnages. Mais également la création d'éléments marketing pour mettre en avant les œuvres. L'IA intervient également dans les différents métiers de l'information avec des usages plus prudents pour conserver la confiance du public. Ça améliore la veille journalistique en facilitant le fact checking, la recherche documentaire, la possibilité de compiler une grande masse d'information, il y a aussi la génération de résumés pour les articles. Les usages mixtes au sein de l'IA pour les médias, pardon, au sein des médias éditorialisés, dans la création, l'information, c'est le séquençage des contenus, le doublage, la traduction automatique, avec un impact déjà sensible. Le formatage des contenus, le recadrage ou la création de résumés, ça s'appuie de manière croissante sur l'IA, notamment dans le domaine sportif. Des avatars virtuels peuvent aussi faire office d'animateurs sur certains programmes. Cela aide les éditeurs à mieux plateformiser leurs contenus, y compris à l'international. Et enfin, les médias algorithmiques, comme les grandes plateformes numériques, utilisent l'IA pour gérer les énormes quantités de contenus mis en ligne par les utilisateurs. Pour autant, ces dernières années, les progrès de l'IA ont permis de mieux analyser les contenus publics, leur pertinence. Des agents conversationnels, des filtres pour enrichir les expériences sur les plateformes. L'IA permet aussi de mieux modérer les contenus problématiques, les publications indésirables sur les plateformes. Aux côtés des médias humains et algorithmes qui fonctionnent eux de manière mécanique, évoquons les médias du troisième type, c'est-à-dire synthétiques, les services qui créent des contenus de toute nature pour les proposer sur des sites Internet dédiés, sur des plateformes. Ces nouveaux médias questionnent car sur les médias éditorialisés, ce sont les personnes qui créent le contenu, à l'inverse, les médias algorithmiques ne produisent pas les contenus diffusés, ceux-ci étant générés par les utilisateurs, donc ils ont une responsabilité limitée. Les médias synthétiques génèrent leur propre contenu, plus ou moins original, voire de manière totalement algorithmique. Ça ressemble au média éditorialisé, mais sans auteur ni journaliste, nous y reviendrons probablement durant la table ronde. Pour résumer les constats réalisés par la mission: les attitudes face à l'intelligence artificielle varient assez fortement selon les acteurs rencontrés, de l'inquiétude pour certains, le remplacement par l'IA, la crainte de la désinformation, et la pensée que l'IA pourrait par principe régler tous les problèmes. Second point, en toute logique, les avis divergent selon les métiers. L'IA peut être perçue en tant que menace concurrentielle, déstabilisante, la question des atteintes au droit d'auteur et le risque d'une sur-régulation. Troisième grand écart, selon les secteurs, les usages de l'IA peuvent être relativement expérimentaux encore, alors que d'autres pratiques sont déjà bien étables et depuis des années. Dernier contraste, l'écart entre les usages et le bruit médiatique. On a pu constater l'année dernière beaucoup de couverture dans la presse sur la question des scénarios écrits par l'intelligence artificielle alors que la pratique est relativement marginale aujourd'hui. Alors que d'autres pratiques comme la catégorisation de grands volumes de données est déjà plus répandue depuis des années et fait peu parler d'elle. De façon plus générale, nous observons que l'IA brouille les frontières entre les différents médias, favorisant l'exploitation d'un même contenu sous différents médias et supports. Des stratégies responsables sont favorisées, sans volonté de remplacer l'humain. Il y a des régulations nationales et internationales pour encadrer certaines pratiques de l'IA, en termes de propriété intellectuelle, de responsabilité juridique. Ultime point, les grands principes éthiques de l'IA: l'importance de la transparence, de la supervision humaine, le respect de la propriété intellectuelle, sont globalement en accord avec les valeurs promues par l'ARCOM, comme la protection du droit d'auteur. Malgré tout, plusieurs défis demeurent, technologiques, stratégiques, humains, sociétaux, avec chacun leurs propres enjeux. Je laisse Pauline présenter les sujets clés que nous avons choisis de mettre en lumière à l'issue de ces travaux. - Au terme de cet exercice, on a identifié des sujets, en lien avec nos missions, ou des sujets plus larges où on estime notre concours utile. Je ne sais pas faire fonctionner la télécommande... Je l'ai coupée! Ouf! Le premier sujet, c'est celui des métiers et modèles d'affaires. Didier a expliqué dans les cas d'usage comment l'IA est porteuse d'activités pour le secteur, mais aussi de risque. On a relevé le risque que certains acteurs, finalement, décrochent et ne suivent pas le rythme de l'innovation, le risque que certains acteurs soient très emportés par la mécanique d'innovation et que ça soit au détriment de métiers ou savoir-faire essentiels, ou le risque, tout simplement, que les acteurs utilisent de façon abusive l'intelligence artificielle. Sur ce sujet, à ce stade, on n'estime pas avoir d'actions immédiates à mener, mais peut-être une vigilance accrue, tout d'abord pour poursuivre la veille de l'évolution des usages qu'on a mise en place depuis une par dite année, et se poser régulièrement la question sur quand nos textes doivent évoluer. A ce stade, ce n'est pas le sens de nos conclusions car nos textes reposent sur des grands principes, pas dépendants des technologies, mais on s'y tiendrait si cela était nécessaire. Le deuxième sujet... L'algorithmique, je n'ai pas... Ça ne marche pas... On aurait dû développer une IA peut-être! Ce n'est pas grave, je vous raconte. Le deuxième sujet... Je vous laisse voir si vous arrivez, je continue. Le deuxième sujet, c'est la concurrence et la souveraineté, qui vient dès qu'on parle d'IA bien sûr. Dans notre cas, le risque est assez évident, le marché de l'IA se structure autour de grands acteurs du numérique, très présents sur les marchés adjacents. donc un risque pour les acteurs nationaux de subir des phénomènes de dépendance. A ce sujet-là, on n'estime pas davantage que ça relève à proprement parler de la compétence de l'ARCOM, mais en revanche, on tient à travailler de près avec les autres autorités indépendantes et participer aux travaux de l’État sur le sujet pour apporter notre concours et défendre notre secteur. Le troisième sujet qui est pour nous d'une importance capitale, c'est la reconnaissance des contenus. Pour pouvoir agir efficacement, il faut savoir et face à des systèmes qui traitent, modifient, génèrent des quantités de contenu, on ne peut pas savoir sans avoir des mécanismes de transparence associés, comme dans le domaine de la création pour avoir de tels outils pour savoir si un contenu protégé par le droit d'auteur a été utilisé, pour savoir à quel point on a utilisé l'IA, c'est vrai dans le domaine de l'information où on a besoin d'outils pour savoir si le contenu est authentique ou non, s'il a bénéficié d'une IA ou non, et dans quelle proportion. Et tracer une limite claire entre l'IA qui s'inscrit dans le cadre européen construit, de celles qui ne seraient pas conformes et auxquelles il faudrait avoir un œil particulier. L'ARCOM a des compétences issues de la directive droit d'auteur car on doit évaluer la capacité des outils d'évaluation de contenus pour reconnaître les œuvres protégées. On compte particulièrement apporter notre expertise aux travaux et réflexions en cours. Quatrième sujet, les médias synthétiques que Didier a présenté: on voit bien le problème que ça peut poser, le fait de reformuler, reformater l'information, ce n'est pas révolutionnaire, mais ils peuvent le faire à une échelle qui peut interpeller, donc avoir des inquiétudes sur le terrain économique, car ils peuvent phagocyter le marché, à quel point ils peuvent favoriser le phénomène de désinformation. Sur ce sujet, on considère que nous avons des travaux complémentaires à mener, pour avoir une première évaluation de l'impact économique de ces nouveaux médias sur le secteur des médias traditionnels et puis aussi avoir une analyse un peu plus transversale du cadre juridique dans lequel ils pourraient s'inscrire car différentes hypothèses sont possibles. Dernier sujet, pas des moindres, la question environnementale. C'est un sujet qu'on documente de plus en plus, avec de plus en plus d'attention à l'ARCOM. L'IA n'y échappera pas. L'utilisation de ces systèmes peut nécessiter d'importantes puissances de calcul invitant à la rationalisation et la sobriété. Dans le prolongement des travaux menés déjà en la matière, on entend prêter une attention particulière, d'un part, à la logique d'écoconception, inciter au développement d'IA frugales et à la sensibilisation auprès des acteurs régulés, voire le grand public à terme car comme c'est le cas avec les usages audiovisuels en général, on sait que le recours à l'IA ne doit être fait que lorsqu'il s'avère nécessaire. Je laisse la parole à Antoine pour la table ronde. -

     

    Table ronde 1 - IA et création

    Bonjour à toutes et tous, je vous laisse prendre place. On a un peu de retard, et l'IA va nous aider à gérer le conducteur de cet après-midi. C'est un réel plaisir de vous retrouver cet après-midi. Quand on a lancé il y a quelques mois avec mon camarade Benoît, la mission autour de l'IA, on a souhaité se concentrer en priorité sur les enjeux du recours à l'IA dans les domaines de la création. Vous savez que cette création joue un rôle moteur et central au sein de l'ARCOM, au travers de deux boussoles intangibles, la promotion et la protection de la création. Un grand merci à nos quatre invités d'avoir accepté de venir en parler très concrètement cet après-midi et de façon très pragmatique. Marianne Carpentier tout d'abord bonjour, directrice de l'innovation chez Newen studio il faut que le duplex marche. Solène Chalvon-Fioriti est-ce que vous nous entendez bien? C'est bon... Là, j'ai un moment de solitude que vous partagez avec moi. Donc Solène Grand reporter, réalisatrice, le président en parlait, du documentaire Nous, jeunesse(s)d'Iran, documentaire présélectionné dans la catégorie prix audiovisuel. J'espère ça va marcher. David El Sayegh, directeur général adjoint de la Sacem, et Samuel Kaminka, président de Samka Groupe et d'AnimFrance. Solène, est-ce que vous nous entendez? Est-ce qu'on peut mettre le son plus fort? Ça marche ou pas? Allô? C'est parfait. Chère Solène... On vous voit. Je vous préviens, je peux me permettre de le dire, Solène a un petit test positif au Covid, ce qui fait qu'elle n'est pas avec nous. Donc, merci d'être en duplex. On vous voit, mais j'aimerais savoir si on vous entend. On va se laisser une minute, je suis absolument désolé... Allô? On va essayer de rétablir la connexion. Je vous remercie de me prévenir si jamais ça remarche. Merci à nouveau Solène, si vous pouvez rester quelques moments. On voulait parler de ce doc qui permet de parler très concrètement de l'intelligence artificielle pour justement flouter le visage de témoins et les protéger et finalement renforcer la force de frappe du propos au niveau éditorial. Samuel, je me tourner vers vous. Pour commencer, j'aimerais qu'on puisse s'intéresser à un secteur qui est le plus impacté au niveau international, au niveau du recours à l'intelligence artificielle, c'est bien entendu l'animation. Et ma première question, c'est avec votre double casquette, patron d'une boîte de production, et président d'AnimFrance, et au regard de votre expérience, c'est-à-dire toutes ces révolutions technologiques et numériques, bien gérées par le secteur de l'animation, au fond, comment vous percevez cette mutation de l'IA dans l'animation? - Cher Antoine merci. Je m'apprêtais à enchaîner avec le propos de Solène en disant que l'intelligence artificielle c'était à la fois le meilleur et le pire. Et que c'est comme toutes les grandes innovations, depuis l'imprimerie, jusqu'à l'électricité, finalement, c'est le meilleur selon ce qu'on en fait, et le pire selon ce qu'on en fait. Et plus les outils sont puissants, plus ils nous renvoient à notre responsabilité collective et politique. Dans le secteur de l'animation, bien sûr, ça suscite des craintes, mais on voit très bien les opportunités que ça peut représenter. Si on fait un pas de recul, on a connu dans le secteur de l'animation des grandes révolutions technologiques ces trente dernières années. Et ce qu'on constate, c'est que chaque fois il y a la peur de la machine, le logiciel va-t-il remplacer l'être humain? Et systématiquement la réponse est non. C'est en tout cas le retour d'expérience des trente dernières années. Cela modifie la façon de travailler, mais ce qu'on a constaté avec la révolution numérique, c'est que finalement ces progrès technologiques ont toujours été in fine au service de la relocalisation du travail en France, d'une plus grande maîtrise artistique et d'un grand progrès dans la production value des œuvres. On peut voir dans l'intelligence artificielle un vecteur de progrès très important. Alors évidemment, il ne faut pas se voiler la face sur les risques encourus. Il faut avoir des objectifs clairement en tête. Mais aujourd'hui, on voit l'intelligence artificielle depuis longtemps dans nos métiers, par exemple la gestion des particules. Quand vous avez des personnages, une grande quantité de personnages qui dévalent une colline, on n'anime plus les personnages un par un, on les traite comme des particules autocalculées par la machine. La slide était très précise. On a toutes les étapes de la production, on voit des outils d'IA arriver, de manière efficace. Peu utilisés par les studios pour des raisons de clarté des droits ou de risque sur les droits, ou d'inadaptation à notre secteur, car il faut du temps pour adapter ces outils. Mais je pense aux outils de traduction par intelligence artificielle, c'est un vecteur de communication plus grand. On travaille beaucoup en animation sur la coproduction internationale, cela fluidifie les échanges de pouvoir utiliser l'IA dans les traductions au quotidien, mais on en touche extrêmement vite la limite. Dès lors qu'on vient à des notions assez fines de compréhension, car une phrase est un objet complexe et une image est un objet extrêmement complexe, pétrie de beaucoup d'intentions différentes qui nécessitent des capacités cognitives, l'appel au corps, à la mémoire, des choses que l'intelligence artificielle ne possédera jamais. On voit par exemple à l'étape du scénario, de la continuité dialoguée, rien ne remplacera un traducteur ou un auteur de qualité, dès lors qu'on est sur des tâches véritablement très créatives. - Donc, ça veut dire que quand on reprend la slide de tout à l'heure, on a vu avec Benoît dans nos auditions que l'IA était présentée comme utilisée comme une aide et dans une logique d'humain augmenté. Est-ce que vous pouvez nous dire, forts des expériences que vous avez eues, c'est que pour le moment on en est à cet état de l'art, et que rien ne viendra remplacer le génie de l'intelligence humaine? - On peut espérer que la bêtise humaine ait beaucoup d'avenir comparée à l'intelligence artificielle. Mais ce qu'on peut voir dans les séances entre scénaristes par exemple, c'est qu'il y a des binômes souvent d'auteurs qui se renvoient des idées, qui partagent des savoirs, et aujourd'hui, qui se font des propositions. Quand l'un est fatigué, l'autre prend le relais. Et aujourd'hui, on voit beaucoup d'équipes d'auteurs composées d'un binôme humain et d'une IAG qui elle ne se fatigue pas, qui a une mémoire plus grande, qui peut avoir une capacité de proposition, qu'ensuite les auteurs vont traiter, choisir, questionner, beaucoup plus en profondeur, et vont faire un tri que l'intelligence artificielle ne pourra pas faire. Je ferai néanmoins un distinguo tout de même, entre ici, on est entre gens très en pointe sur le terrain de la création, c'est-à-dire que par définition on travaille sur des œuvres prototypiques. On est incapable de prédire le succès, et on ne sera jamais capable de le prédire, car il est composé d'une dose d'imprévu, de surprise, de transgression d'interdit qu'aucun système artificiel ne sera capable de prédire et inventer. Néanmoins, il y aura des secteurs de la création, comme pour des séries d'animation par exemple, je pense que tout ce qui est œuvre extrêmement à haute valeur ajoutée créative, il n'y aura pas plus que de l'assistance à la création de la part de l'intelligence artificielle. Sur des œuvres beaucoup plus à formules, dont les écritures sont déjà algorithmées, là, l'intelligence artificielle aura un impact plus fort. Comme par exemple des programmes de spin off de programmes très créatifs, on va pouvoir, avec des formules assez simples, fabriquer des programmes courts, tirés de programmes qui seront des produits dérivés de programmes eux hautement créatifs. - Pour tout ce qui concerne des programmes à haute intensité de production et fort impact artistique, vous êtes optimiste quand on se projette par rapport à l'importance de l'humain? - Oui, je faisais le clown en disant que la bêtise humaine avait de beaux jours devant elle, mais j'entends les bêtises qu'on peut dire en séance entre auteurs pour se faire rire, se surprendre, et d'où viennent les idées imprévues qui font la grande qualité des œuvres. Et je ne crois pas qu'il y aura un saut qualitatif intrinsèque de ce qu'une intelligence artificielle est capable de faire. Je pense qu'une intelligence artificielle nous surclasse déjà dans la résolution de problèmes spécifiques. En revanche, pour apporter une réponse adaptée à des situations particulières et sur la capacité à capter un certain air du temps et être surprenant, rien ne surpassera jamais l'être humain. Et on voit très bien d'ailleurs aujourd'hui, les IA sont très pertinentes dès lors qu'on leur demande de faire de la parodie et de recréer des choses qui existent déjà. Dès lors qu'il s'agit d'innover, l'IA est perdue. Par définition, car on lui demande de se baser sur quelque chose qui n'existe pas. - Et dans un contexte aussi concurrentiel que celui de l'animation aujourd'hui à l'international, vous êtes bien en phase avec l'idée que le recours à l'IA, même partiel, sur un certain nombre de tâches répétitives, à ce stade n'est pas plus négociable? - Aujourd'hui, ça ne sert à rien d'essayer d'arrêter le train ou il va nous passer dessus. Il y a déjà des logiciels qui servent à créer des décors utilisés par nos artistes. Certaines fonctions d'IA sont déjà intégrées et permettent de calculer les marges, un certain pourcentage de marge autour de l'image. Ça dit bien ce que c'est. C'est de la création marginale par rapport à la création que peut faire l'artiste. L'artiste dessine 90% de son image et l'IA vient compléter sur les bords. C'est un gain de temps, de productivité. Et même pour l'artiste, le 15% de bords tournants sur la marge de l'image n'est pas la partie intéressante à créer qui sollicite le plus son imaginaire. Et ce type d'outil, le pari qu'on peut raisonnablement prendre, c'est que ça va nous aider à pousser la créativité plus loin et la production value. - Merci Samuel, je reviendrai à vous tout à l'heure. Je vais faire un autre test, ne riez pas s'il vous plaît, avec Solène, je crois que cette fois ça marche? C'est brillant. On va faire comme si on ouvrait la table ronde. On voulait absolument en montant ce débat commencer à planter le décor du recours de l'IA dans la création au travers d'un cas pratique et d'un programme exemplaire à tout point de vue et je mesure mes mots. Je veux bien entendu parler de votre documentaire Nous jeunesse d'Iran diffusé sur France 5. Est-ce que vous pourriez peut-être dans un premier temps revenir sur la genèse de ce projet? Et sur ces réflexions menées avec votre équipe qui vous ont amenée à vous dire qu'il faut fabriquer des visages en ayant recours à l'IA pour mieux protéger nos témoins, et sans doute peut-être pour renforcer la puissance de votre récit? - J'espère que vous m'entendez et que vous me voyez tous. Je m'excuse de ne pas être là, je suis malade, et si je tousse, je vous demande pardon par avance si c'est disgracieux. La genèse de ce projet, c'est une genèse sans intelligence artificielle. Je suis grand reporter, j'ai habité en Afghanistan, j'ai toujours fait ce métier pour le terrain, et je n'avais aucune raison de passer par les moyens de l'IA. Ça s'est fait par accident. C'est un gros accident qui nous conduit au départ vers l'IA. Je suis d'autant plus bien placée pour dire que dans mon cas l'IA a été un cadeau. C'est un film qui se monte au moment du soulèvement des femmes pour leur liberté. Je demande un visa à L’Etat iranien qui me le promet. Il en donne à des confrères. Les évènements s'emballent, il y a des personnes mises en prison. 17000 jeunes finissent en prison. Et mon visa m'est refusé, alors que j'ai déjà sur place des gens avec qui je sais que je peux tourner. J'ai identifié des familles, chez les écolos, les LGBT, j'avais un gros travail de préparation. Et à ce moment-là, je me dis que ce sont des situations qui arrivent, j'ai moi-même grandi en dictature, je sais ce que c'est que travailler sous la contrainte, avec l'obsession de la protection des sources, ce qui a d'ailleurs motivé en premier lieu l'IA dans mon cas. Ensuite c'est devenu presque un propos politique. Mais d'abord une question de protection des sources. Car en post-prod, quand vous faites des documentaires avec un peu de budget, on peut faire de très jolies choses. Mais j'avais beaucoup de problèmes, je n'étais pas sur place pour filmer, les cadreurs étaient en prison. J'avais un tournage peu professionnel, avec des mecs qui filment sur téléphone, c'est moche, ça bouge. Donc les choses un peu jolies, il fallait oublier. Et au départ, je travaillais avec des hackers iraniens pour intégrer certains milieux, ils m'ont montré qu'avec des flous légers, dans des pays qui mettent le paquet sur la cyber surveillance, attention, ce n'est pas encore la Russie mais ça le devient. Mais les flous légers se décroisent. Et on peut désormais matcher facilement un visage. Et j'ai vu un film américain extraordinaire, qui raconte l'exfiltration de jeunes gays tchétchènes par un groupe de militants russes. Quand ils sortent de Tchétchénie, ils retrouvent leur visage. Et là, j'ai compris que la magie de l'IA pour les visages, c'est que ça agit comme un masque, mais vraiment comme un masque un peu magique. Je ne sais pas si parmi... On n'a pas passé d'extrait du film, mais on aurait pu voir que le visage qu'on ajoute il permet de recréer les expressions de votre visage. Si je cligne de l’œil, si j'ai un sourire, si j'ai une expression d'effroi, le masque n'a pas la même expression. C'est là que je dis que c'était un cadeau, car tout d'un coup la contrainte de la protection des sources devient une façon d'envisager quelqu'un, sans le révéler. Quand on a compris ça, on a mis le paquet, et quasiment tous les témoins du film sont passés à l'intelligence artificielle. - Est-ce que tout au long du processus de réalisation et de production, comment ça s'est passé avec vos différents partenaires et notamment France Télévisions? Et est-ce que vous avez senti à un moment, car c'était quand même une grande première sur le marché français, des craintes de leur part qu'on aurait pu tout à fait comprendre? Comment vous avez réussi à convaincre l'ensemble de vos partenaires de jeu sur ce documentaire? - J'ai tout entendu. Mais de tout le monde. D'abord, je vous écoutais tout à l'heure, l'intelligence artificielle ce que j'entends maintenant c'est l'intelligence. On sait que l'intelligence elle est maléfique ou elle a le courage du bien. Mon cas à moi, ça a été de convaincre tout le monde. Ma productrice qui m'avait suivie sur plein de films compliqués, elle avait fait une drôle de tête, France Télé a demandé également à voir les images. Et en regardant les images, il y a une... Il y a quelque chose qui s'explique tout seul, qui s'illustre tout seul. C'est une idée qui fait peur, il y a le côté robotique. Il y a eu des allers et retours, il a vraiment fallu expliciter. Mais je me suis toujours défendue sur le principe... Sur deux choses, j'ai toujours pensé que nous tous, autant que nous sommes, quand on regarde la télévision et que quelqu'un est flouté avec une voix derrière, personne n'interroge la véracité de cette scène. Personne ne se demande si le son ou l'image ont été pris différemment. On est toujours persuadé que la voix qui émane du floutage c'est la voix de la personne qui parle. En fait, on n'a aucune raison d'y croire. En montage on fait ce qu'on veut. En fait, on le croit pourquoi? Parce qu'on a confiance. D'où la charte de confiance. Et France Télé est arrivé avec une charte qui n'était pas encore élaborée, mais le projet donnait la possibilité d'une jurisprudence et là ils ont tenu... Vous avez vu, c'est très siglé avec un gros carton rouge en permanence, c'est énoncé par la narratrice du film elle-même, en expliquant qu'elle ne peut pas montrer son visage pour des questions de sécurité. Mais l'IA ce n'est pas l'histoire, elle n'a rien à voir avec l'histoire, mais elle nous accompagne du début à la fin du film. - Elle est un des éléments de cette histoire. Ce qui nous a frappé au moment de la sortie du documentaire, en amont, c'est-à-dire vos prises de parole, le dossier de presse, tous les éléments de langage autour du doc, beaucoup de pédagogie vis-à-vis des professionnels et du grand public. Et puis, vous l'avez évoqué, la diffusion avec une insertion très importante et à plusieurs reprises dans le film de panneaux pour bien signifier que les visages avaient été générés par IA. Comment vous avez géré ça? Et aussi, quand même en gérant le risque peut-être, malgré tout, que la forme, c'est-à-dire le recours à l'IA, prenne un peu le pas sur le fond. - D'abord on prenait un risque. On ne pouvait pas le savoir. Je remarque que beaucoup de gens sortent du film en me disant: j'ai oublié l'IA dans le film. Car ça reste un film en sous-marin dans une société iranienne, alors qu'aucun film ne sort de l'Iran. Je crois que c'est l'histoire qui nous emporte, et des visages qui sont très proches de l'existant. Ils sont un peu robotisés, esthétisés. On a pris le risque sans trop savoir. Je me souviens même que France Télé, au moment de la diffusion du film, ils avaient quand même des craintes par rapport à la réception. D'abord des craintes de la part de la critique je pense. Moi-même, je connais mes confrères et consœurs, je sais qu'il y a des réactionnaires, des gens plus ouverts, je sais qu'à très juste titre, l'IA suscite de grandes peurs, parfois de grands fantasmes. Mais en fait, ça s'est fait step by step. D'abord, on a eu beaucoup de chance, car on a eu une très belle promo. Ils avaient même demandé à ce qu'on prenne un huissier France Télé, tellement ils avaient la crainte qu'on se fasse attaquer sur: si ça c'est fake, qu'est-ce qui dit que le reste ne l'est pas? Donc, en fait, on s'était prémuni, pour finalement très peu de problèmes. Et c'était même une surprise pour moi. Je pensais vraiment avoir plus de problèmes. Ne serait-ce que sur un point qui n'est pas assez considéré par les diffuseurs, un point de journalistes, le problème c'est quoi? C'est que quand on fait comme je l'ai fait des visages, qu'on génère des visages à l'intelligence artificielle, évidemment que je ne sais pas le faire, je n'ai pas cette compétence. Évidemment que celui qui l'a fait pour moi n'est pas un journaliste. C'est là qu'il y a un vrai problème. C'était là mon principal frein. Et la raison pour laquelle j'ai eu du mal à mener ce projet à bien. Tout d'un coup vous appelez un mec qui fait des pubs pour Cartier par exemple, qui est un des seuls gars en France qui sait utiliser cette technique de l'IA pour les visages, et il ne veut pas être connu, ne veut pas donner son nom ou son visage, car il a peur, à très juste titre, d'être poursuivi dans le cas où les Iraniens, les Russes se rendent compte qu'il y a une personne en France qui a des images extrêmement sensibles sur son serveur. Et ce type n'est pas protégé par une grosse machine de prod. Donc, c'était très compliqué. C'est là que les chartes doivent aller. Ce n'est pas simplement la signalétique à la diffusion, c'est aussi comment on peut intervenir dans une machine journalistique de vraiment très haute sécurité. C'est-à-dire que le cameraman a été pourchassé par les agents de la révolution islamique, c'était très dangereux de filmer en Iran. Comment faire intervenir quelqu'un qui n'est pas journaliste dans un process comme ça? Comment on le sécurise? Je n'avais aucune façon de savoir si ce type était éthique ou pas. Et je me suis reposée sur les collègues dont je vous parlais, les Américains, qui avaient fait ce film deux ans plus tôt. Mais il faut quand même identifier trois, quatre personnes de trois, quatre boîtes qui font qu'on est capables d'avoir des bonnes conditions de sécurité. - Merci d'ouvrir sur cet aspect formation, et on parlera de ce sujet dans la table ronde avec Benoît sur l'info. Solène, on va poursuivre, mais n'hésitez pas à rester encore quelques minutes. Merci de ce témoignage et ce partage d'expérience. Vous l'avez vu, ça permet de mettre sur la table une préoccupation importante, la charte de bonnes pratiques dont vous parliez, en parlant du sujet des compétences et aussi la signalétique. Ce qu'on s'est dit dans la mission: quand un contenu utilise de façon très importante l'IA pour servir son propos, il faut faire, comme vous l'avez fait, accompagner le public pour ne pas le flouer. A tout à l'heure Solène. Je me tourne vers vous Marianne Carpentier, chez Newen Studios car il se trouve, je crois, que chez Newen studios et peut-être chez Capa, vous avez eu un certain nombre d'expérimentations sur des docs avec de l'IA. Pouvez-vous nous en dire quelques mots et pouvez-vous partager quelques partages d'expérience? - Je suis ravie qu'on ait eu le témoignage de Solène qui a été très inspirant pour nous. Deux choses me viennent en tête: d'abord, un tout petit peu avant, elle disait tout à l'heure Solène que l'usage qu'on en fait est soit bienveillant, soit malveillant, en France, les usages sont arrivés car on est bienveillant, sinon, on avait des stops. Avant le confinement, je voulais jouer avec des deep fake, c'est-à-dire changer le visage de quelqu'un. Je n'ai pris que des stops de la prod, des réalisateurs, des producteurs, personne ne voulait en faire car c'était une technologie de pirates donc, c'était très, très mal vu. Il était hors de question que je joue, même sur un POC, pas question de faire quoi que ce soit. Ça ne nous empêchait pas, en off, dans les salons de post-production de certaines de nos séries qui tournent constamment, d'essayer des choses, de regarder ce que ça donnait. Quand le confinement est arrivé, on a une actrice sur l'une de nos quotidiennes est tombée malade et on n'a pas arrêté durant le confinement, on tournait en confinement. Donc elles ont continué à tourner longtemps. On devait soit arrêter la prod durant quinze jours, c'était le protocole à l'époque, pour qu'elle revienne, soit lever la main et dire: ça tombe bien, on a testé des technologies de changements de visage et comme on tourne les épisodes 10 par 10, il lui restait une séquence ou deux à tourner pour boucler un épisode donc soit on arrêtait le tournage, soit on la remplaçait dans les autres séquences, 14 je crois sur un épisode, retourner 12 séquences avec une autre actrice, et la sortir de la série. On s'est dit: non, on va faire tourner une autre actrice, qui ressemble à la première, avec les mêmes cheveux, et on va changer son visage avec celui de l'actrice originale. Les deux actrices étaient consentantes, d'accord, on a signé un cachet avec la seconde actrice, payée pour tourner deux séquences, en plus, elle a retourné dans un autre rôle vu qu'on ne voyait pas son visage à l'écran. Elle a été castée grâce à ça, elle est restée sur la série sur un autre rôle. Est arrivé ce cas d'usage et personne n'a rien vu du tout à l'écran. Il y a eu un peu de communication là-dessus car sur des séries comme ça, low cost entre guillemets, pas low quali, qui ne coûtent pas cher à la production, on pense qu'on n'a pas de budget, mais en fait, c'est là qu'on innove le plus en France. Elles sont sous contraintes très fortes ces séries. C'est parce qu'on a eu ce cas d'usage bienveillant, qui n'était pas prévu pour extraire l'actrice, que ça s'est passé. Ensuite, deuxième chose, oui, le travail de Solène a inspiré les équipes de Capa qui avait une problématique similaire, très peu de temps après la sortie de son documentaire, ils travaillaient sur un docu avec des gens de la DGSE, avec seulement des interviews dans le docu et on ne pouvait pas montrer leur visage, on ne pourrait pas utiliser leur voix, donc on se disait: est-ce qu'on peut faire ce docu? Avoir des voix transformées, modifiées durant une heure, ça ne sera pas possible, ça donnera quelque chose de pas digérable. On a utilisé la même technologie que Solène, on n'a pas utilisé de transformation de voix, on a utilisé un modèle de sécurisation des témoins plus fort, on a utilisé des voix générées par l'intelligence artificielle, qui conservent les émotions qui ne sont pas robotisées, on conserve ainsi les émotions, donc c'est plus agréable de sentir la peur, ce genre de choses. Après, on a joué avec des choses différentes, on a donc ramené de la créativité qu'on n'aurait pas pu faire sinon. Avec cette couche de protection, sur les visages et sur les voix, si je transforme juste avec un, je ne sais même pas le nom, un transcodeur, n'importe quel pirate peut le retourner et retrouver la voix source, donc ce n'est pas super protégé. Utiliser une autre voix qui n'a rien à voir, ainsi on ne retrouve pas la voix. Ensuite, le documentaire, ça a été hyper intéressant de commencer sur de la fiction low cost, puis du documentaire. Ce sont deux économies sous contraintes fortes. Ce sont des budgets très limités. Et donc, comme souvent, c'est là où il y a le plus de créativité dans les outils utilisés. Et donc, comme en animation, on va chercher à trouver comment bypasser les contraintes techniques. C'est souvent là qu'il y a le plus d'innovation. Le documentaire s'est vite saisi de ces outils-là. Comme tout le monde, on a de vrais questionnements sur les droits d'auteur, y compris comment les moteurs ont été entraînés, qui est propriétaires des images générées. Ça, j'ai bypassé en disant: si on veut jouer avec ces outils-là, utilisons-les pour la prépa, et pas la production. En France, on sait très bien fabriquer des séries, des docus, de l'animation, mais ce qui devient compliqué, c'est les vendre et les financer. Donc réfléchissons le financement pour faire ces contenus et utilisons ces contenus sur des documents pour financer et vendre ces programmes. Le documentaire a sauté dessus: si je peux faire l'affiche du documentaire avec un semblant de ce à quoi il va ressembler une fois fini, ça sera plus facile à pitcher. Ils ont allés très vite dans cette voie-là. Par exemple, un docu sur les catacombes, on a généré des images avec l'intelligence artificielle avec l'ambiance colorimétrique, pour simuler l'image, on va très loin avant même qu'une ligne ne soit écrite. Et aujourd'hui, on peut aller vendre le projet. - Je reviens sur la fiction: vous déployez une gouvernance en mode projet avec une charte éthique, vous testez des choses, vous en parlez avec les équipes, vous tirez des enseignements avant d'envisager la suite. Avec un exemple complémentaire en fiction, vous pouvez répondre à cette question? - Oui. Alors, voyant ces cas d'usage arriver, dès 2023, on a mis en place un comité de pilotage chez nous, chez TF1 pour encadrer tous les usages et ne pas les freiner, mais les encadrer, être au courant de tout ce qui se fait sur le terrain, parfois même planter des graines, et cadrer chaque usage en disant: là, ce n'est pas possible, là, tu veux générer une image, je vais prendre l'exemple de cat's eyes car c'est la tendance en ce moment, ça sera bientôt à l'antenne sur TF1, c'est un projet arrivé chez Newen très tôt car on a pris la distribution du projet avant qu'il soit écrit. Et très vite, on a voulu faire des préventes, sans script, sans visuel. On a dit au distributeur, regarde, on prend midjourney, qu'est-ce qu'on fait? Je veux trois filles en tenue moulante sur les toits de Paris. Au final, le visuel qu'on a généré... On a fait des tests, c'est un visuel qui a servi à financer la série, aller la prévendre dans certains pays, aller chercher des partenaires coproducteurs mais pas exploité. Le visuel qu'on voit un peu dans la presse, c'est le même visuel, sauf que c'est un visuel qui issu des images du tournage. Donc en fait, on s'est affranchi des problèmes de droits comme ça. Ce qu'on exploite commercialement, on le tire de ce qu'on a filmé et tourné. Très vite, on a eu du matériau pour financer des projets qui ne sont pas encore développés. Ça, c'est super intéressant. Après, on n'en est plus là. C'était l'année dernière. Là, on est plus avancés dans les usages, en fiction. Il y en a partout. Après, c'est ce que je disais. Il y en a partout, donc on cadre à mort. Aujourd'hui, si vous allez sur le terrain, vous allez voir les équipes de prod, le chef déco utilise des outils d'IA générative, en post-prod, partout, depuis longtemps. Les effets spéciaux, la génération des particules, du feu, c'est généré par l'IA depuis presque dix ans, ce n'est pas nouveau. Maintenant, quand on crée vraiment des concepts, des personnages from scratch, on ne peut pas s'autoriser à le faire donc on met vraiment un cadrage fort là-dessus. Mais ça ouvre des champs des possibles, ça ouvre aussi des possibilités d'exploitation en aval de la production, donc là, nous, j'ai donné des cas d'exemple sur l'amont. Mais en aval, sur l'exploitation de catalogues anciens, comme le documentaire qui n'est pas un secteur économique qui ramène beaucoup d'argent, on n'exploitait plus des catalogues de documentaires français qu'on a produits depuis les années 70 chez Capa. On a des docu super quali qu'on n'exploite pas car ça coûterait trop cher de les faire doubler en langue étrangère. Ils ont été vendus dans des pays à l'étranger, mais depuis, on a récupéré les droits et on n'en fait rien. L'IA a permis de les réexploiter, de créer un chaîne entière, de doubler en anglais. C'est du docu, de la voice over, donc un doublage spécifique, juste une voix, pas trop de calage de lipsync dessus. On sent que c'est robotisé, mais ce n'est pas très grave. Encore une fois, on peut mettre plusieurs voix différentes, utiliser des voix de personnes âgées, de jeunes. Et ça permet de faire de l'exploitation qu'on n'aurait pas faite avant. Je mets un warning sur cette partie car je sais que plein de personnes sont en angoisse sur ce sujet-là. Sur la fiction traditionnelle, on ne fera pas ça, sur le cinéma, on ne fera pas ça. La fiction est le jeu d'un comédien sera toujours plus fort que ce qui est fait avec l'IA. Les intentions humaines, sur le dessin, sur la voix, sur du jeu de comédien, ça se sent, ça se voit. Peut-être qu'un jour, ça ne sera plus le cas, mais il est hors de question qu'on touche à ça. On travaille avec des talents, des auteurs, des comédiens, des artistes, des réalisateurs. Ils ont un talent artistique. On travaille avec eux. Si ces personnes veulent intégrer l'intelligence artificielle dans leur méthodologie de travail, on est ouvert à ça et on les aidera à cadrer les usages de ce qu'ils font avec. - Merci Marianne. David, on se tourne vers vous maintenant. Un peu dans le prolongement de ce qu'on a dit sur l'animation, le secteur depuis vingt ans qui a su s'adapter à toutes les évolutions numériques, c'est bien entendu la musique. On aimerait bien avoir votre réaction par rapport à qui s'est dit sur cette table ronde depuis tout à l'heure, pour que vous nous donniez votre point de vue par rapport à tout ça. Au fond, l'IA, est-ce que c'est une mutation de la même intensité que le numérique ou on est encore dans une mutation de plus grande ampleur? Comment, vous, au sein de la Sacem, vous vous adaptez à tout cela? - C'est une très bonne question. J'ai 4H pour répondre! - Trois minutes. - Il y a deux questions importantes: celle que vous évoquez, si c'est un simple progrès technique ou une rupture. En matière de prédiction, ce qui est compliqué, c'est le futur, mais on voit quand même les choses évoluer rapidement. L'intelligence artificielle, ce n'est pas que des fonctions techniques qui existent déjà, comme le mixage, le mastering, la création d'instruments de musique. La technologie joue un rôle majeur, comme le cas du sampling. Je vous invite à regarder le documentaire sur DJ Medhi, vous voyez comment l'artiste a façonné son art. On sait que l'IA offre des possibilités, comme évoqué, encore plus fortes. Et vous avez aussi un enjeu très important, c'est celui de la découvrabilité car les contenus musicaux sont fabriqués simplement. Beaucoup de barrières ont sauté. A une ancienne époque, vous alliez dans un studio, ça coûtait cher. Les logiciels ont remplacé, et maintenant, vous avez des bedroom producers, des personnes chez eux qui produisent de la musique de qualité. Avec l'IA, ça s'est accentué de manière significative. Aujourd'hui, plus de 100000 titres nouveaux mis sur les plateformes et l'intelligence artificielle va accentuer ce processus de distinguer les œuvres. Ça sera un enjeu de découvrabilité. A tous les niveaux, l'IA est présente: l'aide à la composition, beaucoup d'outils permettent de créer des auteurs augmentés, mais aussi sur la distribution. Le positionnement de la Sacem est assez simple: quand il y a une évolution technologique, il faut l'embrasser, préserver les intérêts de ceux qui nous ont confié la gestion de leur droits. Vous le disiez Monsieur, l'IA parodie encore énormément aujourd'hui. Mais il n'y a pas d'IA performante sans base d'entraînement constituée de vraies œuvres. Bien sûr, il y a des dispositifs qui bénéficient d'une certaine autonomie, capacité d'adaptation, une possibilité de déclinaison dans des applications. On voit que la phase d'apprentissage est renforcée, mais sans œuvre sur laquelle l'IA s'entraîne, il n'y a pas d'IA pertinente. Si on se passe de créateurs, on mettra des gens au chômage, on leur fera perdre leur emploi, leurs ressources, mais même l'IA ne sera pas intéressante. Elle tournera rapidement, mais vous ne pourrez pas améliorer les dispositifs, avec des gens qui vont repousser les limites de la création. Même d'un point de vue esthétique, créatif. Pour moi, l'IA a besoin de s'alimenter de vraies œuvres, de vrais auteurs. Face à cela, il y a d'abord un problème d'équité, c'est que si ces IA utilisent des œuvres pré-existantes, des interprétations d'artistes, il faut rémunérer ces personnes qui ont permis d'enrichir l'IA. Il y a un deuxième aspect très important, évoqué dans la présentation de l'ARCOM, c'est le souci de transparence. La nouveauté pour nous, en tant qu'organisme de gestion collective, avant, on a eu des évolutions technologiques, les sites Ugc, la radio, mais on pouvait identifier nos œuvres. Il y avait des problématiques de responsabilité juridique, de modèles économiques, mais vous alliez sur le service en ligne, vous pouviez identifier vos œuvres et vous pouviez négocier une licence car il y avait l'utilisation de vos œuvres. Aujourd'hui, on est face à une boîte noire car ce qui sort de l'IA, par définition, c'est différent de ce qui a été ingéré par la machine. Sans transparence, on ne pourra pas négocier des accords de licence avec les outils d'intelligence artificielle. Alors le régulateur a essayé d'anticiper ces problématiques avec le règlement sur l'intelligence artificielle. Je ne rentrerai pas dans le détail des dispositions techniques, mais l'objectif est double: assurer un niveau de transparence pour pouvoir sourcer les œuvres, pour dire à certaines IA, vous avez utilisé nos œuvres, venez négocier avec nous. Et ensuite, nous sommes dans un environnement mondialisé. Les acteurs ont été préemptés par les GAFAM et il faudra créer des dispositifs qui ne soient pas contournés en vertu de dispositions plus souples. Par exemple, la fouille de données qui est plus souple dans certains pays. On se doute que ces technologies, créées dans ces pays, peuvent être déversées sur le marché européen. Il faut être imaginatif et ne pas être détourné, avoir crée un dispositif inapplicable à ceux qui créent parfois des outils utiles, car on n'est pas contre l'IA... Nos deux enjeux, c'est la transparence et l'équité. Normalement, le régulateur nous a dotés d'outils, mais on verra s'ils sont suffisants. C'est ça la vraie question pour l'amont, pour comment régler le rapport entre les outils d'intelligence artificielle et ceux qui œuvrent auprès de la création. C'est le véritable pari. J'ai quand même certains doutes. On commence à entrer en discussion avec les entreprises d'intelligence artificielle. La plupart d'entre elles se situent hors de France, nous expliquent: à quel titre vous venez revendiquer une régulation européenne alors que tout se passe ailleurs qu'en Europe? Il y a un premier problème. Et un deuxième problème, c'est qu'elles disent on doit les croire sur parole: j'entraîne mon intelligence artificielle sur un nombre incalculable d’œuvres, je ne pense pas qu'il y en ait qui vous appartiennent. Si c'est le cas, venez nous indiquer très clairement vos œuvres et ne vous inquiétez pas, vu qu'on s'entraîne sur une multitude, vous serez déréférencé. C'est un problème éthique. Ça, c'est l'attitude que les hébergeurs pouvaient avoir il y a vingt ans. Ça a été corrigé par la directive sur le droits d'auteurs, mais on pouvait encore comprendre leur réaction, ils étaient passifs, ils hébergés des contenus pour d'autres personnes. Ils étaient un intermédiaire technique. Mais là, les outils d'intelligence artificielle sont tout sauf passifs, ils proposent des services qui visent à concurrencer des gens qui créent des œuvres avec leurs mains, leurs instruments de musique, leurs logiciels. Ce n'est pas le même cas de figure. Là, on est face à des gens qui prétendent, et c'est la promesse de l'IA, moi aussi j'ai des doutes sur cette capacité et sur la pertinence des modèles économiques déployés par les outils d'intelligence artificielle, on pourra y revenir, mais c'est là le problème. - Vous êtes quand même confiant au-delà des logiques d'optout? On va être en mesure de concilier ces problématiques de protection de la création, et en même temps la nécessité que ces outils puissent refléter toute la richesse de nos créations francophones? - Il y a en enjeu de diversité, je suis confiant, mais aussi très prudent. Je reste prudent sur la volonté d'entités qui sont là pour développer un business, de vouloir vraiment respecter les règles du droit d'auteur. Je pense que ça ne va pas se faire sans frictions. Et pour corriger l'asymétrie, il y a une véritable asymétrie. Aujourd'hui, c'est une boîte noire. Les œuvres sont exploitées pour en faire quelque chose d'autre. Je ne sais pas si ce quelque chose d'autre a une pertinence. C'est difficile. Dans la musique par exemple, on ne va pas se le cacher, parlons sans hypocrisie, il y a beaucoup de musiques qui sont fonctionnelles. Quand vous utilisez de la musique pour des documentaires, vous utilisez souvent des librairies musicales, l'empreinte de la personnalité, il y a un savoir-faire, je ne conteste pas, mais l'empreinte de la personnalité, vous avez quand même du mal à identifier le créateur de cette musique de sonorisation. Et vous avez beaucoup de cas de figure où il y a des créateurs qui vivent de cette musique qui sont menacés. Il y a des pans entiers de la création questionnés par l'intelligence artificielle. - Je passe la parole à Samuel Kaminka, je sais qu'il y a eu beaucoup de discussions ces derniers mois au niveau des syndicats de producteurs, est-ce que vous pouvez nous dire où vous en êtes de ces discussions? Notamment sur le volet des pratiques contractuelles en matière d'IA? - Il y a une question capitale qui vient d'être posée. Le monde de la production s'empare des aspects positifs que l'IA met à disposition. Maintenant, le propos essentiel c'est de se dire qu'on est aujourd'hui face à des entreprises gigantesques qui concentrent des efforts importants, et qui transforment un matériau de base et un matériau humain. Ils sont dans une position idéale, c'est une industrie transformatrice qui ne paie pas sa matière première. Beaucoup d'industrie de l'agroalimentaire pourraient en rêver. Quel boulanger ne paie pas sa farine? Il va falloir rentrer dans cette logique et les y contraindre. On voit qu'avec la logique du pays de consommation versus celui d'émission, on arrive à imposer des contraintes fortes aux GAFAM, et ça peut diriger des investissements et créer des obligations d'investissement à l'intérieur d'un système pour le rendre vertueux. Il n'y a pas de raison que ce monde échappe à la régulation. Ils se battront contre, ils ont des moyens colossaux pour le faire. Certains sujets se traiteront à Bruxelles, mais il faut que nous soyons extrêmement proactifs. Et d'ailleurs, il y a des premiers accords, en fait, ça va être une fusée à plusieurs étages. Un premier étage de la fusée vient d'être enclenché avec un certain nombre de clauses types qui sont en cours de rédaction et qui entre les auteurs et les producteurs nous donnent un droit d'information et d'autorisation réciproque sur les outils d'intelligence artificielle. On doit mutuellement s'informer et s'autoriser dans certains cadres précis à utiliser ces outils. Un deuxième étage de la fusée, on vient d'évoquer l'optout, mais se dire, ce qu'on produit comme matériau a une valeur, le travail des créateurs a une valeur, et il faut contrôler l'accès aux machines qui viennent puiser ces valeurs pour se nourrir. Elles viennent les puiser sur nos sites, mais aussi sur les sites des éditeurs de service. C'est une question qui nous englobent nous producteurs, dans laquelle il faut aussi mouiller les éditeurs de service, car sinon, les barrages qu'on pourra mettre à l'entrée seront inopérants. Une fois qu'on aura réussi à contrôler l'accès à nos contenus va se poser ensuite la question de comment on monnaie de manière équitable la valeur de ces contenus. On sait qu'aujourd'hui une image en IAG, ils sont capables de dire de quelles images elle est constituée. Malgré les écrans de fumée. Et on peut imaginer un système plus sophistiqué que la copie privée qui obéisse aux mêmes lois. - Je rebondis, car les éditeurs de services, je prends un peu leur défense, je pense que techniquement ce n'est pas faisable. Aujourd'hui, tout le monde sait que tout le monde est piraté. Même s'ils s'opposaient à ça, je ne vois pas comment ils peuvent empêcher que ça arrive. Je trouve ça plus pertinent de se pencher sur la question de ce qu'on régule après, une fois que ça a été fait, qu'avant. Car avant, je ne vois pas bien comment qui que ce soit peut regarder ce qu'il y a dans les moteurs et comment ils ont été entraînés. Ce sont des boîtes noires, et ils sont allés chercher leur contenu seuls sans rien demander à personne. Et je ne vois pas bien comment on va empêcher ça demain. Ce qui est arrivé dans la musique va arriver dans l'image, il va y avoir pléthore de contenu, et pas forcément super quali. Le rôle des éditeurs de services sera plutôt de ne pas mettre en ligne du contenu dégueu. Je prêche pour ma maison, mais notre rôle c'est diffuser du contenu éditorialisé, produit, qui raconte des choses, mais pas du contenu au kilomètre carré pour générer juste des écrans pub et faire de l'argent sur rien. Ce qui peut se passer dans la musique, c'est un peu la même chose. La musique a toujours deux, trois ans d'avance sur l'audiovisuel, donc, c'est une super idée de les suivre. Mais je ne vois pas comment on va pouvoir les empêcher de faire ce qu'ils veulent. On peut leur demander des sous... - Il va falloir conclure. Pendant que je vous tiens, on a vu quand même l'importance de la fiction chez Newen, les feuilletons quotidiens, des séries de rendez-vous. Il y a beaucoup de scénaristes qui travaillent sur ces sujets. On a vu le risque avec la grève aux Etats-Unis l'an dernier. Comment vous gérez ce risque par rapport à la fiction au sein de Newen? Et globalement, comment vous choisissez d'accompagner ces métiers, et plus globalement vos fournisseurs, votre éco système pour faire en sorte qu'on ne laisse personne au bord de la route dans cette mutation de l'IA? - Je suis hyper contente que vous posiez cette question, je vais le dire bien haut et fort, il y a plein d'auteurs dramaturges qui ont décidé que dans les quotidiennes, principalement parce que c'est de la production en mode industrialisé, ce qui est vrai, pour autant, notre rôle c'est de faire en sorte que ce soit de plus en plus beau à l'image, et c'est en cela que les technologies nous servent. Deux choses, il n'y a aucun projet de remplacer les auteurs par des machines, jamais cela n'a été évoqué. Tous les professionnels sont en pls à l'idée d'imaginer qu'on ne travaille plus avec des auteurs. Point 2, en fait, ce sont nos auteurs qui utilisent à fond les intelligences artificielles, mais pas du tout pour écrire, mais pour les accompagner, les challenger. Il y en a un qui a développé un chatbot maléfique pour le challenger sur toute idée qui sort. Pour qu'il lui dise, non, c'est nul, tu devrais faire ça. Ils se sont créé des compagnons de travail. On a été plutôt estomaqués de voir qu'ils l'utilisaient tous. Il n'y en a pas un qui n'utilise pas un moteur d'intelligence artificielle pour faire mumuse avec. Mais pas pour écrire ou générer des dialogues. - Et pour doubler? - Par exemple trouver une thématique sur une quotidienne qui a plus de 6000 épisodes, ça devient compliqué. Et avoir une intelligence artificielle qui est capable de nous dire, on a déjà parlé de l'écologie dans Plus belle la vie 275 fois, on va peut-être parler d'autre chose, ou d'une autre manière. Mais ça, c'est plutôt de l'analyse de données. Pour le doublage, je reviens à ce que je disais tout à l'heure, une voix humaine sera toujours mieux qu'une vois robotisée. Car les émotions qui passent à travers une voix humaine sont humaines. Et sur les quotidiennes on ne double pas, car on ne vend pas à l'étranger. Mais typiquement, c'est un cas intéressant, car on se dit qu'on pourrait les diffuser à l'étranger par exemple de manière un peu plus poussée. Mais plutôt que de les doubler, on les sous-titrerait. Je préfère cette utilité qui permet d'apprendre le français. En revanche, si je pouvais diffuser dans 15 langues différentes, c'est plutôt intéressant économiquement. - Merci, on aurait pu prolonger encore 30 minutes, mais il faut que je rende l'antenne. Merci d'avoir partagé ces expériences. Je vous rappelle, dans le cadre de notre mission, nos points cardinaux sur ces enjeux, c'est la transparence vis-à-vis du public, avec ce qu'on a évoqué sur la signalétique, les questions d'accompagnement et de formation des équipes et de la préservation et l'enrichissement des emplois et savoir-faire essentiels... - Pardon, juste sur le doublage, c'est hyper important, c'est touchy, on accompagne beaucoup nos prestataires. On travaille avec des prestataires qui font du doublage et sous-titrage depuis parfois 90 ans. Et on les accompagne pour qu'ils intègrent ces technologies dans leurs métiers, qu'ils accompagnent la transformation de leurs métiers et des salariés avec qui ils travaillent. Car ce n'est pas nous producteurs, distributeurs, diffuseurs, qui avons ces savoir-faire. - C'est mieux en le disant. C'est le respect du droit d'auteur et du code de la propriété intellectuelle. C'est l'encouragement des bonnes pratiques et modèles vertueux en matière d'utilisation de l'IA et acteurs et groupes régulés par l'ARCOM. Et c'est aussi, je regarde Bénédicte Lesage, la prise en compte de l'utilisation de l'IA dans la problématique globale et d'intérêt général de l'éco production. Merci, je passe tout de suite la parole à Alexandra Bensamoun qui va partager avec nous une keynote: l'IA partenaire de la création et de l'information.

     

    Keynote "L’IA, partenaire de la création et de l’information"

    Merci beaucoup. - Bonjour à tous. Cher Roch-Olivier Maistre que je ne vois plus, Monsieur le Président... Il est là. Chers membres dus collège, cher Antoine, cher Alban que je vois désormais régulièrement à l'Insp. Merci pour cette invitation, je suis ravie aujourd'hui d'être parmi vous. Ce titre se veut un peu provocateur aussi. J'avais envie de faire de l'IA un partenaire plutôt qu'un opposant. Et je crois que d'ailleurs c'est comme ça qu'il faudrait aujourd'hui tous le voir. Ravi de revoir Didier, Pauline, les équipes anciennes de l'Hadopi, toujours avec ce travail de grande qualité. D'abord pourquoi l'IA est opposée, est confrontée aujourd'hui au secteur des médias? Peut-être parce que le contexte est favorable à cette confrontation. A la fois le contexte de création, mais aussi le contexte d'information. Et vous reconnaissez ici un exemple de contexte de création avec Edmond de Belamy. Vous reconnaissez peut-être cette fausse publicité, cette deepfake de Joe Biden. Également avec Taylor Swift sur des images à caractère pornographique. Et sur ce réseau qui a été mis en lumière, réseau de propagande pro russe, qui en lumière par Viginum. On voit bien le contexte social, le contexte politique également. Le règlement européen sur l'intelligence artificielle a été l'occasion de fortes oppositions, notamment, fallait-il réguler versus innover? Comme si les deux étaient en opposition. J'avoue que ça me laisse toujours un peu perplexe. Surtout quand le législateur européen intervient sur le fondement du marché. Il crée un marché unique. Et donc, dans une version un peu schizophrénique, il créerait un marché, tout en étant anti-marché. Réguler est poser un cadre, être favorable à l'intelligence artificielle, mais préserver un certain cadre, car en Europe, nous avons un certain nombre de valeurs, et qu'il nous appartient, comme au régulateur, de protéger ces valeurs européennes. Donc une opposition assez stérile entre la régulation et l'innovation. Ensuite on s'est demandé réguler comment? Avec quelle normativité? Au début, on a plutôt basculé... On avait plutôt une faveur pour la soft law, les règles molles, l'auto régulation des acteurs. Et rapidement, on a basculé à la régulation par le législateur. Pour une raison assez logique, en réalité l'intérêt général ne relève pas des acteurs privés. L'intérêt général appartient au législateur, et il lui appartient de fixer les orientations appliquées par l'ensemble des acteurs ensuite. Et au niveau national, en France, un contexte politique un peu chargé. Je vois que j'ai mis la mauvaise version de mon PowerPoint... J'ai un décalage de 7 heures, je reviens d'Asie, je vois que je me suis trompée. Au niveau français, la premier ministre Elisabeth Borne avait nommé une commission ministérielle pour remettre un rapport avec une promesse et une commande assez haute, assez intéressante, on nous demandait de faire de la France un champion de l'intelligence artificielle grâce à nos recommandations. Je ne suis pas sûre qu'on ait abouti. Mais du point de vue de la création et de l'information, il y a quelques recommandations importantes dans ce rapport, notamment le soutien à la transparence, le principe d'autorisation et de rémunération qui sont des choses dont on reparlera, mais qui me semblaient importantes à rappeler comme grands principes. Et un contexte juridique qui nous fait également confronter l'intelligence artificielle et les médias. Contexte juridique au Etats-Unis, plus de 25 actions judiciaires, dont des class actions sur le sujet de l'utilisation d’œuvres non autorisées par les fournisseurs d'intelligence artificielle pour entraîner des modèles. Il y a déjà eu des décisions, notamment d'exclusion de la création. Mais plus largement, l'Us copyright office s'intéresse au sujet de la transparence, celui de la rémunération. Et a déjà rendu un premier rapport sur les répliques numériques. Et notamment sur l'utilisation de la voix et de l'image, comme on a pu le voir avec Taylor Swift ou le président Biden. En France et au sein de l'Union européenne, le contexte juridique a été assez heurté. Il y a eu du règlement européen sur l'IA, avec une mobilisation sans précédent des titulaires de droit des acteurs de la culture, qui se sont fédérés pour peser dans la discussion. Considérant qu'il y a une question existentielle. L'avenir nous le dira. La chose était suffisamment importante pour qu'on le signale et aussi qu'on y prête attention. Cette démarche a été réitérée pour dénoncer un certain nombre de comportements, et peser sur la discussion. Quand on imagine l'IA qui pouvait devenir un partenaire de la culture, c'est se poser deux questions. En amont c'est la question de la création, et en aval la question de l'information. En amont d'abord, ça c'est le cycle de vie d'une IA générative. Et pour créer un modèle d'IA, il faut des données qu'on va obtenir par webcrawling, webscraping. Beaucoup utilisent le répertoire, le common crawl pour récupérer des contenus. Vous avez des bases d'entraînement permettant l'entraînement des modèles. C'est indispensable. Et on appelle ça l'IA connexionniste. Elle est fondée sur l'apprentissage. On va donner au système des contenus. Le système va déconstruire ces contenus pour en extraire un certain nombre de règles mathématiques. Et ce sont ces règles que le système va appliquer pour générer du contenu. Et pour apprendre, il faut des masses de données. Il faut des contenus, et souvent des contenus culturels. Sur cette opération d'entraînement de l'intelligence artificielle, on considère, beaucoup considèrent qu'il existe une exception au droit d'auteur, au droit voisin, une exception adoptée en 2019 dans la directive marché unique numérique. En 2019, on était loin d'imaginer les modèles de fondation, les IA générative, ChatGPT, je me souviens très bien, en 2019, pour être intervenue sur d'autres dispositions de la directive, cette disposition est apparue par amendement, exclue dans l'étude d'impact. Quand elle est apparue, tout le monde disait: c'est pour les progrès, les progrès médicaux, ça veut servir aussi aux progrès médicaux, mais on n'imaginait pas les modèles de fondation, les grands modèles de langage, d'images en général. Et c'était quand même pendant un certain temps l'exception qui était en sommeil sans comprendre à quoi elle servait. Cela étant, cette exception, elle est très large car elle couvre tous les usages, quelle que soit la finalité, y compris la finalité commerciale, au bénéfice de tous les acteurs, public, privé, qui interviennent sur le marché ou pas, ou en matière de recherche appliquée par exemple. Et donc, elle était tellement large que les conditions accolées, comme l'accès licite au contenu, puis l'absence d'optout, du titulaire de droit. On en a parlé durant la première table ronde. Le titulaire de droit peut s'opposer. Vous avez une exception obligatoire. Les États membres devaient la transposer. Une exception obligatoire sur laquelle le titulaire de droit peut revenir. C'est-à-dire qu'il peut récupérer, finalement, son droit. Il peut y avoir un retour à l'exclusivité du fait de la volonté du titulaire de droit même si l'exception est là. C'est un mécanisme inédit. Cette exception s'applique majoritairement à l'entraînement des IA, même si c'est contesté par d'autres. Ce qui est évident, c'est qu'en 2019, on n'en avait pas conscience de cet usage, c'est clair. Maintenant, c'est vrai que le règlement européen renvoie notamment à cet article, au droit d'opposition. Il y a eu une question au Parlement européen pour savoir s'il fallait appliquer l'article 4. La réponse a été positive. Jusqu'à ce que la cour de justice dise que ça ne s'applique pas, on considère que cette exception existe, sous réserve des conditions. Là, les conditions, pour le coup, elles sont quand même assez compliquées à remplir, assez compliquées à respecter. Pourquoi? L'accès licite. Comment savoir si le fournisseur d'IA qui a utilisé les contenus avait un accès limite à ces contenus? Il y a déjà le sujet de ce qu'est un accès licite. C'est un accès sur abonnement, licité par l'article 17, donc un accès couvert par une licence, très bien. Mais on sait pertinemment que dans les bases d'entraînement, il y a des contenus piratés. C'est aujourd'hui avéré. Il y a même des images pédopornographiques dans des bases d'entraînement. Donc de manière très claire, on sait que le sujet même de l'accès licite, c'est une difficulté et surtout une difficulté à prouver. C'est-à-dire comment vous faites pour savoir si la condition a été remplie ou pas? Soit le fournisseur d'IA vous déclare ce qu'il a utilisé, l'accès qu'il a eu, soit c'est très compliqué de remplir cette condition. Ensuite, la condition du droit d'opposition: comment on le fait? Techniquement? Comment on le rend efficace l'optout. Il y a un certain nombre de méthodes qui commencent de plus en plus à se développer. Mais il n'y a pas encore de standardisation, donc comment on fait en l'absence de standardisation? Est-ce que ce n'est pas nécessaire qu'il y ait une réflexion sur une méthode d'optout efficace? Mais selon les contenus, ce n'est pas forcément la même manière de faire. La Commission européenne réfléchit aujourd'hui sur ce sujet et elle se demande même s'il ne faudrait pas en plus des méthodes d'optout créer un registre des optouts, en plus. Mais pas un registre solution unique, qui serait une solution alternative, supplémentaire, pour informer dessus. Là, c'est toujours pareil, il y a quelques semaines, j'avais une démonstration dons le cadre d'une mission, une démonstration, une mission sur la transparence, une démonstration par un acteur technique qui me montrait que parfois les contenus sont opposés, ont fait l'objet du droit d'opposition et pour autant, vous avez des robots qui passent outre et les récupèrent. Là encore, comment faire pour savoir si l'optout a été respecté? Comment faire pour savoir si l'accès est bien licite? Là, on a cette question de transparence. La directive de 2019, sa lecture était très difficile à vérifier car l'exception s'applique toujours. C'était compliqué à mettre en œuvre alors le règlement européen a imposé, selon ma lecture, une double obligation de transparence. Une première... En fait, deux obligations en silo. La première, c'est de mettre en place, pour les fournisseurs d'IA, donc de modèles, de mettre en place une politique de conformité. Un peu comme en matière de RGPD, une compliance pour respecter le droit d'auteur, les droits voisins et respecter l'optout. C'est intéressant car le fait que les fournisseurs d'IA doivent mettre en place cette politique by design, ça va peut-être pousser un peu ce processus de standardisation dont je vous parlais tout à l'heure. Ils devront apporter la preuve qu'ils sont conformes, qu'ils ont une politique interne conforme. Ça va peut-être engager un peu plus le dialogue sur la standardisation de l'optout. Ici, le bureau de l'IA, l'IA office, nouvel organe créé par le règlement européen, il travaille à un code of practice, un code de bonnes pratiques je crois dans le RIA. Il va y avoir ici une aide pour mettre en place cette politique de conformité. La deuxième disposition adoptée, c'est la disposition de transparence. Vraiment, au sens premier du terme, comme David El Sayegh en parlait. Le règlement européen impose que le fournisseur d'IA fournisse un résumé suffisamment détaillé, ne rigolez pas, des contenus utilisés pour l'entraînement, un résumé suffisamment détaillé. Normalement, un résumé, comment il est détaillé, suffisamment mais pas trop. On s'entre bien... Vous imaginez bien que cette disposition a été adoptée dans la douleur, elle a même failli faire échouer la négociation sur le règlement européen. Cette obligation de transparence, elle a été conçue, imaginée, poussée sur le terrain du droit d'auteur, des droits voisins. Les fournisseurs d'IA devaient être transparents sur les sources d'entraînement protégées par les droits d'auteur et les droits voisins. Je vous invite à lire cet article du règlement européen. Ce n'est plus lié uniquement au droit d'auteur et aux droits voisins, c'est écrit: y compris les contenus protégés par le droit d'auteur et les droits voisins. Donc je... J'avoue que cette disposition va être une des dispositions les plus compliquées et contentieuses dans la mise en œuvre. Là encore, le bureau de l'IA va fournir un template, un modèle de résumé suffisamment détaillé. Eh oui! Vous avez le résumé suffisamment détaillé, le modèle de résumé suffisamment détaillé, etc. La France s'intéresse à ces questions de transparence car la transparence peut être un levier pour la rémunération. Quand on vous dit: la réponse qu'on obtient: dites-nous les œuvres utilisées par nous, comme ça, on les retire. Sans transparence, c'est très difficile de lister les œuvres utilisées par le modèle pour l'entraînement. C'est étonnant cette inversion dans la demande. Pour créer un marché, un véritable marché, il faut respecter la chaîne de valeurs. Et pour cela, il faut rémunérer les contenus. Pour ça, en France, deux missions ont été lancées à la demande de la ministre de la culture dans le cadre du conseil supérieur de la propriété littéraire et artistique, j'ai mis sur le côté, une première mission sur le template. Donc l'idée, c'est quoi? L'idée, c'est que la France a une grande tradition d'influencer un peu la législation européenne, en tout cas, ça a été une tradition durant très longtemps, notamment dans les secteurs de la culture car la France est un gros producteur de culture. L'idée, c'est d'élaborer un template en France qui serait proposé au bureau de l'intelligence artificielle. Ça, c'est la première mission au sein du CSPLA. La deuxième mission est juridico-économique, avec ma collègue ici présente, elle s'occupe de l'économie, moi du droit. Et l'idée, c'est qu'on essaie de définir des modèles de rémunération, on essaie de comprendre la chaîne de valeurs et définir les modèles de rémunération. Qu'est-ce qu'on pourrait appliquer comme méthodes juridiques qu'on connaît à la rémunération pour l'entraînement des IA? Et ça, ça va dépendre un peu de la valeur de la donnée d'entraînement. elle va nous dire la valeur de la donnée d'entraînement, et nous, juristes, on va s'adapter à cette vision économique. Tout ça pose beaucoup de questions, vous l'avez compris. L'élaboration du résumé, du modèle de résumé, c'est très difficile car il y a des injonctions parfois contradictoires dans les considérants. On sent bien qu'il y a eu une forte tension dans l'adoption de cette disposition, donc c'est très compliqué à mettre en œuvre. Pour les modèles de rémunération, c'est pareil, il y a des acteurs qui veulent collaborer. Et tous les secteurs de la culture n'ont pas le même modèle d'affaires, donc pas la même chaîne de valeurs. Donc tout ça n'est pas uniforme d'un secteur à l'autre. Je me suis demandé: ne faudrait-il pas un relais national, une autorité? Je ne pense pas à une autorité bien sûr, mais je suis au sein d'une autorité qui, je me souviens que l'ARCOM est aujourd'hui un lieu de dialogue qui pourrait accueillir un dialogue sur ces sujets. Le résumé suffisamment détaillé, c'est une vraie difficulté car il faut l'articuler avec le secret des affaires. Est-ce qu'une autorité aurait un rôle à jouer? Ce sont des questions qu'on peut se poser sur l'amont, la création. Je n'oublie pas que sur l'amont, bien sûr, les États généraux de l'information ont fait des propositions, sur l'amont et l'aval d'ailleurs. On change un peu de modèle avec ces IA génératives, l'économie du lien va disparaître car, finalement, lorsque vous allez... Lorsque vous allez avoir de l'IA associée à un moteur de recherche, vous ne cliquez plus sur le lien, vous avez directement du contenu généré. Il faudra s'interroger. Comme je vous dis, ça va dépendre beaucoup du secteur concerné. Tous les secteurs n'auront pas le même besoin, les mêmes velléités. Il y a des secteurs très organisés en gestion collective, vous avez des secteurs très capables de donner des licences sur des masses de données. Tout ça devra être adapté en fonction des secteurs. Quelques mots ensuite sur l'aval, plus sur l'information ici. On quitte finalement les modalités de fonctionnement de l'IA générative et donc, la déconstruction de ces contenus en amont qui peuvent être des contenus protégés par le droit d'auteur et les droits voisins et on s'intéresse à ce qui sort, aux sortants, à l'output, ce qui est généré par l'intelligence artificielle. Alors, d'abord, un mot pour dire, et ça a été dit dans la première table ronde, c'est très bien. Il ne s'agit pas ici de dire, de ralentir le développement de l'IA. On peut continuer dans les postures en disant: elle est anti-techno, les régulateurs sont... Le législateur est. On peut continuer ou construire un marché éthique et compétitif, qui prenne en compte la chaîne de valeurs. De manière évidente, l'intelligence artificielle est une chance, une promesse. On va tous s'augmenter en quelque sorte. On est nombreux, on sera nombreux à l'utiliser et bénéficier, grâce à cela, de nouvelles compétences, de nouveaux services. Et puis si de toute façon on ne monte pas dans le train de l'IA, il passera et on lui dira au revoir dans quelques temps. Je crois qu'il faut qu'on l'emprunte, qu'on investisse ce secteur. En aval, le journalisme l'utilise beaucoup pour une assistance à la rédaction, pour les recherches, avec bien sûr toutes les conditions de la vraie information du vrai journaliste, une responsabilité dans tous les cas qui leur incombe. Tout ça peut être fort utile. Je me suis posé une question: quid du droit d'auteur, sur le sortant. Est-ce que le sortant est une œuvre protégée par le droit d'auteur? C'est une question qu'on se posera dans quelques années. Mais avant de s'occuper de cette question, je voudrais dire qu'il ne faudrait pas disqualifier les créateurs qui utilisent l'intelligence artificielle. Ce n'est pas parce que vous avez un journaliste, un créateur, un auteur qui utilise l'intelligence artificielle comme un outil, comme vous le disiez tout à l'heure, comme un compagnon de création, un outil qui challenge, il ne faut pas juste à cause de ça dire à l'auteur qu'il n'est plus auteur et que ce qui est généré n'est plus une œuvre. Ça serait inique de punir les créateurs qui utilisent l'intelligence artificielle comme un outil. Bien sûr, il y aura une zone grise car pour avoir accès au droit d'auteur, il faut exprimer sa personnalité dans la création. Ça sera la définition de l'endroit où on se situe. Il nous appartient de réfléchir à ce basculement et aider le juge dans la qualification pour que les auteurs, les journalistes, les artistes, tous puissent utiliser l'intelligence artificielle sans être inquiétés dans la protection car on aura identifié la manière pour eux d'exprimer leur personnalité en utilisant cet outil d'intelligence artificielle. Et puis, il y a aussi l'utilisation de l'IA dans l'information elle-même, j'ai mis information entre guillemets car il n'y a pas que des conséquences positives. Il y en a, mais il y a aussi des conséquences négatives et vous avez sans aucun doute relevé dans vos pré-conclusions la massification de la production informationnelle et la diminution de l'attention. Plus vous avez de l'information, moins vous y êtes attentifs. Le problème de la dilution de l'information et de la hiérarchisation de l'information. On ne sait plus dire ce qui est une information et ce qui n'en est pas. On le voit sur les réseaux sociaux. Tout vaut à peu près la même chose et ça commence à devenir problématique. Une augmentation des contenus synthétiques, générés par l'IA, avec de nouveaux médias, que vous avez appelés du troisième type. Des médias synthétiques. Une perte des repères donc un risque aussi de polarisation de l'information dans ce cadre-là. C'est un vrai sujet, un vrai souci, car sujet de démocratie. La presse est le socle de la démocratie. Dans cette année très marquée par les élections, c'est une vraie inquiétude. Quelle solution sur cet aval et donc sur cette information pouvant être générée par l'intelligence artificielle? Alors, là, je vous ai mis quelques idées de solutions qui ont été évoquées par les uns, par les autres. Certains disent qu'il faut créer un label pour labelliser la création humaine pour dire: ça, c'est humain, pour reconnaître, identifier la singularité de cette création humaine. Peut-être imaginer aussi un nouveau type de référencement, un référencement de confiance, comme sur les moteurs de recherche, il y a le référencement naturel, le local, le payant. Pourrait-il y avoir un référencement de confiance avec une information vérifiée? L'IA pourra permettre le développement des solutions de fact checking, d'audit. Ça peut être une solution apportée pour l'information. Le règlement européen a contribué en imposant une transparence. Vous le voyez ici, sur cette publicité, c'est trop petit, mais là, dans l'angle en haut à droite, vous avez l'obligation d'information remplie. Certains se mettent en conformité avant même la mise en application du règlement. Il faudra informer le public, marquer ces contenus générés par IA. Ce que je veux dire en conclusion, c'est que je crois que sur ces sujets, il est temps de collaborer et sortir des postures. Si on veut retenir une idée, c'est que les fournisseurs d'IA ont besoin de données, ont besoin de données de qualité pour entraîner les modèles. Il y a une phrase en informatique qu'on me répète souvent: garbage in garbage out, si vous avez de la poubelle en entrée, vous avez de la poubelle en sortie. Si on entraîne une IA avec des données synthétiques, le système dégénère. On a besoin de contenus humains, de qualité. Prenons acte de cela. Prenons acte également qu'il est important que les fournisseurs d'IA accèdent à des données de qualité, pour des raisons de découvrabilité, de diversité culturelle, il est important qu'on y représente la culture française. Mais respectons la chaîne des valeurs, les intrants sont rémunérés et les données devront aussi être rémunérées aussi pour instaurer cette confiance dont on a besoin en aval. Voilà ce que je voulais vous dire aujourd'hui un peu vite, pardon. Et en conclusion, j'aime bien citer cette phrase d'un collègue, Gérard Berry: l'homme est lent, peu rigoureux, peu intuitif alors que l'ordinateur est rapide, très rigoureux et complètement con. Ce qui nous laisse un peu de marge.

     

    Table ronde 2 - IA et information

    Comme vous l'aurez compris, c'est un marathon, je vais inviter mes panélistes à me rejoindre. C'est le moment, je regarde la présidente d'éducation et santé publique... Il faut vous lever, c'est le moment de dire bonjour à votre voisin derrière vous, pour vous détendre, car on enchaîne, c'est terrible. C'est le moment de bouger un peu pour vous réveiller. Merci à mes panélistes de m'avoir rejoints pour que je ne sois pas seul en scène. Je lance un peu la discussion tout de suite. On a eu cette mission qu'on a menée avec Antoine. Et on en est ressorti... On l'a dit, on a été très modestes, notre ambition c'était de trouver les bonnes questions. Les réponses, on va prendre le temps. Donc ce processus est vraiment un début. Mais on ressorti quand même en se disant: quelle hiérarchie on met? Où met-on les enjeux? De quoi vraiment s'inquiéter? Et on a eu le sentiment que sur ce sujet IA et médias d'information, on sent qu'on va tous être attirés par ce point. On est tous tellement forts à écrire des scénarios de dystopie, se dire que tout va disparaître avec des hyper trucages. Le premier c'était Léonard de Vinci, et on a survécu. Après c'était Photoshop. On a la conviction d'abord de se concentrer sur tout ce que l'IA peut apporter aux médias. Il ne faut pas se focaliser sur la concurrence entre humain et IA, mais plutôt entre humain augmenté, et humain non augmenté. Les médias de premier rang vont survivre, mais d'autant plus en allant de l'avant et ressortir plus forts s'ils embrassent ces nouvelles technologies et le potentiel. Ce qu'on a entendu pendant les auditions, c'est qu'on faisait face à une industrie hautement responsable, qui avait le sentiment qu'il fallait y aller, mais aussi prudemment, car elle a conscience que son avenir repose dans la confiance que ses auditeurs, téléspectateurs et lecteurs lui accordent, et qu'il fallait être prudent. On est ressorti avec la conviction qu'elle était naturellement responsable. Et que la posture de la politique publique ne devait pas être dans la posture de régulation, mais plutôt dans l'accompagnement. C'est le premier sujet sur lequel je vais demander aux panélistes de s'exprimer. Où est-ce qu'ils voient le potentiel? Comment ils l'abordent? Et est-ce qu'ils partage ce tropisme qu'on a nous, qu'il faut encourager les acteurs à s'en saisir. S'il y a un risque, c'est peut-être qu'on n'y va pas assez. Il y a aussi un sujet de ces médias du troisième type. On a essayé de trouver une formule. Pour nous les médias du premier type ce sont ceux fondamentalement humains, avec des journalistes, des rédactions. C'est la presse, la télévision, la radio. C'est ce qui fait vivre le débat dans nos sociétés. Les médias du deuxième type, ce sont les réseaux sociaux, les plateformes algorithmiques. Ils ont toujours dit qu'ils ne produisaient pas de contenus, et sont en responsabilité limitée. On a potentiellement le sentiment qu'il y a un média du troisième type qui va apparaître. Ce sont des médias qui produisent des contenus, mais il n'y a pas de journaliste, en forçant le trait. Donc ils ne font que des prompts. Et ce type de médias peuvent exister. Et comme ils ne sont pas à base d'humains, ils vont être très durs à inscrire dans les géographies. Mais les lois qui responsabilisent s'inscrivent dans les géographies. Si on a des médias totalement numériques, on ne sait pas très bien si on les attrapera dans ces géographies. On retrouve un phénomène classique quand il y a une nouvelle technologie dans un marché, c'est qu'elle permet d'énormes gains. Mais à quoi servent ces gains? A faire plus de qualité? Ou partir toujours vers plus bas, vers les low cost? Et il ne faut pas confondre les deux catégories. On retrouve l'enjeu de différenciation, de permettre aux gens de reconnaître la qualité, et donc, de permettre de monétiser la qualité. Ce qui amène au deuxième sujet: l'enjeu d'avoir des instruments pour séparer le haut et le bas de marché. On est très admiratifs de l'initiative prise par tous les grands éditeurs de créer un standard comme la confiance... J'essaie de le traduire en temps réel... Là aussi, j'aimerais que les membres du panel s'expriment dessus. Donc, je cède la parole d'abord à ma droite Christelle vu du groupe TF1. - Merci de votre invitation. Vu du groupe TF1, je crois qu'on ne peut pas ne pas monter dans le train, c'est une évidence. C'est une opportunité. Il faut considérer l'intelligence artificielle comme une opportunité pour nos métiers, à partir du moment où il y aura un acculturation des différents collaborateurs. Parce que ça ne touche pas que les journalistes dans la fabrication de l'information. Ça va toucher les monteurs, les infographistes, les documentalistes qui ne sont pas forcément des journalistes. Et nous allons devoir accompagner tous ces métiers, nous l'avons déjà démarré avec de la formation. L'opportunité c'est de la rapidité. De remplacer l'outil, de remplacer des tâches chronophages par cet outil qui devient indispensable si on veut être dans le train de ce marché. Et on ne veut pas être à la traîne. Donc, aujourd'hui, l'usage que nous en faisons c'est de l'indexation sur des contenus. C'est de la transcription. Aujourd'hui, quand vous avez des longues interviews, des longs discours de nos ministres, du président de la République, ça prend énormément de temps pour les décrypter. Donc on utilise de l'intelligence artificielle qui aujourd'hui est très prometteuse sur la transcription de ces discours ou ces interviews. Donc, on va l'utiliser également pour de l'aide rédactionnelle. C'est un peu, il faut considérer l'intelligence artificielle, car évidemment elle fait peur, surtout dans nos rédactions, où tout le monde a peur que le robot arrive, et il y a eu des avatars qui viennent remplacer des présentateurs de journaux télévisés. Donc oui, elle fait peur, mais si elle est accompagnée dans les usages, et évidemment avec des médias responsables qui sont des médias de premier rang, où naturellement nous avons des chartes de déontologie, il n'y a pas de raison d'avoir peur. A partir du moment où cette intelligence artificielle est considérée comme l'assistant. Elle accompagne le journaliste dans des tâches qui vont lui permettre de se consacrer à faire un travail plus fouillé, de vérification, un travail d'enquête. Et il va gagner du temps. Donc, il faut la considérer comme une opportunité. Encore une fois, en étant accompagné, mais nous sommes des médias responsables, avec une information fiable, qui est vérifiée aujourd'hui. Il n'y a pas de raison qu'elle ne le soit plus avec ces outils. Ensuite cet accompagnement il faut l'encadrer. Nous avons des chartes de déontologie, nous sommes en train de nous doter... Je crois qu'à l'AFP vous avez déjà une charte sur l'intelligence artificielle. Ces chartes doivent être concises, c'est amené à évoluer rapidement. Donc, nous sommes en train de nous doter d'une charte sur l'utilisation de l'intelligence artificielle avec l'ensemble des journalistes et des collaborateurs qui contribuent à la fabrication de l'information, que ce soit sur les réseaux sociaux, car aujourd'hui, on travaille aussi sur les réseaux sociaux, nous sommes présents sur Internet. Il faut travailler avec l'ensemble des journalistes de nos rédactions de TF1, LCI, et c'est pour tous les médias la même chose. Cette charte susceptible d'être évolutive, on va l'écrire avec l'ensemble des collaborateurs pour savoir où on met la barre, où met-on une frontière ou pas sur l'usage de cet intelligence artificielle. - Peut-être un premier tour de table rapide pour voir d'où on part pour chaque organisation. - En matière... Les usages sont extrêmement nombreux. On s'est fixé quatre priorités à court terme pour ne pas partir dans tous les sens. C'est la retranscription d'interview. Tout le monde comprend de quoi il s'agit. La traduction. On produit en six langues. Donc c'est clair. Et parfois quand on dit qu'on produit un fil en espagnol, il y a une grande partie qui est de la production autonome, mais aussi une partie qui est de la traduction du fil français. Demain, les traducteurs, car on en a, pas sûr que leur métier soit totalement garanti vu l'évolution des outils de traduction. Le troisième c'est tout ce qui concerne les méta données. Les légendes de photo par exemple, ce sont des outils de reconnaissance faciale, de reconnaissance des objets. Pendant la coupe du monde, au lieu de passer du temps à taper vos légendes, c'est automatique et bien écrit. Et le quatrième sujet, tout ce qui concerne le monitoring de l'actu, pour gagner en rapidité. On est abonné à plein de flux d'agences. Et l'intelligence artificielle pourrait nous aider à gagner en rapidité. Donc quatre priorités à court terme. Il faut qu'à la fin du premier trimestre 2025, on ait des outils adoptés et industrialisés, qu'on arrête de bricoler, car évidemment les journalistes ont leurs propres préférences. On en adopte un et on l'intègre dans le content manager système. Après, on fixera d'autres priorités d'usage. Ça c'est pour l'IA comme outil de productivité, avec l'idée de réallouer les ressources sur le terrain. Et la deuxième utilité de l'IA, c'est en termes de revenus additionnels, avec nos archives qui servent à entraîner les modèles. Et tout ce qu'on peut concevoir comme produits nouveaux, ce qui est beaucoup plus prometteur. Mais ça, je peux en parler pendant une demi heure... - Radio France, où vous en êtes? - On est en train de quitter le moment de l'expérimentation. Le mot clé c'est industrialisation. A quel moment pour des médias de notre taille on commence à déployer des choses à grande échelle, avec une acculturation suffisante des équipes. On a fondé une façon de travailler entre la direction de l'information et la direction de l'information. On a considéré qu'il fallait travailler main dans la main. On a créé une structure CIA, comme ça les gens s'en souviennent. Et ça nous permet de faire des opérations sur le terrain en permanence. On a évidemment un sujet sur la transcription. On est une radio, donc le speech to text est massif. Et c'est notre premier projet industrialisé, car aujourd'hui, tout est entièrement scripté et disponible dans le back office maison atlas. C'est important, c'est le socle de nombreux usages d'aide à l'édition permettant à nos programmes d'être découverts sur Internet et les réseaux sociaux. Et à côté on déploie beaucoup d'expérimentation pour l'aide au travail journalistique au quotidien. Qui sont des usages très courants, que ce soit l'exploration de grandes bases de données, le résumé de textes. On collabore avec l'Inria, sur un projet qui s'appelle Stat Check pour vérifier des données statistiques. Et un projet qu'on est en train d'étendre à la détection automatique de désinformation sur les réseaux sociaux. On essaie de tenir les deux bouts. Un déploiement de plus en plus industriel de l'usage de l'IA là où c'est pertinent, et de continuer à expérimenter le plus possible. Tout ça répond... On parle beaucoup de charte. Juste avant de venir, on va publier un manifeste à Radio France, sur l'usage de l'intelligence artificielle. En revanche, on avait publié les 8 principes de l'information il y a deux ans. Et on avait déjà mis l'IA dedans, avec le principe de la traiter comme n'importe quelle source, et donc de la vérifier. Donc oui c'est important, mais à la fin des fins, c'est quand même se souvenir que l'intelligence artificielle générative est a priori un outil qui est incapable de traiter la vérité. Qui est incapable de traiter les faits. Le principe même de l'IA générative, ce sont des modèles probabilistes, des perroquets stochastiques. Ils improvisent en fonction de ce qu'ils ont lu, la suite d'une phrase. C'est l'inverse d'un travail de journaliste où on recoupe les informations pour être au plus juste. Donc tout doit être vérifié par des journalistes. Si je suis très optimiste pour l'usage de l'IA pour les journalistes, et on voit que c'est un outil qui peut être extrêmement puissant, je suis plus pessimiste sur l'impact de l'IA sur le paysage informationnel. Et je pense que c'est l'enjeu majeur aujourd'hui. - Pour revenir sur les apports de l'IA, vous avez tous cité des usages pour des gains d'efficacité, de la transcription automatique, c'est un cas d'usage très concret. Vous avez évoqué que c'est une capacité à traiter de l'information en masse, et mis dans des mains responsables, et ce sont celles d'une équipe éditoriale, d'une rédaction, est-ce qu'on a l'espoir d'avoir des outils permettant aux médias de décrypter ce qui se passe sur les réseaux sociaux. On a l'impression qu'on vit dans un monde où on trouve à boire et à manger, et on ne sait jamais si on fait face à un mouvement de fond de la société qui s'exprime sur les réseaux sociaux, ça existe, comme Metoo, ou est-ce qu'on fait face à une manipulation? Un petit groupe qui se fait passer pour un grand groupe? Souvent on se focalise sur les IA génératives, mais c'est une petite partie des IA. Est-ce qu'on peut espérer des nouveaux instruments permettant à un acteur comme l'AFP de sortir une nouvelle forme de catégorisation de ce qui se passe au niveau informationnel? Est-ce que ce n'est pas là le retour des médias? - Il y a l'utilisation des IA pour faire un travail de veille sur les réseaux sociaux et détecter les signaux faibles. Il y a quelques exemples qui montrent qu'on a pu louper des choses ou au contraire les repérer grâce à ça. Et ensuite, il y a l'utilisation de l'IA pour détecter les deepfakes, les médias synthétiques et autres. Et à ce stade, il n'y a aucun outil permettant de les détecter à coup sûr. Il y a beaucoup de start-ups, certaines progressent bien. Mais elles sont chacune dans leur couloir de nage. Elles peuvent faire des choses très spécifiques. Et il n'y a pas encore la solution magique. L'AFP a développé ses propres plug in pour détecter notamment les altérations de la voix et des reconfigurations de visages ou labiales. Ça marche assez bien. Mais rien ne se substitue à l'intervention humaine et au travail des équipes de fact checking. Je ne sais pas si ça répond à la question. - Si, en partie. De même que les médias ont appris à travailler avec l'industrie des sondages, et savoir comment on sondait les opinions et en rendre compte pour qu'on comprenne mieux, j'ai le sentiment qu'il n'y a pas d'outil sur étagère, mais qu'il y a un potentiel dans le recours à des intelligences artificielles développées sur mesure, à savoir mieux décoder ce qui se passe sur les réseaux sociaux et savoir qualifier ce qu'on y trouve, car y y trouve à boire et à manger. - Effectivement, on est au cœur des sujets d'aujourd'hui. Il y a un enjeu pour nous tous d'être mieux armés sur ces sujets. Aujourd'hui, ce sont des compétences qui existent dans les rédactions. Généralement dans les services de factchecking. On a aussi des enquêteurs osynt. Il y a un enjeu que ces compétences soit plus largement partagées. Quand on a des rédactions très importantes, si jamais on a trois experts que leur connaissances soient capables de diffuser sur le reste de la rédaction. C'est très important en termes d'équipement, d'outillage et de compétence internes. Est-ce qu'il y aura des outils demain qui vont nous aider? On se sert déjà d'outils. Donc c'est un ensemble d'outil qu'il faut apprendre à maîtriser, à qualifier. Pour ne pas commencer à dire: ça c'est un faux. Alors que notre outil est complètement tapé, et que si c'est une vraie info. C'est le cœur de réflexions qu'on a avec l'Inria, être capable de mieux identifier des discours. On a travaillé sur la question du discours de propagande. Qu'est-ce qui permet de qualifier un discours de propagande par exemple? De commencer à avoir des alertes plus précises sur ce qui se dit sur les réseaux, comment c'est qualifié, et que derrière des journalistes puissent s'y plonger et gagner du temps pour identifier des phénomènes qui passeraient inaperçu. Viginum est un organisme qui commence à avoir une crédibilité mondiale. On ne peut pas en dépendre uniquement en tant que média. On ne peut pas attendre qu'ils envoient des rapports pour dire que c'est de la manipulation étrangère. Il faut nos propres capacités d'investigation et de confirmation. Tout ça c'est important. La question dans ces cas-là, c'est d'avoir une vraie prise de conscience. Je suis très optimiste sur ce que l'IA va faire au journalisme et fait déjà, car elle rend plus puissants les journalistes eux-mêmes et leur permet de se concentrer sur ce qui fait l'essence de leur métier, aller plus souvent sur le terrain, être capable de mieux recouper l'information. En revanche, quand on voit la bascule du paysage informationnelle on peut aussi être plus inquiet. On a recensé environ 1000 sites aujourd'hui qui publient de la proto information. De l'information à peu près, non vérifiée. Mais qui a toutes les apparences de la vraie information. C'est bien ce problème-là. Aujourd'hui, c'est l'information "à peu près" qui est la plus ennuyeuse, et sans doute la plus massive. Pour ce cas, ce n'est pas illégal. On ne voit pas comment attaquer ça. La question c'est la confiance et la façon dont les médias vont émerger dans ce paysage qui peut être très secoué. On évoquait le journalist trust initiative, je ne sais pas si c'est la configuration idéale. Mais je crois à la question d'un label, qui en plus n'est pas un label d'Etat, ce serait la pire des configurations d'avoir un tampon étatique qui dirait ceci est la bonne information. Mais quand on va chez le boucher, généralement il y a des normes sanitaires, c'est pareil pour les journalistes, il y a des méthodes, des responsabilités, des chartes. Et tout ça doit être reconnu comme une pratique spécifique qui permet de la distinguer des médias synthétiques qui n'ont pas ces pratiques. Reste à ce que ce soit visible. Sans doute que ça permet... J'entendais Alexandra Bensamoun sur une indexation de confiance par exemple, ce sont des pistes qui existent qui passeront par des régulations. - Quels sont les bons standards du coup? On ne dit pas que c'est une solution magique, mais on a été quand même obligés de constater que c'est intéressant. C'est fondé sur des méthodes objectives, ça évite l'écueil de qualifier ce qui est bon ou non en information, ça utilise divers recours. On l'a vu ressortir dans les États généraux de l'information, avec une formulation très bien faite, adressée aux médias, pas à l’État, aux pouvoirs publics en leur disant de s'autocertifier. C'est important pour que la valeur soit reconnue par ceux qui consomment l'information, mais ça devrait l'être pour ceux qui accélèrent l'information. On s'informe aussi via les réseaux sociaux et on veut souvent demander aux grandes plateformes d'être proactives là aussi. Et elles répondent qu'elles ne sont pas le ministère de la vérité. Pour moi, il y a un autre usage dans le B2B pour arriver à dire: toutes les informations n'ont pas la même qualification et dans le cadre d'un règlement à venir, on n'a pas fini la discussion de politiques publiques sur le sujet, est-ce qu'on peut être amené, si un tel standard international s'impose, de dire que ça sera la base pour une plus grande mise en valeur d'une information de qualité humaine, avec un standard objectif. Je rêve Fabrice? - Un peu, mais c'est bien de rêver. Nous, on a été l'un des membres fondateurs, la première réunion était dans nos locaux. Maintenant, on va entamer le processus de certification, rejoindre les médias déjà certifiés, donc on y croit. Après, ça reste... Est-ce que ça a déjà dépassé le cadre européen? Je n'en suis pas sûr. Tant mieux si c'est le cas. - Il y a des médias d'Afrique, sur plusieurs continents qui ont commencé à s'inscrire. Mais quand est-ce qu'on se fédère? - Tant mieux, bonne nouvelle. Et je crois qu'il n'y a qu'une seule plateforme qui joue le jeu, c'est Bing, Microsoft. Donc il faut encore convaincre les plateformes que leurs algorithmes poussent ces contenus. J'ai aimé l'expression l'information à peu près. L'un des plus grands dangers, c'est qu'on voit que de moins en moins de gens sont prêts à payer pour l'info, en France, c'est 8 à 9% de personnes prêtes à payer pour un abonnement ou autre. Et beaucoup se disent déjà: avec les médias synthétiques, je sais qu'il y a des problèmes de fiabilité, mais c'est de l'information peut-être à peu près, en anglais, on dit good enough. Pour moi, ça fait la blague, ça me suffit, j'ai la synthèse de ce qui s'est passé en Ukraine dans les quinze derniers jours, et je n'ai pas besoin d'aller voir tel journal. C'est ça la grande menace. - C'est le risque, mais il faut le combattre. - Pour moi, ça fait partie d'une des solutions, mais ce n'est pas la seule solution. Nous, on est certificats GTI depuis un an. Il y a mille médias je crois, c'est remplir un questionnaire, c'est assez fastidieux, il y a 130 questions. C'est une initiative sur les bonnes pratiques et la fiabilité de l'info dans le journalisme. C'est complexe et long à remplir. Quand vous demandez, c'est payant et ça limite aussi les demandes de certification pour certains médias, notamment dans les pays d'Afrique ou Asie car ça s'étend dans pas mal de pays. Sur l'Europe, je crois que nous sommes quatre médias seulement à avoir cette certification. Certes, elle est validée par un cabinet d'audit, etc., ce ne sont que des points objectivables. Sur les 130 questions, on n'intervient pas sur votre ligne éditoriale. C'est un outil de transparence pour les médias, de fabrication de l'information sur comment on la fabrique, quelle est la sécurité, par exemple, pour vos collaborateurs, comment ils travaillent sur le terrain, dans quelles conditions, dans quelles conditions de transparence. Il y a des demandes sur le propriétaire du média, l'identité du propriétaire. C'est une solution, mais ça ne sera pas la seule face aux médias synthétiques, car il n'y a que Microsoft qui reconnaît comment faire remonter cette information responsable, vérifiée, qui est la nôtre? Ça sera très compliqué dans cet océan de médias du troisième type. Il y a une telle défiance des concitoyens, il faut trouver des moyens. La GTI peut être un moyen, dès lors que cette certification, comme d'autres normes iso dans le monde industriel, qu'elle soit reconnue, amplifiée, qu'elle ait de la publicité, qu'elle existe auprès de nos concitoyens. Ça passe aussi, évidemment, par de l'éducation aux médias et à l'information. C'est très, très important aujourd'hui. Je crois qu'on aura cette responsabilité-là dans les rédactions à être responsable par rapport à cette éducation aux médias et à l'information, être de plus en plus présents sur le terrain pour expliquer comment nous travaillons. Je suis persuadée que sur notre territoire national et voire plus, si on ne fait pas cette démarche-là, et tous les acteurs doivent la faire, pas seulement l’Éducation nationale, c'est-à-dire que l'ensemble des médias et acteurs doivent participer à cette éducation aux médias car la défiance sera de plus en plus grande. Des médias sans aucune supervision humaine derrière, avec des avatars, des robots, qui vont faire des sites Internet plus vrai que nature, comme la création d'images. Quand on utilise l'intelligence artificielle, il faut être respectueux du public, on a une transparence, nous lui devons, nous l'indiquons avec une signalisation de ce que nous faisons. Dès qu'il y a une image d'intelligence artificielle, c'est indiqué. Le jour où vous aurez des médias du troisième type, ça sera une jungle. Comment se retrouver dans cette jungle-là? - Le jour est arrivé. Il y a un an, Amazon en catastrophe, dans sa branche auto-édition a dû dire: les auteurs qui s'auto-éditent, ce n'est pas plus d'un par jour et ils polluaient leurs linéaires on a le sentiment que ça va vient vite, donc il faut construire ces standards et les valoriser. C'est bientôt la saison où les grandes plateformes vont sortir leurs évaluations des risques systémiques et leurs remèdes. Ça sera l'occasion d'un nouveau cap, de commencer à discuter pour savoir comment on fait face à ces nouveaux désordres informationnels, donc le moment de promouvoir des outils si c'est le cas. C'est notre message. - Ce qui est dangereux, c'est la manipulation derrière. Ces moyens-là sont des moyens de manipuler les populations, on l'a vu lors de conflits. Et là, je rejoins mon confrère de Radio France, rien ne remplace le reporter de terrain. L'intelligence artificielle ne va pas le remplacer. Encore faut-il que celui qui l'écoute, le regarde, le lit, en soit bien conscient. - Si je peux me permettre un mot, j'ai écouté la première table ronde, avec des choses très intéressantes. Il y a quelque chose qui n'est pas beaucoup vu dans notre secteur, la labellisation des contenus, on devrait s'attendre à ce que ceux qui posent problème ait la charge financière de labelliser le contenu synthétique. C'est nous qui, progressivement, devons faire l'investissement pour prouver que nos contenus sont authentiques. Un standard développé par Nikon, Canon, les plateformes Adobe, etc., qui demandent qu'on mette dans les appareils un water mark qui vienne s'afficher sur nos photos et on doit changer les matériels, intégrer dans la chaîne d'édition, etc. On assiste à un renversement complètement anormal. - Quand on a un marché, il y a deux qualités: celui qui produit la qualité haute doit le montrer et celui qui a la qualité basse, doit prouver qu'il a une qualité haute. - J'ai tendance à penser que celui qui pose problème doit porter la charge. - Ceux qui font du bio essaient de dire que le bio est de qualité. Je ne sais pas si c'est naturel, mais il y a l'enjeu... Tout commence par... - J'ai cité la photo, mais pour le texte, on n'arrive pas à prouver. On ne peut pas mettre un fichier associé à telle ou telle phrase. - En première période, il faut dépenser de l'argent pour en gagner en deuxième période. La question est: comment on valorise cette initiative qui existe, qui n'est peut-être pas la bonne, mais celle-ci existe? Est-ce que ce n'est pas le moment de discuter pour la valoriser et dépasser le fait que c'est un coût et qu'on en ait le bénéfice? - Il ne faut pas avoir de religion, on n'a surtout pas le choix, il faut appuyer sur beaucoup de boutons à la fois. En même temps, on a toujours aussi fait ça partiellement et l'un ne va pas sans l'autre: on peut estimer et certains acteurs le font d'eux-mêmes, car les grandes plateformes ne veulent pas être polluées par des contenus sans source... - On l'espère. - Cherchent à labelliser les contenus purement synthétiques. Je pense que les efforts vont aller dans tous les sens. A un moment donné, ça ne reposera pas que sur nous. Il faudra être d'accord sur ce qui fait notre spécificité, connaître la valeur propre de nos méthodes. Ça peut être le GTI, ça peut être d'autres et s'il faut en signer quatre demain, nous le ferons. La question, c'est la loi. Les labels seuls ne feront pas grand-chose. Il ne s'agit pas de faire des publicités en disant être un média GTI. Ça n'aura de sens que dans un espace informationnel où ce type de label donnera accès à des bonus d'exposition ou des critères spécifiques. - Je reprends l'image du bio: il n'existe pas si la distribution ne le met pas en avant en disant que c'est différent, un rayon particulier. - Aujourd'hui, il y a des endroits, regardez Google, il y a deux endroits, Google discover et Google news, ce sont des endroits triés, c'est de l'information. Quand vous demandez à Google le critère, ce qu'ils font. Ils bottent en touche, ils ont des critères vagues. Ils essaient de faire le ménage quand il y a quelque chose de chelou. Google discover, ce sont les informations proposées en base. Aujourd'hui, c'est là où se passe le plus gros de l'audience issue de Google pour les médias d'informations. Google discover, vous regardez ce qu'il remonte, par rapport aux efforts faits sur Google news, par rapport à l'information un peu bidon, là, on voit que le même effort n'est pas fait. Beaucoup d'articles de médias un peu obscurs, où vous n'êtes pas sûr que ce n'est pas écrit par l'IA, qui ont des titres où vous allez découvrir avec qui est Brad Pitt et vous n'avez pas la réponse au 6e para et ce sont des endroits triés par Google. Sur quels critères? Les leurs. - Alors, l'heure passe. Y a-t-il des questions dans la salle? C'était même prévu, on peut les prendre. Des plateformes ont disparu, mais il reste des gens. - Je trouve... Je suis néophyte dans le monde de l'information. Ce que je trouve intéressant dans ce que vous dites, deux choses me frappent: une première, le type de médias, le média dit de type 1, dont on voit bien que tout le monde est absolument en responsabilité, tout le monde fait un travail éthique, très fort, prend toutes les garanties disponibles. J'ai plus de doute sur la séparation que je trouve de plus en plus artificielle sur les médias algorithmiques qui, selon comment on configure l'algorithme, il pèse. On voit qu'il y a quand même un infléchissement, une forme d'éditorialisation algorithmique. Cette frontière, vue de l'extérieur, elle paraît de plus en plus floue. Je trouve intéressant dans votre remarque sur le bonus à l'exposition, il serait intéressant de se dire que certaines informations dûment certifiées auront une promotion sur la distribution. Et se dire qu'une information fiable, vérifiée, soit plus fluide et soit incitée à être reprise. Est-ce qu'il existe des mécanismes qui pourraient être envisagés dans ce sens-là? C'est-à-dire que des médias synthétiques, pour continuer d'exercer, ils devraient diffuser x pourcents d'information certifiée? - Qui veut répondre? - On aimerait bien! Après, ça, c'est de l'ordre de la régulation aussi. On ne pourra pas leur imposer quoi que ce soit. Quand vous avez la certification GTI, qui essaie de discuter, négocier avec les plateformes pour que les contenus de qualité puissent remonter. Mais je ne suis pas sûre que tous les GAFAM suivent pour diffuser les contenus de qualité. - Les GAFAM, non, mais avec une régulation contraignante, on peut les inviter à le faire. - Ça s'appelle le règlement sur les services numériques, ça existe. Il faut s'en saisir, il a sa temporalité. Là, les grandes plateformes vont publier leurs résultats et des propositions de remède. Pour nous, c'est un point de départ, donc on ne va pas trouver spontanément ce qu'on veut dedans, mais la question est que le débat public s'enclenche pour que ça vienne petit à petit. Y a-t-il une autre question? - Je profite d'avoir le micro. Je rebondis sur ce que tu as dit, ce qui fait qu'une information se diffuse, c'est l'algorithme et l'homme qui le propage. Qu'est-ce qui serait envisagé vis-à-vis des publics pour leur expliquer la différence entre un contenu synthétique, un contenu qui ne l'est pas? Ça va de paire avec la partie algorithmique? - Est-ce que ce n'est pas l'effort d'éducation au sens critique. Je suis d'une génération où on m'a appris que sur une photo argentique, le régime soviétique savait enlever les personnages au fur et à mesure qu'ils étaient sortis du système soviétique. On a tous appris qu'une photo argentique n'est pas une vérité révélée, aujourd'hui, les enseignants apprennent que les photos peuvent être photoshopées et que tout le monde n'est pas mince comme on le voit dans les magazines de mode. Est-ce que ce n'est pas... - Si on met des médias avec des labels, qui sont responsables, si on n'explique pas ce qu'est ce label, un gamin... - Il faut monétiser les standards. - Et faire attention toujours à ne pas créer des réactions de rejet et être contre-productif. Encore une fois le ministère de la vérité, c'est l'élastique qu'on peut se prendre dans la figure. Comment faire pour que des contenus certifiés circulent mieux? En fait, je ne sais pas ce que c'est qu'un contenu certifié. Je sais ce qu'est une méthode de travail journaliste professionnelle. Donc certifier qu'on travaille selon des critères qui sont professionnellement les bons, ça, je sais le certifier. En revanche sur la formulation d'un tweet, un mot malheureux etc., je trouve ça beaucoup plus casse-gueule. Et c'est contre-productif si on commence à faire circuler des tampons comme: ceci est juste, ceci n'est pas juste, on aura des réactions violentes. Il ne faut pas essayer de faire passer ça au forceps. Il faut trouver la juste mesure. - Les développeurs de grands modèles de langage ont conscience de la valeur de tout ce dont on discute. Pour faire un grand modèle de langage, il faut généralement l'entraîner sur 10000 milliards de mots. La totalité des archives texte de l'AFP c'est 15 milliards de mots. On discute beaucoup avec ces développeurs, car ils ont besoin de qualité, de contenus sourcés, avec une info bien écrite. C'est en soi un signe de reconnaissance. Après il y a la question de la valeur qu'on met sur les archives. Et le problème de la transparence. Mais c'est déjà quand même une bonne indication.

     

    Merci beaucoup. Il est 17h59, je crois qu'on peut s'autoriser un quart d'heure de retard, mais pas tellement plus. Je propose de conclure la discussion, je remercie les panélistes et l'ensemble des gens qui ont participé à cette discussion. Et dire que vu de l'ARCOM ce travail est un point de départ, pas un point d'arrivée. On espère que ça va stimuler la discussion. On a donné les pistes sur lesquelles on comptait s'investir dans la durée, avec vous et tous les professionnels du secteur. Un grand merci, bonne soirée.

    Consultez et téléchargez la présentation des conclusions de la mission de l'Arcom sur l'IA

    Présentation des conclusions de la mission de l'Arcom sur l'impact de l'intelligence artificielle dans les domaines de la création et de l'information

    • PDF
    • 2.22 Mo
    • en français

    Ouverture de l'événément par le président de l'Arcom

    Propos d’ouverture par Roch-Olivier Maistre, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

    Image

    Présentation des conclusions de la mission de l'Arcom sur l'IA

    • Pauline Combredet-Blassel, directrice générale adjointe de l’Arcom.
    • Didier Wang, chef du département Données et technologies à la direction des études, de l’économie et de la prospective de l’Arcom.

     

    Présentation des conclusions de la mission de l'Arcom sur l'impact de l'intelligence artificielle dans les domaines de la création et de l'information.

     

    Image

    Table ronde 1 - IA et création

    • Marianne Carpentier, directrice du développement des technologies émergentes du Groupe TF1.
    • Solène Chalvon-Fioriti, Grand Reporter, réalisatrice de "Nous, jeunesse(s) d’Iran".
    • David El Sayegh, directeur général adjoint de la Société des auteurs, compositeurs et éditeurs de musique (Sacem).
    • Samuel Kaminka, président de Samka Group et d’AnimFrance.
    Image

    Keynote "L’IA, partenaire de la création et de l’information"

    Image

    Table ronde 2 - IA et information

    • Christelle Chiroux, directrice adjointe de l’Information du Groupe TF1.
    • Fabrice Fries, président-directeur général de l’Agence France-Presse.
    • Florent Latrive, directeur adjoint de l’information, en charge de la stratégie à Radio France.
    Image

    Pour aller plus loin