mise en place des régulations éthiques

DÉVELOPPEMENT DE LA

TECHNOLOGIE AVANT LA RÉFLÉXION
ET MISE EN PLACE DES RÉGULATIONS

Les réglementations autour de ces applications se mettent encore en place, car les gouvernements n’ont pas eu le temps de prévoir. L’avantage, c’est qu’ils s’engagent tout de même à nous protéger contre la possible menace qui émane des IAG. Et nous allons voir cela ensemble !

UNE CRAINTE DE L’IA GÉNÉRATIVE

Des jeunes filles qui trouvent des photos dénudées d’elles sur Internet ? Des artistes qui portent plainte contre les grandes entreprises propriétaires d’IA ?

Nous sommes tous touchés par les dérives des IAG, nous vous embarquons, donc, pour découvrir l’un des enjeux qui alimente le débat autour des intelligences artificielles génératives : l’éthique. Comme vous avez dû le remarquer aussi, les IAG, notamment ChatGPT, se sont installées dans nos vies quotidiennes très rapidement, alimentant par la même occasion de mauvaises pratiques et des abus d’utilisations.

LES RÉGLEMENTATIONS

Des réglementations existent et d’autres se développent. Il faut seulement bien les connaître et savoir qu’elles existent. Commençons par le pays d’origine de la majorité des IAG les plus connus : les Etats-Unis.

Nous commençons fort, avec le président américain lui-même, qui souhaite “gouverner cette technologie”, en signant un décret présidentiel pour la régulation des intelligences artificielles. Ce décret permet au gouvernement de pouvoir contrôler tout ce qui est équité et impact sur le marché du travail sur le territoire États-uniens. Un décret qui a comme slogan « safety, security, and trust », le président Biden déclare que c’est une façon de réaliser les promesses de l’IA et d’éviter les périls possibles de celle-ci.

CE DÉCRET CONSISTE À :

1. Protéger la sécurité nationale et publique

  • Les avancées des développeurs d’IA doivent être partagées avec le gouvernement, surtout si les travaux présentent un risque pour la sécurité nationale, la sécurité publique et l’économie américaine.
  • Conseil de sûreté et de sécurité de l’IA mis en place : mener par la sécurité intérieure pour évaluer les menaces sur les infrastructures américaines
  • Suivi par le département du commerce qui propose des règles de « tatouage numérique » : faire en sorte que le contenu généré par l’IA soit identifié comme tel.
  • Le président souhaite que le Congrès américain porte une loi sur la confidentialité des données à la manière du RGPD européen.

2. Réglementer sans freiner l’innovation

  • Permettre à l’IA de se développer en respectant les défis éthiques et économiques
  • Guider les universités dans leurs innovations, notamment au Canada

3. Éviter la disparition d’emplois : en mettant en place un accompagnement et des aides pour les travailleurs touchés

Un décret signé à la suite de multiples vidéos postées sur les réseaux sociaux. De faux discours d’hommes politiques, des images à caractère pornographiques, etc. Et un événement dont nous avons tous entendu parler : la grève des acteurs, scénaristes et autres acteurs du monde d’Hollywood. Grève qui voulait la régulation des IAG, qui menace leurs métiers sur de nombreux fronts. Les scénaristes sont menacés par ChatGPT qui est entièrement capable de créer un scénario complet de film, ce qui pourrait, selon eux, les remplacer totalement. 

LES ENTREPRISES AMERICAINES S’ENGAGENT POUR PROTEGER LES DROITS DES CITOYENS

Les plus grandes entreprises IAG américaines se sont engagées, face au gouvernement de Biden, à mettre en place de normes de sécurité plus poussées sur leurs plateformes, et cela, durant une réunion à la Maison Blanche le 21 Juillet 2023. Sept grandes entreprises d’IAG sont impliquées : Amazon, Anthropic, Google, Inflection AI, Meta Microsoft et OpenAI.

3 Principes sont à respecter pour ces entreprises  :              La sécurité, la sûreté, et la confiance.

LA CHINE REGLEMENTE LES IAG CONFORMEMENT AU SOCIALISME

Après des mois à développer leurs services d’IA, sans les réguler, la Chine a commencé, pendant l’année 2023, un projet de régulation des IAG dans leur pays.

Commençant d’abord par réguler toutes les IAG de façon très stricte, la Chine a fini par céder et assouplir ses restrictions pour encourager les entreprises chinoises à continuer d’innover.

Voyons ensemble l’évolution des réglementations autour des IAG en Chine et les objectifs derrière la nouvelle réglementation des IAG.

Les règlementations Chinoises

Ces réglementations ont toutes pour but de protéger les citoyens, notamment les utilisateurs mineurs des IAG, mais laisser une place à l’innovation des créateurs de l’IA. Une façon de faire face aux deepfake qui permettent de faire dire tout et n’importe quoi à des célébrités ou encore à des hommes politiques. Cela créé de fausses informations qui sont largement relayées et qui mettent donc en péril la puissance Chinoise. 

Découvrons, d’abord, les réglementations mises en place au début du projet. Pour chaque infraction, le gouvernement chinois prévoit une amende de 100.000 yuans, soit 12.600 euros. Aussi, le gouvernement souhaitait maintenir un contrôle très strict des contenus issus des intelligences artificielles génératives, peu importe si cette IAG est accessible au grand public, ou à des fins de recherches et d’innovation. 

Réglementations qui se sont assouplies pour laisser place à des réglementations très ressemblantes aux réglementations de l’Union européenne. Elles sont mentionnées comme étant des mesures éthiques et ont été réalisées aux côtés de l’organisme chinois chargé de la régulation d’Internet. 

  • Les IAG doivent adhérer aux valeurs fondamentales du socialisme et par la même occasion protéger la sécurité nationale et protéger contre le terrorisme, la violence ou encore la haine raciale. 
  • La mention “générée par l’IA” doit apparaître sur tous les contenus générés par IA
  • Pendant la conception des algorithmes, les entreprises doivent prévenir les discriminations liées au sexe, à l’âge et au groupe ethnique. 
  • La création de contenu via IAG doit se faire avec des informations réelles et vérifiées. 
  • Les données utilisées dans le but d’entraîner les IAG doivent être obtenues de façon légale et ne pas porter atteinte aux droits de propriété intellectuelle

Les entreprises ont leurs parts de participation dans la protection des citoyens, notamment des mineurs, pour lesquels, il faut éviter la dépendance à ces plateformes. Elles doivent aussi supprimer les contenus illégaux de suite, et permettre à tout utilisateur de signaler les contenus inappropriés facilement. Pour les plateformes d’IAG qui sont considérées comme ayant, une influence sur l’opinion publique, les entreprises ont l’obligation d’évaluer leurs algorithmes et fournir un rapport de ces évaluations aux autorités chinoises. 

La réglementation chinoise sur les IAG est considérée comme étant une réglementation parfaitement au milieu des réglementations États-unienne et Européenne. En Europe, l’IA Act est considérée comme étant la législation des IAG la plus stricte, alors qu’à l’inverse, les réglementations États-unienne sont considérées comme la plus souples.

Quels sont leurs objectifs ?

Leur objectif est clair, mettre fin à la dominance américaine en termes d’IAG en soutenant l’innovation dans les entreprises chinoises. Cet objectif se perçoit notamment par leur choix de réglementer les IAG accessibles au grand public et non celles qui sont dédiées à la recherche et développement. 

En permettant l’innovation, la Chine souhaite faire concurrence aux Américains et être compétitive dans ce domaine. La réglementation des IAG et l’envie de devenir plus éthique font aussi partie de leur stratégie, en effet ce qui a été mis en place est considéré comme étant très proche des réglementations européennes considérées comme les plus strictes. Cela leur permet de vendre leur plateforme comme des outils sécurisés et respectant l’éthique et les utilisateurs. 

Un autre objectif clair pour la Chine, faire en sorte de protéger le socialisme majoritairement présent dans le pays. Aucune IAG n’a le droit d’aller à l’encontre des principes du socialisme, ce qui permet au gouvernement de garder une mainmise sur les innovations des entreprises créatrices des IAG.

L’Europe engagée

Parlons IA Act

Face à ses concurrents, le Parlement européen est la première institution à réglementer l’IA et elle le fait strictement pour éviter toutes dérives d’utilisation de celle-ci. Ces réglementations interviennent face à de nombreux dangers auxquels les citoyens, notamment les plus jeunes, font face. Entre le fameux RGPD européen qui protège les données des citoyens, et l’IA Act qui régule les IAG, les utilisateurs sont-ils réellement protégés par ces règles ?

Cette loi a pour but de donner un cadre, avec des exigences et des obligations, pour les utilisateurs, les développeurs et les déployeurs de l’IA concernant les utilisations spécifiques de l’IA. Elle a été développée en prenant en compte des niveaux de risques qui peuvent être engendrés par les IAG.

Leur but ? Permettre à tous de faire confiance aux IA. Tous les systèmes d’IA ne présentent pas de risques, il faut tout de même penser à réguler celles qui pourraient présenter des risques. Alors, cette loi propose des règles à respecter pour utiliser les IAG en fonction de risques allant du “haut inacceptable” au “risque minimal”.

Les règles de l'IA Act

Les règles visent majoritairement à réguler les IA considérées comme étant à risque inacceptable. Les IA classés dans cette case sont celles qui pourraient : 

  • engendrer des pratiques de manipulation ou d’exploitation 
  • engendrer des manipulations par des techniques subliminales 
  • Faire des notations sociales 
  • l’utilisation de systèmes biométriques utilisés dans l’espace non-public

Pour pallier ce risque et au haut risque, les règles sont : 

  • interdire les pratiques à risques inacceptables
  • Lister les IA à haut risque
  • Définir des exigences claires
  • Définir des obligations spécifiques pour les développeurs et les fournisseurs d’IA 

Les autres lois, telles qu’évaluer les systèmes d’IA avant la mise en service, mettre en place une structure de gouvernance aux niveaux européen et national, ou encore étudier les risques qui pourraient être engendrés par les systèmes, s’appliquent à tous les autres risques de la liste.

C’est un résumé très condensé de ce que cette loi propose, il est possible d’en lire plus sur le site de la Commission européenne, qui propose une explication sur la loi de l’IA. C’est une loi qui est complète et permet au gouvernement et aux citoyens d’en savoir plus sur les IAG qu’ils utilisent. En la couplant, avec les règles connues du RGPD, les IAG pourraient devenir des systèmes sécurisés et dans lesquels les citoyens auront confiance.

Les RGPD et l’IA Act protègent-elles vraiment face aux IA ?

Bien que les règles issues de la protection de données et de l’IA Act soient strictes et majoritairement efficaces, certaines directives peuvent mettre en péril le bon fonctionnement de ces lois. Notamment, la directive européenne de 2019, sur les droits d’auteur. 

Cette directive a pour but, à la base, d’améliorer la rémunération des artistes et des éditeurs de presse, venant de la consultation de leurs contenus sur Google ou YouTube. Cette directive vient appuyer le droit RGPD européen en l’adaptant à l’ère du numérique et ainsi mieux protéger les droits des artistes et des éditeurs de presse. 

Une partie de cette directive pose problème, lorsque nous parlons d’IA. En effet, une clause d’exception existe dans ce texte et permet de faire usage de textes et de données sans demander l’autorisation de l’auteur dans le cadre de l’entraînement des IAG. Ce qui engendrerait une forte ressemblance des contenus générés par IAG à des contenus créés authentiquement par des auteurs. 

Cette exception a été pensée pour faciliter la recherche publique et donc faciliter la transmission de connaissance par le numérique. Elle laisse toujours le droit à l’auteur de refuser que ces données soient utilisées pour l’entraînement des IAG. Cependant, cette exception est aussi faite pour laisser le champ libre aux déployeurs d’IAG, qui ont la possibilité  d’utiliser ces données pour entraîner leurs systèmes.

Cette directive fait peur, notamment pour protéger le patrimoine artistique de la personne et protéger leurs créations. Pourtant, la Commission européenne promet aussi de faire évoluer cette directive en fonction de la fonction dont l’IA se développe. 

Royaume Uni VS France : une rivalité naissante

Sur le territoire européen, le Royaume-Uni et la France se font face pour obtenir le rôle de leader. La France organise quelques jours après le Safety Summit, une conférence européenne de référence sur l’intelligence artificielle dans le but de mettre en avant les dernières avancées de l’IA. Et elle souhaite organiser la prochaine édition du AI Safety Summit, sur le territoire français, car la France est bien placée pour créer des coopérations internationales.

Conserver la souveraineté
technologique française

Pour garder son rôle de leader, la France crée de nombreux comités et des commissions sur l’IA. On compte au gouvernement français, un comité qui appelle à la régulation de l’IA, un comité interministériel qui réfléchit à l’impact des IAG sur le secteur de l’industrie culturelle et un comité sur l’intelligence artificielle en France. Ils encouragent grandement les start-ups françaises qui travaillent à développer des IAG, notamment Mistral AI. Dans le but de conserver leur souveraineté technologique et se placer comme leader en Europe, et possiblement dans le reste du monde.

DES RÉGLEMENTATIONS INSUFFISANTES ?

La mobilisation des institutions internationales

Nous avons listé quatre institutions qui travaillent à sensibiliser sur les risques des IAG et qui tentent de faire pression pour que celles-ci deviennent plus responsables.

Elles considèrent toutes que les IAG sont un risque pour la société si elles ne sont pas régulées correctement.

Ces institutions travaillent avec des experts, des scientifiques ainsi que les entreprises elles-mêmes pour permettre de faire évoluer les IAG dans le bon sens, vers une utilisation et une conception plus responsable, éthique, égale et sans biais.

Partnership on AI

Partnership on AI est une institution qui se bat  pour une IA plus responsable et inclusive; contre la manipulation, la désinformation et le harcèlement qui découle de ces nouvelles technologies dans le but d’améliorer la vie des citoyens. Leur but est de proposer des idées qui peuvent être durables dans le temps, et continuer à servir les IAG aussi longtemps que possibles. Ces idées se doivent d’être à long terme et de ne pas être obsolètes au bout de quelques années. 

Leur travail se base sur des programmes auxquels il est possible de participer pour rendre l’IA plus éthique et responsable : IA et intégrité des médias; équité et inclusion; IA,travail et économie; équité transparence et responsabilité et l’IA au service de la sécurité. Ces programmes permettent aussi la sensibilisation de ceux qui y participent au risque des IAG. 

Voici leur façon de fonctionner : réunion des parties prenantes (experts, scientifiques, décideurs politiques, partenaires et acteurs de l’IA) pour identifier les problèmes, créer des ressources et transformer les idées en actions avec des projets pilote et des applications dans le monde réel

De leur point de vue, l’IA est un moyen de régler des problèmes d’ordres sociétaux, mais en l’état elle ne peut que porter préjudice à ces combats.   

Future of Life Institute

Future of Life Institute considère les modèles d’IA comme des risques majeurs. Pour cause, ils apportent à la société l’érosion des processus démocratiques, la généralisation des préjugés, de la désinformation et une course aux armements autonomes.

Leur combat se base aussi sur le fait que ceux qui veulent nuire puissent le faire plus facilement avec l’aide des IAG. Pour illustrer leur propos, ils donnent l’exemple des humains qui dominent les animaux, car leurs intelligences ne sont pas les mêmes et celle des humains est plus développée et complexe que celle des animaux. Pour eux, même les créateurs des IAG ne comprennent pas le fonctionnement de leur système et cela pourrait mener à des pertes catastrophiques. Par exemple, les militaires pourraient perdre le contrôle d’un système très performant qui a pour but d’avoir un impact dévastateur aux mains d’un utilisateur des IAG qui n’a pas de bonnes intentions.

AI Now

AI Now Institute mène son combat pour des IAG plus responsable par la production de diagnostics et de recherches politiques sur l’intelligence artificielle. Leur but est de réorienter la trajectoire actuelle qui va vers la surveillance commerciale débridée, la consolidation du pouvoir dans les entreprises et le manque de responsabilité publique. Ils sont inclus dans les efforts pour réglementer les IAG au sein de leur gouvernement aux USA. Les dirigeants d’AI Now ont invité à conseiller la commission fédérale du commerce des USA sur l’intelligence artificielle en 2021.

Microsoft Research

Microsoft Research compte en son sein une chercheuse qui travaille sur l’IA Kate Crawford, elle apporte son expertise quant à la réflexion sur les IAG. Selon elle, les IAG ne sont pas écologiques, ont un gros impact environnemental, et ne sont pas des technologies vertes. 

Les IAG sont considérées comme des systèmes autonomes, mais Crawford estime l’IA comme non-autonome, non-artificielle et non-intelligente et ajoute que les personnes qui travaillent dessus sont mal rémunérées. La non-autonomie des systèmes est due au fait que les systèmes d’IAG dépendent, exclusivement, des données d’entraînements. Certaines données d’entraînement sont aussi gardées secrètes par les entreprises qui refusent de les divulguer. 

Elle parle aussi de classification de données qu’elle considère comme étant misogynes, racistes et jugeantes. Elle précise que se concentrer sur le pouvoir de l’IA est plus important et que de se concentrer sur son éthique, car l’éthique est, certes, nécessaire mais pas suffisante. Selon elle, l’UE a réussi un grand pari en régulant les IAG avec l’IA Act, considéré comme la législation la plus stricte, et c’est ce dont les IAG ont besoin. 

La mobilisation des associations et d’experts

IMPACT IA : OBJECTIFS

  •  Stimuler et favoriser le développement d’une IA de confiance par la neutralité des algorithmes, l’éthique dans la conception et le développement, la sensibilisation et l’éducation au numérique
  • Identifier et promouvoir la réalisation de projets innovants pour répondre aux grands enjeux sociétaux et à l’intérêt général 
  • Promouvoir le développement et le partage d’outils favorisant et vérifiant l’usage responsable de l’IA.
  • Publier un rapport annuel sur l’impact de l’IA en France en s’appuyant sur les retours d’expériences de ses membres et sur la perception des Français face à l’IA
En savoir plus

Impact AI est une association à but non-lucratif qui a pour objectif de réunir et mobiliser les écosystèmes numériques, les entreprises et les personnes morales du droit privé et publics, les organismes publics ou privés de recherches et de formation sur l’IA, pour répondre à des objectifs d’amélioration des systèmes d’IA.

Une association qui regroupe des membres de grand groupes, notamment le président de l’association qui est issu du groupe Bouygues, les deux vice-présidentes issues des entreprises Capgemini et Microsoft. De grandes entreprises qui supportent l’innovation qu’est l’IA tout en s’engageant dans la régulation de celle-ci pour qu’elle devienne plus responsable.
L’association se regroupe pour faire de l’IA un système qui saurait aider dans les problèmes d’ordre sociétaux et dans des secteurs qui se développent aujourd’hui. Les transports, l’environnement, l’agroalimentaire ou encore la santé. Ils estiment cependant qu’avant de pouvoir aider face à ses problèmes, l’IA doit devenir la meilleure version d’elle-même et donc répondre à des questions de neutralité d’algorithmes, à l’inclusion et à la diversité de leurs algorithmes et bien d’autres améliorations.

Son action se mène notamment par des formations, la dernière en date étant celle sur les biais de genre dans l’usage de l’IA, ou encore des conférences. Ils partagent les résultats de leurs réflexions via l’onglet de leur site internet “Observatoire de l’IA”, avec de nombreux chiffres qui permettent de se projeter sur la question des IAG.

LE SNAC

  • Le Syndicat national des artistes et des compositeurs (SNAC) rappelle, récemment, les dangers que les IAG représentent pour eux. En tant que syndicat qui se bat pour les droits des artistes et des compositeurs.
En savoir plus sur le SNAC

Ils estiment être les premiers touchés par ce phénomène et que leur avenir dépend des réglementations que l’UE met en place. Selon eux, la régulation des IAG doit répondre à un principe, celui de la transparence sur les données d’entraînement et sur les contenus générés. C’est la seule façon dont les gouvernements pourront apporter la garantie aux citoyens et artistes que leurs données sont respectées.

Garantir la transparence des systèmes d’IAG, c’est protéger les industries créatives qui représentent une économie en France et une partie du PIB du pays. Cette garantie permet aussi de gérer les contenus issus des IAG et être sûre que celles-ci soient sûres, et qu’aucun comportement qui pourrait menacer nos libertés et nos principes démocratiques n’en sorte. 

LE SNE

  • Le syndicat national de l’édition (SNE) se positionne pour aider ses membres à exercer leur faculté d’”opt ou” sur  la directive européenne de 2019, qui autorise la récupération de données à des fins d’entraînement des systèmes d’IAG.
En savoir plus sur le SNE

Cette faculté permet aux personnes de refuser que leurs données soient utilisées pour l’entraînement des IAG et donc conserver leur patrimoine artistique. Le SNE propose donc un modèle de clause qui s’intègre dans les conditions générales d’utilisation des leurs sites internet ou dans leurs mentions légales. Cela apparaît comme une première solution pour venir en aide aux éditeurs qui souhaitent refuser l’utilisation de leurs données.

Aux Etats-Unis, les choses bougent aussi concernant les droits d’auteur. Le United States Copyright Office a lancé en 2023 une initiative. Celle-ci à pour but d’examiner les questions de droits d’auteur issues de l’utilisation des systèmes d’IA. Que ce soit pour les droits d’auteur des données utilisées pour générer du contenus, ou sur le contenu généré à l’aide des IAG. Cette initiative s’est faite à travers des séances d’écoute publique et de webinaires publiques qui ont permis le recueil d’informations sur l’impact des IAG. En 2024, le United States Copyright Office prévoit de publier un rapport avec une analyse des questions qui ont été soulevées par cette initiative.