Réglementation de l'intelligence artificielle

politique publique, loi et régulation sur le développement et l'utilisation de l'IA

La réglementation de l'intelligence artificielle est l'élaboration de politiques et de lois du secteur public pour promouvoir et réglementer l'intelligence artificielle (IA). Elle est donc liée à la réglementation des algorithmes[1]. Le paysage réglementaire et politique de l'IA est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne (qui dispose d'un pouvoir de réglementation gouvernemental) et dans les organismes supranationaux comme l'IEEE, l'OCDE (qui n'en ont pas) et d'autres. Depuis 2016, une série de lignes directrices en matière d’éthique de l'IA ont été publiées afin de maintenir le contrôle social sur cette technologie[2]. La réglementation est considérée comme nécessaire à la fois pour encourager l’IA et pour gérer les risques associés. Outre la réglementation, les organisations déployant l’IA jouent un rôle central dans la création et le déploiement d’une IA digne de confiance[3], et dans l'atténuation des risques[4]. La réglementation de l’IA par le biais de mécanismes tels que les commissions d’examen peut également être considérée comme un moyen social d’aborder le problème du contrôle de l’IA[5],[6].

Selon AI Index de Stanford, le nombre annuel de lois liées à l'IA adoptées dans les 127 pays étudiés est passée de une en 2016 à 37 adoptées rien qu'en 2022[7],[8].

Contexte modifier

En 2017, Elon Musk a appelé à une réglementation du développement de l’IA[9]. Selon NPR, le PDG Tesla n'était « clairement pas ravi » à l'idée de plaider en faveur d'un contrôle gouvernemental susceptible d'impacter son propre secteur, mais il estimait que les risques d'un manque de contrôle étaient trop élevés[10] : « En général, des règlements sont mis en place après que des événements se soient produits [...] Cela prend une éternité. Cette manière de faire n’est pas une bonne chose car nous agissons toujours après coup (par réaction). Par le passé, heureusement, cela n’a jamais représenté un risque fondamental pour l’existence de notre civilisation. Concernant l’IA en revanche, c’est différent. Elle représente une véritable menace pour notre existence. »[9] En réponse, certains politiciens ont exprimé leur scepticisme quant à la sagesse du fait de réglementer une technologie encore en développement[11]. Répondant à la fois à Elon Musk et aux propositions de février 2017 des législateurs de l’Union européenne visant à réglementer l’IA et la robotique, le PDG d’Intel, Brian Krzanich, avait déclaré que l’IA n'en était encore qu'à ses débuts et qu’il était trop tôt pour réglementer cette technologie[12]. Au lieu d’essayer de réglementer la technologie elle-même, certains chercheurs ont suggéré d’élaborer des normes communes incluant des exigences en matière de test et de transparence des algorithmes[13].

Dans une enquête Ipsos de 2022, les attitudes à l’égard de l’IA variaient considérablement selon les pays. 78 % des citoyens chinois et seulement 35 % des Américains conviennent que « les produits et services utilisant l'IA présentent plus d'avantages que d'inconvénients »[7]. Un sondage Reuters/Ipsos de 2023 a révélé que 61 % des Américains sont d’accord, et 22 % ne sont pas d’accord sur le fait que l’IA présente des risques pour l’humanité[14]. Dans un sondage Fox News de 2023, 35 % des Américains pensaient qu'il était « très important » et 41 % supplémentaires pensaient qu'il était « assez important » que le gouvernement fédéral réglemente l'IA, contre 13 % répondant « pas très important » et 8 % répondant « pas du tout important »[15],[16].

Points de vue modifier

La réglementation des intelligences artificielles consiste en l’élaboration de politiques et de lois du secteur public visant à promouvoir et à réglementer l’IA[17]. La réglementation est désormais généralement considérée comme nécessaire pour encourager l’IA et gérer les risques associés[18],[19]. Les considérations en matière d’administration publique et de politique se concentrent généralement sur les implications techniques et économiques, sur l'IA digne de confiance, et sur l'IA centrée sur l'humain[20] ; bien que la réglementation des superintelligences artificielles soit également prise en compte[21]. L'approche de la réglementation en matière d'IA se concentre couramment sur les risques et biais des algorithmes d'apprentissage automatique, notamment sur les données utilisées, le test des algorithmes, le choix du modèle de décision, ainsi que sur l'explicabilité des résultats[22].

Les propositions de réglementation de l'IA peuvent être plus ou moins contraignantes[23]. Certains juristes ont souligné que les approches juridiquement contraignantes (hard laws en anglais) présentent des défis considérables en réglementation de l’IA[24],[25]. Notamment du fait que les technologies d'IA évoluent rapidement, les approches législatives traditionnelles ne pouvant pas suivre le rythme des applications émergentes et des risques et bénéfices associés[24],[25]. De même, la diversité des applications de l’IA constitue un défi pour les agences de réglementation, dont la portée juridictionnelle est souvent limitée[24]. En guise d’alternative, certains juristes soutiennent que les approches moins contraignantes (droit mou) sont prometteuses pour réglementer l'IA, car elles sont plus flexibles et évolutives[24],[25]. Le manque de contrainte peut cependant aussi être un problème[24],[26].

Cason Schmit, Megan Doerr et Jennifer Wagner ont proposé la création d'un organisme de réglementation quasi-gouvernemental, qui tirerait parti des droits de propriété intellectuelle avec des licences contaminantes de type copyleft. Ces licences porteraient par exemple sur les modèles d'IA ou les données utilisées pour l'entraînement du modèle, et permettraient à l'organisme désigné de mettre en vigueur un code de conduite ou un ensemble de principes éthiques[27].

La réglementation de l’IA pourrait découler de principes de base. Une méta-analyse de 2020 a identifié 8 principes de base: confidentialité, imputabilité, sûreté et sécurité, transparence et explicabilité, équité et non-discrimination, contrôle de la technologie par l'humain, responsabilité professionnelle et respect des valeurs humaines[28]. Les lois et réglementations sur l’IA ont été divisées en trois sujets principaux, à savoir la gouvernance des systèmes intelligents autonomes, la responsabilité et l’imputabilité, et les questions de confidentialité et de sûreté[29]. Une approche d'administration publique voit une relation entre la loi et la réglementation de l'IA, éthique de l'IA, acceptation sociale, confiance dans l'IA, et la transformation de l'interaction homme-machine et de la force de travail[30]. L’élaboration de stratégies du secteur public pour la gestion et la réglementation de l’IA est jugée nécessaire aux niveaux local, national[31] et international[32]. Elle s'applique dans divers domaines tels que la gestion et l'imputabilité des service publics[33],[34], l'application de la loi [32],[35], le médical[36],[37],[38],[39],[40], le secteur financier[31], la robotique[41],[42], les véhicules autonomes[41], l'armée[43], la sécurité nationale[44] et le droit international[45],[46].

Henry Kissinger, Eric Schmidt et Daniel Huttenlocher ont publié une déclaration commune en novembre 2021 intitulée Being Human in an Age of AI (« Être humain à l'ère de l'IA »), appelant à la création d'une commission gouvernementale pour réglementer l'IA[47].

En réponse au problème du contrôle de l'IA modifier

La régulation de l’IA peut être considérée comme un bon moyen social de gérer le problème du contrôle de l'IA (la nécessité d’assurer une IA bénéfique à long terme). D’autres approches telles que ne rien faire ou interdire l'IA sont en général considérées comme peu adaptées. Certaines approches transhumanistes comme l’amélioration des capacités humaines (par exemple avec des interfaces cerveau-machine) sont parfois considérées comme complémentaires[6],[48]. La réglementation de la recherche sur l'intelligence artificielle générale (IAG) se concentre sur le rôle des comités d'examen (des universités et entreprises jusqu'aux niveaux internationaux), sur le soutien de la recherche en sûreté de l'IA[48], sur la possibilité de développement intellectuel différentiel (en privilégiant les stratégies protectrices aux stratégies risquées dans le développement de l’IA) ou sur la possibilité de mener une surveillance internationale pour contrôler le développement de l’IAG[6]. Par exemple, le concept d'AGI Nanny (« IAG Nounou ») est une stratégie proposée, potentiellement sous le contrôle de l'humanité, pour empêcher la création d'une superintelligence dangereuse ainsi que pour faire face à d'autres menaces majeures au bien-être humain telles que la subversion du système financier mondial ; jusqu'à ce qu'une véritable superintelligence puisse être créée en toute sécurité. Cela implique la création d’une IAG plus intelligente que l'humain sans pour autant être superintelligente. Celle-ci serait connectée à un vaste réseau de surveillance dans le but de surveiller l’humanité et de la protéger du danger[6]. La réglementation de potentielles IAs conscientes se concentre sur la façon de les intégrer dans la société humaine existante et peut être divisée en considérations sur leur statut juridique et sur leurs droits moraux[49]. La réglementation de l’IA a été considérée comme restrictive, risquant d’empêcher le développement de l’IAG[41].

Orientation mondiale modifier

La création d’un conseil de gouvernance mondial pour réglementer le développement de l’IA a été suggérée au moins dès 2017[50]. En décembre 2018, le Canada et la France ont annoncé leur intention de créer, sur le modèle du GIEC, un groupe international d'experts sur l'intelligence artificielle soutenu par le G7. Son but serait d'étudier les effets mondiaux de l'IA sur les gens et l'économie et d'orienter le développement de l'IA[51],[52]. En 2019, le Groupe a été rebaptisé Partenariat mondial sur l’intelligence artificielle[53].

Les principes sur l'IA de l'OCDE ont été adoptées en mai 2019[54],[55] et les principes sur l'IA du G20 en juin 2019[56]. En septembre 2019, le Forum économique mondial a publié dix AI Government Procurement Guidelines (« Lignes directrices relatives à l’approvisionnement en IA au sein des gouvernements »)[57]. En février 2020, l’Union européenne a publié son document de stratégie pour promouvoir et réglementer l’IA[32].

Le Partenariat mondial sur l'intelligence artificielle (PMIA) a été lancé en juin 2020, affirmant la nécessité de développer l'IA conformément aux droits de l'homme et aux valeurs démocratiques, afin de garantir la confiance du public dans cette technologie, comme indiqué dans les Principes sur l'IA adoptés par l'OCDE en 2019[58],[53]. Les 15 membres fondateurs du PMIA sont: Australie, Canada, Union européenne, France, Allemagne, Inde, Italie, Japon, République de Corée, Mexique, Nouvelle-Zélande, Singapour, Slovénie, États-Unis et Royaume-Uni[58]. Le Secrétariat du PMIA est hébergé par l'OCDE à Paris[58]. Le mandat du PMIA couvre quatre thématiques. Le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) s'occupe des deux thèmes IA responsable et gouvernance des données. Le thème avenir du travail et le thème innovation et commercialisation sont quant à eux traités à Paris[59]. Le PMIA a aussi étudié comment l’IA peut être exploitée pour répondre à la pandémie de Covid-19[59].

À l'ONU, plusieurs entités ont commencé à promouvoir et à discuter des aspects de la réglementation et de la politique de l'IA, notamment le Centre pour l'IA et la robotique de l'UNICRI[44]. En partenariat avec INTERPOL, le Centre pour l'IA et la robotique a publié le rapport AI and Robotics for Law Enforcement (« IA et robotique pour l'application de la loi ») en avril 2019[60] et le rapport de suivi Towards Responsible AI Innovation (« Vers une innovation responsable en IA ») en mai 2020[61]. Lors de la 40e session scientifique de l'UNESCO en novembre 2019, l'organisation a lancé un processus de deux ans visant à parvenir à un « instrument normatif mondial sur l'éthique de l'intelligence artificielle ». Dans la poursuite de cet objectif, des forums et des conférences de l'UNESCO sur l'IA ont été organisées pour recueillir les points de vue des parties prenantes. Un projet de texte Recommendation on the Ethics of AI (« Recommandations sur l'éthique de l'IA »)[62] du groupe d'experts ad hoc de l'UNESCO a été publié en septembre 2020. Il incluait un appel à combler des lacunes législatives. L'UNESCO l'a présenté pour adoption lors de sa Conférence générale en novembre 2021[62], et il a été adopté[63]. Alors que l’ONU progresse dans la gestion mondiale de l’IA, sa capacité institutionnelle et juridique à gérer le risque existentiel lié à l’IA est plus limitée[64].

AI for Good (« l'IA pour le bien ») est une initiative de l'Union internationale des télécommunications (UIT) en partenariat avec 40 agences sœurs de l'ONU. AI for Good vise à identifier les applications pratiques de l'IA pour faire progresser les objectifs de développement durable de l'ONU et à faire évoluer ces solutions pour un impact mondial. Il s'agit d'une plateforme de l'ONU orientée vers l'action, mondiale et inclusive, qui favorise le développement de l'IA afin d'avoir un impact positif. Notamment sur la santé, le climat, l'égalité des genres, la prospérité inclusive, les infrastructures durables et d'autres priorités de développement mondial[65].

Réglementation régionale et nationale modifier

 
Chronologie des stratégies, plans d'action et documents d'orientation politique définissant les approches nationales, régionales et internationales de l'IA[60].

Le paysage réglementaire et politique de l’IA est un problème émergent dans les juridictions du monde entier. Depuis début 2016, de nombreuses autorités nationales, régionales et internationales ont commencé à adopter des stratégies, des plans d’action et des documents d'orientation politique sur l’IA[66],[67]. Ces documents couvrent un large éventail de sujets tels que la réglementation, la gouvernance,la stratégie industrielle, la recherche, les talents et les infrastructures[20],[68].

Les pays ont abordé le problème de différentes manières. Concernant les trois plus grandes économies, il a été dit que « les États-Unis suivent une approche basée sur le marché, la Chine met en avant une approche basée sur l'État et l'Union Européenne poursuit une approche basée sur les droits »[69].

Canada modifier

La Stratégie pancanadienne en matière d'intelligence artificielle (2017) est soutenue par un financement fédéral de 125 millions de dollars canadiens[70],[71]. Elle a pour objectifs d'augmenter au Canada le nombre de diplômés qualifiés et de chercheurs exceptionnels en IA, d'établir des nœuds d'excellence scientifique dans les trois principaux centres d'IA et de devenir un leader mondial sur la question des implications économiques, éthiques, politiques et juridiques des progrès de l’IA[72]. Le programme Chaires en IA Canada-CIFAR est un élément essentiel de cette stratégie[71]. Il bénéficie d’un financement de 86,5 millions de dollars canadiens sur cinq ans pour attirer et retenir des chercheurs de renommée mondiale en IA[73]. Le gouvernement fédéral a nommé un Conseil consultatif en matière d'intelligence artificielle en mai 2019[74], chargé d'examiner comment tirer parti des atouts du Canada pour garantir que les progrès de l'IA reflètent les valeurs canadiennes, telles que les droits humains, la transparence et le logiciel libre. Le Conseil consultatif sur l'IA a créé un Groupe de travail sur la commercialisation pour en tirer une valeur économique[74],[72]. En 2020, le gouvernement fédéral et le gouvernement du Québec ont annoncé l'ouverture à Montréal du Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA), visant à faire avancer le développement responsable de l'IA[72]. En 2022, le gouvernement fédéral canadien a déposé le projet Loi sur l'intelligence artificielle et les données[75] En juin 2022 démarre la seconde phase de la Stratégie pancanadienne en matière d'intelligence artificielle[71]. En novembre 2022, le Canada a présenté la Loi de 2022 sur la mise en œuvre de la Charte du numérique (projet de loi C-27), qui propose trois lois décrites comme un ensemble holistique de législations sur la confiance et le respect de la vie privée : la "Loi sur la protection de la vie privée des consommateurs", la "Loi sur le Tribunal de la protection des renseignements personnels et des données" et la "Loi sur l’intelligence artificielle et les données"[76]. En novembre 2023, le Canada envisage de voter un Artificial Intelligence and Data Act (AIDA)[77].

Chine modifier

La réglementation de l'IA en Chine est principalement régie par le « Plan de développement de l'intelligence artificielle de nouvelle génération » du Conseil des affaires de l'État de la république populaire de Chine du 8 juillet 2017 (document n° 35 du Conseil d'État), dans lequel le Comité central du Parti communiste chinois et le Conseil d'État de la RPC ont exhorté les instances dirigeantes chinoises à promouvoir le développement de l'IA jusqu'en 2030. La réglementation des questions de support éthique et juridique au développement de l'IA s'accélère. La politique chinoise garantit le contrôle de l'État sur les entreprises chinoises et sur les données de valeur. Notamment sur le stockage des données sur les utilisateurs chinois dans le pays et le respect des standards nationaux sur l'IA en big data, cloud computing et logiciel industriel[78],[79],[80]. En 2021, la Chine a publié des directives éthiques sur l’utilisation de l’IA en Chine, qui stipulent que les chercheurs doivent veiller à ce que l’IA respecte des valeurs humaines communes, reste sous contrôle humain et ne mette pas en danger la sécurité publique[81]. En 2023, la Chine a introduit des mesures provisoires pour la gestion des services d'IA générative[82].

Conseil de l'Europe modifier

Le Conseil de l'Europe est une organisation internationale qui promeut la démocratie, les droits de l'homme et l'État de droit. Il comprend 47 États membres, dont les 29 signataires de la Déclaration de Coopération sur l'Intelligence Artificielle faite en 2018 par l'Union européenne. Le Conseil de l'Europe a créé un espace juridique commun dans lequel ses membres ont l'obligation légale de garantir les droits énoncés dans la Convention européenne des droits de l'homme. En ce qui concerne spécifiquement l'IA, « l'objectif du Conseil de l'Europe est d'identifier les domaines d'intersection entre l'IA et nos normes en matière de droits de l'homme, de démocratie et d'État de droit, et d'élaborer des solutions pertinentes d'établissement de normes ou de renforcement des capacités ». Le conseil de l'Europe s'appuie sur divers documents tels que des lignes directrices, des chartes, des documents, des rapports et des stratégies. Ces documents proviennent de divers acteurs de la société tels que des organisations, des entreprises et des pays[83],[84].

Union européenne modifier

L'Union Européenne est l’une des plus grandes juridictions au monde et joue un rôle actif dans la réglementation mondiale des marchés numériques[85],[86].

La plupart des pays de l’Union européenne (UE) ont leurs propres stratégies nationales de réglementation de l’IA, mais celles-ci sont largement convergentes. L'Union européenne est guidée par une stratégie européenne sur l'intelligence artificielle, soutenue par un groupe d'experts de haut niveau sur l'intelligence artificielle, qui mène notamment des travaux sur l'IA digne de confiance[87],[88]. La Commission européenne a publié ses Lignes directrices en matière d’éthique pour une IA digne de confiance en avril 2019[89],[90], suivies de ses Recommandations de politique et d'investissement pour une IA de confiance en juin 2019[91]. La Commission a aussi publié des rapports sur les aspects de sécurité et de responsabilité de l'IA, et sur l'éthique des véhicules autonomes. En 2020, la Commission européenne a sollicité des avis sur une proposition de législation spécifique à l’IA[83].

En février 2020, la Commission européenne a publié son Livre blanc sur l'intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance[32]. Le Livre blanc se compose de deux éléments principaux : un « écosystème d'excellence » et un « écosystème de confiance ». L'« écosystème de confiance » décrit l'approche de l'UE en matière de cadre réglementaire pour l'IA. Dans l'approche qu'elle propose, la Commission fait une distinction entre les applications d'IA « à haut risque » et celles qui ne le sont pas. Seuls les applications « à haut risque » devraient entrer dans le champ d’application d’un futur cadre réglementaire européen. Une application est considérée à haut risque si le secteur dans lequel elle est utilisée est à risque (par exemple le secteur des transports ou celui des soins de santé), et que l'utilisation qui en est fait est susceptible de faire apparaître ces risques. Les principales exigences pour les applications d'IA à haut risque concernent : « données d’entraînement » des modèle d'IA, « stockage des données », « informations à fournir », « robustesse et précision », « contrôle humain ». Il y a aussi des exigences particulières pour certains usages spécifiques tels que la biométrie. Pour les applications d'IA qui ne sont pas considérées comme « à haut risque » un système de labels est proposé sur la base du volontariat. En ce qui concerne la conformité et la mise en vigueur, la Commission envisage des évaluations préalables de la conformité, qui pourraient inclure des « procédures d'essai, d'inspection ou de certification » et/ou une « vérification des algorithmes et des ensembles de données utilisés lors de la phase de développement ». Un cadre de coopération des autorités nationales compétentes pourrait faciliter l'implémentation de cette gouvernance européenne de l'IA[32],[92]. En avril 2021 est officiellement proposée la législation sur l’intelligence artificielle (en anglais Artificial Intelligence Act, ou AI Act)[93]. Elle comprend un peaufinage de l’approche du Livre blanc sur l'intelligence artificielle de 2020, mais contient cette fois 4 catégories de risque : « minimal », « limité », « élevé », et « inacceptable »[94],[93]. Cette première version avait été critiquée notamment du fait de divers éléments flous (dont la définition large de ce qui constitue l'IA), faisant craindre des implications juridiques involontaires[93],[95].

Des observateurs ont exprimé leurs inquiétudes quant à la multiplication des propositions législatives sous la Commission von der Leyen. La rapidité des initiatives législatives est en partie motivée par les ambitions politiques de l’Union européenne. Mais le nombre de lois pourrait rendre difficile le maintient de la cohérence entre elles[96]. Parmi les principes directeurs énoncés dans les diverses propositions législatives de la Commission von der Leyen en IA figurent les objectifs d'autonomie stratégique[97] et le concept de souveraineté numérique[98].

En 2023, les colégislateurs sont parvenus à un accord sur la réglementation de l'IA qui doit être suivi d'un travail technique pour finaliser le texte. L'accord prévoit par exemple des obligations de prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou un système de gestion du risque. Elle prévoit aussi l'information de l'utilisateur de la présence d'une intelligence artificielle[99].

Allemagne modifier

En novembre 2020[100], l'Institut Allemand de Normalisation et le ministère fédéral de l'Économie et de la Protection du Climat ont publié la première édition de la « Feuille de route allemande de normalisation de l'intelligence artificielle » (« NRM KI ») et l'ont présentée au public lors du sommet numérique du gouvernement fédéral d'Allemagne[101]. NRM KI décrit les exigences des futures réglementations et normes dans le contexte de l'IA. La mise en œuvre des recommandations vise à renforcer l'économie et la science allemandes en IA, et à créer des conditions favorables à l'innovation pour cette technologie émergente. La première édition est un document de 200 pages rédigé par 300 experts. La deuxième édition du NRM KI a été publiée à l'occasion du Sommet numérique du gouvernement allemand le 9 décembre 2022[102]. L'Institut Allemand de Normalisation a coordonné plus de 570 experts participants issus d'un large éventail de domaines, dont la science, l'industrie, la société civile ou le secteur public. La deuxième édition est un document de 450 pages.

D'une part, NRM KI couvre les thèmes centraux en termes d'applications (par exemple médecine, mobilité, énergie et environnement, services financiers, automatisation industrielle) et de questions fondamentales (par exemple classification de l'IA, sécurité, certification, systèmes socio-techniques, éthique)[102]. D'autre part, il fournit un aperçu des thèmes centraux en IA et de son environnement à travers un large éventail de groupes d'intérêt et de sources d'information. Au total, le document couvre 116 besoins en matière de normalisation et fournit six principales recommandations d'action[103].

Royaume-Uni modifier

Le Royaume-Uni a soutenu l’application et le développement de l’IA dans les entreprises via la Digital Economy Strategy (« Stratégie pour une économie numérique ») introduite début 2015 par Innovate UK[104]. Dans le secteur public, des lignes directrices sur l'éthique des données ont été fournies par le Département de la Culture, des Médias et du Sport[105]. L'Institut Alan Turing a conseillé l'implémentation et la conception responsable des systèmes d'IA[106]. En termes de cybersécurité, le National Cyber Security Centre a publié en 2020 des lignes directrices sur les « outils de sécurité intelligents »[44],[107]. L’année suivante, le Royaume-Uni a publié sa stratégie nationale sur 10 ans en matière d’IA[108], qui décrit les actions visant à évaluer les risques à long terme liés à l’IA, y compris les risques catastrophiques liés à l’IA générale[109].

En mars 2023, le Royaume-Uni publie un livre blanc intitulé A pro-innovation approach to AI regulation (« Une approche de la réglementation de l'IA favorable à l'innovation »)[110]. Celui-ci présente des principes généraux, mais laisse une flexibilité importante aux régulateurs existants quant à la façon de les adapter pour les différents secteurs, tels que l'aéronautique ou les marchés financiers[111]. En novembre 2023, le Royaume-Uni accueille le premier sommet en sûreté de l'IA, le premier ministre anglais Rishi Sunak souhaitant faire du Royaume-Uni un leader dans la réglementation en sûreté de l'IA[112],[113].

États-Unis modifier

Les discussions sur la réglementation de l’IA aux États-Unis ont porté sur des sujets tels que la question du bon moment pour réglementer l’IA, la nature du cadre réglementaire fédéral pour régir et promouvoir l’IA, la question de quelle agence devrait diriger, les pouvoirs de réglementation et de gouvernance de cette agence, comment mettre à jour les réglementations face à l’évolution rapide de la technologie, et quel rôle attribuer aux gouvernements et tribunaux des États[114].

Dès 2016, l’administration Obama avait commencé à s'intéresser aux risques et à la réglementation liés à l’intelligence artificielle. Dans un rapport intitulé Preparing For the Future of Artificial Intelligence (« Se préparer pour le futur de l'intelligence artificielle »)[115], le Conseil national des sciences et technologies a créé un précédent en permettant aux chercheurs de continuer à développer de nouvelles technologies d'IA avec peu de restrictions. Il est indiqué dans le rapport que « l'approche en matière de réglementation des produits rendus possibles par l'IA qui est de protéger la sécurité publique devrait être éclairée par une évaluation des aspects du risque..."[115]. Ces risques seraient la principale raison de créer de nouvelles réglementations, si les réglementations existantes ne s'appliquent pas à l'IA.

Le premier rapport principal était le National Strategic Research and Development Plan for Artificial Intelligence (« Plan national de recherche stratégique et de développement de l'intelligence artificielle »)[116] Le 13 août 2018, l'article 1051 de la John S. McCain National Defense Authorization Act (« Loi John S. McCain sur l'Autorisation de Défense Nationale ») pour l'année fiscale 2019 (PL 115-232) a créé la National Security Commission on Artificial Intelligence (« Commission de Sécurité Nationale sur l'Intelligence Artificielle »), abrégée NSCAI. Elle a notamment pour but d'« examiner les méthodes et les moyens nécessaires pour faire progresser le développement de l'intelligence artificielle, l'apprentissage automatique, et des technologies associées afin gérer de manière globale les besoins de défense et de sécurité nationale des États-Unis. »[117] Le pilotage de la réglementation de l’IA liée à la sécurité est assuré par la NSCAI[118]. L'Artificial Intelligence Initiative Act (« Loi d'Initiative en Intelligence Artificielle ») (S.1558) est un projet de loi qui établirait une initiative fédérale conçue pour accélérer la recherche et le développement de l'IA, entre autres pour la sécurité économique et nationale des États-Unis[119],[120].

Le 7 janvier 2019, à la suite d'un décret visant à maintenir le leadership américain en matière d'intelligence artificielle[121] , l'OSTP (Bureau de la politique scientifique et technologique) de la Maison Blanche a publié l'ébauche de document Guidance for Regulation of Artificial Intelligence Applications (« Lignes directrices pour les applications d'intelligence artificielle »)[122], qui comprend dix principes à l'intention des agences américaines lorsqu'elles doivent décider s'il faut réglementer l'IA et comment[123]. En réponse, le NIST a publié un document de position[124], et le Defence Innovation Board a publié des recommandations sur l’utilisation éthique de l’IA[125].

La FDA a aussi travaillé sur la réglementation de l'IA[37], notamment dans le cadre de l'imagerie médicale[36]. Le NIST a également publié son National Artificial Intelligence Research and Development Strategic Plan (« Plan national de stratégie de recherche et développement en intelligence artificielle »)[126]. Le public a pu examiner ce plan de stratégie et fournir des recommandations, afin de se rapprocher davantage d'une IA digne de confiance[127].

En mars 2021, la NSCAI a publié son rapport final[128]. Ils y ont notamment écrit que les progrès en l'IA vont probablement permettre de nouvelles capacités et applications, potentiellement drastiques. Et que cela pourrait amener de nouvelles problématiques et de nouveaux risques, nécessitant ainsi de nouvelles recommandations, réglementations et avancées techniques pour s'assurer que les systèmes d'IA restent sûrs, robustes, et dignes de confiance. Le NSCAI recommande de scruter les progrès en IA, de faire les investissements nécessaires et d'y prêter une attention politique, afin d'assurer que les systèmes d'IA restent alignés avec les objectifs et les valeurs des États-Unis[128].

En juin 2022, les sénateurs Rob Portman et Gary Peters ont présenté le Global Catastrophic Risk Mitigation Act (« Loi sur l'atténuation des risques de catastrophe planétaire »). Le projet de loi bipartisan « aiderait également à contrer le risque que l’intelligence artificielle… soit utilisée à mauvais escient d’une manière qui pourrait présenter un risque catastrophique »[129],[130]. Le 4 octobre 2022, le président Joe Biden a dévoilé une nouveau AI Bill of Rights (« Déclaration de Droits liés à l'IA »)[131], qui décrit cinq protections dont les Américains devraient bénéficier à l'ère de l'IA : des systèmes sûrs et efficaces, une protection contre la discrimination algorithmique, la confidentialité des données, des explications, et enfin des alternatives et considérations humaines. Le projet de loi a été présenté en octobre 2021 par l'OSTP[132].

En janvier 2023, la New York City Bias Audit Law (« Loi de New York City sur l'audit de biais ») a été promulguée par le Conseil de New York en novembre 2021[133]. Elle est entrée en application le 5 Juillet 2023[134] et elle interdit aux entreprises d'utiliser des outils automatisés de décision pour embaucher des candidats ou promouvoir des employés, à moins que les outils n'aient été audités de manière indépendante à la recherche de biais.

En juillet 2023, l’administration Biden-Harris a obtenu des engagements volontaires de la part de sept entreprises : Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft et OpenAI. Le but est de gérer les risques associés à l’IA. Ces entreprises se sont engagées à[135] :

  • Garantir que les produits d’IA soient soumis à des tests internes et externes de sécurité avant leur diffusion publique.
  • Partager des informations sur la gestion des risques liés à l’IA avec l’industrie, les gouvernements, la société civile et le monde universitaire.
  • Prioriser la cybersécurité et la protection d'informations concernant leurs systèmes d'IA.
  • Développer des mécanismes pour informer les utilisateurs lorsqu'un contenu est généré par l’IA.
  • Faire connaître publiquement les capacités, limites et utilisations de leurs systèmes d'IA.
  • Prioriser la recherche sur les risques sociétaux posés par l’IA (notamment les biais, la discrimination et les problèmes de confidentialité des données).
  • Développer des systèmes d'IA pour adresser des défis sociétaux tels que la prévention du cancer ou l'atténuation du changement climatique.

En septembre 2023, huit entreprises supplémentaires ont souscrit à ces engagements volontaires : Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability AI[135],[136].

Brésil modifier

Le 30 septembre 2021, la Chambre des députés brésilienne a approuvé le Marco Legal da Inteligência Artificial (« Cadre juridique pour l'intelligence artificielle ») dans le cadre des efforts de réglementation pour le développement et l'utilisation des technologies d'IA. Cette loi vise à stimuler davantage la recherche et l'innovation dans les solutions d'IA visant l'éthique, la culture, la justice, l’équité et l'imputabilité. Il contient 10 articles, qui traitent des objectifs, de l'élaboration de principes éthiques, de la promotion d'investissements soutenus dans la recherche, et de l'élimination des obstacles à l'innovation. Notamment, l’article 4 met l’accent sur le fait d'éviter des solutions discriminatoires en matière d’IA, sur la pluralité et sur le respect des droits de l’homme. En outre, cette loi insiste sur l'importance du principe d'égalité dans les algorithmes de prise de décision, en particulier pour les sociétés très diverses et multiethniques comme celle du Brésil.

Lorsque le projet de loi a été rendu public, il a fait l’objet de nombreuses critiques, ses détracteurs lui reprochant de ne pas traiter adéquatement de l'imputabilité, la transparence et l’inclusivité. L'article VI établit la responsabilité subjective, ce qui signifie que toute personne endommagée par un système d'IA et souhaitant recevoir une compensation doit préciser la partie prenante et prouver qu'il y a eu une erreur dans le cycle de vie de la machine. Des chercheurs estiment qu’il est contraire à l’ordre juridique de qu'un individu soit chargé de prouver une erreur algorithmique étant donné le degré élevé d’autonomie, d’imprévisibilité et de complexité des systèmes d’IA. Cela a également attiré l'attention sur les problèmes actuels des systèmes de reconnaissance faciale au Brésil qui sont parfois accusés de conduire à des arrestations injustes par la police. Selon ses détracteurs, cette loi implique que les individus se retrouveraient à devoir prouver que la machine a commis une erreur.

La principale controverse autour de ce projet de loi concernait la mise en application des trois principes proposés. Premièrement, le principe de non-discrimination suggère que l’IA doit être développée et utilisée de manière à atténuer la possibilité de pratiques abusives et discriminatoires. Deuxièmement, la poursuite du principe de neutralité énumère des recommandations destinées aux parties prenantes afin d'atténuer les préjugés. Enfin, le principe de transparence stipule que la transparence d'un système est nécessaire seulement lorsqu'il existe un risque élevé de violation des droits fondamentaux. La loi donne des lignes directrices souples, et il lui a été reproché de manquer de clauses obligatoires et contraignantes. Il lui a aussi été reproché de ne pas avoir fait intervenir suffisamment de parties prenantes.

Réglementation des armes entièrement autonomes modifier

Les questions juridiques liées aux systèmes d'armes létales autonomes, notamment le respect du droit international humanitaire, sont discutées à l'ONU depuis 2013, dans le cadre de la Convention sur certaines armes classiques[137],[138]. Des réunions informelles d’experts ont notamment eu lieu en 2014, 2015 et 2016 et un groupe d’experts gouvernementaux a été nommé pour poursuivre les délibérations sur la question en 2016. Un ensemble de principes sur ces armes, mis en avant par le groupe d'experts gouvernementaux, a été adopté en 2018[139].

En 2016, la Chine a publié un document de position remettant en question l’adéquation du droit international existant pour faire face à l’éventualité d’armes entièrement autonomes, devenant ainsi le premier membre permanent du Conseil de sécurité des Nations unies à aborder la question[45], ce qui a débouché sur des propositions de réglementation mondiale[140]. La possibilité d'un moratoire ou d'une interdiction préventive du développement et de l'utilisation d'armes létales autonomes a également été soulevée à plusieurs reprises par d'autres délégations nationales à la Convention sur certaines armes classiques. Une telle interdiction est aussi fortement défendue par la campagne Stop Killer Robots (« Arrêtez les robots tueurs »), une coalition internationale d'organisations non gouvernementales[141],[142]. Le gouvernement américain soutient que le droit international humanitaire actuel est capable de réglementer le développement ou l’utilisation des armes létales autonomes[143]. Le Service de recherche du Congrès a indiqué en 2023 que les États-Unis n'ont pas d'armes létales autonomes dans son inventaire, mais que sa politique n'en interdit pas le développement et l'utilisation[144].

Voir également modifier

Références modifier

  1. Alice Vitard, « Dans la perspective de la nouvelle réglementation sur l'IA, la Cnil se prépare à auditer les algorithmes », L'Usine Digitale,‎ (lire en ligne, consulté le )
  2. (en) Héder, « A criticism of AI ethics guidelines », Információs Társadalom, vol. 20, no 4,‎ , p. 57–73 (DOI 10.22503/inftars.XX.2020.4.5, S2CID 233252939)
  3. « European Commission.: Ethics guidelines for trustworthy AI. EC HLEG »,
  4. (en) Curtis, Gillespie et Lockey, « AI-deploying organizations are key to addressing 'perfect storm' of AI risks », AI and Ethics, vol. 3, no 1,‎ , p. 145–153 (ISSN 2730-5961, PMID 35634256, PMCID 9127285, DOI 10.1007/s43681-022-00163-7, lire en ligne)
  5. (en) « An Ethical Approach to AI is an Absolute Imperative », sur Olbios, (consulté le )
  6. a b c et d (en) Sotala et Yampolskiy, « Responses to catastrophic AGI risk: a survey », Physica Scripta, vol. 90, no 1,‎ , p. 018001 (ISSN 0031-8949, DOI 10.1088/0031-8949/90/1/018001)
  7. a et b (en) James Vincent, « AI is entering an era of corporate control », sur The Verge, (consulté le )
  8. « Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance », AI Index, (consulté le )
  9. a et b Stéphanie Schmidt, « Pour Elon Musk, la non régulation de l'intelligence artificielle pourrait être « le plus grand danger auquel nous serons confrontés en tant que civilisation » », sur Trust My Science, (consulté le )
  10. (en) Camila Domonoske, « Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk' », NPR,‎ (lire en ligne)
  11. (en) Samuel Gibbs, « Elon Musk: regulate AI to combat 'existential threat' before it's too late », The Guardian,‎ (ISSN 0261-3077, lire en ligne, consulté le )
  12. (en) Arjun Kharpal, « A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says », sur CNBC, (consulté le )
  13. Kaplan et Haenlein, « Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence », Business Horizons, vol. 62,‎ , p. 15–25 (DOI 10.1016/j.bushor.2018.08.004, S2CID 158433736)
  14. (en) Benj Edwards, « Poll: AI poses risk to humanity, according to majority of Americans », sur Ars Technica, (consulté le )
  15. (en) Peter Kasperowicz, « Regulate AI? GOP much more skeptical than Dems that government can do it right: poll », sur Fox News, (consulté le )
  16. « Fox News Poll », Fox News, (consulté le )
  17. Woodrow Barfield et Ugo Pagallo, Research handbook on the law of artificial intelligence, Cheltenham, UK, (ISBN 978-1-78643-904-8, OCLC 1039480085)
  18. Lucie Lequier, « Tout comprendre à l’IA Act, le texte européen de réglementation de l’intelligence artificielle », sur Numerama, (consulté le )
  19. Numalis, « La réglementation de l’intelligence artificielle est-elle un frein à l’innovation ou plutôt un levier ? », Sido Paris,‎ (lire en ligne)
  20. a et b (en) Artificial intelligence in society, OECD, (ISBN 978-92-64-54519-9, OCLC 1105926611)
  21. (en) Vladimir P. Kamyshansky, Evgenia Y. Rudenko, Evgeniy A. Kolomiets et Dina R. Kripakova, « Revisiting the Place of Artificial Intelligence in Society and the State », Artificial Intelligence: Anthropogenic Nature vs. Social Origin, Springer International Publishing, advances in Intelligent Systems and Computing,‎ , p. 359–364 (ISBN 978-3-030-39319-9, DOI 10.1007/978-3-030-39319-9_41, lire en ligne, consulté le )
  22. (en) BUITEN, « Towards Intelligent Regulation of Artificial Intelligence », European Journal of Risk Regulation, vol. 10, no 1,‎ , p. 41–59 (ISSN 1867-299X, DOI 10.1017/err.2019.8, S2CID 155138874)
  23. (en) « Special Issue on Soft Law Governance of Artificial Intelligence: IEEE Technology and Society Magazine publication information », IEEE Technology and Society Magazine, vol. 40, no 4,‎ , p. C2 (DOI 10.1109/MTS.2021.3126194)
  24. a b c d et e (en) Marchant, « "Soft Law" Governance of AI », AI Pulse, AI PULSE Papers (consulté le )
  25. a b et c (en) Johnson et Bowman, « A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence », IEEE Technology and Society Magazine, vol. 40, no 4,‎ , p. 68–76 (DOI 10.1109/MTS.2021.3123745, S2CID 245053179)
  26. (en) Sutcliffe et Brown, « Trust and Soft Law for AI », IEEE Technology and Society Magazine, vol. 40, no 4,‎ , p. 14–24 (DOI 10.1109/MTS.2021.3123741, S2CID 244955938)
  27. (en) Schmit, Doerr et Wagner, « Leveraging IP for AI governance », Science, vol. 379, no 6633,‎ , p. 646–648 (PMID 36795826, DOI 10.1126/science.add2202, Bibcode 2023Sci...379..646S, S2CID 256901479)
  28. (en) Jessica Fjeld, Nele Achten, Hannah Hilligoss, Adam Nagy et Madhulika Srikumar, « Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI », Berkman Klein Center for Internet & Society,‎ (lire en ligne)
  29. (en) Wirtz, Weyerer et Geyer, « Artificial Intelligence and the Public Sector—Applications and Challenges », International Journal of Public Administration, vol. 42, no 7,‎ , p. 596–615 (ISSN 0190-0692, DOI 10.1080/01900692.2018.1498103, S2CID 158829602, lire en ligne)
  30. (en) Wirtz, Weyerer et Sturm, « The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration », International Journal of Public Administration, vol. 43, no 9,‎ , p. 818–829 (ISSN 0190-0692, DOI 10.1080/01900692.2020.1749851, S2CID 218807452)
  31. a et b (en) Bredt, « Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies », Frontiers in Artificial Intelligence, vol. 2,‎ , p. 16 (ISSN 2624-8212, PMID 33733105, PMCID 7861258, DOI 10.3389/frai.2019.00016)
  32. a b c d et e « Livre blanc sur l’intelligence artificielle - Une approche européenne axée sur l’excellence et la confiance », Commission européenne,‎ (lire en ligne [PDF])
  33. (en) Wirtz et Müller, « An integrated artificial intelligence framework for public management », Public Management Review, vol. 21, no 7,‎ , p. 1076–1100 (ISSN 1471-9037, DOI 10.1080/14719037.2018.1549268, S2CID 158267709)
  34. (en) Dillon Reisman, Jason Schultz, Kate Crawford et Meredith Whittaker, Algorithmic impact assessments: A practical framework for public agency accountability, New York, AI Now Institute, (lire en ligne [archive du ])
  35. « Manuel d’utilisation de l’intelligence artificielle », sur INTERPOL (consulté le )
  36. a et b (en) Kohli, Mahajan, Seals et Kohli, « Concepts in U.S. Food and Drug Administration Regulation of Artificial Intelligence for Medical Imaging », American Journal of Roentgenology, vol. 213, no 4,‎ , p. 886–888 (ISSN 0361-803X, PMID 31166758, DOI 10.2214/ajr.18.20410, S2CID 174813195, lire en ligne)
  37. a et b (en) Hwang, Kesselheim et Vokinger, « Lifecycle Regulation of Artificial Intelligence– and Machine Learning–Based Software Devices in Medicine », JAMA, vol. 322, no 23,‎ , p. 2285–2286 (ISSN 0098-7484, PMID 31755907, DOI 10.1001/jama.2019.16842, S2CID 208230202, lire en ligne)
  38. (en) Sharma et Manchikanti, « Regulation of Artificial Intelligence in Drug Discovery and Health Care », Biotechnology Law Report, vol. 39, no 5,‎ , p. 371–380 (ISSN 0730-031X, DOI 10.1089/blr.2020.29183.ks, S2CID 225540889, lire en ligne)
  39. (en) Petkus, Hoogewerf et Wyatt, « What do senior physicians think about AI and clinical decision support systems: Quantitative and qualitative analysis of data from specialty societies », Clinical Medicine, vol. 20, no 3,‎ , p. 324–328 (ISSN 1470-2118, PMID 32414724, PMCID 7354034, DOI 10.7861/clinmed.2019-0317)
  40. (en) Cheng, Abel, Balis et McClintock, « Challenges in the Development, Deployment, and Regulation of Artificial Intelligence in Anatomic Pathology », The American Journal of Pathology, vol. 191, no 10,‎ , p. 1684–1692 (ISSN 0002-9440, PMID 33245914, DOI 10.1016/j.ajpath.2020.10.018, S2CID 227191875)
  41. a b et c (en) Gurkaynak, Yilmaz et Haksever, « Stifling artificial intelligence: Human perils », Computer Law & Security Review, vol. 32, no 5,‎ , p. 749–758 (ISSN 0267-3649, DOI 10.1016/j.clsr.2016.05.003)
  42. (en) Iphofen et Kritikos, « Regulating artificial intelligence and robotics: ethics by design in a digital society », Contemporary Social Science, vol. 16, no 2,‎ , p. 170–184 (ISSN 2158-2041, DOI 10.1080/21582041.2018.1563803, S2CID 59298502)
  43. (en) AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense, Washington, DC, United States Defense Innovation Board, (OCLC 1126650738, lire en ligne)
  44. a b et c (en) Alexander Babuta, Marion Oswald et Ardi Janjeva, Artificial Intelligence and UK National Security: Policy Considerations, London, Royal United Services Institute, (lire en ligne [archive du ])
  45. a et b (en) David Emery, « Robots with Guns: The Rise of Autonomous Weapons Systems », sur Snopes, (consulté le )
  46. Bento, « No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law », Harvard Extension School,‎ (lire en ligne, consulté le )
  47. (en) Henry Kissinger, Eric Schmidt et Daniel Huttenlocher, « Opinion | The Challenge of Being Human in the Age of AI », Wall Street Journal,‎ (ISSN 0099-9660, lire en ligne, consulté le )
  48. a et b (en) Barrett et Baum, « A model of pathways to artificial superintelligence catastrophe for risk and decision analysis », Journal of Experimental & Theoretical Artificial Intelligence, vol. 29, no 2,‎ , p. 397–414 (ISSN 0952-813X, DOI 10.1080/0952813x.2016.1186228, arXiv 1607.07730, S2CID 928824)
  49. Sotala et Yampolskiy, « Responses to catastrophic AGI risk: a survey », Physica Scripta, vol. 90, no 1,‎ , p. 018001 (ISSN 0031-8949, DOI 10.1088/0031-8949/90/1/018001)
  50. (en) Boyd et Wilson, « Rapid developments in Artificial Intelligence: how might the New Zealand government respond? », Policy Quarterly, vol. 13, no 4,‎ (ISSN 2324-1101, DOI 10.26686/pq.v13i4.4619)
  51. « Le Canada et la France donnent le coup d'envoi d'un « GIEC » de l'intelligence artificielle », sur Les Echos, (consulté le )
  52. Sciences et Développement économique Canada Innovation, « Déclaration du Groupe international d’experts en intelligence artificielle », sur Gouvernement du Canada, (consulté le )
  53. a et b « Lancement du partenariat mondial pour l’intelligence artificielle », Ministère de l'Économie, des Finances et de la Souveraineté industrielle et numérique,‎ (lire en ligne)
  54. « Les 10 recommandations de l'OCDE pour l'intelligence artificielle », sur Les Echos, (consulté le )
  55. « Présentation des Principes sur l’IA », sur oecd.ai (consulté le )
  56. « Appliquer les Principes de l’OCDE sur l’IA : progrès et perspectives », sur oecd.ai (consulté le )
  57. « Lignes directrices relatives à l’approvisionnement en IA au sein des gouvernements », sur Deloitte Canada (consulté le )
  58. a b et c « Création du partenariat mondial pour l'intelligence artificielle : secrétariat au sein de l'OCDE à Paris », sur ActuIA (consulté le )
  59. a et b « Le Partenariat Mondial sur l’IA (PMIA) », sur oecd.ai (consulté le )
  60. a et b (en) « UNICRI :: United Nations Interregional Crime and Justice Research Institute », unicri.it (consulté le )
  61. (en) UNICRI: United Nations Interregional Crime and Justice Research Institute, « Towards Responsible Artificial Intelligence Innovation », unicri.it, (consulté le )
  62. a et b « Recommandation sur l’éthique de l’intelligence artificielle », sur UNESCO (consulté le )
  63. « L'Unesco adopte une recommandation sur l'éthique de l'intelligence artificielle », L'Usine Digitale,‎ (lire en ligne, consulté le )
  64. Nindler, « The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence », International Community Law Review, vol. 21, no 1,‎ , p. 5–34 (ISSN 1871-9740, DOI 10.1163/18719732-12341388, S2CID 150911357, lire en ligne)
  65. (en) « About », AI for Good (consulté le )
  66. (en) « OECD Observatory of Public Sector Innovation - Ai Strategies and Public Sector Components » (consulté le )
  67. (en) Jamie Berryhill, Kévin Kok Heang, Rob Clogher et Keegan McBride, Hello, World: Artificial Intelligence and its Use in the Public Sector, Paris, OECD Observatory of Public Sector Innovation, (lire en ligne)
  68. (en) Thomas A. Campbell, Artificial Intelligence: An Overview of State Initiatives, Evergreen, CO, FutureGrasp, LLC, (lire en ligne)
  69. (en) Anu Bradford, « The Race to Regulate Artificial Intelligence », Foreign Affairs,‎ (ISSN 0015-7120, lire en ligne, consulté le ) :

    « the United States is following a market-driven approach, China is advancing a state-driven approach, and the EU is pursuing a rights-driven approach. »

  70. Alexandre Castonguay et Cécile Petitgand, « Le Canada a besoin d’une stratégie nationale pour accélérer le déploiement de l’IA en santé », sur The Conversation, (consulté le )
  71. a b et c « Canada : que contient la seconde phase de la Stratégie pancanadienne en matière d’intelligence artificielle ? », sur ActuIA (consulté le )
  72. a b et c (en) UNESCO Science Report: the Race Against Time for Smarter Development., Paris, UNESCO, (ISBN 978-92-3-100450-6, lire en ligne)
  73. Emma Tarswell, « Le bassin de talents internationaux en IA passe à 80 au Canada », sur CIFAR, (consulté le )
  74. a et b Innovation, Sciences et Développement économique Canada, « Conseil consultatif en matière d'intelligence artificielle - Accueil », sur Gouvernement du Canada, (consulté le )
  75. « Loi sur l'intelligence artificielle et les données », sur Gouvernement du Canada, (consulté le )
  76. Gouvernement du Canada, « Sommaire du projet de loi C-27 : Loi de 2022 sur la mise en œuvre de la Charte du numérique », sur ised-isde.canada.ca, (consulté le )
  77. (en) Howard Solomon, « Proposed Canadian AI law ‘fundamentally flawed,’ Parliament told », sur IT World Canada, (consulté le ).
  78. (en) State Council China, « New Generation of Artificial Intelligence Development Plan », www.unodc.org (consulté le )
  79. (en) Department of International Cooperation Ministry of Science and Technology, « Next Generation Artificial Intelligence Development Plan Issued by State Council », China Science & Technology Newsletter, no 17,‎ , p. 2–12 (lire en ligne)
  80. (en) Wu, Lu, Zhu et Chen, « Towards a new generation of artificial intelligence in China », Nature Machine Intelligence, vol. 2, no 6,‎ , p. 312–316 (ISSN 2522-5839, DOI 10.1038/s42256-020-0183-4, S2CID 220507829, lire en ligne)
  81. (en) « Ethical Norms for New Generation Artificial Intelligence Released », Center for Security and Emerging Technology (consulté le )
  82. (en) « China just gave the world a blueprint for reigning in generative A.I. », Fortune (consulté le )
  83. a et b (en) Labhaoise NíFhaoláin, Andrew Hines et Vivek Nallur, « Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe », CEUR Workshop Proceedings,‎ (lire en ligne, consulté le ) :

    « Specifically in relation to AI "The Council of Europe’s aim is to identify intersecting areas between AI and our standards on human rights, democracy and rule of law, and to develop relevant standard setting or capacity-building solutions". The large number of documents identified by the CoE include guidelines, charters, papers, reports and strategies. The authoring bodies are not confined to one sector of society and include organisations, companies, bodies and nation states. »

  84. (en) « The Council of Europe & Artificial Intelligence », Council of Europe,‎ (lire en ligne)
  85. « De l’utilité de l’Europe pour réguler le numérique », Le Monde.fr,‎ (lire en ligne, consulté le )
  86. Federico Guerrini, « L’UE s’attaque aux géants de la technologie avec la législation sur les marchés numériques », Forbes France,‎ (lire en ligne)
  87. « Groupe d’experts de haut niveau sur l’intelligence artificielle | Bâtir l’avenir numérique de l’Europe », sur digital-strategy.ec.europa.eu, (consulté le )
  88. « Qui sont les 52 experts IA nommés par la Commission européenne ? », L'Usine Digitale,‎ (lire en ligne, consulté le )
  89. Groupe d'experts indépendants de haut niveau sur l'intelligence artificielle, Lignes directrices en matière d’éthique pour une IA digne de confiance, Office des publications de l’Union européenne, (ISBN 978-92-76-12004-9, lire en ligne)
  90. Julien Lausson, « 7 principes pour une IA éthique vont être mis à l'épreuve par l'Europe », sur Numerama, (consulté le )
  91. Thomas Calvi, « La Commission européenne publie ses recommandations de politique et d'investissement pour une IA de confiance », sur ActuIA (consulté le )
  92. (en) « Regulating AI in the EU », sur Mason Hayes Curran (consulté le )
  93. a b et c Arthur Olivier, « Intelligence artificielle : que fait l'Union européenne ? », sur Touteleurope.eu, (consulté le )
  94. « Loi sur l'IA de l'UE : première réglementation de l'intelligence artificielle », sur Actualité parlement européen, (consulté le )
  95. (en) Veale et Borgesius, « Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach », Computer Law Review International, vol. 22, no 4,‎ , p. 97–112 (ISSN 2194-4164, DOI 10.9785/cri-2021-220402, arXiv 2107.03721, S2CID 235765823, lire en ligne)
  96. Natale, « EU's digital ambitions beset with strategic dissonance », Encompass, (consulté le )
  97. « Autonomie stratégique, le CESE rappelle ses propositions », sur Le Conseil économique social et environnemental, (consulté le )
  98. Mathilde Velliet, « Souveraineté numérique : politiques européennes, dilemmes américains », sur IFRI (consulté le )
  99. L'UE s'accorde sur une régulation historique de l'intelligence artificielle https://fr.euronews.com/2023/12/09/lue-saccorde-sur-une-regulation-historique-de-lintelligence-artificielle
  100. (de) Klimaschutz, « "KI – Made in Germany" etablieren », www.bmwk.de (consulté le )
  101. (de) « DIN, DKE und BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz », sur all-electronics.de (consulté le )
  102. a et b (de) Runze, Haimerl, Hauer et Holoyad, « Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon », Java Spektrum, no 3,‎ , p. 42–46 (lire en ligne)
  103. (de) « Normungsroadmap Künstliche Intelligenz », www.dke.de (consulté le )
  104. (en) « Digital economy strategy 2015 to 2018 », www.ukri.org, (consulté le )
  105. (en) « Data ethics and AI guidance landscape », sur GOV.UK (consulté le )
  106. Leslie, « Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector », Zenodo,‎ (DOI 10.5281/zenodo.3240529, arXiv 1906.05684, S2CID 189762499, lire en ligne)
  107. (en) « Intelligent security tools », www.ncsc.gov.uk (consulté le )
  108. (en) Richardson, « UK publishes National Artificial Intelligence Strategy », www.theregister.com
  109. (en) « National AI Strategy - HTML version », sur GOV.UK (consulté le )
  110. (en) « A pro-innovation approach to AI regulation », sur GOV.UK (consulté le )
  111. (en) Asress Adimi Gikay, « How the UK is getting AI regulation right », sur The Conversation, (consulté le )
  112. (en) Ryan Browne, « British Prime Minister Rishi Sunak pitches UK as home of A.I. safety regulation as London bids to be next Silicon Valley », sur CNBC, (consulté le )
  113. (en) « AI Safety Summit: introduction (HTML) », sur GOV.UK (consulté le )
  114. (en) Weaver, « Regulation of artificial intelligence in the United States », Research Handbook on the Law of Artificial Intelligence,‎ , p. 155–212 (ISBN 9781786439055, DOI 10.4337/9781786439055.00018, lire en ligne)
  115. a et b (en) National Science and Technology Council Committee on Technology, « The Administration’s Report on the Future of Artificial Intelligence », sur whitehouse.gov, (consulté le ) : « In general, the approach to regulation of AI-enabled products to protect public safety should be informed by assessment of the aspects of risk that the addition of AI may reduce alongside the aspects of risk that it may increase. »
  116. (en) « National Strategic Research and Development Plan for Artificial Intelligence », National Science and Technology Council,‎ (lire en ligne)
  117. (en) « About », National Security Commission on Artificial Intelligence (consulté le )
  118. (en) Stefanik, « H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018 », www.congress.gov, (consulté le )
  119. (en) Heinrich, « Text - S.1558 - 116th Congress (2019-2020): Artificial Intelligence Initiative Act », www.congress.gov, (consulté le )
  120. (en) Scherer, « Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies », SSRN Working Paper Series,‎ (ISSN 1556-5068, DOI 10.2139/ssrn.2609777)
  121. (en) The White House, « Executive Order on Maintaining American Leadership in Artificial Intelligence », sur trumpwhitehouse.archives.gov (consulté le )
  122. (en) Office of Science and Technology Policy, « Guidance for Regulation of Artificial Intelligence Applications », The White House,‎ (lire en ligne)
  123. (en) « AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation », Inside Tech Media, (consulté le )
  124. (en) U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools, National Institute of Science and Technology, (lire en ligne)
  125. (en) AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense, Defense Innovation Board, (OCLC 1126650738, lire en ligne)
  126. (en) National Science Technology Council, « The National Artificial Intelligence Research and Development Strategic Plan: 2019 Update »,
  127. (en) Gursoy et Kakadiaris, « Artificial intelligence research strategy of the United States: critical assessment and policy recommendations », Frontiers in Big Data, vol. 6,‎ (ISSN 2624-909X, DOI 10.3389/fdata.2023.1206139)
  128. a et b (en) NSCAI Final Report, Washington, DC, The National Security Commission on Artificial Intelligence, (lire en ligne) :

    « Advances in AI, including the mastery of more general AI capabilities along one or more dimensions, will likely provide new capabilities and applications. Some of these advances could lead to inflection points or leaps in capabilities. Such advances may also introduce new concerns and risks and the need for new policies, recommendations, and technical advances to assure that systems are aligned with goals and values, including safety, robustness and trustworthiness. The US should monitor advances in AI and make necessary investments in technology and give attention to policy so as to ensure that AI systems and their uses align with our goals and values. »

  129. (en) « Portman, Peters Introduce Bipartisan Bill to Ensure Federal Government is Prepared for Catastrophic Risks to National Security », HomelandNewswire, (consulté le ) : « The bipartisan legislation would also help counter the risk of artificial intelligence (AI), and other emerging technologies from being abused in ways that may pose a catastrophic risk. »
  130. (en) « Text - S.4488 - 117th Congress (2021-2022): A bill to establish an interagency committee on global catastrophic risk, and for other purposes. [[:Modèle:Pipe]] Congress.gov [[:Modèle:Pipe]] Library of Congress », Congress.gov, (consulté le )
  131. (en) Office of Science and Technology Policy, « Blueprint for an AI Bill of Rights | OSTP », sur The White House, (consulté le )
  132. (en) « The White House just unveiled a new AI Bill of Rights », sur MIT Technology Review (consulté le )
  133. (en) « Automated employment decision tools », sur The New York City Council (consulté le )
  134. (en) « NYC’s New AI Bias Law Broadly Impacts Hiring and Requires Audits », sur Bloomberg Law (consulté le )
  135. a et b (en) House, « FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI », The White House, (consulté le )
  136. (en) House, « FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI », The White House, (consulté le )
  137. « Première Commission: appel à l’interdiction des systèmes d’armes létaux autonomes en l’absence de cadre normatif limitant leur impact humanitaire », sur UN Press, (consulté le )
  138. « L'ONU ne parvient toujours pas à se mettre d'accord sur l'interdiction des armes létales autonomes », L'Usine Digitale,‎ (lire en ligne, consulté le )
  139. (en) « Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System » [archive du ], United Nations Geneva (consulté le )
  140. (en) Baum, « Countering Superintelligence Misinformation », Information, vol. 9, no 10,‎ , p. 244 (ISSN 2078-2489, DOI 10.3390/info9100244)
  141. « FAUT-IL INTERDIRE LES « ROBOTS TUEURS » OU « ARMES LÉTALES AUTONOMES » ? LA GUERRE DOIT-ELLE DEVENIR PLUS INHUMAINE ENCORE ? », Journalisme d'idées,‎ (lire en ligne, consulté le )
  142. (en) « Country Views on Killer Robots », The Campaign to Stop Killer Robots
  143. (en) Kelley Sayler, Artificial Intelligence and National Security: Updated November 10, 2020, Washington, DC, Congressional Research Service, (lire en ligne)
  144. (en) « Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems », Congressional Research Service,‎ (lire en ligne)