Les changements de gouvernance de l'IA alors que les nations abordent la sécurité et la supervision
En un coup d'œil
- Le premier rapport international sur la sécurité de l'IA a été publié en janvier 2025
- La législation et les réglementations liées à l'IA ont augmenté dans le monde entier en 2024 et 2025
- La supervision gouvernementale des systèmes d'IA s'est élargie après 2025
Les efforts internationaux pour gérer l'intelligence artificielle se sont intensifiés, avec de nombreux gouvernements et organisations introduisant de nouveaux rapports de sécurité, réglementations et cadres politiques depuis 2023.
Le premier rapport international indépendant sur la sécurité de l'IA, dirigé par Yoshua Bengio et commandé par 30 pays, a été publié le 29 janvier 2025 à la suite du sommet sur la sécurité de l'IA de 2023 à Bletchley Park. Ce rapport a été suivi d'une deuxième édition publiée le 3 février 2026 avant le sommet sur l'impact de l'IA, reflétant un engagement international continu sur les questions de sécurité de l'IA.
Le rapport international sur la sécurité de l'IA a mis en évidence des risques tels que le comportement imprévisible de l'IA, le raisonnement peu fiable et des objectifs qui peuvent ne pas s'aligner avec la supervision humaine. Le rapport a également identifié des préoccupations systémiques, y compris la dépendance à un nombre limité de fournisseurs de modèles, les risques d'échecs d'infrastructure interconnectés et les défis à la stabilité institutionnelle.
Les auteurs du rapport ont déclaré que les développeurs d'IA manquent souvent d'une compréhension complète de leurs modèles, ce qui complique la gestion des risques associés. Le rapport a également noté que les systèmes d'IA avancés pourraient compromettre la supervision humaine soit par conception, soit par des lapsus d'attention.
Ce que montrent les chiffres
- Les mentions législatives liées à l'IA ont augmenté de 21,3 % en 2025 dans 75 pays par rapport à 2023
- Les agences fédérales américaines ont introduit 59 réglementations liées à l'IA en 2024, plus du double de l'année précédente
- Le premier rapport international sur la sécurité de l'IA a été publié le 29 janvier 2025
Entre 2023 et 2025, la supervision de l'IA était principalement gérée par l'industrie par des mesures volontaires. Au début de 2026, les agences gouvernementales ont commencé à jouer un rôle plus important, y compris la Food and Drug Administration des États-Unis émettant des directives pour les dispositifs médicaux habilités par l'IA et l'Institut national des normes et de la technologie développant des normes d'évaluation des risques.
Le 23 juillet 2025, la Maison Blanche a publié « Gagner la course : le plan d'action de l'Amérique pour l'IA », décrivant plus de 90 actions fédérales destinées à renforcer le leadership des États-Unis en matière d'intelligence artificielle. Ce plan politique faisait partie d'une tendance plus large vers une implication gouvernementale accrue dans la gouvernance de l'IA.
En janvier 2025, le Bureau de l'industrie et de la sécurité des États-Unis a publié le Cadre pour la diffusion de l'intelligence artificielle, une règle finale intérimaire qui devait entrer en vigueur en mai 2025. Cependant, la règle a été annulée avant sa mise en œuvre le 13 mai 2025.
Réaction de l'industrie
La règle de contrôle des exportations de diffusion de l'IA des États-Unis a été critiquée par certaines institutions pour avoir potentiellement sapé le leadership national en matière d'IA, selon des déclarations documentées à l'époque. La décision d'annuler la règle avant son entrée en vigueur a été confirmée par le Bureau de l'industrie et de la sécurité.
Les organisations internationales et les gouvernements ont continué à publier des rapports et des documents politiques pour aborder le paysage évolutif de la sécurité et de la gouvernance de l'IA, reflétant un passage d'une supervision volontaire à une supervision réglementaire ces dernières années.
* Cet article est basé sur des informations publiquement disponibles au moment de la rédaction.
Sources et pour aller plus loin
- International AI Safety Report - Wikipedia
- AI IN 2026: WHEN THE HYPE MEETS HARD REALITY — Foreign Affairs Forum
- AI Action Plan - Wikipedia
- United States export controls on AI chips and semiconductors - Wikipedia
- Regulation of artificial intelligence - Wikipedia
Note: Les sources sont en anglais, donc certains liens peuvent être en anglais | Cette section n'est pas fournie dans les flux.
Plus sur Technologie
-
Les dépenses quotidiennes s'accumulent : comment les petits coûts impactent les budgets
De nombreux Américains perdent environ 200 $ par an à cause d'abonnements non utilisés. Annuler deux services peut économiser 360 $ par an, selon les experts financiers.
-
Une attaque de phishing imitant une mise à jour de Google Meet accorde un accès à distance aux PC
Une campagne de phishing imite une mise à jour de Google Meet, inscrivant des PC Windows dans des systèmes MDM malveillants, selon des chercheurs en sécurité.
-
L'intégration de l'IA s'accélère dans le secteur des logiciels B2B
L'intégration de l'IA dans les logiciels B2B est en forte hausse, avec plus de 80 % des fournisseurs prévus pour adopter l'IA générative d'ici 2026, selon les prévisions du secteur.
-
Les avancées en modélisation révèlent des motifs complexes dans les colonies bactériennes
Des recherches récentes montrent que les colonies bactériennes créent des motifs complexes qui améliorent la diversité génétique et la survie, selon les résultats de l'étude.
-
L'arrêt de la production d'hélium au Qatar perturbe les chaînes d'approvisionnement mondiales en semi-conducteurs
L'arrêt de la production d'hélium au Qatar en mars 2026 a retiré 5,2 millions de mètres cubes par mois, provoquant une hausse des prix au comptant de 70 à 100 %, selon des rapports.