jeudi 17 avril 2025

La législation de l'UE sur la réglementation de l'IA et la souveraineté technologique

 


https://www.wildcat-www.de/wildcat/114/w114_ki_regulierung.html

Das EU-Gesetz zur Regulierung der KI und die technologische Souveränität

Traduction ordinateur

Donald Trump est de retour au pouvoir – et les débats sur la régulation de l’IA et des plateformes ainsi que sur la « souveraineté technologique » ont pris de l’ampleur en quelques heures. Mark Zuckerberg veut plus d’« énergie masculine dans l’entreprise » et supprime toutes les vérifications des faits – mais elles restent dans l’UE. Elon Musk a transformé X (anciennement Twitter) en une machine de propagande d'extrême droite et veut maintenir cette position malgré la loi sur les services numériques de l'UE. D’autres entreprises souhaitent également contourner la régulation de leurs plateformes. Google, par exemple, ne veut plus prendre de mesures de contrôle du contenu sur YouTube – mais, comme Zuckerberg, assure qu'il se conformera bien entendu aux réglementations de l'UE. Ce que cela signifie réellement et jusqu’où iront Trump et ses complices du secteur technologique n’est pas encore tout à fait clair. Des affrontements violents sont à venir. Pour le contexte, nous publions l'article de Wildcat 114 en ligne : de : Wildcat 114, hiver 2024


La législation de l'UE sur la réglementation de l'IA et la souveraineté technologique


Depuis un certain temps, l'UE s'efforce de devenir indépendante en matière de logiciels et de matériel, ou plutôt de l'ensemble de l'infrastructure informatique, des puces à l'IA, sous le slogan de la « souveraineté technologique », et de réduire sa dépendance à l'égard des entreprises technologiques américaines et des chaînes d'approvisionnement (en grande partie asiatiques) des producteurs de semi-conducteurs. Cela comprend notamment la réglementation des entreprises technologiques, des plateformes numériques et des technologies individuelles. Le Digital Services Act et le Digital Markets Act visent à contrôler des plateformes telles que X (Twitter), Facebook, Google, Amazon, Temu et TikTok – qui, compte tenu d’une certaine nervosité parmi les entreprises technologiques, semblent connaître un succès croissant. Après tout, l’UE avait déjà introduit le règlement général sur la protection des données, une loi qui a d’abord été ridiculisée mais qui a ensuite conduit à des ajustements dans le monde entier. Avec la nouvelle administration américaine, les conflits vont s’intensifier. Les nouveaux capital-risqueurs de droite de la Silicon Valley veulent éliminer les derniers obstacles à une démocratie libérale et bourgeoise aux États-Unis. En revanche, la Commission européenne et (surtout) le Parlement européen se positionnent comme les défenseurs de ces mêmes institutions, à la fois contre les revendications matérielles des entreprises technologiques et contre les plans de leurs propagandistes idéologiques. Du point de vue des dirigeants de l’UE, il s’agit fondamentalement de la direction du capitalisme, de la meilleure réalisation des intérêts d’exploitation et de l’organisation associée de la société – en bref, deux factions du capital s’affrontent avec des réponses différentes à la crise actuelle. Les litiges au niveau économique et réglementaire ne se limiteront pas au DSA, au DMA et au RGPD. Il y a surtout la loi sur l’IA. Elle a été adoptée par le Conseil de l’UE en novembre 2023 et est entrée en vigueur le 1er août. Son objectif est de promouvoir le développement et l’utilisation de l’IA dans l’UE et de minimiser les risques. Elle souligne l’importance des droits fondamentaux et stipule que les systèmes d’IA ne doivent pas les violer. À cette fin, les systèmes d’IA sont classés en différentes catégories de risques, du minimal au inacceptable. Pour les personnes présentant un risque minimal, des exigences moins strictes s’appliquent. Les domaines à haut risque, tels que les soins de santé ou la justice pénale, doivent être extrêmement transparents et précis. Les applications d’IA considérées comme présentant un risque inacceptable sont interdites, en particulier les systèmes pouvant être utilisés à des fins de manipulation sociale ou de surveillance de masse. L’utilisation de la reconnaissance faciale biométrique en public est largement interdite, à quelques exceptions près pour les forces de l’ordre. L’analyse des émotions sur le lieu de travail par l’IA est interdite. Les entreprises qui développent ou utilisent des systèmes d’IA doivent fournir des informations transparentes sur leur fonctionnement. Ils sont responsables des dommages causés par leurs systèmes d’IA. La loi sur l’IA vise à promouvoir le développement et l’utilisation de l’IA en créant un cadre juridique clair. L’UE souhaite ainsi jouer un rôle de premier plan dans l’élaboration de la réglementation mondiale en matière d’IA. Les critiques se plaignent principalement de l'affaiblissement des principes de protection des données dans le cas de la reconnaissance faciale automatique, par exemple, parce que les forces de l'ordre sont désormais autorisées à l'utiliser. En principe, les dispositions de la loi sur l’IA concernent principalement les fabricants et les utilisateurs d’IA génératives telles que ChatGPT (OpenAI) ou Gemini (Google). Dans ces cas, les règles en matière de transparence, d’évaluation des risques et de protection des droits fondamentaux ne peuvent être respectées qu’avec difficulté – un défi que les protagonistes du gKI ne sont en aucun cas prêts à relever. Des gens comme le PDG d'OpenAI, Sam Altman, qui avaient auparavant appelé eux-mêmes à une réglementation, ont immédiatement commencé à se plaindre et à se lamenter sur la loi sur l'IA. Mais YouTube a démarré immédiatement après l'adoption de la loi sur l'IA,




Aucun commentaire:

Enregistrer un commentaire

RTS et troisième révolution industrielle.? 2 éme partie

  Évolution de l’automation. Nous pouvons considérer que le phénomène de l’ automatisation a fait son apparition, vers les années 1940-1960...