vendredi 30 mai 2025

 La législation européenne sur la réglementation de l'IA et la souveraineté technologique

 Das EU-Gesetz zur Regulierung der KI und die technologische Souveränität

Die EU strebt seit einiger Zeit an, unter dem Schlagwort »technologische Souveränität« bei Soft- und Hardware bzw. der gesamten IT-Infrastruktur vom Chip bis zur KI selbstständig zu werden, die Abhängigkeit von US-Technologiekonzernen und (größtenteils asiatischen) Lieferketten der Halbleiterproduzenten zu verringern. Teil davon sind Regulierungen der Tech-Konzerne, der digitalen Plattformen und auch einzelner Technologien. Mit dem Digital Services Act und dem Digital Markets Act sollen Plattformen wie X (Twitter), Facebook, Google, Amazon, Temu, TikTok an die Kandare gelegt werden – was angesichts einer gewissen Nervosität bei den Tech-Konzernen zunehmend zu gelingen scheint. Schließlich hatte die EU bereits mit der Datenschutzgrundverordnung ein zuerst belächeltes, dann aber weltweit doch für Anpassungen sorgendes Gesetz vorgelegt.

Mit der neuen US-Regierung werden sich die Auseinandersetzungen verschärfen. Die neurechten Silicon-Valley-Venturekapitalisten wollen die letzten Hemmnisse einer liberal-bürgerlichen Demokratie in den USA schleifen. Demgegenüber positionieren sich EU-Kommission und (vor allem) das EU-Parlament als Verteidiger ebendieser Institutionen, sowohl gegen die materiellen Ansprüche der Tech-Konzerne als auch gegen die Vorhaben ihrer ideologischen Propagandisten. Aus Sicht der EU-Verantwortlichen geht es dabei grundsätzlich um die Ausrichtung des Kapitalismus, der besten Verwirklichung von Verwertungsinteressen und der damit einhergehenden Organisation der Gesellschaft – kurz gesagt, stehen sich zwei Kapitalfraktionen mit unterschiedlichen Antworten auf die gegenwärtige Krise gegenüber.

Die Auseinandersetzungen werden sich auf ökonomischer und regulatorischer Ebene nicht auf DSA, DMA und DSGVO beschränken. Dazu kommt vor allem der AI Act. Er wurde im November 2023 vom EU-Rat verabschiedet und ist am 1. August in Kraft getreten. Er soll die Entwicklung und Nutzung von KI in der EU fördern und die Risiken minimieren. Er betont die Bedeutung der Grundrechte und legt fest, dass KI-Systeme nicht gegen diese verstoßen dürfen. Dazu werden KI-Systeme in verschiedene Risikokategorien eingeteilt, von minimal bis inakzeptabel. Für solche mit minimalem Risiko gelten weniger strenge Anforderungen. Solche mit hohem Risiko, etwa in der Gesundheitsversorgung oder der Strafjustiz, müssen hochtransparent sein und eine hohe Genauigkeit aufweisen. KI-Anwendungen, die als inakzeptabel riskant eingestuft werden, sind verboten, insbesondere Systeme, die zur sozialen Manipulation oder zur Massenüberwachung eingesetzt werden können. Der Einsatz von biometrischer Gesichtserkennung in der Öffentlichkeit ist weitgehend verboten, mit einigen Ausnahmen für die Strafverfolgung. Die Analyse von Gefühlen am Arbeitsplatz durch KI ist verboten. Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen transparent darüber informieren, wie diese funktionieren. Sie sind für die von ihren KI-Systemen verursachten Schäden verantwortlich.

Die Entwicklung und den Einsatz von KI soll der AI Act dadurch fördern, dass er einen klaren Rechtsrahmen schafft. Damit will die EU eine führende Rolle bei der Gestaltung der globalen Regulierung von KI übernehmen.

Kritiker bemängeln hauptsächlich, dass etwa bei der automatischen Gesichtserkennung Datenschutzgrundsätze aufgeweicht werden, weil Strafverfolger diese nun doch einsetzen dürfen.

Grundsätzlich treffen die Regelungen des AI Act vorwiegend die Hersteller und Nutzer generativer KIs wie ChatGPT (OpenAI) oder Gemini (Google). In diesen Fällen können primär die Regeln zu Transparenz, Risikobewertung und Grundrechtsschutz nur unter Mühen eingehalten werden – die die Protagonisten der gKI keineswegs auf sich nehmen wollen. Leute wie OpenAI-Chef Sam Altman, die zuvor noch selbst eine Regulierung gefordert hatten, sind angesichts des AI Act sofort in Jammern und Wehklagen verfallen. Youtube aber hat direkt nach Verabschiedung des AI Act damit angefangen, eine Kennzeichnung KI-generierter Inhalte zu verlangen.

Die Behauptung von Google, Apple und Co., der AI Act sei hinderlich für das volle Potenzial ihrer Plattformen bzw. Apps, bezieht sich auf ihre zunehmende Integration von KI in andere Anwendungen. Die Suchmaschine von Google wird mittlerweile von der Google-KI Gemini unterstützt, die ebenso in Google Docs oder Google Drive bei alltäglichen Aufgaben hilft. Es gibt allerdings auch Argumente dafür, dass Google als eigentliche Suchmaschine dadurch schlechter geworden ist, dass es immer schon Antworten geben will.

Anfangs kritisierten auch europäische KI-Vertreter den AI Act aus vergleichbaren Gründen als zu weitgehend, weil er auch europäischen KI-Firmen unerwünschte Beschränkungen aufzuerlegen schien. Diese Haltung hat sich angesichts der Probleme, mit gKIs tragfähige Geschäftsmodelle zu entwickeln, aber etwas geändert. Streng kuratierten, für bestimmte Einsatzgebiete entwickelten KIs kommt der AI Act sogar entgegen – und auf solche Geschäftsmodelle setzen mittlerweile viele europäische KI-Startups, etwa Sepp Hochreiter mit seinem xLSTM oder Jonas Andrulis mit Aleph-Alpha. Die Regulierungen des AI Act halten ihnen die große Konkurrenz von dem Markt für angepasste Modelle fern. Aleph-Alpha wirbt mit genau den Transparenz-Regeln, die der AI Act vorsieht. Sie ziehen sich aus dem milliardenschweren, ressourcenintensiven Wettbewerb um den am schlauesten wirkenden Chatbot zurück. Gefragt ist die heimische KI auch in handfesten Anwendungen bei Industrie- und Firmenkunden, die ihre wertvollen Firmendaten gerne für sich behalten.

So dient der AI Act den Interessen der Investoren und der Startups in der EU besser, als viele es ursprünglich für möglich hielten. Es könnte eine Industrie entstehen, die mit spezialisierten KIs einen Werkzeugmarkt schafft, der den kapitalistischen Verwertungsinteressen mehr entspricht als die Allmachts-Fantasien der Neuen Rechten im Silicon Valley mit ihren »Geld-Verbrennungsöfen«. Wer in dieser Auseinandersetzung zwischen verschiedenen Kapitalfraktionen letztlich den Sieg davonträgt, ist offen.

 

 La législation européenne sur la réglementation de l'IA et la souveraineté technologique


Depuis quelque temps, l'UE s'efforce de devenir indépendante en matière de logiciels et de matériel, ou plutôt de l'ensemble de l'infrastructure informatique, des puces à l'IA, sous le slogan de la « souveraineté technologique », et de réduire sa dépendance envers les entreprises technologiques américaines et les chaînes d'approvisionnement (essentiellement asiatiques) des fabricants de semi-conducteurs. Cela inclut la réglementation des entreprises technologiques, des plateformes numériques et même des technologies individuelles. Le Digital Services Act et le Digital Markets Act visent à maîtriser des plateformes telles que X (Twitter), Facebook, Google, Amazon, Temu et TikTok – une initiative qui, compte tenu d'une certaine nervosité parmi les entreprises technologiques, semble connaître un succès croissant. Après tout, l'UE avait déjà introduit le Règlement général sur la protection des données, une loi initialement ridiculisée, mais qui a ensuite entraîné des ajustements à l'échelle mondiale. Les conflits vont s'intensifier avec la nouvelle administration américaine. Les nouveaux investisseurs en capital-risque de droite de la Silicon Valley veulent lever les derniers obstacles à une démocratie libérale et bourgeoise aux États-Unis. À l'inverse, la Commission européenne et (surtout) le Parlement européen se positionnent comme les défenseurs de ces mêmes institutions, tant contre les exigences matérielles des entreprises technologiques que contre les projets de leurs propagandistes idéologiques. Du point de vue des responsables européens, il s'agit fondamentalement de l'orientation du capitalisme, de la meilleure réalisation des intérêts d'exploitation et de l'organisation de la société qui en découle ; en bref, deux factions du capital s'affrontent avec des réponses divergentes à la crise actuelle. Les différends économiques et réglementaires ne se limiteront pas à la DSA, à la DMA et au RGPD. C'est particulièrement vrai pour la loi sur l'IA. Adoptée par le Conseil de l'UE en novembre 2023 et entrée en vigueur le 1er août, elle vise à promouvoir le développement et l'utilisation de l'IA dans l'UE et à minimiser les risques. Elle souligne l'importance des droits fondamentaux et stipule que les systèmes d'IA ne doivent pas les violer. À cette fin, les systèmes d'IA sont classés en différentes catégories de risque, du minimal au inacceptable. Des exigences moins strictes s'appliquent à ceux qui présentent un risque minimal. Les systèmes à haut risque, comme ceux des secteurs de la santé ou de la justice pénale, doivent être extrêmement transparents et présenter un niveau de précision élevé. Les applications d'IA jugées trop risquées sont interdites, en particulier les systèmes pouvant servir à la manipulation sociale ou à la surveillance de masse. L'utilisation de la reconnaissance faciale biométrique en public est largement interdite, à quelques exceptions près pour les forces de l'ordre. L'analyse des émotions par l'IA sur le lieu de travail est également interdite. Les entreprises qui développent ou déploient des systèmes d'IA doivent fournir des informations transparentes sur leur fonctionnement. Elles sont responsables de tout dommage causé par leurs systèmes d'IA. La loi sur l'IA vise à promouvoir le développement et l'utilisation de l'IA en créant un cadre juridique clair. L'UE souhaite ainsi jouer un rôle de premier plan dans l'élaboration de la réglementation mondiale en matière d'IA. Les critiques dénoncent principalement l'affaiblissement des principes de protection des données, par exemple en matière de reconnaissance faciale automatique, car les forces de l'ordre sont désormais autorisées à l'utiliser. En principe, les dispositions de la loi sur l'IA concernent principalement les fabricants et les utilisateurs d'IA génératives telles que ChatGPT (OpenAI) ou Gemini (Google). Dans ces cas, le respect des règles de transparence, d'évaluation des risques et de protection des droits fondamentaux est difficile – un fardeau que les partisans de l'IA générative ne sont absolument pas prêts à assumer. Des personnalités comme Sam Altman, PDG d'OpenAI, qui avait auparavant réclamé une réglementation, se sont immédiatement mises à gémir et à se plaindre de la loi sur l'IA. YouTube, en revanche, a commencé à exiger l'étiquetage des contenus générés par l'IA immédiatement après l'adoption de la loi. L'affirmation de Google, Apple et d'autres selon laquelle la loi sur l'IA entrave le plein potentiel de leurs plateformes et applications fait référence à leur intégration croissante de l'IA dans d'autres applications. Le moteur de recherche de Google est désormais alimenté par l'IA Gemini, qui facilite également les tâches quotidiennes dans Google Docs et Google Drive. Cependant, certains avancent que Google est devenu un moteur de recherche moins efficace, car il cherche constamment à fournir des réponses. Dans un premier temps, les représentants européens de l'IA ont critiqué la loi sur l'IA pour des raisons similaires, la jugeant trop ambitieuse et semblant imposer des restrictions indésirables aux entreprises européennes du secteur. Cependant, cette attitude a quelque peu évolué face aux difficultés à

développer des modèles économiques viables avec l'IA. La loi sur l'IA désavantage même les IA strictement sélectionnées et développées pour des applications spécifiques.


Initialement, les représentants européens de l'IA ont critiqué la loi sur l'IA pour des raisons similaires, la jugeant trop ambitieuse et semblant imposer des restrictions indésirables aux entreprises européennes du secteur. Cependant, cette attitude a quelque peu évolué face aux difficultés de développement de modèles économiques viables avec l'IA. La loi sur l'IA autorise même des IA strictement sélectionnées, développées pour des domaines d'application spécifiques, et de nombreuses startups européennes spécialisées dans l'IA s'appuient désormais sur de tels modèles économiques, comme Sepp Hochreiter avec son xLSTM ou Jonas Andrulis avec Aleph-Alpha. Les réglementations de la loi sur l'IA les tiennent à l'écart de la concurrence majeure sur le marché des modèles personnalisés. Aleph-Alpha se présente avec les règles de transparence précisément stipulées dans la loi sur l'IA. L'entreprise se retire ainsi de la compétition, coûteuse en ressources et à plusieurs milliards de dollars, pour le chatbot apparemment le plus intelligent. L'IA nationale est également recherchée pour des applications concrètes par les clients industriels et les entreprises qui préfèrent garder leurs précieuses données d'entreprise pour eux. Ainsi, la loi sur l'IA sert les intérêts des investisseurs et des startups de l'UE mieux que beaucoup ne l'auraient cru à l'origine. Cela pourrait donner naissance à une industrie utilisant une IA spécialisée pour créer un marché d'outils plus en phase avec les intérêts d'exploitation capitaliste que les fantasmes de toute-puissance de la Nouvelle Droite de la Silicon Valley et de ses « incinérateurs d'argent ». Reste à savoir qui sortira vainqueur de ce conflit entre différentes fractions du capital.

traduction ordinateur Google



Aucun commentaire:

Enregistrer un commentaire

SEUM n°12 : Ukraine, guerre, désertion, révolution ?

  Source : https://iaata.info/SEUM-no12-Ukraine-guerre-desertion-revolution-7716.html Une synthèse des textes publiés par le groupe anarch...