loading
x
Loi SB 1047 : Le Veto qui redéfinit l’avenir de l’IA

Amine Boulajoul  (Blogue rédigé par le cadre du cours DRT 6903) 

Dans un geste qui redéfinit les contours du débat sur l’intelligence artificielle, le gouverneur de Californie, Gavin Newsom, a bloqué la loi SB 1047 le 29 septembre dernier. Ce projet de loi, initialement présenté par le sénateur Scott Wiener et adopté à une écrasante majorité par le Sénat et l’Assemblée de Californie en août dernier, visait à imposer un cadre légal aux entreprises développant des modèles d’intelligence artificielle (IA), cherchant ainsi à réguler un domaine en pleine expansion.

Pour bien comprendre l’enjeu, il est essentiel de définir ce qu’est un modèle d’IA et les implications de sa conception. Un modèle d’intelligence artificielle est un programme capable, grâce à l’analyse d’une vaste base de données, de générer des réponses optimales à des requêtes sans intervention humaine directe. Au cœur de cette technologie, on trouve l’IA générative, qui permet de créer du texte ou des images à partir d’instructions simples. Le célèbre ChatGPT, par exemple, est une des technologies les plus représentatives de cette avancée.

L’inquiétude grandissante envers l’intelligence artificielle repose sur le fait que ces modèles, bien qu’entraînés par des algorithmes prédéfinis, acquièrent une forme d’autonomie dans leur prise de décision grâce à l’analyse d’énormes quantités de données. Ce processus peut engendrer des résultats imprévisibles, échappant au contrôle humain direct, ce qui soulève des préoccupations quant à leur utilisation potentielle dans des contextes sensibles, notamment la cybersécurité ou la création d’armes autonomes.

La crainte que ces technologies puissent échapper au contrôle humain ou être utilisées à des fins contraires à l’intérêt public grandit à mesure que l’adoption de l’IA s’accélère, justifiant la volonté de légiférer pour encadrer les processus entourant leur développement. Le préambule du projet de loi souligne explicitement ces risques :

« If not properly subject to human controls, future development in artificial intelligence may also have the potential to be used to create novel threats to public safety and security, including by enabling the creation and the proliferation of weapons of mass destruction, such as biological, chemical, and nuclear weapons, as well as weapons with cyber-offensive capabilities. »

Pour ces raisons, le projet de loi prévoyait un encadrement strict du secteur, afin de prévenir tout risque lié à un manque de régulation et de garantir une utilisation responsable de ces technologies.

La première mesure prévue par le projet de loi était de contraindre les entreprises et les développeurs des modèles d’IA à réaliser des évaluations des risques avant de rendre leurs modèles accessibles.

« (a) Before beginning to initially train a covered model, the developer shall do all of the following:

(1) Implement reasonable administrative, technical, and physical cybersecurity protections to prevent unauthorized access to, misuse of, or unsafe post-training modifications of, the covered model and all covered model derivatives controlled by the developer that are appropriate in light of the risks associated with the covered model, including from advanced persistent threats or other sophisticated actors.»

Une autre disposition marquante de la loi était l’obligation pour les entreprises d’implémenter un « kill switch ». Un « kill switch » est un mécanisme de sécurité utilisé pour éteindre une machine en cas d’urgence. Dans le cadre du projet de loi, ça réfère à un dispositif qui permettrait aux modèles d’intelligence artificielle d’être désactivés instantanément en cas de comportement nuisible :

« […] Implement the capability to promptly enact a full shutdown.».

Finalement, le projet prévoyait d’imposer une responsabilité stricte aux entreprises concernant les préjudices causés par leurs modèles d’intelligence artificielle, ouvrant ainsi la voie à des poursuites par le procureur général de Californie. Cette mesure devait garantir que les développeurs soient tenus responsables des dommages résultant de l’utilisation de leurs technologies d’IA. En renforçant les obligations de responsabilité, le projet de loi cherchait à promouvoir une utilisation plus sûre et éthique des systèmes d’IA, tout en incitant les entreprises à adopter des pratiques de développement responsables.

Ainsi, la loi SB 1047 propose un cadre juridique clair pour la gestion de l’IA mais aussi l’imposition d’une transparence minimale aux acteurs du secteur, protégeant ainsi le public contre des catastrophes graves ou des incidents de cybersécurité.

Tous les modèles ne sont pas visés par la loi SB 1047. Les modèles d’IA concernés par le projet de loi sont ceux nécessitant une puissance de calcul immense, dépassant 1026 opérations, et impliquant un investissement de plus de 100 millions de dollars. Les modèles d’intelligence artificielle qui ont été ajustés pour des tâches spécifiques par un processus appelé « fine-tuning », c’est-à-dire qu’ils ont été formés sur une grande quantité de données avant d’être adaptés à un domaine particulier, sont également concernés par cette loi dès lors que leur puissance de calcul dépasse trois fois 1025 opérations, pour un coût supérieur à 10 millions de dollars.

« Covered model » means an artificial intelligence model trained using a quantity of computing power greater than 10^26 integer or floating-point operations, costing over $100,000,000. It also includes models fine-tuned with computing power equal to or greater than three times 10^25, costing over $10,000,000.»

La législation SB 1047 a rapidement suscité de vives critiques, en particulier de la part de dirigeants du secteur technologique et d’experts en innovation. Dès le mois d’août, certains ont exprimé des préoccupations concernant le risque que cette réglementation décourage les grandes entreprises d’intelligence artificielle (IA) de s’installer ou de rester en Californie. Ce point de vue repose sur l’idée que des exigences réglementaires strictes pourraient imposer des coûts de conformité élevés, limitant ainsi la capacité d’innovation des entreprises et incitant certaines d’entre elles à chercher des environnements plus favorables ailleurs.

Selon Gavin Newson, la Californie est actuellement le foyer de 32 des 50 plus grandes entreprises d’IA, ce qui renforce son statut de leader dans le secteur technologique mondial. Des figures de proue, comme la compagnie OpenAI, ont mis en garde contre le fait que des régulations excessivement restrictives pourraient nuire à l’attractivité de l’État pour les start-ups et les grandes entreprises, qui recherchent des écosystèmes propices à l’innovation.

​Selon les experts, un cadre trop rigide pourrait inciter les entreprises à s’établir dans d’autres États ou pays où la réglementation est moins contraignante, ce qui risquerait de diminuer l’influence de la Californie en tant que centre névralgique de l’innovation technologique.

Gavin Newsom a finalement opposé son veto au projet de loi le 29 septembre 2024. Il a notamment justifié son geste par le fait que cette législation visait uniquement les grandes entreprises, négligeant les plus petites qui pourraient pourtant poser des risques encore plus importants pour la sécurité publique :

«By focusing only on the most expensive and large-scale models, SB 1047 establishes a regulatory framework that could give the public a false sense of security about controlling this fast-moving technology. Smaller, specialized models may emerge as equally or even more dangerous than the models targeted by SB 1047 – at the potential expense of curtailing the very innovation that fuels advancement in favor of the public good.».

Il n’a d’ailleurs pas manqué de rappeler la quantité de projets visant à réguler l’intelligence artificielle qui ont été adoptés sous son mandat, démontrant ainsi sa préoccupation pour le sujet.

En bref, cette décision marque un tournant dans l’évolution de l’industrie de l’intelligence artificielle. Bien qu’elle soit accueillie favorablement par les entreprises américaines du secteur, cette absence de régulation continue de susciter des questions. Le projet de loi SB 1047 offrait une occasion unique pour la Californie de prendre les devants et d’instaurer des garde-fous légaux dans le secteur, ce qui aurait sûrement inspiré d’autres états à suivre la démarche. Son rejet laisse un vide en matière de protection face aux dangers croissants liés aux technologies d’intelligence artificielle. Nul doute que le débat sera très rapidement relancé.

 

Ce contenu a été mis à jour le 24 octobre 2024 à 10 h 33 min.

Commentaires

Laisser un commentaire