Dans un contexte où l’intelligence artificielle (IAIA) prend de plus en plus de place dans nos vies quotidiennes et dans les secteurs stratégiques, la question de sa régulation par un cadre juridique devient cruciale.
Pour mieux comprendre ces enjeux, nous nous sommes entretenus avec Aurélie Jean, scientifique en modélisationmodélisation algorithmique, entrepreneure et autrice du livre « Les Algorithmes » (Presses Universitaires de France, 2024).
Aurélie Jean a été classée par le magazine Forbes parmi les 40 françaises les plus influentes de 2019. © Alcibiade Cohen
Futura : Quels sont aujourd’hui les principaux risques liés à une mauvaise régulation de l’IA ?
Aurélie Jean : L’IA présente à la fois des risques et des opportunités intrinsèques à la discipline mais aussi dans la manière dont elle est utilisée. Par exemple, une IA d’identification d’images peut contenir des biais algorithmiques qui entraînent une discrimination technologique et qui traitent différemment et injustement les données d’individus sur la base du genre, de l’âge, de l’ethnicité et tant d’autres choses.
Et cette même IA, utilisée pour la reconnaissance faciale, présente des risques spécifiques, notamment en facilitant, dans certains cas, une surveillance généralisée. La régulation doit prendre en compte ces deux aspects de menace, ce que fait l’AI Act en distinguant les IA selon leur niveau de risque lié en grande partie à leurs usages.
La super-intelligence, le Graal de l’IA ?@Aurelie_JEAN, Data scientist, essayiste est à l’#AIMsummit pour en débattre. pic.twitter.com/vx5R2jYGZv
— La Tribune Evénements (@latribuneevents) November 15, 2024
Futura : Quelle est l’importance d’une régulation européenne de l’IA et comment se distingue-t-elle des approches adoptées dans d’autres régions du monde, comme les États-Unis ou la Chine ?
Aurélie Jean : Cette régulation a raison d’exister et nous devons nous en réjouir. Cela étant dit, il faut prêter une attention particulière à ce qu’elle ne freine pas l’innovation, mais l’encourage tout en l’encadrant. Ce qui va en découler dessinera les contours de cette régulation à moyen et long terme.
Il faut remarquer que pour le RGPD (texte révolutionnaire qui a inspiré le texte de Californie, le CCPA « California Consumer Privacy Act », reconnu dans de nombreux États américains), nous avions un historique de régulation, et donc des compétences, notamment à travers la Loi informatique et libertés de 1978 en France, qui par la suite a été adaptée aux données transportées avec l’émergenceémergence d’Internet.
Ici, pour l’AI Act, nos législateurs n’ont aucune expérience, ou peu, en matièrematière de législation sur l’IA. Ce qui explique, selon moi, le caractère plus conservateur du texte. Il ne fait pas explicitement la distinction entre l’IA pour la recherche (publique ou privée) et son applicationapplication industrielle, même si, en théorie, il s’applique aux IA déployées. Dans ce cas là, qu’en est-il d’une IA médicale utilisée dans le cadre d’un essai cliniqueessai clinique ? Encore une fois, j’attends avec impatience la mise en application de l’AI Act pour que se construise la jurisprudence.
De leur côté, les États-Unis se sont réduits à des « executive orders » de la part du Président Joe Biden, qui sont davantage des lignes directrices à destination des acteurs de l’IA, entendez par là les personnes physiquesphysiques, comme les concepteurs, et les personnes morales, comme les entreprises. Je pense que les États-Unis auront, à l’instar du CCPA (équivalent du RGPD), un texte qui viendra d’abord par un État progressiste, comme la Californie, pour ensuite être reconnu par d’autres États et après, je l’espère, devenir un texte fédéral. Concernant la Chine, je ne connais pas suffisamment pour m’exprimer avec rigueur.
Futura : Beaucoup craignent qu’une régulation trop stricte ralentisse le développement technologique et désavantage les entreprises. Cela sera-t-il vraiment un frein à l’innovation ?
Aurélie Jean : La crainte est bien réelle car lors de sa mise en application, le AI Act va évoluer au regard des affaires à venir, et donc de la jurisprudence qui pourrait prendre une direction punitive et conservatrice au lieu d’être préventive et progressiste libérale, ce qui permettrait l’innovation tout en gardant un cadre.
Les États-Unis vont investir 500 milliards de dollars pour créer la première Super Intelligence Artificielle…
Pendant ce temps, des chercheurs du CNRS créent une appli pour “sortir de X”…
…et l’Union Européenne impose l’AI Act, pour empêcher les IA puissantes en Europe… pic.twitter.com/s04ErIMPyo— Franck Vallois (@ValloisFranck) January 22, 2025
En cela, il faut absolument que nos législateurs soient davantage sensibilisés aux sujets de l’IA et qu’ils écoutent ce qui se passe en recherche académique et privée. À la sortie de ChatGPT version 3, j’étais étonnée de voir les articles du AI Act être amendés pour prendre en considération ces IA génératives, alors qu’elles sont en développement depuis des années. En amendant dans la précipitation, on prend le risque de rigidifier le texte pour rien.
Futura : Comment faut-il aborder la régulation des IA considérées à « haut risque » sans brider leur potentiel dans des secteurs stratégiques comme la santé ou la finance ?
Aurélie Jean : Il faut distinguer clairement la recherche d’un côté, qui permet aussi de comprendre ces technologies qui peuvent un jour être utilisées contre nous individuellement et collectivement en tant que nation et, de l’autre, le développement industriel et commercial.
????
Mac4Ever vient de publier le contenu “L’AI Act est applicable ! Qu’est-ce que cela va changer ?”.
https://t.co/PT9vhelKYY via @mac4ever pic.twitter.com/Ey4EFoopYm
— Fredericus Cornelius Corneille de Cornelia ???? (@ycFreddy) February 10, 2025
Aussi, il faut s’appuyer sur les lois qui existent déjà pour défendre nos droits fondamentaux, comme la protection de notre vie privée qui est une des réponses pour lutter contre la surveillance généralisée et de massemasse. Encore une fois, je reste persuadée que la constructionconstruction de la jurisprudence permettra de définir les contours de la loi. L’IA, à l’instar du droit à la concurrence, se prête bien à la jurisprudence.
Futura : Comment garantir que les régulations de l’IA soient équitables et ne favorisent pas certaines entreprises ou pays au détriment des autres ?
Aurélie Jean : C’est le principe même des lois dans n’importe quel pays à travers le monde. Il faut construire des lois pertinentes, qui servent vraiment, qui ne défavorisent pas le citoyen ou la nation tout entière, et qui soient durables. L’IA ne diffère pas des autres domaines légiférés, si ce n’est que cette discipline évolue vite et que nos législateurs peuvent peut-être être démunis face aux compétences nécessaires pour apprécier ce qui se passe et anticiper ce qui se passera.