L’intelligence artificielle, priorité de l’UE

Les derniers articles par Morgane Diraison (tout voir)

Nous sommes confrontés à une véritable révolution numérique au sein de nos sociétés.
L’intelligence artificielle (IA) fait partie intégrante de ce qui suscite des enjeux juridiques au niveau de l’Union européenne (UE).

Face à un développement de plus en plus rapide, l’IA est dès lors une réalité qui s’impose durablement et qui nécessite d’être encadrée et réglementée. 

Définition et intérêts stratégiques 

Il faut tout d’abord avoir en tête qu’une intelligence artificielle n’est pas nécessairement un robot. L’IA est un ensemble de techniques scientifiques qui permet à des machines de simuler une intelligence humaine. Dès lors, la reconnaissance faciale, et les assistants intelligents intégrés à nos smartphones (Siri, Alexa) sont aussi des exemples d’IA. 

Pour autant, cette innovation est en constante évolution. Il est donc difficile de l’encadrer dans une définition stricto sensu. Celle-ci risquerait de restreindre son développement, et limiterait réciproquement l’application juridique.
C’est le point de départ de l’arsenal juridique. La Commission européenne a tenté de définir largement l’IA ; pour autant, celle-ci demeure encore trop floue. 

Dès lors, L’UE doit s’investir dans ce chantier, compte tenu des intérêts économiques et scientifiques de l’IA.
Sur ces questions, les États-Unis et la Chine ont une longueur d’avance.
En effet, l’UE ne dispose pas de compétences à proprement parler dans ce domaine. Elle tente alors d’influencer les États-membres par des actes non contraignants, ce qui limite considérablement l’encadrement de l’IA. C’est également par l’instauration d’un marché numérique que l’UE tente d’agir mais les marchés nationaux sont encore trop disparates. 

La volonté d’instaurer un modèle européen : entre ambition et paradoxe

L’UE pour autant, cherche à se démarquer en essayant d’instaurer son propre modèle. 

Il s’agit de créer une intelligence artificielle éthique et digne de confiance. Cela a notamment été impulsé par la France et le rapport Villani. L’approche serait donc ici préventive.
L’UE souhaite privilégier le facteur humain dans la prise de décision de l’IA. L’humain devra être automatiquement mis en avant, et l’IA devra respecter la Charte des droits fondamentaux.
Pour le moment, de nombreuses contradictions existent. C’est notamment le cas en ce qui concerne la définition de la dignité de la personne humaine qui se trouve en totale opposition avec l’IA, celle-ci étant un moyen instrumentalisé et un moyen de parvenir à une fin.

De la même manière, les données sont protégées par le règlement général de la protection des données (RGPD). Or les données sont une condition sine qua none pour la conception de l’IA. 

Il y a donc véritablement un paradoxe qui se crée. Faut-il favoriser la protection des données, ou au contraire permettre à l’IA d’évoluer ? 

Sur cette question des droits fondamentaux, il est possible de mentionner le robot SOFIA.
Ce robot-femme a été conçu en Arabie Saoudite. Or sa condition en tant que femme est bien plus valorisée qu’une femme arabe. Elle ne porte pas le voile et peut s’exprimer librement en public. Là encore, se pose la nécessité d’un encadrement fixe et durable.

Ce modèle européen suppose aussi de mettre en place une intelligence artificielle responsable.
Ce régime de responsabilité soulève la doctrine.
Le premier enjeu tient, en effet, à la catégorisation de l’IA. Faut-il lui accorder une personnalité juridique puisqu’elle pourrait réfléchir comme un Homme ? Faut-il lui accorder une catégorie juridique spécifique, telle qu’une personnalité électronique ou robotique ? Ou faut-il ajuster le droit positif ? 

Du regard des institutions européennes, il n’a pour le moment pas été trouvé de consensus.
Pour autant, il n’existe pas de responsabilité sans personnalité juridique. 

S’il l’on suppose que l’IA obtienne une personnalité juridique, cela impliquerait beaucoup de bouleversements et de changements : 

  • D’un point de vue éthique, cela soulèverait la question du statut des animaux, ainsi que du statut de l’embryon (en droit français). Pourquoi accorder des droits et des devoirs à une machine intelligente, plutôt qu’à un animal, ou à un embryon pourtant être humain ?

  • D’un point de vue juridique, la responsabilité se décline en deux sous-catégories. D’une part, la responsabilité contractuelle, d’autre part la responsabilité délictuelle. Dans quel type de responsabilité intégrer l’IA ? 

S’il on suppose que l’IA ne puisse pas obtenir une personnalité juridique : 

  • il s’agirait dès lors, de l’introduire dans la législation en vigueur. Mais là encore, il s’agit de savoir qui sera responsable de l’IA en cas de dommage. Le concepteur, le propriétaire, le fabricant ? La réponse n’est pas claire, et l’identification du responsable reste ambiguë. 

  • Sur cette base, le Parlement européen propose de mettre en place un régime de responsabilité en cascade. Ce régime étant calqué sur celui des voitures autonomes américaines. Le fabricant se voit exonéré de sa responsabilité, sauf s’il a installé une technologie défaillante. Dès lors, il s’agit en premier lieu du concepteur, puis du fabricant, et enfin du propriétaire. 

Si la construction d’un législatif s’avère plutôt complexe et tardive, elle a le mérite d’exister et d’être ambitieuse.
Aujourd’hui, il existe des questionnements qui n’ont pas encore été soulevés.
Si l’IA dispose de droits, pourra-t-elle faire un testament ? Qu’en sera t‑il de sa mort ou de sa destruction ? 


Publié par Morgane Diraison

Master 2 en Études internationales et européennes, mention droit de l'Union européenne à Nantes. Auteure de « L'encadrement de l'intelligence artificielle à l'échelle européenne »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.