Image
Intelligence artificielle : quelle(s) responsabilité(s) ?

Intelligence artificielle : quelle(s) responsabilité(s) ?

French
Body

La réglementation autour de l’intelligence artificielle (IA) est encore floue. C’est pourquoi la Commission européenne vient de présenter un projet pour adapter la question de la responsabilité des entreprises aux enjeux posés par l’IA. Point d’étape.


Intelligence artificielle : vers une responsabilisation des entreprises

La Commission européenne prévoit de moderniser le dispositif de responsabilité du fait des produits défectueux.

Objectif ? Favoriser l’innovation technologique tout en garantissant aux victimes qu’elles puissent obtenir une indemnisation équitable lorsque des produits numériques et reconditionnés leur causent un préjudice.

Il est notamment prévu :

  • que les règles de responsabilité soient claires et équitables pour les entreprises qui modifient substantiellement les produits ;
  • de permettre l'indemnisation des dommages lorsque des produits tels que des robots, des drones ou des systèmes de maison intelligente sont rendus dangereux par des mises à jour logicielles, l’intelligence artificielle ou des services numériques nécessaires au fonctionnement du produit, ainsi que lorsque les fabricants ne parviennent pas à résoudre les vulnérabilités de la cybersécurité ;
  • de permettre aux consommateurs lésés par des produits dangereux importés de l'extérieur de l'UE (Union européenne) de se tourner vers l'importateur ou le représentant européen du fabricant pour obtenir une indemnisation ;
  • plus de flexibilité dans les délais pour introduire des réclamations et un allègement de la charge de la preuve pour les victimes dans les cas complexes, tels que ceux impliquant des produits pharmaceutiques ou l'IA (intelligence artificielle).

Outre une modernisation de la responsabilité du fait des produits défectueux, la Commission européenne prévoit de publier une Directive IA pour établir des règles uniformes pour :

  • faciliter l'accès aux informations et l'allégement de la charge de la preuve en ce qui concerne les dommages causés par les systèmes d'IA ;
  • établir une protection plus large pour les victimes (qu'il s'agisse de particuliers ou d'entreprises) et favoriser l'IA secteur.

Les nouvelles règles qui devraient être mises en place faciliteront, par exemple, l'obtention d'une indemnisation pour la personne victime de discrimination dans un processus de recrutement impliquant l'IA.

Pour atteindre ces objectifs, 2 garanties principales vont voir le jour :

  • la présomption de causalité : si les victimes peuvent prouver que quelqu'un a commis une faute en ne respectant pas une certaine obligation (en lien avec leur préjudice), et qu'un lien de causalité avec la performance de l'IA est raisonnablement probable, le juge peut présumer que cette non-conformité a causé le dommage ;
  • l’accès aux preuves pertinentes : les victimes pourront demander au juge d'ordonner la divulgation d'informations sur les systèmes d'IA à haut risque ; cela leur permettra d'identifier la personne qui pourrait être tenue responsable et de découvrir ce qui n'a pas fonctionné. Notez que cette divulgation sera soumise à des garanties appropriées pour protéger les informations sensibles, telles que les secrets commerciaux.

Source : Communiqué de presse de la Commission européenne du 28 septembre 2022, « De nouvelles règles de responsabilité sur les produits et l'IA pour protéger les consommateurs et favoriser l'innovation »

Intelligence artificielle : quelle(s) responsabilité(s) ? © Copyright WebLex - 2022

À voir aussi
Secteur agricole : aides actualisées en mars 2026
Secteur agricole : aides actualisées en mars 2026
Le secteur agricole peut bénéficier de différentes aides. De plus, en fonction, notamment, de la situation sanitaire, des précautions particulières ou des évolutions de réglementations peuvent être décidées. Autant de points à préciser au regard de…
Logiciels de caisse auto-certifiés : le retour
Logiciels de caisse auto-certifiés : le retour
Alors que les éditeurs des logiciels de caisse avaient encore la possibilité jusqu’au 1er septembre 2026 de prouver leur conformité par la production d'une attestation individuelle avant la suppression définitive des logiciels auto-certifiés, la loi…
Transfert de mails sensibles : faute grave ?
Transfert de mails sensibles : faute grave ?
Le transfert massif de courriels professionnels couverts par le secret vers une messagerie personnelle, y compris celle d’un tiers, peut-il caractériser une faute grave justifiant le licenciement d’un salarié protégé ? Réponse du juge dans une…
Image bot
Image
Titre bot
Suivre notre actualité
Image
Image
Titre
Besoin d’être accompagné dans votre activité ?
Texte

Nos experts sont heureux de pouvoir parler de votre projet.

Titre 2
Nous rendre visite
Language
French
Formulaire de newsletter