L’avancée à la vitesse « grand V » de la science des données soulèvent des problématiques nouvelles pour les politiciens et les législateurs. Comment collecter les données personnelles et gérer leurs stockages de façon éthique et sure ? Qui est habilités à vérifier si les algorithmes sont biaisés ? Et en cas d’accident ou de préjudice qui en porte la responsabilité ?
La commission européenne recommande que l’IA soit transparente et impartiale, avec une supervision humaine si nécessaire. Le RGPD (règlement général sur la protection des données) en Europe donne aux citoyens le contrôle de leur donné). Il sera bientôt exigé aux Etats-Unis que les systèmes d’IA soient éthiques et non discriminatoires. Certaines entreprises américaines se sont publiquement engagées à développer des algorithmes équitables et responsables dont les principales préoccupations sont la confidentialité et la sécurité. Google s’est engagé quant à elle à ne pas élaborer des algorithmes ou des systèmes d’armes ou des technologies qui violent les droits de l’homme. Il faut souligner également que ces deux dernières années on a vu des chercheurs en éthique de l’IA s’en aller de chez Google. Ce vendredi 8 décembre 2023 l’union européenne est arrivée sur un « accord » sur la régulation de l’IA, une première mondiale même si cet accord doit encore être accepté et discuter par chaque pays de l’EU. Et il y’a la Chine qui est moins restrictives sur son développement de l’IA par rapport à l’EU et les Etats-Unis.
Des voix s’inquiètent sur le fait de la régulation en elle-même car si les restrictions sont variables en fonction d’un lieu géographique alors on y voit là la possibilité d’un dépassement technologique avec des écarts énormes inévitables de certains pays avec moins des restrictions sur d’autres plus avec plus des restrictions. D’autre part si la régulation est spécifique à un lieu géographique, l’IA ne répondra-t-elle pas à des besoins spéciaux de ce milieu ?
Ainsi, pourra-t-on arriver à réguler l’IA ?