fbpx

Une introduction à l’intelligence artificielle éthique

A l’origine de l’intelligence artificielle

L’intelligence artificielle (IA) est un sujet qui questionne beaucoup et fait partie de notre quotidien. Elle est devenue si répandue que l’on a besoin de plus d’un million d’ingénieurs en IA dans le monde, que YouTube a créé une série de neuf vidéos sur l’IA et qu’Elon Musk a créé une société appelée Neuralink en réponse à ses préoccupations concernant l’IA. Le soucis est donc de combiner IA et éthique. L’intérêt pour l’IA a presque doublé au cours des cinq dernières années selon Google Trends.

Souvent les idées qui entourent l’IA sont assez mal comprises, le manque de compréhension qui l’entoure pouvant expliquer ce sujet si controversé. En fait, on pense que les controverses sont le résultat d’un manque de confiance de la part des parties en conflit. Par exemple, en ce qui concerne les controverses sur le changement climatique, il a été émis la possibilité que les personnes s’opposant au consensus scientifique sont celles ne disposant pas  de suffisamment d’informations.

Il est important que nous puissions collectivement réfléchir de manière critique à la façon dont l’IA façonnera l’avenir de l’humanité.

Qu’est-ce que l’intelligence artificielle ?

Selon Techopedia, “l’intelligence artificielle (IA) est une branche de l’informatique qui vise à doter les logiciels de la capacité d’analyser leur environnement à l’aide de règles et d’algorithmes de recherche prédéterminés, ou de modèles d’apprentissage automatique à reconnaissance de formes, puis de prendre des décisions sur la base de ces analyses”.

Pourquoi l’intelligence artificielle est-elle si populaire aujourd’hui ?

Une des raisons pour laquelle l’IA a gagné en popularité récemment est l’amélioration de la puissance des ordinateurs. Principalement, l’augmentation de la puissance des unités de traitement graphique (GPU) a permis aux organisations d’exécuter des applications massives de réseaux neuronaux à des vitesses qu’il était impossible d’atteindre il y a dix ans.

Parmi les autres raisons, citons la disponibilité d’un stockage en Cloud peu coûteux, ainsi que l’évolution des logiciels de deep learning et leur disponibilité en open-source.

Les craintes et les inquiétudes entourant l’intelligence artificielle

L’IA étant un sujet tellement nouveau, elle a suscité non seulement de nombreuses controverses, mais aussi des spéculations, du scepticisme et des inquiétudes.

Cela nous amène à l’hypothèse la plus populaire, la singularité technologique, qui est l’idée qu’il pourrait y avoir un moment où la croissance technologique devient incontrôlable et irréversible, entraînant des changements imprévisibles dans la civilisation humaine. La singularité devrait se produire après le moment où les créations technologiques dépasseront la puissance de calcul des cerveaux humains. Ray Kurzweil, inventeur et futurologue, prédit, sur la base de la loi de Moore et de la tendance générale à la croissance exponentielle, que la singularité se produira avant le milieu du 21e siècle. Selon la loi de Moore, nous pouvons nous attendre à ce que la vitesse et les capacités de nos ordinateurs augmentent tous les deux ans et à ce que nous payions moins cher pour les acquérir.

Plus spécifique et plus pertinente que l’idée de singularité technologique est une théorie appelée Explosion de l’intelligence, un agent intelligent améliorable qui finira par entrer dans une réaction d’emballement des cycles d’auto-amélioration, aboutissant à une superintelligence puissante qui surpasse qualitativement toute intelligence humaine. La superintelligence est un agent hypothétique qui possède une intelligence dépassant de loin celle des esprits humains les plus brillants et les plus doués. Elle repose sur l’idée de l’intelligence générale artificielle (AGI), qui est l’intelligence hypothétique d’une machine capable de comprendre ou d’apprendre n’importe quelle tâche intellectuelle dont est capable un être humain.

Ce qui pourrait être plus réaliste et peut-être un problème plus immédiat, c’est la partialité des systèmes d’IA. La partialité est le préjugé en faveur ou à l’encontre d’une chose, d’une personne ou d’un groupe par rapport à un autre, généralement d’une manière considérée comme injuste. Si l’on revient à la définition de l’intelligence artificielle, elle vise à doter un logiciel de la capacité d’analyser son environnement à l’aide de règles et d’algorithmes de recherche prédéterminés ou de modèles d’apprentissage automatique à reconnaissance de formes. Ces règles, algorithmes et modèles peuvent avoir des biais sous-jacents qui proviennent des données dans lesquelles ils ont été créés ou des ingénieurs qui ont développé le système.

Cette situation est dangereuse car elle peut entraîner des violations de la vie privée, des discriminations et de graves conséquences sociales. Par exemple, l’algorithme d’apprentissage automatique d’Amazon pour le recrutement s’est avéré être biaisé contre les femmes. La raison en est que l’algorithme était basé sur le nombre de CV soumis au cours des dix dernières années, et comme la plupart des candidats étaient des hommes, il a été entraîné à favoriser les hommes par rapport aux femmes.

Outre la partialité de l’IA, il existe un certain nombre d’autres risques potentiels, notamment l’atteinte à la vie privée et les intentions malveillantes. Il y a atteinte à la vie privée lorsque des informations personnelles sont collectées sans notre consentement. La disponibilité de trop d’informations personnelles peut poser des risques sociaux. L’intention malveillante consiste à créer des systèmes d’IA pour nuire à la société. Un exemple de cela est la création d’armes militaires qui utilisent l’IA pour détecter une personne d’une race, d’une ethnie spécifique, etc.

Combiner éthique et intelligence artificielle

En réponse aux risques de l’IA, de nombreuses organisations ont lancé diverses initiatives visant à établir des principes éthiques pour l’adoption d’une IA socialement bénéfique. Luciano Floridi, professeur de philosophie et d’éthique de l’information à l’université d’Oxford, a analysé plusieurs des ensembles les plus médiatisés de principes éthiques pour l’IA et a élaboré un cadre global de cinq principes fondamentaux pour l’IA éthique, dont quatre sont couramment utilisés en bioéthique, l’étude des questions éthiques découlant des progrès de la biologie et de la médecine.

Les cinq principes de l’IA éthique sont les suivants :

  • La bienfaisance

La bienfaisance consiste à promouvoir le bien-être, à avoir un effet positif sur l’humanité et à préserver la planète. La Déclaration de Montréal pour une IA responsable stipule, à propos de la bienfaisance, que “le développement de l’IA devrait en fin de compte promouvoir le bien-être de toutes les créatures sensibles”.

  • Non-malfaisance

La non-malfaisance consiste à ne pas faire de mal ou à infliger le moins de mal possible pour obtenir un résultat. Ne confondez pas cela avec la bienfaisance – “faire le bien” et “ne pas faire de mal” sont deux choses différentes. La prévention des atteintes à la vie privée est particulièrement importante.

  • Autonomie

En mettant en œuvre des systèmes d’IA, nous, les humains, abandonnons volontairement une partie de notre pouvoir de décision. Toutefois, le principe d’autonomie implique de trouver un équilibre entre le pouvoir de décision que nous conservons pour nous-mêmes et celui que nous déléguons aux agents artificiels. La Déclaration de Montréal stipule que “le développement de l’IA devrait promouvoir l’autonomie de tous les êtres humains”.

  • Justice

La justice signifie préserver la solidarité et éviter l’injustice – c’est la solution aux préjugés dans l’IA. La Déclaration de Montréal définit spécifiquement ce principe comme suit : “le développement de l’IA devrait promouvoir la justice et chercher à éliminer tous les types de discrimination”.

  • Explicabilité

Le dernier principe est celui de l’explicabilité, qui renvoie à la nécessité de comprendre et de rendre compte des processus décisionnels de l’IA. Nous devons promouvoir la transparence et l’interprétabilité en matière d’IA et tenir les gens responsables de leurs actions.

Si le cadre ci-dessus fournit une vue d’ensemble cohérente et suffisamment complète des principes éthiques centraux de l’IA (Floridi et al., 2018), il peut alors servir d’architecture au sein de laquelle les lois, les règles, les normes techniques et les meilleures pratiques sont élaborées pour des secteurs, des industries et des juridictions spécifiques.

Le débat doit dans tous les cas être permanent et attirer l’attention de tous afin d’en connaître au moins les cinq principes, en particulier ceux qui travaillent avec des modèles de Machine Learning et des systèmes d’IA.
Il faudra donc continuer de se poser des questions telles que :

Comment pouvons-nous éliminer tous les biais nuisibles de l’IA ? Qu’est-ce qui est considéré comme de la bienfaisance ? Quelles sont les limites de ce qui est bon ou mauvais ? Comment pouvons-nous tenir les gens responsables de leurs actions ? Ces principes sont-ils applicables ? Si non, qu’est-ce qui l’est ? Dans l’affirmative, comment pouvons-nous les faire respecter ?

Pour en savoir plus sur l’IA et la RGPD rejoignez la formation Data Science & IA. Cette formation d’acculturation vous donnera toutes les acquis en matière d’intelligence artificielle et de RGPD.

Merci pour votre lecture ! Si vous souhaitez lire nos prochains articles autour de la Data Science, vous pouvez nous suivre sur Facebook, LinkedIn et Twitter pour être notifié lorsqu’un nouvel article est publié

Cet article a été inspiré par : Une introduction à l’Intelligence Artificielle éthique