Introduction

 

L’intelligence artificielle (également appelée «IA», si nécessaire, lisez notre article de lecture de 5 minutes: Qu’est-ce que l’intelligence artificielle?) est un domaine de recherche très fantasmé. Aujourd’hui, ses capacités ont souvent été exagérées au point que des personnes ou des entreprises les ont comparées à celles du cerveau humain. Si nous sommes en effet assez loin de cette étape de l ‘«IA générale», il est indéniable que les récentes réalisations clés dans le domaine de l’apprentissage automatique ont rendu possibles des applications commerciales réelles.

Avec cet enthousiasme et cette vague d’expériences dans le monde entier, une question cruciale doit être posée: quels sont les principaux risques éthiques * posés par l’IA? Ce document tentera de couvrir les opportunités et les principaux pièges que peuvent rencontrer les systèmes d’apprentissage automatique et les solutions que nous recommandons et mettons en œuvre aujourd’hui.

* Par éthique, nous entendons qu’ils se conforment à des principes moraux et à des valeurs partagés par les membres d’une société. Un ensemble de valeurs et de principes a été convenu lors de la déclaration des droits de l’homme par les Nations Unies à Paris en 1948, mais il est aujourd’hui contesté par de nombreux États et entités. Nous énonçons nos engagements éthiques à la fin de cet article.

I. Opportunités

 

L’IA offre des opportunités incroyables pour les acteurs petits et grands du monde entier. Voici quelques secteurs pour lesquels l’IA peut faire une énorme différence.

AI helps detect lung cancerl’IA peut aider des radiologues à détecter des cancers de manière plus sûre

I.1 Pour le secteur de l’agriculture

L’IA peut être utilisée dans le domaine de l’agriculture pour identifier avec une grande précision où les agriculteurs doivent arroser leurs cultures et où ils doivent intervenir afin de les protéger d’une menace environnementale. Ceci est réalisé grâce à des modèles d’apprentissage profond (deep learning) entraînés sur des images satellites ainsi que sur des images prises par des caméras posés sur les tracteurs.

 

I.2 Pour le secteur des transports

On estime que les accidents de voiture font chaque année 1,25 million de morts dans le monde. Ils sont également extrêmement coûteux, causant des centaines de milliards de dollars de dégâts chaque année aux États-Unis. En outre, la National Highway Traffic Safety Administration (NHTSA) estime que 94% des accidents d’automobiles sont causés par des erreurs humaines.

La réduction de l’apport humain peut entraîner une diminution du nombre de décès et de blessures et une réduction des dommages économiques si les systèmes de conduite automatisés sont à la hauteur de la tâche de prendre le relais. La technologie des véhicules autonomes repose largement sur des modèles d’Intelligence Artificielle combinés à des moteurs de règles (informatique déterministe).

I.3 Pour LE SECTEUR DE LA SANTÉ

L’IA s’est révélée extrêmement utile pour aider les médecins à prendre les bonnes décisions pour leurs patients. Récemment, une intelligence artificielle développée par le MIT s’est révélée meilleure pour repérer le cancer du sein dans les mammographies que des radiologues experts.

L’IA a surpassé les spécialistes en détectant les cancers que les radiologues ont manqués dans les images, tout en ignorant les caractéristiques qu’ils ont faussement signalées comme des tumeurs possibles.

 

I.4 Pour la sécurité intérieure

Les services de police et les services secrets peuvent bénéficier de l’IA en gagnant un temps précieux pour identifier les visages criminels connus ou les plaques d’immatriculation des véhicules dans les séquences et les photos de vidéosurveillance publiées en ligne.

L’IA peut également améliorer la détection d’armes dans les aéroports lors du scan des bagages en détectant automatiquement les bagages suspects. Cela peut s’avérer très utile pour prévenir une attaque contre la population nationale.

 

I.5 Pour les services financiers

Le secteur bancaire a subi une transformation à grande échelle depuis la crise bancaire de 2008 en mettant l’accent sur la conformité. L’IA peut aider les responsables de la conformité à relever les nombreux défis auxquels ils sont confrontés: extraire et synthétiser automatiquement d’énormes quantités d’informations pour vérifier que les transactions et les nouvelles ouvertures de comptes sont conformes aux exigences règlementaires.

L’IA peut traiter des enregistrements internes pour s’assurer qu’aucune violation du protocole n’a été commise. Dans le but ultime de prévenir un nouveau risque pour la banque et le système dans son ensemble.

 

II RisQUES

 

Comme souvent avec les technologies nouvelles et puissantes, l’intelligence artificielle comporte des risques à différents niveaux. Après avoir défini la notion de biais, nous décrirons ces risques.

II.1 Le biais

Le biais est généralement défini comme une inclination ou un préjugé pour ou contre une personne, un groupe ou quelque chose.

  • Il peut être conscient: par exemple, choisir une banane pour sa couleur jaune: nous pouvons avoir un parti pris conscient de choisir des bananes jaunes parce que nous avons une expérience antérieure ou des connaissances scientifiques sur les bananes mûres lorsqu’elles sont jaunes
  • Ou il peut être inconscient: associer des sentiments négatifs envers un segment de la population même si vous êtes ouvertement inclusif (comme l’a démontré le célèbre test implicite de Harvard sur les biais cognitifs)

«Deux qualités tout à fait opposées biaisent également nos esprits – les habitudes et la nouveauté.» – Jean de la Bruyère (Les Caractères ou les Moeurs de ce siècle, 1688)

Le biais est une réalité très répandue, Jean de la Bruyère note que le biais peut être forgé par les habitudes, en répétant les mêmes choix et en refusant de changer, tandis que quelque chose de nouveau peut déclencher un biais positif ou négatif simplement en étant nouveau. Le domaine des biais cognitifs est un domaine extrêmement actif qui a encore beaucoup à révéler sur les biais humains inhérents.

Les statistiques et le domaine de l’apprentissage automatique ont leur propre définition mathématique du biais. Le biais ainsi que la variance sont les principales sources d’erreurs entre les prédictions d’un modèle d’apprentissage automatique et la réalité:

  • L’erreur de biais est due à des modèles trop simplifiés qui ne parviennent pas à saisir la complexité de la réalité
  • L’erreur de variance est due à des modèles trop complexifiés qui s’adaptent parfaitement aux données d’entraînement mais ne parviennent pas à bien généraliser

 

II.2 Biais en entrée > Biais en sortie

Éducation, emploi, santé, accès au crédit: encore aujourd’hui, ces composantes importantes de notre société sont sujettes à des comportements et à des décisions biaisés.

Dans le domaine de l’application des lois, plusieurs études ont montré des biais existants:

  • Une étude de 2011 a montré que les juges britanniques étaient plus miséricordieux après le déjeuner qu’à d’autres moments de la journée.
  • L’initiative Open Justice en Californie a montré le biais négatif de LAPD envers les Noirs: 28% des personnes arrêtées par la police sont noires alors qu’elles ne représentent que 9% de la population locale.

British judges are more lenient after lunchLes juges britanniques pardonnent plus en moyenne après l’heure du déjeuner

Si les données passées sont traitées comme une vérité fondamentale, les modèles d’IA entraînés sur les données reproduiront les biais sociaux existants. Cela a déjà été vérifié à plusieurs reprises:

Problème clé n ° 1:

Chaque fois qu’une IA est développée avec des biais de données liés à l’homme, ils sont nécessairement présents dans les données d’entraînement.

Notre recommandation:

Reconnaître les biais existants est la première étape qui fixera un objectif de biais zéro dans le choix ou le développement d’un système d’IA. Pour que le système d’IA soit équitable, une analyse des biais doit être effectuée sur les données antérieures afin que les biais de genre ou d’origine ethnique puissent être équilibrés avant la formation en IA.

Étant donné que les préjugés de nos sociétés subissent un changement à long terme (par exemple, la suppression de l’écart de rémunération entre les sexes), il est également essentiel que les systèmes d’IA disposent d’une fonction continue d’atténuation des biais.

 

II.3 Une Ia intrusive

Les systèmes d’IA d’aujourd’hui sont basés sur des calculs, une somme d’opérations binaires qui sont effectuées par nos ordinateurs: ils manquent d’émotions et sont incapables d’être sincèrement empathiques et de comprendre nos émotions. Ils ne peuvent que simuler et reproduire les tendances qu’ils ont apprises (avec plus ou moins de hasard).

Ces limitations rendent les systèmes prétendant reconnaître les émotions, la santé mentale, la personnalité ou d’autres états intérieurs intrinsèquement défectueux. Un appel à interdire ces technologies a récemment vu le jour.

Cependant, identifier automatiquement le contenu déclenchant une réaction donnée (par exemple un emoji haineux sur Facebook) sur un segment donné de la population (par exemple les mères célibataires de banlieue en Ohio) et utiliser ces informations pour créer des contenus similaires dans le but de déclencher à nouveau ces émotions pose déjà un énorme problème.

State populations affected by Cambridge AnalyticaUS citizens affected by the Cambridge Analytica scandal (source: Business Insider)

Le scandale de Cambridge Analytica a révélé comment des publicités ciblées ont tenté (avec un certain succès) d’influencer les électeurs à grande échelle. Dans le cas de la campagne présidentielle américaine de 2016, la société a regroupé plus de 80 millions de profils Facebook et traité une énorme quantité d’informations personnelles pour détecter les tendances parmi les électeurs et concevoir des messages sur mesure pour provoquer les émotions et les réactions souhaitées.

Problème clé n ° 2:

L’accumulation et l’agrégation de données hautement personnelles (opinion politique, situation familiale, orientation sexuelle, …)

Notre recommandation:

Les régulateurs devraient renforcer la protection et la réglementation des données. Les entreprises doivent se méfier des données qu’elles traitent et utiliser le minimum de données pour mener à bien leurs processus.

Le 25 mai 2018, l’Union européenne a finalement donné un cadre réglementaire pour protéger les données des citoyens européens (RGPD) et récemment l’État de Californie a également adopté une loi sur la protection des consommateurs (CCPA).

Ces cadres sont essentiels pour encourager les bonnes pratiques en termes de développement de l’IA au sein des entreprises et pour aider à éviter qu’un nouveau Cambridge Analytica ne se produise.

II.4 L’IA pour le bien commun ?

Le troisième problème éthique concernant l’IA est lié à l’application même à laquelle l’IA est censée apporter une amélioration.

Elon Musk et d’autres personnalités éminentes de l’IA ont appelé à l’interdiction des robots tueurs autonomes. L’initiative est plus que louable mais il est important de noter que les robots tueurs autonomes ne sont malheureusement qu’un pas de plus dans le développement de robots de destruction de vies qui existent déjà et qui sont utilisés aujourd’hui.

Des robots tueurs illustrent l’augmentation avec l’IA d’un produit ou d’un moyen contraire à l’éthique (tuer son prochain).

Killer Robot in Black Mirror (Metalhead)Le robot tueur “Metalhead” (Black Mirror – Episode 5 Saison 4)

Il en va de même de la surveillance de masse ou de la sélection et de la modification génétiques des cellules animales vivantes. Si l’intelligence artificielle peut aider à effectuer ces actions, les modèles résultants sont contraires à l’éthique de par leur conception, car leur tâche effectuée par un humain est déjà contraire à l’éthique.

Pour être parfaitement clair: cet argument ne signifie pas qu’il est permis de développer des robots tueurs, bien au contraire. Cela montre que les modèles d’IA ne peuvent jamais être éthiques si l’objectif sous-jacent en soi est contraire à l’éthique.

Problème clé n ° 3:

Vouloir “augmenter” des démarches contraires à l’éthique (par exemple la sélection génétique) ou des produits non éthiques (par exemple les armes létales) avec de l’IA.

Notre recommandation:

Le développement de l’IA à grande échelle est l’occasion idéale pour reconsidérer une partie de nos activités, en particulier celles qui sont discutables au regard de notre ensemble de valeurs et de principes moraux. L’investissement et le développement de l’IA devraient être consacrés à des activités qui créent une valeur durable pour la communauté humaine et ne devraient en aucun cas causer de dommages ou de destruction.

 

 

III. Notre engagement

 

Comme nous l’avons vu dans la première section, l’IA peut s’avérer extrêmement précieuse pour la société et pour les travailleurs, les législateurs, les banquiers, les enseignants et bien d’autres professionnels. Cependant, il est important de rester fortement vigilant pour garantir que l’IA soit éthique dès sa conception.

En tant qu’entreprise d’IA, nous nous engageons à appliquer ces mesures clés de précaution lors de l’introduction de l’IA dans les processus existants de nos clients:

  • Effectuer une analyse des biais: nous faisons des statistiques descriptives sur la démographie pour voir comment les décisions passées ont varié selon des variables telles que le sexe ou l’origine ethnique. Si l’étude prouve un biais existant, débloquez les données sur lesquelles l’IA apprendra les tendances passées. Nous recommandons également à nos clients d’être proactifs et de lancer une campagne de communication interne pour souligner les biais passés et promouvoir de meilleures décisions humaines
  • Nous ne conservons que la quantité stricte de données pertinentes pour le processus donné: nous examinons attentivement avec l’entreprise quelles sont les données obligatoires. Si nous devons traiter des données non structurées telles que des images, des vidéos ou des textes, nous les anonymisons autant que possible. De cette façon, nous garantissons que notre traitement est conforme au RGPD et nous évitons également que nos modèles adoptent des biais indésirables si une variable supposée neutre (par exemple le sexe) prend en fait un poids positif ou négatif
  • Nous conseillons nos clients contre les risques d’une automatisation totale: l’apprentissage automatique (qui alimente la grande majorité des systèmes d’IA), est basé sur des probabilités. Vous pouvez avoir un score de confiance sur une prédiction mais ce ne sera qu’une statistique basée sur des observations passées. On peut la considérer comme une prévision météorologique, elle peut être extrêmement précise et extrêmement utile, mais reste néanmoins une prévision, avec une (faible) probabilité d’échec. Lors de la prise de décisions aussi critiques que de prêter ou non de l’argent ou de donner accès à la propriété, à l’éducation ou à la santé, une validation humaine est obligatoire
  • Avant de travailler sur un projet et d’installer notre solution, nous nous demandons à nous-mêmes et au client: le système sera-t-il bon? Y a-t-il des chances qu’un résultat très négatif puisse se produire? Nous pesons soigneusement les avantages et les inconvénients et nous nous assurons qu’il existe des mesures de sécurité qui identifieront facilement et empêcheront des effets négatifs.

 

En conclusion

Chez Datakeen, nous nous concentrons sur la production d’une technologie d’apprentissage automatique qui est exempte de préjugés existants ou qui ne nuit à aucun groupe de personnes ou communauté.

Nous travaillons main dans la main avec nos clients pour nous assurer que leurs données d’entrée sont impartiales grâce à une analyse préliminaire et que leur utilisation de l’IA ne viole aucune barrière éthique. Cela fait partie de notre ADN et nous rend fiers en tant que société d’IA.

J’espère que vous avez apprécié la lecture et vous invite à lire nos futures publications.

 

A propos de l’auteur

 

Gaël Bonnardot, Co-fondateur et CTO chez Datakeen

Passionné et praticien du Machine Learning et son déploiement sur des cas d’usages métiers, Gaël dirige la conception des solutions IA chez Datakeen et est déterminé à rendre l’IA aussi éthique qu’elle peut être efficace.

Pour aller plus loin

Voici quelques lectures supplémentaires sur ce sujet important :