top of page
David Moreno

L'IA, une opportunité de réduire la connerie ? – IA #4

L'utilisation généralisée des algorithmes a permis de révéler un problème, initialement jugé mineur par les décideurs et concepteurs, mais qui s'avère aujourd'hui crucial : l'amplification par l'IA des biais cognitifs et émotionnels, des clichés et autres préjugés profondément inscrits dans nos systèmes de pensées.


Le robot Kismet au MIT Museum. Kismet reconnaît et simule des émotions

De nombreux services de police utilisent l'IA pour prédire les actes de délinquance dans les villes. Or, ces algorithmes se basent sur des données dites « sales » car souvent collectées dans des contextes en dehors de toute objectivité (gardes à vue, interrogatoires,...) et donc chargées d'arbitraires et de biais. Aussi, si un groupe ethnique présente des statistiques plus fortes pour la délinquance, ces logiciels indiqueront qu'une personne de ce groupe sera plus susceptible de commettre un délit ou de récidiver.


La justice n'est pas affaire de mathématique mais d'individualité et de contexte : chaque cas est un cas particulier. ici, c'est l'utilisation de l'IA qui pose problème mais pas l'IA elle-même. Cet exemple montre combien la bêtise humaine peut être plus à craindre que l'intelligence artificielle...


Les entreprises prennent tout de même conscience que résoudre la question des biais va être vital pour l'acceptation de l'IA. Cela ne peut avoir lieu que dans une approche horizontale faisant se rencontrer les sciences du numérique avec les sciences sociales comme la philosophie, la sociologie ou bien l'anthropologie. Dans son dernier livre, L'Intelligence artificielle et les chimpanzés du futur – Pour une anthropologie des intelligences, le paléoanthropologue Pascal Picq expose un point de vue pour le moins original et positif : les machines, si elles mettent en évidence nos travers, peuvent aussi nous rendre un sacré service dans la prise de conscience des idées reçues.


Les biais des données

Les biais de l'IA les plus communément répandus sont de type sexiste ou racial. Ils proviennent des fichiers biaisés (produits de nos représentations culturelles) sur lesquels les IA s'entraînent et apprennent. Les résultats ne sont ni plus ni moins que l'expression de ce que les anthropologues appellent l' « idéologie intégrée ».


l'exemple de l'homme préhistorique sur-représenté dans les scènes de construction d'outils au détriment de sa compagne est un biais de la paléontologie classique assez grotesque, selon Pascale Picq
L'homme préhistorique est sur-représenté dans les scènes de construction d'outils au détriment de sa compagne, ce qui constitue un biais de la paléontologie classique selon Pascal Picq

Un exemple éloquent d'idéologie intégrée est le corpus d'images illustrant la vie de nos ancêtres préhistoriques. Ces dessins représentent très souvent des hommes fabriquant des outils, véhiculant ainsi l'idée que « l'homme c'est l'outil ! ». Or, comme rétorque Pascal Picq : « on n’en sait strictement rien », aucune preuve paléontologique ! Le problème c'est que ces images distillent l'idée que les femmes sont moins aptes à fabriquer des outils que les hommes. Et c'est ce genre de biais discriminatoire, culturellement construit depuis des siècles, que fait ressortir aujourd'hui l’IA, « confortant les hommes dans leur supériorité technique et dissuadant les femmes d'aller vers les professions techniques. »


L'IA renie même la diversité ethnique et culturelle de ses concepteurs. En effet, une étude de l'Université de Boston et Microsoft a révélé une forte corrélation, dans les articles de Google News, entre les prénoms masculins qui sont habituellement ceux des classes occidentales blanches et les métiers de la high tech. Il suffit pourtant de visiter les « open spaces » des grandes sociétés en informatique pour constater la grande variété culturelle qui y règne, en France comme aux Etats-Unis. Contrairement à ce que laissent entendre les biais, l'innovation digitale n'est pas l'apanage de l'homme blanc !


Pour pousser le bouchon sur les conséquences des données biaisées, intéressons-nous à cette étrange rumeur qui court sur la théorie de la Terre plate – d'ailleurs amplifiée par l'algorithme de suggestion de la plateforme Youtube... Eh bien, nous pourrions être catastrophés, si on demandait à une IA – entraînée à partir des dernières opinions et images recueillies sur Internet – , si la Terre est plate ou ronde ou si le Soleil tourne autour de la Terre... Le hic, c'est que de nombreuses IA sont alimentées par des opinions. Et Pascal Picq de rappeler : « La science n'est pas affaire d'opinions et il est plus qu'urgent que les instances scientifiques s'emparent du problème ! »


Les biais des algorithmes

Si les biais artificiels sont essentiellement causés par les biais des données, les algorithmes eux-mêmes peuvent en générer. Voyons comment à l'aide d'un exemple plutôt amusant présenté dans le livre de Pascal Picq.


Imaginons des grands-mères américaines se prenant en selfie avec leur caniche –

l'expérience de pensée est douteuse car elle constitue elle-même un cliché mais soit, passons outre car, d'une part nous avons identifié que c'est un biais et d'autre part, l'expérience est pédagogique... Sur certaines photos, ces grands-mères peuvent apparaître floues. En supposant que l'IA n'ait pas appris à reconnaître les mamies floues, il y a de fortes chances qu'elle interprète ces dernières comme étant... des caniches ! Pourquoi ? Parce que durant son apprentissage, l'IA a analysé des quantités de photos de grands-mères avec leur caniche. Alors si la mamie est floue, l'IA ignorant la différence entre une grand-mère et un caniche, elle risque de catégoriser la mamie floue dans l'ensemble des caniches. De plus, « quand on connaît la coiffure des mamies américaines et la tonte de leurs caniches, on sait bien qu'il y a un mimétisme capillaire... ». Le même genre de corrélation déconcertante est à l’œuvre quand l'outil d'analyse des sentiments de Microsoft trouve Jack Nicholson "joyeux" dans la fameuse scène de la porte défoncée à la hache dans Shinning.



L'écrivain psychopathe, incarné par Jack Nicholson dans le film de Kubrik, est considéré ici comme "joyeux" à 99,9 % par l'outil d'analyse des sentiments de Microsoft. L'IA n'a manifestement pas appris à reconnaître les expressions faciales de la folie (simulée au cinéma)

L'autre propriété des algorithmes de l'IA est l'amplification des biais... On peut évoquer à titre d'exemple la courte carrière de Tay, l'agent conversationnel de Microsoft mis en ligne sur Twitter en mars 2016. Cette IA fut programmée pour analyser et produire des messages dans le style des jeunes adultes Nord-Américains. Tay apprenait aussi à partir des textes échangés avec les internautes. Après seulement 24 heures de mise en service et plusieurs milliers de tweets produits, Microsoft a été obligé de déconnecter Tay, car elle était devenue raciste et affirmait qu' « Hilter était l'inventeur de l'athéisme... ». Sans vérification scientifique ni régulation éthique, l'IA autoapprenante peut très rapidement se transformer en loupe grossissante du n'importe quoi humain.


Quand les IA corrigent les biais des humains

Comment faire pour que les machines limitent les biais et nous aident même à revoir nos propres biais ?


L'idée principale est de faire appel aux experts des données traitées. Ainsi, les ingénieurs et techniciens travaillant sur des IA manipulant des données sensibles doivent (ou plutôt devraient) travailler en étroite collaboration avec des sociologues, philosophes, médecins, juristes, psychologues, criminologues, etc, pour identifier la pertinence des données qui vont servir à l'apprentissage des IA et aussi définir des protocoles de tests afin de valider au plus près les résultats. L'autre méthode, qui peut s'ajouter à la précédente, est de constituer deux ensembles de données distinctes, l'un contrôlé et l'autre indépendant, qui travailleront en « consilience ». Cela éviterait que l'IA ne soit conçue/produite/testée que par un seul et unique acteur économique, comme c'est le cas aujourd'hui avec les produits phares des GAFAM.


Le choix des machines et les décisions qu'elles prennent ne sont pas toujours compris par les concepteurs des IA. Le Deep Learning (s'élaborant sur des réseaux multi-couches de plusieurs millions de neurones) constitue une véritable boîte noire pour les ingénieurs et chercheurs. La tendance actuelle est de chercher justement à rendre compte des modes de fonctionnement de l'IA. IBM met ainsi à disposition sa boîte à outils de détection des biais : AI Fairness 360 (disponible en open source). « L'utilisateur pourra comprendre en temps réel comment le modèle d'IA a abouti à une décision. Il pourra accéder, dans des termes clairs, aux éléments de recommandation utilisés par l'IA, et voir sur quels faits et données ils sont basés » indique Jean-Philippe Desbiolles, vice-président de Cognitive Solutions chez IBM France.


Finalement, la grande vertu de l'IA est de confronter les hommes à la bêtise, en mettant bien en évidence leurs préjugés. L'intelligence artificielle améliorera par rétroactivité la qualité des fichiers et des algorithmes. De là à penser que nous saurons saisir cette opportunité pour réduire de manière effective notre connerie, c'est une autre histoire.








Sources :

L'Intelligence artificielle et les chimpanzés du futur – Pour une anthropologie des intelligences, Pascal Picq. Odile Jacob, 2019


Man is to computer as woman is to homemaker


Les biais sont devenus le matériel brut de l'IA


Tout sur la théorie de la Terre plate


Pourquoi l'intelligence artficielle n'est pas intelligente


Comment IBM ouvre la boîte noire de l'intelligence artificielle

bottom of page