Sur Internet et les réseaux sociaux, nous avons presque tous posté des photos de nous, dans un but professionnel ou non. Parfois, ce sont nos amis qui nous ont identifié sur une photo, avec ou sans notre consentement. Les géants du numérique possèdent donc un certain nombre de données morphologiques nous concernant.
Que peuvent ils en tirer? C’est ce que l’on vous explique dans cet article.
Cette publication complète une précédente actualité de l’OPSN.
Les travaux de Michal Kosinski, notamment dans « Deep Neural Networks Are More Accurate Than Humans at Detecting Sexual Orientation from Facial Images« et « Facial Recognition Technology Can Expose Political Orientation from Naturalistic Facial Images« , illustrent l’incroyable pouvoir de l’intelligence artificielle (IA) pour extraire des informations sensibles à partir de simples images faciales. Ces études, tout en démontrant la supériorité des réseaux neuronaux profonds par rapport aux capacités humaines dans ces tâches, soulèvent d’importants défis éthiques, sociaux et réglementaires.
Dans l’étude sur la détection de l’orientation sexuelle, les chercheurs ont analysé 35 326 images issues de profils de rencontres en ligne aux États-Unis. En formant un modèle basé sur des réseaux neuronaux profonds, ils ont pu prédire correctement l’orientation sexuelle (hétérosexuel ou homosexuel) avec une précision de 81 % pour les hommes et 74 % pour les femmes à partir d’une seule photo. Lorsque plusieurs images d’une même personne étaient disponibles, la précision atteignait 91 % pour les hommes et 83 % pour les femmes. Ces résultats sont nettement supérieurs à ceux obtenus par des humains, qui atteignaient environ 61 %, soit à peine au-dessus du hasard.
Cette performance s’explique par la capacité des modèles d’IA à détecter des microcaractéristiques faciales imperceptibles à l’œil humain. Ces indices incluent des éléments morphologiques comme la structure osseuse (de la mâchoire et des arcades sourcilières notamment), des expressions faciales ou encore des choix stylistiques influencés par le contexte socioculturel. Les auteurs ont suggéré que ces différences pourraient être liées à des facteurs biologiques tels que les hormones prénatales, mais également à des comportements ou styles de vie associés à l’orientation sexuelle.
De manière similaire, l’étude sur la détection de l’orientation politique s’appuie sur des images publiques liées à des opinions politiques déclarées (progressistes ou conservatrices). L’IA a obtenu une précision de 72 % en moyenne, contre 55 % pour les humains. Ici encore, les microcaractéristiques détectées par l’IA incluaient des indices morphologiques et comportementaux. Par exemple, les progressistes tendaient à afficher des styles plus expressifs ou non conventionnels, tandis que les conservateurs adoptaient des apparences plus formelles ou traditionnelles.
Ces recherches révèlent à quel point les données faciales, même issues de contextes naturels, contiennent des informations inattendues sur les individus. Si ces avancées soulignent le potentiel de l’IA pour explorer la psychologie humaine et les dynamiques sociales, elles posent également des questions cruciales. La possibilité de déduire des informations aussi personnelles, comme l’orientation sexuelle ou politique, à partir de données accessibles publiquement soulève des préoccupations majeures concernant la vie privée, l’éthique et les risques de discrimination.
L’une des critiques majeures concerne les biais méthodologiques. Les images analysées provenaient principalement de profils publics ou de plateformes spécifiques comme les sites de rencontres. Ces environnements influencent souvent la manière dont les individus se présentent, que ce soit en choisissant des photos flatteuses ou en reflétant leurs valeurs. Ce biais d’autoreprésentation limite la généralisation des résultats à des populations plus larges. Par ailleurs, la simplification des catégories, par exemple réduire l’orientation sexuelle à une dichotomie homosexuel/hétérosexuel ou l’orientation politique à conservateur/progressiste, néglige la diversité et la complexité des identités humaines. De tels raccourcis risquent de renforcer des stéréotypes et des interprétations déterministes.
Au-delà des limites méthodologiques, ces études soulèvent des inquiétudes éthiques profondes. Dans des contextes autoritaires ou discriminatoires, des technologies capables de détecter des informations sensibles à partir d’images pourraient être utilisées pour surveiller, cibler ou persécuter des individus. Même dans des contextes démocratiques, ces capacités ouvrent la porte à des abus commerciaux ou politiques, comme le microciblage publicitaire ou la manipulation des opinions. Kosinski et ses collègues ont eux-mêmes mis en garde contre ces dérives, insistant sur le fait que leur objectif était d’alerter le public et les décideurs sur les dangers de telles avancées technologiques.
Ces recherches relancent également le débat sur la relation entre biologie, apparence et comportement. Bien que certains indices biologiques liés à l’orientation sexuelle ou politique puissent exister, réduire des aspects complexes de l’identité humaine à des caractéristiques physiques soulève des préoccupations philosophiques. Cette approche risque de promouvoir une vision simpliste et déterministe des comportements humains, en négligeant l’impact des facteurs sociaux, culturels et personnels.
Pour autant, les applications potentielles de ces technologies dans des domaines comme la santé mentale, le marketing ou l’éducation ne peuvent être ignorées. Par exemple, l’analyse des données faciales pourrait aider à identifier des risques psychologiques ou à personnaliser des interventions éducatives. Toutefois, ces utilisations nécessitent des cadres éthiques et légaux solides. Aujourd’hui, peu de pays disposent de lois claires régulant l’utilisation des technologies de reconnaissance faciale. Cela laisse une marge d’exploitation inquiétante pour des acteurs privés ou publics peu scrupuleux.
Face à ces défis, des experts plaident pour une régulation stricte et transparente de l’IA et des technologies de reconnaissance faciale. Cela inclut des audits réguliers pour évaluer les impacts sociaux et éthiques, ainsi que des mécanismes garantissant le consentement éclairé des utilisateurs. Une collaboration entre gouvernements, chercheurs et entreprises est essentielle pour établir des normes claires et éviter les dérives.
Enfin, ces études posent des questions fondamentales sur la nature humaine et la prédictibilité des comportements. Si l’IA peut révéler des informations aussi intimes à partir de données banales comme des photos, cela redéfinit la frontière entre vie privée et sphère publique. Ces capacités devraient-elles être considérées comme une avancée scientifique ou une intrusion dans la sphère personnelle ? La réponse dépendra de la manière dont ces technologies seront déployées et encadrées dans les années à venir.
En conclusion, les travaux de Kosinski mettent en lumière à la fois les opportunités et les risques des technologies modernes de reconnaissance faciale. Bien qu’elles offrent des perspectives fascinantes pour comprendre les dynamiques sociales et psychologiques, leur potentiel d’abus nécessite une vigilance accrue. Entre les promesses scientifiques et les menaces pour les libertés individuelles, l’avenir de ces technologies dépendra largement des choix que nous ferons en matière de réglementation, d’éthique et de gouvernance. À l’ère de l’IA, il est essentiel de placer les droits humains et la dignité au cœur des débats pour garantir que ces outils soient utilisés de manière responsable et bénéfique pour la société.