L'IA et l'avenir de la détection de mensonges
"Nous vivons dans un monde où nous savons mentir. Avec les progrès de l'IA, il est très probable que nous vivrons bientôt dans un monde où nous saurons détecter la vérité. Le champ d'application potentiel de cette technologie est vaste - la ques
tion est de savoir comment l'utiliser".
Certaines personnes sont naturellement de bons menteurs, tandis que d'autres sont naturellement de bons détecteurs de mensonges. Par exemple, les personnes qui correspondent à cette dernière description peuvent souvent détecter les mensonges de manière intuitive, en observant les fluctuations de la dilatation des pupilles, le rougissement et toute une série de micro-expressions et de mouvements corporels qui révèlent ce qui se passe dans la tête de quelqu'un d'autre. En effet, pour la grande majorité d'entre nous qui ne sommes pas des trompeurs entraînés, lorsque nous mentons, ou que nous mentons par omission, notre corps a tendance à nous trahir.
Pour la plupart d'entre nous, cependant, la deuxième hypothèse prend souvent le pas sur l'intuition quant à la question de savoir si quelqu'un ment. Même si nous sommes conscients des facteurs qui peuvent indiquer un mensonge, nous sommes incapables de les observer et de les traiter simultanément en temps réel, ce qui nous laisse, en fin de compte, deviner si nous entendons la vérité.
Supposons maintenant que nous n'ayons pas besoin d'être de bons détecteurs de mensonges, car nous aurions des données facilement disponibles pour savoir si quelqu'un ment ou non. Supposons que, grâce à ces données, nous puissions déterminer avec une quasi-certitude la véracité des affirmations d'une personne. Nous vivons dans un monde où nous savons comment mentir. Avec les progrès de l'IA, il est très probable que nous vivrons bientôt dans un monde où nous saurons détecter la vérité. Le champ d'application potentiel de cette technologie est vaste - la question est de savoir comment l'utiliser.
L'avenir de la détection de mensonges par l'IA
Imaginez que quelqu'un puisse collecter non seulement des données sur un vêtement indiquant le rythme cardiaque d'une personne (ou le sien), mais aussi des données continues sur les expressions faciales à partir de séquences vidéo. Imaginez que vous puissiez utiliser ces données, avec un peu d'entraînement, pour analyser les conversations et les interactions de votre vie quotidienne - en rejouant celles qui vous paraissent suspectes avec un regard plus attentif. De plus, votre entourage pourrait faire de même : imaginez qu'un ami, ou une entreprise, puisse utiliser vos données passées pour différencier de manière fiable vos vérités et vos contrevérités, les questions importantes et les choses dont vous vous souciez le plus.
Cela signifie une toute nouvelle boîte à outils pour les enquêteurs, les publicitaires, les prudents, les paranoïaques, les justiciers et tous ceux qui ont accès à l'internet. Chacun d'entre nous devra savoir et comprendre comment gérer et naviguer dans ce nouvel enregistrement public de nos réponses, basé sur des données.
La question qui se pose pour les années à venir n'est pas de savoir si le mensonge sera effacé - bien sûr que non - mais plutôt de savoir comment ces nouveaux outils doivent être utilisés dans la recherche de la vérité. En outre, compte tenu des nombreuses possibilités de mauvaise interprétation et d'utilisation abusive de ces technologies, dans quels contextes faut-il les mettre à disposition ou en faire la promotion ?
La vérité sur la connaissance de la vérité
Les films se moquent souvent du désir d'avoir une fenêtre dans le cerveau de quelqu'un d'autre, de se sentir assuré que ce qu'il dit décrit ce qu'il ressent, que ce qu'il ressent décrit ce qu'il va faire, et que ce qu'il va faire démontre ce que tout cela signifie pour lui. Bien sûr, nous savons tous que le monde n'est pas si simple et que l'on peut tomber dans le piège de la recherche de conseils en ligne. Que se passe-t-il lorsque ces conseils sont ancrés dans une vague de données nouvellement disponibles, mais mal comprises ?
Que se passera-t-il, par exemple, lorsque ces nouvelles données seront utilisées dans le cadre du processus d'embauche, les candidats étant éliminés par un logiciel destiné à évaluer s'ils ont menti au cours d'un entretien et sur quoi ? Que se passera-t-il lorsque le même processus sera utilisé pour la sélection des écoles, la sélection des jurés et d'autres types d'entretiens, ou lorsque les résultats seront transmis à des employeurs potentiels ? À mesure que le nombre de ces scénarios potentiels augmente, la question que nous devons nous poser est la suivante : quand notre rythme cardiaque devient-il une information privée ?
La connaissance de nos réactions internes est-elle elle-même privée, simplement parce que, jusqu'à présent, seul un petit segment de personnes perspicaces pouvait savoir ce qui se passait ? Les communautés s'organisent souvent autour des chemins de moindre résistance, créant ainsi un nouveau fossé entre ceux qui comprennent et peuvent naviguer dans ce nouveau registre numérique, et ceux qui ne le peuvent pas.
Imaginez des thérapeutes enregistrant activement la dissonance cognitive, des émissions d'information identifiant en temps réel si un invité croit ou non ce qu'il dit, des entreprises recadrant les entretiens avec une analyse faciale active, des interrogatoires rapides des services de sécurité aux frontières. La portée croissante des capteurs nous éloigne de la post-vérité pour nous faire entrer dans l'ère du post-mensonge, ou plutôt pour mettre fin à notre confort avec les façons dont nous mentons actuellement. Comme pour toute chose, les avantages ne seront pas ressentis de la même manière.
Nous pourrions même imaginer l'évolution de la détection du mensonge vers des interfaces cerveau-ordinateur - où le droit à la vie privée doit alors être discuté à la lumière du moment où nous pouvons considérer nos pensées comme privées.
Dans les salles d'audience, si l'on peut distinguer de manière fiable la différence entre les réactions lors d'un mensonge et lors de la vérité, les témoins ont-ils le droit de garder cette information privée ? Tous les témoignages doivent-ils se faire dans l'anonymat le plus total ? Des chercheurs de l'université du Maryland ont mis au point DARE, le moteur d'analyse et de raisonnement de la tromperie, qui, selon eux, n'est qu'à quelques années d'une identification quasi parfaite de la tromperie.
Comment devrions-nous alors penser au 5e amendement de la constitution américaine, comment devrions-nous aborder le droit de ne pas s'incriminer soi-même ? Avec l'avènement de ces technologies, c'est peut-être la nature même de la salle d'audience qui devrait changer. Les témoins ne sont pas soumis au détecteur de mensonges à la barre pour une bonne raison : il n'est pas fiable - mais rien ne pourrait empêcher une personne équipée d'un système d'analyse portable de donner ses signes vitaux ou d'analyser un flux vidéo à distance, et de publier les résultats pour le tribunal de l'opinion publique. Comment notre comportement passé devrait-il être enregistré et compris ?
La façon dont nous concevons les nudges, les espaces publics, les situations sociales, les offres d'emploi, les relations personnelles, tout cela dépend d'un équilibre de conventions sociales par lesquelles nous nous permettons - et nous permettons aux autres - de cacher des informations. Or, que faire d'une technologie qui promet d'exposer ces informations cachées ? Un monde fondé sur des vérités complètes est-il préférable à celui que nous connaissons aujourd'hui ? Aurons-nous la possibilité de décider ?
Les progrès de l'IA et la démocratisation de la science des données font de l'hypothétique problème du type de monde que nous préférons une discussion bien trop réelle, une discussion que nous devons avoir rapidement. Sinon, nous n'aurons pas notre mot à dire pour déterminer ce qui nous attend.
About the Authors
Josh Entsminger
Josh Entsminger est chercheur appliqué à Nexus Frontier Tech. Il est également chargé de cours au Centre pour la politique et la compétitivité de l'École des Ponts, associé de recherche à l'initiative d'innovation sociale de l'IE Business School et collaborateur de recherche à l'initiative "Future of Production" du Forum économique mondial.
Mark Esposito
Mark Esposito est membre de la faculté d'enseignement de la Division of Continuing de l'Université de Harvard, professeur de commerce et d'économie, avec une nomination à la Hult International Business School. Il a été nommé chercheur au Circular Economy Center, à la Judge Busines School de l'université de Cambridge. Il est également membre de la Mohammed Bin Rashid School of Government à Dubaï.
Terence Tse
Terence est cofondateur et directeur général de Nexus Frontier Tech : An AI Studio. Il est également professeur associé de finance au campus londonien de l'ESCP Europe Business School. Terence est le co-auteur du best-seller Understanding How the Future Unfolds : Using DRIVE to Harness the Power of Today's Megatrends. Il est également l'auteur de Corporate Finance : The Basics.
Danny Goh
Danny est un entrepreneur en série et un investisseur précoce. Il est partenaire et directeur commercial de Nexus Frontier Tech, une société de conseil en intelligence artificielle présente à Londres, Genève, Boston et Tokyo, qui aide les PDG et les membres du conseil d'administration de différentes organisations à créer des entreprises innovantes en tirant pleinement parti de la technologie de l'intelligence artificielle.