Algorithmes pour une prise de décision plus simple (1/2) : Le cas des prothèses cognitives
Nos fonctions cognitives sont de plus en plus confiées à des algorithmes informatiques, qui améliorent nos capacités de prise de décision et manipulent notre comportement. Les espaces numériques, où l'information est plus accessible et plus abordable que jamais, nous fournissent des informations et des données que nous pouvons utiliser à notre guise. Aujourd'hui, une simple recherche sur Google peut jouer le rôle de conseiller financier, d'avocat ou même de médecin. Mais les informations que nous trouvons en ligne sont silencieusement triées, ordonnées et présentées par des algorithmes qui fouillent dans nos traces de données numériques à la recherche des médias les plus pertinents et les plus "sympathiques". À bien des égards, cette curation invisible est une commodité bienvenue ; passer au crible et raisonner avec des données et des informations en ligne apparemment infinies est une tâche irréaliste pour tout être humain. Néanmoins, nous commençons à perdre notre autonomie cognitive chaque fois que nous déléguons la collecte et l'évaluation des informations à des algorithmes, limitant ainsi notre réflexion à ce que les algorithmes jugent approprié.
L'interaction avec ces algorithmes nous permet de donner un sens et de participer aux flux de données qui construisent constamment nos modes de travail et de vie. La prise de décision algorithmique - c'est-à-dire l'analyse automatisée déployée dans le but d'éclairer de meilleures décisions fondées sur des données - incarne ce phénomène. Et si un monde dirigé par des algorithmes offre d'innombrables possibilités d'optimiser l'expérience humaine, il appelle également à une réflexion sur la relation entre l'homme et l'algorithme sur laquelle nous nous appuyons aujourd'hui.
Alors que nos opinions sur les données passent de l'empirisme à l'idéologie, de la datafication au dataisme, il est facile de se laisser emporter par la ferveur. D'innombrables articles appellent à la transparence, à la responsabilité et à la protection de la vie privée dans le cadre du déploiement des pratiques algorithmiques. Il s'agit bien sûr d'idéaux nobles (et souvent nécessaires) - par exemple, des comités de surveillance des données et des garanties législatives peuvent assurer un développement et une mise en œuvre responsables. Cependant, nombre de ces appels à la surveillance reposent implicitement sur des hypothèses non fondées concernant l'impact sociopolitique des algorithmes. Nous nous retrouvons donc avec un certain nombre d'hypothèses a priori sur la manière dont les algorithmes affecteront la société - et donc avec des affirmations sur les mesures que nous devons prendre pour les réglementer - qui sont souvent fondées sur des hypothèses erronées.
D'une part, le dogme des données conventionnelles a déformé le concept d'algorithme pour en faire une sorte d'être agentiel, omniscient et impossible à comprendre. Cette conception erronée suggère qu'un algorithme possède un pouvoir d'autorité en soi, alors qu'en réalité, toute influence que l'algorithme peut projeter est le résultat d'une conception et d'une légitimation humaines (Beer, 2017). En d'autres termes, alors que le rôle des algorithmes évolue vers un statut semi-mythique (voire déifié) de la Silicon Valley à Wall Street, on oublie souvent que les algorithmes sont le fruit d'un effort humain et qu'ils sont soumis à un contrôle humain.
Les sciences du comportement, démocratisées
Nous prenons 35 000 décisions par jour, souvent dans des environnements qui ne sont pas propices à des choix judicieux.
Chez TDL, nous travaillons avec des organisations des secteurs public et privé, qu'il s'agisse de nouvelles start-ups, de gouvernements ou d'acteurs établis comme la Fondation Gates, pour débrider la prise de décision et créer de meilleurs résultats pour tout le monde.
Deuxièmement, les représentations courantes de la prise de décision algorithmique présupposent un modèle spécifique dans lequel les algorithmes ont été si profondément intégrés dans la bureaucratie qu'il est impossible pour le commun des mortels de négocier avec une décision algorithmique. Bien que cette structure de pouvoir soit certainement une possibilité future - comme on le voit dans la gestion algorithmique des chauffeurs Uber (cf. Lee, Kusbit, Metsky, & Dabbish, 2015) - une grande majorité de la prise de décision algorithmique actuelle opère dans un modèle de consommation. Ici, les utilisateurs d'outils algorithmiques sont libres d'utiliser (consommer) ou d'ignorer les informations fournies par les algorithmes, contraints par un peu plus que des préférences de commodité. En fait, ce processus décisionnel augmenté, dans lequel les algorithmes sont consultés mais restent finalement passifs, est omniprésent dans notre vie quotidienne. Les algorithmes propriétaires nous guident dans les rues de la ville, nous recommandent des films et nous disent avec qui sortir, mais notre compréhension de la manière dont les gens font confiance, utilisent et donnent un sens aux conseils algorithmiques est remarquablement mince (Prahl & Van Swol, 2017). Bien que cette interaction au micro-niveau entre l'homme et l'algorithme soit peut-être plus banale que la théorisation des implications de la règle algocratique, elle déterminera en fin de compte si le rôle de l'homme dans notre écosystème alimenté par les données sera augmenté ou automatisé.
Malgré des avancées philosophiques connexes telles que la théorie de "l'esprit étendu" (Clark & Chalmers, 1998), le succès ou l'échec à long terme de la prise de décision augmentée dépend de solutions pratiques et scientifiques permettant d'intégrer efficacement le jugement humain et la logique algorithmique. Alors que les aides à la décision et les systèmes de soutien s'efforcent d'y parvenir depuis des décennies, l'évolution du big data et la découverte de l'"aversion pour les algorithmes" ont nécessité la révision de nos notions de prise de décision hybride. En conceptualisant l'aversion pour les algorithmes, Dietvorst, Simmons et Massey (2015, 2016) ont constaté que les prévisionnistes humains se montrent réticents à utiliser des algorithmes supérieurs mais imparfaits, ce qui les conduit souvent à revenir à leur intuition. Cela n'est peut-être pas si surprenant : Les travaux fondamentaux de Meehl (1954) sur la supériorité du jugement statistique par rapport au jugement clinique (ou intuitif), et le tollé qui s'en est suivi, ont mis en lumière ce même conflit il y a une soixantaine d'années. Si, depuis Meehl, cette confiance obstinée dans l'intuition a alimenté les chercheurs en décision, cette aversion pour la prise de décision statistique et informatique a été ravivée car les algorithmes ne sont plus un luxe, mais une nécessité. Tout comme une prothèse de jambe peut permettre à une personne handicapée de se déplacer confortablement dans l'environnement physique, les spécialistes du comportement doivent maintenant s'unir pour concevoir des prothèses cognitives - des extensions algorithmiques de l'esprit humain qui permettent aux individus de naviguer dans l'environnement numérique illimité, permettant une prise de décision fondée sur des données sans renoncer à l'autonomie humaine. Pour éclairer la conception des prothèses cognitives, il faut s'attaquer à la racine de l'aversion pour les algorithmes, l'obstacle majeur à la symbiose entre l'homme et l'algorithme.
Read part 2 here.
References
Beer, D. (2017). Le pouvoir social des algorithmes. Information Communication et Société, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147
Clark, A. et Chalmers, D. (1998). L'esprit étendu. Analysis, (janvier), 7-19.
Dietvorst, B. J., Simmons, J. P. et Massey, C. (2015). Algorithm Aversion : Les gens évitent par erreur les algorithmes après les avoir vus se tromper. Journal of Experimental Psychology : General, 144(1), 114-126. https://doi.org/10.1037/xge0000033
Dietvorst, B. J., Simmons, J. P. et Massey, C. (2016). Surmonter l'aversion pour les algorithmes : Les gens utiliseront des algorithmes imparfaits s'ils peuvent les modifier (même légèrement). Management Science, 64(3), 1155-1170. https://doi.org/10.1287/mnsc.2016.2643
Gigerenzer, G. (2001). Decision Making : Nonrational Theories. International Encyclopedia of the Social and Behavioral Sciences, 5, 3304-3309. https://doi.org/10.1016/B978-0-08-097086-8.26017-0
Hafenbrädl, S., Waeger, D., Marewski, J. N. et Gigerenzer, G. (2016). Applied Decision Making With Fast-and-Frugal Heuristics (Prise de décision appliquée avec des heuristiques rapides et frugales). Journal of Applied Research in Memory and Cognition, 5, 215-231. https://doi.org/10.1016/j.jarmac.2016.04.011
Lee, M. K., Kusbit, D., Metsky, E. et Dabbish, L. (2015). Working with Machines : The Impact of Algorithmic and Data-Driven Management on Human Workers. Actes de la conférence ACM CHI'15 sur les facteurs humains dans les systèmes informatiques, 1, 1603-1612. https://doi.org/10.1145/2702123.2702548
Meehl, P. E. (1954). Clinical vs. Statistical Prediction : A Theoretical Analysis and a Review of the Evidence.
Phillips, N. D., Neth, H., Woike, J. K. et Gaissmaier, W. (2017). FFTrees : Une boîte à outils pour créer, visualiser et évaluer des arbres de décision rapides et économiques. Judgment and Decision Making, 12(4), 344-368. Extrait de https://journal.sjdm.org/17/17217/jdm17217.pdf
Prahl, A. et Van Swol, L. (2017). Comprendre l'aversion pour les algorithmes : Quand les conseils de l'automatisation sont-ils ignorés ? Journal of Forecasting, 36, 691-702. https://doi.org/10.1002/for.2464
Simon, H. (1956). Rational choice and the structure of the environment. Psychological Review, 63, 129-138.
About the Author
Jason Burton
Jason est chercheur doctorant au Centre for Cognition, Computation & Modelling (CCCM) de Birkbeck, University of London. Avant de rejoindre Birkbeck, il a obtenu une maîtrise en psychiatrie et psychologie organisationnelles au King's College de Londres et a occupé un poste de chercheur au département de numérisation de l'école de commerce de Copenhague. Ses recherches visent à mieux comprendre comment les processus cognitifs s'entrecroisent avec l'environnement de la post-vérité, et tournent en fin de compte autour du thème de la rationalité humaine. En dehors du monde universitaire, Jason travaille avec HATCH Analytics en tant que psychologue de recherche afin d'appliquer les connaissances comportementales sur le lieu de travail.