Algorithmes pour une prise de décision plus simple (2/2)
Les algorithmes ont été conçus comme des agents linéaires et rationnels dans le but d'optimiser les décisions face au risque. Il est indéniable que cette conception est capable d'analyser de manière cohérente des quantités massives de données avec une précision probabiliste que le cerveau humain ne peut tout simplement pas comprendre. Cependant, cette approche utilitaire de la prise de décision diffère fondamentalement de celle des décideurs humains. Comme l'expliquent Hafenbrädl, Waeger, Marewski et Gigerenzer (2016), les décisions algorithmiques sont prises dans un monde différent, le petit monde du risque, par rapport aux décisions humaines du monde réel, qui se déroulent dans le grand monde de l'incertitude. Dans le monde du risque, les probabilités, les alternatives et les conséquences peuvent être facilement calculées, pesées et prises en compte, et nous devons soumettre nos impulsions intuitives à une optimisation rationnelle. Dans le monde de l'incertitude, les probabilités, les conséquences et les alternatives sont inconnaissables ou incalculables, et nos heuristiques intuitives font partie intégrante de la satisfaction des contraintes de temps et de ressources (Hafenbrädl et al., 2016 ; Simon, 1956).
Ces caractéristiques contrastées délimitent deux conceptions de la prise de décision : la théorie rationnelle traditionnelle et la théorie non rationnelle[1]. La rationalité traditionnelle suggère qu'une bonne décision est prise en considérant toutes les alternatives de décision et les conséquences qui les accompagnent, en estimant et en multipliant la probabilité subjective par l'utilité attendue de chaque conséquence, puis en sélectionnant l'option dont l'utilité attendue est la plus grande. Mais pour les décideurs humains dans des environnements incertains, ce processus est psychologiquement irréaliste (Gigerenzer, 2001). Au lieu de considérer les humains comme des êtres omniscients, les théories non rationnelles, telles que la rationalité limitée, illustrent un processus de prise de décision dans lequel l'environnement est marqué par un temps, des ressources et des informations limités, et où l'optimisation rationnelle est irréalisable et peu judicieuse. Alors que la rationalité traditionnelle séduit par son caractère raisonnable, la prise de décision dans le monde réel respecte naturellement les principes de non-rationalité. Ainsi, lorsque des algorithmes rationnels standard sont présentés comme des aides aux décideurs humains, une fausse hypothèse de compatibilité entre des stratégies de décision intrinsèquement différentes est émise. L'aversion pour les algorithmes, directement et indirectement, peut être attribuée à cette hypothèse.
En raison de leur orientation probabiliste, les aides algorithmiques à la décision standard confrontent la cognition humaine de plein fouet - vous acceptez ou rejetez l'idée algorithmique ; tout ou rien. Comme ces algorithmes effectuent un processus d'optimisation rationnelle, les possibilités d'intégration de la non-rationalité humaine sont rares. Dans le modèle de prise de décision algorithmique prédominant chez les consommateurs, ce décalage entre rationalité et non-rationalité se manifeste par une interaction où le décideur humain effectue un calcul intuitif, consulte le calcul de l'algorithme et doit ensuite choisir une ligne de conduite en tenant compte ou non des conseils de l'algorithme. Il va sans dire qu'il y a très peu d'interaction dans ce modèle, car le jugement intuitif et le jugement statistique sont opposés l'un à l'autre - un bras de fer psychologique dominé par l'intuition à maintes reprises.
Pour concevoir des prothèses cognitives capables de relier l'esprit humain à des flux de données normalement incompréhensibles, permettant ainsi une meilleure prise de décision, la non-rationalité doit être le principe fondateur. Rencontrant des décideurs humains dans le monde de l'incertitude, où les décisions doivent être prises en temps limité (fast) et avec des informations limitées (frugal), l'application du cadre fast-and-frugal à la conception d'algorithmes est un cas contemporain de mobilisation de la théorie non rationnelle pour des systèmes décisionnels humains-algorithmes cohésifs (Phillips, Neth, Woike, & Gaissmaier, 2017). Bien qu'elle ne soit pas sans limites, cette tendance à structurer les algorithmes fondés sur des heuristiques permet aux décideurs humains et aux algorithmes de partager la collecte, l'ordonnancement et l'évaluation, étape par étape, des données disponibles et d'arriver finalement à une conclusion unique et commune. Ce faisant, la cognition de l'homme et de l'algorithme est intégrée en amont du processus de décision, ce qui permet une expérience d'augmentation plus participative et moins conflictuelle.
Cette intégration de la rigueur statistique algorithmique et de la sensibilité heuristique humaine est une tâche manifestement difficile qui nécessite une communauté multidisciplinaire. Alors que le discours oscille entre l'abstrait et le pragmatique, il est important de réfléchir à ce que nous voulons, attendons et exigeons de nos décideurs et de nos algorithmes de prise de décision.
Les sciences du comportement, démocratisées
Nous prenons 35 000 décisions par jour, souvent dans des environnements qui ne sont pas propices à des choix judicieux.
Chez TDL, nous travaillons avec des organisations des secteurs public et privé, qu'il s'agisse de nouvelles start-ups, de gouvernements ou d'acteurs établis comme la Fondation Gates, pour débrider la prise de décision et créer de meilleurs résultats pour tout le monde.
Dans notre société quantifiée, les "big data" sont le nouveau pétrole, et la prise de décision algorithmique, en tant que moyen de raffiner et de commercialiser les "big data", est là pour durer. La numérisation et la diversification des données nous ont permis d'acquérir une connaissance approfondie du comportement humain. Le problème qui subsiste est de savoir ce qu'il faut en faire. Inévitablement, si ce n'est déjà fait, les algorithmes évolueront au-delà de l'imagination de leurs créateurs humains, mais pour l'instant, c'est à nous de les orienter dans la bonne direction. Que l'idée d'algocratie ait pour vous des connotations utopiques ou dystopiques, l'établissement d'une présence humaine dans notre écosystème alimenté par les données et la protection contre l'utilisation abusive des algorithmes signifient qu'il faut s'efforcer d'augmenter le nombre de décisions prises par l'être humain.
Lire la première partie ici.
Notes de fin d'ouvrage
[1] À ne pas confondre avec l'irrationalité, qui décrit les résultats de la prise de décision, la non-rationalité est une approche théorique qui décrit le processus de prise de décision (Gigerenzer, 2001).
References
Beer, D. (2017). Le pouvoir social des algorithmes. Information Communication et Société, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147
Beer, D. (2017). Le pouvoir social des algorithmes. Information Communication et Société, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147
Dietvorst, B. J., Simmons, J. P. et Massey, C. (2015). Algorithm Aversion : Les gens évitent par erreur les algorithmes après les avoir vus se tromper. Journal of Experimental Psychology : General, 144(1), 114-126. https://doi.org/10.1037/xge0000033
Dietvorst, B. J., Simmons, J. P. et Massey, C. (2016). Surmonter l'aversion pour les algorithmes : Les gens utiliseront des algorithmes imparfaits s'ils peuvent les modifier (même légèrement). Management Science, 64(3), 1155-1170. https://doi.org/10.1287/mnsc.2016.2643
Gigerenzer, G. (2001). Decision Making : Nonrational Theories. International Encyclopedia of the Social and Behavioral Sciences, 5, 3304-3309. https://doi.org/10.1016/B978-0-08-097086-8.26017-0
Hafenbrädl, S., Waeger, D., Marewski, J. N. et Gigerenzer, G. (2016). Applied Decision Making With Fast-and-Frugal Heuristics (Prise de décision appliquée avec des heuristiques rapides et frugales). Journal of Applied Research in Memory and Cognition, 5, 215-231. https://doi.org/10.1016/j.jarmac.2016.04.011
Lee, M. K., Kusbit, D., Metsky, E. et Dabbish, L. (2015). Working with Machines : The Impact of Algorithmic and Data-Driven Management on Human Workers. Actes de la conférence ACM CHI'15 sur les facteurs humains dans les systèmes informatiques, 1, 1603-1612. https://doi.org/10.1145/2702123.2702548
Meehl, P. E. (1954). Clinical vs. Statistical Prediction : A Theoretical Analysis and a Review of the Evidence.
Phillips, N. D., Neth, H., Woike, J. K. et Gaissmaier, W. (2017). FFTrees : Une boîte à outils pour créer, visualiser et évaluer des arbres de décision rapides et économiques. Judgment and Decision Making, 12(4), 344-368. Extrait de https://journal.sjdm.org/17/17217/jdm17217.pdf
Prahl, A. et Van Swol, L. (2017). Comprendre l'aversion pour les algorithmes : Quand les conseils de l'automatisation sont-ils ignorés ? Journal of Forecasting, 36, 691-702. https://doi.org/10.1002/for.2464
Simon, H. (1956). Rational choice and the structure of the environment. Psychological Review, 63, 129-138.
About the Author
Jason Burton
Jason est chercheur doctorant au Centre for Cognition, Computation & Modelling (CCCM) de Birkbeck, University of London. Avant de rejoindre Birkbeck, il a obtenu une maîtrise en psychiatrie et psychologie organisationnelles au King's College de Londres et a occupé un poste de chercheur au département de numérisation de l'école de commerce de Copenhague. Ses recherches visent à mieux comprendre comment les processus cognitifs s'entrecroisent avec l'environnement de la post-vérité, et tournent en fin de compte autour du thème de la rationalité humaine. En dehors du monde universitaire, Jason travaille avec HATCH Analytics en tant que psychologue de recherche afin d'appliquer les connaissances comportementales sur le lieu de travail.