Humanisme numérique

« Pirater » l’humain. Données, manipulations et enjeux éthiques


Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour débattre des risques et des enjeux éthiques de la surveillance à la manipulation par les données.

Nos données personnelles sont collectées et utilisées en permanence par les services en ligne, comme Google ou Facebook ou encore exploitées par les publicitaires pour personnaliser les contenus ou les publicités. Cette surveillance par les données, qu’on appelle parfois « surveillance liquide » ou « Dataveillance » est aujourd’hui omniprésente.

Ce que l’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut servir à influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente « Cambridge Analytica », nos choix politiques.

Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).

La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche ! 

Pour aller plus loin :

  • Manipulation informationnelle et psychologique, C. Castelluccia, 2018.
  • Psychological targeting as an effective approach to digital mass persuasion, by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.
  • Computer-based personality judgments are more accurate than those made by humans, by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015.
  • Le projet « Bad nudge Bad robot » de l'institut DATAIA.
  • Information technology and dataveillance, Roger Clarkes, Communications of the ACM, May 1988.

Vous pourriez aimer aussi :

visage robot
13MAR2018
L’intelligence peut-elle devenir artificielle ?

Avec le soutien de :