Voici quelques notes que j’ai prise suite à la présentation de Philippe Vion-Dury lors du meetup de CozyCloud, le 01er juin 2017. On y parlait analyses prédictives et manipulations par la donnée personnelle et c’était aussi intéressant qu’inquiétant !
Philippe Vion-Dury est l’auteur de La nouvelle servitude volontaire – Enquête sur le projet politique de la Silicon Valley aux éditions fyp.
NB : Il ne s’agit ici que de notes prises à la volée. Ce n’est pas forcément bien rédigé, il n’y a pas de transition, etc. Pour une vision complète, je vous invite à regarder la Vidéo (disponible temporairement ?) ou à acheter le livre !
De plus, il y a forcément un biais : c’est ce que j’ai compris, retenu, choisi de noter ; sans compter que j’ai également noté mes réflexions personnelles de-ci de-là.
Notes
Analyses prédictives (= le thème du bouquin) pour prédire nos comportements.
La corrélation permet de tirer des conclusions. Pour ça, il faut avoir plein de données.
La personnalisation fait qu’on consulte de plus en plus un Internet qui a été filtré pour nous et non l’internet de la sérendipité voulu aux origines.
Réflexion perso : La suggestion par Spotify ne va pas me gêner car je suis peu mélomane, connaît peu de chose est ai tout à découvrir. Du coup, je vois ça comme un service. Mais si je transpose au monde des arts plastiques, par exemple, où j’ai envie de découvrir y compris ce que je n’aime pas car l’art c’est ça, ça repousse des limites, ça pose questions, alors là je mesure d’un coup comme cela peut enfermer, limiter la créativité, anéantir la nouveauté (disons « l’innovation » pour faire marketing). Là, je mesure comme cela peut être effrayant et risquer de faire vivre chacun, si on pousse un peu, dans un monde monotone et fait d’une seule vision.
Je n’avais jamais réalisé l’impact que cela pouvait avoir sur la création et la créativité et c’est effrayant.
Je serais une version tellement pauvrette de moi-même si je n’avais pas été exposée à des contenus, des styles que je ne souhaitais pas, que je ne cherchais pas. Des contenus qui m’ont gênée et forcée à me poser des questions, à ajuster – ou non – ma vision des choses.
Bulles filtrantes : on ne sait plus si ce qu’on voit c’est le réel ou ce qu’on veut être le réel.
Au cinéma, notamment à Hollywood, il y a déjà des sociétés qui viennent corriger des scénarios pour optimiser leur rentabilité via des bases de données constituées pour guider leur choix.
OkCupid (application de rencontre) indique un score de compatibilité. Ils ont testé d’inverser les score (indiquer 10 % de compatibilité quand les deux profils, selon leur algorithme avaient une compatibilité de 90 % par exemple) pour voir si les gens suivaient alors ce qui étaient indiqué ou suivaient leurs impressions personnelles. Polémique.
En fait, on est tous le sujet de pleins d’études en permanence et sans le savoir (ex. de Facebook avec des contenus plutôt positifs pour certains et plutôt négatifs pour d’autres).
Obama, pendant la campagne. Les données permettaient non seulement de savoir qui était indécis mais aussi à quels sujet il/elle était sensible pour l’aborder sur ces sujets là.
(Renforce le fait qu’une personne va voter sur une ou deux idées plutôt que sur un programme (ce qui est probablement déjà le cas pour une grande partie de la population, c’est un autre débat).)
Les assurances connectées. Ça commence aux États-Unis, via du renforcement positif. Que les personnes soient en meilleure santé sert l’objectif financier de l’assureur. Mais les malus via du renforcement négatif arrivent et on peut imaginer que ça va basculer sur des taux différenciés !
Justice prédictive, police prédictive (au début spatial, puis individuelle), services sociaux prédictifs.
(On est en plein Person of Interest !)
Il n’y a plus de choix politique.
En Chine, un accord avec un consortium d’entreprises et l’État pour donner un score de citoyenneté qui pour pourrait impacter des taux d’emprunt ou autre avantages.
On n’est plus dans des sociétés disciplinaires mais dans des sociétés plus softs où on nous incite en permanence à avoir les bons comportements où on se laisse couler sans trop s’en rendre compte et en trouvant ça plutôt agréable.
Ce sont des mécanismes de pouvoir.
Les algorithmes de personnalisation sont tellement précis que des résultats aléatoires sont intégrés parce que sinon c’est trop flippant pour l’utilisateur !
Le GDPR (General Data Protection Regulation, Règlement Général sur la Protection des Données, en français) rentre en fonction le 25 mai 2018 et s’impose à tous les pays européens et aux entreprises qui y font des affaires. Amandes jusqu’à 4 % du CA mondial.
Des entreprises comme CozyCloud jouent ce rôle à son niveau, tout comme des associations comme Framasoft.
Ethic by design, aux US, pour éviter les dark patterns
Bon voilà, ce ne sont vraiment que des notes mais elles peuvent vous donner une idée des thèmes de la vidéo, et donc du livre. Si cela vous a interpelé, vous pouvez acheter La nouvelle servitude volontaire :
- chez votre libraire préféré,
- ou directement chez l’éditeur,
- ou chez un libraire indépendant.
J’en profite également pour vous recommander chaudement l’excellent livre Surveillance:// de Tristan Nitot. Il balaye un panorama de la situation actuelle, de ses dangers et donne des premières pistes. Sa vulgarisation en fait un livre facile à aborder et à comprendre.
Là, aussi, achetez-le :
- chez votre libraire préféré,
- ou directement chez l’éditeur,
- ou chez un libraire indépendant.
1 commentaire