Les personnes morales sont-elles des intelligences artificielles qui controleraient les personnes physiques comme des périphériques ou du hardware ?
Question d'origine :
Bonjour
Les personnes morales, les entreprises, sont-elles des intelligences artificielles qui controleraient les personnes physiques comme des périphériques ou du hardware ?
merci.
Réponse du Guichet

Les intelligences artificielles tiennent une place grandissante dans le marketing d'aujourd'hui, ce qui n'est pas sans générer des préoccupations touchant aux libertés publiques.
Bonjour,
Commençons par définir la notion de personne morale :
En droit français, une personne morale est un groupement doté de la personnalité juridique. Généralement une personne morale se compose d'un groupe de personnes physiques réunies pour accomplir quelque chose en commun. Ce groupe peut aussi réunir des personnes physiques et des personnes morales. Il peut aussi n'être constitué que d'un seul élément.
La personnalité juridique donne à la personne morale des droits et des devoirs. Le droit français distingue :
- les personnes morales de droit public : l'État, les collectivités territoriales, les établissements publics... ;
- les personnes morales de droit privé : les plus courantes étant les sociétés privées, les sociétés civiles, les groupements d'intérêt économique, les associations. Certaines personnes morales de droit privé sont chargées de la gestion d'un service public.
(Source : Insee)
Vous nous demandez si les entreprises, personnes morales de droit privé donc, sont susceptibles d'"utiliser" les humains. En d'autres termes, si certaines d'entre-elles, basées sur les intelligences artificielles (IA, " techniques visant à permettre aux machines d'imiter une forme d'intelligence réelle", selon Futura sciences), nous traitent comme des outils et non des clients potentiels.
Cela ressemble au pitch d'un roman de science-fiction, pourtant les grandes entreprises du web, communément appelées GAFAM, développent depuis une vingtaine d'années des technologies exploitant nos biais cognifs afin de court-circuiter la rationalité de nos prises de décisions. On peut ainsi lire dans un article de LINC, site dépendant de la Commission Nationale informatique et libertés (CNIL) :
La manière dont l’interface et l’ergonomie d’un service sont conçues, l’emplacement de la molette permettant de régler les paramètres de confidentialité, l’ordre et le nombre de cases à cocher…vont influencer les actions des utilisateurs en les incitant par exemple à fournir toujours plus d’informations personnelles – parfois plus qu'ils ne le souhaiteraient réellement.
De l’illusion de contrôle à la manipulation des utilisateurs ?
Le chercheur Ryan Calo a mené des travaux portant sur l’exploitation des biais cognitifs sur les marchés numériques. Dans la continuité des recherches de Alessandro Acquisti, il est mis en évidence que sur les réseaux sociaux notamment, le fait d'offrir, en apparence, plus de choix aux utilisateurs pouvait paradoxalement les conduire à se surexposer, en leur conférant une forme d’« illusion de contrôle ».
L’exploitation de ces biais cognitifs ou « asymétries de perception », selon ses propres termes, est aussi à la base de la réflexion de Tristan Harris, ancien ingénieur de Google, pour qui les services numériques sont principalement conçus pour capturer le temps et l’attention des utilisateurs au détriment de ce qui leur serait vraiment utile. Il identifie une série de neuf techniques couramment utilisées notamment par Google, Facebook, LinkedIn, Yelp, Instagram…qui nous détournent de l’objectif initial pour lequel nous nous connectons à ces services. Il peut s’agir des vidéos qui démarrent toutes seules dans Facebook, des timelines que l’on peut scroller indéfiniment (comme un puits sans fond), de la présentation sur la même page de LinkedIn des contacts qui souhaitent rejoindre votre réseau et des suggestions de personnes que vous pourriez connaitre, et plus généralement des notifications intempestives de ces services et applications. Le design de ces interactions a vocation à conserver l’utilisateur le plus longtemps possible dans le service, car c’est ce qui est valorisé économiquement par l’entreprise.
Ces techniques empruntent à la fois à des mécaniques addictives inspirées des jeux d’argent et de casino, mais aussi à la manipulation de l’attention telle qu’utilisée par les magiciens.
Ces interfaces conçues pour tromper l'utilisateur sont appelées dark patterns. Selon un article du Figaro,
Le néologisme, que l'on pourrait traduire par «design douteux», a été inventé en 2010 par un spécialiste du design d'interfaces numériques, Harry Brignull. [...] «Il s'agit de manipulations dans le design même des services que nous utilisons, pour faire faire des choix à l'utilisateur, dont il n'est pas conscient» résume ainsi Albert Moukheiber, docteur en neurosciences, psychologue et animateur de débats sur le design éthique avec l'association Chiasma Paris. «Cela peut-être pour nous empêcher de quitter un service, en rendant cela particulièrement difficile ou en jouant sur notre culpabilité, ou bien au contraire pour nous inciter à devenir accro en jouant sur des biais cognitifs», ajoute le scientifique.
Ces biais cognitifs, ce sont en fait tous ces mécanismes de la pensée qui nous font parfois avoir des jugements moins rationnels, comme celui de trouver un produit à 0.99 euros beaucoup moins coûteux qu'un autre au prix rond. Il y en a des centaines, que les psychologues étudient depuis les années 1970 et que les experts du marketing, de la communication ou de la politique utilisent à des fins de manipulation commerciale ou électorale. Dans le champ des technologies, le Laboratoire des technologies persuasives de Stanford a été créé en 1997 par BJ Fogg, figure majeure de la «captologie» ou l'étude des ordinateurs et des technologies numériques comme outils de persuasion.
La démarche ne date donc pas du déferlement du numérique et de l'intelligence artificielle. Elle a fait l'histoire du marketing. Voici un exemple cité par la revue l'Elephant :
Imaginons que l’on vous demande de participer à une expérience. Elle concerne deux produits qui se ressemblent comme deux gouttes d’eau : le Pepsi-Cola et le Coca-Cola. Leur composition est quasiment identique et leur goût très proche. Vous faites partie d’un groupe de personnes qui goûtent à ces deux boissons. On demande ensuite à chacun laquelle il préfère. Aussi étonnant que cela puisse paraître, les réponses seront différentes si les testeurs dégustent ces boissons en aveugle (les marques étant cachées) ou pas (les marques étant apparentes). Le neuroscientifique américain Read Montague a observé que, lorsqu’on n’identifie pas la marque, le Pepsi est préféré au Coca.
Mais il en va différemment quand la marque est connue : cette fois, le Coca est préféré au Pepsi. Cela s’observe dans le cerveau, dont les zones activées ne sont d’ailleurs pas les mêmes dans les deux cas. Quand les personnes ne savent pas ce qu’elles boivent, la zone cérébrale la plus sollicitée correspond à celle des plaisirs – le cortex préfrontal ventromédian –, et le Pepsi l’emporte. Dans le second cas, ce sont les zones associées aux jugements de valeur et à la mémoire qui sont le plus sollicitées – le cortex préfrontal dorsolatéral et l’hypothalamus –, et le Coca gagne la comparaison ! Indéniablement, ces résultats montrent que c’est le marketing qui nous conduit à préférer le Coca au Pepsi et non le plaisir pris en le buvant.
Mais les technologies actuelles ont permis le développement d'outils de dark patterns d'autant plus efficaces qu'ils sont basées sur une récolte de données personnelles gigantesque : Jérôme Colombain, dans Faut-il quitter les réseaux sociaux ?, remarque que les réseaux sociaux type Facebook stockent non seulement toute donnée concernant les utilisateurs non seulement produite par l'intéressé-e (nom, date de naissance saisis lors de l'inscription, photo ou commentaires), mais également par ses connaissances (photo taguée, like...) et par la machine elle-même (heures et durée de connexion, liens avec d'autres utilisateurs). Ils parviennent également à suivre notre comportement sur d'autres sites internet... et généreraient même des profils fantômes de personnes non inscrites, utilisant le même type d'algorithme que celui qui permet de recevoir des suggestions de connaissances.
Pour ces raisons, Amnesty international a reproché à Facebook, Google et autres entreprises de la Silicon valley d'avoir fondé un modèle économique basé sur la surveillance, résumant l'idée en ces termes : "Si c’est gratuit, c’est vous le produit". Formulation qui nous paraît proche du propos de votre question.
En réalité, les GAFAM ne vendent pas individuellement vos données à des entreprises souhaitant faire de la publicité. Comme l'explique cet article de l'Agence France presse, celles-ci achètent des catégories :
Par exemple, des emplacements sur les "walls" (murs en français) d'hommes entre 15 et 25 ans qui aiment les chiens, achètent des baskets en ligne, sont allés à Ibiza et consultent régulièrement tel site de divertissement.
Si Facebook, fréquenté tous les mois par près de 2,4 milliards de personnes dans le monde, vendait la matière brute, ou même des blocs de données agrégées, et non seulement l'accès, il perdrait une mine d'or. Le réseau a beaucoup plus à gagner dans l'exploitation des données dans le respect des lois en vigueur, même si les régulations deviennent plus contraignantes au fil des ans.
Ainsi, l'Union Européenne s'est dotée d'un Réglement général sur la protection des données destinée à protéger mieux les utilisateurs.
Pour aller plus loin :
- La culture des données : intelligence artificielle et algorithmes dans les industries culturelles / Joëlle Farchy, Juliette Denis
- Facebook : la catastrophe annoncée / Roger McNamee
- The four : le règne des quatre : la face cachée d'Amazon, Apple, Facebook et Google / Scott Galloway
- Gafa : reprenons le pouvoir ! / Joëlle Toledano
Bonne journée.