Sociabilités en ligne dans un monde de robots aux limites de nos perceptions du social et du technique

Olivier Glassey — 09.06.2015

×

Introduction

Ce que je propose d’analyser, c’est de revisiter l’étrangeté du monde que nous habitons, de regarder des espaces qui nous paraissent maintenant habituels, quotidiens, notamment au travers de l’usage des technologies de l'information, et de les explorer de manière un peu originale pour voir que ce qui s’y passe. C’est peut-être pas aussi évident, aussi simple que ça, et que nous sommes peut-être en train de faire toute une série d’apprentissages collectifs sur lesquels je vais revenir.Et la deuxième thématique qui va guider mon propos, c’est la question du rapport à l’autre dans l’usage que nous avons des technologies de l’information, et plus largement de la manière que nous avons d’envisager l’autre au travers des médiations techniques.Pourquoi poser cette question ? Pour se rendre compte, peut-être justement, que l’autre, de l’autre côté de l’ordinateur, l’autre qui se trouve à l’autre bout de l’internet, il est peut-être pas humain : il est peut-être d’une autre nature, c’est peut-être un robot, et c’est ça le thème principal de mon propos, ce qu’on appelle en anglais les «social bots», des robots sociaux, des dispositifs techniques qui font semblant d’être des humains, avec qui on peut interagir, avec qui on peut communiquer.Et peut-être aussi, des dispositifs qui nous conduisent à revisiter en permanence les préjugés ou des certitudes que nous avons d’être justement certains de nous adresser à un autre humain, alors que ce n’est peut-être pas toujours le cas.Et là, j’évoquerai notamment la question du test de Turing comme non pas simplement un dispositif imaginé par Alan Turing pour qualifier l’intelligence artificielle, mais comme une pratique quotidienne à laquelle nous allons de plus en plus avoir recours pour comprendre avec qui nous interagissons en ligne.Et l’ensemble de ces éléments sera aussi repensé dans une dernière partie sur une perspective plus large qui est la question de la matérialité du social en ligne, c’est-à-dire le fait que justement quand nous interagissons avec d’autres dispositifs en ligne, nous produisons des traces, des traces électroniques, et c’est bien souvent ces traces qui sont utilisées pour nous répondre, qui sont utilisées pour analyser notre comportement, qui sont utilisées pour nous donner l’impression que nous interagissons avec d’autres humains alors que c’est pas toujours le cas.

De la matérialité des traces numériques du social et de ses usages

En guise d’introduction, je vous propose de considérer un exemple assez récent conduit par les équipes de recherche de facebook, c’est-à-dire des équipes de recherche qui sont internes à cette compagnie.Et dans une de leurs analyses récente, ils ont la prétention de pouvoir prévoir plusieurs jours à l’avance le moment où vous allez tomber amoureux, et le moment où vous allez être en relation avec une autre personne.Comment est-ce qu’ils font ce tour de force, selon eux, c’est simplement en analysant un ensemble de traces que vous laissez sur leur réseau social, en regardant la progression du nombre de messages positifs et des changements de comportement dans vos pratiques habituelles de communication, et avec une assez bonne probabilité, ils arrivent effectivement à détecter, quelques jours avant que votre statut change véritablement sur le réseau social, le moment où en principe vous êtes tombé amoureux.Alors bien sûr, il faut prendre avec des pincettes ce type d’analyse, parce qu’elles sont faites de manière assez particulière, et on peut aussi les trouver assez triviales, c’est-à-dire que c’est peut-être pas si étonnant que ça que notre humeur en ligne change avant qu’officiellement nous nous déclarons en relation, nous nous déclarons amoureux.Mais ce qui m’intéresse dans cet exemple, c’est plus précisément à quel point on peut aller chercher les informations dans nos comportements pour en déduire un certain nombre de choses, et à terme – alors là de manière peut-être un peu plus prosaïque en ce qui concerne les opérateurs de ces réseaux sociaux – d’adapter le comportement du système, le comportement de la plateforme et des publicités qu’elle comporte, en fonction de ces états émotionnels intimes qui sont pressentis, pariés on pourrait dire, par le système.Et donc ça pose la question de manière très générale, avant même de parler de la question des robots en tant que tels : comment nous pouvons vivre une relation avec des dispositifs qui en permanence ont peut-être la capacité de tracer nos parcours émotionnels ou nos parcours communicationnels pour s’y adapter en permanence.Est-ce que nous ne sommes pas un peu désemparés ou un peu perdus quand nous considérons ces potentialités qui sont, encore à l’actuelle, encore en phase d’exploration, mais on a pas mal d’exemples qui montrent que ces explorations deviennent de plus en plus fortes depuis quelques années.

La foule des robots invisibles

Alors le personnage dont je vais vous parler aujourd’hui, ce n’est pas le réseau social pour l’essentiel, c’est ce robot – alors pas du tout le robot que vous pouvez voir là, qui est un robot de film de science-fiction des années 50, ce robot matériel fait de métal, qui a peuplé et qui continue à peupler nos imaginaires – mais un robot plus subtil, un robot qui justement ne se pare pas de cette artificialité ou de cette matérialité explicite, mais qui va au contraire s’approcher de nous de manière camouflée et de manière socialement camouflée.Alors bien sûr, ce camouflage n’est possible que parce que justement, il n’opère pas dans notre espace physique quotidien, où pour quelques années encore on serait capable de le démasquer assez rapidement, mais il arrive à se camoufler parce qu’il agit dans l’univers des traces électroniques et des échanges communicationnels en ligne, c’est là qu’il peut être d’une efficacité redoutable.À l’heure actuelle, on imagine d’ailleurs que près de 10% des interactions sociales, ou des interactions qui ont lieu au sein du web dit « social », sont en fait non pas dûes à l’activité d’humains, mais à l’activité de machines.On voit bien d’ailleurs qu’il y a un abus à appeler ces dispositifs « web social », pare qu’il y a des lieux où cette sociabilité n’est plus l’apanage des humains.Un exemple qui peut être intéressant à explorer, c’est le cas des gens qui pratiquent du poker en ligne, pour qui cette question, qui peut paraître un peu bizarre, de savoir à qui on a affaire, est une question très importante, parce que les robots peuplent des fois les tables de poker en ligne, et ils sont capables d’avoir des stratégies qui peuvent conduire des joueurs humains à perdre pied, non pas tellement qu’ils soient plus efficaces ou plus intelligents que le joueur humain, plus forts que le joueur humain, mais ils ont souvent la capacité de leur endurance automatique, de prendre un minimum de risques pendant des heures, et ce faire ils sont considérés comme des adversaires redoutables.D’ailleurs il n’est pas étonnant de voir qu’un certain nombre de joueurs essaient systématiquement de poser une petite question à leur collègue de table de jeu virtuel pour savoir si en face d’eux, ils sont en présence d’un autre joueur ou d’un agent à qui le joueur aurait délégué cette responsabilité.Sur certains réseaux sociaux comme Twitter par exemple, les estimations font l’état de 35% de comptes, (8.5% selon Twitter) de profils qui ne seraient pas ceux d’êtres humains mais de machines – alors il y a aussi bien évidemment, dans ces espaces hétérogènes qui sont constitués par les réseaux sociaux, des profils de tout et de n’importe quoi, j’y reviendrai, on sait qu’une partie non négligeable des animaux domestiques anglais ont leur page sur facebook, et que les robots peuplent notamment un réseau comme Twitter où ils sont très présents.Au point, et c’est un point sur lequel je reviendrai, qu’on peut voir la mise en place de systèmes techniques censés détecter les vraies personnes des faux profils et des faux prétendus interlocuteurs dans ce type de réseau.Une autre traduction, qui est assez évidente mais à laquelle on ne pense pas toujours, de cette transformation mécanique d’une partie de cette industrie du lien social, c’est la possibilité d’acheter des milliers d’amis pour quelques dollars ; alors bien sûr il ne s’agit pas ici de conquérir la possibilité qu’une personne vous apprécie en tant que telle, mais il s’agit bien sûr de dispositifs techniques.Là, dans les exemples qui sont donnés, pour une somme modique de 17 dollars, vous pouvez faire l’acquisition de 20'000 followers sur Twitter, donc des personnes – virtuelles ! – mais qui vont être actives, non seulement elles vont s’abonner à votre compte, mais en plus elle vont souvent relancer, ou forwarder, c’est-à-dire faire suivre, re-twitter comme on dit dans le jargon de cette plateforme, faire suivre les messages ; certains d’entre eux ont des comportements complexes, pour éviter justement la détection.Tout le monde trouverait très bizarre que tout d’un coup du jour au lendemain, 20'000 personnes vous rejoignent sur votre application si vous n’êtes pas une célébrité internationale, c’est pour ça que accompagné avec les conditions de la transaction économique, la somme à payer pour les followers, il y a les conditions de livraison, et on vous garantit que ces suiveurs vous rejoindront petit à petit, des fois sur plusieurs semaines ou plusieurs mois, comme si naturellement, vous étiez en train de vous constituer une communauté de personnes intéressées par vos propos.Et ce qui défraie assez régulièrement la chronique, ce sont des politiques qui se font prendre la main dans le sac, ou des people, c’est-à-dire tout d’un coup on arrive à voir qu’une partie en tout cas de cette réputation liée au web social est due plutôt à l’achat massif de ces liens, plutôt qu’à une quelconque notoriété acquise par les propos ou les activités qu’ils ont pu tenir.L’ensemble de ces dispositifs compose un paysage, assez bizarre on pourrait dire, en tout cas pas humain dans le sens où on l’entend habituellement, et il nous renvoie à la question de qu’est-ce qui définit la différence entre l’homme et la machine, comment on arrive à poser cette question de manière la plus générale, et on peut venir d’une première approche, revenir justement à la manière dont Alan Turing pensait ce rapport à la machine.

L'héritage contemporain d'Alan Turing

Pour poser cette question de manière la plus générale, on peut se référer ici aux travaux de pionniers qu’on faits des inventeurs de l’ordinateur, et notamment le travail extraordinaire mené par Alan Turing, qui essayait déjà à son époque d’imaginer cette question du rapport entre l’ordinateur, la machine et l’humain, et justement en se posant la question de savoir comment on arrivait à attribuer à l’ordinateur une forme d’intelligence, à quel moment l’ordinateur pouvait être considéré comme intelligent.Pour ce faire, il a mis au point un test, le test éponyme, le test de Turing, qui est un test assez simple : plusieurs entités sont derrières un mur et un interlocuteur dialogue avec ces entités par le truchement d’un document écrit de manière mécanique, et si l’interlocuteur est incapable de savoir si derrière le mur, il dialogue en vérité avec un humain ou une machine, on pourra dire alors que l’intelligence artificielle aura réussi son pari de nous rejoindre dans nos manières de communiquer.Alors on peut faire plusieurs remarques par rapport à ce type de test qui a connu beaucoup de succès, qui continue d’ailleurs à connaître beaucoup de succès, il s’agit moins d’une théorie de l’intelligence que d’une théorie des effets ou de la communication. D’ailleurs Turing ne pense pas du tout que l’ordinateur fonctionne comme le cerveau humain ou que l’application va fonctionner comme un cerveau humain, mais il va faire semblant, il va se camoufler, il va récupérer un certain nombre de tics ou de modes de communication, et c’est quand il arrivera à introduire le tout auprès d’un autre humain, que l’ordinateur pourra être considéré comme « intelligent ».Une autre dimension qui est importante par rapport à ce test, c’est que le juge de paix de l’ensemble de ce dispositif reste la personne justement, reste l’humain qui interroge ces entités derrière le mur. Et en fait, c’est à nous qu’incombe la responsabilité d’être capable de faire la part des choses.Alors sur la base de ce test-là, on a vu le déploiement de toute une série de tentatives qui ont été conduites par différents chercheurs, on peut citer ici le système Eliza qui s’agissait assez simplement d’un système de discussion entre un humain et un ordinateur, où pour l’essentiel la machine ne gérait pas un système complexe mais se contentait de reposer les questions que les personnes leur adressaient ou de reformuler les phrases et les déclarations que leur faisaient les personnes en changeant légèrement la forme, en les tournant sous une forme interrogative, et donc de renvoyer essentiellement à la personne elle-même ses propres interrogations.On peut considérer qu’il s’agit là d’un dispositif minimaliste et peu intéressant, mais pour l’anectode, une des premières personnes à avoir testé ce dispositif explique que notamment la secrétaire de son cabinet médical, qui connaissait parfaitement le fonctionnement du système, avait demandé à un moment donné de pouvoir l’utiliser pendant les pauses de midi, et quand le praticien lui faisait la remarque qu’elle était au courant qu’il ne s’agissait en vérité que d’une espère de ping-pong sémantique très basique, la secrétaire disait "oui, mais ce qui m’intéresse, c’est justement de pouvoir parler à ce système, et qui me renvoie peut-être un certain nombre d’interrogations que je formule moi-même et surtout, ce qui me plaît, c’est que j’ai pas l’impression qu’il va me juger".Donc on voit que même des dispositifs très simples, qui ne font pas appel à une vision très complexe de l’intelligence artificielle, ne serait-ce que par cette capacité de reformuler des choses que nous leur disons, nous intriguent, nous interpellent, et déjà nous invitent quasiment des fois à explorer des formes de communication un peu hybrides auxquelles on ne pense pas toujours.Le test de Turing, comme je l’ai dit, a connu pas mal de développement, et au point où il est devenu une compétition qui se déroule régulièrement pour savoir si la machine réussit enfin à nous rejoindre, ou plus précisément si elle réussit à nous faire croire qu’elle n’est plus machine.Et on peut ici se référer à l’ouvrage de « The Most Human Human » de Brian Christian, qui est un livre assez intéressant, c'est un journaliste scientifique qui se retrouve convoqué lors d’une de ces compétitions du test de Turing (le prix Loebner), et donc il est conduit à faire partie du panel des humains qui doivent interroger des systèmes qui se trouvent derrière le mur et partager, départager ce qui est de l’ordre de l’humain ou ce qui est de l’ordre de la machine.Et ce qui est intéressant, alors le livre raconte beaucoup de ces dimensions-là, mais ce qui est notamment intéressant dans les propos de Brian Christian, c’est cette crainte d’être le premier humain à ne pas être capable à ne pas reconnaître un humain parmi les machines.Comme si, d’une certaine manière, et il le dit en ces mots, s’il était le gardien d’une frontière de la différenciation entre le robot et l’humain, et que sur ces frêles épaules reposent peut-être des enjeux majeurs pour l’humanité, être capable de faire la part des choses.Et d’ailleurs depuis que ce livre a été écrit, des chercheurs ont réussi le test de Turing lors d’une de ces compétitions, alors cela a soulevé pas mal de discussions, parce que comme Turing le dit lui-même, ce qui est important en définitive, ce n’est pas que tout le monde pense tout le temps que le dispositif qui est de l’autre côté du mur est un humain pour que la machine réussisse son test ; il suffit que dans un tiers des cas l’humain soit trompé, et là on est vraiment à la frontière, et il y a tout une série d’interrogations quand à la validité de cette annonce.Mais ce qui est intéressant, c’est aussi de voir les stratégies qu’ont utilisé les gens qui ont fait les meilleurs résultats, notamment par exemple (alors que le test se déroule en anglais) ils ont utilisé l’identité virtuelle d’un étudiant ukrainien pour justement pouvoir jouer avec les manières traditionnelles qu’ont les humains de détecter les machines, notamment l’humour – et là nous trouvons des tentatives de faire des plaisanteries, la machine prétendant venir d’une autre culture disait qu’elle n’avait pas forcément compris le deuxième degré, ou que les termes des fois étaient compliqués et qu’elle ne maîtrisait pas forcément l’anglais, donc on se rend compte que ce qui a souvent fait la différence, à la fois de la part des évaluateurs de ces dispositifs techniques, mais aussi de la part des gens qui développement ces systèmes, c’est pas seulement de répondre de manière rationnelle dans une discussion à bâtons rompus entre deux humains, c’est pas ça qu’il s’agit de répliquer, il s’agit aussi de répliquer tous les dysfonctionnements, tous les hiatus, toutes les ruptures des dispositifs conversationnels, comment est-ce qu’on gère l’humour, comment on gère la non-compréhension d’une discussion, comment on gère les tonalités de l’émotion, sont autant de registres sur lesquels on s’est beaucoup appuyés pour continuer à être capable de faire cette différence.

Poésie robotique

Alors de manière peut-être un peu moins dramatique si je peux dire, on peut considérer des exemples que je trouve assez intéressants, qui illustrent bien la complexité du rapport que nous avons au robot, et là je fais référence à un site qui s’appelle « BotOrNot» , sur le site « BotOrNot », la question qui est posée, c’est de savoir si vous êtes capable de reconnaître une poésie, si cette poésie a été écrite par un humain ou pas, on donc c’est un dispositif participatif où on propose aux gens une série de petits poèmes et là, les gens vont évaluer s’il s’agit d’un humain ou pas.Alors bien évidemment, la forme poétique, la licence poétique permet des explorations avec le langage qui sans doute contribue à brouiller les pistes, mais aussi peut-être à faire émerger des formes intéressantes qui n’ont pas forcément toujours été associées à l’intelligence artificielle comme justement la dimension artistique, l’inventivité, la créativité, la manière de faire sonner les mots, il y a toute un technicité mais aussi toute la part plus subjective de l’expression poétique, qui sont en jeu dans cette plateforme, et on demande aux gens de faire la part des choses.Alors là, on peut s’amuser à faire ce test, on va voir apparaître toute une série de résultats, et l’illustration que je voudrais apporter ici, c’est le type de classement que le système offre lui-même, par exemple vous avez les humains qui écrivent le plus comme des humains. C’est-à-dire des humains qui arrivent à se faire reconnaître vraiment comme étant humains, c’est pas si évident que ça, donc pour lesquels le doute n’exsite pas ; il y a aussi les machines et les ordinateurs qui écrivent vraiment comme des ordinateurs, donc là il n’y a pas de doute, très clairement les utilisateurs arrivent à attribuer un certain nombre d’auteurs de ces petits poèmes, le fait qu’ils soient une entité mécanique et non pas un dispositif, donc ça c’est deux catégories qui peuvent paraître évidentes mais elles ne sont pas si simples que ça, si notamment on les considère en regardant les deux catégories suivantes.La première étant le « most human liked computer poem », c’est-à-dire les systèmes qui ont produit les poèmes que le plus grand nombre d’internautes a associés à un humain – c’est-à-dire ceux qui ont le mieux réussi cette entreprise de camouflage, et certains d’entre eux arrivent à tromper ou induire en erreur d’attribution près des deux tiers des internautes, donc il s’agit là de scores tout à fait intéressants. Et c’est, on pourrait dire, des prétendants à l’intelligence telle qu’elle est définie par Turing.Et puis autre catégorie, à laquelle on ne pense pas forcément, c’est la catégorie des humains qui écrivent comme des machines, où là on va retrouver toute une série de personnes auxquelles on a fait l’attribution inverse, le problème de l’attribution inverse, c’est-à-dire qu’on a considéré qu’ils étaient des machines alors que non, ce n’était pas le cas. Donc il y a aussi des questions de symétrie, il ne s’agit pas simplement de se rendre compte dan certains cas à quel point l’ordinateur peut bien nous imiter, mais peut-être que des fois, nous imitons la machine sans nous en rendre compte.Il y aurait beaucoup à dire sur ce type de plateforme, je ne vais pas développer ici plus en avant, mais pour moi, elle est une bonne illustration de ces différents types d’interprétation ou de jeu d’identité qui peuvent se construire dans notre lecture des contenus en ligne.Et il y a des exemples des meilleures réussites des humains et des robots que l’on peut garder à l’esprit.

Les défauts humains: l'ultime camouflage des robots

Alors ce qui est valable pour la poésie est valable aussi ailleurs, je mentionne aussi rapidement le cas des jeux vidéos, dans lequel il y a toute une industrie dans la production des robots, alors là les robots sont souvent des partenaires de jeu, soit des amis, soit des ennemis sur lesquels on va passer pas mal de temps à tirer dessus ou à vivre des aventures dans des mondes fantastiques, et il sagit, si on regarde du point de vue des statistiques, il s’agit d’activités qui prennent une part importante du quotidien des joueurs, et une part de ce quotidien est quand même aussi dédiée à dialoguer ou à détruire des entités qui vont se comporter comme des humains dans ces univers de jeux virtuels.Et d’ailleurs, de la même manière qu’il y a le test de Turing officiel et comme le cas de la poésie que nous venons d’évoquer, il y a aussi des tests qui sont faits ou des concours qui sont organisés plus précisément, pour produire des robots qui jouent avec vous dans ces jeux en ligne, sans que vous puissiez être certains qu’il s’agit de machines, et que vous puissiez penser qu’il s’agit de partenaires de jeu.Et là encore, sans rentrer ici dans tous les détails de ces études, ou de ces compétitions, ce qu’il est intéressant de souligner, c’est de voir par exemple les raisons pour lesquelles essentiellement les joueurs font des erreurs d’attribution, et notamment on peut programmer un robot capable d’être rationnel tout le temps, de faire les meilleurs calculs de trajectoire s’il s’agit d’un jeu guerrier, mais en fait, ce qui induit véritablement les autres joueurs en erreur, c’est par exemple le sentiment de vengeance, les robots qui vont se souvenir d’une partie à l’autre quel joueur a fait quelle misère, et donc là ça va induire en erreur. Et un autre facteur dont on a pu montrer qu’il marquait aussi les esprits et qu’il avait tendance à créer de l’ambiguïté, ce sont des robots qui à un moment donné ne jouent plus au jeu mais tirent sur tout ce qui bouge, parce que pour la majorité des joueurs, avoir ce comportement très destructeur, ne plus jouer au jeu mais se jouer des joueurs donc d’une certaine manière refuser l’espace de jeu, il s’agit en vérité d’un comportement typiquement humain, on pourrait appeler ça des trolls de jeux vidéos, et pour eux il était impensable en tout cas que ce type de comportement pas très productif soit l’objet d’une machine. Donc on voit aussi que notre perception de ce que c’est que la machine, elle est aussi très liée à des représentations, de respect des règles, de respect de l’autre, et qu’il suffit des fois justement de toucher à ces règles-là, d’explorer d’autres territoires, pour que la plupart des gens soient incapables de considérer qu’il s’agisse d’une machine qui ait ce type de comportement.On a toujours l’impression, on pourrait dire comme ça, que le robot doit avoir un comportement moral ou en tout cas une forme de lisibilité de se comportement, ce qui n’est pas toujours le cas.En revenant à un niveau plus général, on peut reprendre ici la question plus triviale, mais qui nous concerne peut-être plus directement dans le monde pratique de communication quotidienne, qui est de savoir, en définitive, avec qui nous communiquons en ligne. Nous partons la plupart du temps du principe que ce sont nos amis, nos connaissances, ce sont d’autres humains avec qui nous échangeons. Et puis d’un autre côté, si nous considérons justement les gens qui nous suivent, les gens qui nous ont acceptés comme amis, que nous avons acceptés comme amis, les études montrent que cette population est loin d’être aussi humaine que cela, parce qu’ils peuvent avoir des comportements complexes, ces dispositifs techniques peuvent notamment, pour les robots qui vous suivent sur Twitter par exemple, un des dispositifs, il s’agit de les faire dormir, c’est-à-dire que pendant 12 heures ils ne vont pas envoyer de message, en plus ils vont se créer une identité en fonction d’un fuseau horaire, ils vont être capables d’écrire des commentaires, de reprendre les commentaires qui sont les plus populaires dans votre environnement pour les faire circuler eux-mêmes, créer des nouveaux liens sociaux, il y a des robots qui sont capables de faire des demandes d’amis, ou même de les enlever, c’est-à-dire un robot pourrait vous ôter votre amitié.Et tous ces dispositifs sont déjà utilisés, alors la plupart du temps pas forcément à des fins très positives, ils s’agit aussi souvent beaucoup de manipulations et voire même de cyber-guerre si on peut appeler ça de cette manière-là, mais sans aller dans ces extrêmes, c’est-à-dire de robots très sophistiqués, on peut voir ici notamment que la plupart des célébrités, des gens qu’on appelle des people, la majorité quasiment, en tout cas dans la plupart des cas, la majorité des gens qui les suivent ne sont pas des humains, mais sont des faux followers, des faux suiveurs, et donc des robots.Et si on considère par exemple le test de Turing, et bien maintenant il y a des plateformes comme Twitter Audit qu’on peut voir là, qui vont vous proposer de mettre le nom d’une personne, le nom d’une adresse – twitter en l’occurrence – et qu’en fonction d’un certain nombre de calculs, il va vous garantir un pourcentage d’humanité ;Alors l’exemple qu’on a là, on voit que pour la première personne, on nous garantit 92 % d’humanité, mais que la troisième personne ici présentée n’a que 16% de chances d’être véritablement un humain.Et ça, c’est des phénomènes qui sont intéressants à observer, qu’est-ce que l’on fait de ces chiffres-là, qu’est-ce que ça veut dire ce pourcentage d’humanité, comment est-ce qu’il est calculé, est-ce qu’on est à 100% ou à 0% humain, cet entre-deux, comment on va l’utiliser dans notre futur, ça c’est des questions qui sont assez fascinantes à observer du point de vue d’une sociologie des techniques.Et si on commence à s’intéresser à l’univers des robots, alors là on va les voir apparaître dans des domaines très très différents.

Des usages des robots sociaux

Prenons l’exemple de l’actualité, ici vous avez sous les yeux un tout petit article écrit par un quotidien de Californie, il ne paie pas de mine, il parle simplement d’un tremblement de terre de magnitude 2.7 qui a eu lieu au large de la Californie ; la seule chose qui est intéressante par rapport à cet article, c’est qu’il n’a pas été écrit par un humain, il a été écrit par une machine.Cet article a été composé intégralement, les informations ont été compilées en temps réel une fois que l’alerte et le commentaire a été donné, et en tout cas dans ce cas précis, la seule intervention humaine – parce qu’il y en a encore eu une – c’était appuyer sur le bouton « éditer », c’est-à-dire la publication en ligne.Alors bien sûr, il s’agit d’un article très descriptif, mais on voit poindre déjà, et c’est un débat grandissant, des limites ou de l’absence de limites de l’utilisation de dispositifs techniques automatiques, qui sont des robots dans un autre sens du terme, mais qui se font quand même des fois passer pour des auteurs humains, pour justement rendre compte de l’actualité.Et on a un autre exemple ici, c’est une comparaison de deux articles traitant d’un match de football américain ; dans cette enquête, ce qui est intéressant, c’est que c’est le même match, mais qui a été d’une part écrit par un journaliste sportif, et d’autre part des commentaires qui ont été écrits pour le même match, par une machine, par un dispositif automatisé.Et la question qui a été posée aux lecteurs, c’est de savoir 1) s’ils arrivaient justement à identifier le type d’auteur, on leur demandait clairement, un peu comme dans le dispositif de poème que j’évoquais tout à l’heure. Dans ce cas précis, il me semble bien que la plupart des gens ont su reconnaître quel texte avait été écrit par un journaliste humain et quel texte avait été généré automatiquement, mais ce qui est intéressant, c’est que quand on leur demandait leur avis, c’est-à-dire quant à la qualité et au plaisir de la lecture, les avis étaient partagés ; pour être plus précis, ils considéraient qu’il y avait des qualités dans chacun des textes et que ces qualités n’étaient pas la même.Alors là des questions d’objectivité, des questions de mise en scène des choses, et là aussi ça devient intéressant, parce qu’il ne s’agit pas simplement d’être capable de détecter ce qui est de l’ordre de l’humain ou pas, mais de penser les formes que cela prend et la manière de le formuler.Alors pourquoi montrer un tel exemple, parce que tout compte fait il est assez simple de compiler de manière un peu aléatoire des textes et de leur donner une apparence, un format d’un article, il ne s’agit pas simplement d’un exercice de style, parce qu’ici on peut voir sur le site de Nature datant du 25 février 2014, que des grands éditeurs comme Springer et IEEE ont dû retirer plus de 120 articles qui avaient été écrits par ce même algorithme. Donc des articles qui ne sont pas du tout des articles scientifiques mais des articles produits par un robot de compilation, et qui, chose extraordinaire, ces articles ont traversé les différents filtres que ces éditeurs sont quand même censés avoir avant de publier sur leur plateforme ce genre de contenu scientifique.Au-delà de la question de l’édition scientifique et du Peer review, c’est-à-dire de la validation par les pairs, ça pose quand même la question de cette capacité que nous avons déjà à produire des choses qui ressemblent à tel point à un article scientifique véritable qu’il commence à circuler.Et d’ailleurs, les auteurs de cet algorithme, un petit groupe d’étudiants de doctorants, a eu un certain succès, et ils ont même une plateforme dans lequel chacun, en quelques clics, peut produire ou générer un article scientifique – alors bien évidemment, il ne s’agit pas ici d’une recommandation pour ce genre d’expérimentation mais c’est assez intéressant de voir le degré de camouflage informationnel qu’on est capable de générer et mettant en place un petit nombre de règles qui peuvent produire des textes qui vont commencer à circuler comme des textes scientifiques traditionnels.Une autre dimension que l’on peut considérer, après l’actualité ou le monde scientifique, c’est le monde politique en ligne.Ici aussi, rapidement quelques exemples : un cas canadien où on se rend compte que plus de 40% des gens qui suivent tel candidat à une élection sont en fait des robots ; un autre cas ici qui est un cas situé en Corée du Sud, où on découvre que 1,2 millions de messages twitter publiés les dernières années ont été générés de manière automatique pour soutenir un candidat précis, et surtout pour influencer l’opinion publique.Et quand on sait à quel point nous sommes sensibles aux opinions des autres, ça pose des questions fondamentales, même en ce qui concerne le fonctionnement d’une démocratie qui découvrirait qu’une partie importante de l’expression populaire ou considérée comme populaire sur différents dispositifs de communication en ligne sont en fait complètement fabriqués, programmés, activés par un petit nombre de personnes qui ont un agenda très précis.Alors bien évidemment, la communication politique n’a pas commencé seulement avec l’invention des social bots, mais ce qui est différent à mon avis, c’est que ces entités avancent à visage couvert, et qu’ils peuplent justement des espaces du web dit « social » comme étant des représentants de cette opinion publique alors qu’ils ne sont que des agents automatiques de certains intérêts.Non seulement les bots vont suivre certains politiques, ils vont peut-être poster des messages pour renforcer les opinions favorables ou associer à telle ou telle personne, mais aussi ils vont effectuer un travail de censure, ici c’est un cas évoquant la situation chinoise, où on voit que certains dispositifs de micro-blogging, c’est-à-dire de manières de poster des petits messages sur différents types de plateforme, souvent les messages qui ne sont pas favorables à certaines opinions ou à certaines doctrines sont supprimés automatiquement dans les minutes qui suivent et en tout cas dans le jour qui suit.C’est-à-dire que le robot qui parcourt le web n’apparaît pas uniquement comme étant un avatar d’un humain, mais il peut aussi agir pour supprimer des contenus ou pour dénoncer des contenus de manière automatisée et donc transformer un peu cet espace.Alors on pourrait continuer ici la liste des exemples dans lesquels nous découvrons la vie avec les robots.

La vie commune avec les robots: une ventriloquie mutuelle

Et peut-être se poser la question, aussi de manière plus large, des nouvelles formes de vie commune que nous allons entretenir avec ces dispositifs techniques.On peut trouver des cas notamment où l’humain devient le porte-parole du robot ; un exemple que j’ai trouvé assez intéressant, c’est l’exemple de Curiosity rover, c’est-à-dire la sonde que la NASA a mis sur Mars et qui a commencé à parcourir cette planète éloignée ; et qui, assez régulièrement, communique sur Twitter.Mais il ne s’agit pas du tout d’une communication directe : la sonde n’envoie pas de message sur Twitter, ce qu’elle aurait pu faire, elle envoie des informations à un centre spacial aux Etats-Unis, et là il y a un agent de la NASA, un employé de la NASA qui va faire parler curiositiy.Elle parle à la première personne, elle parle en tant que robot, d’ailleurs qui va faire des gags par rapport à d’autres robots qui sont en train de voyager aux confins de notre système solaire, des fois le robot va faire des commentaires par rapport à ce qui se passe sur Terre, et à un moment donné d’ailleurs curiosity va se taire parce que l’employé, lui, n’est plus payé quand il y a eu les fameuses ruptures de salaire dans l’administration fédérale aux Etats-Unis, et donc les gens n’étaient plus payés, ils ne pouvaient plus travailler, et donc là, curiosity rover est devenu silencieux ; comme si d’une manière imagée, il était solidaire du conflit budgétaire qui avait lieu aux Etats-Unis.Donc l’humain peut être aussi porte-parole du groupe, il s’agit bien évidemment ici d’une stratégie de marketing, parce que c’es aussi la prise de conscience que dans ces espaces de sociabilité en ligne, faire parler un projet scientifique à la première personne, c’est s’acquérir l’intérêt éventuellement aussi le soutien financier vital d’une partie de la population.On a d’autres dispositifs, ici on voit un projet qui s’appelle Rep.licants.org, où l’idée, c’est que justement le web social est tellement rempli d’opportunités de communiquer, d’échanger, de disctuer, de débattre, que cela en devient trop chronophage pour les pauvres humains que nous sommes ; pourquoi perdre notre temps à échanger des idées sur les réseaux sociaux, on a plein d’activités différentes à faire peut-être plus enrichissantes, et en définitive pourquoi pas léguer ce travail pénible de la discussion et de la conviction à des agents qui le feraient à notre place ?C’est-à-dire l’idée, c’est d’avoir son propre robot personnalisé, son agent, qui incarnerait un certain nombre de valeurs que nous avons, d’opinions politiques, d’idées à défendre, et que nous laissions partir parcourir la topologie numérique s’allier avec des robots pensant de la même manière, essayant de convaincre des humains et des non-humains.Donc cette idée, qui peut paraître assez farfelue, de délégation de la parole citoyenne mais aussi de l’opinion dans un espace public alors qu’il y a un espace public du virtuel, mais qui serait peuplé par des agents virtuels.Alors bien sûr, ce rapport entre le robot, cette vie collective, n’organise pas uniquement un rapport entre l’humain porte-parole du robot et le robot porte-parole de l’humain, mais on va aussi trouver le robot porte-parole de la nature ; dans l’exemple que j’évoquais précédemment du tremblement de terre, de l’article de presse écrit par un robot en rapport avec un tremblement de terre, l’information était parvenue au robot par un autre robot, qui est un robot-sonde, posé près de cette faille, et on compte des centaines de robots qui sont autour des volcans, autour des failles, sur des animaux sauvages, qui en temps réel communiquent des éléments de la nature – les communiquent à des humains, mais des fois les communiquent à d’autres robots qui vont justement faire suivre cette information.

La petite valse invisible et infinie des robots séducteurs

Donc il faut vraiment, peut-être une idée à retenir ici, c’est de la complexité, de l’entremêlement, et de l’enchâssement on pourrait dire, de ces différentes formes de communication qui coexistent dans notre usage ou dans nos usages du web social.Et c’est tellement vrai que ça pose d’ailleurs un certain nombre de problèmes même aux gens qui gèrent les interfaces qui doivent permettre aux humains d’interagir entre eux, je pense ici au cas d'une des plateforme de rencontre américaine les plus populaires où tout d’un coup, il se sont rendus compte qu’une part non négligeable des gens qui étaient détenteurs d’un profils n’étaient pas des humains, en fait ils étaient des systèmes automatiques qui essayaient de séduire des humains pour avoir des informations ou un certain nombre de choses.Ce qui est intéressant dans ce cas-là, c’est la stratégie qu’a utilisée le développeur de cette plateforme, c’est qu’il a pas essayé de simplement de les interdire, parce que c’était quelque chose d’assez difficile à faire (parce que souvent, c’était un véritable humain qui créait le profil et après il le déléguait à des robots), alors il y a un certain nombre de comportements qui pouvaient donner un signal d’alarme, mais « chassez le robot et il revient au galop », alors la stratégie qui a été utilisée, c’était de développer des robots.D’autres robots. Des robots séducteurs de robots. Et donc de peupler ; les promoteurs de la plateforme du site de rencontre ont peuplé de leur propre volonté leur plateforme avec des robots séducteurs de robots qui ont passé leur temps à essayer de trouver, dans les profils qui étaient là, ceux qui étaient vraisemblablement le fruit d’un robot, d’engager la conversation avec eux, de les submerger de messages et de renforcement positif, et c’est assez fascinant d’imaginer que peut-être dans une partie de cette plateforme, il y a des robots qui sont rentrés dans un dialogue infini, un dialogue amoureux infini avec d’autres robots, dans lequel l’humain n’a plus sa place, et il y a une espèce de lieu parallèle dans lequel des robots séduisent d’autres robots.Alors bien sûr, c’est un peu bizarre de dire cela de cette manière, mais c’est aussi une des dimensions de cette communication technique.Alors si on laisse ces robots à leur vie sentimentale tautologique, on peut aussi se concentrer sur la difficulté des rapports que nous avons avec ces machines, pas seulement en tant que dispositifs techniques nous qui envoient des messages et nous font croire que notre interlocuteur est un humains, on va de plus en plus trouver le robot qui va prendre la parole au sens premier du terme, c’est-à-dire nous parler.

Prise de parole et faille existentielle des robots

Et dans la conversation qui va suivre, c’est une personne qui dialogue avec un système automatisé de réponse à des demandes de clients, donc des plateformes de communication qui sont de plus en plus répandues notamment aux Etats-Unis, et on va voir que c’est un dialogue un peu surréaliste qui va se dérouler maintenant.« Hi ! ». « Hi, I’m good, how are you ? » « …. » « Hey, you’re a robot ?! »« Haha, what ? No, I am a real person. Maybe we have a bad connection, I’m sorry about that ». « Ah, that’s crazy I see you just sound so much like a robot ». « I am a real person, maybe we have a bad connection, I’m sorry about that… ». « Will you tell me « I’m not a robot », just say « I’m not a robot » please ».« I am a real person ». « I mean, I believe you but will you just say « I’m not a robot » ? It will make me feel better if you say it ».« Haha, it is a person here ». « But I know there is, it would just make it so much better to here you saying « I’m am not a robot »…On entend ici une conversation presque sans fin entre un client qui demande une seule chose au système, d’affirmer qu’il n’est pas une machine, qu’il ne s’agit pas d’un robot, et on voit bien là par opposition, la machine qui elle a été programmée pour déployer toute une série de stratégies, pour réassurer le client quant à sa nature, mais la chose qui n’avait pas été prévue, c’est qu’elle soit capable de mentir simplement sur son état de machine.Et ça provoque un sentiment un peu étranger, presque déstabilisant, de voir cette conversation, on a presque une forme d’empathie pour cette machine qui ne peut pas s’extraire de sa condition de machine, elle ne peut même pas sortir de ce cul-de-sac conversationnel, alors peut-être dans quelques années ou dans quelques mois, le système sera plus sophistiqué et elle sera à même d’être bien plus maligne ou bien plus à l’aise avec son statut de robot.D’ailleurs cette amélioration, cette amélioration de la capacité qu’ont les robots à convaincre les humains de leur statut, continue à se déployer : ici on a l’image d’un concours de social bots qui se déroule assez régulièrement, et ce qui est intéressant, c’est que contrairement au test de Turing, là il s’agit de déployer des robots sur le web social, et le robot qui a gagné, c’est le robot qui a obtenu le plus d’humains followers à la fin de la période d’essai.C’est-à-dire que la métrique du succès de cette forme d’intelligence artificielle, c’est le nombre d’humains qui le suivent pour une raison ou pour une autre, donc c’est-à-dire qui sont intéressés à avoir cette interaction, ont envie de la poursuivre, soit parce qu’ils pensent qu’il s’agit de quelqu’un d’intéressant, soit – et c’est aussi possible – parce qu’ils pensent qu’il s’agit d’un robot intéressant. Et c’est aussi sous cet angle-là qu’il faut considérer l’ensemble de ces éléments.Et on pourrait imaginer que dans quelques années, ce ne soient plus tellement les machines qui doivent faire les preuves de leur ressemblance à l’humain, mais l’humain qui devra peut-être essayer de convaincre de son statut d’humain les machines.

Prouver son humanité en travaillant pour les machines

C’est d’ailleurs quelque chose qui existe déjà à l’heure actuelle. Si vous regardez ce type de système, et je pense que pas mal d’entre nous sont familiers avec ce qu’on appelle les captcha.Alors qu’est-ce que le captcha, c’est ce texte mal écrit, écrit de manière tordue, des fois biffé, que vous devez recopier notamment quand vous vous inscrivez dans un nouveau service, et c’est justement un système qui est censé permettre, valider le fait que vous êtes un humain.Captcha, ça veut dire « Completely Automated Public Turing test to tell Computers and Humains Apart », comme son nom l’indique, il s’agit vraiment d’un dispositif de tri qui doit permettre de distinguer l’humain de la machine pour éviter que justement des robots s’inscrivent automatiquement et en masse sur certains services ; et donc on va vous demander de faire ce travail de reconnaissance de signes, et parce que – alors là il y a bien sûr toute une analyse que l’on pourrait faire de l’évolution des captcha, parce qu’on va explorer pas mal de territoires, et chaque fois on va essayer de voir en quoi l’humain se distingue d’un dispositif technique, est-ce qu’il arrive mieux à reconnaître les formes, est-ce qu’il arrive mieux à reconnaître les lettres, les différentes métriques de cette reconnaissance qui sont utilisées.Dans le cas qui nous intéresse ici, cela va un peu plus loin. Parce qu’il s’agit de re-captcha, c’est-à-dire que non seulement on va demander à un humain de revalider le fait qu’il soit humain en recopiant de manière correcte un texte qui est compliqué à lire, qui a été déformé ; mais où l’idée est assez intéressante, c’est que ce travail de traduction que doit faire l’humain va être réutilisé par des machines.On s’est rendu compte que c’était bien d’avoir un spécialiste humain capable de justement traiter ce type de problème, c’est un problème qui peut arriver de manière très commune par rapport à des logiciels qui essaient de digitaliser un ensemble de textes, et pour lesquels il n’est pas évident d’être capable de décrypter automatiquement 100% des mots, s’ils sont mal orthographiés, imprimés sur des anciens ouvrages, etc., etc.Et donc, pourquoi ne pas utiliser ces humains qui doivent se valider en tant qu’humains pour justement faire ce travail, et dans re-captcha, le résultat – alors bien sûr multiplié par un certain nombre d’utilisateurs – est renvoyé à la machine qui va ainsi apprendre à reconnaître ces textes-là.Et ça, ça ouvre une autre perspective, toujours dans cette réflexion sur le rapport que nous avons avec ces robots, c’est à quel point, dans certaines circonstances, nous ne sommes pas simplement des interlocuteurs de communication interpersonnelle imaginaire avec ces dispositifs qui peuvent essayer de nous influencer, mais aussi à quel point nous ne sommes pas, parfois et peut-être de plus en plus, dans un rapport de travail avec ces systèmes-là.Que ce soit le temps que nous passons à trier des informations, mais des fois aussi à faire toute une série de manipulations en ligne, souvent, ces manipulations sont des choses que les machines nous ont déléguées parce qu’il est plus cher ou impossible de le faire faire automatiquement.Et ici, à l’image du fameux mechanical Turk, c’est-à-dire ce dispositif pour jouer automatiquement aux échecs, qui était présenté comme justement une des premières versions d’une certaine forme d’intelligence artificielle, et qu’on a découvert après coup que l’intelligence artificelle était essentiellement constituée par une personne de petite taille qui était à l’intérieur de la table et qui manipulait les pièces du jeu d’échecs, on peut se demander si notre position, en tant qu’utilisateur contemporain, elle n’est pas aussi d’être, comme dans le mechanical Turk, l’intérieur de la machine et à agir depuis l’intérieur de ces systèmes qui vont déterminer un certain nombre d’opérations et qui vont utiliser ce que nous faisons pour faire un certain nombre d’opérations.Ce n’est d’ailleurs pas pour rien qu’un certain nombre d’opérateurs vont utiliser cette image même du mechanical Turk, alors ici on peut renvoyer au dispositif de Amazon, qui va offrir des milliers de petites tâches, de micro-tâches, que l’humain peut faire, des fois parce qu’il s’ennuie et donc c’est gratuit, des fois c’est parce qu’il s’agit d’une récompense qui s’apparente à quelques poussières de centimes.Ça veut dire que des gens vont passer des heures à faire des tâches répétitives comme reconnaître ce qu’il y a sur une photo pour aider l’archivage d’une agence de photographie, de l’archivage de leurs documents numériques, faire des traductions morceau par morceau, mot par mot, parce que il s’agit pas de payer un traducteur mais de donner des morceaux de phrases à une myriade d’internautes, chacun va traduire ce petit morceau, personne n’aura accès au texte dans son ensemble, mais en confrontant toutes les traductions et en mettant ensemble, on espère avoir une traduction 1) qui coûte pas cher, et 2) qui est de bonne qualité.En fait on voit apparaître un marché de la micro-tâche, qui justement est une manière d’utiliser nos différentes potentialités, nos différentes actions, à l’intérieur d’une marché du travail robotisé.Alors bien sûr, je ne vais pas développer ici toutes les implications que peut avoir ce domaine émergent mais qui est déjà maintenant assez présent dans certains débats publics et qui commence véritablement à avoir une certaine visibilité, peut-être j’aimerais insister sur deux points principaux, non pas pour conclure mais pour terminer provisoirement cette réflexion. Le premier de ces points, c’est le statut que nous avons, nous en tant qu’utilisateurs, dans l’ensemble de ces systèmes techniques.Nous sommes rarement pensés, conceptualisés comme des individus, mais la plupart du temps, dans la littérature, nous sommes une foule, une foule d’utilisateurs. Une foule d’internautes qui allons faire un certain nombre d’opérations.Et la plupart de ces systèmes s’adressent à cette foule, l’utilisent, des fois la manipulent on pourrait dire, ou en tout cas sont capables d’exploiter certaines de ses activités.Là aussi, on pourrait passer pas mal de temps pour voir comment le statut de cette foule a changé entre les premiers textes de 1840 sur la folie des foules ou les textes de Tarde ou les textes de Le Bon sur une manière de voir la foule, et puis comment cette foule-là, plutôt brouillonne voire parfois régressive, dangereuse, hors de contrôle, va devenir – alors on fait un peu un bond dans le temps – va devenir, à l’âge du web 2.0, c’est-à-dire à partir des années 2000, va devenir une foule intelligente, va devenir une foule contributrice, une foule qui collabore. Et alors on peut penser pas mal de choses par rapport à cette évolution du regard porté sur les multitudes, mais un des enjeux d’après moi, il est en rapport direct justement avec la problématique des robots, c’est que cette foule est une foule qui va être traversée, des fois utilisée, reprise, traitée, par l’ensemble de ces dispositifs qui accompagnent la vie sociale en ligne et qui exploitent cette matérialité.Alors bien évidemment, ça va avoir un certain nombre de conséquences à terme, peut-être sur les activités professionnelles que l’on pensait à l’abri d’une forme d’automatisation ; pendant longtemps il y a eu une forme presque d’arrogance à penser que seuls les métiers les plus répétitifs et les plus physiques allaient faire l’objet d’une automatisation ou d’une robotisation ;Avec les différents exemples qu’on a rapidement évoqués lors de cette présentation, on se rend compte que de plus en plus d’activités pourront faire l’objet de formes d’interventions automatisées, reposant chaque fois cette question de quelle est la part de l’humain, quelle est la part du travail de l’humain, quelle la part de la place même de l’humain dans l’économie, de ces transferts, comment il va négocier, sa légitimité à exister toujours, dans des pans entiers de systèmes qui sont prêts à s’automatiser de plus en plus.Et on peut regarder d’ailleurs à cet égard un livre comme « The Second Machine Age », qui dépeint un peu une espèce de renouveau de l’automatisation, non plus uniquement comme la robotisation ou la mécanisation, mais vraiment comme une manière de penser les dimensions aussi cognitives, voire même les dimensions créatives de l’activité humaine comme étant à part entière un domaine d’extension du déploiement des technologies.

En guise de conclusion

Donc en guise de conclusion, mais il s’agit vraiment simplement presque d’évidence que je vais évoquer ici, le premier – et là je reviens peut-être sur le point de départ – c’est que la vie commune avec les robots, c’est pas un titre d’un roman de science-fiction mais une réalité qui se construit au quotidien et pas seulement dans les laboratoires mais aussi dans nos interactions vraiment au niveau parfois le plus trivial, des fois le plus évident, et que nous sommes dans cette phase d’apprentissage de notre rapport avec les robots ;Et le deuxième point, qui me paraît un peu transversal à tout le propos que j’ai essayé de tenir ici, c’est cette idée que la définition des robots est aussi souvent, pour ne pas dire toujours, une définition de l’humain.Et que cette dialectique entre ce qui constitue la machine et ce qui constitue l’humain, sera sans doute un des débats passionnants des années à venir.