Lhypothèse que les machines nous surveillent pour notre bien
Entretien avec Mathieu Giroux pour Usbek et Rica, mai 2022
Mathieu Giroux Vous estimez que « les technologies contemporaines induisent différentes transformations de nos subjectivités ». Dans quelle mesure ces transformations sont-elles dangereuses pour nous ?
Pierre Cassou-Noguès Ce qui m’intéresse avant tout, c’est de décrire ces transformations. Plutôt que de savoir si elles sont dangereuses ou non, j’ai voulu montrer la bizarrerie des comportements qu’elles induisent. Et, selon moi, la plus grande transformation est le fait de déléguer à la machine le soin de décrypter ce qui devrait relever d’une expérience en première personne.
C’est ce que j’appelle le « syndrome du thermomètre ». Au début du livre, je mets en scène un personnage fictif, mon oncle, qui met des thermomètres dans toutes les pièces de sa maison pour savoir s’il a chaud ou froid. Il préfère se fier à la température indiquée plutôt qu’à son propre ressenti.
MG Certaines applications fonctionnent-elles comme le thermomètre de votre oncle ?
PCN Il existe des applications qui prétendent m’indiquer ma propre humeur. L’une d’entre elles écoute les intonations de ma voix tout au long de la journée et, à partir de ces intonations, me dit quelle a été mon humeur. L’application donne ensuite des conseils pour améliorer celle-ci. Ce qui est étrange, c’est que, dans nos formes de vie habituelle, je suis censé savoir moi-même comment je me sens.
Mais, aujourd’hui, nous avons une telle foi dans la machine que cette forme de vie est en train de se transformer. Si une application, avec tout le big data qu’elle implique, me dit que je vais mal alors que j’estime bien aller (ou l’inverse), je suis capable de la croire. Alors dans quelle mesure ces applications sont-elles dangereuses ? À un premier niveau, il est clair qu’elles induisent un appauvrissement dans la description de l’expérience intérieure. Dans mon journal intime, je vais écrire dix pages pour décrire mon humeur alors que l’application va seulement me donner un émoticône et un score.
Mais peut-on faire l’hypothèse que ces applications peuvent me permettre d’être de meilleure humeur ? Je veux montrer l’étrangeté d’une telle possibilité sans pour autant la rejeter. Si danger il y a, il réside ailleurs. D’abord dans l’extension des machines : plus j’utilise ces applications, plus elles m’incitent à les utiliser. Mon smartphone ou mon robot-compagnon ne vont jamais me dire « Mets-moi à la poubelle ». Pourtant, à l’heure du changement climatique, il serait peut-être judicieux de se détacher d’elles. Ensuite, certains intérêts particuliers peuvent se cacher derrière les machines, comme lorsque des applications cherchent à me dire pour qui je veux voter. Cela aliène notre relative autonomie à un fournisseur, par exemple.
MG Une subjectivité déléguée aux machines peut-elle encore se nommer subjectivité ?
PCN On ne pourrait plus appeler cela une « vie intérieure » puisque ce serait une vie sur l’écran. Ce serait une forme de vie tout à fait différente. Aux yeux du philosophe Ludwig Wittgenstein, il est possible d’imaginer de nouvelles conventions où la machine, par exemple, pourrait décider à notre place comment nous nous sentons. Dans cette forme de vie, nous serions dépossédés de notre expérience intérieure, mais cela serait néanmoins toujours une forme de vie. Prenons l’exemple de la douleur, qui est l’expérience en première personne la plus incontestable et imaginons que nous possédons des dolorimètres popularisés par une campagne publicitaire massive et utilisés dans les hôpitaux. Imaginons alors un patient souffrant des dents, mais aussi un dolorimètre indiquant : « douleur 0, rentrez chez vous ». Ne pourrions-nous pas considérer que le patient est pris dans une forme de folie et, qu’au lieu de l’envoyer chez le dentiste, il faille l’envoyer chez un psychiatre ? Ce serait une nouvelle forme de vie avec ses nouveaux découpages de la réalité.
MG - Les dérives de la technique sont-elles liées à un problème d’usage ou bien d’essence ?
PCN - Pour Samuel Butler, l’auteur d’Erewhon (1872), les machines n’ont ni conscience ni instinct mais une tendance à l’extension. On peut donc voir le développement technique de deux manières différentes : 1) les humains utilisent les machines pour accroitre leur pouvoir sur la nature 2) les machines utilisent les humains pour évoluer. Par exemple, la voiture n’a pas besoin de rouler. Mais les humains en font usage jusqu’à ce qu’ils aient besoin d’un modèle plus performant.
Les machines utilisent donc les humains pour se reproduire et pour opérer une sélection. Et pour continuer son perfectionnement, la machine transforme l’humain. Elle a aussi intérêt à prendre soin de l’humain. Mais l’on constate, encore une fois avec le changement climatique, qu’elle ne se s’est pas aperçue qu’elle nous entrainait vers l’abîme. La technique est donc dangereuse en ce sens. En revanche, voir un danger dans le seul fait que la machine transforme l’humain relève selon moi de la technophobie.
MG Est-il possible de produire une critique de la technique qui ne soit pas « technophobe » ?
PCN La défiance de principe vis-à-vis de la technique trouve sa source dans un humanisme illusoire. On pourrait très bien dire que l’écriture ou l’imprimerie nous ont transformés. En quoi toute transformation serait nécessairement un mal ? On peut très bien mettre en lumière les transformations de nos formes de vie – cela relève de la critique, au moins au sens de Kant – sans pour autant rejeter en bloc la technique.
MG La désynchronisation, notamment liée au développement du smartphone, est un des phénomènes les plus emblématiques de notre temps. Comment cela se traduit-il dans notre quotidien ? Cela relève-t-il d’une forme de pathologie ?
PCN J’entends par désynchronisation le fait que nous soyons passés d’un modèle avec un pôle émetteur et une multitude de récepteurs à un modèle où chacun est émetteur et récepteur. Typiquement, l’ORTF de l’époque : une chaîne de télévision d’État qui arrose les foyers. Le soir à 20 heures, toutes les têtes sont tournées vers l’écran de la télévision. Avec internet, nous sommes passés à un modèle de pair-à-pair où tout le monde est à la fois récepteur et émetteur. Chacun peut désormais lancer un message dans le réseau. On devrait se dire « Quel progrès » ! Pourtant, lorsque l’on voit les vidéos de chat ou l’écho que rencontrent les vidéos complotistes, il y a des motifs d’inquiétude.
La désynchronisation désigne aussi le fait que nous consultons en même temps plusieurs médias. Mais le fait d’être en mode multi-tâches est-il un mal ? Le fait d’avoir au bout de mes doigts une telle somme d’informations est un enrichissement considérable. Le geste du scrolling n’est pas forcément négatif, c’est le même qui me permet d’accéder à des données complémentaires quand je regarde un film ou un documentaire. L’effet négatif de la désynchronisation réside plutôt dans l’augmentation du temps passé sur les écrans et donc du temps de cerveau disponible pour le capitalisme dans le cadre de ce qu’on appelle aujourd’hui l’ « économie de l’attention ».
MG Le concept de « bienveillance » des machines paraît indissociable de celui de « surveillance ». Comment interpréter cette ambigüité ?
PCN Ce que j’appelle « bienveillance » avec une certaine ironie, c’est le fait que les machines nous surveillent pour notre bien. Elles nous « bien-veillent ». J’ai développé cette notion à partir des robots-compagnons. Certaines machines sont donc censées produire de la bienveillance.
Mais je ne veux pas dire que ces robots ou ces applications ne fonctionnent pas par principe ou dans les faits. Je prends au sérieux cette fiction que nous proposent les fabricants et je m’interroge : Est-ce vraiment cela que nous voulons ? Pouvons-nous véritablement être heureux seulement avec un robot-compagnon qui nous passe notre musique préférée quand nous rentrons chez nous le soir ?