profilage – Causes Toujours https://www.causestoujours.be Blog du Trimestriel Causes Toujours Thu, 03 Dec 2015 15:40:42 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.9.4 Big Data ou la tyrannie du réel – Entretien avec Antoinette Rouvroy https://www.causestoujours.be/big-data-tyranie-du-reel/ Mon, 23 Feb 2015 15:11:14 +0000 https://gsara.tv/causes/?p=801 Les Big Data, nouveau champ de la modélisation sociale, prétendent capturer le réel comme tel. Antoinette Rouvroy nous explique comment la « gouvernementalité algorithmique », ce nouveau pouvoir, tente de catégoriser et d’évaluer les propensions, les opportunités et les risques que représentent les personnes.

Antoinette Rouvroy, docteur en sciences juridiques de l’Institut universitaire européen et chercheuse qualifiée au FNRS, se consacre à la philosophie du droit et à la philosophie des normes. Rattachée au Centre de Recherche Information, Droit et Société (CRIDS) à l’université de Namur, Rouvroy développe une approche interdisciplinaire ou même plutôt indisciplinaire. Son intérêt porte sur le rapport des modes de production du savoir au départ de la génétique et des technologies de l’information. Quelles sont les conceptions du sujet qui se développent en articulation avec les nouveaux modes de production du savoir et les nouveaux modes d’exercices du pouvoir ?

Selon vous, les données brutes et les Big Data permettent de créer des profils ou des modèles de comportement. Pouvez-vous nous expliquer cette problématique et les risques qui en découlent ?

Bien que les Big Data peuvent être utilisées dans d’autres domaines que celui de la modélisation sociale (par exemple dans la gestion de l’environnement ou de l’astronomie), ce qui m’interpelle, ce sont les nouvelles possibilités de catégorisation et d’évaluation des propensions, des opportunités et des risques que représentent les personnes. Il s’agit d’une nouvelle méthode pour évaluer et catégoriser les individus. Les données brutes constituent des nouveaux objets dans le paysage sémiotique – le paysage des signes et des signaux. Tout d’abord, les données brutes ne fonctionnent pas du tout comme des icônes. Elles ne font pas signe par ressemblance aux choses auxquelles elles sont censées faire signe. Une donnée brute ne ressemble à rien. Elle est très souvent « anonymisée », désindexée et décontextualisée. Elles sont également ininterprétables et fonctionnent comme un pur signal quantitatif, agrégeable à un niveau supra-individuel sous forme de profil (modèle de comportement). Ensuite, bien que l’on parle souvent de traces numériques, les données brutes ne fonctionnent pas non plus comme des traces. Je pense que c’est une métaphore trompeuse car une trace, au regard des théories sémiotiques, se définit par le fait qu’elle retient, comme une empreinte, la marque d’un contact physique avec la chose pour laquelle elle fait signe. Or, une donnée brute n’a aucune mémoire dans sa forme et ne garde aucun passage ni aucun contact avec un corps ou même avec un mouvement que nous aurions pu faire. De plus, elles ne fonctionnent pas non plus comme un signe conventionnel, ni comme un symbole dans la mesure où les symboles – comme par exemple, les signaux routiers – tirent leur signification d’une convention antérieure. Enfin, les données brutes n’émergent pas non plus de la nature mais sont produites grâce à des processus sophistiqués d’anonymisation, de désindexation et de décontextualisation. Ce sont des données qui sont par la suite expurgées de toute signification singulière et de tout lien avec ce qui pourrait les rattacher à un sens intelligible pour l’être humain.

En ce qui concerne les Big Data, elles ne sont pas constituées uniquement de données brutes. Les Big Data forment un ensemble de données de différentes natures. Il y a les données brutes, comme caractérisées ci-dessus mais aussi les données à caractère personnel relatives à des individus identifiés ou identifiables, les données de localisation, les images, les sons, les trajectoires et toutes sortes de données extrêmement complexes. On parle aussi des données qui émergent de l’administration – Hard Data – et celles issues des réseaux sociaux – Soft Data.

Les Big Data enflent à très grande vitesse et constituent des quantités immenses, stockées dans des entrepôts de données traitées en temps de réel. On fait référence aux Big Data à partir du moment où l’on franchit un certain seuil de complexité et de vitesse. Ces quantités seront encore plus importantes à partir du moment où se développera l’Internet des objets.

Quantité, vélocité et complexité. Comment traiter à la fois des images, des sons et des trajectoires ? Nos méthodes traditionnelles de traitement des bases de données ne sont plus adéquates. Nous sommes aujourd’hui forcés d’automatiser la production de savoir à partir des données brutes et d’accélérer la transformation de ces données en information ou en savoir. Ce sont les algorithmes qui permettent d’automatiser la production de savoirs, d’informations et de modèles au départ de bases de données gigantesques et extrêmement complexes. Comment fonctionnent ces algorithmes utilisés spécifiquement dans les applications de ce que l’on appelle les data mining – le forage des données ou d’exploitation des données, le profilage et la fabrication de modèles relativement prédictifs au départ de données ? On fait tourner des algorithmes dont le travail consiste à détecter des corrélations entre des données recueillies dans des contextes hétérogènes. Le but est de faire surgir des profils ou des modèles de comportements qui seront prédictifs dans la mesure où ces corrélations sont récurrentes, indépendamment de toute notion de cause. On passe des ambitions de la rationalité moderne qui liait les phénomènes à leurs causes à une sorte de rationalité post-moderne purement statistique qui vise à faire émerger ou à faire visualiser – la visualisation des données – des corrélations entre des données tout à fait hétérogènes qui ne sont liées par aucune forme de causalité. Plus on a de quantités massives de données, plus on peut parvenir à des prédictions de comportement relativement fines. C’est donc la quantité qui assure la validité des modèles plutôt que la validité du modèle a priori. D’ailleurs, le modèle ne pré-existe pas à la collecte et au traitement des données. Autrement dit, dans le cas du data mining, des hypothèses sur le monde ne pré-existent pas au traitement des données. Ce sont plutôt les algorithmes qui feront surgir des hypothèses et des modèles.

C’est par rapport à ce constat que vous introduisez la notion de gouvernementalité algorithmique.

Ce sont surtout des dispositifs qui nous dispensent de toute une série d’opérations mentales sur la vérité et qui nous dispensent de devoir comprendre les causes des phénomènes puisqu’ils prétendent prédire la survenance de choses que l’on redoute ou de choses que l’on souhaite sans s’intéresser à leurs causes. Ces dispositifs seraient capables de prédire à la fois des actions terroristes mais également le passage à l’acte d’achat. Ils promettent de pouvoir gérer ce qui n’est que de l’ordre de la potentialité, du possible, de l’avenir sans avoir à interroger les causes des phénomènes, sans avoir à interroger les personnes sur ce que sont leurs préférences ou leurs choix. L’idée est de se dispenser de toute forme de rencontre et de gérer la fluidité en temps réel. Il s’agit d’une manière de gouverner qui nous dispense de prendre des décisions par nous-mêmes. Les gouvernants, les entreprises, les policiers sont écartés. On va s’en remettre de plus en plus à ce que l’on appelle des « algorithmes de recommandation » qui ne prennent pas nécessairement la décision pour nous mais qui nous recommandent de nous diriger vers une direction précise.

Il n’est pas étonnant de constater que ce modèle soit de plus en plus appliqué à la sécurité…

Il existe une idéologie des Big Data qui les présente comme la solution à tous les problèmes. C’est le solutionisme de la Silicone Valley. Depuis le 11 septembre 2001, les coûts du personnel de sécurité dans les aéroports ont augmenté très significativement et représentent une charge financière assez importante pour les états. À partir du moment où l’on peut automatiser la détection et l’évaluation anticipative des risques, il est certain qu’il y aura une tentation de remplacer le personnel de sécurité par des machines. Il existe un réseau d’intérêts convergeant vers une utilisation intensive de ces dispositifs. Ceux-ci sont présentés comme une méthode beaucoup plus rationnelle que l’évaluation humaine dans la mesure où l’on pense qu’un algorithme est aveugle aux préjugés racistes, de genre, etc. Les algorithmes ne recouperaient aucune catégorisation socialement éprouvée et paraîtraient beaucoup plus objectifs. C’est une promesse à la fois de rationalisation mais aussi d’accélération. Cela permettrait de transformer les aéroports en des lieux commerciaux sans zone de transit où l’on pourrait faire passer les contrôles de sécurité uniquement aux personnes qui seraient désignées à risque par les algorithmes. Il y a à la fois un rêve de plus grande fluidité, d’économie de personnel et d’objectivation. Les industriels de la sécurité se sont saisis de ces dispositifs et les vendent comme étant la garantie de la sécurité absolue. On sait par ailleurs que ces dispositifs ne sont pas exempts de biais. Ce sont de véritables boîtes noires dans lesquelles les biais ne sont pas nécessairement visibles. De plus, ces dispositifs dans le domaine de la sécurité sont parfois importés de zones géographiques en guerre. Par exemple, Israël exporte ces techniques vers les Etats-Unis et l’Europe. Or ces dispositifs (les algorithmes) ont été fabriqués dans le contexte du conflit Israélo-Palestinien.

Il y a un embarquement de toute une série de valeurs et de vision du monde dans la technologie elle-même et, une fois que ces dispositifs sont vendus comme des boîtes noires à l’étranger, nous pensons naïvement que ces biais disparaissent complètement au profit de l’objectivité.

Oui, et puis, de toute façon, il ne faut pas oublier que les algorithmes sont conçus par des êtres humains et ne peuvent donc de toute façon être objectifs…

Oui, bien entendu, mais les évolutions récentes vont vers ce que l’on appelle le machine learning ou l’apprentissage par les machines elles-mêmes. L’idéal étant que les machines auto-apprenantes puissent apprendre de leurs propres erreurs et s’auto-corriger. Leurs critères de sélection des éléments pertinents afin de déterminer un risque échapperont à leur concepteur. IBM appelle cela l’autonomic computing, un modèle de parc informatique qui se gérerait lui-même et qui pourrait détecter le risque d’attaque, s’adapter à l’environnement et se corriger lui-même. On s’est rendu compte qu’on allait rapidement avoir un manque d’informaticiens pour entretenir tout ce matériel qui se multiplie et qui se diversifie à une vitesse folle. Le matériel devient surabondant par rapport à une main d’œuvre d’entretien insuffisante. Il y a une nécessité que les machines deviennent de plus en plus autonomes. La vision de l’armée américaine en matière de résolution de conflits armés va un peu dans le même sens. L’idée étant qu’on envoie des drones suffisamment autonomes pour faire face à d’éventuelles coupures des communications. Les drones autonomes seraient plus moraux que les humains dans la mesure où ils ne craindraient pas pour leur vie et ne seraient animés par aucune haine.

data

« data.path Ryoji.Ikeda – 2 » by r2hox is licensed under CC BY-SA 2.0

La gouvernementalité algorithmique se distingue d’un mode de pouvoir dont la contrainte est intériorisée (Foucault). Quelles sont les nouvelles « tactiques » employées par cette nouvelle manière de gouverner ?

La gouvernementalité algorithmique est un mode de gouvernement nourri essentiellement par des données brutes et qui affecte le comportement des individus sur le mode de l’alerte ou du stimulus provoquant du reflex plutôt que de la réflexivité. Par exemple, dans le domaine du marketing, on va attirer votre attention sur certaines choses. On va vous envoyer des publicités ciblées. Ces nouvelles pratiques qui ont notamment été décrites par le chercheur américain Ryan Calo (digital market) permettent de détecter le moment où le consommateur et/ou l’internaute sera le plus susceptible, subjectivement, de cliquer sur un type de publicité. Notre capacité de résistance à des offres ou à des tentations s’émousse au fur et à mesure qu’on s’en sert au cours de la journée. En suivant votre trajectoire (votre activité en ligne) sur votre ordinateur, les neuromarketers sont capables de détecter le moment précis où vous serez le plus enclin à cliquer sur une publicité. Un autre exemple, c’est ce qu’on appelle le dynamic pricing qui est notamment utilisé par certaines compagnies d’aviation low-cost et qui permet de détecter parmi les clients captifs comme, par exemple, ceux qui doivent impérativement voyager entre Bruxelles et Genève le lendemain. Les compagnies peuvent ainsi pister votre activité en ligne et sont en mesure d’adapter les prix en fonction des autres compagnies concurrentes dont vous avez également visité les sites web. Si vous devez voyager de toute urgence, ils vont augmenter les prix uniquement pour vous. Ayant peur que les prix continuent à augmenter, votre réflexe sera d’acheter immédiatement un billet. On vous vend des dispositifs de personnalisation de l’offre.

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire. Ce que vous pourriez faire. Si l’on compare ce mode de gouvernementalité à l’évolution de la gouvernementalité telle que décrite chez Foucault, ce qui a pris la place de la peste, de la lèpre, de la maladie mentale, ou de la mendicité, c’est l’incertitude comme telle. L’incertain pour l’incertain à savoir le mode conditionnel de ce que peuvent les corps. La puissance des sujets et la potentialité des individus deviennent la cible. La résistance ou la récalcitrance à ce mode de gouvernement est très difficile à organiser parce que, précisément, personne ne se sent visé. On ne vise plus aucune catégorie socialement éprouvée : ce ne sont plus les noirs, les femmes ou les juifs mais le potentiel comme tel. L’objectif gouvernemental est de faire en sorte que certaines choses n’arrivent pas ou que d’autres arrivent. Dans le domaine du marketing qui est un domaine où cela se développe le plus fortement aujourd’hui, l’objectif est que les individus aient le moins de temps ou de recul possible pour revoir leurs préférences. Cela fonctionne sur le mode de l’exploitation de l’addiction. La gouvernementalité algorithmique ne connaît aucune limite et aucune norme. Les notions de raisonnabilité disparaissent complètement.

Cette manière de gouverner n’aurait pas de précédent dans l’histoire ?

À mon sens, c’est à la fois quelque chose de tout à fait neuf et à la fois un prolongement du néolibéralisme. L’idéal néolibéral est de gouverner le moins possible et de faire en sorte que le réel numérisé se suffise à lui-même. En quelque sorte, ce gouvernement de la personnalisation vise à ce que l’individu devienne sa propre norme statistique et que ce soit le réel numérisé lui-même, par le biais d’algorithmes, qui finisse par se gouverner sans que les gouvernants aient à prendre encore la moindre décision ou orientation politique. Cela correspond très bien à cette idée libérale ou néolibérale de quasi absence de gouvernement. Un désinvestissement de tout ce qui relève de la sphère institutionnelle symbolique. C’est aussi une intensification du néoliberalisme dans la mesure où cette gouvernementalité algorithmique ne repose sur aucun sujet. La notion de sujet individuel disparaît complètement au profit de réseaux de données ou de points de localisation dans des tables actuarielles. Les données brutes sont une sorte d’éclatement et de fragmentation de la vie quotidienne dématérialisée. On parle de double numérique mais c’est une notion totalement fausse. Nous n’avons aucun double numérique. Nous ne comptons que comme agrégats temporaires de données qui sont elles-mêmes agrégeables ou exploitables en masse à l’échelle industrielle. Pour la gouvernementalité algorithmique, il n’y a pas de sujet mais des fragmentages infra-individuels de données qui ne sont plus des données à caractères personnel puisqu’elles sont anonymisées. Quant aux modèles, ils sont eux supra-individuels à savoir des profils qui ne sont jamais des personnes. Chaque individu peut avoir différents profils qui sont évolutifs en temps réel mais aucun ne lui correspond totalement. Il s’agit d’une hyper-fragmentation des individus qui peuvent être mis en concurrence les uns avec les autres à l’échelle quasiment moléculaire. Dans ce sens-là, la notion même de sujet ou d’individu ne fait absolument plus barrière à l’hyper-exploitation y compris du temps de sommeil disponible ou de l’attention. On ne peut même plus opposer l’intégrité de sa vie à la surexploitation de la moindre parcelle d’existence. À mon sens, cela accentue le néolibéralisme.

En même temps, l’effacement du sujet  pourrait sembler paradoxal avec la notion même de libéralisme.

Oui, effectivement. La notion de libéralisme présuppose comme unité fondamentale le sujet soi-disant rationnel, autonome, égoïste. Ici, on est complètement à l’opposé. Nous nous en éloignons assez radicalement et c’est ce qui est très nouveau par rapport à la notion de discipline foucaldienne. L’individu ne doit plus se conformer à aucune norme car cette gouvernementalité apparaît comme absolument anormative. Il s’agit d’un système dans lequel les individus se sentent complètement libres car ils n’internalisent aucune norme dont ils auraient pris connaissance a priori puisque les normes ou les modèles de comportement doivent émerger eux-mêmes des masses de données en temps réel et ne président pas à la récolte des données. Il n’y a aucune intériorisation de la norme et ces dispositifs ne visent aucunement à la réforme psychologique des individus. Autrement dit, à les rendre « normaux ».

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps. Quoi qu’il arrive, quelque soit la sauvagerie des faits, les modèles ou les profils s’adaptent à tout ce qui peut survenir dans le monde. Si vous vous écartez radicalement par vos comportements d’un profil qui vous a été assigné, cela ne va jamais être inscrit comme une erreur ni comme un échec de la part du système. Au contraire, chaque écart permettra d’enrichir la base statistique pour mieux vous profiler la prochaine fois. Plus ça rate, plus ça réussit. C’est un mode de fonctionnement tout à fait viral. Plus on s’en sert, plus ça s’enrichit et ça devient opérationnel. On ne peut dès lors jamais mettre ce système en défaut puisqu’il est évolutif en temps réel. Il s’agit d’une sorte de clôture du numérique sur lui-même qui ne se laisse plus provoquer par la liberté des êtres humains puisque cette liberté quels que soient les actes qui sont posés, conformes ou récalcitrants à la modélisation, vont en fait servir à mieux modéliser.

Vous soulignez qu’il faut voir ce qui se joue au-delà de la question de la protection des données à caractère personnel. Pour vous, la vraie problématique concerne la question du « profilage, de la personnalisation, de l’hypertrophie de la sphère privée, de la paupérisation de l’espace public, de la prédation par des sociétés privées des espaces eux-mêmes privés des internautes 1».

Il y a une hypertrophie de la sphère privée à partir du moment où l’on personnalise l’environnement et votre expérience de la vie. Cette promesse de réponse par anticipation sur l’expression des désirs provoque un gavage des individus. Ces systèmes nous promettent de détecter en temps réel les bons critères de désirabilité et donc d’arbitrer pour nous au détriment du débat politique. Les machines proposent de faire ce travail politique. Vous êtes constamment dans une sorte de bulle personnalisée qui, à terme, risque de vous priver de ce qui constitue une expérience commune : être confronté à quelque chose qui n’a pas été prévu pour vous. Ce qui est l’expérience même de la rencontre politique et du débat.

L’idéologie qui découle des Big Data est le rêve d’un accès immédiat au réel où l’on évite toute forme de représentation. Les Big Data se présentent comme une solution radicale à la crise de la représentation, y compris à la crise de la représentation politique. C’est le rêve d’un accès immédiat au réel qui n’aurait même plus besoin de passer par le langage. Les Big Data se définissent comme relativement exhaustives, comme étant la numérisation de la vie même. C’est comme si on touchait enfin le réel comme tel. Ce n’est même plus le rêve d’un réalisme. C’est le réel sans la représentation. S’il n’existe plus de représentation, il n’y a plus d’espace politique. Nous n’avons besoin d’un espace politique que parce que nous avons besoin de nous représenter les choses y compris par le langage. Et comme nous avons tous des représentations différentes des choses, nous devons confronter ces points de vue différents. C’est à ça que sert l’espace public ! Un espace dans lequel on puisse délibérer de la chose publique. Les Big Data, cette promesse d’objectivité en temps réel, promet de pouvoir se passer de la délibération et de toute forme de médiation. Il y a donc deux aspects : l’hypertrophie de la sphère privée et la réponse donnée par les Big Data à la crise de la représentation politique. Cette réponse est tout à fait radicale puisqu’elle nous dit : « il n’y a plus rien à représenter puisque nous sommes le réel ».

Y a-t-il, selon vous, un accaparement du pouvoir par les algorithmes ?

Les algorithmes ne sont ni bons ni mauvais. Ils n’ont pas de volonté propre. Par contre, je pense qu’il y a une très grande paresse dans notre société qui fait que les gouvernants ont tendance non plus à prendre des décisions sur base de valeurs qu’ils défendraient mais plutôt à prendre des décisions en se réfugiant derrière des chiffres. Des chiffres qui ne sont rien d’autre qu’une représentation particulière du réel, c’est-à-dire les faits. Les faits n’ont aucune valeur en eux-mêmes. Aujourd’hui, je trouve qu’il y a une sorte de confusion entre ce qui est un fait et ce qui est bon et c’est tout le problème de la tyrannie de l’économie qui est accélérée par les algorithmes. On considère que ce qui est dans les faits doit être dans le droit et qu’il faut être réalistes en politique et suivre l’économie. Ceux qui ont des choses à décider ne veulent plus être incombés de cette charge car une décision est un geste qui peut rater. Pourtant, il n’y a que l’incertitude qui donne de la dignité à la décision. La cible principale sinon exclusive de cette gouvernementalité algorithmique est l’incertitude comme telle que l’on veut éradiquer en suspendant les effets de l’incertitude. La nécessité de devoir prendre des décision en situation d’incertitude disparaît aujourd’hui tout comme la notion d’autorité au sens d’ « être auteur ». Dans le cas des politiciens ou des décideurs au sens large, être auteur de la décision ce serait ne pas suivre aveuglément une recommandation faite par un algorithme mais plutôt de décider en situation d’incertitude, sachant qu’on peut se tromper et qu’on aura des comptes à rendre. Ce que nous n’acceptons plus aujourd’hui – et que l’on fait assumer par des algorithmes – c’est le risque de l’erreur.

Les politiques se tournent de plus en plus vers cette manière de gouverner ou de ne pas gouverner ?

Ce qu’ils veulent, ce sont tous les avantages en nature et tous les avantages symboliques de la fonction mais sans pour autant assumer la fonction. La gouvernenmentalité algorithmique n’est qu’un symptôme aigu. Le problème le plus important, c’est la soumission de la politique et du droit à l’économie d’une part, et la soumission de l’économie à la finance d’autre part. Nous sommes en plein dans une tyrannie du réel. C’est le réel, le monde qui, soi-disant, voit des signaux neutres qu’il suffit de capter et de calculer le plus rapidement possible de manière à faire décider les machines au lieu de décider nous-mêmes. Quelles que soient les applications qu’on en fasse, que ce soit dans le domaine de l’orientation professionnelle, dans le domaine de la sécurité, du marketing ou même dans le domaine médical, on vit une passion pour le réel comme tel et un refus de prendre des décisions. De plus, l’accélération des flux devient incontournable. Amazon a récemment breveté un logiciel qui leur permettrait d’envoyer les marchandises vers ses clients avant même que ceux-ci aient pu cliquer sur « j’achète ». On va aussi cibler les petits enfants dès la maternelle pour reconnaître leurs prédispositions aux mathématiques, aux langues, etc. de manière à leur éviter de perdre une année. Le temps de vie doit être maximisé. Nous n’avons plus de temps à perdre dans aucune forme de médiation. Le temps réel exige aussi que l’on court-circuite le temps de la discussion et de la délibération politique. C’est la passion pour le réel.

Est-ce que l’on constate pour autant une préoccupation grandissante par rapport au développement effréné des algorithmes ? Par exemple, même les révélations d’Edward Snowden ne semblent pas toujours alerter l’opinion publique.

Justement, j’écoutais une conférence que donnait Alain Badiou et qui expliquait la signification du mot « scandale ». Le scandale est la validation a contrario de l’ordre ordinaire. Quand on dit que quelque chose est un scandale – « le scandale de Snowden » – cela apparaît comme exceptionnel mais en fait ce n’est pas exceptionnel. Le scandale ou l’exception constitue la norme. On en a fait un événement particulier qui isole ce fait comme si c’était un accident et qu’il ne faut pas trop s’en faire car mis à part cet accident ou quelques autres, « tout va bien Madame la Marquise ».

Par ailleurs, nous sommes dans une société hautement individualiste dans laquelle les personnes ne se sentent pas menacées directement. Il faut leur parler de leur vie privée car on pense que ça leur parle. Par contre, dans le contexte du data mining et du profilage, il s’agit de données anonymes. On peut vous profiler très précisément sans avoir recours à aucune donnée à caractère personnel vous concernant. En fait, les juristes et les instances européennes, en particulier la Commission européenne dans son projet de règlement sur la protection des données à caractère personnel, nous encourage ou nous enferme dans cette vision selon laquelle ce qui compte ce sont les droits individuels : « On va protéger vos données et l’on va vous donner le droit de consentir par rapport à l’usage de vos données à caractère personnel ». C’est évidemment une très mauvaise vision car, comme je vous le disais, nous faisons face à une hypertrophie de la sphère privée et ce repli de l’individu sur lui-même, encouragé par le droit et par la culture libérale, nous empêche de percevoir les enjeux structurels. Il existe des tentatives de récalcitrance du côté des hackers qui visent notamment à brouiller les pistes en envoyant des requêtes ou en entourant les mots-clés dans un nuage d’autres mots-clés de façon à ne pas être tracé. Mais ces solutions sont relativement élitistes car tout le monde n’y a pas accès et n’a pas le temps ni les capacités d’utiliser ces dispositifs de brouillage qui ne font qu’entraîner la machine de surcroît. On rendrait un grand service aux dispositifs de profilage en les entraînant à distinguer les vraies des fausses requêtes.

Il y a un mouvement qui vise plutôt à revendiquer la transparence des algorithmes. Comme je le soulignais ci-dessus, les algorithmes sont comme une boîte noire : on sait plus ou moins ce qui y entre et on voit ce qui en sort mais on ne sait pas comment ça se bidouille à l’intérieur. C’est très difficile de rendre ça transparent car, d’une part, les algorithmes sont protégés par le secret industriel ou alors le secret d’Etat (dans le cas des applications sécuritaires) et, d’autre part, il y a des obstacles techniques qui sont très compliqués à résoudre. Les algorithmes combinent différents types de logiques de gestion de base de données qui sont imbriquées et les données elles-mêmes sont très complexes et diversifiées. Essayer de mettre les algorithmes à l’épreuve et de comprendre comment elles peuvent produire de la discrimination s’avère être une opération très compliquée à entreprendre.

Que pensez-vous alors d’avoir recours, à un niveau individuel, soit à la cryptographie ou alors aux bons gestes et aux bons usages pour éviter d’être tracé ?

La cryptographie répond à un problème de sécurité des communications dont le but est de pouvoir communiquer avec une autre personne sans que le contenu du message puisse être lu. Cela ne répond pas aux enjeux du profilage car, pour le profilage, l’importance est de savoir que votre ordinateur communique avec d’autres ordinateurs sans se préoccuper du contenu. Comment la cryptographie peut-elle nous aider à ne pas être trop profilé ? La réponse n’est pas simple car la cryptographie peut nous aider à être anonyme et sa manière d’y parvenir est d’ajouter, en quelque sorte, des données. Plus on ajoute des données, plus vous êtes facilement profilable. Il y a peut-être un paradoxe qui veut que plus vous êtes anonyme, plus vous êtes profilable. Il faut trouver une sorte d’optimum. Les solutions techniques ne sont réellement pas évidentes. Par contre, les bonnes pratiques moi je n’y crois pas. Il y a une tendance à vouloir éduquer les utilisateurs. On s’est rendu compte en faisant des études notamment à l’Université de Namur sur les pratiques des jeunes sur Internet qu’ils étaient beaucoup plus avertis que nous le pensions quant aux enjeux de protection de leur vie privée. De plus, je crois que l’exposition de soi sur les réseaux sociaux joue aujourd’hui un rôle tout à fait important d’autant que nous sommes de plus en plus anonymes dans les espaces publics. Je fais notamment référence à une veille description de Walter Benjamin à propos de l’intérieur bourgeois du XIXe siècle. Ces intérieurs étaient farcis de signes de leur propre univers. Walter Benjamin nous explique que si les bourgeois du XIXe siècle saturaient leur intérieur des traces de leur existence terrestre c’était avant tout pour se consoler d’anonymat dans l’espace public. Aujourd’hui, si nous saturons nos espaces numériques de traces de nous-mêmes c’est en lien direct avec la désertification de l’espace public. Nous avons besoin d’espace public. Il s’agit d’une forme de consolation. Ce qui a remplacé l’intérieur bourgeois, ce sont les blogs, Facebook, les autres réseaux sociaux. Je ne suis pas non plus adepte du jugement moral un peu hâtif sur l’exhibitionnisme car s’il s’agissait d’exhibitionnisme cela resterait un comportement très minoritaire. Or il est absolument majoritaire et nous montre bien l’acuité du problème de la disparition de l’espace public.

Propos recueillis par Aurélie Ghalim

1. [Pierre Alonso, « Big Data is algorithming you », Article11]↩

]]>
We believe, ils assistent https://www.causestoujours.be/linternet-change-facon-dont-decidons/ Mon, 23 Feb 2015 15:09:20 +0000 https://gsara.tv/causes/?p=806 Internet change la façon dont nous décidons

Pour le physicien Daniel Hillis, le réel impact d’Internet a été de changer la façon dont nous prenons des décisions. En permettant à des systèmes complexes de s’interopérer, de plus en plus, ce ne sont pas des êtres humains qui décident, mais un réseau adaptatif d’humains et de machines enchevêtrées. “Désormais, la programmation consiste à relier ensemble des systèmes complexes, sans comprendre exactement comment ils fonctionnent”, précise-t-il en montrant comment nos systèmes désormais se branchent sur d’autres données que les concepteurs du système ne maîtrisent pas. “Si nous l’avons créé, nous ne l’avons pas vraiment conçu. L’internet évolue. Notre relation au réseau est similaire à notre relation à notre écosystème biologique. Nous en sommes codépendants, et pas entièrement maîtres.

Nous avons incarné notre rationalité dans nos machines et leur avons délégué nombre de nos choix et de ce fait nous avons créé un monde au-delà de notre propre compréhension. Ce siècle commence avec une note d’incertitude. Nous nous apprêtons à vivre une crise financière causée par la mauvaise conception informatique des risques de notre système bancaire, nous débattons du changement climatique autour de ce que les ordinateurs prédisent des données. Nous avons lié nos destinées, pas seulement entre nous tout autour du monde, mais à nos technologies. Si le thème des Lumières était l’indépendance, notre propre thème est l’interdépendance. Nous sommes maintenant tous reliés, les humains et les machines. Bienvenue à l’aube de l’intrication1 » .

We believe, ils assistent

De la même manière qu’on a cru aux esprits, aux dieux, à Dieu, en la science expérimentale, l’homme du XXIème siècle croit dans les algorithmes. On croit aujourd’hui en l’algorithmie. On croit en la science du calcul et de la sélection par critères prédéfinis, à la modélisation informatique, aux mathématiques et à leurs rigides et incorruptibles lois  ….

Les algorithmes nous aident et nous assistent dans une multitude de tâches quotidiennes :
Ils nous disent ce qu’il faut lire (moteurs de recherches), regarder, acheter ….Ils nous disent le film qui va nous plaire, la musique qui nous fait danser, le porno qui nous excite. Ils sélectionnent notre partenaire sur les sites de rencontres, ils évaluent nos chances de succès conjugal. Ils nous orientent vers une formation qualifiante. … Ils m’indiquent quel chemin emprunter quand je suis en voiture,  ils conduisent même ma voiture et me mènent à bon port.

 

À Chicago, les programmes informatiques brassant des masses de données externes prévoient l’heure et l’endroit où les crimes ont le plus de chance de se produire, ils profilent et repèrent les individus dangereux sur les réseaux sociaux et transmettent aussi leurs données bancaires aux autorités : ils garantissent notre sécurité. Sécurité sanitaire également puisqu’ils seraient à même d’alerter sur les épidémies avant même l’OMS …. Ils annoncent votre grossesse avant que vous ne fassiez le test. Ce qu’il faut manger, boire, le nombre de calories ingérées, le nombre de pas à faire pour les éliminer. Ils m’aident à me maintenir en bonne santé, à me sentir bien…

Ce sont les algorithmes qui sélectionnent le bon candidat pour le bon boulot. Ils trouvent l’offre qui correspond le mieux à la demande. Ils garantissent la majorité des échanges monétaires quotidiens. Ils organisent de manière optimale note travail, notre chômage, notre insertion.

Depuis une dizaine d’années nous déléguons une part croissante de nos décisions personnelles à ces programmes qui brassent des multitudes de données (data). Ainsi, au niveau microscopique de ma vie personnelle et quotidienne, je pourrais encore m’étonner que Facebook manipule l’ordre de présentation des contenus de mes amis selon ce que le site pense savoir de moi. Et pourtant, si j’aime le foot, Facebook le sait et met les infos concernant les matchs en haut de ma timeline, même s’il ne s’agit pas de l’info la plus fraîche. Les algorithmes du réseau social brassent des données, repèrent des « schémas » comportementaux ou statistiques et vous soumettent, vous conseillent, vous suggèrent, vous proposent.

Libre à vous de cliquer ou pas. Mais l’influence et la puissance de l’algorithme façonne déjà notre monde, notre actualité, notre façon de voir tout cela et de l’interpréter. Ces programmes changent déjà profondément la vie personnelle (pour les personnes qui ne voient pas exactement ce qu’est Facebook aujourd’hui, ne vous sentez pas sauvés pour autant, pensez à Google qui vous soumet des résultats, pensez à votre GPS qui vous propose une route, pensez aux publicités sur votre téléphone portable, …).

Au point de vue macro, c’est-à-dire au niveau d’une population, les algorithmes peuvent se nourrir de millions de données personnelles anonymisées et des bases de données structurelles telles que les horaires de bus, les chiffres de fréquentation d’une autoroute, les résultats de la collecte de déchets de votre commune, etc. (ce que l’on appelle les données brutes).

Fort de ces millions de données insignifiantes seules mais significatives lorsqu’elles sont mises en relation, les algorithmes deviennent prédictifs. (par exemple, la SNCF développe une application pour prédire quels trains ont le plus de chances d’être bondés et vous suggère donc de prendre le suivant. Ce type d’application tient compte de votre âge, de votre situation géographique, des horaires de bus, du nombre de bureaux ou d’écoles dans votre quartier, etc.). Plus trivial aujourd’hui mais peut-être plus politique demain, trois système de prédictions s’affrontaient l’an dernier à coup de pronostics sur les prochains gagnants à la cérémonies des Oscars ( cliquez ici, c’est très bien fait). Lors de l’élection d’Obama en 2012, la prédiction s’était révélée remarquablement précise. Le choix avait été anticipé … De là à penser – « suggérer » – le président à l’avance … C’est vrai, pourquoi se déplacer le jour du vote si on connaît déjà l’avis de la majorité ?

L’évolution de l’intelligence artificielle inquiète

Au loup, au loup ! Alors, brûlons ces puces électroniques qui nous grattent et crackons ces programmes !! Pas si vite. Ces programmes nous assistent dans nos tâches quotidiennes et nous libèrent ainsi du temps pour faire autre chose. C’est aussi du confort….. En véritable devins informatiques, ces programmes nous promettent un doux futur où l’on serait débarrassé des contingences futiles et rébarbatives de nos choix d’actions. Ça pourrait se révéler très agréable…. D’ailleurs, ce futur, ils pourraient le composer à votre goût…

Au rythme soutenu de l’innovation informatique, on peut facilement imaginer pour demain un ordinateur personnel qui mêlerait des bouts de films, histoires, mythes, récits et actualités afin de vous composer selon un storytelling que vous appréciez, un film inédit et unique, un reportage incroyable, un monde imaginaire taillé pour vous…. La machine serait alors également celle qui nourrirait votre imaginaire, notre imaginaire… Douceur tranquille du paradis promis par l’assistance numérique….

Un cerveau collectif décentré sur le réseau ? Là, ça devient franchement effrayant ! Serons-nous totalement colonisés par nos propres assistants ? Les « machines qui pensent et apprennent » pourraient-elles dépasser en influence (et en détermination ?) la somme de nos pensées et actions humaines devenant ainsi en quelque sorte notre nouveau « maître » ? Ces machines mettent-elles en danger l’humanité ?

C’est en tout cas la question que se posent en ce début d’année 2015, les plus éminents spécialistes de l’ingénierie informatique (Que pensez-vous des machines qui pensent ?) qui dans leur inquiétude traduisent tout de même une grande foi dans le potentiel de ces technologies. Dans une lettre ouverte récente, un collectif de savants s’interroge et s’inquiète :

« Il existe désormais un large consensus selon lequel les recherches dans l’intelligence artificielle continuent à progresser et que l’impact sur la société va probablement s’accroître», estiment-ils, citant la possibilité « d’éradiquer des maladies et la pauvreté ».
«Étant donné le grand potentiel de l’intelligence artificielle il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges», insistent-ils« .

La question de la singularité est posée depuis quelques années avec de plus en plus d’insistance. Mais il faut garder la raison : tout comme les précédents modèles de représentation du monde (le système héliocentrique, la relativité restreinte, la physique quantique, …) ou d’analyse de celui-ci (analyses économiques, projections statistiques, météorologiques, philosophiques, …), la science algorithmique se base sur l’analyse et l’anticipation de sujets humains. Elle tente à l’imitation de nos comportements et raisonnements humains. Et nous, humains, nous sommes tous différents et faillibles. Le risque de voir une intelligence parfaite à nos yeux se trouve donc logiquement évacué. Pour être précis, précisons que les éminents tireurs d’alarme évoqués plus haut parlent également d’une IA (Intelligence Artificielle) qui nous serait inconnue, que l’on ne reconnaitrait pas.

Ensuite, le réel est intrinsèquement chaotique, imprévisible, trop complexe que pour éviter les erreurs et particularités de l’univers…. La promesse ne pourra donc pas être tenue et notre béatification/anéantissement ne se produira sans doute jamais dans ce monde, fut-il décrit et décortiqué par une armée de calculateurs. Et enfin, dans le cas où une ou des machines poseraient de réels problèmes, il suffirait de les débrancher  : off.

Il n’empêche qu’aujourd’hui, la question d’une relation personnelle et collective (donc sociale, sociétale) aux algorithmes (écrits dans un code ouvert ou propriétaire) est posée.
Dans ce redéploiement digital du champ des possibles, chacun (les états, les entreprises, les associations et les individus) a une responsabilité : la vigilance. Tout particulièrement sur le plan des droits humains. Il semble paradoxal que nos droits se voient globalement rognés ou mis en danger par l’existence d’un « monde numérique » que nous co-créons un peu plus chaque jour de manière immatérielle et décentralisée. Mais finalement, le droit, comme à peu près tous les aspects de notre vie, se trouve impacté par la vie des réseaux.

Cette inquiétude qui nous étreint aujourd’hui face aux technologies développées doit nous rappeler qu’il existe des enjeux bien présents dans ce champ : l’ouverture et la diffusion des données publiques, la nature ouverte ou fermée des programmes qui interagissent dans la sphère sociale-sociétale, la nature et le destinataire des données que NOUS publions actuellement, la forme que prend la notion de « vie privée » et la législation renouvelée qui l’accompagne.

Quant à la possibilité de voir émerger de nos machines une « singularité » destructrice, elle nous apparaît aujourd’hui comme un mythe en pleine construction. Et l’on sait qu’il y a des mythes qui peuvent être fondateurs.

Bernard Fostier

1. [https://www.internetactu.net/2010/02/09/comment-linternet-transforme-t-il-la-facon-dont-on-pense-15-un-reseau-dhumains-et-de-machines-enchevetrees]↩

Quelques lectures technico-paranoïaques :

Extra

DESTINÉE de G.Marchand remplace le mot par CALCULÉE.

« Elle s’en va et elle revient, elle est comme une chanson populaire » ainsi commence l’article d’Internet Actu cité plus haut et qui aborde la question de la singularité comme un risque existentiel – ou pas. Inspiré par cette petite phrase et mon amour pour la chanson française, je vous propose donc la redécouverte de ce TUBE des années 1980, un grand classique :  Destinée de Guy Marchand. (là je sens que je vais prendre des sarcasmes bien sentis au bureau …).  Redécouverte et relecture via le prisme de cette problématique algorithmique discutée ci-dessus. Just for lulz

Destinée XXIe par G.E-marchand(.com)

Destinée Calculés
On était tous les deux destinés évalués
A voir nos chemins se rencontrer
A s´aimer sans demander pourquoi
Toi et moi

Destinée Followé
Inutile de fuir ou de lutter
C´est écrit dans notre Destinée jeux de données
Tu ne pourras pas y échapper
C´est gravé

{Refrain}
L´avenir,
Malgré nous doit toujours devenir
Tous nos désirs d´amour inespérés, imaginés, inavoués
Dans la vie
Aucun jour n´est pareil tu t´ennuies
Tu attends le soleil serveur impatiemment, éperdument, passionnément

Destinée Reliké
Depuis longtemps j´avais deviné contextualisé
Qu´à toi l´amour allait m´enchaîner
Quand je rencontrerais ton regard
Quelque part

Destinée Envoyée
Où es-tu toi qui m´es Destinée Conseillée ?
Si jamais vous vous reconnaissez
Je voudrais vous entendre crier
M´appeler

{Au refrain}

Destinée, Profilé
Encore une fois le cœur déchiré
Je suis un clown démaquillé
Le grand rideau réseau vient de se baisser
Sur l´été

Destinée Appairés
On était tous les deux destinés agrégés
A voir nos chemins se rencontrer
A s´aimer sans demander pourquoi
Toi et moi

{Au refrain}

Destinée profilés
On était tous les deux destinés évalués
A voir nos chemins se rencontrer
A s´aimer sans demander pourquoi
Toi et moi

Destinée Déchiffrés
Inutile de fuir ou de lutter
C´est écrit dans notre destinée jeu de données
Tu ne pourras pas y échapper
C´est gravé

Destinée profilé
Encore une fois le cœur déchiré
Je suis un clown démaquillé
Le grand rideau réseau vient de se baisser planter
Sur l´été
#FIN#

]]>