Surveillance Self-Defense – Causes Toujours https://www.causestoujours.be Blog du Trimestriel Causes Toujours Thu, 03 Dec 2015 15:40:42 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.9.4 Surveillance Self-Defense https://www.causestoujours.be/surveillance-self-defense/ Tue, 24 Feb 2015 14:08:30 +0000 https://gsara.tv/causes/?p=858

Le scandale planétaire de la surveillance de masse, notamment révélé au grand public suite à l’affaire Snowden, ne cesse de poser des questions sur l’avenir de nos sociétés et sur la notion de démocratie. De nombreux acteurs dénoncent quotidiennement et partout dans le monde l’évolution inquiétante du monitoring de citoyens ordinaires (Pervasive Monitoring), catégorisés grâce à une technologie de plus en plus complexe, en fonction de leurs préférences, de leurs actions, de leurs achats ou encore de leur orientation politique. Edward Snowden nous renseigne à juste titre que nous devrions tous-t-es nous sentir concerné(e)s car « bien que nous n’ayons rien à nous reprocher, nous sommes enregistré(e)s et les capacités des systèmes de stockage augmentent chaque année. Nous pouvons éventuellement être suspecté(e)s suite à un mauvais appel et les dispositifs technologiques permettent, grâce à nos données, de retracer toutes les décisions que nous avons pu prendre ou toutes les conversations que nous avons pu avoir avec nos amis. Dès lors, ils peuvent nous attaquer sur la base de ces éléments » (NSA whistleblower Edward Snowden: ‘I don’t want to live in a society that does these sort of things’). Les noms des différents programmes de surveillance tels que Prism, XKeyscore ou encore Tempora sont désormais les adjectifs d’un pouvoir totalitaire dont l’appareil tentaculaire repose sur une étroite collaboration entre la NSA, la GCHQ, les géants d’Internet et de nombreuses sociétés privées.

Pouvons-nous encore nous réapproprier nos données et préserver l’idéal d’un Internet comme lieu d’échange des savoirs et de communication sans que la Machine ne se retourne contre nous ?

Notre dossier Surveillance Self-Defense tente d’illustrer cette problématique avec un premier article, « Mesures liberticides pour lutter contre le terrorisme ? », consacré au dogme sécuritaire dont les moyens d’action se traduisent par la mise en place d’un arsenal législatif brouillant sensiblement les frontières entre la sécurité et nos droits fondamentaux. La tribune de La Quadrature du Net, « Snowden, Terminator et nous », invoque une lutte à mener pour reprendre le contrôle de nos machines. L’article « Moteurs de recherche : le règne des Cyclopes à œillères » pose la question de la liberté d’expression et l’accès à la connaissance collective sur Internet alors même qu’une grande partie du web n’est pas indexée par nos moteurs de recherche conventionnels. Enfin, « Big Data ou la tyrannie du réel – Entretien avec Antoinette Rouvroy » explore la notion de gouvernementalité algorithmique, ce nouveau pouvoir dont le but est de catégoriser et d’évaluer les propensions, les opportunités et les risques que représentent les personnes.

Aurélie Ghalim

 

]]>
Mesures liberticides pour lutter contre le terrorisme? https://www.causestoujours.be/mesures-liberticides-lutter-contre-terrorisme/ Mon, 23 Feb 2015 15:14:24 +0000 https://gsara.tv/causes/?p=741 Depuis le début du XXIe siècle, la liste des attentats terroristes n’a eu de cesse de s’allonger en Europe. Finlande, Espagne, Angleterre, Norvège, Belgique, France, Danemark… Ces pays ne sont pas seulement liés par la bannière bleue étoilée, mais également par le sang versé de centaines de victimes d’actes terroristes sur leur territoire. Chaque attentat fut un choc pour les peuples touchés et leurs voisins, chaque mort fut un combustible alimentant les flammes de la colère en chacun de nous. Face à une violence n’ayant aucune commune mesure avec les actes quotidiens de nos sociétés occidentales, l’incompréhension et le dégoût, parfois la soif de vengeance, sont autant de sentiments qui nous traversent ne serait-ce que l’espace d’un instant. C’est également dans ces moments-là que ces sentiments très forts peuvent servir d’assise aux groupes politiques pour pouvoir faire passer des lois que nous n’aurions jamais approuvées en d’autres circonstances. Une forme de « stratégie du choc », mais concentrée ici sur l’adoption d’un arsenal législatif brouillant sensiblement les frontières entre la sécurité et nos droits fondamentaux.

 Exemple US

C’est ainsi qu’une population aussi éprise de liberté individuelle et pathologiquement antagoniste à toute immiscion de l’État, comme le peuple états-unien, a permis l’adoption d’un texte législatif connu du grand public sous le nom de Patriot Act. Un texte qui établit un statut particulier de « combattant illégal » et qui attribue ce statut à toute personne qui serait soupçonnée de liens avec des activités terroristes, en laissant une marge d’appréciation très large aux agences gouvernementales en ce qui concerne la matérialité de ce lien. Un texte qui permet ainsi de détenir un individu sans inculpation, sans durée maximale de détention, sans droit à un avocat, sans droit de communiquer avec qui que ce soit pour assurer sa défense, sans moyen de prouver son innocence par un quelconque moyen de procédure. Un texte qui permet de pénétrer les espaces numériques privés de n’importe quelle personne, morale ou physique, pour y dénicher des informations qui seraient susceptibles d’aider la lutte contre le terrorisme, même si cela viole la vie privée, le secret industriel ou la propriété intellectuelle. Un texte orwellien dans un pays au budget technologique illimité.

Comment en est-on arrivé là ? C’est fort simple. Après les attentats du World Trade Center le 11 septembre 2001, toute personne qui aurait émis une critique face à la prise de mesures drastiques pour lutter contre les auteurs d’une telle agression sur le sol américain aurait été perçue ipso facto comme un traître par ses pairs et par l’opinion publique. Quel parlementaire aurait pu sembler freiner la lutte contre « les ennemis du monde libre » sans que son intervention ait signifié son suicide politique ? Quelle organisation ayant une certaine assise aurait pu se lever contre le Patriot Act et convaincre une opinion publique survoltée qui était prête à déchaîner les enfers sur toute personne qui aurait été désignée comme auteur ou coauteur de l’assassinat de 3000 personnes ce jour-là ? Hé bien la réponse est fort courte : lorsque le texte est passé devant le Congrès américain, un seul Sénateur (Russ Feingold) a émis des objections au projet de loi… ce qui ne fut bien évidemment pas suffisant pour empêcher quoi que ce soit. Ainsi, le 26 octobre 2001, soit tout juste 1 mois et demi après les attentats, le Patriot Act rentrait dans l’arsenal juridique américain avec toutes les dérives qu’on connaît aujourd’hui.

Et nous ?

Pourquoi parler aujourd’hui de ces aventures législatives datant d’il y a bien plus de 10 ans ? Parce qu’aujourd’hui, c’est notre territoire qui est touché et qu’il faut rester vigilant sur les prises de position parfois excessives que peuvent prendre certains dirigeants politiques.

En France, il n’aura pas fallu longtemps pour qu’à la suite de l’attentat de Charlie Hebdo, certains politiques émettent l’idée d’adopter des textes légaux similaires au Patriot Act américain. La députée UMP Valérie Pécresse ne fit d’ailleurs pas dans la finesse et déclara sur Twitter :

 

pecresse

Mais d’autres, plus nombreux, furent plus circonstanciés et ont proposé un plus grand contrôle de l’Internet et des réseaux sociaux en particulier.

En Belgique, nous avions déjà une loi encadrant les méthodes particulières de recherche (permettant des écoutes téléphoniques entre autres) et une loi post-11/9 adoptée en décembre 2003 relative aux infractions terroristes (pour ne citer qu’elles). Néanmoins, après le démantèlement d’une cellule à Verviers en janvier dernier, les dispositifs législatifs ne semblent tout d’un coup plus suffisants pour le gouvernement Michel. C’est ainsi que 12 propositions ont été adoptées par le gouvernement fédéral.

Parmi cette liste de mesures, il y a la volonté d’élargir les possibilités de mises sur écoute des téléphones et « l’assouplissement » de la procédure y afférente ; entendez par là, une procédure expédiée qui aura forcément un impact sur la qualité de l’évaluation de la pertinence de la mesure et du respect du droit à la vie privée d’un citoyen.

La question d’un plus grand contrôle de l’Internet, des réseaux sociaux et des moyens de communication mobile utilisant le moindre cryptage comme WhatsApp ou Snapchat sont également évoqués. Ce qui n’est finalement qu’un écho de ce que David Cameron et Barack Obama proposaient à la Chambre des Lords en janvier 2015.

Enfin, à une échelle européenne, au-delà de l’insertion systématique d’articles octroyant des passe-droits aux agences de sécurité nationale, à l’armée et aux services de police dans des directives protégeant la vie privée des citoyens (exemple : l’article 3 de la directive 65/46/CE relative à la protection des données personnelles des personnes physiques), plusieurs ministres de l’Espace Schengen souhaiteraient voir adopter un système de PNR (Passenger Name Record). Un tel système collecterait les données personnelles de toutes les personnes utilisant un avion pour se déplacer dans l’espace Schengen et ces données seraient échangées entre les différents services de sécurité des pays concernés.

Cette idée est débattue en dehors des instances démocratiques conventionnelles et n’est même pas encore sur la table des parlementaires de l’Union européenne, ni même de la Commission. C’est Bernard Cazeneuve qui avait déjà proposé cette idée aux divers ministres de l’Intérieur participant au G6 en novembre 2014. L’idée qui a été jugée à cette époque liberticide par de nombreux politiques est aujourd’hui remise sur le tapis, après les attentats de Paris en début d’année. Curieusement, ce qui semblait liberticide hier, l’est nettement moins aujourd’hui et ce dossier est en train d’avancer tout doucement dans l’ombre, recevant même l’assentiment (conditionné) de certaines institutions censées protéger le droit à la vie privée des citoyens.

Un Patriot Act en Europe ?

En Europe, nous sommes encore loin du Patriot Act à l’américaine fort heureusement. Néanmoins, une série de mesures sont actuellement envisagées pour renforcer nos dispositifs sécuritaires et de surveillance. Ces dispositifs viseraient les communications, l’Internet, les données personnelles de voyageurs, … autant d’atteintes à la liberté des citoyens qui nous semblent excessives.

En matière légale, il n’est pas rare qu’il y ait des conflits de droits, et ce, particulièrement en matière de droits fondamentaux. Liberté d’expression versus apologie du terrorisme ; Liberté de circulation versus sécurité du territoire ; Droit à la vie privée versus lutte contre le terrorisme… Dans pareil cas, il est exigé de la part de toutes les institutions constitutionnelles de l’Union d’opérer une analyse de la pertinence et de la proportionnalité de l’atteinte à un droit fondamental pour préserver un autre droit. Or, il est ici manifeste que ces mesures ne sont que du vent.

En effet, est-ce que récolter plus de données sur les citoyens, espionner plus de conversations, collecter plus de renseignements sur les déplacements, aurait permis d’éviter le massacre de Charlie Hebdo et du supermarché casher ? La réponse est NON. Les terroristes étaient connus des services de police, des renseignements et de la justice. Ces institutions connaissaient leur historique, connaissaient leurs voyages, avaient mis leurs téléphones sur écoute pendant un certain temps. Pourtant cela n’a pas permis d’empêcher le massacre d’innocents.

Notre arsenal juridique serait insuffisant… Pourtant il a permis de démanteler plusieurs cellules terroristes à Verviers, Bruxelles et Anvers.

Est-ce que les mesures liberticides auraient pu empêcher les attaques de dimanche dernier au Danemark ? Nul ne le sait encore, mais nous émettons de sérieux doutes, le terroriste ayant la nationalité danoise et ayant agi tout seul ; il n’avait donc pas besoin de parler à quelqu’un par Facebook pour commettre son acte.

Parfois certaines idées qui semblent bonnes au premier abord ne constituent qu’un pas supplémentaire vers un monde avec moins de libertés fondamentales pour ses citoyens. Il faut rester alerte et ne pas succomber aux sirènes de la sécurité. Le risque zéro n’existe pas, il ne faut donc pas chercher à s’enfermer dans une cage pour se donner l’illusion d’accéder à ce mythe et surtout, il y a lieu de se rappeler cette citation de Nietzche : « Quand on lutte contre des monstres, on doit veiller à ne pas en devenir un soi-même ».

 Yvan Leiva

]]>
Snowden, Terminator et nous https://www.causestoujours.be/snowden-terminator/ Mon, 23 Feb 2015 15:13:23 +0000 https://gsara.tv/causes/?p=747 Tribune de Jérémie Zimmermann, co-fondateur de La Quadrature du Net, publiée dans Mediapart le 5 juin 2014.

Il y a un an jour pour jour, un courageux jeune homme nommé Edward Snowden a sacrifié une grande partie de sa vie et de ses libertés pour nous révéler la dure réalité du monde dans lequel nous vivons. Ses révélations en cours nous enseignent et nous permettent de comprendre à quel point notre relation à la technologie a changé à tout jamais, et pourquoi nous ne pourrons plus faire confiance aux machines. Edward Snowden nous a aussi montré le chemin à emprunter pour reprendre le contrôle des machines, et l’importance de cette tâche que plus personne ne peut ignorer.

Nous vivons déjà à l’ère du Cyborg. Nos humanités sont pratiquement indissociables de nos machines. Les fonctions de nos corps, communiquer, se rappeler, nous reconnaître les uns et les autres, nos mémoires personnelles et communes, ainsi que la plupart de nos travaux sont maintenant inséparables des fonctions des machines.

Les ordinateurs, téléphones et serveurs sont tous interconnectés à travers des logiciels et les réseaux de communication. Cette Machine globale interconnectée est de plus en plus en train de s’imbriquer avec notre humanité interconnectée à l’échelle globale – bientôt sur nos visages, poignets, et sous nos peaux – et la plupart d’entre nous lui a jusqu’à présent accordé une confiance quasi-totale.

Pourtant, dans cette ère du Cyborg, nous voyons grâce à Edward Snowden que cette Machine mondiale a été tournée toute entière contre nous. Elle a été transformée en un outil de surveillance généralisée et de contrôle des individus, au prix de violations massives de nos droits fondamentaux. Alors que de nombreux abus ont déjà été exposés, la Machine représente un immense, horrifique, potentiel d’abus et de répression, de l’espionnage politique à l’espionnage économique. N’importe quel mouvement politique, n’importe quelle révolution, n’importe quelle idée, pourraient être écrasés en un clin d’œil.

Toute la Machine a été dévoyée de sa fonction initiale. Alors qu’elle nous obéissait, à nous, ses utilisateurs et propriétaires, elle a été reprogrammée pour obéir à ses vrais maîtres, une alliance aux contours flous mêlant quelques-unes des plus grandes entreprises du monde comme Google, Apple, Facebook et Microsoft, des services de renseignement hors de tout contrôle comme la NSA, le GCHQ ou la DGSE, et leurs milliers de partenaires publics ou privés (dont une myriade de contractants privés et au moins 950 000 citoyens américains disposant d’une accréditation « Top Secret »).

Beaucoup d’entre nous trouvent plus confortable d’ignorer la vérité que de modifier nos habitudes. La vérité est si violente et effrayante qu’elle devient trop difficile à accepter. Peut-être que l’écart entre la réalité et le confort des illusions est trop grand.

Pourtant, chacun d’entre nous porte l’immense responsabilité de se confronter à des questions qui seront déterminantes pour l’avenir de nos sociétés, notre relation au pouvoir ou nos relations entre individus. Ou est la frontière entre nos humanités et la Machine ? En avons-nous consciemment accepté la définition ? Comment pouvons-nous reprendre le contrôle de cette Machine devenue partie intégrante de nous-mêmes ?

Ce qui est en jeu est la définition même de nos humanités. Car la surveillance massive implique la violation et potentiellement l’annihilation de nos intimités, ces espaces où nous décidons, en pleine confiance – seuls ou avec d’autres – d’être pleinement nous-mêmes, d’expérimenter avec nous-mêmes, d’explorer de nouvelles idées ou théories, d’écrire, chanter et créer. Dans ces espaces, nous développons nos identités, la définition élémentaire de qui nous sommes…

Heureusement, Edward Snowden nous a aussi montré une voie de sortie. Nous pouvons exiger des comptes de nos gouvernements, et nous pouvons très certainement échapper à la surveillance de masse, et la rendre beaucoup plus coûteuse. En quittant les technologies qui nous contrôlent, nous pouvons utiliser, promouvoir et développer des technologies qui nous libèrent. C’est un long chemin, nécessitant de grands efforts, d’en finir avec les habitudes et la confiance aveugle que nous plaçons dans la Machine, et nécessitant que tous s’approprient la technologie. À travers l’utilisation de logiciels libres, d’architectures décentralisées et de chiffrement de bout en bout, nous pouvons – probablement – reprendre le contrôle de la Machine.

C’est notre devoir, en tant que civilisation et en tant qu’individus. Nous devons par tous les moyens combattre cette Machine d’oppression, avant qu’il ne soit trop tard, afin de reconquérir et reprendre possession de notre humanité.

Jérémie Zimmermann

Cet article est publié sous licence Creative Commons CC BY-SA 4.0

]]>
Moteurs de recherche : le règne des Cyclopes à œillères https://www.causestoujours.be/moteurs-recherche-regne-cyclopes-oeilleres/ Mon, 23 Feb 2015 15:12:30 +0000 https://gsara.tv/causes/?p=772 « Tout le monde a le droit de parler, mais reste à savoir qui sera entendu »

Comme pour une rédaction lors d’un examen de philo, c’est de cette phrase d’Aaron Swartz qu’est partie ma réflexion sur les libertés des internautes en particulier la liberté d’expression et d’accès à l’information. Je me dois d’abord de vous présenter l’auteur de cette réplique : Aaron Hillel Swartz (né le 8 novembre 1986 à Chicago, mort le 11 janvier 2013 à New York) est un informaticien américain, écrivain, meneur politique et militant de l’Internet. Il s’est impliqué dans le développement du format de flux Web RSS, l’organisation Creative Commons, le cadriciel de site Web webpy.org et le site d’actualités Reddit. Les travaux de Swartz ont également porté sur la sociologie, l’éducation civique et l’activisme (merci, Wikipedia). Je ne saurais par ailleurs que trop vous conseiller le documentaire qui lui a été consacré The Internet’s Own Boy.

Mais revenons-en à nos moutons. Beaucoup d’hypocrisie règne dans nos sociétés concernant les libertés sur Internet. Combien sont-ils à s’offusquer et crier au scandale quand un État (totalitaire) bloque l’accès à certains sites, blogs ou réseaux sociaux  ? Le mois dernier encore, la justice turque menaçait d’interdire totalement l’accès à Facebook depuis la Turquie si la compagnie ne bloquait pas un certain nombre de pages relayant des contenus considérés comme offensants. Ô décisions liberticides. Certes nous n’avons pas Erdogan, mais nous avons quelque chose de bien plus insidieux et peut-être plus « efficace » dans la normalisation de la pensée. J’ai nommé Google. Le but n’est pas ici de faire le procès du mastodonte des moteurs de recherche, mais plutôt de remettre en cause la fâcheuse tendance de la majorité1 (moi y compris) à l’utiliser les yeux fermés, mû par une foi inébranlable en son omniscience et s’imaginant que son seul but est de nous mener vers les voies de la connaissance.

 

L’arbre qui cache la forêt

Ce que nous, navigateurs lambda, connaissons du Web, n’est en fait qu’une toute petite partie de celui-ci. La pointe de l’iceberg pour reprendre une métaphore très utilisée pour expliquer les notions de Web surfacique et Web profond (à cela s’ajoute encore, entre autres, le dark Web mais faute de scaphandre et de temps, nous ne descendrons pas si bas dans les Abysses de l’Internet). Ce Web profond est constitué de toutes les pages potentiellement indexables par les moteurs de recherche mais qui ne le sont pas bien souvent pour des raisons techniques (manque de liens retours, erreurs dans le code HTML, besoin d’un identifiant, langage ignoré des moteurs de recherche, etc.) Cette partie non indexée du Web serait, selon une étude de juillet 2001 réalisée par l’entreprise BrightPlanet, 500 fois plus vaste que ce à quoi les moteurs de recherche nous donnent accès. Son contenu n’est d’ailleurs pas fait que de choses viles et douteuses, on y trouve des milliers de ressources de grande valeur validées par des experts faisant autorité dans leurs domaines respectifs. Enfin bref, pour l’omniscience de Google et ses concurrents il faudra donc repasser. Si sur ces contraintes techniques je ne demanderai pas à Google de faire son mea culpa, je m’interroge par contre, sur sa manière de classer les « quelques » sites qui restent, car dans ce Web visible il existe bien des niveaux de visibilité. Surtout quand on sait que la population qui dépasse la 3e page de résultats est assez restreinte.

Le colibri et le pigeon2

Au commencement était l’algorithme — cette formule mathématique qui trie toutes les données stockées dans l’index du moteur de recherche en fonction de votre requête — suivi du sacrosaint PageRank3. Lorsqu’un document est pointé par de nombreux hyperliens, son PageRank augmente. Plus le PageRank est élevé, plus il aura de chances d’être affiché dans les premiers résultats d’une recherche. Ce système donne une indication de la « popularité » du document parmi les autres documents du Web. Bien que cette notion de popularité soit discutable, le PageRank a néanmoins donné lieu à un immense concours de zizi 2.0 pour se retrouver dans le haut du classement. Sans compter que ce sont les premiers résultats qui seront le plus consultés et donc potentiellement les plus recités, ce qui ne fera que conforter leur position. L’un des gros problèmes de ce système, c’est que pour se faire une place au soleil, les créateurs de contenus sont prêts à ce que leurs sites deviennent conformes aux règles des engins de recherche et non plus dirigés (en priorité) vers les utilisateurs. Google met très régulièrement son algorithme à jour pour le rendre plus performant, si bien qu’il se voit aujourd’hui comme un moteur de réponses, prétendant anticiper les désirs de ses utilisateurs. Peut-être, mais quand je recherche une information et que j’ai besoin de faits, si tout ce que j’ai est une réponse qui « correspond » à mon système de pensée et me conforte dans ce que je sais déjà, je n’aurais pas pris la peine d’allumer mon ordinateur. Je ne parle pas trouver l’heure d’ouverture de la piscine communale ou une recette simple et rapide de falafels, mais de ces choses de la sphère scientifique, d’opinion ou intellectuelle (appelez ça comme vous voudrez) un peu laissées de côté. Et puis, vu le nombre de publicités pour des bottes fourrées dont je suis bombardée, ça fait un bon moment que je me suis dit que les mecs de l’autre côté de l’écran n’avaient pas compris grand- chose à la teneur de mes envies.

Le fric c’est clic

Parlons un peu business. J’évoquais quelques lignes plus haut les contingences techniques qui empêchent certains sites d’être indexés. S’il y a des sites hors normes, il doit bien y avoir quelqu’un qui fixe la norme. C’est précisément ce que fait le World Wide Web Consortium (ou W3C). Parmi les 396 membres de ce club un peu sélect : Apple, BlackBerry, eBay, Facebook, Microsoft et bien entendu Google. « Il faut bien comprendre que les grands financeurs du W3C ont pour principal objectif de rentabiliser leurs investissements et de rapporter le maximum de dividendes à leurs actionnaires, et non pas de développer l’intelligence collective de l’humanité. Si leurs objectifs passent par une augmentation de l’intelligence collective, tant mieux, ils ne sont pas contre a priori, bien sûr, sinon, tant pis ! » explique Pierre Lévy4 Le résultat : une orientation de la recherche très axée sur ce qu’on appelle le Click stream marketing, et donc le revenu par clic. En effet, les moteurs de recherches d’entreprises privées ont surtout intérêt à répertorier des liens très fréquentés, car à fort potentiel de revenus publicitaires. La petite devise du W3C « Leading the Web to its full potential » prend donc un sens bien moins philanthropique si son auteur avait des dollars dans les yeux en pensant à ce potentiel. Mais le plus inquiétant à mon sens est la première partie, « leading the web » à la fois traduisible par « mener le Web » ou « diriger le Web ». Le monopole financièrement intéressé, quand il concerne l’accès à l’intelligence collective, ne saurait être une bonne chose.

Dans le même état d’esprit, j’aurais  voulu vous parler de l’illogisme contondant qu’il y a à faire payer des articles scientifiques issus de recherches financées par l’argent public (un autre combat d’Aaron Swartz). Mais l’espace qui m’est imparti me permettra seulement de conclure par cette phrase en réponse à celle qui a précédé ce pseudo pamphlet de noob semi-conscientisée et informée : tout le monde a le droit de chercher, mais peu décident de ce que l’on trouve.

Maureen Vanden Berghe

1. [En Belgique en janvier 2015 95,34 % des utilisateurs de moteurs de recherche utilisaient Google — source StatCounter]↩
2. [Colibri et Pigeon sont des paramètres supplémentaires de l’algorithme de Google. Le premier serait capable de déduire le
contexte de votre recherche pour améliorer les résultats. Le second lui améliore les résultats en lien avec des localisations. À
cette animalerie nous pouvons également ajouter le Pinguin et le Panda qui sont eux des filtres de pénalité ajoutés à
l’algorithme de classement des résultats de Google pour punir des sites de « mauvaise qualité ».]
↩
3. [L’algorithme tient également compte des termes figurants sur le site Web, le niveau d’actualisation du contenu, votre
région…]
↩
4. [Pierre Lévy est à la fois philosophe et directeur de recherche, au Canada, d’un projet de « métalangage » permettant aux
internautes de « coder le sens » et pas simplement les données. Cette citation provient d’une interview qu’il a donnée à
Multitudes pour l’article « Au-delà de Google. Les voies de l’intelligence collective ».]
↩

]]>
Big Data ou la tyrannie du réel – Entretien avec Antoinette Rouvroy https://www.causestoujours.be/big-data-tyranie-du-reel/ Mon, 23 Feb 2015 15:11:14 +0000 https://gsara.tv/causes/?p=801 Les Big Data, nouveau champ de la modélisation sociale, prétendent capturer le réel comme tel. Antoinette Rouvroy nous explique comment la « gouvernementalité algorithmique », ce nouveau pouvoir, tente de catégoriser et d’évaluer les propensions, les opportunités et les risques que représentent les personnes.

Antoinette Rouvroy, docteur en sciences juridiques de l’Institut universitaire européen et chercheuse qualifiée au FNRS, se consacre à la philosophie du droit et à la philosophie des normes. Rattachée au Centre de Recherche Information, Droit et Société (CRIDS) à l’université de Namur, Rouvroy développe une approche interdisciplinaire ou même plutôt indisciplinaire. Son intérêt porte sur le rapport des modes de production du savoir au départ de la génétique et des technologies de l’information. Quelles sont les conceptions du sujet qui se développent en articulation avec les nouveaux modes de production du savoir et les nouveaux modes d’exercices du pouvoir ?

Selon vous, les données brutes et les Big Data permettent de créer des profils ou des modèles de comportement. Pouvez-vous nous expliquer cette problématique et les risques qui en découlent ?

Bien que les Big Data peuvent être utilisées dans d’autres domaines que celui de la modélisation sociale (par exemple dans la gestion de l’environnement ou de l’astronomie), ce qui m’interpelle, ce sont les nouvelles possibilités de catégorisation et d’évaluation des propensions, des opportunités et des risques que représentent les personnes. Il s’agit d’une nouvelle méthode pour évaluer et catégoriser les individus. Les données brutes constituent des nouveaux objets dans le paysage sémiotique – le paysage des signes et des signaux. Tout d’abord, les données brutes ne fonctionnent pas du tout comme des icônes. Elles ne font pas signe par ressemblance aux choses auxquelles elles sont censées faire signe. Une donnée brute ne ressemble à rien. Elle est très souvent « anonymisée », désindexée et décontextualisée. Elles sont également ininterprétables et fonctionnent comme un pur signal quantitatif, agrégeable à un niveau supra-individuel sous forme de profil (modèle de comportement). Ensuite, bien que l’on parle souvent de traces numériques, les données brutes ne fonctionnent pas non plus comme des traces. Je pense que c’est une métaphore trompeuse car une trace, au regard des théories sémiotiques, se définit par le fait qu’elle retient, comme une empreinte, la marque d’un contact physique avec la chose pour laquelle elle fait signe. Or, une donnée brute n’a aucune mémoire dans sa forme et ne garde aucun passage ni aucun contact avec un corps ou même avec un mouvement que nous aurions pu faire. De plus, elles ne fonctionnent pas non plus comme un signe conventionnel, ni comme un symbole dans la mesure où les symboles – comme par exemple, les signaux routiers – tirent leur signification d’une convention antérieure. Enfin, les données brutes n’émergent pas non plus de la nature mais sont produites grâce à des processus sophistiqués d’anonymisation, de désindexation et de décontextualisation. Ce sont des données qui sont par la suite expurgées de toute signification singulière et de tout lien avec ce qui pourrait les rattacher à un sens intelligible pour l’être humain.

En ce qui concerne les Big Data, elles ne sont pas constituées uniquement de données brutes. Les Big Data forment un ensemble de données de différentes natures. Il y a les données brutes, comme caractérisées ci-dessus mais aussi les données à caractère personnel relatives à des individus identifiés ou identifiables, les données de localisation, les images, les sons, les trajectoires et toutes sortes de données extrêmement complexes. On parle aussi des données qui émergent de l’administration – Hard Data – et celles issues des réseaux sociaux – Soft Data.

Les Big Data enflent à très grande vitesse et constituent des quantités immenses, stockées dans des entrepôts de données traitées en temps de réel. On fait référence aux Big Data à partir du moment où l’on franchit un certain seuil de complexité et de vitesse. Ces quantités seront encore plus importantes à partir du moment où se développera l’Internet des objets.

Quantité, vélocité et complexité. Comment traiter à la fois des images, des sons et des trajectoires ? Nos méthodes traditionnelles de traitement des bases de données ne sont plus adéquates. Nous sommes aujourd’hui forcés d’automatiser la production de savoir à partir des données brutes et d’accélérer la transformation de ces données en information ou en savoir. Ce sont les algorithmes qui permettent d’automatiser la production de savoirs, d’informations et de modèles au départ de bases de données gigantesques et extrêmement complexes. Comment fonctionnent ces algorithmes utilisés spécifiquement dans les applications de ce que l’on appelle les data mining – le forage des données ou d’exploitation des données, le profilage et la fabrication de modèles relativement prédictifs au départ de données ? On fait tourner des algorithmes dont le travail consiste à détecter des corrélations entre des données recueillies dans des contextes hétérogènes. Le but est de faire surgir des profils ou des modèles de comportements qui seront prédictifs dans la mesure où ces corrélations sont récurrentes, indépendamment de toute notion de cause. On passe des ambitions de la rationalité moderne qui liait les phénomènes à leurs causes à une sorte de rationalité post-moderne purement statistique qui vise à faire émerger ou à faire visualiser – la visualisation des données – des corrélations entre des données tout à fait hétérogènes qui ne sont liées par aucune forme de causalité. Plus on a de quantités massives de données, plus on peut parvenir à des prédictions de comportement relativement fines. C’est donc la quantité qui assure la validité des modèles plutôt que la validité du modèle a priori. D’ailleurs, le modèle ne pré-existe pas à la collecte et au traitement des données. Autrement dit, dans le cas du data mining, des hypothèses sur le monde ne pré-existent pas au traitement des données. Ce sont plutôt les algorithmes qui feront surgir des hypothèses et des modèles.

C’est par rapport à ce constat que vous introduisez la notion de gouvernementalité algorithmique.

Ce sont surtout des dispositifs qui nous dispensent de toute une série d’opérations mentales sur la vérité et qui nous dispensent de devoir comprendre les causes des phénomènes puisqu’ils prétendent prédire la survenance de choses que l’on redoute ou de choses que l’on souhaite sans s’intéresser à leurs causes. Ces dispositifs seraient capables de prédire à la fois des actions terroristes mais également le passage à l’acte d’achat. Ils promettent de pouvoir gérer ce qui n’est que de l’ordre de la potentialité, du possible, de l’avenir sans avoir à interroger les causes des phénomènes, sans avoir à interroger les personnes sur ce que sont leurs préférences ou leurs choix. L’idée est de se dispenser de toute forme de rencontre et de gérer la fluidité en temps réel. Il s’agit d’une manière de gouverner qui nous dispense de prendre des décisions par nous-mêmes. Les gouvernants, les entreprises, les policiers sont écartés. On va s’en remettre de plus en plus à ce que l’on appelle des « algorithmes de recommandation » qui ne prennent pas nécessairement la décision pour nous mais qui nous recommandent de nous diriger vers une direction précise.

Il n’est pas étonnant de constater que ce modèle soit de plus en plus appliqué à la sécurité…

Il existe une idéologie des Big Data qui les présente comme la solution à tous les problèmes. C’est le solutionisme de la Silicone Valley. Depuis le 11 septembre 2001, les coûts du personnel de sécurité dans les aéroports ont augmenté très significativement et représentent une charge financière assez importante pour les états. À partir du moment où l’on peut automatiser la détection et l’évaluation anticipative des risques, il est certain qu’il y aura une tentation de remplacer le personnel de sécurité par des machines. Il existe un réseau d’intérêts convergeant vers une utilisation intensive de ces dispositifs. Ceux-ci sont présentés comme une méthode beaucoup plus rationnelle que l’évaluation humaine dans la mesure où l’on pense qu’un algorithme est aveugle aux préjugés racistes, de genre, etc. Les algorithmes ne recouperaient aucune catégorisation socialement éprouvée et paraîtraient beaucoup plus objectifs. C’est une promesse à la fois de rationalisation mais aussi d’accélération. Cela permettrait de transformer les aéroports en des lieux commerciaux sans zone de transit où l’on pourrait faire passer les contrôles de sécurité uniquement aux personnes qui seraient désignées à risque par les algorithmes. Il y a à la fois un rêve de plus grande fluidité, d’économie de personnel et d’objectivation. Les industriels de la sécurité se sont saisis de ces dispositifs et les vendent comme étant la garantie de la sécurité absolue. On sait par ailleurs que ces dispositifs ne sont pas exempts de biais. Ce sont de véritables boîtes noires dans lesquelles les biais ne sont pas nécessairement visibles. De plus, ces dispositifs dans le domaine de la sécurité sont parfois importés de zones géographiques en guerre. Par exemple, Israël exporte ces techniques vers les Etats-Unis et l’Europe. Or ces dispositifs (les algorithmes) ont été fabriqués dans le contexte du conflit Israélo-Palestinien.

Il y a un embarquement de toute une série de valeurs et de vision du monde dans la technologie elle-même et, une fois que ces dispositifs sont vendus comme des boîtes noires à l’étranger, nous pensons naïvement que ces biais disparaissent complètement au profit de l’objectivité.

Oui, et puis, de toute façon, il ne faut pas oublier que les algorithmes sont conçus par des êtres humains et ne peuvent donc de toute façon être objectifs…

Oui, bien entendu, mais les évolutions récentes vont vers ce que l’on appelle le machine learning ou l’apprentissage par les machines elles-mêmes. L’idéal étant que les machines auto-apprenantes puissent apprendre de leurs propres erreurs et s’auto-corriger. Leurs critères de sélection des éléments pertinents afin de déterminer un risque échapperont à leur concepteur. IBM appelle cela l’autonomic computing, un modèle de parc informatique qui se gérerait lui-même et qui pourrait détecter le risque d’attaque, s’adapter à l’environnement et se corriger lui-même. On s’est rendu compte qu’on allait rapidement avoir un manque d’informaticiens pour entretenir tout ce matériel qui se multiplie et qui se diversifie à une vitesse folle. Le matériel devient surabondant par rapport à une main d’œuvre d’entretien insuffisante. Il y a une nécessité que les machines deviennent de plus en plus autonomes. La vision de l’armée américaine en matière de résolution de conflits armés va un peu dans le même sens. L’idée étant qu’on envoie des drones suffisamment autonomes pour faire face à d’éventuelles coupures des communications. Les drones autonomes seraient plus moraux que les humains dans la mesure où ils ne craindraient pas pour leur vie et ne seraient animés par aucune haine.

data

« data.path Ryoji.Ikeda – 2 » by r2hox is licensed under CC BY-SA 2.0

La gouvernementalité algorithmique se distingue d’un mode de pouvoir dont la contrainte est intériorisée (Foucault). Quelles sont les nouvelles « tactiques » employées par cette nouvelle manière de gouverner ?

La gouvernementalité algorithmique est un mode de gouvernement nourri essentiellement par des données brutes et qui affecte le comportement des individus sur le mode de l’alerte ou du stimulus provoquant du reflex plutôt que de la réflexivité. Par exemple, dans le domaine du marketing, on va attirer votre attention sur certaines choses. On va vous envoyer des publicités ciblées. Ces nouvelles pratiques qui ont notamment été décrites par le chercheur américain Ryan Calo (digital market) permettent de détecter le moment où le consommateur et/ou l’internaute sera le plus susceptible, subjectivement, de cliquer sur un type de publicité. Notre capacité de résistance à des offres ou à des tentations s’émousse au fur et à mesure qu’on s’en sert au cours de la journée. En suivant votre trajectoire (votre activité en ligne) sur votre ordinateur, les neuromarketers sont capables de détecter le moment précis où vous serez le plus enclin à cliquer sur une publicité. Un autre exemple, c’est ce qu’on appelle le dynamic pricing qui est notamment utilisé par certaines compagnies d’aviation low-cost et qui permet de détecter parmi les clients captifs comme, par exemple, ceux qui doivent impérativement voyager entre Bruxelles et Genève le lendemain. Les compagnies peuvent ainsi pister votre activité en ligne et sont en mesure d’adapter les prix en fonction des autres compagnies concurrentes dont vous avez également visité les sites web. Si vous devez voyager de toute urgence, ils vont augmenter les prix uniquement pour vous. Ayant peur que les prix continuent à augmenter, votre réflexe sera d’acheter immédiatement un billet. On vous vend des dispositifs de personnalisation de l’offre.

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire. Ce que vous pourriez faire. Si l’on compare ce mode de gouvernementalité à l’évolution de la gouvernementalité telle que décrite chez Foucault, ce qui a pris la place de la peste, de la lèpre, de la maladie mentale, ou de la mendicité, c’est l’incertitude comme telle. L’incertain pour l’incertain à savoir le mode conditionnel de ce que peuvent les corps. La puissance des sujets et la potentialité des individus deviennent la cible. La résistance ou la récalcitrance à ce mode de gouvernement est très difficile à organiser parce que, précisément, personne ne se sent visé. On ne vise plus aucune catégorie socialement éprouvée : ce ne sont plus les noirs, les femmes ou les juifs mais le potentiel comme tel. L’objectif gouvernemental est de faire en sorte que certaines choses n’arrivent pas ou que d’autres arrivent. Dans le domaine du marketing qui est un domaine où cela se développe le plus fortement aujourd’hui, l’objectif est que les individus aient le moins de temps ou de recul possible pour revoir leurs préférences. Cela fonctionne sur le mode de l’exploitation de l’addiction. La gouvernementalité algorithmique ne connaît aucune limite et aucune norme. Les notions de raisonnabilité disparaissent complètement.

Cette manière de gouverner n’aurait pas de précédent dans l’histoire ?

À mon sens, c’est à la fois quelque chose de tout à fait neuf et à la fois un prolongement du néolibéralisme. L’idéal néolibéral est de gouverner le moins possible et de faire en sorte que le réel numérisé se suffise à lui-même. En quelque sorte, ce gouvernement de la personnalisation vise à ce que l’individu devienne sa propre norme statistique et que ce soit le réel numérisé lui-même, par le biais d’algorithmes, qui finisse par se gouverner sans que les gouvernants aient à prendre encore la moindre décision ou orientation politique. Cela correspond très bien à cette idée libérale ou néolibérale de quasi absence de gouvernement. Un désinvestissement de tout ce qui relève de la sphère institutionnelle symbolique. C’est aussi une intensification du néoliberalisme dans la mesure où cette gouvernementalité algorithmique ne repose sur aucun sujet. La notion de sujet individuel disparaît complètement au profit de réseaux de données ou de points de localisation dans des tables actuarielles. Les données brutes sont une sorte d’éclatement et de fragmentation de la vie quotidienne dématérialisée. On parle de double numérique mais c’est une notion totalement fausse. Nous n’avons aucun double numérique. Nous ne comptons que comme agrégats temporaires de données qui sont elles-mêmes agrégeables ou exploitables en masse à l’échelle industrielle. Pour la gouvernementalité algorithmique, il n’y a pas de sujet mais des fragmentages infra-individuels de données qui ne sont plus des données à caractères personnel puisqu’elles sont anonymisées. Quant aux modèles, ils sont eux supra-individuels à savoir des profils qui ne sont jamais des personnes. Chaque individu peut avoir différents profils qui sont évolutifs en temps réel mais aucun ne lui correspond totalement. Il s’agit d’une hyper-fragmentation des individus qui peuvent être mis en concurrence les uns avec les autres à l’échelle quasiment moléculaire. Dans ce sens-là, la notion même de sujet ou d’individu ne fait absolument plus barrière à l’hyper-exploitation y compris du temps de sommeil disponible ou de l’attention. On ne peut même plus opposer l’intégrité de sa vie à la surexploitation de la moindre parcelle d’existence. À mon sens, cela accentue le néolibéralisme.

En même temps, l’effacement du sujet  pourrait sembler paradoxal avec la notion même de libéralisme.

Oui, effectivement. La notion de libéralisme présuppose comme unité fondamentale le sujet soi-disant rationnel, autonome, égoïste. Ici, on est complètement à l’opposé. Nous nous en éloignons assez radicalement et c’est ce qui est très nouveau par rapport à la notion de discipline foucaldienne. L’individu ne doit plus se conformer à aucune norme car cette gouvernementalité apparaît comme absolument anormative. Il s’agit d’un système dans lequel les individus se sentent complètement libres car ils n’internalisent aucune norme dont ils auraient pris connaissance a priori puisque les normes ou les modèles de comportement doivent émerger eux-mêmes des masses de données en temps réel et ne président pas à la récolte des données. Il n’y a aucune intériorisation de la norme et ces dispositifs ne visent aucunement à la réforme psychologique des individus. Autrement dit, à les rendre « normaux ».

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps. Quoi qu’il arrive, quelque soit la sauvagerie des faits, les modèles ou les profils s’adaptent à tout ce qui peut survenir dans le monde. Si vous vous écartez radicalement par vos comportements d’un profil qui vous a été assigné, cela ne va jamais être inscrit comme une erreur ni comme un échec de la part du système. Au contraire, chaque écart permettra d’enrichir la base statistique pour mieux vous profiler la prochaine fois. Plus ça rate, plus ça réussit. C’est un mode de fonctionnement tout à fait viral. Plus on s’en sert, plus ça s’enrichit et ça devient opérationnel. On ne peut dès lors jamais mettre ce système en défaut puisqu’il est évolutif en temps réel. Il s’agit d’une sorte de clôture du numérique sur lui-même qui ne se laisse plus provoquer par la liberté des êtres humains puisque cette liberté quels que soient les actes qui sont posés, conformes ou récalcitrants à la modélisation, vont en fait servir à mieux modéliser.

Vous soulignez qu’il faut voir ce qui se joue au-delà de la question de la protection des données à caractère personnel. Pour vous, la vraie problématique concerne la question du « profilage, de la personnalisation, de l’hypertrophie de la sphère privée, de la paupérisation de l’espace public, de la prédation par des sociétés privées des espaces eux-mêmes privés des internautes 1».

Il y a une hypertrophie de la sphère privée à partir du moment où l’on personnalise l’environnement et votre expérience de la vie. Cette promesse de réponse par anticipation sur l’expression des désirs provoque un gavage des individus. Ces systèmes nous promettent de détecter en temps réel les bons critères de désirabilité et donc d’arbitrer pour nous au détriment du débat politique. Les machines proposent de faire ce travail politique. Vous êtes constamment dans une sorte de bulle personnalisée qui, à terme, risque de vous priver de ce qui constitue une expérience commune : être confronté à quelque chose qui n’a pas été prévu pour vous. Ce qui est l’expérience même de la rencontre politique et du débat.

L’idéologie qui découle des Big Data est le rêve d’un accès immédiat au réel où l’on évite toute forme de représentation. Les Big Data se présentent comme une solution radicale à la crise de la représentation, y compris à la crise de la représentation politique. C’est le rêve d’un accès immédiat au réel qui n’aurait même plus besoin de passer par le langage. Les Big Data se définissent comme relativement exhaustives, comme étant la numérisation de la vie même. C’est comme si on touchait enfin le réel comme tel. Ce n’est même plus le rêve d’un réalisme. C’est le réel sans la représentation. S’il n’existe plus de représentation, il n’y a plus d’espace politique. Nous n’avons besoin d’un espace politique que parce que nous avons besoin de nous représenter les choses y compris par le langage. Et comme nous avons tous des représentations différentes des choses, nous devons confronter ces points de vue différents. C’est à ça que sert l’espace public ! Un espace dans lequel on puisse délibérer de la chose publique. Les Big Data, cette promesse d’objectivité en temps réel, promet de pouvoir se passer de la délibération et de toute forme de médiation. Il y a donc deux aspects : l’hypertrophie de la sphère privée et la réponse donnée par les Big Data à la crise de la représentation politique. Cette réponse est tout à fait radicale puisqu’elle nous dit : « il n’y a plus rien à représenter puisque nous sommes le réel ».

Y a-t-il, selon vous, un accaparement du pouvoir par les algorithmes ?

Les algorithmes ne sont ni bons ni mauvais. Ils n’ont pas de volonté propre. Par contre, je pense qu’il y a une très grande paresse dans notre société qui fait que les gouvernants ont tendance non plus à prendre des décisions sur base de valeurs qu’ils défendraient mais plutôt à prendre des décisions en se réfugiant derrière des chiffres. Des chiffres qui ne sont rien d’autre qu’une représentation particulière du réel, c’est-à-dire les faits. Les faits n’ont aucune valeur en eux-mêmes. Aujourd’hui, je trouve qu’il y a une sorte de confusion entre ce qui est un fait et ce qui est bon et c’est tout le problème de la tyrannie de l’économie qui est accélérée par les algorithmes. On considère que ce qui est dans les faits doit être dans le droit et qu’il faut être réalistes en politique et suivre l’économie. Ceux qui ont des choses à décider ne veulent plus être incombés de cette charge car une décision est un geste qui peut rater. Pourtant, il n’y a que l’incertitude qui donne de la dignité à la décision. La cible principale sinon exclusive de cette gouvernementalité algorithmique est l’incertitude comme telle que l’on veut éradiquer en suspendant les effets de l’incertitude. La nécessité de devoir prendre des décision en situation d’incertitude disparaît aujourd’hui tout comme la notion d’autorité au sens d’ « être auteur ». Dans le cas des politiciens ou des décideurs au sens large, être auteur de la décision ce serait ne pas suivre aveuglément une recommandation faite par un algorithme mais plutôt de décider en situation d’incertitude, sachant qu’on peut se tromper et qu’on aura des comptes à rendre. Ce que nous n’acceptons plus aujourd’hui – et que l’on fait assumer par des algorithmes – c’est le risque de l’erreur.

Les politiques se tournent de plus en plus vers cette manière de gouverner ou de ne pas gouverner ?

Ce qu’ils veulent, ce sont tous les avantages en nature et tous les avantages symboliques de la fonction mais sans pour autant assumer la fonction. La gouvernenmentalité algorithmique n’est qu’un symptôme aigu. Le problème le plus important, c’est la soumission de la politique et du droit à l’économie d’une part, et la soumission de l’économie à la finance d’autre part. Nous sommes en plein dans une tyrannie du réel. C’est le réel, le monde qui, soi-disant, voit des signaux neutres qu’il suffit de capter et de calculer le plus rapidement possible de manière à faire décider les machines au lieu de décider nous-mêmes. Quelles que soient les applications qu’on en fasse, que ce soit dans le domaine de l’orientation professionnelle, dans le domaine de la sécurité, du marketing ou même dans le domaine médical, on vit une passion pour le réel comme tel et un refus de prendre des décisions. De plus, l’accélération des flux devient incontournable. Amazon a récemment breveté un logiciel qui leur permettrait d’envoyer les marchandises vers ses clients avant même que ceux-ci aient pu cliquer sur « j’achète ». On va aussi cibler les petits enfants dès la maternelle pour reconnaître leurs prédispositions aux mathématiques, aux langues, etc. de manière à leur éviter de perdre une année. Le temps de vie doit être maximisé. Nous n’avons plus de temps à perdre dans aucune forme de médiation. Le temps réel exige aussi que l’on court-circuite le temps de la discussion et de la délibération politique. C’est la passion pour le réel.

Est-ce que l’on constate pour autant une préoccupation grandissante par rapport au développement effréné des algorithmes ? Par exemple, même les révélations d’Edward Snowden ne semblent pas toujours alerter l’opinion publique.

Justement, j’écoutais une conférence que donnait Alain Badiou et qui expliquait la signification du mot « scandale ». Le scandale est la validation a contrario de l’ordre ordinaire. Quand on dit que quelque chose est un scandale – « le scandale de Snowden » – cela apparaît comme exceptionnel mais en fait ce n’est pas exceptionnel. Le scandale ou l’exception constitue la norme. On en a fait un événement particulier qui isole ce fait comme si c’était un accident et qu’il ne faut pas trop s’en faire car mis à part cet accident ou quelques autres, « tout va bien Madame la Marquise ».

Par ailleurs, nous sommes dans une société hautement individualiste dans laquelle les personnes ne se sentent pas menacées directement. Il faut leur parler de leur vie privée car on pense que ça leur parle. Par contre, dans le contexte du data mining et du profilage, il s’agit de données anonymes. On peut vous profiler très précisément sans avoir recours à aucune donnée à caractère personnel vous concernant. En fait, les juristes et les instances européennes, en particulier la Commission européenne dans son projet de règlement sur la protection des données à caractère personnel, nous encourage ou nous enferme dans cette vision selon laquelle ce qui compte ce sont les droits individuels : « On va protéger vos données et l’on va vous donner le droit de consentir par rapport à l’usage de vos données à caractère personnel ». C’est évidemment une très mauvaise vision car, comme je vous le disais, nous faisons face à une hypertrophie de la sphère privée et ce repli de l’individu sur lui-même, encouragé par le droit et par la culture libérale, nous empêche de percevoir les enjeux structurels. Il existe des tentatives de récalcitrance du côté des hackers qui visent notamment à brouiller les pistes en envoyant des requêtes ou en entourant les mots-clés dans un nuage d’autres mots-clés de façon à ne pas être tracé. Mais ces solutions sont relativement élitistes car tout le monde n’y a pas accès et n’a pas le temps ni les capacités d’utiliser ces dispositifs de brouillage qui ne font qu’entraîner la machine de surcroît. On rendrait un grand service aux dispositifs de profilage en les entraînant à distinguer les vraies des fausses requêtes.

Il y a un mouvement qui vise plutôt à revendiquer la transparence des algorithmes. Comme je le soulignais ci-dessus, les algorithmes sont comme une boîte noire : on sait plus ou moins ce qui y entre et on voit ce qui en sort mais on ne sait pas comment ça se bidouille à l’intérieur. C’est très difficile de rendre ça transparent car, d’une part, les algorithmes sont protégés par le secret industriel ou alors le secret d’Etat (dans le cas des applications sécuritaires) et, d’autre part, il y a des obstacles techniques qui sont très compliqués à résoudre. Les algorithmes combinent différents types de logiques de gestion de base de données qui sont imbriquées et les données elles-mêmes sont très complexes et diversifiées. Essayer de mettre les algorithmes à l’épreuve et de comprendre comment elles peuvent produire de la discrimination s’avère être une opération très compliquée à entreprendre.

Que pensez-vous alors d’avoir recours, à un niveau individuel, soit à la cryptographie ou alors aux bons gestes et aux bons usages pour éviter d’être tracé ?

La cryptographie répond à un problème de sécurité des communications dont le but est de pouvoir communiquer avec une autre personne sans que le contenu du message puisse être lu. Cela ne répond pas aux enjeux du profilage car, pour le profilage, l’importance est de savoir que votre ordinateur communique avec d’autres ordinateurs sans se préoccuper du contenu. Comment la cryptographie peut-elle nous aider à ne pas être trop profilé ? La réponse n’est pas simple car la cryptographie peut nous aider à être anonyme et sa manière d’y parvenir est d’ajouter, en quelque sorte, des données. Plus on ajoute des données, plus vous êtes facilement profilable. Il y a peut-être un paradoxe qui veut que plus vous êtes anonyme, plus vous êtes profilable. Il faut trouver une sorte d’optimum. Les solutions techniques ne sont réellement pas évidentes. Par contre, les bonnes pratiques moi je n’y crois pas. Il y a une tendance à vouloir éduquer les utilisateurs. On s’est rendu compte en faisant des études notamment à l’Université de Namur sur les pratiques des jeunes sur Internet qu’ils étaient beaucoup plus avertis que nous le pensions quant aux enjeux de protection de leur vie privée. De plus, je crois que l’exposition de soi sur les réseaux sociaux joue aujourd’hui un rôle tout à fait important d’autant que nous sommes de plus en plus anonymes dans les espaces publics. Je fais notamment référence à une veille description de Walter Benjamin à propos de l’intérieur bourgeois du XIXe siècle. Ces intérieurs étaient farcis de signes de leur propre univers. Walter Benjamin nous explique que si les bourgeois du XIXe siècle saturaient leur intérieur des traces de leur existence terrestre c’était avant tout pour se consoler d’anonymat dans l’espace public. Aujourd’hui, si nous saturons nos espaces numériques de traces de nous-mêmes c’est en lien direct avec la désertification de l’espace public. Nous avons besoin d’espace public. Il s’agit d’une forme de consolation. Ce qui a remplacé l’intérieur bourgeois, ce sont les blogs, Facebook, les autres réseaux sociaux. Je ne suis pas non plus adepte du jugement moral un peu hâtif sur l’exhibitionnisme car s’il s’agissait d’exhibitionnisme cela resterait un comportement très minoritaire. Or il est absolument majoritaire et nous montre bien l’acuité du problème de la disparition de l’espace public.

Propos recueillis par Aurélie Ghalim

1. [Pierre Alonso, « Big Data is algorithming you », Article11]↩

]]>