::TOC::

BERR2017 L’hyperpuissance de l’informatique

Gérard BERRY, L’hyperpuissance de l’informatique : Algorithmes, données, machines, réseaux, Paris, Odile Jacob, 2017.

BERR2017.1 Cf. Berry, L’hyperpuissance de l’informatique, op. cit., p. 16-17 : On a vu se produire récemment deux glissements de vocabulaires dans les médias, les discours politiques et l’enseignement : “informatique” est devenu “numérique” et “programmation” est devenu “codage”, les deux anciens mots ayant pratiquement disparu. C’est surtout sensible depuis qu’on parle de plus en plus du sujet, en reconnaissant maintenant qu’il faut “y aller” : il faut enseigner “le numérique” (maintenant devenu un substantif), et les enfants doivent apprendre “le code”. D’où vient ce glissement ? Mon idée personnelle, peut-être un peu brutale, est la suivante : changer les mots a permis à ceux qui le souhaitent de se construire des formes de compétence, d’adhésion ou de rejet sans avoir à entrer dans le cœur du sujet, donc en gardant l’intention de ne se renseigner vraiment ni sur l’informatique, ni sur la programmation. […] Mais l’informatique est beaucoup plus que cela […] on ne peut pas comprendre le monde numérique dans sa totalité sans comprendre suffisamment ce qu’est son cœur informatique

BERR2017.2 Cf. Berry, L’hyperpuissance de l’informatique, op. cit., p. 40-44 : La deuxième avancée a été la tentative avortée de fondation des mathématiques par Georg Cantor à l’aide de sa théorie intuitive des ensembles, qui ne fut corrigée qu’au début du XXe siècle par une meilleure compréhension de la notion de théorie axiomatique, c’est-à-dire de théorie mathématique fondée sur des axiomes et des règles de déduction. C’est en 1928 que David Hilbert posa son fameux Entscheidungsproblem dont le but était de relier logique et calcul : étant donné une théorie axiomatique quelconque, par exemple celle des nombres entiers usuels, existe-t-il une “méthode de calcul effective” pour démontrer toutes ses propositions vraies, c’est-à-dire valides dans le modèle que définit la théorie ? En 1931 Kurt Gödel commença par montrer que les démonstrations pouvaient se réduire à des manipulations numériques effectives, puis établit dans son fameux théorème d’incomplétude que la définition même de la notion de démonstration interdisait de prouver par simple déduction logique la vérité de toutes les formules vraies dans toute théorie axiomatique non triviale, dont la toute simple arithmétique des nombres entiers. Ce résultat a provoqué un choc violent chez les mathématiciens et les philosophes, car il montrait que les notions de vérité et de démonstrabilité ne pouvaient pas être confondues, à moins bien sûr que les mathématiques soient contradictoires, c’est-à-dire que toute proposition y soit simultanément vraie et fausse. […] Mais la notion de “calcul effectif” restait floue. Un peu plus tard, en 1936, a eu lieu l’étape décisive pour notre propos : Alonzo Church et Alan Turing démontrèrent par deux méthodes différentes que la réponse à l’Entscheidungsproblem était négative. Ils s’appuyaient chacun sur un formalisme spécifique : Church sur son λ-calcul, langage logique minimal tout en étant extrêmement puissant, et Turing sur sa fameuse machine abstraite simplissime et bien popularisée en 2012 lors du centenaire de sa naissance. […] la machine de Turing possède six composants : un alphabet fini constitué de symboles, ici des chiffres ; une bande de mémoire potentiellement infinie, divisée en cases pouvant contenir chacune soit un blanc, soit un symbole ; une tête de lecture/écriture capable de lire un symbole écrit sur la bande et de le remplacer par un autre ; un mécanisme qui peut déplacer la bande d’une case à droite ou à gauche ; un ensemble fini d’états, ici A, B et C ; enfin un mécanisme de contrôle composé d’un nombre fini d’instructions très simples, ici écrites dans la boîte du bas. Une instruction spécifie une paire état/symbole, une action qui peut être soit un mouvement, soit l’écriture d’un nouveau symbole par la tête de lecture/écriture, et un état suivant. Elle peut s’appliquer quand la machine est dans l’état spécifié et lit le symbole spécifié sous sa tête. Dans ce cas, elle effectue son action puis met la machine dans son nouvel état. La machine démarre avec un nombre fini de symboles non blancs sur la bande et exécute ses instructions en séquence. Elle s’arrête si elle atteint un état qui n’a pas de transition pour le symbole courant, ici l’état C qui n’a pas de transition du tout. Il est possible qu’une machine puisse appliquer plusieurs transitions partant d’un même état et d’un même symbole, comme ici pour B:7. Dans ce cas, la machine est dite non déterministe, et elle peut prendre n’importe quelle transition valide. Il n’est pas très difficile (mais très ennuyeux) de voir que, bien qu’extrêmement rudimentaires, les machines de Turing peuvent faire tous les calculs faisables par n’importe quelle autre machine connue, même si ce n’est pas de façon efficace, et que les machines non déterministes ne sont pas plus puissantes que les machines déterministes. Le premier grand résultat de Turing est l’existence d’une machine universelle : il existe une machine U telle que tout calcul d’une machine spécifique M sur des données spécifiques D peut être réalisé par la machine universelle U en écrivant d’abord sur sa bande de calcul un programme décrivant complètement la machine M, puis les données D. Au passage, Turing inventait la notion cruciale de programme enregistré dont nous reparlerons beaucoup dans la suite. Le second résultat, le plus important, est qu’il n’est pas possible de construire une machine détectant en temps fini si une machine M va s’arrêter sur une donnée D. On dit que l’arrêt de la machine de Turing est un problème algorithmiquement indécidable. Ce résultat fondamental établit une barrière infranchissable aux possibilités des algorithmes se terminant toujours. Il n’est pas difficile à montrer en bricolant un peu la machine universelle U, ce que je ne ferai pas ici. Et il fournit une réponse négative à l’Enstcheidungsproblem, sur laquelle je ne m’étendrai pas non plus. Par la suite, Church et Turing montrèrent l’équivalence de leurs formalismes, et Church émit sa thèse que tout formalisme à venir de calcul effectif serait équivalent aux leurs. De nombreux formalismes équivalents mais de présentation et d’usage différents ont été ensuite inventés, mais la thèse de Church n’a jamais été démentie. […] l’informatique moderne est très directement issue de ces découvertes fondamentales. D’une part, les théories de Church et Turing ont permis de définir de façon parfaitement propre la notion jusque-là plutôt vague de calcul effectif, et, d’autre part, elles ont mis en place les concepts linguistiques et machinistes qui sont toujours ceux de l’informatique moderne. Le λ-calcul est resté le cœur des meilleurs langages de programmation, et la notion de programme enregistré fonde toujours la dualité matériel-logiciel.

BERR2017.3 Cf. Berry, L’hyperpuissance de l’informatique, op. cit., p. 287-290 : Les mathématiciens sont connus comme des champions de rigueur : ils considèrent qu’un théorème est vrai non pas parce qu’ils en ont envie, mais parce qu’ils l’ont démontré, c’est-à-dire qu’ils en ont donné une preuve (preuve et démonstration sont synonymes en maths). Mais qu’est-ce donc qu’une preuve ? Selon les logiciens, une preuve formelle doit être une liste finie de formules écrites dans le langage formel d’une théorie mathématique donnée, vérifiant la propriété suivante : toute formule de la liste est soit un axiome, c’est-à-dire une formule déclarée vraie dès la définition de la théorie, soit une formule dérivée, c’est-à-dire qu’on peut construire à partir de formules précédemment prouvées en appliquant une règle de déduction formelle de la théorie. La plus célèbre règle de déduction est modus ponens : si on a montré A et A ⇒ B, lu “A implique B” ou “A entraîne B”, alors B est prouvé. Mais il peut en exister bien d’autres dans chaque théorie particulière. Les formules et les règles de déduction sont elles-mêmes définies précisément : on exige la présence d’un algorithme décidant en temps fini si une formule est bien écrite ou non, ainsi que d’un algorithme permettant pour chaque règle de déduction de calculer une nouvelle formule pour chaque liste de formules d’entrée. Cela veut dire que, au contraire de son invention qui demande de l’intelligence, la vérification d’une preuve ne demande aucune intelligence et peut être faite en principe par un algorithme, et donc en utilisant un ordinateur. Même si les mathématiciens connaissent cette définition et s’accordent à la trouver adéquate, ils ne l’utilisent pas vraiment. Vis-à-vis de leurs objectifs, ils ont bien raison. D’abord, ce qui les intéresse le plus, ce sont les objets abstraits qu’ils manipulent et qu’ils voient comme associés à une notion intrinsèque de vérité, comme les nombres entiers, réels ou complexes. Les formules qui en parlent sont vues comme des écritures précises et élégantes pour exprimer leurs propriétés et calculer avec eux plutôt que comme des concepts d’intérêt primordial en eux-mêmes. Ensuite, les preuves vraiment formelles s’avèrent d’une taille et d’un ennui absolument insupportables pour un humain normal. Ceux qui ont essayé de s’y cantonner, comme Bertrand Russell et Alfred Whitehead dans leur Principia Mathematica, s’en sont vite rendu compte à leurs dépens. Pour parler des objets abstraits qu’ils manipulent et écrire leurs preuves commentées, les mathématiciens utilisent un mélange d’écriture formelle et d’expressions de la langue parlée, éventuellement fleuri par un vocabulaire coloré. Ils font relire ces preuves par d’autres mathématiciens dans un processus de relecture qu’ils prennent très au sérieux. Mais, même s’il est de très grande qualité, ce processus n’est pas infaillible : il n’est pas rare qu’on trouve ensuite soit que la preuve était un peu incorrecte, voire franchement incorrecte, soit que l’énoncé du théorème devait être remanié pour y ajouter des conditions supplémentaires qui peuvent elles-mêmes être créatrices de nouvelles notions. Par exemple, le célèbre théorème d’Euler exprime une relation fondamentale entre le nombre de sommets d’un polyèdre et son nombre de faces. Peu après sa démonstration, un contre-exemple a été trouvé – à l’époque, on appelait cela une exception. Le théorème a été remis droit en ajoutant l’hypothèse que le polyèdre devait être convexe, ce qui a permis d’introduire la notion encore plus fondamentale de convexité en géométrie. C’est la vie du domaine, qui reste quand même de loin le plus rigoureux parmi toutes les sciences. Mais, si les preuves sont vérifiables par des algorithmes, maintenant qu’on a des ordinateurs puissants, pourquoi ne pas les faire vérifier, voire construire par ces machines, et si possible automatiquement ? On sera alors certain que tous les théorèmes démontrés par cette méthode sont justes, à condition bien sûr de s’assurer une fois pour toutes que les fondements logiques et l’algorithme de vérification soient justes. Et, avec cette méthode, pourra-t-on tout savoir en mathématiques ? Les réponses à ces deux questions sont négatives. Comme nous l’avons vu au chapitre 2, l’Entscheidungsproblem de David Hilbert était la question de savoir s’il existe un algorithme général pour prouver les théorèmes mathématiques. Elle a été résolue négativement par Turing dans son papier fondateur de 1936, quand il a montré l’impossibilité de prouver algorithmiquement à coup sûr qu’une machine de Turing travaillant sur des données spécifiées va s’arrêter ou non. Et les théorèmes de Gödel, datant de 1931, montrent de plus l’insuffisance intrinsèque de la notion de démonstration par rapport à la notion de vérité mathématique : son premier théorème exprime que toute axiomatisation de l’arithmétique (c’est-à-dire du simple calcul des nombres entiers) est incomplète dans le sens qu’il existe toujours un théorème vrai mais non démontrable dans cette axiomatique ; son second théorème montre qu’aucune théorie cohérente qui contient l’arithmétique ne peut démontrer sa propre cohérence.

SADI2015 La vie algorithmique

Éric SADIN, La vie algorithmique : Critique de la raison numérique, Paris, L’Échappée, 2015.

SADI2015.1 Cf. Sadin, La vie algorithmique, op. cit., p. 19-20 : le cœur de notre condition technologique contemporaine renvoie moins aux objets élaborés qui nous environnent qu’au magma immatériel à prolifération exponentielle induit par leurs usages. L’histoire de l’informatique a prioritairement été rédigée “du côté” des instruments et des protocoles. Dimension certes incontournable de cette complexe généalogie, dont on se rend compte aujourd’hui que ce qui l’unifie malgré sa foisonnante hétérogénéité, c’est que leur utilisation a systématiquement entraîné la production de lignes de code suivant des courbes à progression géométrique. Il a souvent été opéré une focalisation sur quelques points saillants de l’industrie de l’ électronique : puissance de calcul ou de stockage régulièrement amplifiée, effort constant de miniaturisation, affinement de la qualité ergonomique…, sans qu’il soit dans le même mouvement relevé que toutes ces caractéristiques contribuaient à favoriser la génération corollaire et indéfiniment accrue de data. S’il a été décrit ce qui s’opère en amont, soit l’élaboration de programmes constitués de chiffres structurant le fonctionnement des systèmes, c’est l’ampleur sans cesse croissante de mêmes suites binaires occasionnées en retour par leur emploi, qui singularise aujourd’hui le rapport que nous entretenons aux technologies numériques. Notre époque est caractérisée par un afflux invariablement expansif de données générées de partout, par les individus, les entreprises privées, les instances publiques, les objets, stockées dans les milliards de disques durs personnels ou au sein de fermes de serveurs toujours plus nombreuses. Environnement global qui voit le redoublement en cours de chaque élément physique ou organique du monde en bits exploitables en vue de fonctionnalités de tous ordres.

SADI2015.2 Cf. Sadin, La vie algorithmique, op. cit., p. 28 : c’est un régime de vérité qui s’institue, fondé sur quatre axiomes cardinaux : la collecte informationnelle, l’analyse en temps réel, la détection de corrélations significatives et l’interprétation automatisée des phénomènes.

SADI2015.3 Cf. Sadin, La vie algorithmique, op. cit., p. 33 : Ce n’est pas qu’il y aurait eu deux histoires ou plusieurs histoires parallèles plus ou moins contradictoires, c’est plutôt que le principe même qui se situe à leur fondement aura dès l’origine été conçu en vue de répondre à un unique axiome : celui d’accéder à un surcroît automatisé d’efficacité et d’optimisation organisationnelles.

SADI2015.4 Cf. Sadin, La vie algorithmique, op. cit., p. 34 : Les Big data, au-delà de toutes les perspectives économiques escomptées, doivent être comprises comme le passage d’un seuil épistémologique et anthropologique, qui veut que nos modes de perception et d’action sur le réel se constituent désormais au filtre majoritaire des données, résultats d’opérations réduisant in fine tout fait à des lignes de code, supposant une définition au chiffre près des situations.

SADI2015.5 Cf. Sadin, La vie algorithmique, op. cit., p. 46-47 : Charles Babbage, lors du premier tiers du XIXe siècle, entendit parachever ce long mouvement historique sinueux en s’efforçant de réaliser une machine complexe pouvant procéder d’elle-même à des calculs, grâce à l’incorporation des cartes du métier jacquard dont la lecture séquentielle commandait des instructions au dispositif. Ada Lovelace, la fille de lord Byron, l’assista dans son entreprise, accomplissant non seulement une description annotée de l’appareil analytique, mais imagina aussi le principe de l’algorithme destiné à être exécuté par un automate. Figure aujourd’hui mythique, considérée comme le premier programmeur – ou programmeuse –  de l’histoire, qui ensuite pressentit certaines des possibilités offertes par les calculateurs universels qui dépassaient le seul cadre des fonctionnalités arithmétiques, constituant alors l’unique objet de recherche de Babbage et d’autres de ses contemporains. Ambition visionnaire pour Babbage ou intuition prophétique pour Lovelace, néanmoins, l’un et l’autre durent se confronter aux limites alors incontournables d’ordre tant technologique qu’épistémologique. Il ne relève pas d’un hasard de l’histoire que ce soit Charles Babbage, qui s’appliqua tout au long de son existence à concevoir des instruments computationnels autonomes et fiables, qui fut dans le même mouvement le concepteur initial du modèle pré-fordiste de l’usine moderne, tendu vers sa plus haute optimisation fonctionnelle et productive. Son fameux livre Économie des machines et des manufactures expose sur des centaines de pages des méthodes aptes à perfectionner sous diverses formes l’organisation générale des unités de travail. On peut imaginer que c’est un même souci d’efficacité qui se situe au croisement de ces deux activités majeures de son existence, voulant recourir à la puissance d’appréhension de certains phénomènes par la grâce objectivante des nombres, afin de conduire à l’administration la plus rationalisée des mécanismes de production, des personnes et des biens. Babbage demeure la figure tutélaire de la généalogie de l’informatique au même titre qu’Alan Turing, qui exactement un siècle plus tard s’efforcera de toutes les forces de son corps et de son esprit d’édifier des procédés automatisés de cryptanalyse, capables de déchiffrer les messages émis par les armées nazies transmis au moyen des machines Enigma et qui contribuèrent pour partie à la victoire des Alliés. Double origine qui signale la connivence historique et constitutive de la science computationnelle avec les pratiques de gestion managériale et le domaine militaire.

SADI2015.6 Cf. Sadin, La vie algorithmique, op. cit., p. 55 : “La fiction imaginée par Laplace, d’un démon omniscient, capable de connaître, à l’instant t, la position et la vitesse de chaque élément constitutif de la nature physique, symbolisait le projet de cette science universelle, objective, parfaitement déterminée et finalement close.” [Dominique Janicaud, Puissance du rationnel, Gallimard, 1985, p. 216.]

SADI2015.7 Cf. Sadin, La vie algorithmique, op. cit., p. 57 : C’est le retour du rêve galiléen d’une prescience absolue rendue possible par la “totalisation mathématique” que le mouvement de numérisation, à terme intégral, aura induit, à la différence près qu’il ne renvoie plus à une idéalité philosophique, mais à une praxis qui érige le réel comme un continuum de significations indéfiniment appréhendables.

SADI2015.8 Cf. Sadin, La vie algorithmique, op. cit., p. 117 : Principe qui réalise la mathesis universalis imaginée par le néo-platonisme, ou qui accomplit en actes la mathématisation intégrale du monde telle qu’envisagée par Leibniz.

SADI2015.9 Cf. Sadin, La vie algorithmique, op. cit., p. 126 : “[…] Les spécialistes de la solution des problèmes n’appréciaient pas, ils calculaient. Leur confiance en eux-mêmes n’avait pas besoin de l’autosuggestion pour se maintenir intacte en dépit de tant d’erreurs de jugement, car elle se fondait sur une vérité purement rationnelle et mathématique. Le malheur est que cette ‘vérité’ était dépourvue de tout lien avec les données du ‘problème’ à résoudre.” [Hannah Arendt, Du mensonge à la violence (1970), Calmann-Lévy, 1972, p. 40-41.]

SADI2015.10 Cf. Sadin, La vie algorithmique, op. cit., p. 128 : La “raison numérique” est finalement confrontée à la juste et implacable vérité du “théorème d’incomplétude” de Godel, selon lequel tout ne peut être démontrable et calculable.

SADI2015.11 Cf. Sadin, La vie algorithmique, op. cit., p. 130 : Dans les faits, c’est un type spécifique de rationalité empreint d’un schéma unique et littéralement simplificateur qui s’impose et ne cesse de s’étendre, qui suppose de ne pas le confondre avec la raison dans la mesure où il confine in fine à son contraire, procédant dans son excès contemporain à un sorte de retournement inattendu.

TORR2013 Du boulier à la révolution numérique

Vicenç TORRA, Du boulier à la révolution numérique : algorithmes et informatique, Paris, RBA France, 2013.

TORR2013.1 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 11 : Les origines de la numération sont anciennes, mais elles ne sont ni universelles ni uniformes ; tous les peuples ne l’ont pas développée de la même façon et certaines tribus – comme les Pirahâs d’Amazonie – n’ont aucune notion de nombre.

TORR2013.2 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 90 : Son objectif [à Leibniz] en ce qui concerne la logique était de construire un calcul universel. Il voulait trouver un système capable de déterminer quels types d’inférences étaient valables d’un point de vue logique. Ce qui lui permettrait d’appliquer le calcul logique à des propositions scientifiques arbitraires. Il affirma dans l’un de ses ouvrages : “Si nous le réussissons, lorsque surgit la controverse, il ne sera plus besoin entre deux philosophes de discussions plus longues qu’entre deux mathématiciens. Il suffira qu’ils saisissent leur plume, qu’ils s’asseyent à leur table de calcul (en faisant appel, s’ils le souhaitent, à un ami) et qu’ils se disent l’un à l’autre : calculons !”

TORR2013.3 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 94 : Selon Gottlob Frege (1848-1925), tout énoncé ou proposition est composé d’un terme qui dénote un objet et d’un prédicat qui dénote un concept. Par exemple : dans l’expression “Socrate est un philosophe”, “Socrate” est l’objet et “philosophe” est le concept d’être un philosophe. Ce point de vue se distinguait substantiellement de tout ce qui était admis jusque-là, puisque l’on considérait que toute proposition était composée de deux termes liés par le verbe être. La nouvelle façon de voir le lien concept-objet fut le point de départ de la compréhension des ensembles et de la relation d’appartenance élément-ensemble.

TORR2013.4 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 96 : Le statisticien Herman Hollerith (1860-1929) utilisa ainsi les cartes perforées pour codifier les données du recensement américain de 1890. À ce titre, il est considéré comme le premier informaticien, autrement dit le premier qui a réussi à traiter de façon automatique des informations. Le mot “informatique” est la réunion des mots “information” et “automatique”.

TORR2013.5 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 99 : Après avoir abandonné sa machine à différences en 1834, Babbage travailla sur la conception d’un nouvel appareil, qu’il appela Analytical Engine, l’ancêtre le plus direct de nos ordinateurs modernes. Si la machine à différences ne pouvait calculer que des polynômes, l’objectif de la machine analytique était plus général, autrement dit elle devait pouvoir calculer une fonction arbitraire. La nouvelle machine de Babbage était alimentée par de l’énergie générée par un moteur à vapeur. À l’entrée, se trouvaient des cartes perforées et à la sortie un système d’impression ainsi qu’un système de perforation de nouvelles cartes. Elle comprenait également une mémoire capable de stocker 1 000 nombres à 50 chiffres (décimales) ainsi qu’une unité arithmétique avec les quatre opérations essentielles que Babbage appela “le moulin” (the mill). Pour la programmer, on utilisait un langage spécifique, préfigurant les langages assembleurs actuels. Outre les instructions de base, ce langage permettait d’exécuter des boucles et des branchements conditionnels et de stocker. Du point de vue formel et mathématique, l’ensemble des opérations possibles prévues par Babbage dans son projet avait une puissance, ou capacité de calcul, équivalente à celle d’une machine de Turing, quoiqu’avec une durée de traitement qui n’est, bien sûr, pas comparable.

TORR2013.6 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 101 : Dans la note G, Ada Lovelace manifesta sa confiance en la machine de Babbage mais aussi en cette façon révolutionnaire de gérer l’information : “La machine analytique n’a pas de prétention à donner naissance à quoi que ce soit. Elle peut exécuter tout ce que nous savons lui ordonner d’exécuter. Elle peut suivre une analyse mais elle n’a pas le pouvoir d’anticiper des relations ou des vérités analytiques. Son rôle est de nous aider à rendre plus disponible ce que nous connaissons déjà. A priori, et en particulier, son effet se sentira sur ce terrain mais il est très probable qu’elle exerce une influence indirecte et réciproque sur la science elle-même, d’une autre façon. En distribuant et en combinant les certitudes et formules de l’analyse de telle façon qu’elles puissent devenir plus facilement et rapidement traitables par les combinaisons mécaniques de la machine, les relations et la nature de beaucoup de sujets scientifiques sont éclairées d’une nouvelle façon, et leur recherche peut être approfondie. Il s’agit peut-être d’une conséquence indirecte et quelque peu spéculative de cette invention, mais il ne fait aucun doute que cette nouvelle façon d’enregistrer et de travailler les certitudes mathématiques suggère de nouvelles perspectives, quoique dans l’état le plus théorique du sujet. Il y a toujours, dans tous les territoires du pouvoir humain et dans toute acquisition du savoir humain, diverses influences collatérales en plus de l’objectif principal.”

TORR2013.7 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 102 : Il [Babbage] justifia également les miracles par les mathématiques, au moyen du calcul des probabilités.

TORR2013.8 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 104 : L’algèbre de Boole est axiomatisée par des propriétés, ce qui signifie que ces propriétés sont nécessaires et suffisantes pour élaborer les tables de vérité.

TORR2013.9 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 107 : Dans cette histoire pleine de grandes théories, de réussites incroyables et de déceptions retentissantes, l’informatique a atteint un apogée qui lui a permis de façonner le monde à son image avec la révolution numérique.

TORR2013.10 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 115 : La procédure générale de l’architecture de Von Neumann suit un schéma en trois étapes : 1. La récupération de l’instruction dans la mémoire ; 2. Le décodage ; 3. L’exécution.

TORR2013.11 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 136 : Dans les langages impératifs, le calcul s’effectue par la modification des variables, réalisée par assignation. Un programme en langage impératif est structuré, comme la machine de Von Neumann, avec des cellules dans lesquelles figurent les valeurs. L’assignation d’une variable n’est rien de plus que le changement de la valeur d’une cellule. Dans les langages fonctionnels, le résultat s’obtient en appliquant des fonctions, définies par composition ou récursivité.

TORR2013.12 Cf. Torra, Du boulier à la révolution numérique, op. cit., p. 141 : La programmation logique consiste à appliquer à la conception de langages de programmation la logique philosophique, science formelle étudiant les principes de démonstration et d’inférence valide. Elle ne doit pas être confondue avec la logique de calcul, logique mathématique appliquée aux problèmes de calcul.

GUIT2013 Hackers

Amaelle GUITON, Hackers : Au cœur de la résistance numérique, Paris, Édition au Diable Vauvert, 2013.

GUIT2013.1 Cf. Guiton, Hacker, op. cit., p. 18 : “Dans son sens général, un hacker est quelqu’un qui aime comprendre le fonctionnement d’un mécanisme, afin de pouvoir le bidouiller pour le détourner de son fonctionnement origine.” [Wikipédia]

GUIT2013.2 Cf. Guiton, Hacker, op. cit., p. 32 : Telle que Steven Levy la définit dans le deuxième chapitre de son livre, l’éthique hacker tient en six points : 1/ l’accès aux ordinateurs, et plus généralement à tout ce qui peut améliorer la connaissance, doit être total et illimité ; 2/ l’information doit être libre ; 3/ il faut se méfier de l’autorité et promouvoir la décentralisation ; 4/ les hackers doivent être jugés sur ce qu’ils font, non selon leurs diplômes, leur âge, leur origine, leur sexe ou leur position sociale ; 5/ on peut créer de l’art et de la beauté avec un ordinateur ; enfin, 6/ les ordinateurs peuvent changer la vie – en mieux.

GUIT2013.3 Cf. Guiton, Hacker, op. cit., p. 99 : L’économie n’est pas forcément incompatible avec l’éthique, même si elle a provoqué, à la fin des années 90, une scission au sein de la Free Software Foundation, entre d’un côté les “stallmaniens” attachés au concept de logiciel libre, et de l’autre les partisans du hacker Eric S. Raymond, théoricien de l’open source. Autrement dit la “source ouverte”, une notion moins idéologique que pratique, plus axée sur les avantages techniques du modèle collaboratif… et évidemment moins à même de faire fuir les investisseurs potentiels.

GUIT2013.4 Cf. Guiton, Hacker, op. cit., p. 193 : Une chose est sûre : les structures traditionnelles sont de plus en plus bousculées, et contaminées, par les modes d’organisation, d’action et de communication des hackers, des hacktivistes et plus généralement du “peuple numérique”. Comme le dit Michael Seeman : “La communauté du Net, c’est une autre manière d’organiser le pouvoir. Parler de contre-culture, ou de contre-pouvoir, ça ne va pas assez loin. C’est une réinvention de la culture elle-même.”

HIMA2001 L’éthique hacker

Pekka HIMANEN, L’éthique hacker et l’esprit de l’ère de l’information, trad. Claude LEBLANC, Paris, Exils éditeurs, 2001.

HIMA2001.1 Cf. Himanen, L’éthique hacker, op. cit., p. 10 : l’éthique hacker est une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber dans L’Éthique protestante et l’esprit du capitalisme.

HIMA2001.2 Cf. Himanen, L’éthique hacker, op. cit., p. 48 : Pour le hacker, l’utilisation de machines pour optimiser et flexibiliser le temps doit se traduire par une vie moins optimisée et routinière où les êtres humains ne ressemblent pas à des machines.

HIMA2001.3 Cf. Himanen, L’éthique hacker, op. cit., p. 70 : L’éthique hacker de l’argent défendue par Stallman ne s’oppose pas à l’idée de faire de l’argent mais juste à celle de s’enrichir en faisant de la rétention d’information. Il propose une nouvelle forme de l’économie de marché libre : une économie de marché libre dans un sens plus profond que dans le capitalisme ordinaire mais qui demeure une économie capitaliste.

HIMA2001.4 Cf. Himanen, L’éthique hacker, op. cit., p. 101 : Le Net peut être un média de libre expression, mais il peut aussi se transformer en instrument de surveillance. Traditionnellement, de nombreux hackers ont agi pour empêcher cette dérive, en défendant également le respect des données personnelles dans le cyberespace. D’autant que les gouvernements et les entreprises ont tenté des incursions sur ce terrain.

HIMA2001.5 Cf. Himanen, L’éthique hacker, op. cit., p. 126 : Au bout du compte, les idéaux d’une entreprise en réseau ou d’un individu ainsi que ceux d’un ordinateur ou d’un réseau sont en fait identiques : la capacité à fonctionner de façon flexible, de façon optimale pour chacun des objectifs tout en conservant la stabilité à grande vitesse.

TREG2019c L’utopie déchue

Félix TRÉGUER, L’utopie déchue. Une contre-histoire d’Internet (XVe-XXIe siècle, Paris, Fayard, 2019.

TREG2019c.1 Cf. Tréguer, L’utopie déchue, op. cit., p. 102 : Internet est un objet complexe, rempli de paradoxes, traversé qu’il est par deux utopies techniciennes concurrentes : d’une part, celle des bureaucraties d’État qui conçoivent l’ordinateur non seulement comme une aide, voire un substitut, à la décision et à l’action humaine, mais aussi comme l’instrument d’une plus grande “efficacité” dans la conduite des fonctions régaliennes, au premier rang desquelles la guerre ; de l’autre, celle faisant de l’informatique une machine à communiquer capable de contribuer à l’épanouissement de l’individu démocratique.

TREG2019c.2 Cf. Tréguer, L’utopie déchue, op. cit., p. 102 : L’ordinateur a incontestablement partie liée au développement de l’État moderne. Il s’inscrit en filiation avec un imaginaire rationaliste et mécaniciste qui naît à l’aube de la modernité. Dans son livre Le Léviathan (1651), le philosophe britannique Thomas Hobbes, un des plus importants théoriciens du contrat social et de l’État, en fournit le modèle canonique. Après avoir établi un continuum entre l’homme, l’animal et la machine, Hobbes propose de concevoir l’État comme un automate fabriqué par l’homme à sa propre image.

TREG2019c.3 Cf. Tréguer, L’utopie déchue, op. cit., p. 103 : Delphine Gardey montre ainsi comment la question de l’organisation rationnelle des flux de communication devient alors centrale, “créant des contraintes de plus en plus fortes” pour “augmenter le volume autant que la rapidité de production des écritures”.

TREG2019c.4 Cf. Tréguer, L’utopie déchue, op. cit., p. 106-107 : en 1936, afin de démontrer les limites de la logique mathématique, le Britannique Alan Turing formule l’hypothèse d’une machine formée par une bande de papier sans fin et un pointeur capable de lire, écrire ou effacer des symboles, et réalisant mécaniquement une séquence prédéfinie d’opérations (un algorithme) sur ces symboles – un travail jusque-là réalisé au sein des grandes bureaucraties par des “ordinateurs” humains. Ce faisant, Turing démontre du point de vue théorique la puissance de la démarche algorithmique, laquelle permet de déléguer à une machine la résolution de problèmes susceptibles d’être décrits de manière exhaustive. Tout comme le “mechanical engine” de Babbage, la machine de Turing est un exemple saisissant de l’influence déterminante exercée par les formes de pensée bureaucratiques sur l’histoire de la technologie. Une proximité telle que certains anticipent d’emblée l’inscription de l’ordinateur dans les techniques modernes de gouvernement.

TREG2019c.5 Cf. Tréguer, L’utopie déchue, op. cit., p. 123 : La vision d’une informatique émancipatrice ressemblerait presque à un accident de l’histoire.

TREG2019c.6 Cf. Tréguer, L’utopie déchue, op. cit., p. 167 : Certes, au-delà du clin d’œil au mouvement situationniste, la référence au détournement dans l’acronyme du groupe laisse entendre que, dans un autre monde, avec d’autres rapports de pouvoir, une informatique émancipatrice est envisageable. Mais pour l’heure, le CLODO voit dans l’ordinateur “le serviteur zélé du système dans lequel nous vivons”, un outil “sans doute perverti par ses origines mêmes”, et notamment “l’abus du quantitatif ou la réduction au binaire”.

TREG2019c.7 Cf. Tréguer, L’utopie déchue, op. cit., p. 170 : La nouvelle donne néo-libérale agit en synergie avec l’informatisation. Mais, pour une part au moins, la promesse d’émancipation à laquelle l’informatique est de plus en plus associée tient aussi au travail d’individus et de collectifs qui, en parallèle, œuvrent à l’émergence d’un “modèle démocratique d’informatisation”, à travers la construction d’un espace public numérique et radical.

TREG2019c.8 Cf. Tréguer, L’utopie déchue, op. cit., p. 172 : Si l’informatisation de la société tire ses origines de l’informatisation des grandes bureaucraties, la démocratisation de l’informatique connectée découle largement de la mise en réseaux informatiques du capitalisme. […] En quelques années, les multinationales de tous les secteurs s’équipent, tirées par la finance internationale qui est la première à sauter le pas du numérique et de la “dématérialisation”. […] Parmi la masse de chiffres disponibles, quelques-uns suffisent à prendre la mesure de l’interconnexion informatique du capitalisme mondial.

TREG2019c.9 Cf. Tréguer, L’utopie déchue, op. cit., p. 176 : D’un coup, la vision démocratique de l’informatique semblait prendre corps. L’ordinateur passait enfin de l’ère du calcul et de l’automation à celle de la communication humaine, rendant bientôt possibles des formes de coprésence, ouvrant la voie à de nouvelles modalités d’expression et d’association.

TREG2019c.10 Cf. Tréguer, L’utopie déchue, op. cit., p. 189 : Les hackers brandissent ainsi la menace du sabotage informatique, équivalent numérique des destructions de matériel prisées depuis la fin des années 1960 par les groupes d’action directe.

TREG2019c.11 Cf. Tréguer, L’utopie déchue, op. cit., p. 211 : Internet n’apparaît plus seulement comme un moyen d’expression et de diffusion de l’information ou de coordination, mais également comme un dispositif à travers lequel il est possible de s’associer et d’agir ensemble, pour “faire corps” dans l’espace public numérique.

TREG2019c.12 Cf. Tréguer, L’utopie déchue, op. cit., p. 212 : puisque l’époque est marquée par le passage de l’univers physique sur le “cyberespace”, il faut que les formes de résistance migrent à leur tour vers l’environnement numérique et soient systématisées.

TREG2019c.13 Cf. Tréguer, L’utopie déchue, op. cit., p. 218 : À la fin des années 1980, dans ses travaux sur les “sociétés de contrôle”, le philosophe Gilles Deleuze dresse le parallèle entre la figure du hacker et celle du saboteur. Chez lui, contrairement à son vieux compagnon de route Félix Guattari, la place laissée à l’émancipation dans le “nouveau régime de domination” associé à l’ère numérique est marginale. Deleuze s’attache néanmoins à déceler les vulnérabilités techniques – et donc les possibilités politiques de résistance – ouvertes par ce nouveau paradigme technologique associé au néolibéralisme

TREG2019c.14 Cf. Tréguer, L’utopie déchue, op. cit., p. 236 : L’émergence de l’espace public numérique pose en effet de multiples difficultés juridiques.

TREG2019c.15 Cf. Tréguer, L’utopie déchue, op. cit., p. 250 : Faisant écho aux premiers débats qui se tiennent à l’époque sur la possibilité d’opérer un filtrage automatique des contenus, le texte encourage, sans toutefois les imposer, le recours à des “instruments techniques de surveillance rendus possibles par les techniques numériques”.

TREG2019c.16 Cf. Tréguer, L’utopie déchue, op. cit., p. 262-263 : La transparence administrative était l’une des grandes promesses de l’informatique. […] L’informatique revêt alors, comme le souligne le sociologue Éric Dagiral, un double statut : à la fois “un levier important de l’action de l’État”, et un outil “pour réformer l’État” en l’ouvrant aux regards des citoyens. Mais, dans la pratique, ces réformes conduisent à incorporer à l’État les processus de management issus des grands acteurs du numérique comme Google ou Facebook, en agrégeant, grâce aux outils Big Data, les données ouvertes des administrations et les traces laissées par les individus, pour piloter en temps réel et améliorer “l’efficacité” des politiques publiques.

TREG2019c.17 Cf. Tréguer, L’utopie déchue, op. cit., p. 264 : Or la reproductibilité des informations numériques, leur liquidité et l’anonymat que rend possible la cryptographie sont autant d’innovations techniques qui permettent de systématiser et de démocratiser la fuite des secrets d’États.

TREG2019c.18 Cf. Tréguer, L’utopie déchue, op. cit., p. 278-279 : Aux yeux du pouvoir, la parole irrévérencieuse, séditieuse, fausse ou violente n’a rien perdu de sa puissance subversive. Dans le monde des flux numériques peut-être plus qu’avant, elle lui semble susceptible d’exciter les passions et, comme la rumeur autrefois, conduire le peuple ou ses marges criminelles dans la rue. Pour que l’écrit et la parole ne se muent pas en “propagande par le fait”, les protections traditionnellement associées à la liberté d’expression doivent donc être remises en cause.

TREG2019c.19 Cf. Tréguer, L’utopie déchue, op. cit., p. 289 : Les grandes plateformes numériques en sont ainsi venues à absorber une grande partie des usages militants, éducatifs ou scientifiques qui faisaient la fierté du “Web indépendant”, et ce bien que le phénomène soit en réalité antérieur à leur hégémonie.

TREG2019c.20 Cf. Tréguer, L’utopie déchue, op. cit., p. 293 : Ces nouveaux assemblages homme-machine marquent un changement fondamental dans l’histoire des bureaucraties dédiées à la censure : en lieu et place des imprimeurs-libraires chapeautés par la direction de la Librairie, ou du directeur de publication responsable devant le juge judiciaire, l’ère numérique substitue une main-d’œuvre taylorisée, placée le long de chaînes d’assemblage virtuelles pilotées par des algorithmes.

TREG2019c.21 Cf. Tréguer, L’utopie déchue, op. cit., p. 293-294 : Pour Shoshana Zuboff, l’émergence des grandes plateformes numériques financées par la collecte massive de données comportementales marque une nouvelle étape dans l’histoire du capitalisme. Après la marchandisation de la vie humaine sous la forme du travail salarié, celle de la nature au travers de la propriété foncière, ou encore la marchandisation de la monnaie par la finance, le capitalisme de surveillance ajoute à ces trois “grandes transformations” analysées par Karl Polanyi une quatrième : la marchandisation des données comportementales. […] Or, en poursuivant leur propre logique d’accumulation capitalistique, les grandes multinationales du numérique comme Google ou Facebook ont fait émerger des dispositifs sociotechniques d’une redoutable efficacité pour surveiller et réguler les communications numériques.

TREG2019c.22 Cf. Tréguer, L’utopie déchue, op. cit., p. 304 : Or, après sa consécration par les régimes libéraux au XVIIIe et XIXe siècles, l’institution judiciaire semble à son tour tendanciellement dépassée par l’alliance entre le pouvoir exécutif et des gestionnaires privés d’infrastructures qui, grâce aux données numériques formant la matière brute d’un nouveau pouvoir statistique, s’avèrent terriblement efficaces dans la mise en œuvre des stratégies de contrôle de l’espace public.

TREG2019c.23 Cf. Tréguer, L’utopie déchue, op. cit., p. 306 : Née dans le giron bureaucratique et militaire, l’informatique va paradoxalement participer d’une déstabilisation historique de ces mécanismes.

TREG2019c.24 Cf. Tréguer, L’utopie déchue, op. cit., p. 307 : Alors, l’État va tenter de s’adapter, chercher puis trouver des failles, et surtout saisir les opportunités. Peu à peu, ses architectures sécuritaires se transforment pour lui permettre de répondre à ce nouveau monde des flux numériques transnationaux. L’enjeu consiste à agir avec suffisamment d’agilité pour les contrôler sans trop les ralentir. Car après tout, ce sont ces flux qui fondent sa puissance, et celle-ci reste indexée à sa capacité à les attirer vers son territoire.

TREG2019c.25 Cf. Tréguer, L’utopie déchue, op. cit., p. 308 : De la même manière que les sociétés de souveraineté maniaient “la poulie et l’horloge”, ou que les sociétés disciplinaires turbinaient aux “machines énergétiques” et à la thermodynamique, c’est l’informatique et ses modes “toujours plus immanents au champ social, diffusés dans le cerveau et le corps de citoyens”, qui constituent la clé de voûte technologique des sociétés de contrôle.

TREG2019c.26 Cf. Tréguer, L’utopie déchue, op. cit., p. 308 : À l’heure de la surveillance de masse en “temps réel”, de la propagande “dividuelle” et de la censure automatique opérant comme une “modulation universelle”, ces descriptions confortent l’idée que, dans l’histoire des controverses sur l’informatique, ce ne sont pas tant les utopistes que ceux qui pressentaient la dystopie qui ont été rétrospectivement confirmés dans leurs analyses.

TREG2019c.27 Cf. Tréguer, L’utopie déchue, op. cit., p. 309 : En écho aux prédictions de Norbert Wiener sur l’automatisation du travail, le digital labor traduit aujourd’hui la remise en selle des logiques du taylorisme dans ce qui passe encore pour une économie “post-industrielle”, accélérant au passage la précarisation et le démantèlement des droits sociaux pour mieux soumettre l’humain à des machines supposées “intelligentes”.

TREG2019c.28 Cf. Tréguer, L’utopie déchue, op. cit., p. 312 : Ce sont peut-être les militants français du CLODO qui résument le mieux le fond du problème : “Un ordinateur n’est qu’un tas de ferraille qui ne sert qu’à ce que l’on veut qu’il serve”, et “dans notre monde, il n’est qu’un outil de plus, particulièrement performant, au service des dominants”. Tandis que les ex-hippies technophiles croyaient pouvoir utiliser l’ordinateur pour “se changer soi-même” et ainsi changer la société, eux prenaient une position inverse : pour songer à reprendre véritablement la main sur l’informatique, sur son développement, sur ses usages, il fallait commencer par changer le monde. Près de quarante ans plus tard, tandis que la “gouvernance par les données” sert de nouveau mode de gouvernement, que les protections juridiques associées à l’État de droit sont tendanciellement dépassées, la technologie informatique continue sa “marche en avant” au service du pouvoir.

TREG2019c.29 Cf. Tréguer, L’utopie déchue, op. cit., p. 313 : À l’heure où le Big Data et l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, un tel découplage entre pouvoir et informatique paraît moins probable que jamais. Et si l’on admet qu’il n’adviendra pas dans un futur proche, alors il est urgent d’articuler les stratégies classiques à un refus plus radical opposé à l’informatisation du monde.

ABPE2017 Terra Data

Serge ABITEBOUL & Valérie PEUGEOT, Terra Data. Qu’allons-nous faire de nos données numériques ?, Paris, Fayard, 2019.

ABPE2017.1 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 26 : La transformation de données est l’essence même de l’informatique. Si, en anglais, computer insiste sur la faculté de calcul, et “ordinateur”, en français, sur le séquencement des opérations, le mot “informatique”, qui tend à s’angliciser en informatics, insiste plus justement sur l’information manipulée par ces machines, tout comme son équivalent danois datalogi.

ABPE2017.2 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 43 : Les données sont maintenant disponibles sur tout et n’importe quoi multipliant les occasions de réaliser des statistiques sur des volumes de plus en plus massifs de données, apportant, parfois faussement, l’impression de capturer la vérité.

ABPE2017.3 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 57 : Du fait de ces imbrications complexes entre technologie et usages, il convient de relativiser les effets d’annonce sur les merveilleux apports du numérique. Ils sont portés par ceux qui ont un intérêt direct au succès de l’invention considérée, qui cherchent à séduire les investisseurs publics et privés, ou tout simplement ont fortement envie d’y croire. Manque le plus souvent un véritable débat sur la pertinence en termes d’utilité sociale de telle ou telle application de la technologie.

ABPE2017.4 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 58 : L’analyse de données massives, pensée comme un ensemble de technologies et d’usages, n’échappe évidemment pas au phénomène. Elle n’est pas a priori porteuse de bien-être ou de mal-être pour nos sociétés. Elle est ce que nous voudrons bien en faire ! Cette liberté de choix n’est pas à craindre, bien au contraire. Les sciences et les technologies n’ont pas pour objet de déterminer les transformations du monde, de s’imposer au-dessus des facteurs économiques, culturels, sociaux. Il ne s’agit ni plus ni moins que de reprendre le pouvoir sur la technologie et de mobiliser la formidable créativité humaine pour construire collectivement notre destin.

ABPE2017.5 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 59-60 : Le terme de smart city […] est en soi révélateur de son ambition : l’informatique, les échanges et l’analyse des données numériques viennent en aide aux acteurs historiques de la ville – élus, administrations, entreprises publiques et privées, gestionnaires de services. […] En réalité, une smart city, telle que la conçoivent les entreprises qui la promeuvent, c’est avant tout une “ville des données”, une data city. La gestion intelligente d’une ville s’appuie sur la collecte, la diffusion et l’analyse des données produites par l’ensemble de ses infrastructures urbaines : consommation des fluides, gestion des déchets, inscriptions scolaires et périscolaires, emprunts en bibliothèques, vélos et voitures en usage partagé, accès aux transports publics, informatisation de l’accès aux équipements publics type piscine, stade, etc. Si les nouveaux services sont les moteurs de la ville connectée, les données sont les sources d’énergie que consomment ces moteurs.

ABPE2017.6 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 78 : Certes nous disposons de plus en plus de données, et de moyens d’analyse de plus en plus puissants. Aussi peut-être pourrions-nous nous contenter de “laisser parler les données” ? Cette proposition résiste cependant assez mal à l’épreuve des faits : l’intelligence humaine est indispensable pour savoir où et quoi chercher.

ABPE2017.7 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 87 : Des chercheurs, en analysant des données du web facilement accessibles comme les tweets, croient pouvoir en tirer des informations sur toute la société, confondant parfois quantité et qualité. […] Toutes ces critiques convergent vers le constat que les recherches s’appuyant sur le numérique nécessitent d’élaborer leurs propres méthodologies, et de comprendre leurs limites. De ce point de vue, le numérique est simplement un outil parmi d’autres.

ABPE2017.8 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 89 : Un ordinateur est une machine à tout faire (general purpose). Quel que soit le domaine scientifique, une donnée reste une séquence de bits. Les principes même de la “pensée algorithmique” peuvent être convoqués par toutes les disciplines, mis au service de tous les champs de la connaissance.

ABPE2017.9 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 191 : Il nous faut maintenant, collectivement, prendre le temps de réfléchir à ce que nous allons vraiment faire des techniques qui entourent les données. Les défis se sont déplacés des performances vers l’éthique. Comme les usages de l’informatique sont à la source des problèmes, l’informatique est convoquée pour participer aux solutions dans les domaines où l’utilisation de données est critique.

ABPE2017.10 Cf. Abiteboul & Peugeot, Terra Data, op. cit., p. 212 : Si personne n’envisage sérieusement d’interrompre la construction de notre monde numérique, certains, à l’image de GreenIT, nous invitent à être plus économes, en énergie comme en matériel. […] Le blog GreenIT (www.greenit.fr) est consacré aux enjeux du numérique durable.

STAM2017 La face cachée d’Internet

Rayna STAMBOLIYSKA, La face cachée d’Internet, Paris, Larousse, 2017.

STAM2017.1 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 11 : je vous propose de plonger immédiatement dans le grand bain numérique.

STAM2017.2 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 12 : Le bit, disons sous-jacent, est de vous donner des outils critiques et des connaissances grâce auxquels vous serez capable d’améliorer votre hygiène numérique et de mieux appréhender les enjeux qui s’y rattachent.

STAM2017.3 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 13 : Pour beaucoup, encode aujourd’hui, le rapport au numérique et son impact sur nos lois et nos vies relèvent de l’extraordinaire, entraînant une négligence qui peut coûter cher.

STAM2017.4 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 15 : La boucle est bouclée : ce livre n’a pas pour but de vous faire peur, mais il fera de vous un internaute plus autonome dans les usages, moins infantilisé dans les rapports avec les différents acteurs et plus éduqués quant aux enjeux du numérique.

STAM2017.5 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 42 : “Cyberattaque” est un terme générique pour parler de manœuvre offensive visant des systèmes informatiques. Alors que “cyber” fait référence à des systèmes ou moyens informatiques, c’est “attaque” qui donne le sens plus spécifique : il s’agit de tentative de détruire, modifier, rendre inopérant ou vulnérable le système. Une cyberattaque peut aussi faire référence à la prise de contrôle ou l’usage non autorisé d’un système informatique. C’est effectivement vaste, alors que ce dont la sécurité se nourrit est la précision.

STAM2017.6 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 43 : En 2017, à peu près tous les médias incluent des “actus” sur des problèmes de sécurité informatique dans leur couverture éditoriale.

STAM2017.7 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 44 : Pour l’instant, concentrons-nous sur l’idée que nous sommes vulnérables et qu’au lieu de tomber dans la psychose ou de se détourner de ce fait, on ferait mieux d’y remédier du mieux qu’on peut. Le lien quasi intime entre le numérique et notre quotidien le requiert.

STAM2017.8 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 44 : La sécurité informatique n’est pas seulement une question technique. La sécurité informatique exige surtout une approche multi-disciplinaire où la compétence technique est requise mais où vous, l’utilisateur, n’avez pas besoin d’un diplôme d’ingénieur en la matière.

STAM2017.9 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 45 : Avez-vous pensé à demander à votre service informatique de chiffrer l’ordinateur en question ?

STAM2017.10 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 46 : On le voit bien : inutile de tomber dans des histoires angoissantes de grand complot mondial pour s’appercevoir [sic] que le facteur humain joue un rôle très important dans la sécurité informatique.

STAM2017.11 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 46 : On prendra le cas du prétendu “hacking” russe des élections américaines pour illustrer les difficultés se posant face à un enquêteur numérique.

STAM2017.12 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 46 : On ne le répétera jamais assez, la sécurité informatique est l’affaire de tous.

STAM2017.13 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 49 : Alors, du point de vue d’un expert infosec, quelles sont les précautions essentielles pour avoir une bonne hygiène numérique au quotidien ?

STAM2017.14 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 49 : Les hackers malveillants utilisent d’autres méthodes pour accéder aux systèmes informatiques

STAM2017.15 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 61 : Comme nous l’avons dit plut tôt, “cyber” est utilisé à toutes les sauces : son utilisation reprend une façon concise de nommer les attaquants ayant fait usage d’outils numériques.

STAM2017.16 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 62 : Nous utiliserons, malgré les réserves, ce cas comme point de discussion, car sa complexité permet d’apprécier les difficultés rencontrées par les enquêteurs numériques dans le cadre d’un grand nombre d’accidents.

STAM2017.17 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 65 : La place de l’élément civilisationnel est essentielle : il s’agit de mobiliser le numérique pour promouvoir et faire respecter les valeurs nationales.

STAM2017.18 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 74 : Établir une causalité entre quelques événements de nature numérique et cette évolution du discours politique est tout simplement une gageure.

STAM2017.19 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 77 : On voit donc que les outils numériques ont des exigences et des objectifs différents et distincts.

STAM2017.20 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 83 : Comme nous l’avons vu au début de ce chapitre, les États peuvent recourir à l’outil numérique pour en faire un levier d’influence géopolitique. Mais qu’en est-il sur le plan intérieur ? Un gouvernement utilise-t-il toujours le numérique pour le bien de ses citoyens ?

STAM2017.21 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 83 : L’un des thèmes couverts par ce média [Global Voices] est “communiquer sur les enjeux du numérique de par le monde” en s’appuyant sur une large base d’auteurs bénévoles du monde entier.

STAM2017.22 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 83 : C’est la belle époque de l’activisme numérique

STAM2017.23 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 84-85 : Ces découvertes ont été faites par le Citizen Lab, un groupe de recherche sur la sécurité informatique et son impact sur les droits de l’homme, basé à l’université de Toronto au Canada.

STAM2017.24 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 86 : Savoir que nous n’y pouvons rien malgré tous les efforts déployés pour maintenir une bonne hygiène numérique fait froid dans le dos.

STAM2017.25 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 86-87 : Ce cas ainsi que les pages suivantes constituent une autre facette de notre discussion à propos de la surveillance à l’heure du numérique.

STAM2017.26 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 99 : Il semble donc que des gouvernements se livrent à une véritable course à l’armement d’intrusion numérique. Cette tendance est préoccupante, comme le note un récent rapport de l’ONU : “Les TIC [Technologies de l’information et de la communication] ouvrent des possibilités immenses pour le développement économique et social et continuent à gagner en importance pour la communauté internationale. L’environnement informatique mondial présente toutefois des tendances préoccupantes, notamment la hausse spectaculaire du nombre d’actes de malveillance dans lesquels des États ou des acteurs non étatiques sont impliqués.

STAM2017.27 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 100 : Le programme, de loin le plus coûteux financièrement parmi ceux dévoilés par Snowden, exploite diverses approches pour s’introduire abusivement dans les communications des gens : intégrer – dès la conception – des portes dérobées dans les solutions de chiffrement de divers services web, récupérer des certificats de chiffrement ou même entreprendre des cyberattaques ou de l’espionnage à l’encontre de sociétés de services web pour leur voler leurs clés numériques.

STAM2017.28 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 100 : Rappelons-nous aussi une autre facette de la mobilisation de moyens informatiques : les 0days.

STAM2017.29 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 100 : Cet engagement est d’autant plus fort que certains textes de doctrine précisent désormais que les outils numériques peuvent être considérés comme une infrastructure critique/stratégique (et donc, d’importance vitale pour le pays) ou encore qu’une cyberattaque contre des installations vitales peut recevoir une réponse militaire.

STAM2017.30 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 100-101 : C’est à la police que revient de maintenir l’ordre intérieur. En prenant comme prémisse que la menace informatique peut venir de partout, on gomme rapidement ces limitations et on en arrive à une situation où la (prétendue) menace intérieur se confond avec le chaos international. Cette confusion entre ces deux formes de régulations est toxique. Ainsi on en arrive à définir une autre tension de cette militarisation de l’outil numérique : la diminution du niveau de sécurité générale en tentant d’assurer sa propre sécurité via une augmentation du risque de conflit. En effet, revenons à la question évoquée plus haut à propos des élections américaines : comment un État devrait-il réagir face à ce qu’il perçoit comme une ingérence dans ses affaires internes par un autre État par le biais d’intrusions informatiques ?

STAM2017.31 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 101 : Avant de parler de régulations internationales et d’approches de maîtrise des armements (numériques), détaillons le rôle significatif de certaines entreprises dans cette situation complexe.

STAM2017.32 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 101 : La sécurité des systèmes informatiques et d’information est un enjeu de sécurité nationale, donc de nombreuses entreprises ont émergé et développé le marché.

STAM2017.33 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 106 : il est très difficile de définir ce qu’est une “arme informatique” : parle-t-on de moyens numériques d’influence informationnelle ?

STAM2017.34 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 101 : Ne serait-on pas face là à l’équivalent numérique d’un bazooka pour dégommer une mouche.

STAM2017.35 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 111 : La question de la confiance à l’heure du numérique. On reparlera d’avantage du logiciel libre et open source dans le chapitre 02 car son émergence participe à celle d’une éthique hacker. Définissons-le brièvement ici, afin de pouvoir discuter sereinement de son impact sur la confiance à l’ère du numérique.

STAM2017.36 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 114 : Quel rapport avec l’informatique, vous demandez-vous ?

STAM2017.37 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 114 : Ces comportements informatiques ont été admis par Volkswagen.

STAM2017.38 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 116 : Les chercheurs en sécurité informatique Runa Sandvik et Michael Auger ont pu détourner un fusil de précision que quelqu’un avait eu la brillante idée de connecter au WiFi

STAM2017.39 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 116 : Les “maisons intelligentes” (parce que connectées à Internet) ont aussi été décriées comme un désastre informatique en devenir. Des procédures sont en cours entre une entreprise commercialisant des pacemakers et une société de sécurité informatique ayant démontré de nombreux problèmes sérieux avec la sécurité des implants cardiaques.

STAM2017.40 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 117 : Abordons donc la question d’une solution technique à un problème de gouvernance : peut-on faire confiance aux ordinateurs et à l’informatique pour l’élection des représentants du peuple ? Est-ce que le vote électronique généralisé (entraînant la disparition du vote papier) permettra de “débloquer” notre démocratie cahotante ?

STAM2017.41 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 119 : J’ai une formation en informatique. […] Autrement dit, je baigne dans les questions liées au numérique, aux libertés et à la politique.

STAM2017.42 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 119 : Il s’agissait d’une erreur de 4096 votants ors d’un vote électronique en Belgique, due a priori à une erreur informatique.

STAM2017.43 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 129 : Aujourd’hui, le numérique et notre présence sur le web font partie de notre vie quotidienne.

STAM2017.44 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 130 : Intéressons-nous ainsi à deux types d’activités grandement facilitées par l’entrée du numérique dans notre quotidien : le doxing et le revenge porn.

STAM2017.45 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 132 : […] Elles sont amplifiées par la diffusion massive que permet le numérique.

STAM2017.46 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 133 : On s’attendrait à une conclusion de chapitre qui claque… Ce n’est pas évident. Ce qui l’est cependant, c’est la ribambelle d’enjeux qui constituent et façonnent notre quotidien, leur imbrication et impact sur notre vie. Si vous ne retenez qu’une chose, on espère qu’elle soit une compréhension plus riche et critique du numérique : le “quoi” de ce livre fait ainsi place au “qui”.

STAM2017.47 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 138 : Il est souvent difficile de bien distinguer le bons et les brutes, les Anonymous et lanceurs d’alertes, les “chapeaux blancs”, les “chapeaux noirs” et toutes les nuances de gris qui façonnent le paysage numérique toujours mouvant.

STAM2017.48 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 138 : Avec les premiers ordinateurs apparaissent les premiers experts informatiques. Dans les années cinquante, le prestigieux MIT voit ainsi naître en son sein des “hackers”.

STAM2017.49 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 140 : L’introduction dans des systèmes informatiques est devenue un véritable métier et, logiquement, la défense contre les intrusions aussi.

STAM2017.50 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 142 : Gabriella Coleman, une anthropologue dont on reparlera, a raconté son immersion dans le monde des “hackers” en général et des communautés de logiciels libres et open source en particulier. Son livre rend compte de l’attachement que portent nombre de ces communautés aux principes de “protection de la propriété et des libertés civiles, promotion de la tolérance et de l’autonomie individuelle, sécurisation d’une presse libre, direction via un gouvernement aux pouvoirs limités et des lois universelles, et préservation du principe d’opportunité équitable et de méritocratie”. Les personnes présentes dans ce livre évoluent pour beaucoup avec ces valeurs : elles font leur promotion via le numérique, et ce sans même y penser.

STAM2017.51 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 143-144 : Le mot “hacker” est francisé en “hackeur”, mais quelle que soit son orthographe, le sens qui lui est donné en français dans l’imaginaire collectif, c’est celui du pirate (donc méchant) informatique : celui qui veut absolument se saisir de nos numéros de carte bancaire pour s’acheter des drogues ou faire exploser une centrale nucléaire.

STAM2017.52 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 144 : En informatique, c’est l’usage de la vulnérabilité qui fait la couleur du hacker.

STAM2017.53 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 145 : Un expert en sécurité peut ainsi par exemple (et en le disant très vite) être assimilé à un white hat : il fera les tests nécessaires pour répertorier et corriger toutes les brèches et failles d’un produit informatique. C’est ce que proposent les entreprises de sécurité informatiques aux développeurs de logiciels et aux sociétés qui déploient des solutions techniques extérieures au sein de leur infrastructure.

STAM2017.54 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 146 : Ou peut-on traiter de “brute” un hacktiviste qui s’introduit par un moyen illégal dans les systèmes informatique d’une société qui vend du logiciel espion à des gouvernements qui emprisonnent et torturent leurs opposants ?

STAM2017.55 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 161 : Cette affirmation péremptoire et fausse agace toujours car elle est trop souvent instrumentalisée pour justifier une vision conservatrice,parfois réactionnaire et souvent répressive du numérique.

STAM2017.56 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 164 : L’évolution fulgurante du numérique (Internet, matériel, moyens de création) a multiplié les outils permettant à tout un chacun de créer et de diffuser des œuvres.

STAM2017.57 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 167 : Le rôle de ce paysage d’Internet, et du numérique au sens large, est central.

STAM2017.58 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 172 : Le Parti Pirate (PP) est un parti ayant pour devise : “liberté, démocratie, partage”. Son objectif est la néation (sic) de politiques publiques sur la base de la protection des droits et libertés aussi bien dans le domaine numérique qu’en dehors.

STAM2017.59 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 173 : Dans la sphère numérique et le même registre, on trouve aussi WikiLeaks.

STAM2017.60 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 180 : Nous l’avons évoqué, l’usage d’outils illégaux peut être justifié par l’argument de légitimité transformant ainsi un outil illégal en un moyen de désobéissance civile numérique.

STAM2017.61 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 181 : Il est évident que, numérique à part, ce type d’action contestataire n’arien de nouveau

STAM2017.62 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 182-183 : Au tout début de 2011, à peine après le jour de l’An, l’équipe de résistance numérique se fait plus active.

STAM2017.63 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 184 : Une bonne partie des approches et outils numériques développés pour OpTunisia et Operation Egypt a été réutilisée dans d’autres pays de l’Afrique du Nord et du Moyen-Orient, jusqu’en Iran.

STAM2017.64 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 185 : Le 5 février 2011, une attaque informatique d’envergure vise HBGary Federal

STAM2017.65 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 187 : Vers la mi-avril 2011, LulzSec s’introduit dans les systèmes informatiques de la chaîne conservatrice Fox News.

STAM2017.66 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 188 : Mais de nombreux spécialiste de la sécurité informatique ont trouvé que les actions de LulzSec ont fait passer un message très clair : la sécurité des systèmes et des services en ligne n’est pas accessoire, ce n’est pas une dépense inutile pour les entreprises, ce n’est pas un élément anodin de la vie de l’internaute.

STAM2017.67 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 189 : LulzSec et Anonymous se retrouvent en juin 2011 dans le cadre d’AntiSec, une série d’attaques, de hacks et de fuites ciblant les agences de renseignements, les banques et des entreprises dont le fonds de commerce est la sécurité informatique.

STAM2017.68 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 189 : C’est d’ailleurs grâce à ces documents que l’on a relevé la première preuve tangible d’interférence gouvernementale (via attaques DDoS) dans les réseaux et outils numériques utilisés par Anonymous.

STAM2017.69 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 190 : En 2012, il participe aux côtés d’acteurs du numérique tels que Wikipédia, Google, etc. au Blackout Days (le 18 janvier), une web-manifestation contre les projets de loi SOPA et PIPA ; pour afficher son opposition, chaque site web participant noircit ses contenus pour monter à quoi il ressemblerait si les lois SOPA et PIPA entraient en vigueur.

STAM2017.70 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 193 : WikiLeaks continue ses actions, son positionnement évolue, comme toute la sphère numérique.

STAM2017.71 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 194 : La manière dont WikiLeaks est unique en ce qu’elle se concentre autour de la manipulation d’outils numériques complexes

STAM2017.72 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 200 : Cela n’a rien de surprenant quand on sait qu’il a été poursuivi pour intrusion dans des systèmes informatiques dès 1991.

STAM2017.73 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 210 : la Turquie est connue pour son habitude de surveiller les communications numériques et de censurer fréquemment sites Web et autres réseaux sociaux.

STAM2017.74 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 223 : Je m’appelle Olivier Tesquet, j’ai 29 ans, et je suis journaliste à Télérama, où je suis depuis cinq ans les questions liées aux cultures numériques, aux libertés publiques et au renseignement.

STAM2017.75 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 226 : Enfin, et puisqu’on parle de confiance et d’acteurs faisant un usage intensif d’outils numériques, on peut se demander si le numérique a réellement un rôle déterminant dans ce débat : après tout, c’est un site web et des intrusions dans des systèmes informatiques qui ont permis à ces événements d’avoir lieu. Est-ce donc bien la faute à Internet ? (question troll par excellence)

STAM2017.76 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 228 : Avoir confiance en un messager, se servant ou pas du numérique, est ainsi une question autrement plus complexe que la simple discussion autour de l’outil utilisé.

STAM2017.77 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 233 : Nous avons vu que la confiance est “le centre de gravité” de WikiLeaks, la sphère numérique en général ayant un effet amplifiant sur le rôle de message dans beaucoup de cas. Si la confiance est un messager investi du pouvoir amplificateur du web, c’est la crédibilité de WikiLeaks et, par extension, de ce que l’on peut faire avec le numérique dans cette sphère qui est en jeu.

STAM2017.78 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 238 : Alors qui sait, peut-être que les dealers de rue feront eux aussi leur transformation digitale (sic) pour être dans l’ère du temps… [emphase de l’auteure]

STAM2017.79 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 238 : Quelques minutes et deux paragraphes auront suffi pour révéler la méconnaissance des enjeux du numérique par certains élus, le sensationnalisme politiquement orienté de certains médias et les amalfames anxiogènes qui frôlent la désinformation.

STAM2017.80 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 240 : Et comment posent-ils de véritables défis à l’idée que l’on se fait de la confiance à l’ère numérique ?

STAM2017.81 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 242-243 : l’accès à l’information et à la connaissance disponibles en ligne a joué un rôle structurant dans l’évolution du numérique au sens large.

STAM2017.82 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 243 : En effet, ces derniers [les DRM] sont aussi connus comme des “verrous numériques” car ils empêchent les utilisations de contenus numériques suivant le contexte, soumettant l’utilisation au bon vouloir du créateur du support.

STAM2017.83 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 246 : Si vous hébergez un relais Tor, vous verrez du trafic passer mais vous n’en saurez pas grand-chose vu qu’il sera chiffré (l’équivalent numérique du gloubiboulga, on en reparlera plus loin).

STAM2017.84 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 249 : Ceux-ci [les Cypherpunks] se préoccupent d’anonymat, de vie privée et de droits numériques.

STAM2017.85 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 250 : Les thèmes principaux incluent la vie privée à l’ère du numérique (eh oui déjà dans les années 1990) et le pouvoir d’un gouvernement de surveiller les communications électroniques.

STAM2017.86 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 255 : Nous le voyons bien : les Cypherpunks ont eu un impact significatif sur le fonctionnement actuel de nombreuses composantes fondamentales du monde numérique.

STAM2017.87 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 258 : Quoi qu’il en soit, il est facile de comprendre que l’utilisation d’outils informatiques avancés fournissant anonymat et protection du secret des communication va au-delà de la “geekerie” : il s’agit avant tout d’un projet politique.

STAM2017.88 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 258 : Les monnaies numériques alternatives

STAM2017.89 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 270 : un livre papier peut plus ou moins rapidement devenir obsolète niveau sécurité et numérique.

STAM2017.90 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 289 : Entre-temps, une experte en sécurité informatique avait déjà levé le lièvre

STAM2017.91 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 313 : Pour conclure cet exemple, on peut dire que la préparation et la planification sont indispensables si vous voulez préserver votre anonymat et votre sécurité informatique : c’est l’OPSEC.

STAM2017.92 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 314 : Lorsqu’on fait de la sécurité (y compris informatique), il est primordial d’évaluer les menaces et vulnérabilités liées à une activité donnée.

STAM2017.92 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 316 : Ces erreurs ne sont pas aussi caricaturales qu’une étiquette rouge “DROGUES” sur une enveloppe blanche, mais traduisent des niveaux de connaissance limités, un manque de préparation et une mauvaise “hygiène” numérique.

STAM2017.93 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 319 : Le monde numérique (dont le darkweb) est une image du monde hors-ligne.

STAM2017.94 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 323 : Des associations de défense des droits numériques telles que l’EFF avaient saisi la justice pour se prononcer sur le dépassement de prérogatives et l’intrusion massive dans les ordinateurs de centaines de personnes.

STAM2017.95 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 327 : Que notre relation avec le numérique se complexifie.

STAM2017.96 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 327 : Il y a quelques années, on pouvait défendre avec force que la technologie est fondamentalement neutre et que son impact dépend de l’usage qui en est fait. Aujourd’hui, la délégation de pouvoir à des outils numériques et autres objets connectés, tous plus complexes et fermés les uns des autres (sic), devient un terrain de jeu d’ingénieurs sociaux.

STAM2017.97 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 328 : Comment donc avoir confiance en quelque objet ou service numérique dont on ignore tout et dont la valeur et l’éthique ne sont garanties que par le discours commercial qui l’accompagne ? […] En explorant des faces cachées, c’est surtout la complexité de notre rapport au numérique qui est apparue. Ce rapport est à l’image de ce qui nous entoure : rien n’est blanc ou noir, rien ne justifie de traiter le “cyber” de cyberdélinquance comme une circonstance aggravante et rien ne justifie de sous-estimer l’ampleur des enjeux pour tout un chacun. Le traitement du sujet qui en fait dans cet ouvrage est aussi à l’image de notre rapport au numérique : multicouches, multifacettes, plus ou moins compréhensible, plus ou moins drôle.

STAM2017.98 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 329 : On le voit par exemple dans l’inaptitude d’une surveillance généralisée de nos vies numérico-charnelles à en assurer la sécurité.

STAM2017.99 Cf. Stamboliyska, La face cachée d’Internet, op. cit., p. 329 : Pour pouvoir continuer à chanter (faux) sous la douche, vous et moi devons garder en tête les enjeux de confiance à l’heure du numérique et en devenir des acteurs.

MULL2020 La tyrannie des métriques

Jerry Z. MULLER, La tyrannie des métriques, Genève, Éditions Markus Haller, 2020.

MULL2020.1 Cf. Muller, La tyrannie des métriques, op. cit., p. 26 : Voici les principales certitudes de l’obsession métrique : il est possible et souhaitable de remplacer le jugement, fruit du talent et des l’expérience personnelle, par des indices chiffrés de performances comparées, fondés sur des données standardisées (métriques) ; rendre publiques (transparentes) de telles métriques permet de s’assurer que les institutions s’acquittent effectivement de leur mission (redevabilité) ; le meilleur moyen de motiver les personnes qui travaillent au sein de ces organisations consiste à lier leurs performances mesurées à des sanctions ou à des récompenses – soit monétaires (rémunération à l’acte), soit réputationnelles (classements). L’obsession métrique tient à la persistance de ces certitudes alors même que l’on constate leurs effets négatifs involontaires quand elles sont appliquées. Pourquoi ces effets négatifs ? Parce que tout ce qui est important n’est pas mesurable, et qu’une bonne partie de ce qui est mesurables est sans importance. (Ou, pour le dire autrement, parce que “tout ce qui est comptable ne compte pas nécessairement, et tout ce qui compte n’est pas nécessairement comptable” [William Bruce CAMERON, Informal Sociology: A Casual Introduction to Sociological Thinking, New-York, 1963].) La plupart des organisations ont des objectifs multiples, mais elles ont tendance à favoriser ce qui peut être mesuré et récompensé, au détriment d’autres objectifs essentiels. De même, de nombreux métiers ont de multiples facettes, et en mesurant seulement certaines d’entre elles, on nous incite à négliger les autres.

MULL2020.2 Cf. Muller, La tyrannie des métriques, op. cit., p. 28 : La croyance dans l’efficacité des métriques semble persister même quand il s’avère qu’elles n’en ont aucune ; en cela, l’obsession métrique n’est pas sans rappeler le fonctionnement d’une secte. Les études qui démontrent son inefficacité, quand elles ne sont pas tout simplement ignorées, suscitent une réaction étonnante : la solutions, rétroquent ses zélateurs, consiste à produire davantage de données et à élaborer de meilleurs mesurages. La métrique aspire à imiter la science, mais elle a souvent tous les dehors d’une religion.

MULL2020.3 Cf. Muller, La tyrannie des métriques, op. cit., p. 55-56 : les occasions de collecter des données n’ayant fait que se multiplier pour un coût toujours plus bas, on a vu s’imposer cette illusion : les données sont la réponse, et il revient aux organisations de trouver la réponse correspondante. C’est là une conviction rarement interrogée : en amassant des données, et en les diffusant largement au sein de l’organisation, on est persuadé que l’on œuvre à améliorer celle-ci – même si, pour se muer en “données” aisément transférables, une bonne part de l’information doit être dépouillée de toute nuance et privée de son contexte.

MBEM2020 Brutalisme

Achille MBEMBE, Brutalisme, Paris, La Découverte, 2020.

MBEM2020.1 Cf. Mbembe, Brutalisme, op. cit., p. 32 : Il n’y a plus d’une part l’humanité et de l’autre un système des objets par rapport auquel les humains se situeraient comme en surplomb. Nous sommes désormais traversés de part en part par les objets, travaillés par eux autant que nous les travaillons. Il y a un devenir-objet de l’humanité qui est le pendant du devenir-humain des objets. Nous sommes le minerai que nos objets sont chargés d’extraire. Ces derniers agissent avec nous, nous font agir et, surtout, nous animent. La redécouverte de ce pouvoir d’animation et de cette fonction psycho-prosthétique, ce sont surtout les technologies digitales qui la rendent possible. Du coup, le nouvel animisme se confond avec la raison électronique et algorithmique, qui en est aussi bien le médium que l’enveloppe, voire le moteur. Sur le plan politique, ce nouvel animisme est un nœud de paradoxes. En son noyau le plus profond se trouvent des virtualités d’affranchissement. Il annonce peut-être la fin des dichotomies. Mais il pourrait également servir de vecteur privilégié au néovitalisme qui nourrit le néolibéralisme.

MBEM2020.2 Cf. Mbembe, Brutalisme, op. cit., p. 70-72 : Cette création de monde a lieu à une époque où la mise en ordre des sociétés s’effectue désormais sous un seul et même signe, la computation numérique. Par computation numérique, il faut entendre trois choses. D’abord, un système technique ou encore un dispositif machinique spécialisé dans le travail d’abstraction, et donc de capture et de traitement automatique de données (matérielles et mentales) qu’il s’agit d’identifier, de sélectionner, de trier, de classer, de recombiner et d’actionner. Si, de ce point de vue, la numérisation constitue un travail d’abstraction, ce dernier n’est guère inséparable d’un autre, le calcul – à la fois du vivable et du pensable. Mais porté ou non par des architectures techniques, le calcul est, par principe, un jeu de probabilités. Étant donné que c’est en dernière instance le hasard qu’il s’agit de calculer, l’indétermination demeure donc la règle. Le computationnel est, ensuite, une instance de production et de constitution en série de sujets, d’objets, de phénomènes, mais aussi de consciences et de mémoires et traces que l’on peut coder et stocker, et qui de surcroît sont dotées d’aptitudes circulantes. Enfin, le computationnel est l’institution par le biais de laquelle se crée et se met en forme un monde commun, un nouveau sens commun, de nouveaux ordonnancements de la réalité et du pouvoir. Ce monde et ce sens communs sont le produit de la fusion de trois types de ratio soumis, chacun, à une dynamique d’extension et d’augmentation – la raison économique, la raison biologique et la raison algorithmique. Ces trois formes de la raison sont hantées par un fantasme métaphysique – la technolâtrie. Mécanismes de computation, modélisation algorithmique et extension du capital vers l’ensemble de la vie ne constituent plus qu’un seul et même procès. Qu’il s’agisse des corps, des nerfs, de la matière, du sang, des tissus cellulaires, du cerveau ou de l’énergie, le projet reste le même : la conversion de toute substance en quantités, le calcul préemptif des potentialités, des risques et des aléas en vue de leur financiarisation d’une part, et la conversion des finalités organiques et vitales en moyens techniques d’autre part. Il s’agit donc de tout détacher de tout substrat, de toute corporéité, de toute matérialité ; de tout “artificialiser” et de tout “automatiser” et “autonomiser”. Il s’agit de tout soumettre à des effets de quantification et d’abstraction. La numérisation n’est rien d’autre que cette capture de forces et de potentialités et leur annexion par le langage d’une machine-cerveau transformée en système autonome et automatisé. L’humanité est en effet sur le point de renaître à une deuxième nature, au détour d’une transformation intrinsèque de l’horizon du calcul et d’une extension presque indéfinie des logiques de quantification. Il peut sembler paradoxal, voire contre-intuitif, de qualifier ce moment technologique d’entropique. Il l’est pourtant, à bien des égards. En effet, capter, identifier, diviser, trier, sélectionner et classer n’est pas le propre des machines artificielles.

MBEM2020.3 Cf. Mbembe, Brutalisme, op. cit., p. 76-79 : Le rêve d’une sécurité sans faille, qui exige non seulement surveillance systématique et totale mais aussi expurgation, est symptomatique des tensions structurelles qui, depuis des décennies, accompagnent notre passage à un nouveau système technique plus automatisé, plus réticulaire et en même temps plus abstrait, fait de multiples écrans – digital, algorithmique, numineux. […] Voilà pourquoi, dans une société de sécurité, la priorité est d’identifier à tout prix ce qui est tapi derrière chaque apparition – qui est qui, qui vit où, avec qui et depuis quand, qui fait quoi, qui vient d’où, qui va où, quand, par quelle voie, pourquoi et ainsi de suite. Et, davantage encore, qui projette de commettre quels actes, consciemment ou inconsciemment. Le projet de la société de sécurité n’est pas d’affirmer la liberté, mais de contrôler et de gouverner les modes d’apparition. Le mythe contemporain prétend que la technologie constitue le meilleur outil pour gouverner les apparitions. Elle seule permettrait de résoudre ce problème qui est un problème d’ordre, mais aussi de connaissance, de repères, d’anticipation, de prévision. Il est à craindre que le rêve d’une humanité transparente à elle-même, dépourvue de mystère, ne soit qu’une catastrophique illusion. Pour le moment, migrants et réfugiés en paient le prix. Il n’est pas certain qu’à la longue ils soient les seuls.

JEAN2019 De l’autre côté de la machine

Aurélie JEAN, Voyage d’une scientifique au pays des algorithmes, Paris, Éditions de l’Observatoire, 2019.

JEAN2019.1 Cf. Jean, De l’autre côté de la machine, op. cit., p. 13 : Naviguer dans le monde des algorithmes et de la modélisation numérique est pour moi un cadeau : celui de comprendre, par la virtualisation des phénomènes, les mécanismes de la vie, de tout système, d’ailleurs, vivant ou inerte.

JEAN2019.2 Cf. Jean, De l’autre côté de la machine, op. cit., p. 45 : C’est à ce moment précis que j’ai compris une chose fondamentale : ce que tant d’intellectuels avaient cherché à créer, je l’avais sous les yeux – ou, devrais-je dire, sous les doigts : le code informatique comme réponse au mythe de Babel ! Certes, il s’agit d’un langage formel et non naturel, mais l’idée me semble intéressante. Les langages de programmation ont toujours visé à agréger un maximum d’individus des quatre coins du monde autour du développement de contenus informatiques – les logiciels libres, par exemple. Voilà pourquoi l’informatique utilise l’anglais pour définir des noms de fonctions – comme print pour demander l’impression du Hello World!. À l’heure de l’open source et des projets informatiques collaboratifs, l’utilisation de termes provenant de l’anglais s’avère nécessaire. La découverte du parallèle entre un langage informatique dit “formel” et le langage naturel a donc été pour moi à l’origine de nombreuses questions, souvent sans réponse, en lien avec la linguistique.

JEAN2019.3 Cf. Jean, De l’autre côté de la machine, op. cit., p. 59 : On ne le dit pas assez souvent, mais un algorithme s’élabore par tâtonnement : on simule, on observe… puis on reprend. C’est une boucle de rétroaction qui nous permet de construire un modèle qui soit le plus proche possible de la réalité. Je reprends donc mon algorithme en introduisant des éléments supplémentaires.

JEAN2019.4 Cf. Jean, De l’autre côté de la machine, op. cit., p. 70 : toute modélisation reste une approximation de la réalité ; et même si mes hypothèses sont bonnes, je dois voir plus large : si elles se basent sur des données biaisées, mon algorithme le sera aussi.

JEAN2019.5 Cf. Jean, De l’autre côté de la machine, op. cit., p. 88 : Parce qu’ils sont inévitables, les biais nous forcent à développer notre esprit critique. Ils sont, en quelque sorte, l’ingrédient magique de l’autodéfense intellectuelle chez le numéricien : ils nous poussent à remettre sans cesse en question les résultats d’autrui, mais aussi nos propres idées.

JEAN2019.6 Cf. Jean, De l’autre côté de la machine, op. cit., p. 89 : Et pourtant. Aujourd’hui, on rend les algorithmes coupables de tous les maux. On les accuse de racisme, de sexisme, de favoritisme… Mais c’est un faux procès ! Car, si sophistiqué qu’il soit, un algorithme ne fait jamais que ce pour quoi on l’a programmé – même dans le cas d’une intelligence artificielle apprenante. L’algorithme n’a pas de conscience, il n’a pas d’autonomie, il n’a pas de pouvoirs magiques. Disons-le avec force : fustiger les algorithmes, c’est prendre la question par le mauvais bout. Bien sûr, les évolutions et innovations récentes soulèvent des problèmes inédits, auxquels nos sociétés doivent répondre pour encadrer les nouvelles pratiques et garantir qu’elles soient au service de progrès pour les humains. Pour trouver les solutions, rien ne sert de s’acharner sur des boucs émissaires. Mieux vaut chercher à comprendre et se poser les bonnes questions.

JEAN2019.7 Cf. Jean, De l’autre côté de la machine, op. cit., p. 115 : Algorithmes, biais, data, code, critères, hypothèses… Tous ces mots ne devraient à présent plus nous échapper. En tout cas, ils ne doivent pas nous faire peur, ou nous impressionner. Au contraire ! Ils sont notre clé pour garder toujours à l’esprit la distinction entre monde virtuel numérisé et monde réel organique. Pour reprendre la métaphore d’Alice au pays des merveilles, le miroir incarne la séparation de ces deux mondes, virtuel et réel. Comprendre comment est faite cette frontière, et comment on passe d’un monde à l’autre : voilà qui devrait faire partie d’une culture générale du XXIe siècle. Cela permettrait d’éviter amalgames, discours catastrophistes et autres promesses mensongères.

DURA2020 Techno-féodalisme

Cédric DURAND, Techno-féodalisme. Critique de l’économie numérique, Paris, Zones, 2020.

DURA2020.1 Cf. Durand, Techno-féodalisme, op. cit., p. 76-77 : Les données, aussi massives soient-elles, relèvent du domaine de la représentation, elles expriment un point de vue nécessairement partiel et ne font sens qu’en lien avec une connaissance préalablement constituée. Elles ne sont pas innocentes. Elles contiennent de la théorie, cristallisée dans les algorithmes qui les organisent, sachant que la recherche de régularité qui les gouverne présuppose la construction d’hypothèses. […] La tentative de réduire les existences aux probabilités porte en elle le risque de dessaisir les individus et les communautés de la maîtrise de leurs devenirs. Privées de leur capacité à défier les probabilités, c’est-à-dire à mettre en crise le réel, les subjectivités perdent toute leur puissance. Ce risque de déréalisation n’a rien d’une fatalité, mais il ne cesse de croître sous les effets de l’instrumentalisation de la gouvernementalité algorithmique dans les stratégies de profit des firmes du numérique.

DURA2020.2 Cf. Durand, Techno-féodalisme, op. cit., p. 127 : L’essor du numérique nourrit une gigantesque économie de rente, non pas parce que l’information serait la nouvelle source de valeur, mais parce que le contrôle de l’information et de la connaissance, c’est-à-dire la monopolisation intellectuelle, est devenu le plus puissant moyen de capter la valeur.

CACA2015 Qu’est-ce que le digital labor ?

Dominique CARDON et Antonio A. CASILLI, Qu’est-ce que le digital labor ?, Paris, Ina Éditions, 2015.

CACA2015.1 Cf. Cardon & Casilli, Qu’est-ce que le digital labor ?, op. cit., p. 41-42 : La chose qui me frappe[…], c’est le changement du climat intellectuel des travaux sur Internet. Internet était sympa, il ne l’est plus. Sans doute peut-on dater ce grand renversement du printemps 2013 et des révélations d’Edward Snowden. Mais ce retournement était en germe de longue date. Avec le développement des grands empires marchands, le retour en force des États dans la régulation du réseau, la massification des usages, Internet a profondément changé. La manière dont il est perçu et parlé dans l’espace public a connu une inflexion majeure et brutale. Internet n’est plus une alternative, il est partout. Internet n’est plus une anomalie sauvage, il est mainstream. Internet était une avant-garde innovante, il est devenu conformiste et commercial. Ce processus de normalisation a eu pour conséquence de faire basculer d’un côté vers l’autre les discours que les intellectuels et les chercheurs tenaient sur le réseau des réseaux. Je m’amuse souvent du fait que les références intellectuelles des théoriciens de l’Internet des pionniers étaient Deleuze et Guattari et que, désormais, ce sont Adorno et Horkheimer ; parfois, ce sont les mêmes qui ont fait ce saut improbable entre les deux systèmes de référence. “From joyous to dark Deleuze”, comme le disait récemment Geert Lovink. À la valorisation des forces créatives et subversives du réseau a succédé une dénonciation de la rationalisation des subjectivités par un média massifiant. Alors qu’il libérait en bousculant normes et institutions, Internet serait devenu à la fois un système d’exploitation, une usine, et l’instrument d’une servitude volontaire, une aliénation. C’est ce brusque retournement de la critique intellectuelle que je voudrais interroger […] parce qu’il me semble que le débat sur le digital labor en est le parfait symptôme.

CACA2015.1 Cf. Cardon & Casilli, Qu’est-ce que le digital labor ?, op. cit., p. 67-68 : Le deuxième facteur qui contribue à rendre pensables les pratiques numériques dans les termes économiques du digital labor est l’affaiblissement de la croyance collective envers les motivations intrinsèques des internautes et le déplacement progressif du système de reconnaissance et d’estime en un dispositif de calcul de la réputation. Dans une économie où l’on agit moins par motivation intrinsèque que pour se déplacer dans un espace de calcul qui rapporte un bien convertible, la réputation, devenue signal sur le marché du travail, il paraît moins anormal que l’on réclame une rémunération pour récompenser le travail des internautes réputés. C’est en effet la manifestation de plus en plus évidente d’un ethos calculateur des praticiens du numérique qui semble justifier le fait que, si les internautes sont si attentifs à leur nombre d’amis ou de followers, si sourcilleux de leur e-reputation, si engagés dans un jeu de ruse et de triche avec les calculateurs du web social, il n’est pas déraisonnable de considérer que leurs activités sont habitées par le genre d’arbitrage coût/bénéfice qui est aussi celui des univers marchands. La fragile économie de l’estime des petites communautés au mérite de l’Internet des pionniers est désormais, très partiellement, une économie de la réputation. Elle ne cherche plus à étendre le tissu de dettes mutuelles entre internautes, mais à calculer une valeur qui les singularise et les distingue les uns des autres. Devenue une valeur commensurable, la réputation s’extériorise de l’expérience des acteurs pour devenir une incitation encourageant un agir finalisé. Le dispositif de reconnaissance suscitant le débordement désintéressé apparaît alors comme un dispositif de calcul suscitant des stratégies cadrées et calculables. Les compteurs du web social et tout le discours sur la valorisation (sur son CV, par exemple) de la réputation acquise sur le web auraient contribué à produire des internautes calculateurs, individualisés et en compétition les uns avec les autres – ce qu’elle n’est, en réalité, que pour une infime fraction d’internautes. En faisant converger le mépris pour les petites contributions des nouveaux publics et l’ethos du calcul, il est dès lors possible aux tenants du digital labor de séparer les nouveaux praticiens du numérique de l’esprit des pionniers et de les rendre au calcul marchand dont ils n’ont jamais vraiment su s’extraire.

BASC2021 Basculements

Jérôme BASCHET, Baculements. Monde émergents, possibles désirables, Paris, La Découverte, 2021.

BASC2021.1 Cf. Baschet, Baculements, op. cit., p. 20 : Au titre de l’accélération des tendances antérieures à la crise du coronavirus, on doit faire place à l’essor fulgurant des pratiques numériques qu’a entraîné le grand confinement planétaire : télétravail, télé-enseignement, télé-sociabilité, visioconférences, e-commerce, etc. Il s’est agi d’un vaste terrain d’expérimentation des formes de dématérialisation des activités sociales, sous la pression de contraintes sanitaires susceptibles d’en favoriser l’acceptabilité. La pandémie a donc créé des conditions favorables à l’accélération de la mise en place du monde de la connectivité généralisée (intelligence artificielle, robotisation, objets connectés, véhicules autonomes, smart cities, etc.), que ses adeptes vantent sous le nom de “révolution numérique”.

BOUR2021 Internet, année zéro

Jonathan BOURGUIGNON, Internet, année zéro. De la Silicon Valley à la Chine, naissance et mutations du réseau, Paris, Éditions Divergences, 2021.

BOUR2021.1 Cf. Bourguignon, Internet, année zéro, op. cit., p. 83-84 : Le cyberespace semble renoncer à devenir un univers parallèle et sensoriel. Après avoir quitté l’univers austère des lignes de code, le web reste un espace d’images et de lumière, dans lequel l’ouïe n’intervient que spasmodiquement, dans lequel le toucher, l’odorat et le goût sont inexistants… Alors que la voie de la réalité virtuelle semble sans issue, il reste une autre voie pour se défaire de la contrainte du corps et proposer à l’esprit un univers virtuel riche, un univers augmenté, directement accessible à travers le réseau : puisqu’internet peine à créer son univers alternatif, il faut que ce soit le monde physique qui se fusionne avec internet. Que le moindre évènement du monde réel soit capté, distribué à travers le réseau. Que le réseau avale le monde, ou plus exactement que le cyberespace recouvre le monde, le reproduise à l’intérieur de ses sites web, se substitue à lui et le réduise à son image. Au bout de cette transformation, le cyberespace ampute le corps en lui donnant à ressentir le monde à travers un écran, coupé de quatre de ses cinq sens. Ce phénomène prendra corps seulement après l’explosion de la bulle internet, et le nouveau paradigme de l’accumulation de données à des échelles inimaginables auparavant à l’intérieur de plateformes quasi hégémoniques. En attendant, ce fantasme de la numérisation, c’est-à-dire de la transposition de l’essence du réel dans un environnement façonné, contrôlé, est déjà envisagé par un mouvement qui prend de la vigueur à l’époque de l’euphorie de la bulle internet : le transhumanisme. Et c’est sous cette forme que la promesse de l’émancipation des corps trop mortels se fait la plus concrète.

BOUR2021.2 Cf. Bourguignon, Internet, année zéro, op. cit., p. 120 : Facebook ne devient véritablement social que lorsqu’apparaît la clé de son fonctionnement : la relation d’amitié. Deux profils sont liés si l’un ajoute l’autre dans sa liste d’amis, et que l’autre confirme l’existence de cette relation. Facebook s’inscrit ainsi dans la vision cybernétique du monde, il modélise les interactions entre deux humain par une loi simpliste, binaire : être ou ne pas être ami.

BOUR2021.3 Cf. Bourguignon, Internet, année zéro, op. cit., p. 162-163 : Conformément aux prédictions du directeur de Google, internet devient invisible : comme ils se multiplient, les appareils connectés au réseau se miniaturisent. Pour continuer sa croissance, pour continuer sa colonisation du réel, internet doit étendre son emprise au royaume physique des industries purement matérielles : à la logistique, à la livraison de marchandises par drones, à la conduite autonome des camions et des taxis, à l’optimisation des flux urbains dans les métropoles. Ce qui signifie qu’internet a besoin d’incorporer le monde entier dans sa vision cybernétique. Si le smartphone a été la clé pour faire de l’humain une créature cybernétique dont les émotions peuvent être collectées, anticipées et donc contrôlées par le réseau, les capteurs – caméras, GPS, thermomètre, transducteurs connectés de tous types – associés aux IA permettront à Internet d’interpréter le réel, de le fusionner au cyberespace virtuel, d’étendre son emprise sur le monde physique. Ce qui a été pudiquement appelé “internet des objets” (internet of things, abrégé IoT). Les objets ne sont pas recréés dans ce cyberespace promis par les visionnaires du web : ils deviennent simplement connectés. Les interfaces disparaissent : le monde en réseau se commande à la voix, des assistants qui ont pour nom Siri, Google, Alexa, écoutent et anticipent les désirs de leurs maîtres – ils remplissent leur réfrigérateur, décident de la musique qu’ils doivent écouter, des films qu’ils doivent voir. Le cyberespace recouvre le monde et le réduit à sa propre essence : il ampute le corps en le coupant de trois de ses cinq sens, ceux que le format vidéo du web ne peut porter. Les intelligences artificielles qui régissent ce monde sont invisibles. Software is eating the world, selon les mots de Marc Andreessen qui deviennent le slogan de a16z [N.D.A. : Andreessen Horowitz, fonds de capital risque siégeant à Menlo Park en Californie et fondé en 2009 par Marc Andreesen et Ben Horowitz].

BRET1990 La tribu informatique

Philippe BRETON, La tribu informatique : enquête sur une passion moderne, Paris, Éditions Métailié, 1990.

BRET1990.1 Cf. Breton, La tribu informatique, op. cit., p. 34-35 : Les premiers informaticiens, fondateurs de la tribu, proposèrent une vision du monde dans laquelle le désordre (“l’entropie”) jouait un rôle déterminant. “Nous vivons, disait Norbert Wiener, dans un monde où quelques îlots organisés subsistent au milieu d’un océan de désordre et l’homme ne doit sa survie qu’à sa capacité à organiser et à faire circuler l’information dont il dispose.” Dans cette conception la tendance dominante de l’univers naturel, comme des sociétés humaines, est la tendance à la désagrégation et au nivellement. Cette vision du monde suppose également que l’homme, en tant que tel, n’est pas suffisamment armé pour faire face seul à la pression menaçante de son environnement ou à la complexité des sociétés auxquelles il appartient. Aussi les machines à traiter l’information, en particulier les ordinateurs, sont-elles des auxiliaires indispensables à la survie de l’homme. Le système du monde de l’informatique part, comme nous le voyons, de présupposés foncièrement pessimistes auxquels est opposé un souci de “mise en ordre” et de “construction”. “L’information” dans cet esprit est une valeur centrale et son “traitement rationnel” une modalité essentielle de la vie en société comme de la vie tout court. L’imaginaire des multiples jeux informatiques reproduit à l’envie cette vision du monde par essence binaire, où les forces du Bien sont en permanence menacées d’être submergées par les puissances du Mal. La pratique concrète de l’informatique elle-même est un rappel permanent de cette coexistence non-pacifique entre l’univers organisé du programme et celui, diabolique, de l’erreur, du hasard, du désordre magmatique dans lequel toute action humaine semble s’enfoncer dès lors qu’elle n’obéit plus à des règles organisées.

BRET1990.2 Cf. Breton, La tribu informatique, op. cit., p. 44 : Un regard plus attentif sur les procédures mentales utilisées par les programmeurs, par exemple pour retrouver une erreur dans un logiciel, met en évidence l’utilisation systématique de l’intuition, qualité difficilement identifiable, mais que l’on reconnaît pourtant au premier abord. Aucun raisonnement produit par le cerveau humain ne peut d’ailleurs éviter de mettre en œuvre l’intuition, qualité spontanée dont on ne contrôle ni la présence, ni l’absence, mais qui semble jouer un rôle permanent – parfois diffus, parfois aigu – dans toute activité humaine. Le plus intéressant dans cette affaire est sans doute le déni que formulent à cet égard beaucoup d’informaticiens : alors que l’observateur les voit – si l’on peut dire – utiliser une démarche intuitive, ces derniers nient en général formellement avoir recours à autre chose qu’une démarche logique. Il est rare en effet de rencontrer des informaticiens qui osent s’avouer qu’ils ne savent pas très bien comment ils ont fait telle opération ou découvert telle erreur.

BRET1990.3 Cf. Breton, La tribu informatique, op. cit., p. 50-51 : La plupart des témoignages qui ont été cités jusqu’à présent mettent en avant la question du temps. A plus d’un titre, il s’agit d’une sorte de “temps sacré”. Ces témoignages font apparaître deux constantes : d’une part la sensation d’une contraction du temps que les intéressés disent éprouver devant l’ordinateur, d’autre part le sentiment que durant ce temps ils ont accédé à un vaste monde à part, parfois décrit comme” le vaste monde du dessous des choses”. Il est clair que le temps passé devant la machine n’a rien à voir avec le temps ordinaire. “L’effet de bulle” joue à plein et le temps passé tel qu’il est ressenti subjectivement dans ces situations paraît toujours s’écouler beaucoup plus rapidement. Dans ce sens l’informatique “décale” ceux qui la pratiquent par rapport aux autres et provoque ce que l’on pourrait appeler un peu familièrement le phénomène de la “soupe froide” à cause des retards fréquents qu’il provoque dans les activités sociales.

BRET1990.4 Cf. Breton, La tribu informatique, op. cit., p. 52 : L’informatique en effet est un monde d’ordre, un monde où l’on met “de l’ordre dans les choses”. Et, par un effet de généralisation sur lequel il nous faudra revenir, la pratique intense de l’informatique peut procurer la sensation curieuse que l’on a accès aux règles fondamentales qui organisent toutes choses. Dans les représentations globales que les informaticiens ont du monde, celui-ci est une lutte permanente de l’ordre et du désordre et, là où la plupart des mortels vivent à la fois dans ce qui se fait et ce qui se défait, eux ont l’insigne privilège d’être ceux par qui l’ordre arrive. L’esprit logique, le sens de l’organisation ne sont pas uniquement des qualités mentales mais aussi un mode d’être dans le monde en même temps qu’un moyen de le transformer. Comme les lois de l’organisation sont censées être les mêmes partout, le simple fait d’avoir accès à une petite partie de l’architecture de l’univers ordonné, sous la forme de l’ordinateur, peut procurer la sensation que l’on entre en symbiose avec le cosmos tout entier, du moins sa face organisée.

BRET1990.5 Cf. Breton, La tribu informatique, op. cit., p. 121-122 : Deux événements importants, étroitement solidaires, se sont en effet produits en 1945 : l’invention de l’ordinateur et l’usage de la bombe atomique au Japon. Ces deux événements sont parmi les plus importants qu’ait connus cette deuxième partie du XXe siècle et nous vivons encore aujourd’hui sous le coup de ces deux chocs initiaux. La bombe et l’ordinateur ne sont-ils pas, finalement, les deux versants d’un même phénomène ? La bombe bien sûr représente la dimension diabolique du savoir humain et elle est l’instrument le plus puissant que l’on ait jamais inventé pour semer le désordre dans la matière et dans la vie. L’ordinateur vient curieusement en contrepoint se proposer comme l’outil lui aussi le plus puissant qu’on ait jamais imaginé pour générer de l’ordre, de l’organisation. Sa dimension “angélique” n’avait apparemment pas échappé à Wiener, lui qui avait, dans un premier temps, pensé forger le nom du nouveau domaine à partir de la racine angelos, l’ange, le messager. Il choisira en dernier ressort le mot “cybernétique” dont la racine kubernos, le gouvernail, lui paraissait plus appropriée à son projet. Quoi qu’il en soit le nucléaire apparaît bien comme le négatif de l’informatique. Sur le plan matériel, la proximité des deux univers est évidente. Von Neumann n’est pas seulement l’inventeur de l’ordinateur, il est aussi l’un de ceux dont les travaux permirent la mise au point des deux premières bombes. Bien que l’ordinateur n’ait pas été utilisé pour les calculs des premières bombes A, dès 1948, l’informatique sera étroitement associée à la réalisation des milliers de bombes à hydrogène qu’exigera l’armée américaine pour la “défense du pays”.

COLE2016 Anonymous

Gabriella COLEMAN, Anonymous. Hacker, activiste, faussaire, mouchard, lanceur d’alerte, Montréal, Lux Éditeur, 2016.

COLE2016.1 Cf. Coleman, Anonymous, op. cit., p. 106 : Et pourtant, si l’on regarde au-delà de l’ordinateur, on constate à tout moment qu’Anonymous est assimilable à un agrégat de chair et d’os (intégrés grâce à des câbles, à des transistors et à des signaux wi-fi) où abondent des kilomètres de vaisseaux chargés de sang, des kilos de viscères débordant de fluides vitaux et un enchevêtrement de transmetteurs de signaux, le tout soutenu par un squelette auquel sont attachés des pistons musculaires, et coordonné depuis un dôme caverneux renfermant un centre de contrôle toujours actif – analogue de ces systèmes fabuleusement grotesques et chaotiquement précis qui, considérés isolément, constituent ce qu’on appelle des personnes.

DOWE2007 Les métamorphoses du calcul

Gilles DOWEK, Les métamorphoses du calcul. Une étonnante histoire de mathématiques, Paris, Le Pommier, 2007.

DOWE2007.1 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 66 : La genèse de la logique des prédicats : 1879-1928. 1879 : logique de Frege. 1897 : paradoxe de Burali-Forti. 1902  : paradoxe de Russell. 1903 : théorie des types de Russell, développée par la suite avec Whitehead. 1908 : axiomes de la théorie des ensembles de Zermelo. 1928 : forme définitive de la logique des prédicats de Hilbert.

DOWE2007.2 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 90-91 : La thèse de Church éclaire d’une lumière nouvelle le vieux problème philosophique de l’efficacité des concepts mathématiques pour décrire la nature. […] Jusqu’au XVIe siècle, on pouvait balayer cette question en répondant que la nature n’obéissait pas à des lois mathématiques. C’est le point de vue dominant dans la philosophie aristotélicienne de la fin du Moyen Âge. Mais les succès de la physique mathématique n’ont cessé de se multiplier depuis et l’on est bien obligé de constater que, comme le disait Galilée, le grand livre de la nature est écrit en langage mathématique.

DOWE2007.3 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 108 : La théorie de la calculabilté a fait jouer un rôle important aux notions d’algorithme et de calcul. Mais, malgré la tentative radicale de Hilbert de remplacer le raisonnement par le calcul et malgré la tentative courageuse, mais infructueuse, de Church, la théorie de la calculabilité n’a pas fait évoluer la notion de démonstration. Tout au long du développement de la théorie de la calculabilité, les démonstrations sont restées des démonstrations de la logique des prédicats, construites avec des axiomes et des règles de déduction, conformément à la conception axiomatique des mathématiques, et sans que, dans ces démonstrations, la plus petite place soit laissée au calcul.

DOWE2007.4 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 127-128 : Pour conclure, le lien entre les notions de démonstration constructive et d’algorithme est, finalement, assez simple : les démonstrations constructives sont des algorithmes. […] Tout comme la théorie de la calculabilté, la théorie de la constructivité a fait jouer un rôle important aux notions d’algorithme et de calcul, puisqu’elle aboutit à définir les démonstrations constructives comme des algorithmes. Mais les démonstrations dont parle cette théorie sont des démonstrations de la logique des prédicats, construites avec des axiomes et des règles de déduction, conformément à la conception axiomatique des mathématiques, sans que, dans ces démonstrations, la plus petite place soit faite au calcul. Du début du XXe siècle à la fin des années soixante, ni la théorie de la calculabilité ni celle de la constructivité n’ont donc remis en cause la méthode axiomatique. Une démonstration, jusqu’à la fin des années soixante se construisait toujours avec des axiomes et des règles de déduction, sans que la plus petite place soit laissée au calcul. Cependant, par le rôle qu’elles ont fait jouer à la notion d’algorithme, ces deux théories ont préparé le terrain pour la critique de la méthode axiomatique, qui a débuté la décennie suivante.

DOWE2007.5 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 197 : La présence des axiomes est à l’origine de nombreuses difficultés, par exemple en démonstration automatique, mais aussi dans la théorie de l’élimination des coupures. Les axiomes empoisonnent les mathématiques depuis Hilbert, sinon depuis Euclide. Cela amène à rêver d’une nouvelle logique dans laquelle une démonstration serait construite avec des règles de déduction et des règles de calcul, mais sans axiome. Le programme de Hilbert visait à s’affranchir des axiomes et des règles de déduction. Il était trop ambitieux et a échoué. Mais s’affranchir des axiomes tout en gardant les règles de déduction serait déjà un progrès important. Le calcul nous permettra-t-il de nous débarrasser un jour des axiomes ou, malgré le calcul, serons-nous toujours contraints de leur laisser une place dans l’édifice mathématique ?

DOWE2007.6 Cf. Dowek, Les métamorphoses du calcul, op. cit., p. 209-211 : David Hilbert (1862-1943) a donné sa forme définitive à la logique des prédicats. Il a formulé le problème de la décision, résolu négativement par Church et Turing. Il a proposé un programme, trop ambitieux, visant à remplacer le raisonnement par le calcul. Il s’est opposé au projet constructiviste de Brouwer. […] Bertrand Russell (1872-1970) a proposé un paradoxe, plus simple que celui de Burali-Forti, qui montre que la logique de Frege est contradictoire. Sa théorie des types, qui corrige la logique de Frege, annonce à la fois la logique des prédicats et la théorie des ensembles. Il a proposé la thèse d’universalité des mathématiques. Luitzen Egbertus Jan Brouwer (1881-1966) est le fondateur du constructivisme. Il est à l’origine, avec Heyting et Kolmogorov, de l’interprétation algorithmique des démonstrations. […] Haskell Curry (1900-1982) a proposé une modification des fondations des mathématiques proposées par Church qui évite les paradoxes. Avec de Bruijn et Howard, il a renouvelé l’interprétation algorithmique des démonstrations en proposant d’exprimer les démonstrations dans le lambda-calcul. […] Alonzo Church (1903-1995) a proposé l’une des définitions de la notion de fonction calculable : le lambda-calcul. Il a démontré avec Rosser la confluence du lambda-calcul. Il a démontré, avec Kleene, et en même temps que Turing, l’indécidabilité du problème de l’arrêt. Il a démontré, en même temps que Turing, l’indécidabilité de la démontrabilité dans la logique des prédicats. Il a proposé l’idée selon laquelle la notion commune d’algorithme est capturée par le lambda-calcul et ses équivalents. Sa proposition de fonder les mathématiques sur le lambda-calcul a échoué, mais elle anticipe certains travaux ultérieurs. Il a reformulé la théorie des types de Russell en incorporant certaines idées issues du lambda-calcul pour aboutir à la théorie des types de Church. […] Kurt Gödel (1906-1978) a montré que n’importe quelle théorie pouvait se traduire en théorie des ensembles. Il a proposé avec Herbrand une définition de la notion de calculabilité : les équations de Herbrand et Gödel. Il a montré que les mathématiques constructives et non constructives pouvaient cohabiter dans une même logique. Son célèbre théorème d’incomplétude, qui annonce le théorème de Church, montre qu’il existe des propositions qui ne sont ni démontrables ni réfutables en théorie des types et dans bien d’autres théories. […] Stephen Cole Kleene (1909-1994) est l’auteur de l’une des définitions de la notion de calculabilité : la notion de fonction récursive. Il a montré avec Church, et en même temps que Turing, l’indécidabilité du problème de l’arrêt. Il a montré, avec Rosser, que les fondations des mathématiques proposées par Church étaient contradictoires. Il est l’un des premiers à avoir compris les rapports entre constructivité et calculabilité. […] Alan Turing (1912-1954) est l’auteur d’une des définitions de la notion de calculabilité fondée sur la notion de machine de Turing. Il a démontré, indépendamment de Church et Kleene, l’indécidabilité du problème de l’arrêt. Il a démontré, indépendamment de Church, l’indécidabilité de la démontrabilité dans la logique des prédicats. Il a proposé une thèse proche de la thèse de Church. Il a fait partie de l’équipe qui a construit l’un des premiers ordinateurs : Colossus.

CARDO2015 À quoi rêvent les algorithmes

Dominique CARDON, À quoi rêvent les algorithmes calcul. Nos vies à l’heure des big data, Paris, Éditions du Seuil et La République des Idées, 2015.

CARDO2015.1 Cf. Cardon, À quoi rêvent les algorithmes, op. cit., p. 36-37 : Pour justifier le développement de ces outils prédictifs, les promoteurs des big data ont entrepris de disqualifier la sagesse et la pertinence des jugements humains. Les individus, soutiennent-ils, ne cessent de faire des erreurs d’évaluation. Ils manquent de discernement, font des estimations systématiquement trop optimistes, anticipent mal les effets futurs en préférant toujours le présent, se laissent déborder par leurs émotions, s’influencent mutuellement et ne raisonnent pas de façon probabiliste. À grand renfort de travaux de psychologie et d’économie expérimentales, les architectes des nouveaux algorithmes des big data assurent qu’il ne faut faire confiance qu’aux conduites réelles des individus, et non à ce qu’ils prétendent faire lorsqu’ils se racontent sur les très expressives plateformes du web social. Les régularités globales observées sur de grandes masses de traces doivent permettre d’estimer ce que l’utilisateur risque de faire réellement. Les algorithmes prédictifs ne donnent pas une réponse à ce que les gens disent vouloir faire, mais à ce qu’ils font sans vouloir vraiment se le dire.

CARDO2015.2 Cf. Cardon, À quoi rêvent les algorithmes, op. cit., p. 77 : Les algorithmes qui se disent prédictifs ne le sont pas parce qu’ils seraient parvenus à entrer dans la subjectivité des personnes pour sonder leurs désirs ou leurs aspirations. Ils sont prédictifs parce qu’ils font constamment l’hypothèse que notre futur sera une reproduction de notre passé. L’individu des algorithmes est un “dividu”, selon l’expression que Gilles Deleuze avait forgée pour imaginer la disparition de l’individu pris dans les flux du contrôle machinique. Il n’a pas d’histoire, pas d’intériorité, pas de représentations ni de projets. Il n’est pas inscrit dans une position, pris dans des rapports sociaux, soumis aux forces multiples qui s’exercent sur lui. Il est ce que trahissent ses comportements dans le miroir que lui tendent les autres. Le comportementalisme algorithmique, c’est ce qui reste de l’habitus lorsqu’on a fait disparaître les structures sociales.

CARDO2019 Culture numérique

Dominique CARDON, Culture numérique calcul, Paris, Presses de Sciences Po, 2019.

CARDO2019.1 Cf. Cardon, Culture numérique, op. cit., p. 7 : Nous serions entrés dans une nouvelle ère de la productivité dont l’information, la communication et le calcul seraient les principaux ressorts.

CARDO2019.2 Cf. Cardon, Culture numérique, op. cit., p. 8 : Dans les domaines de la science, de l’organisation de l’État et de la ville, dans les relations sociales, les engagements politiques, les choix amoureux et les voyages, les transactions marchandes, la fabrication des identités individuelles et de la mémoire collective, l’information numérique est omniprésente.

CARDO2019.3 Cf. Cardon, Culture numérique, op. cit., p. 16 : Aujourd’hui, nous utilisons le terme numérique, ou son équivalent anglais, digital, pour désigner de façon englobante et un peu vague tout ce qui touche à la communication, au réseau internet, aux logiciels et aux services qui leur sont associés. Mais la réalité tangible derrière le numérique, derrière les écrans, les interfaces et les services que nous utilisons, c’est l’informatique. Nous employons de moins en moins ce terme, plus spécialisé. Pourtant, ce que nous allons appeler dans cet ouvrage “culture numérique” est en réalité la somme des conséquences qu’exerce sur nos sociétés la généralisation des techniques de l’informatique.

CARDO2019.4 Cf. Cardon, Culture numérique, op. cit., p. 101 : expliquer pourquoi les débuts du web ont été caractérisés par deux dynamiques en apparence contradictoires : la fièvre marchande de la nouvelle économie d’une part, les communautés produisant des biens communs, d’autre part. Cette dualité est, dès l’origine, consubstantielle à la culture numérique. Elle s’enracine dans une même réalité : le web est une infrastructure d’échanges décentralisés rendant possible toutes sortes d’agencements collectifs qui peuvent aussi bien prendre la forme de marchés que de communautés.

CARDO2019.5 Cf. Cardon, Culture numérique, op. cit., p. 106 : avec une infrastructure de réseaux entre individus, on peut faire de la coopération ou du marché.

CARDO2019.6 Cf. Cardon, Culture numérique, op. cit., p. 226 : Ces dispositifs sont le plus souvent une interface utilisateurs, des informations sur la réputation des offreurs et des demandeurs, des techniques algorithmiques de recherche et de recommandation aidant les offreurs et les demandeurs à se trouver facilement, des outils de gestion des stocks et de suivi des flux, des moyens de paiement sécurisés ou encore d’autres services tiers.

CARDO2019.7 Cf. Cardon, Culture numérique, op. cit., p. 234 : Le traçage des internautes assuré par le biais des cookies participe d’une ambitieuse dynamique d’automatisation de la publicité en ligne, ou publicité programmatique (real time bidding), qui représente désormais plus d’un quart de la publicité en ligne. Pendant que l’internaute charge la page web qu’il désire consulter, son profil est mis aux enchères par un automate afin que des robots programmés par les annonceurs se disputent le meilleur prix pour placer leur bandeau publicitaire. L’ensemble de l’opération dure moins de 100 millisecondes. Le profil mis aux enchères ne ressemble pas au portrait-type utilisé dans le marketing traditionnel : il est constitué des traces de navigations antérieures de l’internaute enregistrées par les cookies. Les robots des annonceurs enchérissent après avoir calculé la probabilité que l’internaute clique sur le bandeau publicitaire à partir des données d’activités d’autres internautes. La performance de l’affichage publicitaire serait de 30 % supérieure lorsqu’il est réalisé par un automate analyseur de traces plutôt que par un média planner humain usant de sa connaissance du marché et de la clientèle.

CARDO2019.8 Cf. Cardon, Culture numérique, op. cit., p. 275-276 : Comme nous l’avons vu, Google Ads représente 50 % du marché de la publicité numérique à lui seul. Google s’est ainsi imposé comme le moteur de recherche dominant et ne cesse de renforcer son pouvoir à l’aide des données que les utilisateurs lui fournissent : leurs requêtes permettent à Google d’augmenter à la fois la pertinence des résultats et l’efficacité des publicités.

CARDO2019.9 Cf. Cardon, Culture numérique, op. cit., p. 280 : L’évolution vers la personnalisation est à la fois une conséquence de l’abondance des informations disponibles et la réponse à une attente de nos sociétés où les choix et centres d’intérêt s’individualisent.

CARDO2019.10 Cf. Cardon, Culture numérique, op. cit., p. 284 : Les algorithmes de prédiction personnalisée se proposent de comparer les traces d’activité d’un internaute à celles d’autres internautes qui ont effectué la même action que lui, afin de calculer la probabilité qu’aura cet internaute d’effectuer telle ou telle nouvelle activité du fait que d’autres qui lui ressemblent l’auront, eux, déjà effectuée. Dans le monde des algorithmes, on appelle ces méthodes le “filtrage collaboratif”. Le futur de l’internaute est prédit grâce au passé de ceux qui lui ressemblent. Il n’est plus nécessaire de trier les informations à partir du contenu des documents, des jugements proférés par les experts, du volume de l’audience, de la reconnaissance de la communauté ou des préférences du réseau social de l’utilisateur. Le profil de l’utilisateur est calculé à l’aide de techniques d’enregistrement qui collent au plus près de ses faits et gestes.

CARDO2019.11 Cf. Cardon, Culture numérique, op. cit., p. 285-286 : Pour justifier le développement de ces techniques prédictives, les architectes des nouveaux algorithmes des big data cherchent à disqualifier les jugements humains. Les individus, soutiennent-ils, manquent de sagesse et de discernement, font des estimations systématiquement trop optimistes, anticipent mal les effets futurs en préférant le présent, se laissent déborder par leurs émotions, s’influencent mutuellement et ne raisonnent pas de façon probabiliste. À grand renfort de travaux de psychologie et d’économie comportementales, les promoteurs des big data assurent qu’il ne faut faire confiance qu’aux conduites réelles des personnes, et non à ce qu’elles prétendent faire lorsqu’elles s’expriment sur le web social. Les régularités globales observées sur de grandes masses de traces doivent permettre d’estimer ce que l’utilisateur risque de faire réellement. Les algorithmes prédictifs ne donnent pas une réponse à ce que les individus prétendent vouloir faire, mais à ce qu’ils font vraiment sans vouloir se l’avouer. Ces techniques connaissent aujourd’hui une phase de mutation essentielle. La méthode statistique particulière qu’elles utilisent, l’apprentissage automatique (machine learning), a longtemps produit des résultats intéressants mais peu spectaculaires. Or, les progrès récents des machines à prédire bouleversent la manière dont elles pénètrent nos sociétés. De façon surprenante, ces techniques sont aujourd’hui appelées “intelligence artificielle”.

LAFO2004 L’empire cybernétique

Céline LAFONTAINE, L’empire cybernétique. Des machines à penser à la pensée de la machine, Paris, Éditions du Seuil, 2015.

LAFO2004.1 Cf. Lafontaine, L’empire cybernétique, op. cit., p. 74 : Rejetant l’individualisme des théories modernes, Bateson fonde son approche de la communication sur l’interdépendance des individus à l’intérieur du système. Défini comme un être essentiellement social, l’individu s’efface alors devant les déterminations interpersonnelles relatives au système de communication.

LAFO2004.2 Cf. Lafontaine, L’empire cybernétique, op. cit., p. 114-116 : Lacan ramène donc, ni plus ni moins, la parole au code informatique. Conçu comme pure fiction, le sujet lacanien n’existe que dans l’horizon de l’ordre symbolique qui le détermine, à la manière d’un circuit cybernétique. C’est du moins ce que Lacan soutient lorsqu’il affirme que l’inconscient c’est le discours de l’autre, non pas un autre “abstrait”, mais plutôt “le discours du circuit dans lequel je suis intégré”. Ce circuit dans lequel le sujet est tout entier intégré correspond à celui des “portes cybernétisées” dont la chaîne combinatoire fonctionne indépendamment de toute subjectivité. Pour comprendre ce qui est en jeu ici, il faut savoir que Lacan définit la cybernétique comme “une science de la syntaxe”. Si l’on se souvient de la primauté accordée à la syntaxe par la linguistique structurale et, par le fait même, du rôle déterminant dévolu au signifiant, on comprend que le symbolique correspond chez Lacan à une transposition du modèle cybernétique. Nul doute, à ses yeux, que “par la cybernétique, le symbole s’incarne dans un appareil. Et il s’y incarne de façon littéralement transsubjective”. Ce que cette incarnation machinique du symbole met en valeur, c’est l’opposition radicale entre le symbolique et l’imaginaire. Alors que l’imaginaire est le lieu d’une illusion, d’un “leurre lié au clivage entre moi et je”, le symbolique constitue l’espace de médiation à l’intérieur duquel s’ordonne la culture humaine. En faisant ressortir, par le biais de combinaisons binaires, l’autonomie du symbolique, la cybernétique touche au fondement de la culture humaine voulant que “l’homme ne soit pas maître chez lui”. Ainsi, il semble que pour Lacan le symbolique s’impose de l’extérieur au sujet suivant les mêmes combinaisons mathématiques que celles révélées par Lévi-Strauss.

LAFO2004.3 Cf. Lafontaine, L’empire cybernétique, op. cit., p. 155 : Système, complexité et auto-organisation, autant de concepts que recoupe la seconde cybernétique et qui nous mènent à la convergence contemporaine entre le néo-libéralisme et le paradigme informationnel. Cette convergence passe d’abord et avant tout par le développement des nouvelles technologies de l’information, mais aussi par la diffusion d’une vision du monde axée sur l’adaptabilité.

DUFO2019 Ada ou la beauté des nombres

Catherine DUFOUR, Ada ou la beauté des nombres. Lovelace, la pionnière de l’informatique, Paris, Fayard, 2019.

DUFO2019.1 Cf. Dufour, Ada ou la beauté des nombres, op. cit., p. 73-75 : Pour Ada, le moteur analytique sera un jour capable de libérer les symboles algébriques de leur valeur numérique ; de transcender les nombres pour accéder à un espace mathématique pur. “Il nous paraît évident que, les opérations étant indépendantes les unes des autres, il serait facile, grâce à quelques modifications apportées au mécanisme, d’obtenir une double série de résultats : 1, des valeurs numériques issues des opérations effectuées sur les données numériques – 2, des résultats symboliques.” Elle songe même aux “notations symboliques quelles qu’elles soient – musicales”, par exemple. “La machine pourrait composer des morceaux de musique de n’importe quel degré de complexité.” Et pourquoi pas “la parole, la logique” ? Ada va encore plus loin et établit un parallèle entre le moteur analytique et le fonctionnement cérébral : “La machine analytique n’occupe pas le même terrain qu’une simple machine à calculer. Elle occupe une position à part. Elle combine des symboles en séquences d’une variété et d’une étendue illimitées, et par conséquent, on peut établir un lien entre ces opérations matérielles et les processus mentaux.” Fidèle aux principes de Babbage, elle explique que le moteur analytique est “prévu pour être programmable, et capable de modifier son action selon les résultats des calculs”. De là, elle tire un principe essentiel : “L’objection de Lady Lovelace” (nom donné par Alan Turing dans son célébrissime article de 1950 qui fonde ce qui deviendra l’Intelligence artificielle). Ce principe est simple : l’ordinateur ne crée rien. “Le moteur analytique n’a aucune prétention à créer quoi que ce soit. Il peut faire tout ce que nous lui ordonnons de faire. Il peut effectuer une analyse, mais il n’a pas la capacité de créer des relations analytiques ou des données mathématiques. Cependant, il est certain qu’il exercera une influence sur la science elle-même, et qu’il en sera influencé à son tour.” Ada estime que les formules mathématiques, une fois mises sous une forme calculable, bénéficieront d’un nouvel éclairage permettant de mieux les comprendre. Ada voit le moteur analytique comme un moyen de percer les secrets des mathématiques par la force brute. Susceptible d’aller plus vite et plus loin que ne le pourrait un être humain armé de ses seules ressources, il ouvrira peut-être, au bout de son voyage, des portes dont nul ne soupçonnait l’existence. On retrouve cet émerveillement, de nos jours, devant l’Intelligence artificielle ou le big data. Ainsi, dans La Littérature au laboratoire, Franco Moretti (professeur au Stanford Literary Lab) écrit en 2016 : “Au fil de leurs expérimentations, les nouvelles technologies ont changé de statut : elles devaient rendre possible la vérification à très large échelle d’hypothèses audacieuses ; elles ont fini par défier les concepts mêmes qui entrent dans la formulation de ces hypothèses.” Étrange résonance entre deux nouvelles technologies que deux siècles séparent. Ada réalise là ce que Babbage, obnubilé par les détails matériels, n’a pas fait : un saut conceptuel. Agissant comme une focale panoramique, Ada place le travail de Babbage “dans un cadre conceptuel plus large sur lequel elle espérait qu’on pourrait bâtir”.

DUFO2019.2 Cf. Dufour, Ada ou la beauté des nombres, op. cit., p. 75-76 : Elle met aussi ses visions au net et invente dans sa note G les premiers outils informatiques. L’informaticien Philippe Guglielmetti explique, dans son blog Pourquoi comment combien, qu’“une idée fondatrice de la programmation, c’est de pouvoir coder “répète 123 fois ceci”, et que la machine ait un moyen de compter jusqu’à 123, ce qui implique l’existence d’une mémoire dont le contenu est modifié par les instructions du programme. Comme l’a très bien exprimé Alan Perlis [un informaticien américain] : “Un programme sans boucle et sans structure de données ne vaut pas la peine d’être écrit.” Alors, qui a écrit le premier programme valant la peine d’être écrit, la première boucle ? C’est Augusta Ada King, comtesse de Lovelace. […] La fameuse “note G” montre clairement qu’elle a inventé les notions de variables et de boucles qu’elle appelait cycles en programmation. Et accessoirement, que madame Lovelace commentait son code en prose intelligible, une habitude qui se perd”. Elle élabore aussi, dans la foulée, le concept de sous-programme, “suite d’instructions qui exécute une tâche spécifique, et qui peut être reprise par un programme plus vaste”. Elle en profite pour imaginer une bibliothèque de sous-programmes, qui sera un jour appelée bibliothèque logicielle par tous les programmeurs, et qui est une sorte d’entrepôt de pièces détachées pour monter des programmes.

BELL2018 The Message is Murder

Jonathan BELLER, The Message is Murder: Substrates of Computational Capital, London, Pluto Press, 2018.

BELL2018.1 Cf. Beller, The Message is Murder, op. cit., p. 1 : the rise of information itself is an extension of the ongoing quantification and instrumentalization of the life-world imposed by early capitalism, and further that the abstraction of “information” and its mechanization as “computation” take place in the footprint of the calculus of the value-form and the leveraged value-expropriation of labor by capitalized industry.

BELL2018.2 Cf. Beller, The Message is Murder, op. cit., p. 7 : discrete-state machines, that is, “computers,” emerge in the footprint of problems scripted by the value-form. One could indeed argue this thesis by tracing the modern computer back to the brilliance of Charles Babbage and Lady Lovelace and their early nineteenth century efforts on “the analytic engine” and “the difference engine” to industrialize mathematical calculations via steam in order to save human labor in calculation. Or one could look to Marx’s fragments on the machine that describe the fixed capital of industrialization as a “vast automaton.” We might see clearly from these texts that the blueprint for modern computation already lay in the routinizing and bureaucratizing functions of the industrial machine as it applied not only to labor but to thinking, and as consequent from the suddenly apparent God-like power and range of machinic calculus following upon capital’s “liberation of the productive forces;” their liberation, that is, from the producers. The “conscious organ” of the industrial machine, namely the worker, gives rise to the conscious organ of the post-industrial machine – you.

BELL2018.3 Cf. Beller, The Message is Murder, op. cit., p. 8 : Informatics implies the generalization of a quantifiable environment, an environment quantifiable in principle and one that opens everything in its purview not only to mathematical analysis but to a computable calculus of risk/reward, that is, to statistical analysis and to capitalist exploitation. It opens, in short, a new territory extending to all scales of space and time. It penetrates and surveys the colonial surround while inventing new forms of employ.

BELL2018.4 Cf. Beller, The Message is Murder, op. cit., p. 22 : Like Claude Shannon’s mathematical theory of communication, capital’s exchange-value was “content indifferent” so long as it increased. This relationship of indifference to content, shared between base 2 communication and capital as they shattered and fragmented traditional social media is no mere analogy.

BELL2018.5 Cf. Beller, The Message is Murder, op. cit., p. 56 : Better I think to see the rise of computation not as introducing a crisis of value but as a response to a crisis within the domain of value and valuation – a revolutionizing of the productive forces whose measure has not yet been taken. Here the injunction would be to finally come to terms with the computational unconscious, or what Adam Smith called the invisible hand.

COUF1968 La cybernétique

Louis COUFFIGNAL, La cybernétique, Paris, Que sais-je ?, 1968, troisième édition.

COUF1968.1 Cf. Couffignal, La cybernétique, op. cit., p. 93 : {{on admettra donc comme une loi d’obeservation que les mécanismes cybernétiques efficaces ne copient pas le fonctionnement de l’esprit humain. Recevant les mêmes données, ils fournissent les mêmes résultats, mais les obtiennent par d’autres moyens : ce sont des simulateurs.

BHAT2021 The Man From The Future

Ananyo BHATTACHARYA, The Man From The Future. The Visionnary Life of John von Neumann, London, Penguin Books, 2021.

BHAT2021.1 Cf. Bhattacharya, The Man From The Future, op. cit., p. 129 : The idealized neuron of von Neumann’s EDVAC report came from work published by the neurophysiologist Warren McCulloch and the mathematician Walter Pitts in 1943. What they described was a vastly simplified electronic version of a neuron, which summed a number of input signals together and fired off a signal if that sum exceeded a certain threshold. A real neuron is a lot more complicated than this, for instance summing thousands of input signals and producing a train of pulses rather than a single blip. McCulloch and Pitts argued that neurons could nonetheless usefully be treated as switches. They showed that networks of such model neurons could learn, calculate, store data and execute logical functions – they could, in short, compute. Whether they had ‘proved, in substance, the equivalence of all general Turing machines – man-made or begotten’, as McCulloch later claimed, is a point of contention even today.

BHAT2021.2 Cf. Bhattacharya, The Man From The Future, op. cit., p. 152 : Israel Halperin, von Neumann’s only doctoral student, called him a “magician”. “He took what was given and simply forced the conclusions logically out of it, whether it was algebra, geometry, or whatever,” Halperin said. “He had some way of forcing out the results that made him different from the rest of the people.” Hungarian mathematician Rózsa Péter’s assessment of his powers is more unsettling. “Other mathematicians prove what they can,’ she declared, ‘von Neumann proves what he wants.”

BHAT2021.3 Cf. Bhattacharya, The Man From The Future, op. cit., p. 160 : Von Neumann’s seemingly divergent interests had a funny habit of colliding with each other in interesting ways.

BHAT2021.4 Cf. Bhattacharya, The Man From The Future, op. cit., p. 203 : “Game theory portrays a world of people relentlessly and ruthlessly but with intelligence and calculation pursuing what each perceives to be his own interest,” says the physicist turned historian Steve J. Heims. “The harshness of this Hobbesian picture of human behaviour is repugnant to many, but von Neumann would much rather err on the side of mistrust and suspicion than be caught in wishful thinking about the nature of people and society.”

BHAT2021.5 Cf. Bhattacharya, The Man From The Future, op. cit., p. 228 : At the heart of von Neumann’s theory is the Universal Turing machine. Furnished with a description of any other Turing machine and a list of instructions, the universal machine can imitate it. Von Neumann begins by considering what a Turing-machine-like automaton would need to make copies of itself, rather than just compute. He argues that three things are necessary and sufficient. First, the machine requires a set of instructions that describe how to build another like it – like Turing’s paper tape but made of the same “stuff” as the machine itself. Second, the machine must have a construction unit that can build a new automaton by executing these instructions. Finally, the machine needs a unit that is able to create a copy of the instructions and insert them into the new machine.

BHAT2021.6 Cf. Bhattacharya, The Man From The Future, op. cit., p. 229 : Five years before the discovery of the structure of DNA in 1953, and long before scientists understood cell replication in detail, von Neumann had laid out the theoretical underpinnings of molecular biology by identifying the essential steps required for an entity to make a copy of itself. Remarkably, von Neumann also correctly surmised the limits of his analogy: genes do not contain step-by-step assembly instructions but “only general pointers, general cues” – the rest, we now know, is furnished by the gene’s cellular environment.

BHAT2021.7 Cf. Bhattacharya, The Man From The Future, op. cit., p. 262 : Over seven decades since von Neumann first lectured on his theory of cellular automata, its possible implications are still being worked out. Plausibly, it could yet give us nanomachines, self-building moon bases and even a theory of everything. Yet while it took just a few years for Turing’s computing machine to be turned from mathematical abstraction to physical reality, the self-replicating machines von Neumann imagined have not yet been made. Or have they?

TURN2006 From counterculture to cyberculture

Fred TURNER, From counterculture to cyberculture: Stewart Brand, the Whole Earth network, and the rise of digital utopianism, Chicago, The University of Chicago Press, 2006.

TURN2006.1 Cf. Turner, From counterculture to cyberculture, op. cit., p. 26 : In 1998 Kelly explained that human beings were slowly but surely moving toward believing that “the universe is a computer.” Already, computer experts had begun to model life in computer science terms on their machines. For some time now, many had believed that “thinking is a type of computation, DNA is software, evolution is an algorithmic process.” Soon enough, he argued, human beings would begin to imagine all of biology as an instantiation of computer logic. “Is this embrace just a trick of language?” he asked. “Yes, but that is the unseen revolution. We are compiling a vocabulary and a syntax that is able to describe in a single language all kinds of phenomenon sic that have escaped a common language until now. It is a new universal metaphor. It has more juice in it than previous metaphors: Freud’s dream state, Darwin’s variety, Marx’s progress, or the Age of Aquarius. And it has more power than anything else in science at the moment. In fact the computational metaphor may eclipse mathematics as a form of universal notation.”

TURN2006.2 Cf. Turner, From counterculture to cyberculture, op. cit., p. 32-33 : By conceptualizing pilots and gunners as servomechanisms, Wiener and Bigelow also found a way to imagine the material world in terms of the computational metaphor. That metaphor in turn encoded two sometimes overlapping, and sometimes competing, socio-technical visions: the automaton and the self-regulating system. By imaginatively transfiguring soldiers into mechanisms, Wiener and Bigelow suggested that human beings were at some level machines. Underlying all their messy, fleshy, emotional complexity, human beings could be modeled as mechanical information processors. Moreover, if this was the case, they could be replaced by faster and more reliable mechanical devices. With their anti-aircraft predictor, Wiener and Bigelow helped lay the foundation for a vision of the automated human being and the automated organization that would haunt American public life well into the 1960s. At the same time, however, by means of the same imaginative transformation of men into information processing devices, Wiener and Bigelow offered up a picture of humans and machines as dynamic, collaborating elements in a single, highly fluid, socio-technical system. Within that system, control emerged not from the mind of a commanding officer, but from the complex, probabilistic interactions of humans, machines, and events around them. Moreover, the mechanical elements of the system in question — in this case, the predictor — enabled the human elements to achieve what all Americans would agree was a worthwhile goal: the shooting down of enemy aircraft. In the predictor, Wiener and Bigelow presented an example of a system in which men and machines collaborated, amplifying their respective capabilities, sharing control, and ultimately serving the human good of stopping the Nazi onslaught. Over the coming decades, this second vision of benevolent man-machine systems, of circular flows of information, would emerge as a driving force in the establishment of the military-industrial-academic complex and as a model of an alternative to that complex. Wiener and Bigelow began almost immediately to generalize their vision of a self-directing system governed by feedback to other fields. In early 1942, Wiener and Bigelow had begun to think about the biological realm and approached Arturo Rosenblueth. Their discussions led to the 1943 publication of a paper, “Behavior, Purpose, and Teleology,” in which they suggested that behavior and purpose in biological systems proceeded according to the same feedback dynamics that governed the sorts of mechanical and biomechani-cal systems Wiener and Bigelow had been developing in the Rad Lab. But this was only the beginning. Within a year, Wiener began to imagine dupli-cating the human brain with electrical circuits. By 1948 he had transformed the computational metaphor into the basis of a new discipline. In his book Cybernetics; or, Control and Communication in the Animal and the Machine, he defined cybernetics as a field focused on “the study of messages as a means of controlling machinery and society,” with machinery seeming to include, by analogy at least, biological organisms. For Wiener, the world, like the anti-aircraft predictor, was composed of systems linked by, and to some extent made out of, messages. Drawing on Claude Shannon’s information theory (published in 1948, but likely familiar to Wiener much earlier), Wiener defined messages as “forms of pattern and organization.” Like Shannon’s information, Wiener’s messages were surrounded by “noise,” yet they somehow maintained their integrity. So too did organisms and machines: incorporating and responding to feedback through structural mechanisms, Wiener explained, both kept themselves in a state of homeostasis. In that sense, Wiener believed that biological, mechanical, and information systems, including then-emerging digital computers, could be seen as analogues of one another. All controlled themselves by sending and receiving messages, and, metaphorically at least, all were simply patterns of ordered information in a world otherwise tending to entropy and noise.

TURN2006.3 Cf. Turner, From counterculture to cyberculture, op. cit., p. 33-34 : Wiener also believed that these systems could serve as models for social institutions and for society at large. Two years after publishing Cybernetics, Wiener published the far more accessible and intellectually more expansive volume The Human Use of Human Beings: Cybernetics and Society. There he argued that society as a whole, as well as its constituent organizational parts, functioned much like organisms and machines. That is, society could be seen as a system seeking self-regulation through the processing of messages. In Wiener’s analogy, for instance, public information systems such as the media served as servomechanisms. The TV screen became to the society as a whole what the radar screen was to the World War II gunner — a system through which to measure and adjust the system’s performance. Wiener believed that the media ideally served to “correct” the actions of public leaders by offering them accurate information about the performance of society as a whole. Likewise, within the smaller unit of the government agency or the corporation, Wiener argued that leaders should actively solicit feedback from their colleagues and employees. In particular, they should avoid adhering to a strictly top-down style of communication: “Otherwise,” wrote Wiener, “the top officials may find that they have based their policy on a complete misconception of the facts that their underlings possess.”

TURN2006.4 Cf. Turner, From counterculture to cyberculture, op. cit., p. 35 : {{Wiener’s fear of automation would echo down through the 1950s and would reappear both in technical discussions of the potential social impact of computing and in radical critiques of postwar society. Yet, in his vision of organisms, machines, and society itself as overlapping systems of information exchange, Wiener also offered a much more benevolent view of the political implications of information technology. Following Shannon, Wiener viewed information as pattern within noise and therefore as a model of material and social order. In Wiener’s own words, disorganization human elements to achieve what all Americans would agree was a worthwhile goal: the shooting down of enemy aircraft. In the predictor, Wiener and Bigelow presented an example of a system in which men and machines collaborated, amplifying their respective capabilities, sharing control, and ultimately serving the human good of stopping the Nazi onslaught. Over the coming decades, this second vision of benevolent man-machine systems, of circular flows of information, would emerge as a driving force in the establishment of the military-industrial-academic complex and as a model of an alternative to that complex. Wiener and Bigelow began almost immediately to generalize their vision of a self-directing system governed by feedback to other fields. In early 1942, Wiener and Bigelow had begun to think about the biological realm and approached Arturo Rosenblueth. Their discussions led to the 1943 publication of a paper, “Behavior, Purpose, and Teleology,” in which they suggested that behavior and purpose in biological systems proceeded according to the same feedback dynamics that governed the sorts of mechanical and biomechani-cal systems Wiener and Bigelow had been developing in the Rad Lab. But this was only the beginning. Within a year, Wiener began to imagine dupli-cating the human brain with electrical circuits. By 1948 he had transformed the computational metaphor into the basis of a new discipline. In his book Cybernetics; or, Control and Communication in the Animal and the Machine, he defined cybernetics as a field focused on “the study of messages as a means of controlling machinery and society,” with machinery seeming to include, by analogy at least, biological organisms. For Wiener, the world, like the anti-aircraft predictor, was composed of systems linked by, and to some extent made out of, messages. Drawing on Claude Shannon’s information theory (published in 1948, but likely familiar to Wiener much earlier), Wiener defined messages as “forms of pattern and organization.” Like Shannon’s information, Wiener’s messages were surrounded by “noise,” yet they somehow maintained their integrity. So too did organisms and machines: incorporating and responding to feedback through structural mechanisms, Wiener explained, both kept themselves in a state of homeostasis. In that sense, Wiener believed that biological, mechanical, and information systems, including then-emerging digital computers, could be seen as analogues of one another. All controlled themselves by sending and receiving messages, and, metaphorically at least, all were simply patterns of ordered information in a world otherwise tending to entropy and noise.}}

TURN2006.3 Cf. Turner, From counterculture to cyberculture, op. cit., p. 33-34 : Wiener also believed that these systems could serve as models for social institutions and for society at large. Two years after publishing Cybernetics, Wiener published the far more accessible and intellectually more expansive volume The Human Use of Human Beings: Cybernetics and Society. There he argued that society as a whole, as well as its constituent organizational parts, functioned much like organisms and machines. That is, society could be seen as a system seeking self-regulation through the processing of messages. In Wiener’s analogy, for instance, public information systems such as the media served as servomechanisms. The TV screen became to the society as a whole what the radar screen was to the World War II gunner — a system through which to measure and adjust the system’s performance. Wiener believed that the media ideally served to “correct” the actions of public leaders by offering them accurate information about the performance of society as a whole. Likewise, within the smaller unit of the government agency or the corporation, Wiener argued that leaders should actively solicit feedback from their colleagues and employees. In particular, they should avoid adhering to a strictly top-down style of communication: “Otherwise,” wrote Wiener, “the top officials may find that they have based their policy on a complete misconception of the facts that their underlings possess.”

TURN2006.4 Cf. Turner, From counterculture to cyberculture, op. cit., p. 35 : Wiener’s fear of automation would echo down through the 1950s and would reappear both in technical discussions of the potential social impact of computing and in radical critiques of postwar society. Yet, in his vision of organisms, machines, and society itself as overlapping systems of information exchange, Wiener also offered a much more benevolent view of the political implications of information technology. Following Shannon, Wiener viewed information as pattern within noise and therefore as a model of material and social order. In Wiener’s own words, disorganization and randomness, whether in the realm of information or in the realm of politics, was something “which without too violent a figure of speech we may consider evil.” Information systems, in part simply by virtue of being systems, exemplified organization. What is more, because of their feedback mechanisms, Wiener believed they sought to maintain order within themselves. In both senses, Wiener viewed information systems as sources of moral good. Moreover, to an America that had just spent five years combating a dictatorial German regime and that would soon confront a new dictator in the person of Joseph Stalin, a systems view of information offered an appealingly nonhierarchical model of governance and power. Cybernetic systems as Wiener saw them were self-regulating and complete in and of themselves, at least in theory. They had only to process information by means of their constituent parts and respond to the feedback offered, and order would emerge. Embedded in Wiener’s theory of society as an information system was a deep longing for and even a model of an egalitarian, democratic social order. To the readers of Cybernetics, computers may have threatened automation from above, but they also offered metaphors for the democratic creation of order from below.

TURN2006.5 Cf. Turner, From counterculture to cyberculture, op. cit., p. 50 : Like Norbert Wiener two decades earlier, many in the counterculture saw in cybernetics a vision of a world built not around vertical hierarchies and top-down flows of power, but around looping circuits of energy and information. These circuits presented the possibility of a stable social order based not on the psychologically distressing chains of command that characterized military and corporate life, but on the ebb and flow of communication.

TURN2006.6 Cf. Turner, From counterculture to cyberculture, op. cit., p. 65 : According to Ruesch and Bateson, the self that was the subject of psy-chiatry was enmeshed in and largely shaped by a complex web of information exchange.

TURN2006.7 Cf. Turner, From counterculture to cyberculture, op. cit., p. 71 : For Fuller, as for Wiener and the systems analysts of later decades, the material world consisted of information patterns made manifest. The patterns could be modeled and manipulated by information technologies, notably the computer. The computer in turn could suffice as a model for the human being. After all, although Fuller’s Comprehensive Designer promises to be psychologically integrated as specialists are not, that integration depends on the Designer’s ability to process vast quantities of information so as to perceive social and technological patterns. Fuller’s Comprehensive Designer is, from a functional point of view at least, an information processor, and as such he is a descendent of cold war psychology and systems theory as much as a child of Fuller’s own imagination.

TURN2006.8 Cf. Turner, From counterculture to cyberculture, op. cit., p. 155 : members of all three generations shared a single set of six values, a “hacker ethic”: - Access to computers — and anything which might teach you something about the way the world works — should be unlimited and total. Always yield to the Hands-On Imperative! - All information should be free. - Mistrust Authority —Promote Decentralization. - Hackers should be judged by their hacking, not bogus criteria such as degrees, age, race, or position. - You can create art and beauty on a computer. - Computers can change your life for the better.

TURN2006.9 Cf. Turner, From counterculture to cyberculture, op. cit., p. 169 : the WELL became a system to be managed according to a mix of cybernetic principles. On the WELL, human and technical systems existed simultaneously in interaction with one another and, at a theoretical level at least, as mirrors of one another.

TURN2006.10 Cf. Turner, From counterculture to cyberculture, op. cit., p. 223-224 : Michael Rothschild, whose 1990 book Bionomics: The Inevitability of Capitalism attempted to turn these metaphors into a school of thought, spoke for many when he wrote, “In the biologic environment, genetic information, recorded in the DNA molecule, is the basis of all life. In the economic environment, technological information, captured in books, blueprints, scientific journals, databases, and the know-how of millions of individuals, is the ultimate source of all economic life.” For many, though not all, adherents to the bionomic viewpoint, the economic environment was by definition capitalistic. As Rothschild put it, “Capitalism [is] the inevitable, natural state of human economic affairs. Being for or against a natural phenomenon is a waste of time and mental energy.”

TURN2006.11 Cf. Turner, From counterculture to cyberculture, op. cit., p. 242-243 : As Gingrich and others saw it, deregulation would free markets to become the engines of political and social change that they were meant to be. Thomas Frank has termed this vision “market populism,” and as he has indicated, in the 1990s it depended on a particular reading of the Internet. If the market was to be a deregulated mechanism of political as well as economic exchange, the recently privatized circuits of the Internet, with their free-flowing streams of commercial and noncommercial bits, made a perfect rhetorical prototype of the market-populist ideal. By the end of the decade, the libertarian, utopian, populist depiction of the Internet could be heard echoing in the halls of Congress, the board rooms of Fortune 500 corporations, the chat rooms of cyberspace, and the kitchens and living rooms of individual American investors. At its most extreme, Frank suggested, this ever-present ideology depended on a cybernetic understanding of information. By the end of the decade, he wrote, more than a few Americans agreed: “Life is in fact a computer. Everything we do can be understood as part of a giant calculating machine… the ‘New Economy,’ the way of the micro-chip, is writ into the very DNA of existence.”

TURN2006.12 Cf. Turner, From counterculture to cyberculture, op. cit., p. 243 : In the 1990s, however, the editors and writers of Wired transformed the longstanding Whole Earth synthesis of cybernetics and New Communalist social theory into a means of embracing figures such as Gilder and Gingrich. In the process, they legitimated calls for corporate deregulation, government downsizing, and a turn away from government and toward the flexible factory and the global marketplace as the principal sites of social change.

TURN2006.13 Cf. Turner, From counterculture to cyberculture, op. cit., p. 268-269 : Fifty years earlier, across the military, industry, and academe, the dominant mode of organizing work was bureaucratic. Universities, armies, corporations — outside their research laboratories and designated think tanks — all featured vertical chains of command, long-term employment prospects, clear distinctions between individuals and their professional positions, firm boundaries between the organization and the outside world, and reward systems based on some combination of merit and seniority. By the end of the twentieth century, however, these bureaucratic organizations had begun to lose their shape. In many industries today, and in some parts of military and academic life as well, hierarchies have been replaced by flattened structures, long-term employment by short-term, project-based contracting, and professional positions by complex, networked forms of sociability.

TURN2006.14 Cf. Turner, From counterculture to cyberculture, op. cit., p. 270-271 : many of the qualities associated with postindustrial society and its subsequent analytical incarnations in fact appeared earlier, in the military-industrial-academic research collaborations of World War II and the cold war. As historians of science have demonstrated, the government-sponsored research projects first created to help win World War II also saw the deployment of systematic knowledge across disciplines on an enormous scale. Tinkers did not design radar technologies or atomic weaponry; these technologies grew out of the gathering of interdisciplinary teams of scientists, engineers, and administrators. Though housed and funded by a massive bureaucracy, these teams did not stand on status and position; rather, they worked collaboratively, within a relatively flat social structure. In part, that structure grew out of the need to take a comprehensive, systemic approach to weapons development, one that could see men and machines as twinned elements of a larger combat apparatus. And in part, that flexible, interdisciplinary mixing helped spawn a rhetoric of systematic knowledge (cybernetics) and the tools with which to model and manage such knowledge (computers).

TURN2006.15 Cf. Turner, From counterculture to cyberculture, op. cit., p. 271 : As computers and computer networks have come online, scholars have in turn increasingly shown how these technologies have amplified and accelerated the impact of knowledge and information on the production process.

FLICH2001 L’imaginaire d’Internet

Patrice FLICHY, L’imaginaire d’Internet, Paris, Éditions La Découverte & Syros, 2001.

FLICH2001.1 Cf. Flichy, L’imaginaire d’Internet, op. cit., p. 56 : À cette époque, certains informaticiens développaient pour les entreprises des dispositifs de recherche opérationnelle, c’est-à-dire des modes de calcul qui permettent de choisir des paramètres qui rendent maximale une fonction mathématique, tout en étant liés entre eux par différentes contraintes ; il s’agit d’une situation courante en économie et en gestion.

FLICH2001.2 Cf. Flichy, L’imaginaire d’Internet, op. cit., p. 86-87 : D’ailleurs, l’association qui avait organisé le projet de Community Memory s’appelait “Loving Grace Cybernetics”, du nom d’un poème hippie de Richard Brautigan : “J’aime à penser / (et le plus tôt sera le mieux) / à une prairie cybernétique / où les mammifères et les ordinateurs / vivent ensemble / dans une harmonie mutuellement programmée / comme une eau pure / en contact avec un ciel clair / J’aime à penser / (maintenant, s’il vous plaît !) / à une forêt cybernétique / pleine de pins et d’électronique / où les daims flânent tranquillement / et les vieux ordinateurs / s’épanouissent / comme des fleurs / J’aime à penser / (cela va arriver !) / à une écologie cybernétique / où nous sommes libérés du travail / et pouvons nous replonger dans la nature / avec nos frères et nos sœurs les mammifères / et tout observer / par l’intermédiaire de machines d’amour et d’harmonie.” [Publié dans The Pill Versus the Springhill Mime Disaster, Dell/Laurel, New York, 1973, cité par Theodore ROSZAK, The Cult of Information, Pantheon Books, New York, 1986, p. 147.]

LEVY1984 L’Éthique des Hackers

Steven LEVY, L’Éthique des Hackers, titre original : Hackers, heroes of the computer revolution, Sebastopol, O’Reilly Media, 1984, traduit de l’anglais (États-Unis) par Gilles Tordjman, Paris, Globe, l’école des loisirs, 2013.

LEVY1984.1 Cf. Levy, L’Éthique des Hackers, op. cit., p. 6 : Ils partagent tous une même philosophie, une idée simple et élégante comme la logique qui gouverne l’informatique : l’ouverture, le partage, le refus de l’autorité, et la nécessité d’agir par soi-même, quoi qu’il en coûte, pour changer le monde. C’est ce que j’appelle l’Éthique des hackers.

LEVY1984.2 Cf. Levy, L’Éthique des Hackers, op. cit., p. 60 : L’élaboration collégiale et progressive de ce programme incarnait l’Éthique des hackers : le désir de percer le secret des choses générait à lui seul un progrès considérable.

LEVY1984.3 Cf. Levy, L’Éthique des Hackers, op. cit., p. 245 : Dans la conférence que Lee donna à l’Institute of Electrical and Electronic Engineers en 1975, il dit : “L’approche industrielle est une impasse. Sa devise est : Conçu par des Génies pour être Utilisé par des Imbéciles, et le slogan destiné au public ignare est : ne pas toucher ! […] L’approche conviviale que je propose encourage l’utilisateur à s’approprier son outil et à s’en rendre maître. L’utilisateur devra passer beaucoup de temps à explorer le matériel. C’est à nous de veiller à ce que tout cela se passe sans problème, pour le matériel comme pour la personne.”

NITO2016 surveillance://

Tristan NITOT, surveillance://: Les libertés au défi du numérique : comprendre et agir, Caen, C&F éditions, 2016.

NITO2016.1 Cf. Nitot, surveillance://, op. cit., p. 63 : Pourtant, nous sommes chaque jour un peu plus dépendants de l’informatique. Aussi, la question n’est pas d’arrêter de se servir de l’informatique mais de comprendre comment elle fonctionne, de façon à savoir comment la contrôler et surtout contrôler l’usage qui est fait de nos données. Car c’est bien là l’enjeu du futur : contrôler l’outil informatique pour éviter qu’il ne nous contrôle ou permette à d’autres de nous contrôler.

JEAN2021 Les algorithmes font-ils la loi ?

Aurélie JEAN, Les algorithmes font-ils la loi ?, Paris, Éditions de l’Observatoire, 2021.

JEAN2021.1 Cf. Jean, Les algorithmes font-ils la loi ?, op. cit., p. 84 : Au risque de contrarier les spinozistes, permettez-moi dans les lignes qui suivent d’associer l’éthique – d’origine grecque – à la morale – d’origine latine.

ZUBO2019 L’Âge du capitalisme de surveillance

Shoshana ZUBOFF, L’Âge du capitalisme de surveillance, 2019, traduction Bee FORMENTELLI & Anne-Sylvie HOMASSEL, Paris, Éditions Zulma, 2020.

ZUB2019.1 Cf. Zuboff, L’Âge du capitalisme de surveillance, op. cit., p. 151 : Le capitalisme industriel a transformé les matières premières de la nature en marchandises, et le capitalisme de surveillance revendique la nature humaine comme matériau pour créer une nouvelle marchandise. Aujourd’hui, c’est la nature humaine qui est raclée, lacérée, et dont on s’empare pour le nouveau projet de marché du siècle. Il est choquant de supposer que ce préjudice peut être réduit au fait évident que les utilisateurs ne recoivent aucune rétribution pour la matière première qu’ils fournissent. C’est un formidable fourvoiement que de recourir au mécanisme de fixation des prix pour institutionnaliser et donc légitimer l’extraction du comportement humain dans un objectif de fabrication et de vente. C’est aussi ignorer le point-clé de l’affaire, à savoir que l’essence de l’exploitation ici est la restitution de nos vies sous forme de données comportementales destinées à améliorer le contrôle que d’autres ont sur nous.

ZUB2019.2 Cf. Zuboff, L’Âge du capitalisme de surveillance, op. cit., p. 152 : Telle est l’essence du projet d’intelligence artificielle. Comme un ultime ver solitaire, l’intelligence artificielle dépend du nombre de données qu’elle dévore. Dans cette perspective décisive, les nouveaux moyens de production diffèrent fondamentalement du modèle industriel dans lequel il y a une tension entre qualité et quantité. L’intelligence artificielle est la synthèse de cette tension, car elle atteint son plein potentiel de qualité seulement quand elle approche la totalité.

ZUB2019.3 Cf. Zuboff, L’Âge du capitalisme de surveillance, op. cit., p. 635-636 : ne collaboration avec un autre étudiant en doctorat, Nathan Eagle, remit en lumière la question de l’insuffisance des données disponibles sur la société humaine. Y étaient notées “la subjectivité, la rareté des données et la solution de continuité” dans la compréhension que les sciences sociales avaient du comportement humain et ce qui en résultait, à savoir l’“absence de données denses et continues qui empêche l’apprentissage et les modélisations automatiques de construire des modèles prédictifs plus vastes à partir des dynamiques humaines”. Pentland le répétait : même le (relativement nouveau) domaine de l’“extraction de données” ne pouvait appréhender l’“action véritable” des conversations et des interactions en face à face, nécessaire à une compréhension étendue et décisive des comportements sociaux11. Mais il reconnaissait également qu’un segment de plus en plus important de l’activité humaine – des transactions aux communications – tombait dans l’escarcelle de la médiation informatique, par la grâce, principalement, du téléphone portable. Les équipes de Pentland comprirent qu’il serait possible d’exploiter l’“infrastructure” de plus en plus “ubiquitaire” des téléphones portables et de combiner ces données avec de nouveaux flux d’information fournis par leurs dispositifs de surveillance comportementaux portables.

BORT2018 Cyberstructures

Stéphane BORTZMEYER, Cyberstructures. L’Internet, un espace politique, Caen, C&F éditions, 2018.

BORT2018.1 Cf. Bortzmeyer, Cyberstructures, op. cit., p. 149 : […] le débat n’aura pas de fin. Toute technique peut être utilisée pour le bien ou pour le mal. Pour avancer sur ce sujet, il faut sortir d’une approche binaire (liberté totale ou interdiction totale d’une technique) et se dire que, certes, toute technique peut être utilisée pour le bien ou pour le mal, mais que certaine techniques facilitent ou encouragent certains usages. La technique n’est pas complètement neutre, mais elle est souple.