cross-posted from: https://sh.itjust.works/post/23097473
Un spectre hante l’Amérique — le spectre du communisme. Cette fois, il est numérique. « Le communisme géré par intelligence artificielle pourrait-il fonctionner ? », demande Daron Acemoğlu, économiste au Massachusetts Institute of Technology (MIT), tandis que le capital-risqueur Marc Andreessen s’inquiète de savoir si la Chine s’apprête à créer une intelligence artificielle (IA) communiste (1). Même le trublion républicain Vivek Ramaswamy y va de son analyse en affirmant sur X que l’IA procommuniste constitue une menace comparable à celle du Covid-19.
Mais qui sait vraiment, au milieu de la panique générale, de quoi l’on parle ? Une intelligence artificielle communiste suivrait-elle le modèle chinois, avec des plates-formes calquées sur celles des grandes sociétés américaines et soumises à un étroit contrôle étatique, ou plutôt une approche de type État social à l’européenne, avec un développement centralisé aux mains d’institutions publiques ?
La seconde option présente un certain attrait, d’autant plus que la course à l’IA tend aujourd’hui à faire passer la rapidité avant la qualité — on a pu s’en apercevoir en mai dernier lorsque la fonction AI Overviews de Google a recommandé de mettre de la colle dans ses pizzas et de manger des pierres (2). Un financement public de l’IA générative, qui s’accompagnerait d’une sélection rigoureuse des données ainsi que d’une supervision exigeante, pourrait accroître la qualité des outils et le prix facturé aux entreprises clientes, garantissant ainsi une meilleure rémunération des créateurs de contenu.
Pour autant, chercher à développer une économie socialisée de l’intelligence artificielle, n’est-ce pas encore capituler face à la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter à décider qui détient et contrôle les données ou à modifier les modèles et les infrastructures informatiques ? Ne pourrait-elle être porteuse de transformations plus profondes ?
Deux exemples puisés dans l’histoire contemporaine suggèrent une réponse positive. Le premier se nomme CyberSyn, l’initiative visionnaire du président chilien Salvador Allende (3). Piloté par un consultant britannique charismatique du nom de Stafford Beer, ce projet aussi ambitieux qu’éphémère (1970-1973) visait à inventer une manière plus efficace de gérer l’économie en mettant à profit les modestes ressources informatiques du pays.
CyberSyn, souvent qualifié d’« Internet socialiste », s’appuyait sur le réseau chilien de télex pour faire remonter l’ensemble des données de production des entreprises nationalisées vers un ordinateur central basé à Santiago. Toutefois, dans le souci d’éviter les écueils de la centralisation soviétique, il introduisait une forme d’apprentissage automatique avant l’heure destinée à donner plus de pouvoir aux salariés.
Des techniciens gouvernementaux se rendaient dans les usines et travaillaient en lien avec les ouvriers pour schématiser les processus de production et de gestion tels qu’ils étaient appliqués sur le terrain. Ces précieuses informations, inaccessibles aux dirigeants dans une entreprise capitaliste, étaient ensuite traduites en modèles d’exploitation, puis surveillées à l’aide de logiciels de statistiques spécifiques. Les ouvriers-managers pouvaient ainsi être avisés presque en temps réel des problèmes qui se présentaient.
Au cœur de CyberSyn se trouvait la vision d’un système hybride dans lequel la puissance de calcul amplifiait l’intelligence humaine. Transformer des connaissances implicites en un savoir formalisé et concret devait permettre aux travailleurs — la classe nouvellement arrivée aux commandes du pays — d’agir avec assurance et à bon escient quelle que fût leur expérience antérieure en matière de gestion ou d’économie. Y aurait-il là de quoi nous guider dans notre quête d’une IA socialiste ?
Pour explorer plus en avant la signification de cette idée singulière, il faut s’intéresser aux aventures de Warren Brodey, psychiatre passé à la cybernétique avant de devenir hippie, aujourd’hui âgé de 100 ans. Une rationalité écologique
À la fin des années 1960, grâce aux deniers d’un riche associé, M. Brodey crée à Boston un laboratoire expérimental baptisé Environmental Ecology Lab (EEL). Quelques stations de métro plus loin, ses amis Marvin Minsky et Seymour Papert, du MIT — une institution à laquelle il a été affilié un temps —, développent des projets d’IA qui, selon lui, font fausse route. Minsky et Papert partent du principe que le raisonnement humain est guidé par un ensemble de règles et de processus algorithmiques abstraits qu’il suffirait de dénombrer puis de déchiffrer pour pouvoir doter un ordinateur d’une « intelligence artificielle ».
À rebours de cette vision, Brodey et ses cinq collaborateurs pensent que l’intelligence, loin d’être enfermée dans nos cerveaux, naît des interactions avec notre environnement. C’est une intelligence écologique. Règles et mécanismes abstraits n’ont aucun sens en soi ; tout est dans le contexte. Un exemple simple leur sert à illustrer cette théorie : l’injonction à se déshabiller ne signifie pas du tout la même chose selon qu’elle est proférée par un médecin, un amant ou un inconnu rencontré dans une ruelle sombre.
Concevoir une IA capable de saisir de façon autonome ces nuances subtiles leur paraît relever de la gageure. En plus de modéliser les processus mentaux humains, il faudrait demander aux ordinateurs de maîtriser une infinie variété de concepts, de comportements et de situations ainsi que l’ensemble de leurs corrélations — autrement dit, de comprendre dans son intégralité le cadre culturel de la civilisation humaine, seul à même de produire du sens.
Plutôt que de s’épuiser à poursuivre ce but en apparence inatteignable, l’équipe de Brodey rêve de mettre les ordinateurs et les technologies cybernétiques au service des humains pour leur permettre d’explorer mais aussi d’enrichir leur environnement, et surtout leur propre personne. Dans cette optique, les technologies de l’information sont non seulement des outils pour accomplir des tâches, mais des instruments pour penser le monde et interagir avec lui. Imaginez par exemple une douche cybernétique réactive qui deviserait avec vous du changement climatique et de la rareté des ressources en eau, ou encore une voiture qui vous parlerait de l’état du système de transport public pendant votre trajet. Le laboratoire invente même une combinaison qui, quand vous la revêtez pour danser, modifie la musique en temps réel, mettant en évidence les liens complexes entre sons et mouvements.
L’Environmental Ecology Lab prend résolument le contrepied de l’école de Francfort et de sa critique de la raison instrumentale : c’est le capitalisme industriel, non pas la technologie, qui prive notre monde de sa dimension écologique et nous oblige à nous tourner vers la rationalité moyens-fins que dénoncent Theodor Adorno, Max Horkheimer et Herbert Marcuse. Pour restaurer cette dimension perdue, il entend nous faire prendre conscience, à l’aide de capteurs et d’ordinateurs, des complexités cachées derrière les aspects de l’existence qui nous paraissent les plus banals.
Les idées fantasques de Brodey ont laissé une empreinte profonde mais, paradoxalement, quasi invisible sur notre culture numérique. Durant sa brève carrière au MIT, Brodey prit sous son aile un certain Nicholas Negroponte, techno-utopiste d’avant-garde dont les travaux au sein du MIT Media Lab ont largement contribué à définir les termes du débat autour de la révolution numérique (4). Pourtant, les philosophies respectives des deux hommes différaient du tout au tout. JPEG - 91.9 ko Laurent Millet. – De la série « Euclide », 2021 © Laurent Millet - www.laurent-millet.com - Galerie Binome, Paris
Brodey pensait que les appareils cybernétiques de nouvelle génération devaient se distinguer prioritairement par leur « réactivité », un moyen de faciliter le dialogue homme-machine et d’aiguiser notre conscience écologique. Il postulait que les individus aspiraient sincèrement à évoluer et concevait l’ordinateur comme un allié dans cette entreprise de transformation permanente. Son poulain Negroponte réadapta le concept pour le rendre plus maniable : les machines avaient pour fonction première de comprendre, prédire et satisfaire nos besoins immédiats. En somme, Negroponte cherchait à créer des machines originales et excentriques quand Brodey, convaincu que les environnements intelligents — et l’intelligence tout court — ne pouvaient exister sans les gens, cherchait à créer des humains originaux et excentriques. La Silicon Valley adopta la vision de Negroponte.
Un autre élément singularisait Brodey par rapport à ses pairs : alors que les informaticiens de l’époque voyaient dans l’IA un outil d’augmentation de l’humain — les machines exécutant les basses besognes pour stimuler la productivité —, lui visait l’amélioration de l’humain — un concept qui allait bien au-delà de la seule efficacité (5).
La distinction entre ces deux paradigmes est subtile, mais cruciale. L’augmentation, c’est lorsque vous utilisez le GPS de votre téléphone portable pour vous repérer en terrain inconnu : cela permet d’arriver plus vite et plus facilement à destination. Le gain reste toutefois éphémère. Que l’on vous retire cette béquille technologique, et vous vous retrouvez plus démuni encore. L’amélioration consiste à se servir de la technologie pour développer de nouvelles compétences — ici, il s’agirait d’affiner son sens inné de l’orientation en recourant à des techniques avancées de mémorisation ou en apprenant à déchiffrer les signes de la nature.
En substance, l’augmentation nous retire des capacités au nom de l’efficacité, tandis que l’amélioration nous en fait acquérir de nouvelles et enrichit nos interactions avec le monde. De cette différence fondamentale découle la manière dont nous intégrons la technologie dans nos vies pour nous transformer soit en opérateurs passifs, soit en artisans créateurs.
Brodey s’était forgé ces convictions en participant, en sa qualité de psychiatre, à un programme plus ou moins secret élaboré par la Central Intelligence Agency (CIA) au début des années 1960. L’agence américaine avait eu la brillante idée d’enseigner le russe à une équipe de non-voyants triés sur le volet, puis de leur faire écouter des communications soviétiques interceptées. Elle faisait l’hypothèse que, en raison de leur cécité, leurs autres sens étaient plus affûtés que ceux d’analystes dotés de la vue. Après plusieurs années à travailler avec ces personnes dans le but d’identifier les indices internes et externes — chaleur corporelle, taux d’humidité ambiante, qualité de la lumière… — qu’elles utilisaient pour enrichir leurs perceptions, Brodey découvrit que leur aptitude au perfectionnement des sens était en fait universellement partagée.
Si ce programme d’amélioration qui nous prêtait à tous une sensibilité artistique en puissance était résolument poétique, Brodey, en incorrigible pragmatique, le jugeait impossible à mettre en œuvre sans l’aide des ordinateurs. Lorsqu’il tenta de l’importer au MIT pour en faire un domaine de recherche officiel, il se heurta à une opposition farouche, et pas seulement de la part de l’élite conservatrice de l’IA. D’autres y lurent aussi de sombres connotations nazies : Brodey ne suggérait-il pas de réaliser des expériences sur des humains ? Cette levée de boucliers l’obligea finalement à se tourner vers des donateurs privés.
La nuance profonde entre augmentation et amélioration de l’humain — et ses conséquences en matière d’automatisation — n’est apparue de manière évidente que des décennies plus tard. L’augmentation vise à créer des machines qui pensent, ressentent comme nous, faisant naître le risque de rendre nos compétences caduques. Les outils actuels fondés sur l’IA générative ne se proposent pas seulement d’augmenter le travail des artistes et des auteurs, mais menacent de les remplacer purement et simplement. À l’inverse, les technologies intelligentes de Brodey ne devaient pas automatiser l’humanité jusqu’à la rendre obsolète ni standardiser les existences, elles promettaient d’enrichir nos goûts et d’étendre nos facultés, autrement dit de rehausser l’expérience humaine au lieu de l’amoindrir. Libérer les capacités humaines en sommeil
C’était un point de vue courageux dans le contexte de l’époque, alors que la majorité des représentants de la contre-culture envisageaient la technologie comme une force anonyme et sans âme dont il valait mieux se méfier ou, dans les communautés prônant le « retour à la terre », comme un instrument d’émancipation uniquement individuelle. Lorsqu’il formule ces idées au mitan des années 1960, Brodey voit sa vie professionnelle et familiale se déliter. Ses prises de position ne cessent de le porter vers les franges les plus avant-gardistes de l’establishment américain. Comme beaucoup au sein de la mouvance hippie, il ne reconnaît pas la légitimité du politique, ce qui l’empêche de traduire ses théories en revendications.
À l’autre bout de la planète, un philosophe soviétique du nom d’Evald Ilyenkov, né comme lui en 1924, se pose des questions tout à fait comparables, mais à l’intérieur du cadre conceptuel du « marxisme créatif ». Ses travaux permettent de mieux comprendre ce que recouvre le concept d’amélioration de l’humain dans la pensée communiste et socialiste.
Comme Brodey, Ilyenkov a beaucoup travaillé avec des non-voyants. De ses études, il a conclu que les capacités cognitives et sensorielles découlent de la socialisation et des interactions avec la technologie. Pour peu que nous trouvions les bons environnements pédagogiques et technologiques, nous pouvons cultiver des compétences que nous possédons à l’état latent. Le communisme vise ainsi, sous la houlette de l’État, à libérer les capacités humaines en sommeil afin que chacun puisse réaliser pleinement son potentiel, indépendamment des barrières sociales ou naturelles.
Excédé par la fascination des bureaucrates soviétiques pour l’IA à l’américaine, Ilyenkov en propose une critique particulièrement convaincante dans un article de 1968 intitulé « Idoles et idéaux » (6). À ses yeux, mettre au point une intelligence artificielle s’apparentait à construire une énorme et ruineuse usine de sable artificiel en plein cœur du Sahara. Même en admettant qu’elle fonctionne à la perfection, il était absurde de ne pas profiter plutôt de la ressource naturelle disponible en abondance, au-delà de ses murs.
Près de soixante ans plus tard, la dénonciation d’Ilyenkov n’a rien perdu de son actualité. Nous sommes toujours coincés dans ce désert à défendre le bien-fondé de l’usine, sans voir que personne, hormis les états-majors et les architectes de l’ordre économique, n’en a vraiment besoin. Brodey utilisait par ailleurs une autre image, empruntée à Marshall McLuhan : ses technologies écologiques avaient le pouvoir de nous dessiller, comme un poisson qui prendrait subitement conscience de l’existence de l’eau. De la même façon, il est temps que quelqu’un révèle aux obsédés de l’IA qu’ils sont entourés d’un gigantesque gisement d’intelligence, humaine, créative, imprévisible et poétique.
Reste la grande question : pourrons-nous nous améliorer réellement si nous persistons à manier des concepts comme l’IA, qui semble contredire l’idée même de développement humain ?
L’ambition de construire une intelligence artificielle n’a pas fait qu’engloutir des milliards de dollars ; pour certains, elle a aussi eu un coût sur le plan personnel. L’intransigeance des jeunes loups qui ont présidé à son expansion — avec leurs levées de fonds tous azimuts et leur définition rigide des frontières de la discipline — a ainsi conduit à marginaliser des penseurs visionnaires comme Stafford Beer et Warren Brodey, que l’étiquette « intelligence artificielle » a toujours mis mal à l’aise.
Les deux hommes, qui eurent l’occasion de se rencontrer peu de temps avant la mort du premier en 2002, étaient issus de milieux diamétralement opposés. Ancien chef d’entreprise, Beer était membre du très élitiste Club Athenaeum britannique ; Brodey avait grandi à Toronto dans une famille juive de classe moyenne. Cela ne les empêchait pas de vouer un même mépris à l’IA en tant que discipline scientifique et au dogmatisme de ses praticiens. Ils partageaient aussi un père spirituel : Warren McCulloch, géant de la cybernétique.
La cybernétique était née juste après la seconde guerre mondiale sous les auspices du mathématicien Norbert Wiener. De nombreux chercheurs, pionniers dans leurs champs respectifs (mathématiques, neurophysiologie, ingénierie, biologie, anthropologie…), s’étaient aperçus d’une difficulté commune : tous se heurtaient à des processus complexes et non linéaires dans lesquels il devenait impossible de distinguer les causes des effets — l’effet apparent d’un processus naturel ou social donné pouvant se révéler simultanément lié à un autre.
Articulée autour de cette idée de causalité mutuelle et d’imbrication entre des phénomènes apparemment indépendants, la cybernétique était moins une discipline scientifique qu’une philosophie. Ses grands penseurs n’abandonnaient pas leur domaine de recherche initial, mais enrichissaient leurs analyses d’une perspective nouvelle. L’approche interdisciplinaire permettait d’appréhender les processus à l’œuvre dans les machines, les cerveaux humains et les sociétés au moyen d’un même ensemble de concepts.
Quand l’intelligence artificielle fit son apparition au milieu des années 1950, elle se posa comme une émanation naturelle de la cybernétique ; en réalité, elle marquait plutôt une régression. La cybernétique avait voulu s’inspirer des machines pour mieux comprendre l’intelligence humaine, et non pour la reproduire. Décomplexée, la discipline émergente de l’IA entreprit d’ouvrir une nouvelle voie en fabriquant des machines capables de « penser » comme nous. L’objectif n’était pas de percer les mystères de la cognition humaine, mais de satisfaire les exigences de son principal client : l’armée. La recherche fut immédiatement dictée par les impératifs de défense, ce qui allait se révéler déterminant pour son évolution future.
Ainsi, certains des projets initiaux inspirés par la philosophie cybernétique, comme la tentative de fabriquer des réseaux de neurones artificiels, furent rapidement réorientés vers des fins militaires. Soudains ces réseaux ne viseraient plus à démêler les intrications de la pensée mais à analyser des images aériennes pour localiser des navires ennemis ou des pétroliers. La quête ambitieuse d’une intelligence artificielle a ainsi fini par recouvrir d’un vernis de prestige scientifique des contrats militaires banals.
Dans ce contexte, l’interdisciplinarité n’était pas de mise. L’IA était dominée par de jeunes et brillants mathématiciens ou informaticiens qui trouvaient la cybernétique trop abstraite, trop philosophique et surtout potentiellement subversive. Il faut dire qu’entre-temps Norbert Wiener s’était mis à soutenir les luttes syndicales et à critiquer l’armée, ce qui n’était pas de nature à attirer les financements du Pentagone. JPEG - 89.4 ko Laurent Millet. – De la série « Euclide », 2021 © Laurent Millet - www.laurent-millet.com - Galerie Binome, Paris
L’intelligence artificielle, qui promettait d’« augmenter » les opérateurs humains et d’élaborer des armes autonomes, ne souffrait pas d’un tel problème d’image. Elle fut d’emblée une discipline scientifique à part. Alors que les sciences traditionnelles cherchent à comprendre le monde, en s’aidant parfois de la modélisation, les pionniers de l’IA décidèrent de construire des modèles simplifiés d’un phénomène du monde réel — l’intelligence —, puis de nous convaincre que rien ne différenciait les premiers du second. Un peu comme si des géographes renégats créaient une nouvelle discipline, le « territoire artificiel », en essayant de faire croire qu’avec les avancées de la technologie carte et territoire ne seraient bientôt plus qu’une seule et même chose.
À de nombreux égards, la trajectoire — et la tragédie — de l’IA durant la guerre froide ressemble à celle de la science économique, en particulier américaine. L’économie aux États-Unis avait fait l’objet d’une pensée bouillonnante, plurielle, en phase avec les dynamiques du monde réel, consciente que le pouvoir et les institutions (allant des syndicats à la Réserve fédérale) avaient une influence sur la production ou la croissance. Les priorités de la guerre froide en firent une discipline obsédée par des modèles abstraits — optimisation, équilibre, théorie des jeux… — dont la pertinence dans la vraie vie n’avait qu’une importance secondaire. Même si certaines applications numériques, comme la publicité en ligne ou les services de voitures de transport avec chauffeur (VTC), s’appuient aujourd’hui sur ces constructions mathématiques, la validité ponctuelle d’une approche biaisée ne suffit pas à la racheter. Le fait est que l’économie orthodoxe moderne n’a pas grand-chose à proposer pour régler des problèmes tels que les inégalités ou le changement climatique, si ce n’est des solutions fondées sur le marché.
L’analyse vaut aussi pour l’intelligence artificielle, qui, bien que décrite comme un triomphe technologique, est souvent un euphémisme pour militarisme ou capitalisme. Ses hérauts ont beau reconnaître la nécessité d’instaurer un minimum de contrôle et de réglementation, ils peinent à imaginer un futur dans lequel notre conception de l’intelligence ne serait pas dominée par l’IA. Dès le départ, celle-ci a moins été une science — qui se caractérise par des objectifs finaux non prédéterminés — qu’un hybride de religion et d’ingénierie. Son dessein ultime était de créer un système informatique universel capable d’accomplir tout type de tâches sans y avoir été explicitement entraîné — une décision que l’on connaît désormais sous le nom d’intelligence artificielle générale (IAG).
Ici intervient un autre parallèle avec l’économie : durant la guerre froide, l’IAG fut envisagée de la manière dont les économistes concevaient le libre marché, c’est-à-dire comme une force autonome, autorégulatrice, à laquelle l’humanité serait bien forcée de s’adapter. D’un côté, la pensée économique escamote le rôle qu’ont joué la violence coloniale, le patriarcat et le racisme dans l’expansion du capitalisme, comme si se prolongeait naturellement l’inclination humaine « à trafiquer [et] à faire des trocs et des échanges d’une chose pour une autre » (7), selon la célèbre formule d’Adam Smith. De l’autre, le récit traditionnel des origines de l’IA reconnaît les apports de la cybernétique, des mathématiques, de la logique, mais reste muet concernant le contexte historique ou géopolitique. Comme si l’on qualifiait simplement l’eugénisme et la phrénologie de branches de la génétique et de la biologie, sans rien dire de leur dimension raciste. N’oublions pas, souligne Yarden Katz dans son remarquable essai Artificial Whiteness(7), que l’intelligence artificielle n’aurait jamais existé sans le militarisme, le corporatisme et le patriotisme exacerbé de la guerre froide.
Un concept à ce point perverti pourra-t-il un jour être remis au service d’ambitions progressistes ? N’est-il pas aussi vain d’appeler à une « intelligence artificielle communiste » que de rêver d’ateliers clandestins à visage humain ou d’instruments de torture délicieux ?
Les expériences de Stafford Beer et de Warren Brodey suggèrent que nous ferions mieux de renoncer au fantasme de l’intelligence artificielle socialiste et de nous concentrer sur la définition d’une politique technologique socialiste post-IA. Plutôt que d’essayer d’humaniser les produits existants en leur imaginant des applications de gauche ou en inventant de nouveaux modèles de propriété économique, nous devons ouvrir à tous, sans considération de classe, d’ethnicité ni de genre, l’accès à des institutions, infrastructures et technologies qui favorisent l’autonomie créatrice et permettent de réaliser pleinement ses capacités. En d’autres termes, nous devons amorcer la transition de l’humain augmenté à l’humain amélioré.
Vivre dans un ballon, pas dans une bulle
Une telle politique s’appuierait sur les composantes de l’État-providence qui sont le plus éloignées des mots d’ordre conservateurs du capitalisme : l’éducation et la culture, les bibliothèques, les universités et les diffuseurs publics. Elle ouvrirait ainsi la voie à une politique éducative et culturelle socialiste, au lieu de renforcer l’économie néolibérale comme le fait l’approche actuelle.
Brodey comprit lui-même assez rapidement qu’il ne pouvait y avoir d’IA socialiste sans socialisme. Dès le début des années 1970, il reconnut que le contexte de la guerre froide aux États-Unis vidait de tout sens sa quête d’« amélioration humaine » et de « technologie écologique » — sans compter qu’il mettait un point d’honneur à refuser l’argent du Pentagone, et même d’institutions comme le MIT, pour marquer son opposition à la guerre du Vietnam.
À en croire Negroponte, Brodey ne voulut en effet jamais entendre parler d’une titularisation au MIT. Le confort ne l’intéressait pas. Il préféra aller se construire une maison à base de mousse et de ballons en pleine forêt, dans le New Hampshire. Un environnement « réactif et intelligent » qui lui convenait. Mais cela allait trop loin, même pour ses admirateurs. « Tout le monde n’aspire pas à vivre dans un ballon », ironisa Negroponte à l’époque.
La pensée de Brodey était imprégnée d’utopisme. Lui et son plus proche collègue, Avery Johnson, nourrissaient l’espoir que l’industrie américaine adopterait leur vision — des produits réactifs et interactifs propres à faire naître de nouveaux goûts et centres d’intérêt chez l’utilisateur plutôt qu’à surfer sur son désir consumériste. Mais les entreprises optèrent pour la version plus conservatrice de Negroponte, dans laquelle l’interactivité permet surtout aux machines d’identifier nos angoisses et de nous faire acheter davantage.
En 1973, désabusé, Brodey partit s’installer en Norvège. Il y ressurgit en maoïste, membre actif du Parti communiste des travailleurs, et se rendit même en Chine afin d’échanger avec des ingénieurs à propos de son concept de « technologies réactives ». Pour un homme qui avait été étroitement impliqué dans des projets de l’armée, de la National Aeronautics and Space Administration (NASA) et de la CIA pendant la guerre froide, ce n’était pas un revirement anodin.
D’après les longues conversations que j’ai pu avoir avec lui ces dix dernières années en Norvège, où il vit encore, Brodey incarne toujours à merveille le projet d’évolution ouverte qu’il défendait dans les années 1960. À l’évidence, l’amélioration de l’humain a fonctionné pour lui. Cela signifie qu’elle pourrait peut-être fonctionner pour nous tous — à condition que nous choisissions les technologies adéquates et que nous cultivions une bonne dose de scepticisme à l’égard de l’intelligence artificielle, communiste ou non.
(Traduit de l’américain par Élise Roy.)
Evgeny Morozov