Résumé
Ce texte invite à une approche critique des systèmes. En ce sens, il circonscrit les questionnements autour des enjeux historiques de la cybernétique et ses conséquences contemporaines des systèmes, à savoir, la production des images à lire, des signes à traduire, bref des pratiques esthétiques qui émergent à une époque où l'information et la communication se sont imposées à la fois comme véhicule des idées, des images, comme outil de production et comme « théorie » de ces canaux de diffusion, voire peut-être d’infrastructure idéologique commune.
Abstract
This text aims at inciting to the reflection for a critical approach of the systems. In this sense, it circumscribes the questionings around the historical stakes of the cybernetics and its contemporary consequences of the systems, namely, the production of the images to be read, signs to be translated, in short of the aesthetic practices which emerge at a time when the information and the communication imposed themselves at the same time as vehicle of the ideas, of the images, as tool of production and as "theory" of these channels of diffusion, or even perhaps of common ideological infrastructure.
1. Un contexte historique
« À la fin des années 1950, il y a eu une tentative profonde et sérieuse de transformer le design en une activité scientifique, de le rationaliser. Cette approche est née à la Hochschule für Gestaltung d'Ulm et a trouvé l'une de ses sources de force dans la "nouvelle" science de la cybernétique, qui était en son temps, à la manière dont nous, les humains, recherchons la réponse universelle, ambitieusement promue comme une nouvelle science qui nous permettrait de résoudre tous nos problèmes. Elle était donc, de toute évidence, significative pour le design1. »
Comme en attestent ces quelques remarques de Ranulph Glanville, le design, la cybernétique et les théories de l’information et de la communication ont une histoire intriquée, se nourrissant réciproquement avec, semble-t-il, pour objectif commun la rationalisation des idées qui les gouvernent. Les années qui suivent la fin de la Seconde Guerre mondiale ont été marquées par des transformations majeures dans le champ des pratiques esthétiques – design, arts et médias. Qu’il s’agisse de la publication de Understanding Media2 de Marshall McLuhan, des expositions de la Nouvelle Tendance3, Arte Programmata4, la célèbre Cybernetic Serendipity5, ou encore la constitution de l’Experiments in Art and Technology (E.A.T.), toutes ces instances contemporaines illustrent un champ disciplinaire en effervescence ayant pour ambition de traiter des problèmes du temps. Au travers des conférences de Macy6, une volonté se dessine : celle de faire apparaître un socle commun de pensée qui rendrait possible une sorte d’unification de différents champs disciplinaires, de la philosophie aux mathématiques, de l’anthropologie à la sémiotique, de la linguistique aux arts. Cette volonté de production d’une première théorie de la cybernétique prend corps dans l’interdisciplinarité : l’enjeu est de ré-établir les causalités (circulaires) dans les sciences sociales et la biologie. L’effet de la pensée cybernétique est flagrant, elle se popularise très rapidement probablement en ce qu’elle touche à des questions qui éveillent l’imaginaire contemporain : les machines « intelligentes », les automates, mais surtout de façon plus générale, le contrôle des systèmes, des humains comme des machines.
Dans le design, les arts et les médias, l’approche transdisciplinaire appelle à des définitions de notions héritées des champs précédemment cités, souvent complémentaires ou quelquefois contradictoires. Notre recherche, nous l’espérons, apporte des éléments de réflexion dont la perspective est de questionner les définitions de programmes et d’algorithmes comme paradigmes de pensée, de l’information comme médium, de l'implémentation comme méthode. Ces pratiques assistées par des systèmes de conception et les nouvelles interconnexions entre les différentes disciplines qu’elles suggèrent nous imposent donc de réévaluer l’influence de la volonté interdisciplinaire des précurseurs de la cybernétique.
Pourtant, il est difficilement envisageable d’appréhender la cybernétique sans aborder explicitement sa relation inextricable aux mathématiques. Les pratiques esthétiques – arts et design – et les mathématiques ont une histoire entremêlée et jalonnée de moments clés : la théorisation de la perspective, de la symétrie, des rapports de proportions, ou encore le nombre d’or. Dans la société industrialisée du tournant du 20e siècle, l’apparition progressive des machines au potentiel computationnel, puis au cours du 20e siècle des ordinateurs, s’est traduite par l’imbrication technique entre ces dispositifs et des formes émergentes au sein des pratiques du design, des arts et des médias. Les potentiels qu’offrent ces nouvelles pratiques sont nombreux : application de modèles mathématiques aux formes graphiques, utilisations d’instructions, algorithmie, définition systématique, approche d’une logique informatique, synthèse visuelle, simulation, permutations, ou combinaisons. Ces potentiels constituent un corpus de logiques que nous qualifierons de systématique en ce qu’elles répondent à des règles prescrites qui prennent forment par l’exécution.
La pensée des programmes et l’émergence d’une gouvernance systématique semblent se décliner en trois temps :
1) de la guerre à 1956 : la convergence de plusieurs champs disciplinaires aboutit à l’émergence d’une pensée unifiée de l’information, à savoir la cybernétique et la théorie (mathématique) de la communication et de l’information.
2) entre 1956 et 1970 : les systèmes et les programmes deviennent indissociables d’un travail d’intégration et de conception dans un objet, une réalité matérielle, tangible. Comme l'attestent les expositions de la Nouvelle Tendance ou d’Arte Programmata, l’artefact et les logiques sous-jacentes à celui-ci ne se pensent pas de façon indépendante. Le programme formalise la pensée dans un objet codifié.
3) à partir de 1970 : L’exposition Software et les réflexions de Jack Burhnam autour du même sujet marquent un tournant. Le concept de software se détache de celui de programme ; il n’est plus la formalisation d’un processus dans un médium donné mais il s’entend, de manière plus abstraite, comme une logique sans nécessité d’artefact. Pour conséquence, la pensée des systèmes tend vers une pensée des programmes aniconic, qui échappent à la représentation7.
C’est donc de ce contexte dont il est question. D’abord, d’une histoire complexe et de ses allers-retours entre les disciplines, une histoire jalonnée de moment politique fondateur de générations, en France et à l’internationale. Puis, de l’évolution d'outils, techniques et théoriques, les ordinateurs, qui ont façonné non seulement le monde technologique que nous connaissons mais aussi, et c’est le cœur de notre propos, les modèles idéologiques qui gouvernent nos pratiques. En ce sens, nous souhaitons inviter à réfléchir sur la manière dont ces infrastructures logiques prennent forme, se traduisent dans le langage, les signes et les symboles visuels, et comment ces modes de pensées mettent en tension l’abstraction et sa formalisation – son implémentation, ses artefacts et ses médias.
2. Des modes de gouvernance des logiques (abstraites) en regard des pratiques esthétiques systématiques
Une simple documentation historique des événements croisant les pratiques en arts, design et médias avec l’émergence de nouveaux outils et langages issus de systèmes et de logiques computationnelles ne suffit pas à évaluer les modifications qu’entraînent ces nouvelles articulations entre arts et sciences de l’informatique. Avant de comprendre la manière dont ils agissent dans la sphère de l’esthétique, il est crucial de pouvoir décrire et mobiliser avec précision des connaissances sur les différents systèmes entendus comme des infrastructures logiques qui gouvernent les productions computationnelles (cybernétiques) : l’information, l’implémentation, l’abstraction, le programme/l’algorithme, le traitement syntaxique/sémantique, les relations software/hardware, le code. Ces concepts ont donné lieu à de nombreuses définitions, dans les différents champs disciplinaires au sein desquels ils se déploient, comme les sciences informatiques, l'ingénierie ou encore la linguistique. Nous pensons qu’il est nécessaire d’explorer la généalogie de ces concepts, leurs définitions et leurs évolutions théoriques ainsi que la porosité de ces différentes définitions.
Les principes de la computation précèdent historiquement leurs implémentations techniques dans des machines computationnelles, qu’il s’agisse d’un système de règles ou d’instructions, de règles de jeu, de musique ou d’architecture, de De re aedificatoria (1452) de Leon Battista Alberti au Underweysung der Messung (1525) d’Albrecht Dürer8. Il est communément admis que les travaux d’Ada Lovelace et de Charles Babbage ont été déterminants pour ce qui s’annonçait comme l’avènement des machines computationnelles et de l’automatisation du traitement mathématique. La machine analytique, le commentaire de Luigi Federico Menabrea et sa traduction par Lovelace (incluant la fameuse note G) marquent le passage d’une logique mathématique à une mécanisation de l'algorithme, et en conséquence, font émerger la nécessité de rendre le traitement du « code » automatisable. Ce qui nous intéresse particulièrement dans ces premières recherches est qu’il s’agit là des prémisses des questionnements autour de la machine et de son potentiel d’exécution9 qui dessinent alors entre les lignes une opposition conceptuelle : les limites d’une machine exécutante face à son potentiel génératif. Cette dichotomie anime différents champs disciplinaires dont il nous semble pertinent d’étudier les relations ; les informaticiens en ce qu’elle va cadrer les limites techniques de la computation ; les pionniers du computer art10 - artistes, mais aussi designers, graphistes, musiciens, danseurs, écrivains et poètes - en ce qu'ils essaient de repousser ces limites en générant des œuvres à partir d’exécutions machiniques ; la linguistique computationnelle en ce qu'elle s’attachera à « ouvrir » le langage aux machines, par le biais d’un traitement syntaxique.
Cette porosité s'avère déterminante dans l’élaboration des premières notations formelles d’un système de décision algorithmique : les théories d’Axel Thue11, d’Emil Leon Post12 ou de Turing ont posé les éléments théoriques nécessaires à la création d’une passerelle entre la logique formelle, la linguistique théorique et la possibilité d’une implémentation technique du traitement syntaxique de chaînes de caractères. Cette approche par un traitement syntaxique formel nourrit les méthodes de traitement des chaînes de caractères et permet d’appliquer la logique formelle au développement naissant des langages de programmation, à l’instar d’ALGOL 60 qui s’appuie sur la Forme de Backus-Naur13. Nous pensons qu’il est incontournable d’interroger l’apparition d’un langage « codé », lisible par les machines, en la mettant en relation avec les recherches en linguistique théorique, notamment la description des structures syntaxiques du langage naturel de Noam Chomsky14 et le développement dans la seconde moitié du 20e siècle de la linguistique théorique formelle. L’émergence dans les années 1960 d’avancées notables dans la science informatique (l'apparition, en particulier, des premiers langages de haut-niveau) permet de formaliser l’abstraction mathématique dans le but de rendre possible le traitement par des machines computationnelles.
Comme en attestent les travaux mathématiques d’Alonzo Church, de Kurt Gödel, de Stephen Cole Kleene ou encore d’Alan Turing, le concept d’algorithme fonde l’abstraction des machines et se manifeste dans de nombreuses implémentations computationnelles. La notion d’algorithme a été définie informellement par Andrey Markov (1954)15, Stephen Cole Kleene (1967)16, ou encore de façon plus approfondie par Donald Knuth (1968)17. En 1968, ce dernier détaille les cinq propriétés qui caractérisent le concept d’algorithme : la finitude, la définition précise, les entrées, les sorties et le rendement18. Ces différents principes, s’ils se traduisent souvent par l’écriture d’un arbre logique d’étapes interdépendantes afin de les rendre intelligibles, présentent surtout l’algorithme en ce qu’il relève d’une logique décorrélée de sa mise en œuvre, de son écriture. L’algorithme définit une procédure non-ambiguë. Knuth précise en outre que les sciences de l’informatique cherchent non seulement le développement d’algorithmes, mais surtout de bons19 algorithmes. Ce faisant, l’auteur indique que le passage de l'algorithme au programme peut prendre de nombreuses formes, certaines répondant d’un rendement plus important, autrement dit, qui nécessite un nombre d’itérations moins important pour chaque étape. De cette façon, il distingue le programme de l’algorithme en spécifiant que le programme est « l’expression d’une méthode computationnelle dans un langage de programmation20 ». Le langage de programmation présente une forme syntaxique, une notation conventionnelle qui formule les algorithmes et qui permet la production d’artefacts qui les appliquent (ou qui les exécutent dans le cas du logiciel). Comme suggéré par les analyses de William J. Rapaport21, ce passage du champ syntaxique au champ sémantique est l’implémentation. L’implémentation n’est jamais abordée de manière autonome, elle est toujours l’implémentation de quelque-chose. En ce sens, il s’agit d’une notion relative. La maison est l’implémentation du plan, un programme est l’implémentation d’un algorithme. Le point, qui nous semble essentiel, est que, ce quelque-chose dont il est question, ce dont le programme est l’implémentation, est ce que Rapaport qualifie d’abstraction22. Cette abstraction, qui n’est ni nécessairement concrète ni nécessairement abstraite, s’opère exclusivement dans un médium.
Dès les années 1950 et particulièrement au début de la cybernétique, il n’existe pas de consensus sur la définition de l’information, ni sur la façon avec laquelle celle-ci s’articule avec la notion d’abstraction. L’opposition émergente entre les théories de l’information de Claude Shannon et Waren Weaver, Norbert Wiener et celles relatives à la structural information (thèse défendue par Donald MacKay), se traduit par les distinctions suivantes :
1) Pour Shannon, Weaver et Wiener, l’information est la possibilité du choix. Elle peut être entendue comme purement quantifiable puisqu’abstraite de son contexte (définissant ainsi directement ce que l’information est). La réification de l’information (objet stable et constant) lui permet d’être décorrélée du contexte mais simultanément coupe celle-ci de la possibilité de la représentation23. Le design serait alors l’abstraction de l’implémentation, à savoir, l’application sémantique d’une syntaxe logique décorrélée de toute représentation.
2) Pour MacKay, l’information peut être entendue comme structurelle en ce qu’elle se détermine non pas par la possibilité d’évaluer une quantité d’information, mais par sa capacité opérationnelle à produire (et altérer) des représentations24. Celle-ci ne peut se faire qu’en considérant le contexte, et en conséquence, octroie à la représentation sa capacité à produire la connaissance (de l’information intrinsèque).
Historiquement, c’est bel et bien l’information abstraite de son contexte qui l’emporte, sans doute parce qu’elle sut être, en son temps, la réponse technique la plus sensible, la plus pragmatique en somme. Pourtant, l’argument de MacKay en faveur d’une information structurelle nous semble important à re-questionner aujourd’hui, dans le sens où il préfigure des modes de représentations propres à la cybernétique : l’opération dont il est question est celle d’une sélection parmi un corpus de représentations préétablies, et non d’une production de représentations25, faisant ainsi écho au passage d’une logique de programme à une logique de software26. Nous avons donc une définition de l’information quantifiable, produisant des artefacts par le biais de l’implémentation opérée dans un médium, et qui répond aux conditions des logiques mathématiques puisque nous pouvons leurs appliquer des raisonnements abstraits, quantifiables, avec des objets logiques variables. Pourtant, en reprenant notre questionnement sur l’implémentation, Rapaport exclut la possibilité de traduire l’abstraction autrement qu’au travers d’un médium, celui-ci conditionnant inévitablement le contexte de l’opération.
3. L’articulation des langages algorithmiques, logiciels et programmes (typo)graphiques
Devant l’immense tâche que constitue l’acquisition d’une meilleure connaissance de ces rencontres entre arts, média et design d’une part et sciences des systèmes et des théories de l’information, de la linguistique et de l’informatique d’autre part, nous sommes convaincus que le champ de la communication graphique et typographique constitue un espace de recherche privilégié. À travers la manipulation et l’invention constante de systèmes et de relations sémiotiques qui caractérisent cette discipline, se jouent de manière particulièrement visible, les articulations entre langages algorithmiques abstraits, programmes, formes graphiques ou plastiques et software. L’automation fait passerelle entre le design et l’algorithme : les grilles, la typographie, les compositions peuvent dorénavant être mises en relation, en tension selon des règles mathématiques complexes, combinatoires, épuisant les possibles. Les formes évoluent et les qualités graphiques des productions traduisent les logiques machiniques qui rendent possibles ces objets esthétiques : lignes rigoureusement droites, courbes sinusoïdales « parfaites », aplats de couleurs uniformes, dégradés d’une subtilité et précision que seule une machine peut offrir, symétries et rapports de proportions minutieusement pré-déterminés, cadrage de l’aléatoire par des règles de composition enregistrées dans le programme.
Des recherches de grande valeur ont déjà apporté des réponses à ces questions, en particulier concernant la culture visuelle qui s’est constituée autour des nouvelles formes et médiums numériques, en particulier liées à la médiation de l’écran27. Les travaux de Johanna Drucker, cofondatrice du laboratoire de recherche SpecLab (Université de Virginie) ont permis de souligner le potentiel génératif et spéculatif de ces formes pour représenter et mieux percevoir, connaître des réalités complexes, notant l’importance des questions de design graphique et de visualisation de données dans le domaine des humanités numériques28. Dans le domaine de l’archéologie des médias, les travaux de Lev Manovich ont permis de mieux appréhender la question de l’apparition d’un langage spécifique aux formats du numérique29, tandis que les travaux de Jussi Parikka30 décrivent avec précision le système matériel qu’implique l’émergence des formes de communication transmédia dite dématérialisée, allant jusqu’à souligner l’envers du décor et les déchets que ces systèmes produisent.
Le champ que nous souhaitons explorer ici est plus réduit. Il est circonscrit aux logiques de systèmes liées aux théories de l’information et de la communication, la cybernétique, à la programmation informatique et aux logiciels de PAO, qui ont fait évolué en profondeur les réalités du rôle de concepteur graphique et typographique, les relations entre la conception et la production de formes en communication visuelle. Cette évolution ne peut aujourd’hui qu’être constatée avec de plus en plus de force et d’évidence. À titre d’exemples qui ne pourraient ici viser l’exhaustivité, nous rappellerons ici les publications de Design by numbers et de Creative Code par John Maeda qui proposent une synthèse de ses expériences pédagogiques à partir du code ont mis en lumière, démocratisé et encouragé une nouvelle pratique du design graphique et des arts visuels fondée sur une connaissance et un usage expérimental de la programmation à l’orée des années 2000. Créé en 2001 par Benjamin Fry et Casey Reas, le software « Processing » a diffusé cette nouvelle manière d’expérimenter en art et en design, proposant un environnement de développement libre inspiré du « Design by numbers » de Maeda. Dans la lignée de ces pionniers, l’artiste, chercheur et hacker Zach Lieberman a, parmi d’autres projets, cofondé « Openframeworks », une bibliothèque en langage C++ proposant des outils spécifiques pour le code créatif (https://openframeworks.cc/). Nous mentionnerons également le collectif OSP (Open Source Publishing) qui défend depuis une quinzaine d’années une organisation et des processus de travail alternatifs aux studios de design graphique dépendants de logiciels propriétaires préprogrammés comme Indesign, fondant leur pratique uniquement sur le code ou des logiciels open-source. Depuis 2017, le duo de Prepostprint propose dans une perspective collaborative, de regrouper l’ensemble des projets qui combinent approches expérimentales et “free software” dans le domaine du graphisme. Le studio de graphisme formé par Elise Gay et Kevin Donnot, avec les éditions Hyx, propose depuis 2017, une interprétation graphique qui mobilise du code et la création de programmes,des expositions organisées au Centre Pompidou dans le cadre de la manifestation Mutation/Création. Pour le catalogue de l’exposition Coder le monde, ils ont ainsi imprimer l’ouvrage directement à partir des lignes de code, sans passer par aucun logiciel de mise en page. Récemment encore, le projet Paged.js (https://pagedjs.org/) donne la possibilité de concevoir et produire des formes de publication directement tirées du langage html qui structure les pages Web. Il semble bien avec ces dernières propositions en particulier, que le monde du graphisme et de l’édition est entré dans une nouvelle économie et un questionnement radical des processus de travail, un basculement dont Alessandro Ludovico a théorisé les premiers fondements dans Post-digital Print. La mutation de l’édition depuis 1894 (éditions B42, 2016).
Comment comprendre, documenter ces évolutions, ces nouvelles pratiques ? D’où viennent-elles et comment sont-elles apparues ? En tant que chercheurs en sciences humaines, il nous semble indispensable de revenir aux premières rencontres des cultures visuelles avec les logiques algorithmiques et computationnelles, à partir de la fin des années 195031 et surtout de s’intéresser prioritairement aux processus de conception plutôt qu’à la réception a posteriori de ces nouvelles formes. Si, dès la fin des années 1960, des expositions, des publications et des recherches ont présenté et étudié ce type d’expériences en art et en architecture, les tentatives de designers et de chercheurs pour documenter et évaluer avec rigueur l’apport des nouveaux langages algorithmiques et des méthodes programmatiques dans le domaine du design graphique, de la typographie, du dessin de lettres ou de la poésie visuelle pendant ces années-là, restent largement en friche32. Contrairement au monde des Beaux-Arts qui reste attaché à une multiplicité de médiums, l’ordinateur s’impose progressivement comme un outil indispensable pour la conception graphique et la communication visuelle. Grâce au développement d’interfaces graphiques, puis de logiciels dits de « PAO » [Publications Assistée par Ordinateur] dans les années 1980, des machines de calcul conçues au départ pour aider les scientifiques, les militaires et les comptables ont été adoptées par un nombre grandissant de concepteurs et se sont transformées en de véritables outils d’écriture et d’aide à la création graphique, participant à l’esthétique communicationnelle et archivistique de la seconde partie du 20e siècle.
Comprendre une nouvelle esthétique moderne fondée sur l’articulation de formes, langages et matérialités numériques ne peut se passer d’un travail de documentation et d’analyse concernant l’articulation entre d’un côté les « programmes » graphiques et typographiques dans un contexte de création industrielle, et de l’autre, la culture informatique, scientifique et technologique dans laquelle ils prennent source et, en particulier, les langages computationnels. Dans le domaine du design graphique, le rôle des programmes est à questionner doublement, d’une part comme matrice conceptuelle, interrogeant en particulier la manière dont la structure de langages algorithmiques et mathématiques fondée sur des séries d’instructions inspire les méthodes de création graphique et, d’autre part, dans leurs réalités matérielles, comme outils permettant de générer des formes graphiques nouvelles. Les manières dont, depuis les années 1950, les designers graphiques, les typographes, les artistes, les poètes visuels, les publicitaires, les chercheurs et les industriels se sont appropriés les langages informatiques et les logiques computationnelles en les implémentant dans des programmes qu’ils ont eux-mêmes conçus ou contribué à inventer est un point crucial à définir avant toute tentative d’interprétation sémiotique de l’esthétique des nouveaux médias. Comme nous le mentionnerons malheureusement trop brièvement ici, des éléments de réponse susceptibles d’éclairer de nouvelles pratiques liées à l’articulation du texte et de l’image à partir de logiques de systèmes sont à trouver dans l’art concret, l’art optique, Fluxus (à titre d’exemple, nous pouvons citer le projet de The House of Dust d’Alison Knowles) et la poésie visuelle, ouvre la voie à de nouveaux liens entre visible et lisible, à l’écriture et aux outils graphiques propres aux métiers de la communication visuelle. Des projets poétiques et conceptuels aux frontières des arts visuels comme les expérimentations de Friedrich Nake, Manfred Mohr, Herbert Franke ou mystico-conceptuelles du poète et artiste Carl Fernbach-Flarsheim (The Boolean Image / Conceptual Typewriter, 1970) témoignent du fait que cette question de la retranscription écrite de la langue passée à la moulinette de langages computationnels a essaimé largement hors du champ des professionnels de la typographie et de l’informatique, dans le cadre de programmes poétiques et artistiques créés à partir non plus seulement de mots mais également d’instructions entrées dans des langages informatiques comme Fortran ou Algol.
Dans le domaine du graphisme, il est à souligner l’apparition de nouvelles méthodes de conception systématiques fondées sur des rapports de calcul et des séries d’instructions, qui souvent précéder l’usage de l’ordinateur. À titre d’exemple, les travaux issus des principes de l’art concret de Max Bill33 ou Richard Paul Lohse34, le système de grille de Josef Müller-Brockmann35, ou encore les programmes graphiques ou typographiques de Karl Gerstner découlent de logiques de systèmes en grande partie compatibles ou directement issus de l’écriture de programmes informatiques36. L’ensemble des démarches menées en Suisse sous le nom de « style international », qui pourraient regrouper les démarches citées précédemment sont d’autant plus intéressantes à étudier qu’elles déploient, avant puis en parallèle de l’usage progressif d’outils computationnels dans la communication visuelle, des logiques proches de celles utilisées dans la programmation (esthétique procédurale, grille, permutation, redondance, introduction de l’aléatoire) sans forcément utiliser d’ordinateur37. La rencontre entre art concret, design, nouvelles théories de l’information et communication, poésie visuelle, expérimentations avec des ordinateurs et des langages de programmation à la Hochschule für Gestaltung à Ulm et autour de Max Bense à Stuttgart38 ou encore au sein du GRAV [Groupe de recherche en art visuel] à Paris, constitue un terrain d’étude évident pour ces expériences. Si les différentes expositions marquantes de cette génération à la fin des années 1960 (« Cybernetic Serendipity », « Software », « Tendencije 4 ») font partie de l’histoire de l’art, il serait utile de les aborder selon l’angle de la communication visuelle et de la lettre. De même dans des revues d’avant-garde ou professionnelles (Bit, Futura, Rot, Werk, Page, Semiosis 19, Computers and Automation, Visible Language) un certain nombre d’articles évoquent de manière plus ou moins frontale cette question des liens entre conception (typo)graphique et programmatique, alors que la manière de concevoir graphiquement les couvertures et la mise en page de ces revues cherche souvent à proposer un reflet esthétique aux discussions contenues à l’intérieur de la revue.
Dans le domaine généralement plus réservé du dessin de caractères, l’ouverture à divers champs disciplinaires des débats visant à concevoir des formes d’écriture « électrifiées », lisibles à la fois par l’être humain et la machine [le New Alphabet de Wim Crouwel et la contre-proposition des typographes Gerhard Unger dans la collection Kwadraat-Blad ; l’« Information-Typographie » du théoricien et artiste Kurd Alsleben ; le Line Up de Timothy Epps et Christopher Evans ; les formats commandités par différents industriels comme l’OCR-B conçue en 1968 par Adrian Frutiger d’après les recommandations de l’European Computer Manufacturers Association (ECMA) ou encore les expériences autour de caractères de reconnaissance magnétiques (MICR) par IBM] suggère l’apparition de nouveaux types de collaborations et “chaînes” de travail entre dessinateurs de caractères, informaticiens, scientifiques et centres de production qu’il nous semble important de documenter39. Comment articuler langages informatiques et conception de systèmes graphiques? Lorsqu’il est seul face à la machine, le typographe est-il contraint de se former à la programmation ? Est-il possible de transposer les logiques du code dans un nouveau langage graphique ? Lorsqu’un designer ou un poète utilise des programmes réalisés par d’autres, avec une interface graphique ne nécessitant pas d’entrer dans le code de l’outil, reste-t-il maître des formes et des lettres qu’il manipule? L’ensemble de ces questions a fait l’objet de nombreux débats, expériences, qu’il est important de restituer.
L’ensemble de ces questions ne pourra trouver de réponse convaincante qu’en documentant et définissant également avec plus rigueur l’apport des nouveaux outils informatiques qui sont devenus incontournables dans la plupart des studios de graphisme et des fonderies. À titre d’exemple, il semble difficile de questionner l’esthétique du dessin de lettres dans les années 1980, sans comprendre comment un logiciel comme Metafont (Donald Knuth) est pensé et structuré40. La fonderie Emigre avait bien compris cette importante du software dès les années 1980, faisant une large place dans la revue qu’elle créa aux questionnements autour des pratiques des designers, intégrant dans l’ours de chaque numéro les programmes utilisés pour concevoir les caractères d’impression et la mise en page, évoquant notamment l’un des premiers logiciels de PAO (ReadySetGo!) ou encore l’une des premières versions du logiciel Fontographer, dédié au dessin de caractères. De la même manière, si l’interface d’un logiciel qui fait le lien entre le code et les usages de designers non formés à la programmation, est dite “graphique”, c’est bien parce qu’elle est elle-même un objet graphique et, donc, un nouvel objet de recherche pour la discipline. Dans le sillage de son exposition “Thinking Machines: Art and Design in the Computer Age, 1959-1989” (13 novembre 2017 - 8 avril 2018), le MoMA a ainsi récemment reconnu et acquis le travail remarquable de la designer graphique Susan Care qui autour de 1982 a conçu la grille et les icônes de l’interface des premiers ordinateurs de la marque McIntosh. Enfin, les concepteurs qui construisent leurs systèmes graphiques à l’écran ont souvent besoin de penser la réalisation matérielle de leur projet, grâce à différentes techniques de traceurs et d’impression. Ce passage d’une machine de calcul à une machine à concevoir et à une machine à imprimer nécessite également des programmes capables de faire dialoguer les opérations de conception et de production, de transposer des séries d’instruction logiques à des machines qui ne fonctionnent pas toujours avec les mêmes langages et les mêmes procédures d’activation. En d’autres termes, il faut pour mieux comprendre les enjeux du design graphique aujourd’hui faire émerger de nouveaux objets d’étude tels que les langages algorithmiques, les programmes, les logiciels et leurs interfaces qui jusqu’à présent n’ont que trop peu passionné les historiens, théoriciens et critiques de la discipline, à qui les principales formations n’ont pas jugé bon d’apprendre les rudiments de code et de programmation informatique.
4. Les débordements de la pensée systématique dans les pratiques esthétiques
Un dernier axe, indispensable pour l’étude de ce champ de recherche, nous semble être celui d’une étude critique des idéologies liées à l’apparition de nouveaux modèles de gouvernance et à l’introduction de la pensée systématique dans – et par – les pratiques esthétiques.
Dans les premières lignes du texte d’Umberto Eco pour l’exposition Arte Programmata, l’harmonie mathématique est mise en parallèle avec la richesse de la chance et de l’aléatoire41. Le texte reprend la dichotomie classique, entre règle mathématique et hasard. Pourtant, comme l’atteste les travaux de Leslie Mezei42, faire en sorte de contourner la régularité, l’uniformité, la prédictibilité de machines déterministe se fait par détour. L’implémentation de systèmes aléatoires s’oppose fondamentalement aux idéologies guidant l’utopie de la Machine Universelle de Turing : le paradoxe fascine (programmer le non-programmable) et s’illustre par un écart grandissant entre le programme exécuté et ses effets, scindant symboliquement la machine de ses artefacts graphiques, faisant inévitablement écho au texte de Burhnam et la séparation conceptuelle du software et du programme. Si cette question nous paraît intéressante, c’est qu’elle touche à la constitution d’un imaginaire des machines, capable de tout (ou presque).
Les machines computationnelles stratifient les logiques. Elles proposent un ordre43. Elles procèdent par niveaux d’abstractions (Levels of Abstraction44), entendus comme des implémentations techniques de fragments de logiques, potentiellement interdépendants d’autres strates – gouverner par des logiques potentiellement différentes. Cette ordonnance peut être appréhendée par la formulation des niveaux d’abstractions de Giuseppe Primiero, composée ainsi : Intention – Specification – Algorithm – High-level programming language instructions – Assembly/machine code operations – Execution45. Dans le champ du design, cela se traduit pour Raymond Turner de la façon suivante : Fonction – Design – Structure – Implémentation – Artefact46. L’auteur va décliner cette logique afin de mettre en lumière le procédé qui mène au programme en tant qu’artefact technique : Requirements – Design – System specification – Implementation – Programs as Artifacts47. Or, les niveaux d’abstractions communiquent entre eux et, pour ce faire, répondent à une pratique du design de systèmes techniques interopérables, en réseaux ou en strates mais au sein duquel l’étape artefact n’est pas toujours présente. Se pose alors la question : quels sont les limites et les enjeux d’un design de systèmes aniconiques ? Comment le design de protocole s’appuie sur la pensée systématique pour prévoir l’usage du software (par l’utilisateur et par d’autres software) ? Comment l’usager perçoit un programme sans artefact ?
Qu’il s’agisse de la machine utopique de Turing, du déterminisme catégorique de l’algorithme ou encore de l’abstraction formelle et les limites de la computation48, la production par la machine ne relève pas seulement du champ de la machine (par son implémentation dans un artefact) mais aussi de la constitution d’un protocole de gouvernance : des machines elles-mêmes et de la conduite de projet s’appuyant sur des machines. L’on perçoit aisément que nos problématiques d’implémentation et d’abstraction sont au cœur de l’enjeu du design de programmes, que l’on retrouve dans le process cybernétique explicité par Gordon Pask49 mais aussi dans le célèbre modèle conceptuel du design d’expérience utilisateur élaboré par Jesse James Garrett50. Ces méthodes participent à l’idée d’un artefact qui exécute une logique insondable, en ce les strates logiques de bas niveaux résistent à l’entendement (par la nécessité d’aborder les boîtes noires par leurs matérialités). Mais ils soulèvent également une question idéologique : si le procédé de création oscille entre l’abstraction et son implémentation concrète dans un artefact, comment peut-on par l’observation des systèmes, comprendre leurs logiques internes ?
En prémisses de la cybernétique, Norbert Wiener51 ne l’entendait pas comme un champ disciplinaire strictement limité aux mathématiques de l’information. Il souhaitait que celle-ci soit une théorie avant tout politique qui définisse les structures idéologiques de la gouvernance, des hommes et des machines, du vivant et du non-vivant. De cette façon, les modèles issus de la cybernétique devaient fournir les outils conceptuels pour appréhender un monde transformé par la guerre52 et par les choses qui l’ont rendu possible. Si l’on observe le débat entre Wendy Hui Kyong Chun53 et Alexander Galloway54, il semblerait que le software entendu comme idéologie suggérerait que l’abstraction, l’opération et la prescription déterminent un imaginaire de la relation homme-machine, de la relation au hardware par l’interface. L’idée d’une machine inexplicable – black box – n’est pas nouvelle et découle en grande partie des travaux d’Ashby en 1956 puis de Wiener en 1961 sur les méthodes d’analyses de systèmes fermés. Elle repose sur l’idée (reprise plus récemment par Galloway) que le software se dissimule (technique) et se dévoile simultanément (par ses effets esthétiques). Cette résistance à la connaissance – intrinsèquement ou par défaut d’outils d’analyses adéquates – semble avoir ouvert la voie à tout un champ d’études sur les conséquences sociales et politiques du software comme culture, à l’instar des nombreux travaux de Mackenzie55, Eubanks56, Pariser57, O’Neil58 ou Pasquale59. Si certains de ces textes fondent leurs argumentations sur les relations entre une technique invisibilisée et leurs conséquences sociales (qu’ils cherchent à rendre visible, comme les inégalités sociales automatisées par l’usage d’algorithmes), ils s’attardent en particulier sur ce qui vient après la computation, ce qu’elle produit en guise d’infrastructure de contrôle60. Nous proposons de penser ces imaginaires avant, pendant et après la computation, à savoir, comment ces idéologies – entendues comme infra-structures de la pensée – caractérisent l’implémentation dans un médium, que celui-ci soit iconique ou aniconique.
A ce titre, le débordement dont il est question serait à entendre comme le déploiement d’un modèle de pensée péri-informatique appliqué, d’une part, à la conception, et d’autre part, à des modèles de sociétés (voir des méthodes de transformations de systèmes par des révolutions). La prolifération des pratiques esthétiques gouvernées par les programmes ne se limite pas à l'objet ; elle participe de la structuration d’un imaginaire des machines, utopique, fantasmé, débordant du cadre strict de la représentation, forgeant les modèles de conception s’éloignant de la praxis. Les percolations existantes entre les dogmes issus des logiques computationnelles et ses pratiques remettent en question les fondements mêmes des concepts inhérents à la création d’artefacts. Ce qui nous paraît significatif est que l’idée de programme semble résister à l’expérience au profit de la (pré)conception. Cette dualité conception/expérience est au cœur des discussions et des conflits qui ont participé à scinder historiquement les pratiques artistiques de celles du design. Nous pensons tout particulièrement à l’opposition idéologique autour de la revendication de l’héritage du Bauhaus : la constitution par Asger Jorn en 1954 du Mouvement International pour un Bauhaus Imaginiste traduit indéniablement cette confrontation avec les dogmes fonctionnels de la conception portés et enseignés, entres autres, par Max Bill à Ulm61, et dont semble-il, ce qu’il convient d’appeler design aujourd’hui découle. Nous voyons dans ce conflit idéologique le symptôme d’un glissement des postulats de la cybernétique – et a fortiori de la théorie de l’information et de la communication – vers une généralisation du programme entendu comme projet. Les protocoles qui gouvernent la conduite de projets, en design, arts et médias, répondent à ces méthodes pré-déterminées, et de fait, d’une logique programmatique. Ces logiques semblent s’imposer dans les méthodes propres à ce que l’on nomme communément le design thinking, autrement dit, une certaine logique de conception prédéterminant le projet62.
5. Bibliographie
Antonelli, Paola (dir.),Talk to Me: Design and the Communication between People and Objects, cat. d’exp., New York, MoMA, 2011.
Archer, Bruce L., The Structure of Design Processes, Thesis (Ph.D.) Royal College of Art, London, 1968.
Armstrong, Helen, Graphic Design Theory: Readings from the Field, New York, Princeton Architectural Press, 2009.
Ashby, W. Ross, An Introduction to Cybernetics, London, Chapman & Hall LTD, 1957.
Banham, Reyner (ed.), The Aspen Papers : twenty years of design theory from the International Design Conference in Aspen, Londres, Pall Mall Press, 1974.
Bense, Max, Aesthetica, Paris, éditions du Cerf, 2006
Bill, Max, « La pensée mathématique dans l’art de notre temps » dans : Max Bill, Thomas Maldonado, Buenos Aires, éditions Nueva Vision, 1955.
Breton, Philippe, L’Utopie de la communication, Paris, La Découverte, 1997.
Burnham, Jack, Software - Information Technology: Its New Meaning for Art, cat d’exp., New York, Jewish Museum, 1970.
Ceruzzi, Paul E., A History of Modern Computing – 2nd ed., Cambridge, MA, The MIT Press, 2003.
Chomsky, Noam, Syntactic Structures, Princeton, New Jersey, Mouton and Co., 1957.
Chun, Wendy Hui Kyong, Programmed Visions : Software and Memory, Cambridge, MA, The MIT Press, 2011.
Church, Alonzo, « On the Concept of a Random Sequence », Bulletin of the American Mathematical Society 2, 1940, pp. 130–135.
Cladders, Johannes (dir.)., Programm, Zufall, System: ein neuer Zweig am alten Konzept der Sammlung Etzold, cat. d’exp., Städtisches Museum Mönchengladbach, 1973
Colburn, Timothy R., Philosophy and Computer Science, Armonk, NY, M. E. Sharpe Inc., 2000.
Dartnall, Terry (dir.), Artificial Intelligence and Creativity : an Interdisciplinary Approach, Dordrecht, Springer Netherlands, 1994.
Davis, Stephen Boyd, Gristwood, Simone, « Computing, Design, Art :Reflections on an Innovative Moment in History. », History and Philosophy of Computing. IFIP Advances in Information and Communication Technology, Springer, ITA, (2016), pp. 101-115.
Davis, Stephen Boyd, Gristwood, Simone, « The Structure of Design Processes : Ideal and Reality in Bruce Archer’s 1968 Doctoral Thesis. », Proceedings of DRS 2016, Design Research Society 50th Anniversary Conference, Brighton, UK, 27–30 June 2016.
Drucker, Johanna, SpecLab : digital aesthetics and projects in speculative computing, Chicago, University of Chicago Press, 2009.
Drucker, Johanna, Visualisation. L’interprétation modélisante, Paris, Éditions B42, 2020.
Eubanks, Virginia, Automating Inequality : How High-Tech Tools Profile, Police and Punish the Poor, New York, St Martin’s Press, 2018.
Fischer, Thomas, Herss, Christiane M. (dir.), Design Cybernetics : Navigating the New, Cham CH, Springer Nature, 2019.
Floridi, Luciano (dir.), The Routledge Handbook of Philosophy of Information, London, Routledge, 2016.
Flusser, Vilém, Post-histoire, Monlet, T&P Work Unit, 2019.
Fuller, Matthew, Behind the Blip : Essays on the Culture of Software, New York, Autonomedia, 2003.
Frank, Helmar G., Informationsästhetik, kybernetische Ästhetik, Ästhetokybernetik : eine Einführung, Berlin, Institut f. Kybernetik, 1997.
Franke, Herbert ; Herzogenrath, Wulf ; Nierhoff-Wielk, Barbara (dir.), Ex machina - frühe Computergrafik bis 1979 : die Sammlungen Franke und weitere Stiftungen in der Kunsthalle Bremen, cat. d’exp., Berlin / Munich, Deutscher Kunstverlag, 2007.
Garrett, Jesse James, The Elements of User Experience: User-Centered Design for the Web and Beyond (2nd Edition) (Voices That Matter), Berkeley, CA, New Riders Press, 2010.
Gerstner, Karl, Designing Programmes, Teufel, Niggli, 1968 (2e édition).
Gerstner, Karl, A Compendium for Literates: A System of Writing, Cambridge, The MIT Press, 1974.
Gerstner, Karl, « Think program : synopsis of the exhibition "designing programs/programming designs" », Directed by Emilio Ambasz, Museum of Modern Art, New York, February 5 - March 30, 1973, The Museum of Modern Art, 1973.
Gomringer, Eugen (ed.), konkrete poesie : deutschprachige autoren, Stuttgart, Reclam, 1972.
Grau, Olivier, MediaArtHistories, Cambridge, MA, The MIT Press, 2007.
Hagengruber, Ruth, Riss, Uwe V. (dir.), Philosophy, Computing and Information Science, London, Pickering & Chatto, 2014.
Hayles, Katherine, How We Became Posthuman : Virtual Bodies in Cybernetics, Literature, and Informatics, Chicago & London, University Press of Chicago, 1999.
Hofstadter, Douglas R., Gödel, Escher, Bach: An Eternal Golden Braid, New York, Basic Books, 1979.
Kittler, Friedrich, There is no software, ctheroy.net, 1995, [en ligne, http://ctheory.net/articles.aspx?id=74, consulté le 09 juin 2021]
Kleene, Stephen Cole, Mathematical Logic. New York, Wiley, 1967.
Knuth, Donald E., The Art of computer programming volume I, Fundamental Algorithms, (third edition), Massachusetts, Addison-Wesley, 1997.
Knuth, Donald E., Computer and Typesetting, Addison-Weslay, Reading / Massachusetts, 5 vol., 1984.
La Monte Young ; Mac Low, Jackson (dir.), An Anthology of Chance Operations, New York, autoédité, 1962.
Lartigaud, David-Olivier (dir.), Art++, Orléans, Hyx, 2011.
Lee, Pamela M., Chronophobia : On Time in the Art of the 1960s, Cambrige MA, The MIT Press, 2004.
Mackenzie, Adrian, Machine Learners : Archaeology of a Data Practice, Cambridge MA, The MIT Press, 2017.
Maeda, John, Creative Code, Thames & Hudson, Londres, 2004
Maeda, John, Design by Numbers, Cambridge MA, The MIT Press, 1999.
Maldonado, Tomas, Avanguardia e razionalita : Articoli, saggi, pamphleti 1946-1974, Turin, Einodi, 1974.
Maldonado, Tomas, Environnement et idéologie : (vers une écologie critique), Paris, Union générale d’édition, 1972.
Manovich, Lev, Software Takes Command, New York, Bloomsbury Academic, 2013.
Markov, Andrey, « Theory of algorithms » Tr. Mat. Inst. Steklov 42, 1–14. traduction Edwin Hewitt, American Mathematical Society Translations, Series 2, Vol. 15 (1960), 1954.
Masure, Anthony, Design et humanités numériques, Paris, Éditions B42, 2017.
McLuhan, Marshall, Understanding Media : The Extensions of Man (1964), Cambridge MA, The MIT Press, 1994.
Medosch, Armin, New Tendencies : Art at the Threshold of the Information Revolution (1961-1978), Cambridge, MA, The MIT Press, 2016.
Meneguzzo, Marco (dir.), Arte Programmata : Italian Kinetic Art From the 1960s, M&L Fine Art, London, 4 October - 20 December 2016.
Migayrou, Frédéric (dir.), « Coder le monde », cat. d’exp., Paris / Orléans, Centre Pompidou / Hyx, 2018.
Minsky, Marvin (dir.), Semantic Information Processing, Cambridge, Massachusetts, The MIT Press, 1968.
Minsky, Marvin, Computation : Finite and Infinite Machines, Englewood Cliffs NJ, Prentice-Hall, 1967.
Minsky, Marvin, Computation: Finite and Infinite Machines, New Jersey, Prentice Hall Inc., 1967.
Minsky, Marvin, The Society of Mind, New York, Simon & Schuster, 1986.
O’Neil,Cathy, Weapons of Math Destruction :How Big Data Increases Inequality and Threatens Democracy, New York, Crown Publishers, 2016.
Parikka, Jussi, Qu'est-ce que l'archéologie des médias ?, traduit de l'anglais par Christophe Degoutin, Grenoble, UGA Éditions, coll. « Savoirs littéraires et imaginaires scientifiques », 2018.
Pariser, Eli. The Filter Bubble : What the Internet Is Hiding from You, New York, Penguin Press, 2011.
Pasquale, Frank, The Black Box Society : The Secret Algorithms That Control Money and Information, Cambridge, Harvard University Press, 2015.
Pias, Claus (dir.), Cybernetics, The Macy Conferences, 1946-1953, The Complete Transactions, Zürich/Berlin, diaphanes, 2003, (University of Chicago Press, 2016).
Peirce, Charles S., Graphen und Zeichen : prolegomena zu einer apologie des pragmatizismus, Stuttgart, Hansjörg Mayer, 1971.
Peirce, Charles S., Ecrits sur le signe, Gérard Deledalle (éd.), Paris, Le Seuil, 1978.
Rapaport, William J., « Implementation as Semantic Interpretation : Further Thoughts », Journal of Experimental & Theoretical Artificial Intelligence, 17(4), 2005 pp. 385–417.
Rapaport, William J., « Implementation Is Semantic Interpretation », The Monist, 82(1), 1999, pp. 109–130.
Rapaport, William J., « Understanding Understanding: Syntactic Semantics and Computational Cognition », Tomberlin, James E. (dir.), Philosophical Perspectives, Vol. 9 : AI, Connectionism, and Philosophical Psychology, Atascadero, CA, Ridgeview, 1995, pp. 49–88.
Reichardt, Jasia (dir.), Cybernetics, Arts and Ideas, London, Studio Vista, 1971.
Reichardt, Jasia, Cybernetic Serendipidity. The Computer and the Arts : a Studio International Special Issue, London, Studio International, 1968.
Rieder, Bernhard, Engines of Order : A Mechanology of Algorithmic Techniques, Amsterdam, Amsterdam University Press, 2020.
Rojas, Raúl, Hashagen, Ulf (dir.), The First Computers – History and Architectures, Cambridge, MA, The MIT Press, 2000.
Rosen, Margit (dir.), A little known story about a movement, a magazine and the computer’s arrival in art : new tendencies and bit international, 1961-1973, Cambridge, Massachusetts, The MIT Press/ZKM, 2011.
Shanken, Edward A. (dir.), Telematic Embrace : Visionary Theories of Art, Technology, and Consciousness by Roy Ascott, Berkeley CA, University of California Press, 2003.
Shanken, Edward A., Systems, London, Whitechapel Gallery, Cambrige MA, The MIT Press, 2015.
Shannon, Claude E., Weaver, Warren, A Mathematical Theory of Communication, Urbana, University of Illinois Press, 1964.
Solt, Mary Ellen, « Charles Sanders Peirce and Eugen Gomringer. The Concret Poem as a Sign », Poetics Today, n° 3, été 1982, p. 197-209
Turner, Raymond, Computational artifacts : Towards a philosophy of computer science, Berlin Heidelberg, Springer. 2018.
van Heijenoort, Jean, From Frege to Gödel : A Source Book in Mathematical Logic, 1879-1931, Cambridge MA, Harvard University Press, 1967.
von Foerster, Heinz, Understanding Understanding : Essays on Cybernetics and Cognition, New York, Springer-Verlag, 2003.
Wark, McKenzie, A Hacker Manifesto, Cambridge, Harvard University Press, 2004.
Weibel, Peter (dir.), Beyond art : a Third Culture. A Comparative Study in Cultures, Art, and Science in 20th Century Austria and Hungary, Wien, Springer, 2005.
Wiener, Norbert, Cybernetics, or control and communication in the animal and the machine, Cambridge, Massachusetts, The Technology Press, New York: John Wiley & Sons, Inc., 1948.
Zenil, Hector (dir.), A Computable Universe : Understanding and Exploring Nature as Computation, London, World Scientific Publishing Company – Imperial College Press, 2013.
-
Traduction des auteurs : « In the late 1950s, there was a profound and serious attempt to turn design into a scientific activity, to rationalise it. This approach originated at the Hochschule für Gestaltung in Ulm, and found as one of its sources of strength the “new” science of cybernetics, which was at the time, in the way in which we humans look for the universal answer, ambitiously promoted as a new science that would allow us to solve all our problems. It was, therefore, obviously significant for design. », Glanville, Ranulph, « Try Again. Fail Again. Fail Better : The Cybernetics in Design and the Design in Cybernetics » dans Thomas Fischer, Christiane M. Herr (dir.), Design Cybernetics : Navigating the New, Cham CH, Springer Nature, 2019, p. 29. ↩
-
Marshall McLuhan, Understanding Media : The Extensions of Man (1964), Cambridge MA, The MIT Press, 1994. ↩
-
Darko Fritz, « La notion de “programme” dans l’art des années 1960 – art concret, art par ordinateur et art conceptuel » dans Lartigaud, David-Olivier (dir.), Art++, Orléans, Hyx, 2011, pp. 27-40. ↩
-
Umberto Eco, « Arte Programmata » dans Rosen, Margit (dir.), A little known story about a movement, a magazine and the computer’s arrival in art : new tendencies and bit international, 1961-1973, Cambridge, Massachusetts, The MIT Press/ZKM, 2011, pp. 98-101. ↩
-
Jasia Reichardt, Cybernetic Serendipidity. The Computer and the Arts : a Studio International Special Issue, London, Studio International, 1968. ↩
-
Claus Pias (dir.), Cybernetics, The Macy Conferences, 1946-1953, The Complete Transactions, Zürich/Berlin, diaphanes, 2003, (University of Chicago Press, 2016). ↩
-
Jack Burnham, « Notes on art and information processing », Software :Information technology : its new meaning for art, New York: Jewish Museum, 1970, p. 11. ↩
-
Peter Weibel, « It Is Forbidden Not to Touch: Some Remarks on the (Forgotten Parts of the) History of Interactivity and Virtuality » dans Olivier Grau, MediaArtHistories, Cambridge, Massachusetts, The MIT Press, p. 24. ↩
-
Mario Verdicchio, « The Role of Computers in Visual Art », Fabio Gadducci, Mirko Tavosanis (dir.), History and Philosophy of Computing, Cham CH, Springer Nature, 2016, p. 290. ↩
-
Voir les travaux de Ben F. Laposky, Lillian Schwartz, Frieder Nake, Charles Csuri, Ken Knowlton, A. Michael Noll, Billy Klüver. ↩
-
Axel Thue, « Probleme über Veränderungen von Zeichenreihen nach gegebenen Regeln », Christiania Videnskabs-Selskabs Skrifter, I.Math.-naturv. Klasse, 10, 1914, et James F. Power, « Thue’s 1914 paper : a translation », Department of Computer Science, National University of Ireland, Maynooth,Co. Kildare, Ireland. August 28, 2013. ↩
-
Emil Leon Post, « Introduction to a general theory of elementary propositions » dans Jean van Heijenoort, From Frege to Gödel : A Source Book in Mathematical Logic, 1879-1931, Cambridge MA, Harvard University Press, 1967, pp. 264-283. ↩
-
La Forme de Backus-Naur, théorisée par John Backus et Peter Naur, permet la description de la syntaxe d’un langage de programmation. Elle servira à Chomsky pour sa grammaire hors-contexte et conséquemment sera cruciale dans le développement d’ALGOL 60. ↩
-
Noam Chomsky, Syntactic Structures, Princeton, New Jersey, Mouton and Co., 1957. ↩
-
Andrey Markov, « Theory of algorithms » Tr. Mat. Inst. Steklov 42, 1–14. traduction Edwin Hewitt, American Mathematical Society Translations, Series 2, Vol. 15 (1960), 1954. ↩
-
Stephen Cole Kleene, Mathematical Logic. New York, Wiley, 1967. ↩
-
Donald E. Knuth, The Art of computer programming volume I, Fundamental Algorithms, (third edition), Massachusetts, Addison-Wesley, 1997. ↩
-
Traduction des auteurs, « Finiteness », « Definiteness », « Input », « Output », « Effectiveness », Ibid., pp. 4-6. ↩
-
Ibid., p. 7. ↩
-
Traduction des auteurs, « An expression of a computational method in a computer language is called a program. », Ibid., p. 5. ↩
-
William J. Rapaport, « Implementation Is Semantic Interpretation », The Monist, 82(1), 1999, pp. 109–130. et William J. Rapaport, « Implementation as Semantic Interpretation : Further Thoughts », Journal of Experimental & Theoretical Artificial Intelligence, 17(4), 2005 pp. 385–417. ↩
-
Ibid., p. 386. ↩
-
Katherine Hayles, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics, Chicago, The University of Chicago Press, 1999, p. 56. ↩
-
Donald MacKay, « In Search of Basic Symbols » dans Claus Pias (dir.), Cybernetics, The Macy Conferences, 1946-1953, The Complete Transactions, op. cit., p. 480. ↩
-
Ibid., pp. 481-482. ↩
-
Jack Burnham, « Notes on art and information processing », Software : Information technology : its new meaning for art, New York: Jewish Museum, 1970, p. 11. ↩
-
Lire notamment : Jennifer Helfand et John Maeda, Screen: essays on Graphic Design, New Media and Visual Culture (ed.), Princeton Architectural Press, 2001 ; Annick Lantenois (éd.), Lire à l’écran. Contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique, B42, Paris, 2011. Par ailleurs, la revue Back Office consacre un de ses numéros à la thématique “écrire l’écran”, dont les articles sont accessibles en ligne à l’adresse suivante : http://www.revue-backoffice.com/numeros/03-ecrire-lecran [consulté le 15/07/2021]. ↩
-
Johanna Drucker, SpecLab. Digital Aesthetics and Projects in Speculative Computing, University of Chicago Press, 2009. ↩
-
Lev Manovich, The Language of New Media, The MIT Press, 2011. ↩
-
Jussi Parikka, Qu'est-ce que l'archéologie des médias ?, traduit de l'anglais par Christophe Degoutin, Grenoble, UGA Éditions, coll. « Savoirs littéraires et imaginaires scientifiques », 2018. ↩
-
Christoph Klütsch, Computergrafik. Ästhetische Experimente zwischen zwei Kulturen ; die Anfänge der Computerkunst in den 1960er Jahren, Springer, New York / Vienne, 2007 ↩
-
Bien que trop confidentiels, un certain nombre de travaux dans ce domaine ont servi de base à notre réflexion pour ce dossier thématique, dont une sélection est présentée en bibliographie. On citera, à titre d’exemple, les travaux de Johanna Drucker, Jessica Helfand, John Meada et, en France, les recherches de Pierre-Damien Huyghe, David Olivier Lartigaud, et plus récemment d’Anthony Masure et de la revue Back Office qu’il codirige avec Kevin Donnot et Elise Gay. ↩
-
Max Bill, « Die mathematische Denkweise in der Kunst unserer Zeit », Werk, n° 3, Winterthur, 1949. En 1980, Max Bense publie un article sur Max Bill en prenant comme grille de lecture les théories du linguiste Charles S. Peirce (Max Bense, “L’essai de Max Bill “La pensée mathématique dans l’art de notre temps””, Semiosis 19, n° 3, 1980, pp. 29-36. ↩
-
Richard Paul Lhose, « Art in the age of technology » dans : Richard Paul Lhose 1902-1988, cat. d’exp., Wilhem-Hack-Museum, Ludwigshafen am Rhein, 1992. ↩
-
Josef Müller-Brockman, Grid Systems in graphic design, Niggli, Teufen, 1981. ↩
-
Cf. notamment : Karl Gerstner, Programme entwerfen, Niggli, Teufen, 1964 ; Kalte Kunst, Niggli, Teufen, 1957. ↩
-
Sur l’histoire de ce mouvement, lire la remarquable monographie de Richard Hollis, Swiss Graphic Design, Yale University Press, 2006. ↩
-
Cf. notamment : Max Bense, Aesthetica, éditions du Cerf, Paris, 2007. ↩
-
Lire une synthèse de ces débats dans l’article de Sarah Owens, « Electrifying the alphabet », Eye Magazine, n° 62, hiver 2006 ↩
-
Donald Knuth, Computer and Typesetting, Addison-Weslay, Reading / Massachusetts, 5 vol., 1984 ↩
-
Umberto Eco, « Arte Programmata » dans Margit Rosen (dir.), A little known story about a movement, a magazine and the computer’s arrival in art : new tendencies and bit international, 1961-1973, op. cit.. ↩
-
Leslie Mezei, « Randomness in computer graphics » dans Jasia Reichardt (dir.), Cybernetics, Arts and Ideas, London, Studio Vista, 1971, pp. 165-174 et Peter Weibel (dir.), Beyond art : a Third Culture. A Comparative Study in Cultures, Art, and Science in 20th Century Austria and Hungary, Wien, Springer, 2005, pp. 342-343. ↩
-
Bernhard Rieder, Engines of Order : A Mechanology of Algorithmic Techniques, Amsterdam, Amsterdam University Press, 2020, p. 55. ↩
-
Timothy R. Colburn, Philosophy and Computer Science, Armonk, NY, M. E. Sharpe Inc., 2000, p. 174. ↩
-
Giuseppe Primiero, « Information in the philosophy of computer science » dans Luciano Floridi (dir.), The Routledge Handbook of Philosophy of Information, London, Routledge, 2016, pp. 90–106. ↩
-
Raymond Turner, Computational artifacts : Towards a philosophy of computer science, Berlin Heidelberg, Springer. 2018, p. 27. ↩
-
Ibid., p. 57. ↩
-
Alonzo Church, « On the Concept of a Random Sequence », Bulletin of the American Mathematical Society 2, 1940, pp. 130–135. ↩
-
Gordon Pask, « A Comment, a case history and a plan » dans Jasia Reichardt (dir.), Cybernetics, Arts and Ideas, op. cit., p. 76. ↩
-
Jesse James Garrett, The Elements of User Experience: User-Centered Design for the Web and Beyond (2nd Edition) (Voices That Matter), Berkeley, CA, New Riders Press, 2010. ↩
-
Norbert Wiener, Cybernetics, or control and communication in the animal and the machine, Cambridge, Massachusetts, The Technology Press, New York: John Wiley & Sons, Inc., 1948. ↩
-
Philippe Breton, L’Utopie de la communication, Paris, La Découverte, 1997. ↩
-
Wendy Hui Kyung Chun, « Contrôle et liberté : logiciel et plaisir causal » dans David-Olivier Lartigaud (dir.), Art++, op. cit.. ↩
-
Alexander R. Galloway, « Oubliez la langage, il se surveille lui-même : logiciels et idéologie » dans David-Olivier Lartigaud (dir.), Art++, op. cit.. ↩
-
Adrian Mackenzie, Machine Learners : Archaeology of a Data Practice, Cambridge MA, The MIT Press, 2017. ↩
-
Virginia Eubanks, Automating Inequality : How High-Tech Tools Profile, Police and Punish the Poor, New York, St Martin’s Press, 2018. ↩
-
Eli Pariser. The Filter Bubble : What the Internet Is Hiding from You, New York, Penguin Press, 2011. ↩
-
Cathy O’Neil, Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, New York, Crown Publishers, 2016. ↩
-
Frank Pasquale, The Black Box Society : The Secret Algorithms That Control Money and Information, Cambridge, Harvard University Press, 2015. ↩
-
Lev Manovich, Software Takes Command, New York, Bloomsbury Academic, 2013. ↩
-
A propos de ces questions, nous recommandons notamment la lecture de l’ouvrage suivant : Emmanuel Guy, Le Jeu de la guerre de Guy Debord. L’émancipation comme projet, Paris, B42, 2020, ↩
-
Bruce L. Archer, The Structure of Design Processes, Thesis (Ph.D.) Royal College of Art, London, 1968, chapitre 5. ↩