Pour une meilleure inclusivité des systèmes d'écriture sur le web
École Supérieure d'Art
et de Design d'Orléans

DSNEP
Mention Design des média

Pauline Stein
Partie
précédente
Sommaire
Introduction
서론
บทนำ
介绍
Si le #web véhicule une image de #melting pot culturel, communautaire et linguistique, de « village global », les faits montrent une toute autre réalité. Dans son article « How the Internet is killing the world’s languages », Caitlin Dewey s'appuie sur l'analyse du linguiste András Kornai pour constater que « moins de cinq pour cent des langues mondiales actuelles sont utilisées en ligne, […] et Internet pourrait aider les 95 pour cent restants à mourir. » 1 Les langues les plus absentes sont souvent celles dont la retranscription repose sur des systèmes autres que l’ #alphabet latin. Les #systèmes syllabiques et #logographiques, en particulier, sont sous-représentés. Une hypothèse pour expliquer cette étrange inégalité, partagée par de nombreux observateurs, serait que le lien profond entre la structure du #web et l’ #alphabet latin. La logique de la langue anglaise est en effet partout, sur le clavier de l’utilisateur comme pour les #langages de programmation et le code des programmes qui fondent la logique computationnelle qui s’écrivent pour l’écrasante majorité dans la langue de Shakespeare. Dans quelle mesure est-il possible de changer la donne ? Comment mieux accueillir des #systèmes d’écriture aux logiques différentes ? Si répondre à ces questions dépasse largement le cadre de ce mémoire, il nous semble important de se pencher sur la responsabilité du designer sur ces inégalités. Peut-on en tant que graphiste, typographe, dessinateur de caractères mettre en place des systèmes et des procédures qui intègrent mieux ces #systèmes d’écriture ? Il me semble, dans une certaine mesure, que la réponse est positive. Annick Lantenois définit d’ailleurs le rôle du #designer, dans son livre le vertige du funambule, comme étant celui du traducteur ou de l’interprète. Elle définit les enjeux du #design graphique « comme la recherche des conditions du transfert et de la traduction de contenus en milieu complexe, dans le mouvement de sa complexification. » 2 Elle poursuit : « si cette recherche doit s’actualiser sous la pression de l’émergence de la culture numérique, c’est probablement parce qu’en tant que moyens d’adaptation à un milieu, les pratiques de transfert et de traduction sont indispensables à la vie et l’épanouissement de tout individu, de tout collectif, de toute culture. La capacité d’appropriation du potentiel contenu dans ces deux termes (transfert et traduction) est l’indice de la volonté d’imaginer les conditions nécessaires pour vivre avec et parmi les autres. » 3 Il paraît alors tout à fait légitime de s’interroger sur cette question d’écriture et d’accessibilité à l’écriture sur le #web.

Dans les pages qui suivent, nous tenterons ainsi de comprendre comment le #design peut combler les #interstices 4 engendrés par le World Wide Web concernant l’intégration des #systèmes d’écriture autres que latins. Nous sommes convaincus que, dans les limitations la technologie latino-centrée, le #design peut générer des outils qui permettent une meilleure prise en charge des différents #systèmes d’écriture. Pour en arriver à cette conviction, il nous faudra comprendre, dans un premier temps, en quoi et comment le système existant de l’écriture mécanisée, depuis le développement de l’imprimerie en Occident, est configuré pour la structure et la forme de l’ #alphabet latin. Cela nous permettra de souligner les biais techniques à corriger, les outils à inventer ou à utiliser, tels que les #webfontes et les #fontes variables, pour donner aux #systèmes d’écriture autres que latins la place qu’ils méritent.
1.
Caitlin Dewey, « How the Internet is killing the world’s language », article publié sur the washington post, 2013.
2.
Annick Lantenois, le vertige du funambule — le design graphique entre économie et morale, Paris, B42, 2013, p. 75.
3.
Idid.
4.
Le web et l’industrialisation de l’écriture ont créé une faille entre le passage de l’écriture dite « manuscrite » et l’écriture dite sur « machine », causée par un nouveau seuil de complexité. Nous appellerons ce passage « interstice », en nous basant sur la définition qu’en donne Annick Lantenois dans son livre le vertige du funambule.
L'alphabet latin,
une norme mondiale
글로벌 스탠더드인
라틴 알파벳
ภาษาละติน มาตรฐานสากล
拉丁字母,
世界标准
Industrialisation de l'écriture
Si les procédés mécaniques et industriels ont permis à l’ #écriture de se diffuser à une échelle mondiale, ils ont aussi contribué à l’hégémonie actuelle de l’ #alphabet latin. Pour comprendre la difficulté d’intégrer des caractères autres que latins dans une technologie comme le #web, il faut être conscient que celle-ci n’est pas nouvelle et qu’elle est apparue dès les débuts de la mécanisation de l’ #écriture, avec l’imprimerie et la machine à écrire.
L'Imprimerie européenne éclipse l'histoire de l'Imprimerie mondiale
L’avantage pris par le #système d’écriture latin commence avec le développement de la typographie et de l’imprimerie en Europe. Le système d’impression typographique à partir de caractères mobiles mis au point dans l’atelier de Gutenberg s’impose progressivement comme le modèle hégémonique de la mécanisation de l’ #écriture, éclipsant d’autres procédés proches inventés notamment en Asie. Nous faisons l’hypothèse que la généralisation de la technologie du World Wide Web pour les échanges de textes et d’images par voie #numérique s’est faite de la même manière, en écartant d’autres possibilités techniques et que d’une certaine manière, elle réactive une discrimination envers certains #systèmes d’écriture qui échappent à ces logiques de mécanisation de l’ #écriture. Cette comparaison entre les technologies de l’imprimerie et du #web, n’est pas nouvelle. Quand Dominique Cardon parle de l'entrée dans l’ère du #numérique, il y fait référence : « c’est […] avec l’invention de l’imprimerie, au xve siècle, que la comparaison s’impose, car la révolution numérique est avant tout une rupture dans la manière dont nos sociétés produisent, partagent et utilisent les connaissances […]. » 5 Le sociologue souligne ici que la généralisation d’un procédé technique comme l’imprimerie s’est accompagné de la diffusion d’une nouvelle manière de pensée, d’une nouvelle culture qui est liée au contexte culturel, social et à la zone géographique dans lesquels elle a émergé. Ce qu’il ne dit pas directement, c’est que cette diffusion d’un mode de pensée occidental a également entraîné une surreprésentation des #systèmes d’écriture latin et #alphabétiques pour lesquels la typographie était particulièrement adaptée.

Bien qu’en Asie également des inventeurs aient mis au point des systèmes d’impression à partir de caractères mobiles, 6 il semble qu’au contraire, le procédé technique de la typographie tel qu’il s’est diffusé en Europe ait limité, contraint, voire empêché la diffusion de #systèmes d’écriture autres que latin, en particulier ceux qui sont fondés sur des #idéogrammes.
Pour souligner cette discrimination, le typographe Peter Bil'ak prend l’exemple de la classification des caractères typographiques. Cette dernière est centrée sur les formes latines. Les autres #systèmes d’écriture, parfois profondément différents les uns des autres, sont regroupés dans des catégories aussi vagues que « orientales » par les fonderies traditionnelles (comme l’Imprimerie nationale française ou la Maison Garamond). La plupart des fonderies contemporaines telles que Monotype les classent dans la catégorie « non-latine » comme s’il était impossible de les définir autrement que par la négation. Or, « orientales » et « non-latine » sont des termes à connotation coloniale, exprimant l’idée de « l’autre » ou de « non-européen ».

Peter Bil’ak explique par ailleurs que certaines terminologies typographiques ne sont pas appropriées pour les typographies qui ne sont pas latines. Si le « romain » désigne normalement une #écriture latine avec empattement du début de la Renaissance italienne, ce terme a pris aujourd’hui un autre sens : il indique des typographies « droites » par opposition à des typographies en « italique ». L’utilisation de ces adjectifs est confuse, et crée des contradictions typographiques. Peter Bil’ak prend l’exemple du catalogue de Linotype, qui contient les typographies sabon greek roman et sabon greek italic, dessinées par Jan Tschichold. 7 Les désignations « grec romain » et « grec italique » sont incompatibles, puisqu’elles mélangent deux histoires typographiques très différentes, sous-entendant que la version grecque fut latinisée. Le style « italique » est indissociable à la fois de la typographie latine et des opérations de normalisation pour s’adapter à un nouveau format de livre, plus petit, moins coûteux et facilement transportable. Alde Manuce l’a fait gravé à Venise au tournant du xve siècle, pour réduire la chasse et ainsi le nombre de pages d’une nouvelle série d’ouvrages de petite taille, au format in octavo. L’usage actuel d’emphase, visant à l’utiliser pour mettre un mot ou une phrase en avant, est venu plus tardivement. Du fait de son histoire et de son lien spécifique avec les formes latines, l’usage d’une version assimilée à l’italique pour marquer l’emphase au sein de #systèmes d’écriture et de formes qui ne sont pas latines demande d’être remis en question. Par ailleurs, le bon mot pour désigner ce style typographique dans les #systèmes d’écriture autres que latin serait « oblique ».

Dans son livre the solid form of language, en 2011, le typographe Robert Bringhurst conscient des ces problèmes, aborde la notion de classification en tentant de prendre en compte tous les #systèmes d’écriture. Bringhurst expose alors une classification basée sur le principe des #écritures : sémographique, #syllabique, #alphabétique et prosodique. Ces quatre catégories peuvent elles-même se subdiviser. Les #systèmes syllabiques se décomposent en deux : alpha-syllabique et logo-syllabique. De même que le prosodique se divise en sémo-prosodique et alpha-prosodique. Le problème de cette classification est que « chaque système évolué appartient à plus d’une de ces quatre catégories primaires » 8 et qu’il est difficile d’en tirer des conclusions et des bases solides pour une pratique de dessin de caractère plus inclusive.
La machine à écrire et la logique des idéogrammes chinois
La machine à écrire est la première technologie à prétendre offrir un outil d’ #écriture à l’échelle mondiale. Elle est constituée d’un « keyboard » (clavier) et de « keys » (touches). Néanmoins, il apparaît que le clavier qu’elle propose et qu’elle transmettra à l’ordinateur de bureau est construit sur une logique qui favorise l’ #alphabet latin et s’accorde difficilement aux #systèmes d’écriture ne fonctionnant pas de la même manière. Au premier abord, la machine à écrire promet un usage universel, compatible avec un grand nombre de #systèmes d’écriture. Les grandes entreprises de conception se vantaient de pouvoir taper dans toutes les langues, mais cela s’est révélé erroné ainsi que l’a documenté l’ouvrage the chinese typewriter 9 : « Remington et Olivetti […] ont fièrement déclaré l’universalité (au nom) de leur machine à écrire, comme l’ont fait Mergenthaler, Linotype et Monotype avec leurs machines à composer, malgré le fait qu’aucune de ces sociétés n’a jamais réussi à rentrer dans le marché de la langue chinoise. » 10 ‹img›

Les #designers et les ingénieurs ont conçu la machine à écrire pour s’adapter à la logique de l’ #alphabet latin. Thomas S. Mullaney le relève dans son livre : toutes les langues sont considérées comme des permutations de la norme anglaise. L’hébreu est l’anglais à l’envers, l’arabe est l’anglais à l’envers et en cursif, le russe est l’anglais avec des #lettres différentes, le thaï est l’anglais avec trop de #lettres, et ainsi de suite… Plus inquiétant encore, une langue comme le chinois ne peut s’inscrire dans le schéma d’une machine à écrire traditionnelle. Par son système ni #alphabétique ni #syllabique, le chinois a dû être imaginé en dehors des limites de la technologie existante.

Le #système d’écriture en Chine est basé sur le principe d’ #idéogramme qui est la représentation d’un mot, d’une idée, d’un concept par un signe graphique. Le #sinogramme, l’ #idéogramme chinois, ne donne pas d’indication de prononciation. Ce qui lui permet de retranscrire plusieurs langues et dialectes. Bien que les différentes communautés linguistiques ne se comprennent pas à l’oral, elles le peuvent à l’écrit. « On considère la langue écrite comme la plus universelle, qui transcende la prononciation des divers parlers. » 11 Si la Chine est un territoire très vaste, accueillant beaucoup de diversité culturelle, elle s’unifie sous les #sinogrammes. « Ce rôle fédérateur de l'écriture repose sur la stabilité des graphies : fixées à la fin du iiie siècle avant notre ère, elles n’ont connu que peu de ruptures et n’ont pas été affectées par l’évolution des prononciations qui ont varié selon les époques et les lieux. Coupée de l’oralité, la langue écrite s’est figée dans ses caractères et dans sa syntaxe, établissant une référence commune partagée par tous et constituant un corpus scripturaire défini par le nom de Classiques. » 12

Ce système est caractérisé par une « tendance à la prolifération, répondant à un enrichissement quasi permanent du lexique, (…) rendue possible par la nature même des caractères. Elle explique la grande pérennité de cette écriture. » 13 La structure de ce système fait donc qu’il aurait fallu inventer une machine à écrire capable de tracer aujourd’hui plus de 50 000 #sinogrammes ou, a minima, une sélection de 3 000 d’usage plus courant, pour que cela fonctionne correctement.

Au moment de l'essor de la machine à écrire, la machine à écrire chinoise est chimérique, démesurée, monstrueuse, caricaturale, dans l’esprit européen. « L’image absurde du clavier chinois n’est donc ni frivole, ni anodine. C’est le successeur d’un discours qui, au siècle précédent, était fermement enraciné dans la notion de hiérarchie raciale et d'évolutionnisme. […], des références sanglantes à la supériorité culturelle occidentale ou à l’évolution adaptée de l’écriture chinoise. » 14 ‹img›

Si les mots des #systèmes alphabétiques se forment par l’assemblage de #lettres, alors la logique de la machine à écrire est tout à fait adaptée pour ces derniers. Il suffit d’avoir la possibilité de taper toutes les #lettres de l’ #alphabet pour retranscrire toute une langue. Mais si pour un #système d’écriture, un signe équivaut à un mot, il est nécessaire d’avoir accès à tous les signes pour écrire. Il serait grossier de vouloir mettre 50 000 « keys » sur une machine à écrire. Thomas S. Mullaney souligne l'aspect caricatural que traîne la machine à écrire chinoise, en reprenant la citation de l’auteur Bill Bryson : « si un clavier de machine à écrire occidental standard était étendu pour prendre en compte tous les idéogrammes chinois, il devrait mesurer environ quinze pieds de long et cinq pieds de large – environ la taille de deux tables de Ping-Pong mises l’une contre l’autre. » 15 La machine à écrire occidentale n’est pas compatible avec le chinois, et plus généralement, avec les #systèmes logographiques. Elle est un outil des #systèmes d'écriture alphabétiques. L’exemple de la machine à écrire montre à quel point les questions de #design et de représentation équitable de la diversité linguistique des #systèmes d’écriture peuvent être liées. Thomas S. Mullaney questionne finalement la forme de l’outil : « pourquoi des touches ? » 16 Pourquoi cette forme-ci de l’outil ? Il souhaite que l’on s’interroge plutôt sur la conception occidentale de la machine à écrire : « nous devons creuser plus profondément dans l’histoire par laquelle “clavier” et “touche” sont devenus inséparables de notre compréhension de la “machine à écrire”. » 17 L’ #impérialisme linguistique, qu’il définit comme étant la fausse histoire d’un universalisme linguistique et d’ #écriture, a engendré « un algorithme mental » qui nous fait voir le monde par le prisme et la logique de l' #alphabet (latin). La machine à écrire est un bon exemple pour le comprendre. L’ordinateur en est l’exemple actuel.
Le latin, la volonté d’être l’écriture universelle
Alors que le #système d’écriture qui s’est construit en Chine est une force culturelle, identitaire, linguistique et porteur d’une histoire importante, il s’est vu plusieurs fois remis en question en faveur de l’ #alphabet latin. Chevillé aux formes technologiques de la reproduction mécanique de l’ #écriture qui ont réussi à s’imposer dans de nombreuses zones du globe, le #système d’écriture latine est perçu comme l’expression d’une certaine modernité occidentale et industrielle associée à l’idée de progrès technique, social et culturel. Sous prétexte d’une volonté d’entrer dans cette modernité, nombreux pays et états se sont posés la question de changer de #système d’écriture en faveur de l’ #alphabet latin. Ce fut le cas en Russie, lors de la révolution de 1917, mais également en Turquie, la jeune république franchit le pas en 1928 ou encore au Japon. Depuis le début de l'ère Meiji (1868) et son ouverture à l’occident, le Japon s’est souvent questionné sur l’idée de transcrire le japonais à l'aide des caractères latins, débat qui a ressurgi avec l’émergence de l’ordinateur et des contraintes techniques lié au #numérique. Dans le documentaire l'odyssée de l’écriture, 18 David Sington raconte que durant la révolution communiste, la Chine s’est également posé la question d’écrire à partir du latin. Si cette démarche a été abandonnée, l’ #alphabet latin est tout de même utilisé en Chine, notamment pour le #numérique, quand il est impossible d’utiliser des #idéogrammes : « […], dans les années 1950, la Chine continentale a développé et promulgué un système de phonétisation basé sur l’alphabet latin connu sous le nom de Hanyu Pinyin, ou simplement Pinyin. Conçu par des linguistes chinois peu après la révolution communiste de 1949, le Pinyin est désormais omniprésent en Chine, fonctionnant comme une technologie paratextuelle qui accompagne et prend en charge l’écriture chinoise basée sur les caractères, mais ne le remplace pas. » 19
C’est donc notamment en exportant ses outils et ses #médias technologiques de l’ #écrit — avec, en particulier, cette forme du clavier — que l’ #alphabet latin a pu pénétrer des zones à l’échelle mondiale où il n’était pas le #système d’écriture utilisé par la majorité des locuteurs et des locutrices : « lorsque Remington a conquis le monde, ce n’était pas “la machine à écrire” dans un sens abstrait qui a fait son chemin dans presque chaque coin du monde — c’était spécifiquement le clavier avec une touche majuscule qui a permis la saturation globale. Ce genre particulier de machine à écrire est devenu la machine par rapport à laquelle tous les systèmes d’écriture du monde viendraient à être mesurés, avec des implications profondes pour chacun qu’elle absorberait — et encore plus d’implications pour le seul système d’écriture qu’elle ne pouvait pas assimiler. » 20

Thomas S. Mullaney souligne ainsi que même des langages prétendument universels ou techniques de la science et de l’industrie moderne occidentale, en apparence déconnectés d’une langue particulière, ont été retranscrit selon la logique de l’ #écriture latine. Thomas Mullaney souligne : « que cela soit du code Morse, le braille, la sténographie, la machine à écrire, Linotype, Monotype, les cartes perforées, l’encodage de texte, l’imprimante matricielle, world processing, ASCII, l’informatique à domicile, la reconnaissance optique de caractères, la typographie numérique, ou une multitude d’autres exemples des deux derniers siècles, chacun de ces exemples furent développés au début avec l'alphabet latin à l’esprit, et seulement “étendus” plus tard pour inclure un alphabet non-latin, et peut-être non-alphabétique comme le chinois. » 21
5.
Dominique Cardon, culture numérique, Paris, Les Presse de SciencesPo, 2019, p. 5-6.
6.
Le premier système de caractères mobiles connu viendrait de Chine, vers 1040 après J.-C., inventé par Bi Sheng. Ils sont en usage continu depuis le xixe siècle. Vers 1230 après J-C., en Corée, les caractères mobiles sont alors produits en métal.
7.
Les exemples de Peter Bil’ak sont tirés de son article « A View of latin typography », publié en 2008. Les informations ont pu évoluer entre temps.
8.
Robert Bringhurst, la forme solide du langage, Paris, Ypsilon 2011, p. 55.
9.
Thomas S. Mullaney, the chinese typewriter — a history, Cambrigde, The MIT Presse, 2017.
10.
« Remington and Olivetti, […], proudly declared universality on behalf of their typewriters, as did Mergenthaler Linotype and Monotype on behalf of their composing machines, all despite the fact that not one of these companies ever succeeded in breaking into the Chinese-language market. » Ibid., p. 9-10.
11.
Wikipédia, « Langues chinoises », consulté le 04.01.2022 [en ligne].
12.
BnF, expositions, « L’écriture chinoise », PDF consulté le 04.01.2022 [en ligne], p. 2.
13.
BnF, l’aventure des écritures, « Naissance — Chine », consulté le 12.11.2021 [en ligne].
14.
« The image of the absurd Chinese keyboard is thus neither frivolous or innocuous. It is the successor to a discourse that in the previous century had been rooted squarely in notion of racial hierarchy and evolutionism. […], bloodstained references to Western cultural superiority or the evolution unfitness of Chinese script. » Thomas S. Mullaney, op. cit., p. 44.
15.
« If a standard Western typewriter keyboard were expanded to take in every Chinese ideograph it would have to be about fifteen feet long and five feet wide — about the size of two Ping-Pong tables pushed together. » Ibid., p. 35.
16.
« Why keys ? » Ibid., p. 41.
17.
« We must dig deep into the history by which “keyboards” and “keys” became inseparable from our understanding of “typewriter”. » Ibid., p. 43.
18.
David Sington et Martin De La Fouchardière (écriture & production), l’odyssée de l'écriture, Arte, 2020.
19.
« […], in the 1950s mainland China developed and promulgated a Latin alphabet-based phoneticization system known as Hanyu pinyin, or pinyin for short. Designed by Chinese linguists shortly after the Communist revolution of 1949, pinyin is now ubiquitous in China, functioning as a paratextual technology that runs alongside and supports character-based Chinese writing, but does not replace it. » Thomas S. Mullaney, op. cit., p. 8.
20.
« When Remington conquered the world, it was not “the typewriter” in any abstract sense that made its way into practically every corner of the globe – it was specifically the single-shift keyboard that achieved global saturation. This particular type of typewriter became the machine against which every writing system in the world would be measured, with profound implications for every one of them it absorbed — even more so for the one writing system it could not. » Ibid., p. 45.
21.
« Whether Morse code, braille, stenography, typewriter, Linotype, Monotype, punched-card memory, text encoding, dot matrix printing, world processing, ASCII, personal computing, optical character recognition, digital typography, or a host of other examples from the past two centuries, each of these systems was develop first with the Latin alphabet in mind, and only later “extended” to encompass non-latin alphabet — and perhaps non alphabetic Chinese. » Ibid., p. 9.
Un web sous condition
Le développement du #web, d’une certaine manière, peut être vue comme un prolongement de cette logique et de la diffusion massive de cette culture des #médias technologiques de l’ #écriture conçus autour de la culture latine et occidentale. Le #web est conditionné dans sa logique. Ce qui entraîne des fractures : « […] Internet creuse aussi celui qui sépare les 10% de la population qui pratiquent réellement l’anglais — langue officielle — et la masse des locuteurs des multiples langues vernaculaires, pour lesquelles Internet n’a pas été techniquement conçu, et qui représentent très peu son contenu. […] qui ne profite qu’aux privilégiés et risque de détruire jusqu’à la langue des plus démunis, et donc leur identité. » 22
Le web, un espace discriminant ?
« Cette question de la langue et de l’identité qu’elle porte est d’une grande importance pour Internet en Asie. » 23 C’est pourquoi, les pays de cette ère culturelle préfèrent leurs versions de #navigateurs ou de réseaux sociaux à ceux créés aux États-Unis et en Europe. On trouve alors Mixi au Japon ou Renren en Chine, que l’on peut considérer comme des équivalents de Facebook. Weibo est plus adapté que Twitter en Chine, où « […] les internautes chinois peuvent dire en 140 caractères bien plus de choses que leurs homologues occidentaux dans les langues alphabétiques. » 24 Toujours en Chine, Youku et Bili Bili sont les versions plagiées de YouTube, ainsi que Baidu Baike qui reprend le concept de l’encyclopédie collaborative Wikipédia. « Mais ces copieurs apportent toujours des modifications ou des améliorations qui rendent leurs services mieux adaptés aux besoins spécifiques des internautes chinois. » 25 Ces plateformes ont un système de navigation dans leur propre #système d’écriture, qui ne nécessite aucune connaissance de l’anglais de la part de leurs utilisateurs et des utilisatrices.

L’immense majorité des interfaces, des #navigateurs et même des #codes source et des programmes utilisés sur le #web sont en anglais. Ce qui engendre des difficultés d’utilisation pour certaines populations. Le cas de l’Inde est assez significatif. « L'expansion d’Internet 26 en Inde y renforce l’importance de l’anglais, qui est la langue officielle du pays mais qui n’est parlée que par environ 10% de la population. Même si les internautes préfèrent un contenu en hindi ou dans une autre langue vernaculaire, ils doivent passer par un clavier en caractères romains et utiliser un logiciel de conversion, ou translittérer eux-mêmes leurs messages et leurs recherches, ce qui est peu commode. Résultat : bien que chacune des trois langues vernaculaires (hindi, ourdou et tamoul) soit parlée par des centaines de millions de personnes, les messages dans ces langues représentent pour chacune moins de 2% des messages du monde entier sur le réseau microblogging Twitter, et ne s’y développent pas beaucoup. » 27 Maîtriser l’anglais devient un savoir indispensable pour s’intégrer dans certains secteurs du travail et devient la langue de l’élite économique et sociale du pays. Rappelons que la population indienne compte 25% d’illettrés et illettrées. 28 Le #web est alors « réservé à une minorité de privilégiés (…) qui ne prend pas en compte la diversité culturelle du sous-continent. » 29 Ce phénomène n’est pas uniquement lié à l’Inde, mais de manière générale à la population mondiale. « En réalité, il apparaîtra très vite que la frontière entre le monde réel et virtuel n’est pas si étanche et les inégalités des ressources sociales et culturelles entre internautes s’exercent aussi dans les espaces en ligne. » 30 Si sa structure est exclusive alors son utilisation le sera également.
Problème de structure dans l’outil d’écriture numérique
L’architecture du #web n’est pas accueillante envers tous les #systèmes d’écriture. Et pas uniquement dans l'accessibilité des utilisateurs et des utilisatrices, mais également dans l’outil d’#écriture en lui-même.

Bien que le coréen soit un #alphabet, sa structure typographique combinatoire engendre 11 172 associations numériques possibles. ‹img› Ce qui entraîne une grande taille de fichier d’écriture, un défi pour l’utilisation #web. «La grande taille des fichiers a été le gros obstacles à l’utilisation efficace des fontes coréennes sur le web.» 31 Mais il existe une réelle demande, et une réelle nécessité d’utiliser des typographies de toutes sortes de #systèmes d’écriture. Il suffit de se pencher sur les chiffres que nous transmet Google Font sur ces polices les plus utilisées. La noto sans jp, une typographie japonaise, est la 8e la plus appelée du serveur de Google Font. C’est-à-dire qu’elle a été vue 1 208 304 656 021 fois. En un an, le nombre de vues a augmenté de 30%. 32

« Les polices numériques nous sont aujourd’hui si familières qu’on oublie facilement que nous n’avons pas toujours eu le choix entre 50 000 caractères (ou bien plus) disponibles aujourd’hui. » 33 C’est avec le format #OpenType développé par Apple et Microsoft entre 1994 et 1996, que nous arrivons à ce jour au nombre de 65 535 #glyphes possibles. Les premières polices numériques n'en stockaient que 256. Il est évident que pour des #écritures comme le coréen, le chinois, le japonais et d'autres, ce seuil était et fut castrateur. Un « nombre qui a rapidement montré ses limites, même pour les langues occidentales. » 34
Auto-normation du japonais pour s’intégrer sur le web
Pour s’intégrer dans les limites des systèmes d’exploitation et des différentes normes régissant l' #écriture, certaines langues et certains #systèmes d’écriture ont dû s’auto-normer à défaut d'utiliser la #translittération latine. C’est le cas du japonais. L’écriture japonaise est constituée d’un mixte de plusieurs scriptes : les Kanji (#sinogramme), les Kana (#système syllabique), les Katakana (#système syllabique) et les Hiragana (#système syllabique). ‹img› On retrouve également l’utilisation du Romaji, la #translittération latine, que l’on appelle également la #romanisation. Elle est fréquemment employée pour son aspect exotique ou pour noter les mots étrangers dans leur graphie originale. Dans les années 1950, en #informatique, seul était en usage l’ #alphabet latin non-accentué, et souvent en capitales. Commence alors au Japon une recherche assidue qui aboutira dans les années 1960 à un procédé de conversion automatique des Kana en caractères chinois. Dans les années 1970, des normes sont établies pour le traitement de l’information. L’ #ASCII est utilisé en anglais. Fonctionnant sur un octet et 94 caractères imprimables, il fut incompatible avec le japonais. Le problème du nombre de caractères possibles fut réglé avec l’intégration d’un deuxième octet. 35

Dans la volonté d’être intégré numériquement et sous la pression des limites du #numérique, le Japon a dû réformer son #écriture. Il choisit de conserver sa graphie mixte aux dépens des Kanji qui furent limités et normalisés de manière radicale. En 1978, l’Association de normalisation industrielle du Japon, JIS, 36 publie sa première norme au sujet du traitement #informatique du japonais écrit. Modifié en 1983, JIS X 0201 définit 6 349 caractères sur deux niveaux, JIS1 et JS2. Le niveau 1 intègre la ponctuation ainsi que quelques symboles, les chiffres (arabes), l' #alphabet anglais (majuscule et minuscule), l’ #alphabet grec et cyrillique en plus des Katakana, des Hiragana et de 2 965 Kanji. Le niveau deux contient 3 384 Kanji moins fréquents et des versions non simplifiées de certains caractères de niveau 1. 37
Cette norme fut largement employée au Japon. Pour certaines pratiques, elle fut utilisée jusqu’en 2018. Depuis, ce système est supplanté, entre autres, par Shift JS. « Shift JS est le deuxième codage de caractères le plus populaire pour les sites web japonais, utilisé par 5,6% des sites du domaine .jp. UTF-8 est utilisé par 93,4% des sites web japonais. » 38
Néo-écriture sous pression du latin
Parfois, il n’y a pas d’autre choix que de céder face à l’ #alphabet latin. Des locuteurs et des locutrices préfèrent #translittérer leur #écriture en latin. C’est le principe du Pinyin. Les utilisateurs et les utilisatrices tapent phonétiquement en latin le son du #sinogramme qu'ils ou elles veulent écrire, puis l’appareil #numérique leur propose les #sinogrammes qui correspondent. Il leur « suffit » alors de choisir celui correspondant à leurs attentes. ‹img› Sans même passer par le clavier dédié à leur #système d’écriture, des locuteurs et des locutrices écrivent directement leur langue phonétiquement en latin. On voit donc apparaître des néo-écritures. C’est le cas en arabe avec le franco, que l’on appelle également l’arabi ou l’arabizi, qui est la contraction d’arabe et de easy. ‹img› Ces locuteurs et locutrices mélangent les caractères latins et les chiffres indo-arabes pour communiquer numériquement entre eux. Ils changent de #système d’écriture, de sens de lecture et de clavier pour retranscrire leur langue. Pour écrire sur les appareils #numériques, il est plus efficace et plus simple d’utiliser l’ #alphabet latin.
22.
Karyn Poupée, Séverine Arsène, Ingrid Thewath et Jean-Marie Bouissou (dir.), internet en asie, Arles, Picquier poche, 2012, p. 15-16.
23.
Ibid., p. 16.
24.
Ibid., p. 32.
25.
Ibid., p. 33-34.
26.
Le terme utilisé ici n’est pas le bon. Il s’agit en réalité du web.
27.
Jean-Marie Bouissou (dir.), op.cit., p. 132.
28.
Ibid., p. 145.
29.
Ibid., p. 133.
30.
Dominique Cardon, op. cit., p. 62.
31.
« The large file sizes have been the biggest hurdle to using Korean fonts effectively on the Web. » Google Fonts + 한국어, consulté le 29.11.2021 [en ligne].
32.
Google Fonts, analytics, consulté le 14.11.2021 [en ligne].
33.
Indra Kupferschmid, « L’avenir est variable », dans Yves Robert (dir.) graphisme en france, Paris, CNAP, 2019, p. 128.
34.
Ibid., p. 138.
35.
Henri Hudrisier et Nadine Lucas, « Des idéogrammes dopés à l’ordinateur », article publié sur le monde diplomatique, 1991, consulté le 02.04.2021, [en ligne].
36.
Japan Industrial Standard
37.
Henri Hudrisier et Nadine Lucas, op. cit.
38.
« Shift JS is the second-most popular character encoding for Japanese websites, used by 5,6% of sites in the .jp domain. UTF-8 is used by 93,4% of Japanese websites. » Wikipédia, shift js, consulté le 04.01.2022 [en ligne].
Étude de cas :
« How to bring a language to the future »
Dans son article « how to bring a language to the future », 39 Alizeh Kohari, une journaliste pakistanaise, revient sur le combat que constitue l’intégration d’un #système d’écriture au sein d’un environnement #numérique, c’est-à-dire l’intégration #web, de fonts numériques et de claviers numériques. Son exemple concerne l’ourdou, un dérivé de l’ #alphabet arabe. Il me permet de préciser beaucoup des problèmes évoqués dans ce mémoire. La langue est parlé par environ 170 millions de locuteurs et de locutrices réparties en Asie du Sud et dans la diaspora sud-asiatique. L’ourdou a longtemps été le #système d’écriture qui diffusait le Coran, la parole de Dieu.
Une écriture complexe à coder
À la différence de l’arabe qui s’écrit à partir du style d’écriture Naskh, l’ourdou se retranscrit en Nasta’līq. ‹img› En 2014, cette #écriture est pratiquement introuvable sur le #web. Il y avait donc deux solutions très peu satisfaisantes pour écrire en ourdou selon Alizeh Kohari : écrire soit à partir du Naskh, soit phonétiquement avec l’ #alphabet latin. Le clavier ourdou d’Apple, en 2013, proposait de retranscrire l’ourdou avec le Naskh, au grand dam de ses utilisateurs et utilisatrices. 40 Le Nasta’līq est un cauchemar à coder : il s’écrit de droite à gauche (comme les scriptes arabes), se déplace en pente vers le bas (plus le mot est long, plus la pente est raide), et la forme de chaque #lettre dépend de celles qui l’encadrent. Bien que ce soit un #système alphabétique à 39 #lettres, il recèle ainsi bien plus de combinaisons.

Pour comprendre la numérisation du Nasta’līq et de ses enjeux, Alizeh Kohari commence son récit en 1951. Quatre ans après s’être soustrait à la domination britannique, le Pakistan souhaite créer une imprimerie nationale qui composerait les documents en ourdou et en anglais. L’ourdou est alors la langue officielle du pays. Elle a eu un rôle clef dans le mouvement d’indépendance, devenant un symbole unificateur de la nation. Les principales entreprises d’impression de l’époque, comme Monotype et Linotype, développaient des typographies ourdoues, mais les éditeurs locaux les rejetèrent car ils estimaient qu’elles ne correspondaient pas à l'esthétique locale du Nasta’līq.

Le Nasta’līq rencontrait des difficultés face à la technologie car celle-ci fut conçue à chaque fois avec, et pour, le #système alphabétique anglais. Dans ce cas aussi, il a été envisagé d’utiliser les caractères latin pour plus de facilité avec la technologie. Dans les années 1960, le dirigeant pakistanais Ayub Khan propose d’écrire l’ourdou à l’aide de l’alphabet latin. Ce fut un refus presque immédiat. Aujourd’hui encore, le Nasta’līq demeure un élément prépondérant de l’identité islamique du pays.

Alizeh Kohari nous apprend que depuis 1951, il n’y a eu aucun progrès significatif dans le processus d’impression. Les publications en ourdou au Pakistan ont été écrites à la main jusqu'aux années 1980.
Premier pas avec la typographie noori nastaliq basé sur les ligatures
Le père d’Ahmed Mirza Jamil s’était donné la tâche de réécrire le Coran à la main, mais il meurt après seulement le premier tiers. Ahmed Mirza Jamil et ses frères vont reprendre son projet. Pour ce fait, ils prennent en photo les neufs chapitres déjà écrits, et coupent / collent les formations de #lettres pour les reconstituer, comme un puzzle. Ils mirent 14 ans à achever les deux tiers restants du Coran. Leur travail a permis de semer des graines d’une percée dans la composition de l’ourdou. En 1980, Mirza Jamil a recensé toutes les combinaisons de #lettres ourdoues auxquelles il a pensé, soit environ 20 000. Ces dernières vont être appelées « ligatures » et sont la base d’une nouvelle police ourdoue : noori nastaliq. Ces ligatures vont résoudre la nature changeante de cette écriture. Au lieu de représenter des #lettres, elle représente des combinaisons entières de #lettres. Les 20 000 combinaisons ne sont pas exhaustives, mais l’éventualité d’en utiliser une qui ne ferait pas partie de cette liste est négligeable. Alizeh Kohari explique que Mirza Jamil fut salué comme le Gutenberg du Pakistan avec sa typographie noori nastaliq. Il reçut même les honneurs de l’État en 1982.

Pendant des décennies, la noori nastaliq fut la typographie dominante dans l’édition ourdoue. La version numérisée de celle-ci est toujours en utilisation à l’heure actuelle, mais elle reste tout de même une typographie élaborée dans les années 1980 : certaines ligatures ne s’affichent pas, les #glyphes se bousculent et des amas de nuqtas (signes diacritiques) mal placés gâchent le texte. Nasrullah Mehr, calligraphe, explique les inconvénients d’une approche de la composition basée sur les ligatures : « vous pouvez faire 42 milles ligatures, vous pouvez en faire cent mille, vous pouvez en faire un million — ça ne finira pas. […] Des mots d’autres langues surgissent, de nouveaux mots surgissent ; vous ne pouvez pas rester fidèle à une langue de cette façon. » 41
Un pas de géant avec la typographie mehr nastaliq
Nasrullah Mehr et Zeeshan Mehr se sont mis alors à développer une police numérique : la mehr nastaliq. C’est la première typographie ourdoue à être entièrement développée localement. Ce sont des pionniers dans les polices numériques ourdoues. Leur travail commence de zéro, par une simple recherche Google : « qu’est-ce qu’une fonte ? » 42 « Comment les développe-t-on ? » 43 Alizeh Kohari rapporte brièvement que la typographie fut construite en collaboration avec un conseil technologique gouvernemental pendant dix ans. Mehr Nastaliq utilise 500 caractères (écrit à la main par Nasrullah, et une infime fraction de 20 000 #glyphes répertoriés par Jamil). La police pèse 60 Ko. Légère, elle ne ralentit pas les sites #Web par son chargement rapide. On peut même allonger les #lettres et ajouter des signes diacritiques. Une vraie avancée.
Un combat pour être utilisable par tous
Mudassir Azeemi, un développeur pakistanais, a travaillé sur un clavier #numérique ourdou. Après quelques tentatives, il met au point, en 2010, un clavier ourdou téléchargeable sous IOS. Malheureusement, bien que l’on puisse taper en ourdou, l’ #écriture qui s’affiche alors est retranscrite par le mauvais #système d’écriture : en Naskh. La solution fut à ce moment-là de convaincre les systèmes d’exploitation comme Microsoft, Apple ou encore Google, d’intégrer le Nasta’līq. En 2014, il rédige alors une lettre ouverte à Tim Cook, le PDG d’Apple, pour l'interpeller sur les difficultés à écrire numériquement l’ourdou. Il écrit « le seul obstacle pour nous est d’apporter la police qui représente réellement la langue […] Et chaque langue, lorsqu’elle est écrite, brille quand on utilise la police qu’elle a véritablement présentée au monde. » 44 À cette période, les technologies de composition avaient déjà plus ou moins rattrapé les subtilités du Nasta’līq. Tandis que la police mehr nastaliq était en cours de développement, l’ #écriture était laborieusement trouvable en ligne. Les poètes ourdous, pour pallier ce problème selon Alizeh Kohari, écrivent alors, soit à la main, soit dans des logiciels spécifiques. Exportés en tant que fichier image, ils le partagaient sur les réseaux. Le même procédé était appliqué pour les sites #web. La #translittération latine de l’ourdou fut grandement utilisée également, que ce soit dans des livrets de poésie diffusés par SMS, pratique devenue très populaire, ou bien même, dans l’enseignement scolaire. Certains élèves faisaient leur devoir à l'aide de la #romanisation. « Écrire une langue dans une autre écriture, c’est comme se débarrasser de sa peau et essayer d’en avoir une nouvelle. » 45 déplorait un enseignant.

Que faudrait-il faire pour que le Nasta’līq soit facile d’accès en ligne se demande Alizeh Kohari ? On pensait que la solution était la prise en charge au niveau du système d’exploitation. Ce consensus croissant a déclenché une vague d’activisme de la part des consommateurs et des consommatrices, faisant appel à un « humanisme linguistique ». Trois ans plus tard, la police noto nastaliq devint la police ourdoue par défaut des produits Apple. Pendant un moment, on a alors eu l’impression que la crise existentielle de l’ourdou avait été évitée. Zeerak Ahmed, concepteur de software pakistanais, est plus sceptique. Dans un article de blog de l’époque, il écrivait que l’intégration du Nasta’līq avait été soit timide, soit négligente. En effet, les mots étaient si petits qu’ils étaient presque illisibles sur écran. Il soulève ironiquement le problème du mot « complet » en ourdou : il ne rentre pas totalement dans l’espace texte des messages Apple. Selon lui, le problème n’est pas la non-disponibilité des polices Nasta’līq, mais les interfaces systèmes qui sont construites avant tout pour le latin. « Nous en sommes juste au point où nous commençons à nous assurer que nos interfaces fonctionnent dans le monde entier — que dès que vous passez à une langue de droite à gauche, les choses ne se cassent pas » 46 souligne Zeerak Ahmed.
Les enjeux qui découlent d’une technologie non adaptative
Si le problème du Nasta’līq est théoriquement résolu, de nouveaux surgissent avec les nouvelles avancées technologiques : « nous n'avons pas les données nécessaires pour construire l'intelligence artificielle au-dessus de la technologie existante : voix, reconnaissance de l'écriture manuscrite, dictionnaires, correction automatique » 47 selon Zeerak Ahmed. D’après lui, les données déjà existantes en ourdou sont pleines d’erreurs. L’absence de logiciel de correction orthographique entraîne une prolifération de fautes de frappe. « Tous les logiciels ourdou sont cassés parce que les données sous-jacentes sont cassées. » 48 Le machine learning est un désastre : « nous avons simplement pris un tas de résumés en ourdou et les avons numérisés. Ce ne sont que des blocs de texte. Vous ne savez pas d'où ils viennent, où ils ont été publiés, qui les a écrits. » 49 Zeerak Ahmed travaille alors à créer une dataset OpenSource en ourdou qui supporterait le machine learning. Alizeh Kohari souligne la responsabilité de la tâche : la technologie modifie la langue par ses contraintes et ses limites. Ce qui peut-être très contraignant pour le développement d’une langue. « Parce que cela signifie que si je nourris mon système avec une mauvaise grammaire, cela suggérera une mauvaise grammaire, et les gens vont écrire dans une mauvaise grammaire et cette mauvaise grammaire va lentement s'enraciner. Si je prends la terminologie et que je l'enracine lentement, elle fera partie de notre vernaculaire. » 50

L’ourdou n’est pas l’unique langue à être confrontée à une crise existentielle #numérique rapporte Alizeh Kohari. Le linguiste András Korna a mené une étude en 2013, qui démontre que sur 7 000 langues utilisées dans le monde — dont 2 500 considérées en disparition — 5% d’entre elles devenaient des langues pleinement fonctionnelles une fois en ligne. L'expansion d’Internet et du #web précipite une extinction linguistique massive. Zeerak Ahmed conclut : « je ne pense pas que ce soit une éventualité que toutes les langues soient un jour représentées entièrement numériquement. Il est tout à fait plausible que nous arrivions à un point où il est plus logique de changer de culture que de changer la technologie sous-jacente. » 51
39.
Toutes les citations de cette sous-partie proviennent de l’article « How to bring language into the future » d’Alizeh Kohari, article publié sur rest of the world, le 9 février 2021. Consulté le 01.12.2021 [en ligne].
40.
#NastaleeqItApple
→ Twitter
41.
« You can do 42 thousand ligatures, you can do a hundred thousand, you can do one million — it won’t end. […] Words from other languages crop up, new words come up ; you cannot remain true to a language this way. »
42.
« What are fonts ? »
43.
« How do we develop them ? »
44.
« The only hurdle for us is to bring the typeface that truly represent[s] the language. […] And every language, when it is written, shines when using the typeface which it truly presented in the world. »
45.
« Writing a language in another script is like trying to drop off your skin and trying to have a new one. »
46.
« We’re just at the point where we’re beginning to make sure our interfaces work throughout the world — that the moment you switch to a right-to-left language, things don’t break. »
47.
« We don’t have the data needed to build artificial intelligence on top of existing technology : voice, handwriting recognition, dictionaries, autocorrect. »
48.
« All Urdu software is broken because the underlying data is broken. »
49.
« We simply took a bunch of Urdu digests and digitized them. It’s just blobs of text. You don’t know where it’s from, where it was published, who wrote it. »
50.
« Because it means, if I feed my system bad grammar, it’s going to suggest bad grammar, and people are going to write in bad grammar and that bad grammar is slowly going to be ingrained. If I take terminology and slowly ingrain it, it will become part of our vernacular. »
51.
« I don’t think it’s an eventuality that all languages will one day be represented fully digitally. It’s totally plausible we get to a point where it makes more sense to shift the culture than to shift the underlying tech. »
Designer, à l'attaque !
디자이너, 파이팅 !
ดีไซเนอร์ จู่โจม!
设计师, 我们走吧 !
Des acteurs de solutions (partielles)
déjà présents
Le #web accueille déjà un certain nombre de langues et de #systèmes d’écriture. Et ces dernières sont de plus en plus couplées, associées. Il apparaît alors des enjeux de l’ordre du #design graphique. Par exemple : la typographie et sa dimension #multi-scripte, une recherche de nouvelles formes typographiques, ou encore un questionnement sur la cohabitation dans un même espace graphique. Nombreux #designers se sont penchés sur ces enjeux et ont tenté de trouver leur propre réponse.
Émergence des formes typographiques dites « multi-scriptes »
Un certain nombre d’acteurs, et en premier lieu les #designers graphiques et dessinateurs de caractères, s’attachent depuis quelques décennies à proposer des solutions à ces nouveaux enjeux de diversité.
Le post-diplôme de l’ÉSAD d’Amiens se concentre, par exemple, autour de projets typographiques à même de répondre à ces problématiques nouvelles. Un certain nombre de projets menés par des étudiants proposent des dessins de caractères répondant à des préoccupations de bilinguisme au sein d’un même espace graphique. Le projet de Ling Fan, par exemple, est parti du constat suivant : « quand j’utilise la typographie chinoise, je ressens toujours des difficultés pour bien composer des textes, obtenir une bonne lisibilité et une bonne cohérence, lorsqu’elle se retrouve confrontée à une typographie latine et ses chiffres. » 52 Parmi les projets de recherche présentées par les étudiants, on trouve des fontes #bi-scriptes, à deux #systèmes d’écriture, comme chinois-latin ‹img›, thaï-latin, arabe-latin ‹img›, tibétain-latin, grec-latin, bengali-latin, hébreu-latin ‹img›, cyrillique-latin, ou encore devanagri-latin. Ces typographies permettent d’avoir des compositions graphiques et typographiques cohérentes entre deux #systèmes d'écriture aux logiques différentes. Elles garantissent un respect des règles typographiques et permettent aux #designers d’envisager un espace typographique bilingue qui n’est pas strictement divisé en deux parties irréconciliables.

L’harmonisation de deux #systèmes d’écriture est complexe. Il faut prendre en compte le fait que chaque scripte a ses propres règles typographiques. Il est nécessaire de les respecter, et donc d’établir une cohabitation entre elles. Par exemple, le gris optique propre à l’ #alphabet latin n’est pas applicable pour tous les #systèmes d’écriture. La ligne de base typographique n’est pas la même selon les scriptes. Les graisses ne sont pas forcément équivalentes, tout comme le corps du texte. Il y a un vrai travail de réflexion à faire pour chaque cohabitation de plusieurs #systèmes d’écriture.

André Baldinger a notamment réalisé un projet d’une ampleur remarquable, proposant un caractère latin et japonais. Il souligne que, loin d’être une entreprise purement technique ou formelle, cette mixité demande avant tout une ouverture à d’autres manières de penser l’ #écriture ainsi que l’acquisition d’une connaissance des signes graphiques et d’un savoir-faire propre à chaque culture de l’écrit. Les typographies japonaises possèdent souvent un jeu de caractères latins. Malheureusement « rarement avec un caractère latin dessiné et créé en phase avec celui-ci. » 53 ‹img› C’est pourquoi il s’est engagé à étendre une de ces fontes latines au japonais. Il liste en particulier les problématiques suivantes, propres à la cohabitation de ces deux #systèmes d’écriture : la densité des signes (« entre un Kanji avec un seul trait et un autre avec 29 traits la densité change de presque blanc à presque noir » 54), les caractères monochasse japonais qui diffèrent des caractères latin, la ligne de base latine et la ligne moyenne verticale japonaise, les deux casses de l' #alphabet latin (majuscule et minuscule) et l’unique casse japonaise, les 26 #lettres latines en opposition des 2 182 signes minimum du japonais, l’écriture horizontale latine et l’écriture verticale japonaise et, les espaces latins et la continuité des mots (sans espace) du japonais.
Investir des formes typographiques d’un système d’écriture à un autre
Les problématiques précédentes s’ajoutent à l’idée de s'appuyer sur un #système d’écriture pour nourrir les formes d’un autre. On retrouve cette volonté dans des travaux typographiques de l’ANRT, en 2005 et même dès 1995. Deux recherches, en particulier, ont attiré mon attention, portant sur le #bi-scripte : le projet de Lara Assouad intitulé naskh monoline, 55 arabe-latin ‹img› et celui de Lee H, du coréen au latin, du latin au coréen. 56 ‹img› Ces deux typographes ont cherché à harmoniser les différentes formes des deux #systèmes d’écriture en utilisant le même outil et le même style de signes. 57 Cette harmonisation typographique #plurilingue ne se concentre pas uniquement sur le signe lui-même, mais également sur des questions de gris optique, de graisse, de taille de caractères et de ligne de base typographique. 58

Bae So-Hyun, pour son DNSEP à la HEAR-Strasbourg, a dessiné une typographie latine, syllaba ‹img›, reprenant le système de composition d’écriture coréen. Cette recherche de formes donne lieu à une typographie expérimentale qui propose une nouvelle forme de lecture des mots, c’est-à-dire, par syllabe. Son mémoire le vocabulaire de la traduction (typo)graphique latine-hangeul met à disposition des méthodes de recontextualisation et de traduction, et explicite des enjeux liés à la #traduction (typo)graphique autour de notions telles que l’emphase, la ponctuation et l’équivalence de forme #bi-scripte. Ce travail pose la question de la transposition d’une structure graphique existante, propre à une langue, dans une logique linguistique et typographique, un contexte culturel différent.
Typographies à « plusieurs niveaux de lecture »
Une autre piste stimulante est celle de la typographie à plusieurs niveaux de lecture, où de multiples #écritures sont lisibles en même temps.
La typographie balkan (2012) de Nikola Djurek et Marija Juza, par exemple, est à la fois latine et cyrillique. « [Elle] est basé[e] sur l’étude d’un phénomène connu sous le nom de Balkan sprachbund, les traits linguistiques partagés entre différentes langues en raison de leur proximité. […] Historiquement, il y avait trois écritures en ex-Yougoslavie : cyrillique, latine et glagolitique, marqueurs d’identités culturelles, ethniques, religieuses et politiques. La cohabitation et le développement parallèle de ces langues ont abouti à des caractéristiques communes, et aujourd’hui, les langues des Balkans occidentaux sont si similaires qu’elles peuvent même être considérées comme des dialectes, mais peuvent être écrites dans des écritures différentes. […] Balkan translittère et traduit du latin au croate en cyrillique serbe et vice-versa, […]. » 59 C’est d’ailleurs cette typographie que le Centre Pompidou a utilisée pour son catalogue d’exposition kollektsia ! art contemporain en urss et en russie (1950-2000), publié en 2017. ‹img›

La typographie expérimentale aravrit fonctionne également sur la double lecture. Elle est le résultat d’une hybridation des signes entre l’hébreu et l’arabe : chaque #lettre est composée d’une forme arabe sur la moitié supérieure et d’une forme venant de l’hébreu sur la moitié inférieure. « Avec l’Avavrit, on peut lire n’importe quelle langue choisie, sans ignorer l’autre, qui est toujours présent. » 60 Bien entendu, cette fonte a une portée politique évidente. ‹img›

Dans la même veine, the hinglish project est une typographie qui fonctionne avec la #translittération du latin en hindi (devanagari). ‹img› L’hindi est parlé par plus de 366 millions de personnes et est une des deux langues officielles de l’Inde, l’autre étant l’anglais. Leur liaison a donc une portée culturelle, politique et linguistique. Cette expérimentation a néanmoins une portée limitée dans le sens où elle ne propose pas une #translittération entière : l’hindi est composé de quarante consonnes et de douze voyelles, alors que l’anglais standard comporte vingt-quatre sons de consonnes et vingt sons de voyelles. « En raison de cette différence de nombres, il est presque impossible de donner des équivalents directs dans les deux langues. La police de caractères Hinglish vous présente quelques-uns des caractères en hindi en utilisant leur équivalent en anglais. » 61 Ce projet se heurte également à des problèmes de #traduction (typo)graphique, notamment le marqueur de fin de phrase. En anglais, il s’agit d’un point, tandis qu’en hindi, c’est par l’utilisation d’une ligne verticale, appelée purna-viram. La combinaison de ces deux éléments nous donne l’illusion de voir un point d’exclamation.

En 2018, Bae So-Hyun, avec son projet de recherche à l’ANRT, propose une nouvelle forme typographique. Son travail trois langues, deux scriptes et un support. le trilinguisme biscripte, s’est porté sur la cohabitation de l’anglais, le français et le coréen à l’écrit. Elle a dessiné une mise en page typographique où chaque langue possède son propre espace, tout en les faisant vivre dans une même phrase. ‹img› « Cette dissonance entre le trilinguisme et le biscriptual soulève des questions autour du “typographic matchmaking”, cette tendance à l’homogénéisation des systèmes d’écriture que l’on retrouve bien souvent dans les créations de caractères multi-scripts ou dans le design éditorial. […] Dans notre contexte actuel de globalisation, le multilinguisme se voit surtout catalysé par les différentes diasporas. Ces dernières contribuent à la création de micro-langages hybrides qui mélangent des mots ou expressions de langues multiples au sein même d’une phrase. Cette forme de communication reste cependant vernaculaire. Cantonnées aux écrits éphémères tels que la prise de note ou les sms, on attribue à ces langues hybrides une temporalité restreinte. Ce projet de recherche questionne la forme écrite du trilinguisme à travers un travail d’écriture, pour expérimenter ce basculement du vernaculaire vers le littéraire et sa mise en forme typographique. » 62

On ne peut clôturer cette présentation des recherches sur le design de caractères #multi-scriptes sans évoquer l’ouvrage bi-scriptual. Il restitue la recherche et les réponses de plusieurs #designers sur la composition graphique en #bi-scripte. 63 ‹img› Bien qu’écrit uniquement en anglais, il s’appuie sur plusieurs #systèmes d’écriture — l’arabe, le grec, le cyrilique, l’hébreu, le chinois, le Hangeul, le devanagari et le japonais — pour questionner le #design multiculturel et l’imprimé #multilingue. Le livre s’applique à expliquer comment chaque #système d’écriture fonctionne à l’aide de #designers « locaux », et énoncer les enjeux auxquels ils font face. Les auteurs proposent un éventail de travaux #bi-scriptes de #designers, comme des affiches, des identités visuelles ou bien des projets typographiques. À travers ses illustrations, le livre met en scène les fontes #multi-scriptes dans différents univers graphiques et invite les #designers graphiques à se saisir de ces nouveaux outils.
Les enjeux de la cohabitation de systèmes d’écriture
Bae So-Hyun, pour son mémoire de DNSEP à la Hear-Strasbourg, s’est penchée sur ce qu'elle appelle la « traduction (typo)graphique » ‹img› proposant des pistes de réflexions autour de ces questions. Selon elle, la traduction « […] est un espace de création, de métissage, d’acculturation, d’hybridation. […] Pour pouvoir préserver le respect mutuel, il semblerait que la langue de la globalisation, c’est la traduction. » 64 L’expression #traduction (typo)graphique me semble vraiment judicieuse. Il s’agit de transposer une structure sémiotique existante, avec des éléments graphiques, visuels et linguistiques, dans une autre langue et dans un autre contexte culturel. Il n’est donc pas question de « latinisation » des formes et des concepts pour créer un ensemble harmonieux, mais de « traduction », c’est-à-dire que les formes doivent exprimer la même idée, et ce n’est pas systématiquement dans une forme identique. Pour expliciter ce concept, Bae So-Hyun a proposé de rapprocher et de confronter le garamond, « le caractère du texte par excellence » 65 dans la culture typographique latine, avec la typographie myeongjoche, 66 qui a un statut similaire en Corée, partant de l’hypothèse que leur réception sur les lecteurs et lectrices sera identique.

Ces questions de traduction graphique sont présentes dans d’autres projets, comme celui d’André Baldinger, vu précédemment. Ce travail ambitieux demande sans doute plus d’efforts qu’une fonte latine traditionnelle pour aboutir à un caractère fonctionnel, mais ouvre un terrain d’expérimentation nouveau pour les #designers typographiques, d’une grande richesse. « Pourtant, il y a des polices de caractères qui n'ont pas encore été créées et dont nous avons besoin. Des typographies qui réagissent à notre réalité actuelle plutôt que d'être contraint par les conventions passées ; des typographies pour les écritures non-latines qui donnent à ses utilisateurs plus de choix ; des typographies qui amènent les lecteurs des médias précédents vers de nouveaux. Il est temps de réfléchir à la raison pour laquelle nous concevons des typographies, pas seulement à la façon dont nous le concevons. » 67 La typographie #web a parcouru un long chemin depuis sa création. « En regardant le chemin parcouru et à quelle vitesse, nous pouvons être optimistes quant à l'avenir diversifié, multiculturel et inclusif du web. » 68
La promotion à grande échelle d’une utilisation numérique
Comme nous l’avons souligné tout au long de ce mémoire, la diffusion des polices #multi-scriptes est également liée et conditionnée à des questions et des préoccupations d’ordre technique. Sur ce point également, un certain nombre de recherches récentes menées dans le champ du #design graphique et typographique ont permis d’améliorer l’usage de #systèmes d’écriture encore peu présents sur le #web.

Le programme de recherche the world’s writing systems 69 mené par Johannes Bergerhausen vise à identifier les #systèmes d’écriture qui ne sont pas encore encodés dans la norme Unicode. ‹img›

Google a son propre projet d’inclusion des #systèmes d’écriture, de typographie #multi-scripte : google font noto, développé avec, entre autres, Monotype et Adobe. « “Noto” signifie “j’écris, je marque, je note” en latin. Le nom est également l’abréviation de “no tofu”, car le projet vise à éliminer le “tofu” : des rectangles vides affichés lorsqu’aucune police n’est disponible pour votre texte. » 70 Google et ses partenaires proposent donc des polices distinctes pour chaque #système d’écriture (voire chaque langue). Il prend en charge plus de mille langues et 150 #systèmes d’écriture. ‹img› « Il n'y a pas de “police Noto” universelle unique. Une police OpenType ne peut contenir que 65 535 glyphes et un caractère Unicode nécessite souvent plusieurs glyphes. La collection Noto prend en charge de nombreux autres caractères pouvant tenir dans une seule police. Il existe également des limitations techniques supplémentaires qui rendent impossible la création d’une seule police globale. » 71 Google propose ces fontes en #OpenType, parfois en tant que #fonte variable, et utilisable dans les feuilles de style #CSS. Son processus de développement est OpenSource, permettant la collaboration autour de ces questions.

Un autre projet de Google a donné le projet site #web google fonts + 한국어. Il offre des typographies coréennes gratuites en OpenSource pour le #web. 72 ‹img›

Naver, le principal moteur de recherche coréen, a créé en 2008 plusieurs typographies « de partages » coréennes pour promouvoir leur utilisation #numérique. « En espérant qu’il y aura plus de pensées et d’informations exprimées en coréen dans le monde en ligne. » 73 Elles sont téléchargeables sur leur site.
52.
EsadType, lingsong, consulté le 04.01.2022 [en ligne].
53.
André Baldinger, kanji kana bline, cat. expo., Montpellier, La Fenêtre (22 janvier 2020-11 juillet 2020), Montpellier, La Fenêtre, 2020, p. 5.
54.
Ibid.
55.
Thomas Huot-Marchand, Roxane Jubert et Sébastien Morlighem, atelier national de recherche typographique anrt — archives 1895-2006, Dijon, Les Presses du réel, 2016, p. 178.
56.
Ibid., p. 168.
57.
Tous les systèmes d’écriture n'utilisent pas le même outil ni le même support. Ce qui participe aux singularités des formes. Pour en apprendre plus, se tourner vers l’ouvrage l’aventure des écritures ii : matières et formes de Simone Breton-Gravereau et Danièle Thibault, Paris, BnF, 1998.
58.
Des questionnements abordés également par Bae So-Hyun concernant le coréen, dans traduction (typo)graphique, mémoire de DNSEP communication graphique dirigé par Cyrille Bret et Yohanna My Nguyen, Haute école des arts du Rhin Strasbourg, 2017, p. 42 à p. 45.
59.
typotheque, « About Balkan typeface », consulté le 29.11.2021 [en ligne].
60.
«In Aravrit, one can read any chosen language, without ignoring the other one, which is always present.» aravrit, « About », consulté le 29.11.2021 [en ligne].
61.
« Because of this difference in numbers, it’s near impossible to give direct equivalents in both languages. The Hinglish typeface introduces you to a few of the characters in Hindi using their equivalents in English. » the hinglish project, « FAQS », consulté le 29.11.2021 [en ligne].
62.
anrt-nancy, « Trois langues, deux scriptes et un support. Le trilinguisme biscripte », consulté le 29.11.2021 [en ligne].
63.
Ben Wittner, Sascha Thoma et Timm Hartmann, bi-scriptual, Salenstein, Niggli, 2019.
64.
Bae So-Hyun, traduction (typo)graphique, op. cit., p. 74.
65.
Ibid., p. 73.
66.
Dessinée par Choe Jungho dans les années 1970, elle est massivement utilisée en tant que typographie de labeur.
67.
« Still, there are typefaces which haven’t been made yet and which we need. Type that reacts to our present reality rather than being constrained by past conventions ; type for non-Latin scripts that gives its users more choices ; type that brings readers from previous media to new ones. It is time to think about why we design type, not just how we design it. » Peter Bil’ak, « We don’t need new fonts… », article publié sur typotheque, 2011, consulté le 14.11.2021 [en ligne].
68.
« Looking at how far we have come and how fast, we can be optimistic about the diverse, multicultural, inclusive future of the web. » Peter Bil’ak, « A View of Latin Typography in Relationship to the World » article publié sur typotheque, 2008, consulté le 16.02.2021 [en ligne].
69.
the world’s writing systems, consulté le 04.01.2022 [en ligne].
70.
google fonts, « Noto : a typeface for the world », consulté le 04.01.2022 [en ligne].
71.
Ibid., « FAQ ».
72.
google fonts + 한국어, consulté le 29.11.2021 [en ligne].
73.
« 온라인 세상에 한글로 표현관 생각과 정보가 많아지길 바라며, […]. » naver, « Hangeul », consulté le 13.12.2021 [en ligne].
Merci les Webfonts
La majorité des pistes envisagées dans la partie précédente nécessite des fondations techniques pour se mettre en place. Pour l’imprimé, ces fondations sont dépendantes de la volonté des principales firmes de logiciels de conception graphique et de PAO comme Adobe, ralentissant ainsi la majeure partie des avancées. Cependant, sur le #web, de nombreuses avancées ont été réalisée permettant aux #designers de proposer des pistes concrètes en accord avec les limites technologiques. Si la technologie #web a freiné l’inclusivité par son architecture latine, c’est par l'avancée des #webfonts, que l’intégration des #systèmes d’écriture s’est élargie. Qu’est-ce qu’une #webfont ? 74 Pour reprendre la définition qu’en donne back office : « une webfont (police web) désigne un ensemble de formats de fichier de polices de caractères (Truetype, OpenType, Embedded OpenType, WOFF, SVG, etc.) destinées à être envoyées depuis un serveur distant puis affichées dans le navigateur client (via l’instruction CSS @font-face) […]. » 75 C’est une technologie qui fut prise en main par certains #designers eux-mêmes pour répondre à leurs besoins.
Du « web-safe » aux webfonts, une évolution récente à mettre au profit du multilinguisme sur le web
Si aujourd’hui les #webfonts sont partout et de toute forme, ça n’a pas toujours été le cas : « il y a à peine 10 ans, cependant, il n'y avait qu'une dizaine de polices qui pouvaient être utilisées de manière fiable dans la conception web, et cela uniquement si vous écriviez en caractères latins. Si vous écriviez en russe, en hindi ou en arabe, il n'y avait pratiquement aucune police de caractères utilisable. » 76 Ici, Peter Bil’ak fait référence au #web-safe. Le #web-safe est un ensemble de polices installées dans le système local de chaque ordinateur. De manière plus grossière, il s'agit des familles typographiques installées par l’éditeur. Cela dépend de chaque marque d’ordinateur, mais on retrouve généralement des typographies comme andale mono, arial, arial black, impact, trebuchet ms, times new roman, georgia, verdana, courier new, comic sans ms, etc. Leur utilisation permet de garantir l’affichage correct des sites #web puisqu’elles sont chargées en local. Peter Bil’ak souligne ici, qu’à partir du #web-safe, il y a une dizaine d'années, il était quasi impossible d’écrire autrement qu’à partir de l’ #alphabet latin. Ce n’est plus le cas aujourd’hui. D’une part, parce que les marques ont intégré des typographies d’autres scriptes, et de l’autre, avec les avancées technologiques de l’ordinateur comme l’ajout d’espace de stockage, il a été possible de rajouter plus de #glyphes à une police. Les typographies citées ont donc majoritairement des caractères de différents scriptes intégrés, comme du cyrillique ou / et ou grec.

Si les premiers outils de mise en page et de contrôle de base sur la typographie apparaissent avec la publication de première version du #CSS en 1997, c’est à la fin des années 2000 que les #webfonts commencent à se développer sur le #web (en excluant donc le #web-safe). « En 2010, environ 1% de tous les sites utilisaient des webfonts. Aujourd’hui, celles-ci se sont banalisées, et environ 72% des sites utilisent ces polices sur-mesure depuis un serveur. » 77

S’il a été difficile pour les #designers, les typographes et les fonderies de franchir le pas pour utiliser la fonction #@font-face par crainte de piratage, ces derniers ont tout de même suivi de près le développement et les avancées de la typographie sur le #web. #@font-face est une propriété du langage #CSS, implantée au début des années 2010. Il permet l’appel de typographies spécifiques dans le code d’une page #web. Pour répondre à cette crainte de piratage, il apparaît alors des initiatives comme le projet typekit de Small Batch Inc., en mai 2009, qui proposait un service « intermédiaire » sous la forme d’un abonnement pour une intégration plus sécurisée par le biais de #@font-face et de Javascript. typekit fut racheté par Adobe en 2011 et est aujourd’hui fusionné avec Adobe Fonts. Un autre acteur, Typotheque, travaillait également sur une solution, à la même époque : un hébergement sur un serveur mondial et un accès refusé pour toute utilisation non autorisée. Ils lancèrent leur projet en octobre 2009. C’est au tour de Google, en 2010, de lancer google web fonts ainsi que fontdeck (qui n’est plus actif à l’heure actuelle). Google Fonts a pris le rôle de leader assez rapidement, et est aujourd'hui le monstre du marché. Il suffit de regarder ses chiffres : ils proposent 1 324 fontes gratuites et OpenSource pour le #web, le commercial et l’imprimé (Apache License, Version 2.0), 78 135 langues sont disponibles, et leurs fontes ont été vues par les utilisateurs et utilisatrices 56 186 049 856 354 fois. 79 Tout en ayant un chargement optimisé grâce aux caches Google. Ils permettent de sauvegarder sur le serveur le site et ses éléments, pour que quand on les re-consulte, il n’y ait pas besoin de les télécharger. L’affichage gagne alors en rapidité.
Les webfonts, un problème de design typographique ?
Le format des #webfonts a été remis en question par les #designers et reformaté pour mieux répondre à leurs besoins : «[…] les utilisateurs des logiciels de création typographique n’ont pas seulement pris en charge le développement de leurs outils, ils ont également piloté le développement des nouveaux formats de fichiers et des polices. » 80 En 2009, Erik van Blokland, Tal Leming et Jonathan Knew (ingénieur logiciel) ont travaillé sur de nouveaux formats : Unified Font Object (UFO) où chaque #glyphe est dans un fichier séparé et Web Open Font Format (WOFF) qui permet, en autre, une réduction de poids de 40%. Une version 2.0 de celle-ci fut publiée en 2012-2013 : WOFF2. Bien sûr, ces outils sont dépendants des différents #navigateurs, de leur technologie et de manière plus globale, des limites du #web.

Un format qu’il me semble intéressant d’aborder est le #Multiple Master (MM), lancé par Adobe en 1992. Plutôt que de fournir une famille typographique composée de plusieurs graisses étalées sur plusieurs fichiers, le #Multiple Master offrait un fichier avec deux ou plusieurs jeux de dessins de référence et les utilisateurs et utilisatrices pouvaient interpoler (sur le principe du #morphing) la graisse qu’ils souhaitaient. Il n’est pas uniquement question de l’axe graisse, mais aussi de chasse, d’inclinaison ou encore de corps optique. En 1994, Apple ajoute des fonctionnalités similaires à son format #TrueType qui devient TrueType GX. En plus de l’interpolation, c’est-à-dire « l’opération mathématique permettant de construire une courbe à partir des données d'un nombre fini de points », 81 le format donnait la possibilité de permuter des caractères à un certain point de rupture. Si le concept de ces formats est plutôt avant-gardiste, malheureusement, #Multiple Master et TrueType GX n’ont pas vraiment eu de succès auprès du public : leur système d’utilisation était très loin d’être optimal selon Indra Kupferschmid. Malgré cela, Apple continue à utiliser en interne cette technologie pour ses propres polices. Indra Kupferschmid souligne qu’une partie des #designers et des typographes espéraient le voir renaître. Il est vrai que cette technologie laissait entrevoir de séduisantes possibilités graphiques.

Les #designers ont également la possibilité de choisir quels #glyphes intégrer à leur typographie. La technologie d’aujourd’hui nous propose, avec la norme #OpenType, 65 535 cases de #glyphes pour une typographie entière. On les comble traditionnellement par l’ #alphabet latin et ses variantes de #lettres selon les différentes langues, les ligatures, les capitales, les petites capitales, les chiffres (exposant et indice), la ponctuation, les symboles et enfin les #lettres grecques et cyrilliques. La tendance actuelle est de se poser la question de la pertinence de créer de nouvelles typographies au vu des innombrables dessins qui circulent sur le #web. Selon ces premières recherches, il est évident que cet argument est inopérant concernant les fontes relevant d’un #système d’écriture autre que latin. Malgré les exemples stimulants que nous avons présenté dans cet écrit les familles typographiques #multi-scriptes, retranscrivant harmonieusement plusieurs #systèmes d’écriture, se font rares. « Le design multi-script n’a seulement commencé à expérimenter un boom bien nécessaire que depuis le début des années 2000. » 82 Cette rareté est liée en grande partie au fait de s’adresser à plusieurs locuteurs et locutrices. Est-ce qu’ils sont traités avec la même importance ? Est-ce que l’un domine les autres visuellement ? Est-ce qu’ils sont clairement séparés ? Traduisent-ils bien le même message ? Ou bien, interagissent-ils ensemble et créent-ils une expression interculturelle ? Toutes ces questions sont à se poser lors de situation graphique #multi-scripte, sachant qu’il existe une multitude de réponses possibles.
74.
Il faut bien faire attention à différencier les webfonts qui sont appelées à une utilisation pour le web et les polices de bureau qui ont une utilité locale. Si elles ont beaucoup de caractéristiques communes, l’affichage sur les différents navigateurs web nécessite que ces derniers les reconnaissent et les supportent tout en ayant la capacité de les télécharger, ce qui génère des enjeux un peu différents, notamment sur la nécessité d’un faible poids en termes d’octets. Il est tout de même possible qu’une police de bureau puisse être appelée depuis un serveur local, c’est-à-dire stockée depuis un ordinateur personnel.
75.
back office, « Glossaire », consulté le 04.01.2022 [en ligne].
76.
« Just 10 years ago, however, there were only 10 or so fonts that could reliably be used in web design, and that only if you were writing in Latin script. If you happened to be writing in Russian, Hindi or Arabic, there were virtually no usable typefaces at all. » Peter Bil’ak, « Brief History of Webfonts », article publié sur typothèque, 2019, consulté le 19.02.2021 [en ligne].
77.
Indra Kupferschmid, op. cit., p. 127.
78.
google fonts, op. cit.
79.
google fonts, « Analytics », op. cit.
80.
Indra Kupferschmid, op. cit., p. 142.
81.
Wikipédia, « Interpolation », consulté le 16.02.2022 [en ligne].
82.
« Multiscript design has only begun to experience a much-needed boom since the beginning of the 2000s. » bi-scriptual, op. cit., p. 7.
Font variable,
une solution à expérimenter ?
« Dans un monde de communication globale, couvrir uniquement les langues occidentales avec l’alphabet latin ne suffit plus. De nombreuses polices offrent au minimum les signes diacritiques et les caractères des langues de l’Europe de l’Est, et souvent le cyrillique et le grec. Mais le besoin de polices couvrant d’autres langues va bien au-delà, avec des graphies indiennes comme le devanagari (l’un des systèmes d’écriture les plus utilisés dans le monde), l’arabe, l’hébreu, le géorgien, le thaïlandais…, qui s’adressent à un large public désireux de communiquer, de surfer sur Internet ou d’utiliser toutes sortes de dispositifs électroniques. » 83
La légèreté et la plasticité des fontes variables
Cette demande de grandes familles typographiques n’implique pas uniquement des #glyphes des différentes langues et #systèmes d'écriture, mais également des variantes de graisses, de chasse, de style typographique. Au-delà du travail titanesque et des compétences à acquérir pour concevoir un tel système typographique, il se pose la question du poids des fichiers, qui sera difficilement optimisé pour un affichage et un chargement #web. Si l’on regarde la police noto de Google, qui vise à prendre en charge toutes les langues, on remarque que la noto latin pèse 445 Ko. La police noto simplified chinese (sc), elle, pèse 15,7 Mo et comprend 44 683 #glyphes. Il y a un déséquilibre plus que certain entre ces deux #systèmes d'écriture qui a des conséquences sur le chargement des fontes. Il existe des astuces de chargement « mais une solution plus élégante consiste à fournir à l’utilisateur final non pas cinquante fichiers distincts, mais un “dessin de référence” à partir duquel il pourra interpoler et générer à la volée les styles nécessaires. C’est là le principe des polices variables. » 85 C’est donc une seule et unique sollicitation pour le serveur et donc un seul et unique temps de chargement pour finalement plus de possibilités. « Ce qui a le plus stimulé la nouvelle technologie, c’est l’utilisation croissante de webfonts et le besoin de disposer de fichiers de petites tailles. […] Ceci est encore plus crucial pour les écritures complexes à vaste jeu de caractères comme le chinois, le japonais ou le coréen. » 86 Ce qui permet une vraie optimisation et une empreinte #numérique réduite.

Les #fontes variables sont mises sur le devant de la scène le 14 septembre 2016, à Varsovie, lorsqu’a lieu la conférence de l’association typographique internationale, l’Atypi. Google, Adobe, Apple et Microsoft présentent la nouvelle norme OpenType Font Variation, appelée #fonte variable. Ce format se base sur une forme de référence et des informations sur la manière de générer ses variantes. Ces variations se font le long d’axes, que l’on peut comparer à des lignes imaginaires. On peut alors définir une nouvelle forme entre le dessin de référence et la variation la plus extrême. Finalement, ces informations sont des positions de point de tracé, que l’on appelle « delta ». Stocker toutes ces informations de points est drastiquement plus léger. « Un fichier unique peut ainsi se comporter comme plusieurs polices avec une taille bien moindre que pour une famille complète. » 87

Théoriquement, une #fonte variable peut comporter 65 535 axes. Tous ces axes potentiels forment l’espace de conception. Mais plus il y a d’axes, plus c’est difficile à gérer. Pour le moment, il existe cinq axes définis : la graisse (wght), la chasse (wdth), le corps optique (opsz), l’italique (ital) et l’inclinaison (slnt). Ils sont normalisés et interopérables. Mais il est possible d'en créer de nouveaux. Ces nouveaux axes doivent être nommés par un mot de quatre #lettres en capitale. Les #fontes variables peuvent également programmer des permutations de #glyphes à certains points d’un axe. Le paramètre d’un moment donné précis s'appelle une instance. Elles sont généralement utilisées pour avoir des graisses d’une famille typographique traditionnelle : thin, regular, bold, et ainsi de suite. Les instances servent aussi comme affichage par défaut sur tous les environnements ne supportant pas encore cette technologie.
Potentialités et limites des fontes variables
L’utilisation des #fontes variables n’est pas sans obstacles. Les propriétés #CSS, telles que font-style, font-stretch, font-weight, font-optical-sizing ne sont pas toujours prises en charge par les différents #navigateurs. Et bien que la propriétée #CSS font-variation-setting, soit lue par la plupart des #navigateurs, il est difficile de combiner les axes, car ils ne fonctionnent pas en cascade. Toutefois, elles peuvent être animées via #CSS. Les réglages les plus fins permettent de s’adapter à n’importe quel format et n’importe quel support donné. Les #fontes variables s'inscrivent dans un mouvement de #design adaptatif grâce à l’automatisation de ses adaptations : c’est une fonte paramétrique. On peut imaginer qu’elle peut l’être en fonction de la taille, la résolution, la distance de lecture, la luminosité, l’orientation de l’écran et son angle d’inclinaison, le son, la température, « tout ce qu’un appareil numérique peut mesurer et transmettre. » 88 Il peut être mis en place des raccourcis explicites tels qu’ « augmenter la lisibilité » ou « j’ai oublié mes lunettes », pour reprendre les exemples que cite Indra Kupferschmid, sans pour autant impliquer l’utilisateur ou l’utilisatrice dans les ajustements des paramètres de la police. C'est assez prometteur comme perspective, surtout si on peut imaginer qu’ « ils peuvent même s’ajuster au changement de la langue d’un site, d’une application ou d’un système d’exploitation qui aboutirait à un texte plus long que l’anglais d’origine. » 89

En 2021, la technologie des #fontes variables a eu tout juste cinq ans. Elle s'implante doucement sur le marché et dans les usages. Si, dans un premier temps, c’était un outil qui s'expérimentait dans une communauté restreinte de #designers, elle s’ouvre au fur et à mesure à des cercles plus larges d’usagers et usagères. Ce sont ces acteurs et actrices qui font exister les possibilités du format. « Les développements intéressants proviennent des franges avant-gardistes du secteur. » 90 Cette communauté grandissante se crée des ressources en ligne pour apprendre, découvrir et partager. On trouve alors des sites comme future fonts ‹img›, lieu de partage et de soutien de polices en cours de développement, et v-fonts ‹img›, qui répertorie un bon nombre de #fontes variables et ses expérimentations. 91 Les outils (typo)graphiques disponibles pour un usage de communication de masse commencent également à adopter le format des #fontes variables : Google Font propose dorénavant des #fontes variables avec des nouveaux axes comme monospace (mono) et cursive (crsv). 92 Plus récemment, après Photoshop et Illustrator, c’est au tour d’Adobe Indesign de les prendre en charge et de nous permettre de les utiliser.
Les fontes variables : un outil pour la diversité linguistique sur le web ?
Si on met en relation les #fontes variables et les #systèmes d’écriture, que peut-on espérer ? Tout d’abord, comme dit plus haut dans le texte, celles-ci permettent une plus grande facilité de chargement des polices autres que latines qui, n’étant pas en adéquation avec la logique de la technologie, sont traditionnellement beaucoup plus lourdes. La #fonte variable pourrait par ailleurs répondre à des problématiques spécifiques à certains #systèmes d’écriture : « […] comme un “kashida” adaptatif qui rendrait l’arabe plus naturel et plus vivant. » 93 Indra Kupferschmid imagine que « grâce à un axe d'extension de glyphes les “kashida” (liaisons horizontales dans les écritures arabes) pourraient varier et s’adapter, et composer des textes parfaitement justifiés. Ce dernier effet serait pertinent dans d’autres systèmes d'écriture. » 94 Cela pourrait par exemple aider l’ourdou et le Nasta’līq dans les difficultés qu'ils rencontrent encore.

Pour une véritable compréhension et appréhension des #fontes variables, il faudra sans doute encore une dizaine d’années d’expériences et d’avancées technologiques. En attendant, en plus de partager cette technologie, nous allons « […] devoir bricoler encore longtemps de délicates solutions de substitutions. » 95 Mais, ainsi que le rappelle Indra Kupferschmid, « on imagine le potentiel pour d’autres systèmes d’écriture. Je place mes espoirs dans les designers autochtones du monde entier, pas dans la Silicon Valley. » 96 Il faudra l’investissement et la vigilance de l’ensemble des communautés des #designers graphiques et typographiques pour faire en sorte que l’évolution de ce nouveau format #numérique se fasse au profit de la diversité des systèmes linguistiques plutôt que celle du système de communication binaire dominant, basé sur l’anglais et, plus généralement, sa retranscription grâce à l’#alphabet latin.
83.
Indra Kupferschmid, op. cit., p. 131.
84.
Chiffres provenant du site google fonts + 한국어, op. cit.
85.
Indra Kupferschmid, op. cit., p. 131.
86.
Ibid., p. 141.
87.
Ibid., p. 135.
88.
Ibid., p.143.
89.
Ibid.
90.
Ibid., p. 153.
91.
Ces deux sites furent conçus, édités et entretenus par le designer Nick Sherman.
→ Future Fonts et → V-Fonts
92.
google fonts, « Variable fonts », consulté le 04.01.2022 [en ligne].
93.
Indra Kupferschmid, op. cit., p. 153.
94.
Ibid., p. 155.
95.
Ibid., p. 153
96.
Ibid.
Conclusion
결론
บทสรุป
结论
Le #web a révolutionné le partage et l’acquisition du savoir, il est devenu un outil extrêmement populaire, mais il faut avoir à l’esprit qu’il a pu, du fait d’une logique centrée sur le système linguistique et d’ #écriture utilisé par les ingénieurs, entreprises, institutions qui l’ont conçu, rendu difficile, voire parfois impossible d’autres systèmes de communication écrite et visuelle. Au sein de cette technologie, comme déjà au sein de l’imprimerie de Gutenberg ou de la machine à écrire. Le #système d’écriture latin-anglais a une domination incontestable sur les autres #systèmes d’écriture et les autres langues. Cette hégémonie est liée à la diffusion d’outils #numériques, dont la structure logique s’intègre dans le système latin-anglais. Le cadre très normatif du #web contraint les #écritures autres que latines à s’adapter et leur survie dépend souvent de leur capacité à pouvoir être transposées dans une logique latine. Cela crée alors des mutations d’ordre technique (restructuration de langue pour s’intégrer) et des évolutions d’ordre formel, de conception et réception du fait de supports et médiums différents. Il est indéniable que coder une #écriture reposant sur une technologie de la reproductibilité technique requiert des normes et des #standards. Mais il devient urgent de faire en sorte que ces normes soient plus inclusives, souples et ouvertes pour accueillir toute la diversité et la richesse des systèmes d’écriture. Dans notre dernière partie, nous avons souligné que s’il ne s’agissait pas d’outils parfaits, les inventions des #webfonts, le format #OpenType et les #fontes variables pouvaient laisser présager de nouvelles solutions technologiques pour les systèmes dont la logique s’écartait jusqu’alors de manière trop importante par rapport à celle de l’ #alphabet latin. Nous soulignons néanmoins que cette ouverture à la diversité des #écritures et des langues ne pourra se faire sans une prise de conscience de la part des #designers, des ingénieurs, des différents acteurs et actrices du #web et des usagers et usagères des potentielles discriminations que peut induire l’usage d’un médium technologique hors du contexte culturel dans lequel il est né.
Lexique
어휘
พจนานุกรม
词典
#ASCII : American Standard Code for Information Interchange. L'ASCII est une norme informatique de codage de caractères apparue dans les années 1960. C’est la norme de codage de caractères la plus influente à ce jour.
→ Définition tirée de Wikipédia

#Bi-scripte : désigne un ensemble composé de deux systèmes d’écriture différents.

#Code source : le code source d’un programme informatique est un texte contenant des instructions rédigées dans un ou plusieurs langages de programmation. La plupart du temps, le code source est compilé en code binaire pour pouvoir être exécuté (lu) par la machine. Une fois compilé, le code binaire est impossible à modifier sans avoir accès au code source.
→ Définition tirée de Back Office

#CSS : les feuilles de style en cascade (CSS, Cascading style sheets) désignent un langage informatique servant à décrire la présentation des documents web (généralement des pages web).
→ Définition tirée de Back Office

#Design adaptatif : le design adaptatif qualifie la conception d’interfaces pensées pour s’ajuster visuellement à différents terminaux : saisie tactile ou à la souris, ratios, tailles et résolutions d’écran variables, du smartphone à l’ordinateur de bureau en passant par la tablette.
→ Définition tirée de Back Office

#Design (graphique) : le design graphique est un ensemble de compétences à la fois intellectuelles (conception) et plastiques (mises en forme des contenus) dont se dotent les sociétés pour contribuer à rendre au monde une lisibilité que l’industrialisation, la mécanisation et l’urbanisation avaient opacifié.
Définition tirée du Vertige du Funambule (p.42)

#Designer (graphique) : la place symbolique du designer qui est celle du traducteur ou de l’interprète le contraignant à trouver un équilibre entre sa subjectivité, celle du commanditaire et du lecteur et ce qui définit le contexte économique, culturel, social. Et cet équilibre suppose de se méfier de l’assimilation systématique de la subjectivité au style qui est une forme de domination d'un point de vue sur un autre, d’un système de valeurs sur un autre.
Définition tirée du Vertige du Funambule (p.43)

#Écriture : représentation de la parole et de la pensée par des signes graphiques fixés par convention. Système de signes graphiques, permettant cette représentation.
→ Définition tirée de L’Aventure des écritures

#@font-face : @font-face est une règle du langage CSS permettant d’intégrer des polices de caractères personnalisées dans des pages web. Définie par le W3C dès 1998, il faut attendre le début des années 2010 pour que ces dernières soient implantées.
→ Définition tirée de Back Office

#Fonte variable (police variable) : les polices de caractères variables, développées en 2016 par quatre « géants » du web (Adobe, Apple, Google et Microsoft), regroupent un ensemble de technologies permettant de réaliser des interpolations de formes entre différents masters (références) de manière continue et en suivant un ou plusieurs axes préétablis (graisse, proportions, contraste, inclinaison). Un même fichier OpenType 1.8 (police variable) combine alors les différentes coupes d’une famille et optimise ainsi la bande passante nécessaire au chargement d’une webfont.
→ Définition tirée de Back Office

#Glyphe : en informatique, cela désigne un symbole graphique abstrait concrétisé par un caractère.
→ Définition tirée de L’Aventure des écritures

#Hiéroglyphe : du grec hierogluphikos « gravure sacrée ». Signe gravé, idéogramme de l’écriture des anciens Égyptiens.
→ Définition tirée de L’Aventure des écritures

#Idéogramme : signe symbolisant une idée, un concept.
→ Définition tirée de L’Aventure des écritures

#Impérialisme linguistique : linguistic imperialism. Désigne la fausse histoire d'universalisme linguistique et d’écriture.
Définition interprétée de The Chinese Typewriter

#Informatique : concentration des mots « information » et « automatique », pour désigner la science du traitement automatique des données. La présence de la notion d’information et non de donnée, souligne la présence humaine dans la coopération avec l’automate : une donnée ne peut devenir une information que si un être humain l’interprète.
→ Définition tirée de Back Office

#Interstice : désigne une fissure créée par le passage de l’écriture manuscrite à l’écriture sur machine, causée par un nouveau seuil de complexité.
Définition interprétée du Vertige du Funambule

#Kashida : la kashida est un type de justification dans certaines écritures cursives liée à l’alphabet arabe.
→ Définition tirée de Wikipédia

#Lettre  : chacun des signes graphiques dont l’ensemble constitue un alphabet et qui, seuls ou en combinaison avec d’autres, correspondent à un son de la langue.
→ Définition tirée du Larousse

#Langage de programmation : un langage de programmation est un système de notation le plus souvent textuel, destiné à l’écriture du code source de programmes informatiques. Comme les langues naturelles, chaque langage de programmation possède un alphabet, une sémantique, un vocabulaire et des règles syntaxiques spécifiques.
→ Définition tirée de Back Office

#Logographique : est un unique graphème notant un mot entier et non seulement une partie des phonèmes. Dans la majorité des cas, rien n’indique, dans un logogramme, comment il doit être prononcé (le signifiant en linguistique). En d’autres termes, c’est la plus petite unité significative du langage comme signe unique écrit qui représente un mot complet, indépendamment de la langue. Un logogramme notant un élément abstrait de la réalité (comme une notion, un morphème ou en lemme) est un idéogramme. Celui qui représente directement, en le dessinant, un élément concret de la réalité est un pictogramme.
→ Définition tirée de Wikipédia

#Média (Media) : le terme de media désigne tout moyen de diffusion permettant la communication, de façon directe (langage, écriture, etc.) ou via un procédé technique (radio, télévision, web, etc., on parle alors de mass medias). Selon le théoricien des médias Friedrich Kittler, « tous les media technique ont pour fonction soit d’enregistrer, soit de transmettre, soit de traiter des signaux ; […] l’ordinateur (en théorie depuis 1936, en pratique depuis la Seconde Guerre mondiale) est le seul médium qui combine ces trois fonctions. »
→ Définition tirée de Back Office

#Melting pot : il s’agit d’une métaphore employée pour désigner une société devenant homogène et universelle, les différents éléments fusionnant pour ne former qu’un seul et même ensemble harmonieux avec une culture commune.
→ Définition tirée de Wikipédia

#Morphing : le morphing recouvre l’ensemble des techniques d’interpolation, automatisée ou non, qui transforment une forme en une autre (tracé, visage, etc.) de façon continue.
→ Définition tirée de Back Office

#Multilingue (plurilingue) : désigne un ensemble comprenant plus de deux langues.

#Multiple Master : Multiple Master est un extension du format de police de caractères Type 1 qui combine plusieurs versions de glyphes dites « maîtres » (masters), c’est-à-dire styles « originaux ». Ces fichiers permettent à l’utilisateur ou au dessinateur de caractères d’interpoler en continu ces styles via un ou plusieurs axes (graisse, proportions, corps optique, etc.). Un des premiers caractères utilisant cette technologie fut le myriad (Robert Slimbach et Carol Twombly), conçu pour Apple en 1992. Multiple Master a été progressivement remplacé par les évolutions du format OpenType (1.8, police variable).
→ Définition tirée de Back Office

#Multi-scripte : désigne un ensemble comprenant plus d’un système d’écriture.

#Navigateur web  : un navigateur web est un logiciel conçu pour accéder et afficher des pages du World Wide Web. Le terme « navigateur » est inspiré de Netscape Navigateur, le navigateur phare apparu au milieu des années 1990. Les navigateurs web les plus utilisés à l’heure actuelle sont Google Chrome, Mozilla Firefox, Microsoft Edge et Apple Safari.
→ Définition tirée de Back Office

#Numérique : dans le contexte de l’informatique, le terme numérique, en anglais « digital », désigne un objet virtuel (texte, nombre, image, donnée, programme, etc.) encodé sous forme binaire, c’est-à-dire d’une suite de bits à l’état 0 ou 1. Plus généralement, ce terme qualifie l’ensemble des contenus ou activités liés à l’utilisation d’ordinateurs.
→ Définition tirée de Back Office

#OpenType : développé par Microsoft à partir de 1996, l’OpenType est un format de fichier décrivant des polices de caractères numériques qui vise à enrichir le format TrueType initié par Apple à la fin des années 1980. Il ajoute de nombreuses fonctionnalités, comme l’augmentation du nombre maximum de glyphes, le support des caractères non latins, le codage de ligature, etc.
→ Définition tirée de Back Office

#Page Web : une page web représente l’unité de consultation du web. Identifiée par une adresse web (URL) unique, elle est constituée d’un document dont le contenu est décrit en HTML pouvant associer une feuille de style CSS ou des scripts JavaScript. La première page web (Info Cern) fut mise en ligne le 20 décembre 1990 par l’informaticien Tim Berners-Lee et était hébergée sur sa station de travail NeXT.
→ Définition tirée de Back Office

#Programmation : la programmation informatique désigne l’ensemble des activités impliquées dans l’écriture des programmes numériques, c’est-à-dire la rédaction de codes source dans des langages de programmation spécifiques. Les codes sources des programmes sont ensuite compilés pour être convertis en langage machine (binaire) pouvant être exécutés par un ordinateur.
→ Définition tirée de Back Office

#Romanisation : emploie des caractères latins pour écrire (ou retranscrire) une langue utilisant un alphabet ou un système d’écriture différent.
→ Définition tirée de l’Internaute

#Sinogramme : idéogramme chinois.

#Standard : un standard désigne une norme industrielle. Dans le champ de l’informatique, les standards permettent d’obtenir une compatibilité accrue entre plusieurs programmes ou matériels. L’organisme de standardisation à but non lucratif le plus connu est le W3C (World Wide Web Consortium), chargé depuis 1994, de promouvoir la compatibilité des technologies du web.
→ Définition tirée de Back Office

#Système d’écriture : un système d’écriture est un ensemble organisé et plus ou moins standardisé de signes d’écriture permettant la communication des idées. Il existe différents systèmes d’écriture, principalement, alphabétique, syllabique ou idéographique. Un système d’écriture peut retranscrire plusieurs langues. Exemple : l’alphabet latin permet d’écrire le français, l’anglais, l’allemand, l’espagnol, etc.

#(Système d’écriture) alphabétique (alphabet) : système d’écriture d’une trentaine de signes graphiques permettant par leurs différentes combinaisons de transcrire les sons d’une langue. Exemple : l’alphabet latin. Le mot « alphabet » vient de alpha et bêta, premières lettres de l’alphabet grec.
→ Définition tirée de L’Aventure des écritures

#(Système d’écriture) logographique (logogramme) : se dit d’une écriture dans laquelle chaque signe représentant un mot, un concept ou une idée (et non un son ou une syllabe).
→ Définition tirée de L’Aventure des écritures

#(Système d’écriture) syllabique (syllabaire) : se dit d’une écriture dans laquelle chaque signe représente une syllabe (par opposition à celles qui notent consonnes ou voyelles isolement), par exemple les hiragana et les katakana japonais.
→ Définition tirée de L’Aventure des écritures

#Traduction (typo)graphique : « la traduction (typo)graphique est un type de traduction qui me permet de désigner la transposition d’une typographie d’une langue dans un autre contexte linguistique. »
Définition tirée du mémoire de Bae So-Hyun (p.65)

#Translittération : transcription lettre par lettre, dans laquelle on fait correspondre à chaque signe d’un système d’écriture un signe dans un autre système.
Définition tirée du dictionnaire Le Robert

#TrueType : TrueType est un format de police de caractères numérique utilisant les courbes de Bézier pour la description de chaque glyphe ainsi que des algorithmes de hinting destinés à en optimiser l’affichage à l’écran. Créé par Apple à la fin des années 1980 pour concurrencer les polices de Type 1 intégrées dans PostScript, il constitua une avancée importante par rapport aux polices matricielles (bitmap) de l’époque.
→ Définition tirée de Back Office

#Web : le World Wide Web (WWW, « toile [d’araignée] mondiale ») est un environnement de publication et de consultation à échelle mondiale, basé sur un système de liens hypertextes reliant des pages entre elles. Il a été développé à partir de 1989 par Tim Berners-Lee et Robert Cailliau au Cern (Organisation européenne pour la recherche nucléaire), près de Genève. Il est important de différencier Internet, qui désigne l'infrastructure matérielle et les protocoles de connexion entre serveurs (TCP / IP, DNS), du web qui utilise Internet pour la circulation des trois objets techniques qui le constituent : HTTP (HyperText Transfer Protocol, [protocole de transfert de l’hypertexte] permettant le transit des données), URL ((Uniform Resource Locator, [localisateur de ressources uniforme] pour la gestion des adresses web) et HTML (HyperText Markup Language [langage de balisage hypertextuel] destiné à décrire le contenu des pages web). Sa consultation nécessite un logiciel capable d’interpréter le code HTML envoyé par les serveurs web appelé navigateur web. L’expression web 2.0 a émergé au milieu des années 2000 et caractérise la mutation des pratiques utilisateurs faisant suite au développement de plateformes basées sur leur comportement (Google AdSense) ou « sociales » sollicitant leurs contributions et interactions (Flickr, MySpace, Facebook, Twitter, etc.).
→ Définition tirée de Back Office

#Webfont : webfont (police web désigne un ensemble de formats de fichier de polices de caractères (Truetype, OpenType, Embedded OpenType, WOFF, SVG, etc.) destinées à être envoyées depuis un serveur distant puis affichées dans le navigateur client (via l’instruction CSS @font-face). Annoncé en septembre 2016, le nouveau format standard (Variable Font permettra à terme de n’avoir qu’un seul fichier de police permettant, potentiellement, de générer une infinité de variantes (graisses, proportions, etc.).
→ Définition tirée de Back Office

#Web-safe : l’expression « web-safe » désigne un ensemble de polices (notamment arial, times new roman, georgia, verdana, courier) a priori installées sur chaque ordinateur personnel. Leur utilisation permet de garantir l’affichage correct des sites web, contrairement aux webfonts chargées à distance avec l’instruction CSS @font-face.
→ Définition tirée de Back Office

Au fur et à mesure de ma recherche, il a fallu définir certains termes. Je le partage ici, pour apporter plus de précisions mais également pour cadrer mon sujet.
Bibliographie
참고문헌
บรรณานุกรม
参考书目
ANRT-Nancy, « Trois langues, deux scriptes et un support. Le trilinguisme biscripte », consulté le 29.11.2021 [en ligne].
→ ANRT-Nancy

Aravrit, consulté le 29.11.2021 [en ligne].
→ Aravrit

Back Office, « Glossaire », consulté le 04.01.2022 [en ligne].
→ Back Office

Bae So-Hyun, Traduction (typo)graphique, mémoire de DNSEP communication graphique dirigé par Cyrille Bret et Yohanna My Nguyen, Haute école des arts du Rhin Strasbourg, 2017.

Bae So-Hyun, « Dialogue entre Hangeul et Latin », conférence à la 68e édition des Rencontres International de Lure, 25 août 2020, consulté le 01.03.2022 [en ligne].
→ Dialogue entre Hangeul et Latin

Baldinger André, Kanji Kana BLine, cat. expo., Montpellier, La Fenêtre (22 janvier 2020-11 juillet 2020), Montpellier, La Fenêtre, 2020.

Bil’ak Peter, « A view of Latin Typography in Relationship to the World », article publié sur Typotheque, 2008, consulté le 16.02.2021 [en ligne].
→ A view of Latin Typography in Relationship to the World

Bil’ak Peter, « Brief History of Webfonts », article publié sur Typotheque, 2019, consulté le 19.02.2021 [en ligne].
→ Brief History of Webfonts

Bil’ak Peter, « We don’t need new fonts… », article publié sur Typotheque, 2011, consulté le 14.11.2021 [en ligne].
→ We don’t need new fonts…

BnF, « Naissance — Chine », L’Aventure des écritures, consulté le 12.11.2021 [en ligne].
→ Naissance — Chine

BnF, expositions, « L’écriture chinoise », PDF consulté le 04.01.2022 [en ligne].
→ L’écriture chinoise

Bringhurst Robert, La forme solide du langage, Paris, Ypsilon, 2011.

Cardon Dominique, Culture numérique, Paris, Les Presses de SciencesPo, 2019.

Dewey Caitlin, « How the Internet is killing the world’s languages », article publié sur The Washington Post, 2013. Consulté le 25.02.2022, [en ligne].
→ How the Internet is killing the world’s languages

Donnot Kevin, Gay Élise et Masure Anthony (dir.), Back Office, revue annuelle imprimée et web, Paris, B42.
→ Back Office

EsadType, « Lingsong », consulté le 04.01.2022 [en ligne].
→ Lingsong

Google Fonts, « Analytics », consulté le 14.11.2021 [en ligne].
→ Analytics

Google Fonts, « Noto : a typeface for the world », consulté le 04.01.2022 [en ligne].
→ Noto : a typeface for the world

Google Fonts, « Variable fonts », consulté le 04.01.2022 [en ligne].
→ Variable fonts

Google Fonts + 한국어, consulté le 29.11.2021 [en ligne].
→ Google Fonts + 한국어

Hudrisier Henri et Lucas Nadine, « Des idéogrammes dopés à l’ordinateur », article publié sur Le Monde diplomatique, 1991, consulté le 02.04.2021, [en ligne]
→ Des idéogrammes dopés à l’ordinateur

Huot-Marchand Thomas, Jubert Roxane et Morlighem Sébastien, Atelier national de recherche typographique ANRT - Archives 1895-2006, Dijon, Les Presses du réel, 2016.

Kohari Alizeh, « How to bring a language to the future », article publié sur Rest of World, 2021, consulté le 19.03.2021 [en ligne].
→ How to bring a language to the future

Kupferschmid Indra, « L’avenir est variable », dans Robert Yves (dir.), Graphisme en France, Paris, CNAP, 2019.

Lantenois Annick, Le vertige du funambule - Le design graphique entre économie et morale, Paris, B42, 2013.

Naver, « Hangeul », consulté le 13.12.2021 [en ligne].
→ Hangeul

Mullaney Thomas S., The Chinese typewriter - a history, Cambrigde, The MIT Press, 2017.

Poupée Karyn, Arsène Séverine, Thewath Ingrid et Bouissou Jean-Marie (dir.), Internet en Asie, Arles, Picquier poche, 2012.

Sington David et De La Fouchardière Martin (écriture & production), L’Odyssé de l'écriture, Arte, 2020,1 DVD - 3 x 52 minutes.

The Hinglish Project, consulté le 29.11.2021 [en ligne].
→ The Hinglish Project

The World’s Writing Systems, consulté le 04.01.2022 [en ligne].
→ The World’s Writing Systems

Typotheque, « About Balkan typeface », consulté le 29.11.2021 [en ligne].
→ About Balkan typeface

Wikipédia, « Interpolation », consulté le 16.02.2022 [en ligne].
→ Interpolation

Wikipédia, « Langues chinoises », consulté le 04.01.2022 [en ligne]
→ Langues chinoises

Wikipédia, « Shift JS », consulté le 04.01.2022 [en ligne].
→ Shift JS

Wittner Ben, Thoma Sascha et Hartmann Timm, Bi-Scriptual, Salenstein, Niggli, 2019.

Remerciements
Je tiens à remercier mes tuteurs, Uli Meisenheimer et Victor Guégan, pour leur suivi, leurs conseils et leur soutien.

Je remercie également toutes les personnes qui m’ont accompagnée, conseillée et corrigée, que ce soit de près ou de loin, sur ces deux ans de recherches : Loïc Legall, Angélique Swierczynski et Marie Danse ainsi que Raphaël Uhrweiller.

Une pensée particulière pour Yoo Hyo-Jung : merci de m’avoir initiée au coréen et conseillée aux débuts de mes recherches.

Je remercie chaleureusement ma promo de 5e année pour m’avoir permis d’écrire ce mémoire dans une si bonne ambiance : Maëva, Thérèse, Maëlle. Wenjia et Salma, merci pour vos contributions.

Je remercie Basile Jesset, de m’avoir aidée avec le JQuery et toutes les particularités du code qui m’échappent encore.

Je remercie bien évidemment ma famille pour leur soutien, même s’ils ne comprennent toujours pas ce que je fais.
En savoir +
Pour l'élaboration de ce DNSEP, j'ai publié ma recherche sur un site regroupant, entre autres : mes références plastiques, des liens vers des articles, ma bibliographie et mes fiches de lecture. En plus d'avoir été un outil indispensable pour mon organisation, il m'a servi de pont avec mes tuteurs.
→ https://paulinestein.fr/dnsep/
Colophon
Publié le 25.02.2022

Typographie latine : GT Flexa,
de Dominik Huber et Marc Kappeler
→ Grilli Type

Typographie multi-scripte : Noto,
de Google Fonts
→ Google Fonts

«한글과 라틴 문자를 함께» signifie : « le hangeul et les caractères latins ensemble. »

Parce qu’il peut être difficile de lire un texte si long sur un écran, je met à disposition le PDF de mon mémoire :
→ Les systèmes d'écriture sur le web