fermer
l'aventure des écritures

Unicode ou Leibniz revisité

par Annie Berthier
 
Leibniz a exprimé avec ferveur le rêve d'une écriture universelle qui offrirait à la seule vue un exemple de symboles dont le sens serait partagé par tous parce qu'il ne serait pas lié aux vicissitudes et à l'arbitraire de la langue. Il suffirait alors de voir pour comprendre, dans une vision silencieuse où les mots "bavards" auraient cessé de faire du bruit.
 
La capacité des hommes de transcrire aujourd'hui en langage informatique indifféremment des textes, des images fixes ou animées et des sons, concrétise cette espérance. Code binaire et numérique engagent désormais le monde vers une "recomposition de l'économie générale des signes". Naviguant sur leur océan de messages à l'aide de 0 et de 1, les hommes rythment les actes les plus simples de la vie quotidienne grâce à des codes, remplissant l'univers de "combinaisons", dont chacun est souvent secrètement le dépositaire, ou croit l'être. On s'évertue, d'autre part, à capter les émissions éventuelles de signaux venant d'ailleurs. Décrypter, extraire du sens de signes multiples est devenu une obligation. Commun aux astronomes, aux linguistes, aux archéologues, aux militaires, le concept de codage est aussi de plus en plus familier à un plus large public.
 
Dans cette optique, l'expérience réalisée à travers Unicode est exemplaire. C'est une tentative internationale pour permettre la transmission informatique de tous les signes composant les alphabets et systèmes d'écriture des langues du monde, de tous les caractères et symboles graphiques actuellement en usage (un certain nombre concernant cependant les langues anciennes), y compris les signes diacritiques *, les ligatures *, les abréviations, etc., sur la base d'un inventaire général codé.
 
Cette tentative vient à la suite du fameux code ASCII (American Standard Code for Information and Interchange), utilisé par les micro-ordinateurs pour représenter les lettres de l'alphabet. Unicode est étroitement lié à la norme connue sous le nom d'ISO 10646. À leur côté, l'API, ou Alphabet phonétique international, joue un autre rôle : système de transcription phonétique utilisé par les linguistes pour représenter les sons du langage, il est composé de lettres empruntées à des alphabets connus et de caractères créés de toutes pièces ; il a pour but de fournir un répertoire de signes correspondant aux principaux phonèmes des langues du monde, avec pour devise : "Un seul signe pour un seul son, un seul son pour un seul signe". Donc, grâce à Unicode et à API, il est possible de recenser, d'une part les formes, d'autre part les sons.
 
Pas de langage universel donc - un rêve demeuré rêve -, mais un "JUC", un "jeu universel de caractères" dont chaque élément est lié à un codage unique et qui, grâce à sa référence, est identifiable et graphiquement reproductible pour et par tous, si du moins on est équipé du "fureteur" adéquat. Ainsi, après avoir inventé de réunir dans les dictionnaires tous les mots du langage, on s'achemine désormais, grâce à de nouveaux outils, vers une autre moisson, celle des images des signes et des variétés des sons, mais aussi vers leur standardisation ; cela ne va pas sans difficultés : conférences internationales ou régionales, groupes de réflexion, appels à suggestions, le monde entier est engagé dans cette recherche.
sommaire
haut de page