Envoyé par
Nem Chua
Le Japonais emploie effectivement deux jeux de syllabes qui s'appellent Hiragana et Katakana (littéralement les bons et les mauvais caractères) qui servent à écrire la structure de la langue (Hiragana) et les mots étrangers (les "mauvais" katakana). L'essentiel des mots vecteurs de sens sont écrits en Kanji, qui sont essentiellement les caractères chinois.
On a donc deux formes d'exression phonétique et un jeu d'idéogrammes. Les idéogrammes qui sont introduits dans la langue (eh oui, même une langue idéographique doit permettre des néologismes pour ne pas être une lange morte) sont construits comme ne Chinois et présentés avec leur phonétisation en Hiragana (une ou plusieurs syllabes, ce qui ne pose aucun problème en idéogrammes).
Le Coréen est plus simple. Les caractères coréens s'assemblent par groupes de deux ou trois pour former des phonèmes, même s'ils sont agencés de façon similaire aux idéogrammes chinois, en carré, ils n'en sont pas moins phonétiques. Les Coréens distingués écrivent souvent aussi une part de leurs textes en Chinois.
Abgech, Unicode / UTF-8 résout entièrement le problème de l'identification et de l'encodage de l'immense majorité des langues humaines (Même la runique ou l'elfique telle que définie par Tolkien).
Mais il ne répond pas encore à la question de comment entrer ces caractères dans une machine. C'est là, et pour les questions de programmation (je ne connais pas de langage informatique qui ne soit en anglais à ce jour), que l'anglais reste important pour l'informatique.
Il y a une sérieuse évolution, cela dit. Après le grand projet i18n (un i, 18 lettres et un n, comme dans "internationalisation") qui s'intéresse à la portabilité de l'informatique en de nombreuses langues (et qui est si bien ancré dans le monde de Linux qu'il y a toute une arborescence i18n dans Ubuntu, par exemple), il y a depuis quelques années un effort considérable pour ce qui s'appelle maintenant m17n: la "multilingualization" (avec un z si on fait du Ricain et pas de l'Anglais).
Il s'agit de donner à quiconque devant son clavier les combinaisons de touches ou les méthodes de choix des caractères qui lui permettent de dire quel caractère Unicode mettre en mémoire. SCIM, dont nous parlions ailleurs, est un projet déjà très abouti dans ce domaine.
solutions existantes, on imagine la difficulté pour en trouver une uniqueLes Chinois tapent apr exemple quelques touches et vont chercher dans un menu lequel des idéogrammes leur convient. Il y a de très nombreuses. Voyez déjà comme c'est difficile en Vietnamien:
Côté encodage, je reçois encore des messages encodés en VNI (lisibles uniquement avec des piolices de caractères adaptées) (!@#$%^&*!!!)
Côté saisie, ce qui est moins une question de standard et plus une de choix, il y a plein de manières différentes: VNI (les touches de chiffres font les tons, pha3i kho6ng), VIQR (pha?i kho^ng), Telex (phair khoong)... Ce qui peut être un peu déroutant quand-même quand on travaille sur la machine de quelqu'un d'autre.
Il reste encore plein d'options, en fonction de si on accepte que le ton soit tapé à la fin d'un mot, si on demande qu'il soit alors placé à sa posiion canonique (Thảo) ou si on accepte plus de liberté (Thaỏ) etc... Et le vietnamien est une langue latine (en tout cas pour l'écriture, qui nous concerne ici)!
Imaginez le Chinois, l'Hindi, le Malayalam, le Coréen, le Japonais etc., avec chacun ses spécificités et sa culture.
Immense travail qui est en train de se faire, sur la base de la communauté du monde (du) libre.