Concepts, actions et outils linguistiques








télécharger 4.44 Mb.
titreConcepts, actions et outils linguistiques
page12/74
date de publication21.01.2020
taille4.44 Mb.
typeDocumentos
ar.21-bal.com > droit > Documentos
1   ...   8   9   10   11   12   13   14   15   ...   74

Figure 2 : encodage à l’aide du clavier virtuel bambara dans le logiciel XML Spy

Figure 3 : documentation du clavier virtuel bambara générée en HTML
3.2.4 Conditions d’utilisation du clavier virtuel

Les premiers tests effectués montrent que le logiciel expérimenté fonctionne convenablement avec tous les logiciels réellement compatibles Unicode. Parmi ceux-ci, on citera, bien entendu, des suites bureautiques largement répandues comme Office 2000 (on songe à Word et à Access), Open Office (gratuit) ou Star Office (gratuit pour l’enseignement). Plus spécifiquement, on citera aussi XML Spy ainsi que Toolbox (gratuit), la nouvelle version du célèbre progiciel Shoebox, utilisé de longue date pour la description des langues africaines.

Malheureusement, alors que la traduction constitue un enjeu majeur pour le développement des langues partenaires, les postes de travail du traducteur ne semblent pas encore tous parfaitement supporter Unicode ou, tout au moins, permettre l’encodage à l’aide d’un clavier virtuel. Il paraît donc quelque peu prématuré d’envisager un usage de ces produits pour des langues nécessitant l’emploi de caractères phonétiques. Par ailleurs, leur coût prohibitif demeure un obstacle important à leur usage en dehors de bureaux de traduction privés, d’organismes officiels ou d’ONG aux reins solides. Il existe, certes, l’un ou l’autre logiciel libre compatible Unicode, comme la mémoire de traduction Omega T38, mais leur configuration et leur maniement demandent une excellente maîtrise de l’outil informatique.

3.3. Premières remarques concernant Unicode

Unicode est le fruit d’une collaboration internationale. Il est indéniable qu’à l’exception d’idiomes qui, comme l’amharique, se distinguent par un alphabet particulier, l’écriture des langues africaines n’a pas été réellement prise en compte par cette norme. Le consortium Unicode semble considérer que celles-ci ne possèdent pas une écriture propre et que l’usage combiné des caractères latins, de l’alphabet phonétique international et des diacritiques suffit amplement à leur représentation. Ceci pose parfois le problème de l’absence d’un caractère (p. ex., la capitale correspondant à la lettre minuscule latine « ʉ » barré) et complique surtout le rendu des glyphes39 lors de la mise en page (p. ex. le « g » accompagné d’un diacritique rond souscrit (g̥ = g +  ̥) est mal rendu dans les polices expérimentées40). L’indication correcte des tons, précieuse dans l’édition scientifique ou scolaire, est sensiblement compliquée en l’absence de table présentant tous les caractères imaginables en termes de combinatoire. Par ailleurs, Unicode ne permet pas, à cette date, une bonne représentation des tons modulés.

On est en droit de se demander pourquoi Unicode intègre des caractères accentués de langues européennes (p. ex. le « ê »), réputés équivalents à des combinaisons de lettres simples et de diacritiques (ê = e + ^), mais oblige le rédacteur des langues africaines considérées à recourir systématiquement à des combinaisons de caractères sans garantie de rendu du glyphe correspondant. Pourtant, Unicode contient parfois plusieurs fois le même caractère41 et ne doit faire face à aucun besoin d’économie : des milliers de positions de code demeurent disponibles. En fait, on aborde ici une problématique récurrente en matière de normalisation internationale : la sous-représentation des pays du Sud au sein des comités techniques qui se chargent de l’élaboration de normes. Cette sous-représentation n’est pas tant due à un déni d’existence ou à l’absence de considération par les lois du marché – la variété des écritures rares incorporées dans Unicode en témoigne – qu’à l’absence de financement des missions de personnes compétentes lors des réunions de ces comités. Un travail de fond pourrait assurément être réalisé si les organisations internationales qui se soucient de l’adaptation des langues partenaires aux autoroutes de l’information considéraient le financement de telles missions comme une nécessité fondamentale. Il existe, certes, une procédure pour proposer l’inclusion de nouveaux caractères via Internet, mais elle suppose, outre une bonne connaissance de l’anglais, une excellente maîtrise de la problématique du codage des caractères et la volonté tenace de faire progresser un dossier.

4 Perspectives

Au terme de quelque six mois de travail, les partenaires de l’action de recherche ont déjà pu faire la démonstration qu’un balisage XML des langues partenaires est parfaitement réalisable pour une variété de données textuelles et lexicales : il permet une fine représentation des contenus et une représentation universelle des caractères. L’exploration des possibilités offertes par l’écriture de feuilles de style – sans rentrer dans de la programmation – devrait ultérieurement permettre de vérifier si le langage XSL permet au linguiste de mieux valoriser son travail sur la toile.

Si l’on peut penser que le renouvellement, même lent, du parc informatique permettra à l’ensemble des chercheurs du Sud d’accéder à Unicode, une difficulté majeure continuera sans doute à freiner les efforts : la mauvaise connaissance de la langue anglaise – héritage malheureux de la colonisation – empêche nombre de linguistes de s’approprier des connaissances relativement aisées à maîtriser. Un effort majeur de la Francophonie devrait porter sur la traduction rapide en langue française des logiciels et des normes42. Le constat que toute l’information utile au balisage et au codage des langues n’est disponible qu’en anglais (voir la bibliographie), alors que les chercheurs francophones participent largement à leur création est tout à la fois révélateur des pratiques actuelles et lourd de conséquences pour la valorisation du patrimoine linguistique des pays du Sud.

Bibliographie



Andries (P.), 2002 : « Introduction à Unicode et à l’ISO 10646 », dans Document numérique, 2002, vol. 6, nos 3-4, p. 51- 88 (version mise à jour le 22 décembre 2003 : http ://iquebec.
ifrance.com/hapax/pdf/intro-Unicode.pdf)

Chanard (Chr.) et Popescu-Belis (A.), 2001 : « Encodage informatique multilingue : application au contexte du Niger », dans Cahiers du Rifal, décembre 2001, n° 22, p. 33-45.

Descotte (S.), Husson (J.-L.), Romary (L.), Van Campenhoudt (M.), Viscogliosi (N.), 2001 : « Specialized lexicography by means of a conceptual data base : establishing the format for a multilingual marine dictionary », dans Vainio (J.), éd., Maritime Terminology : Dictionaries and Éducation, Proceedings of the Second Conference on Maritime Terminology, 11-12 May 2000, Turku, Finland, Turku : University of Turku, p. 63-81 (Publications from the Centre for Maritime Studies, University of Turku, A36).

Dialo (A.), Mbodj (Ch.), Seck (A.N.) et Thiam (N.), 1997 : Vocabulaire des élections (wolof-français suivi d’un index français-wolof), sous la direction de Chérif Mbodj, Dakar, Centre de linguistique appliquée de Dakar.

Ide (N.) et Véronis (J.), 1996 : « Codage TEI des dictionnaires électroniques », dans Cahiers GUTenberg, Numéro spécial : TEI – Text Encoding Initiative, juin 1996, n° 24, p. 170-176.

Iso-CEI 8 859, 1998-2001 : Information technology – 8-bit single-byte coded graphic character sets (Parts1-16), Genève : Organisation Internationale de normalisation. (disponible uniquement en anglais)

Iso-CEI 9 995-8, 1994 : Information technology – Keyboard layouts for text and office systems  – Part 8 : Allocation of letters to the keys of a numeric keypad, Genève : Organisation Internationale de normalisation. (disponible uniquement en anglais)

Iso-CEI 10 646, 2003 : Information technology – Universal Multiple-Octet Coded Character Set (UCS), Genève : Organisation Internationale de normalisation. (disponible uniquement en anglais)

Iso-CEI 14 755, 1997 : Technologies de l’information – Méthodes de saisie de caractères du répertoire de l’Iso/CEI 10 646 à l’aide d’un clavier ou d’autres unités d’entrée, Genève : Organisation Internationale de normalisation.

Iso 12 620, 1999 : Aides informatiques en terminologie – Catégories de données, Genève : Organisation internationale de normalisation.

Iso 16 642, 2003 : Computer applications in terminology – Terminological markup framework, Genève : Organisation internationale de normalisation. (disponible uniquement en anglais)

Mbodj (Ch.), 2002 : Pour une terminologie de la santé en wolof, Dakar : Centre de linguistique appliquée de Dakar.

Sperberg-McQueen (C.M.). et Burnard (L.), éd., 2002 : TEI P4 : Guidelines for Electronic Text Encoding and Interchange. Oxford, Providence, Charlottesville, Bergen : Text Encoding Initiative Consortium. XML Version (www.tei-c.org).

Van Campenhoudt (M.), 2002 : « Lexicographie vs terminographie : quelques implications théoriques du projet DHYDRO », dans Zinglé (H.) dir., Travaux du Lilla, Université de Nice-Sophia Antipolis, 2002, n° 4, p. 91-103.


1   ...   8   9   10   11   12   13   14   15   ...   74

similaire:

Concepts, actions et outils linguistiques iconRapport d’outils Raknet
«Raknet», ce document est donc une explication de certains des principes de «Raknet» ainsi que de ses concepts fondamentaux et comment...

Concepts, actions et outils linguistiques iconParcours Fonctionnements Linguistiques et

Concepts, actions et outils linguistiques iconLes écoles de linguistiques

Concepts, actions et outils linguistiques iconContenus linguistiques: (vocabulaire, grammaire…)

Concepts, actions et outils linguistiques iconObjectifs communicationnels, culturels et linguistiques’

Concepts, actions et outils linguistiques iconAdos le spécialiste des séjours scolaires linguistiques et aventures

Concepts, actions et outils linguistiques iconBts se r V ice s I n f or m a t I qu e s a u X o r g a n I s at I on s
Dans tous les cas, les candidats doivent se munir des outils et ressources techniques nécessaires au déroulement de l’épreuve. Ils...

Concepts, actions et outils linguistiques iconLes outils de développement de Telelogic mettent l’industrie automobile sur la voie du succès
«Les outils Tau de Telelogic ont déjà fait leurs preuves dans le secteur des télécommunications où le zéro défaut est une devenue...

Concepts, actions et outils linguistiques iconMichel Vinaver, Écritures dramatiques, Essais d'analyse de textes de théâtre, Actes Sud, 1993
«lecture au ralenti» consiste dans le pointage des actions d'une réplique à l'autre ou même à l'intérieur d'une réplique, c'est-à-dire...

Concepts, actions et outils linguistiques iconConcepts et Techniques








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com