image

Page laissée vide intentionnellement

Page laissée vide intentionnellement

LES LANGUES AFRICAINES À L’ÈRE DU NUMÉRIQUE

Page laissée vide intentionnellement

DON OSBORN

LES LANGUES AFRICAINES À L’ÈRE DU NUMÉRIQUE

Défis et opportunités de l’informatisation des langues autochtones

Traduit de l’anglais par
Geneviève Deschamps

image

Mise en pages: In Situ inc.
Maquette de couverture: Laurie Patry

Cet ouvrage est le produit du Réseau africain pour la localisation (www.africanlocalization.net), financé par le CRDI.

© Centre de recherches pour le développement international, 2011

Table des matières

Liste des tableaux et schémas

X

Acronymes et abréviations

XI

Avant-propos
Les langues, l’argent et la société de l’information

1

Préface

7

Remerciements

11

1. Introduction

13

2. Contexte

17

Des défis à relever

19

Qu’est-ce que la localisation?

20

La localisation d’un point de vue technique

21

Équiper les systèmes

22

Contenus

24

Localisation des interfaces utilisateur

25

La localisation en tant que projet

28

Par où commencer?

28

L’Afrique subsaharienne

28

Le monde arabophone

29

Qui localise?

30

3. Introduction à « l’écologie de la localisation »

33

L’environnement de la localisation d’un point de vue écologique

34

Le modèle PLETES

38

Complexes dynamiques de l’écologie de la localisation

45

Utilité pour les TIC et la localisation

50

4. Contexte linguistique

53

Langues, dialectes et géographie linguistique

53

Langues, dialectes et macrolangues

55

Sociolinguistique et évolution des langues

58

Traditions orales et écrites

60

Les politiques linguistiques et d’enseignement des langues

64

Alphabétisation de base, plurilittéracie et aptitudes des utilisateurs

68

Terminologie et adaptation des concepts TIC

70

5. Contexte technique I: l’accès matériel

73

Accès matériel et logiciel

74

Infrastructures essentielles

77

Matériel informatique et systèmes d’exploitation

77

Connectivité et politiques en matière de TIC

79

6. Contexte technique II: l’internationalisation

81

Un environnement technique favorable

81

Traitement des caractères complexes: du code ASCII à Unicode

83

Le « dernier kilomètrE » de l’internationalisation

90

L’internationalisation et la localisation

90

7. Textes, codes et polices en langues africaines

91

Les caractères non latins et les TIC

91

Typologie des orthographes africaines basées sur le latin

92

Évolution de l’utilisation de textes en langues africaines dans les TIC

94

Les polices de caractères

98

Les langues sans système d’écriture

100

8. Claviers et systèmes de saisie

101

Les claviers

101

Des claviers pour l’Afrique

105

Modes de saisie alternatifs

108

9. Définition des langues dans les TIC: étiquettes et paramètres de lieu

111

Les langues et la norme ISO 639

111

10. Internet

119

Le courrier électronique

119

L’internationalisation et le Web

120

Le contenu web dans et sur les langues africaines

121

Le contenu web sur les langues africaines

123

L’internationalisation des noms de domaine

125

11. La localisation de logiciels

127

Les applications et les systèmes d’exploitation

127

Les tendances en matière de logiciels propriétaires

128

Les tendances en matière de logiciel libre

128

La localisation de logiciels en Afrique

130

Les interfaces web

132

12. Technologie mobile et autres applications spécialisées

135

La technologie mobile

135

Les technologies audio: messages vocaux, TTS et reconnaissance vocale

137

Les systèmes d’information géographique

138

La traduction assistée par ordinateur

139

13. Pour une localisation durable

143

Les besoins en fonction des types de localisation et des localisateurs

143

Comprendre les besoins des localisateurs

146

Analyse des besoins du point de vue du panafricanisme

149

Faciliter la communication

151

14. Résumé, recommandations et conclusion

155

Principaux thèmes abordés

156

Perspectives stratégiques

158

Conférences et ateliers

161

Formation et éducation du public sur la localisation

164

Sources d’information et réseautage

166

Langues, politiques et aménagement

168

Politiques et programmes fondamentaux en matière de localisation et de TIC

170

Normes TIC ayant un impact sur la localisation en Afrique

173

Applications avancées, outils et recherche

177

Conclusion

182

Références

187

Index

197

Liste des tableaux et schémas

TABLEAU 2.1 Les différents aspects de la localisation

23

TABLEAU 7.1 Modes d’utilisation d’orthographes dérivant du latin avec des caractères étendus et/ou des signes diacritiques (orthographes de 3e ou 4e catégorie) dans les TIC

97

TABLEAU 7.2 Quelques anciennes polices sur huit bits pour les caractères latins étendus en Afrique

99

TABLEAU 9.1 Les normes ISO 639 de représentation des langues (actuelles et prévues)

112

TABLEAU 9.2 Langues africaines dont les paramètres de lieu figurentdans le CLDR 1.6.1

116

TABLEAU 11.1 Projets de localisation d’OpenOffice

133

TABLEAU 13.1 Groupes de discussion sur les langues africaines et les TIC

151

SCHÉMA 3.1 Modèle d’aménagement linguistique

39

SCHÉMA 3.2 Trois facteurs essentiels dans l’écologie de la localisation

40

SCHÉMA 3.3 Le modèle PLETES

42

SCHÉMA 3.4 Les trois facteurs essentiels de la localisation dans le modèle PLETES

46

SCHÉMA 3.5: Linguistique appliquée, aspect traductionnel de la localisation et usages sociaux des TIC (de gauche à droite)

47

SCHÉMA 3.6 Comparaison entre les principaux facteurs d’intérêt pour les politiques linguistiques (gauche) et en matière de TIC (droite)

48

SCHÉMA 3.7 Projets relatifs au fossé numérique: des dynamiques fondamentales aux dynamiques plus complexes, à l’exclusion des langues

50

SCHÉMA 3.8 Localisation, exécution et activités consécutives

50

Acronymes et abréviations

ACALAN

Académie africaine des langues

ACCT

Agence de coopération culturelle et technique, désormais appelée l’OIF (Organisation internationale de la francophonie)

ANLOC

African Network for Localization (Réseau africain pour la localisation)

ANSI

American National Standards Institute

ASCII

American Standard Code for Information Interchange (Code américain normalisé pour l’échange d’information)

CEA

Commission économique pour l’Afrique

CLDR

Common Locale Data Repository

CRDI

Centre de recherches pour le développement international

DEL

Diode électroluminescente

DOS

Disk Operating System (Système d’exploitation à disques)

FUNREDES

Fundación Redes y Desarrollo (Association réseaux et développement)

FSI

Fournisseur de services Internet

GIF

Graphics interchange format (format d’échange graphique)

GRASS

Geographic Resources Analysis Support System

HTML

Hypertext markup language

ICANN

Internet Corporation for Assigned Names and Numbers (Société pour l’attribution des noms de domaine et numéros sur Internet)

IDN

Internationalised domain names (Noms de domaine internationalisés)

ISO

International Organization for Standardization (Organisation internationale de normalisation)

L1

Langue maternelle (langue première)

L2

Langue seconde

LEGD

Langues européennes de grande diffusion

LGD

Langues de grande diffusion

LIP

Language Interface Packs (Packs d’interface linguistique)

MSKLC

Microsoft’s Keyboard Layout Creator

NICI

National information communications infrastructure (Infrastructure nationale de l’information et de la communication)

OLPC

One Laptop per Child (un ordinateur portable par enfant)

PAL

PanAfrican Localization project (projet de localisation panafricaine)

PDF

Format PDF

PLETES

Politics, languages, economics, technology, education, sociocultural model (modèle rassemblant les facteurs politique, linguistique, économique, technologique, éducationnel et socioculturel)

PNUD

Programme des Nations Unies pour le développement

RFC

Request for comment (document RFC)

RIFAL

International Francophone Network for Language Management (Réseau international francophone d’aménagement linguistique)

SAT-3/WASC

South Atlantic 3/West Africa Submarine Cable (câble sous-marin SAT-3/WASC)

SIG

Système d’information géographique

SMS

Short message service (message texte)

STT

Speech-to-text (synthèse du texte à partir de la parole)

TA

Traduction automatique

TAO

Traduction assistée par ordinateur

TIC

Technologies de l’information et de la communication

TIC-D

TIC au service du développement

TIC-E

TIC au service de l’éducation

TM

Translation memory (mémoire de traduction)

TTS

Text-to-speech (synthèse de la parole à partir du texte)

UCLA

Université de Californie à Los Angeles

UCS

Universal Character Set (jeu de caractères universel, autre terme désignant l’Unicode/ISO 10646)

UNESCO

Organisation des Nations Unies pour l’éducation, la science et la culture

USAID

United States Agency for International Development (Agence des États-Unis pour le développement international)

USB

Universal Serial Bus (bus série universel)

USINFO

American Information Web (site Internet d’informations des États-Unis)

UTF

Unicode transformation format

VOIP

Voice over Internet Protocol (Voix sur IP)

VSAT

Very Small Aperture Terminal (microstation terrienne)

Avant-propos
Les langues, l’argent et la société de l’information

À L’AUBE DU XXIe SIÈCLE, les langues et les cultures nationales jouent un rôle plus important dans les affaires internationales et les relations entre les individus et les gouvernements que ne l’avaient prédit certains analystes et chercheurs du XXe siècle. Parmi les effets potentiellement dévastateurs de la mondialisation, l’unification linguistique – sans parler de l’anglicisation – des sociétés et des cultures a souvent été considérée comme le plus dangereux. Si dangereux, en fait, que des sommets internationaux sur la diversité culturelle et linguistique ont été organisés et que des efforts considérables ont été faits pour mettre un frein à l’homogénéisation culturelle.

Par ailleurs, les tensions qui règnent dans le monde depuis septembre 2001 ont rappelé aux décideurs et aux organisations internationales la nécessité de connaître et de maîtriser les langues des autres afin de mieux les comprendre et de mieux se protéger.

En tant qu’instruments utilisant les langues et en tant qu’outils de traitement et de représentation du langage, les technologies de l’information et de la communication (TIC) facilitent cette interaction. Bien que les principales langues du monde soient maintenant bien couvertes par les TIC, il reste des milliers de langues dans lesquelles il est impossible d’envoyer un courriel ou de lire un site Internet. Certaines langues n’ont pas encore de caractères normalisés, tandis que d’autres ont deux ou trois groupes de caractères: l’un utilisant l’alphabet local, l’autre utilisant l’alphabet d’une langue étrangère auparavant dominante et le troisième utilisant souvent l’alphabet latin.

Lorsque les TIC ne sont pas disponibles dans une langue locale donnée, cela réduit les possibilités de produire et de diffuser sur Internet des contenus locaux (pédagogiques, administratifs ou touristiques). Les chances de partager la culture représentée par cette langue et de la rendre accessible à ses locuteurs, aux chercheurs et aux linguistes qui désirent l’étudier en sont également diminuées. Plus grave encore, étant donné l’utilisation très répandue des TIC (téléphones portables, ordinateurs, matériel multimédia et audiovisuel, etc.), la langue imposée de facto aux utilisateurs (que ce soit l’anglais, le français, l’espagnol, l’arabe ou toute autre langue) finit par prendre le dessus et remplacer la langue locale dans les TIC et dans d’autres domaines.

Ce phénomène ne se limite pas aux TIC. Lors d’une récente conférence sur la traduction, un intervenant a attribué la prédominance d’une langue étrangère, en particulier dans la correspondance et les appels d’offres de son gouvernement, aux préférences linguistiques des représentants de l’administration. Cela revient à favoriser les entreprises anglophones lorsque les appels d’offres sont rédigés en anglais et les entreprises francophones lorsqu’ils sont rédigés en français. Les conséquences d’une certaine tendance vont donc au-delà de sa propre dimension linguistique et prennent une forme politique, économique et sociale.

Dans la société de l’information, la langue, en plus d’être un moyen de communication, joue un rôle socioéconomique semblable à celui de l’argent dans la société industrielle. Alors que l’argent est utilisé pour acquérir des biens matériels, la langue sert à obtenir des connaissances et des biens immatériels1.

Le présent ouvrage est le résultat de plusieurs années d’observation, d’analyse, de consultation et de synthèse de l’adaptation des TIC aux langues locales en Afrique. L’objectif du projet « Localisation panafri-caine », dirigé par Don Osborn, était de suivre de près les progrès des TIC en langues africaines et d’identifier clairement les priorités que le Réseau africain pour la localisation (ANLoc) allait devoir se fixer dans son plan de travail. Ce livre est une version remaniée du rapport final du projet. En recueillant et en compilant toutes les données présentées dans ce livre, Don Osborn a facilité la mise en place du réseau de recherche ANLoc et donné une image fidèle de la localisation des TIC en Afrique.

1. Idée développée par Mohamed Mrayati, lors d’un séminaire sur le rôle de la traduction dans le développement socioéconomique organisé par l’Union des traducteurs arabes, à Tripoli, au Liban, en juillet 2009.

Cette publication sera donc utile aux décideurs qui désirent mettre en œuvre une politique linguistique, aux développeurs qui travaillent dans le traitement des langues, aux chercheurs qui étudient les langues et les technologies de l’information, aux bailleurs de fonds qui financent des projets visant à soutenir les langues locales et aux utilisateurs de TIC qui souhaitent utiliser ces technologies dans leur langue maternelle.

En publiant cet ouvrage et en soutenant le travail d’ANLoc, nous contribuons à la mise en œuvre du Plan d’action du Sommet mondial sur la société de l’information et de son Agenda de Tunis. Les décideurs rassemblés à Genève en 2003 et à Tunis en 2005 ont signé une déclaration dans laquelle ils s’engageaient à:

image encourager le développement de contenus et mettre en place les conditions techniques nécessaires à la présence et à l’utilisation de toutes les langues du monde sur Internet;

image fournir aux individus, dans le contexte de la société de l’information, des contenus adaptés à leur culture et à leur langue en leur donnant accès aux médias traditionnels et numériques;

image favoriser la capacité locale de création et de diffusion de logiciels en langues locales et de contenus adaptés aux différents segments de la population, y compris aux personnes analphabètes ou handicapées et aux groupes défavorisés et vulnérables, notamment dans les pays en développement et en transition.

L’Agenda de Tunis est très clair sur ces points. Les signataires se sont engagés à « œuvrer résolument en faveur du multilinguisme de l’Internet dans le cadre d’un processus multilatéral, transparent et démocratique faisant intervenir les pouvoirs publics et toutes les parties prenantes, en fonction de leurs rôles respectifs ». Ils ont également prôné « l’utilisation des langues locales pour l’élaboration de contenus, la traduction et l’adaptation, les archives numériques et les diverses formes de médias numériques et traditionnels2 ».

2. Agenda de Tunis pour la société de l’information, document WSIS-05/TUNIS/DOC/6(Rév.1)-F, paragraphe 53: http://www.itu.int/wsis/documents/doc_multi.asp?lang=en&id=2267%7C0

Malgré tous les efforts déployés dans le but de respecter ces engagements et de promouvoir le multilinguisme sur Internet, nous sommes forcés d’admettre qu’il reste encore beaucoup à faire pour que toutes les langues du monde apparaissent sur la Toile. Peu de mécanismes internationaux ou régionaux ont été mis en œuvre. En revanche, certaines actions bénévoles, de petites initiatives privées et des projets de recherches tels qu’ANLoc ont parfois eu un impact important sur la vie de citoyens.

Tous ces efforts sont insuffisants s’ils ne sont pas suivis de politiques mises en œuvre de façon appropriée. Pendant des années, le CRDI a financé un réseau de recherche sur les langues asiatiques, PAN Localization, qui a joué un rôle important dans le domaine des TIC et des langues asiatiques. Le projet africain, ANLoc, produit des dictionnaires, développe une terminologie et configure des logiciels en langues locales. Il soutient également la formation professionnelle de traducteurs de logiciels en langues africaines (en collaboration avec le Localisation Research Centre à Limerick, en Irlande), ainsi que la traduction de logiciels et le développement d’outils de gestion de la traduction de logiciels qui respectent les normes du secteur, créant même de nouvelles pratiques en se basant sur un savoir international et africain pour accélérer le développement des TIC en langues africaines.

Ces efforts considérables devraient favoriser l’élaboration de politiques nationales qui garantissent et réglementent l’offre et la demande de TIC en langues locales afin que les ordinateurs des écoles africaines soient équipés de claviers et de logiciels en langue locale et dans une langue internationale. Il faudra beaucoup de temps et d’énergie, mais il s’agit d’un objectif réalisable et qui en vaut la peine. ANLoc et ses collaborateurs relèveront le défi. Mais devant la taille du défi, les efforts devront être collectifs et globaux. Le développement et la diffusion des ressources linguistiques devront se faire de façon collaborative ouverte à la participation de tous et qui aboutira à la libéralisation de l’accès aux ressources et aux outils linguistiques. Les usagers des technologies de l’information, les linguistes, les producteurs de contenus, les experts, les citoyens et les politiciens pourront tous et toutes collaborer sur les réseaux sociaux et sur Internet pour créer des nouveaux termes, en valider l’exactitude, saisir des corpus sui serviront à créer des bases de données et des dictionnaires. Ils pourront défendre leur langue et exprimer les besoins de s’en servir pour accéder aux connaissances et aux services électroniques. Le réseautage du monde qui sert aujourd’hui à véhiculer des images et des produits de consommation peut tout aussi bien servir à faire valoir un besoin linguistique et une innovation technologique en matière de langues autochtones. Les producteurs de logiciels et de services ne pourront alors que suivre car la demande le justifiera.

Adel El Zaïm

Spécialiste de programme principal

Centre de recherches pour le développement international

Préface

AU SENS LE PLUS LARGE, le terme « technologies de l’information et de la communication » (TIC) couvre tout un éventail de technologies, y compris la radiodiffusion et la téléphonie, dont les fonctions audio peuvent être utilisées dans toutes les langues orales. Le présent ouvrage porte essentiellement sur les nouvelles TIC utilisant principalement des textes écrits, c’est-à-dire l’informatique, Internet et les fonctions texte sur les appareils mobiles, ainsi que sur toute une série d’outils technolinguistiques avancés, comme la traduction automatique, la reconnaissance vocale et la synthèse de la parole à partir du texte.

Bien que ces nouvelles TIC – le numérique et Internet – se prêtent aux adaptations dans diverses langues, mais cela nécessitendes efforts et des ressources considérables. Les TIC sont de plus en plus mises à profit dans le traitement, l’analyse, la lecture, la transcription et la traduction d’un nombre croissant de langues. Il convient de se demander quelles en sont les implications pour une région du monde où, d’une part, il existe un grand nombre de langues autochtones qui, pour la plupart, sont peu documentées, sont parlées par un nombre relativement restreint d’individus et sont peu valorisées ou même dénigrées et où, d’autre part, le taux de pénétration des TIC est faible et les moyens d’augmenter leur utilisation sont limités.

Telle est la situation générale en Afrique aujourd’hui. Elle présente de nombreux obstacles aux travaux visant à développer l’efficacité des TIC en faveur du développement et de l’éducation. Pourtant, les possibilités d’encourager les initiatives en langues africaines se multiplient et commencent à être exploitées.

Afin de mieux comprendre la situation générale et de trouver les moyens de soutenir de tels efforts de localisation, le Centre de recherches pour le développement international (CRDI) a financé le Projet panafricain de localisation (PAL). L’un des objectifs du projet PAL était de mener les recherches qui ont été à l’origine de cet ouvrage, c’est-à-dire de faire le point sur la localisation dans deux régions qui se chevauchent: l’Afrique et les pays arabophones. L’étude portait principalement sur l’Afrique subsaharienne et l’Afrique du Nord, en grande partie arabo-phone, tout en prenant en compte les liens linguistiques et culturels essentiels de cette dernière région avec le Moyen-Orient arabe. L’étude se consacrait à la localisation des TIC dans les langues propres à l’Afrique et en arabe, que nous désignons collectivement par le terme langues africaines, sauf lorsque nous avons des raisons d’aborder la langue arabe séparément.

La présente étude propose une description de la situation actuelle de la localisation des TIC ainsi que du besoin et des possibilités de localisation en langues africaines. Compte tenu de la nature de ce sujet et des nombreux facteurs mis en cause, les recherches ont été vastes et laborieuses. Néanmoins, comme tout autre ouvrage sur le sujet, celui-ci restera incomplet, car les technologies et leurs adaptations évoluent rapidement. L’étendue géographique de l’étude est extrêmement vaste, car l’Afrique est le deuxième plus grand continent et environ un tiers des langues du monde y sont parlées. Malgré quelques variations régionales, le continent est dans l’ensemble défavorisé en ce qui a trait aux TIC et aux moyens mis en œuvre pour soutenir la recherche sur ces technologies, les adapter et les étendre à l’ensemble de la population.

En principe, les TIC devraient pouvoir répondre aux besoins des individus dans n’importe quelle langue et servir d’outil au développement dans son sens premier et général, celui de révéler des potentialités. Dans un contexte où les besoins essentiels des populations ne sont souvent pas satisfaits, où les crises sanitaires persistent, où l’alphabétisation, quelle que soit la langue, est faible et où de nombreuses langues n’ont pas d’orthographe déterminée, la localisation peut sembler un luxe. Elle représente cependant une preuve d’espoir, une affirmation de la valeur et de l’utilité de l’héritage linguistique et culturel de l’Afrique et une tentative concrète de trouver de nouvelles solutions à de vieux problèmes grâce à de nouveaux outils, dans des langues qui sont plus familières aux personnes défavorisées.

Cet ouvrage est donc un premier pas dans une nouvelle direction. Outre la publication imprimée, une version est disponible en ligne, avec des liens vers de nombreuses ressources web sous la forme d’un wiki (permettant l’introduction continue de nouvelles données en ligne par différents spécialistes des langues, de la localisation et des TIC) sur les langues, les pays, les systèmes d’écriture ou de caractères, les organisations et les ressources ou instruments de localisation. Le wiki peut être consulté à l’adresse suivante: http://www.panafriL10n.org/.

L’objectif général de cette étude était d’identifier les problèmes, les préoccupations, les priorités et les orientations concernant la localisation en Afrique et, de manière générale, la rencontre entre les TIC et les langues africaines. Dans ce contexte, le présent ouvrage étudie également les domaines d’intervention privilégiés actuels et potentiels pour la localisation en langues africaines.

Ce livre est divisé en plusieurs chapitres thématiques sur les langues, les TIC et la localisation. Afin de clarifier le processus de localisation, nous proposons la notion « d’écologie de la localisation », qui permet de rendre compte des différents facteurs pouvant avoir un impact sur les efforts de localisation actuels et futurs, et nous suggérons un modèle permettant d’organiser ce courant de pensée. Des précisions sur les acteurs et les activités, qui ont souvent tendance à changer, sont données dans chacune des cinq parties du wiki qui accompagne cet ouvrage: langues, pays, systèmes d’écriture ou de caractères, organisations et outils.

La localisation des TIC est un sujet populaire dans le monde actuel, mais il ne s’agit ni d’un engouement passager, ni d’une mode éphémère. Cependant, les observations de Peter Senge sur le « fad cycle » (cycle de mode) dans la gestion d’entreprise valent la peine d’être considérées. Senge a constaté que les nouvelles idées passaient souvent par un cycle relativement prévisible commençant par une période d’intérêt initial, avec un nombre considérable d’activités et de personnes impliquées, suivie par une période de relâchement inévitable de cet intérêt, au cours de laquelle l’enthousiasme retombe et la plupart des parties prenantes passent à autre chose (Senge 2006). Senge a ensuite remarqué que ce qui faisait la différence entre, d’une part, une idée ayant des conséquences à long terme ou qui sont institutionnalisées de façon durable et, d’autre part, un engouement éphémère ayant peu d’effets à long terme, c’était la façon dont cette idée était soutenue ou ses liens avec la théorie. Mis à part certains travaux sur l’importance des langues maternelles (ou langue première, L1s) en tant que moyen de communication et d’apprentissage, peu d’études exposent d’un point de vue théorique l’importance et l’utilité de l’utilisation des langues africaines dans l’informatique et la communication par Internet à tous les niveaux. En plus de faire le point sur les initiatives existantes et de proposer des mesures pratiques, cet ouvrage cherche également à définir la localisation dans le contexte afri-cain et à démontrer son importance sur le long terme.

Remerciements

CET OUVRAGE EST L’ADAPTATION d’un document rédigé dans le cadre du projet de localisation panafricaine financé par le Centre de recherches pour le développement international (CRDI). L’auteur remercie le CRDI et surtout Laurent Elder, qui a pris contact avec lui pour discuter du concept du projet, et Adel El Zaïm, qui a guidé ses efforts pendant trois ans, du début à la fin.

1
Introduction

ÉTANT DONNÉ LE NOMBRE CROISSANT d’ordinateurs et la pénétration d’Internet dans le monde, la localisation des TIC et de leur contenu dans les multiples langues parlées sur la planète devient un champ de discussion et d’action de plus en plus important. En bref, la localisation comprend la traduction et l’adaptation culturelle des interfaces utilisateur et des applications logicielles, la création de contenus Internet dans diverses langues et la traduction de contenus à partir d’autres langues. D’après cette définition, on comprend que la localisation est essentielle pour:

image Rendre les nouvelles TIC1 plus accessibles aux populations des pays les plus pauvres, à qui ces technologies sont censées offrir de nouvelles possibilités de développement;

image Accroître l’utilité des TIC dans leur vie afin de satisfaire leurs besoins et aspirations;

image Enfin, combler le « fossé numérique ».

L’Afrique, qui est actuellement considérée comme un continent éprouvant des difficultés de développement et ayant pris du retard quant à l’utilisation des TIC par rapport au reste du monde, commence à s’intéresser à la localisation. Il s’agit d’un processus graduel, avec des projets limités à certaines régions, qui sont parfois le résultat d’initiatives personnelles, mais qui manquent généralement d’organisation, de ressources ou de planification à long terme. Cet ouvrage et le Projet panafricaine de localisation (PAL) se sont penchés sur cette situation avec l’intention d’aider la région à maximiser le potentiel des TIC au service du développement (TIC-D) en identifiant des façons de soutenir un processus de localisation efficace et durable.

1. Les TIC au sens large comprennent également la radiodiffusion (la radio, qui est souvent communautaire en Afrique, et la télévision) et la téléphonie. Ces technologies étant basées sur la transmission de paroles, elles peuvent être utilisées dans toute langue ou tout dialecte. En revanche, les nouvelles TIC reposent en grande partie sur des textes numériques (en informatique, sur Internet et en technolinguistique), auxquels nous nous intéressons plus particulièrement dans cet ouvrage.

Le présent ouvrage cherche donc à répondre aux quatre séries de questions suivantes:

image Pourquoi la localisation est-elle importante? Quels sont les obstacles à une utilisation accrue des langues africaines en informatique et sur Internet? Quelles sont les conséquences de ces obstacles sur les possibilités de localisation?

image Qu’est-ce qui est fait actuellement pour développer la localisation? Qui le fait, dans quelles langues et dans quels pays? Quelles sont les difficultés rencontrées et les solutions apportées?

image Quelles peuvent être les futures tendances? Quels domaines devraient être considérés comme prioritaires?

image Quels sont les liens entre ces questions et comment les prendre en compte dans les travaux de localisation?

Pour répondre à ces questions, il est nécessaire de prendre en considération la situation des langues africaines sur le continent et ailleurs dans le monde, notamment le nombre de locuteurs, les politiques linguistiques et pédagogiques mises en œuvre, ainsi que la situation actuelle des TIC et les politiques, plans et initiatives en la matière. Il faut aussi connaître les initiatives de localisation existantes et plus particulièrement leurs lieux et leurs responsables. La localisation tourne principalement autour de deux vastes domaines – les langues et les technologies, ainsi que leurs liens avec le contexte socioculturel dans lequel elles sont utilisées –, mais d’autres facteurs tels que l’économie, la politique et l’éducation doivent également être pris en compte.

Cette étude repose sur l’hypothèse qu’une idée générale des besoins apparents et exprimés permet de mettre en contexte ces données et d’aider les localisateurs et les projets en technologies de l’information et de la communication pour le développement (TIC-D) en faisant en sorte que les programmes reposent sur des informations plus précises. La compréhension des données de base repose principalement sur l’utilisation des études existantes sur les langues et les TIC en Afrique, qui définissent le contexte de discussion et de planification des projets de localisation.

Il est plus difficile de découvrir ce qui se fait en matière de localisation, car ces initiatives ne sont pas souvent rendues publiques et les personnes qui voudraient en savoir plus à leur sujet en ignorent souvent l’existence (même lorsque celles-ci se déroulent dans leur propre pays). Il faut porter une attention particulière à l’identification des tendances et des potentialités, c’est-à-dire à la direction que prennent les projets de localisation et aux implications qu’ils auront dans l’avenir. Les TIC sont une réalité nouvelle et inévitable en Afrique, autant que dans d’autres régions du monde, mais les problèmes et besoins peuvent varier d’un endroit à l’autre. L’Afrique est l’une des régions du monde les plus multi-lingues. Ainsi, même si ce fait ne reçoit pas encore l’attention qu’il mérite, l’association entre les technologies et les langues devrait avoir des conséquences particulières sur le développement du continent africain.

Cela dépend de l’idée que l’on se fait de l’orientation actuelle et potentielle des changements technologiques. En effet, l’évolution des TIC est rapide et constante et on ne peut se limiter à rattraper le retard accusé par la localisation et son utilisation au service du développement en Afrique par rapport aux pratiques et applications mises en œuvre dans les autres régions du monde.

Si l’on en revient à la réalité africaine, on ne peut séparer la localisation et ses objectifs des efforts plus généraux de développement et d’éducation, du contexte politique et des dynamiques socioéconomiques du continent. Cela est particulièrement vrai si l’on s’intéresse, d’une part, à la durabilité de la localisation et de la planification à long terme qui y est associée et, d’autre part, au rôle que pourrait jouer la localisation des TIC dans la résolution des problèmes de développement de plus grande envergure.

Afin d’atteindre les objectifs du présent ouvrage, nous devons toujours garder à l’esprit les principaux éléments de la localisation – à savoir la langue, la technologie et leurs contextes socioculturels – ainsi que les liens qu’ils entretiennent avec plusieurs autres facteurs qui déterminent les possibilités de localisation et leur mise en œuvre et qui sont à leur tour influencés par le processus de localisation et ses résultats.

Afin d’étudier ces liens, nous introduisons la notion « d’écologie de la localisation », qui prend en compte les facteurs clés, facilite l’analyse de leurs interactions et attire l’attention sur la façon dont celles-ci devraient être prises en compte dans la planification et la mise en œuvre des projets de localisation.

Lorsque l’on collecte des données sur un domaine qui évolue aussi rapidement, il faut aussi tenir compte du fait que les informations recueillies seront bientôt obsolètes. Comme le dit Esselink (1998) dans son premier livre sur la localisation: « Écrire sur la localisation de logiciels, c’est comme lutter contre le temps ». Dans le cas présent, nous cherchons à avoir une image aussi complète que possible de la situation actuelle, ce qui consiste en réalité en un ensemble d’aperçus instantanés, tout en sachant qu’une grande partie des informations recueillies sera bientôt dépassée. Malgré le problème inhérent au fait de collecter des données sur des technologies qui évoluent rapidement, cette approche permet de comprendre les liens entre les différents éléments du système à un moment donné, ce qui facilite les études comparatives et la compréhension de l’écologie de la localisation. Si nous avons décidé de publier cette étude en format papier malgré l’évolution rapide du sujet, c’est que nous croyions qu’une version papier pouvait permettre de toucher un public plus large qu’une simple publication électronique. Par ailleurs, la possibilité de mettre à jour les informations sur le site Internet qui l’accompagne au fur et à mesure que les changements ont lieu maximise l’utilité et la pertinence de la version papier.

La prochaine étape consiste à déterminer quelles sources d’information et quels savoir-faire pratiques sont nécessaires pour faciliter les travaux de localisation sur le terrain en Afrique. Nous espérons que cela contribuera à l’évolution du site décrivant les ressources en localisation qui accompagne cet ouvrage (http://panafriL10n.org/).

Ce livre est divisé en plusieurs chapitres. Le chapitre 2 se consacre à l’étude du contexte de la localisation. Au chapitre 3, nous présentons un modèle d’écologie de la localisation. Les trois chapitres suivants traitent du contexte linguistique (chapitre 4) et technique (chapitres 5 et 6) de la localisation en Afrique. Les chapitres 7, 8 et 9 abordent certains systèmes indispensables à la localisation. Les quatre chapitres suivants traitent de certains aspects de la localisation. Ils sont suivis d’un résumé, de recommandations et d’une conclusion.

2
Contexte

CE CHAPITRE OFFRE un aperçu de l’importance de l’utilisation des langues africaines dans les TIC, explique pourquoi la localisation dans les langues africaines est essentielle, définit le sens donné à la localisation dans cet ouvrage, analyse le contexte régional de l’étude et décrit la façon dont ce livre envisage la localisation en Afrique.

L’importance des langues africaines et ses implications dans le domaine des TIC

Alors que la révolution de l’information devient de plus en plus multilingue à l’échelle mondiale et que la présence des nouvelles TIC en Afrique s’étend au-delà des capitales, la nécessité de prendre en compte l’utilisation de multiples langues africaines augmente, ainsi que le potentiel d’exploitation de la richesse linguistique du continent pour favoriser le développement et l’éducation. Deux observations viennent corroborer cette assertion: les langues européennes ne peuvent satisfaire tous les besoins de l’Afrique et les langues africaines ont beaucoup à apporter.

Il est généralement reconnu que l’existence de logiciels et de contenus dans les langues les plus familières aux utilisateurs est une condition essentielle à l’adoption et l’utilisation optimale des ordinateurs et d’Internet. On peut même ajouter que lorsque des personnes sont polyglottes, comme c’est souvent le cas en Afrique, la possibilité d’utiliser différentes langues renforce leur autonomie.

L’intégration des langues les plus familières aux utilisateurs est considérée comme essentielle dans toute tentative d’utilisation des TIC au service du développement. Ce qui n’est pas surprenant lorsqu’on sait que l’éducation et la communication sont généralement plus faciles dans la langue maternelle que dans des langues acquises plus tard. En outre, au niveau de la communauté et de la société, les langues maternelles sont considérées comme un aspect central et indispensable des systèmes socioculturels1.

Les TIC ont été introduites en Afrique et dans les régions arabo-phones en anglais et en français, ainsi qu’en portugais et en espagnol dans certains pays d’Afrique subsaharienne. Ces mêmes langues, d’origine européenne, ont servi à la colonisation de ces pays et en ont été les langues officielles depuis leur indépendance, notamment au sud du Sahara. Dans cet ouvrage, ces langues seront appelées langues européennes (ou europhones) de grande diffusion (LEGD)2. L’un des problèmes des LEGD est qu’une grande majorité des habitants du continent ne les parle pas ou très peu3. Même si elles les parlaient, les populations qui maîtrisent également d’autres langues seraient limitées par un accès à des ordinateurs et des contenus Internet exclusivement en LEGD.

Quoi qu’il en soit, l’utilisation des TIC dans les langues africaines ne devrait pas être simplement considérée comme une façon de compenser pour le manque de connaissance des LEGD des individus, ni comme un pis-aller ou une solution provisoire en attendant que ces personnes améliorent leur maîtrise de ces langues4. Il s’agit au contraire d’un enjeu à long terme et d’une question de justice en ce qui concerne l’accès aux TIC. En effet, il est difficile d’imaginer que les tous les Africains, plus que les habitants des autres régions, puissent utiliser les TIC en LEGD plus aisément et de manière plus efficace que dans leur langue maternelle.

1. Cette observation est fréquente. Herbert (1992: 1) en est une des sources les plus récentes.

2. Le terme « langue européenne de grande diffusion » (LEGD) a été introduit par Bokamba (1995). Le terme « europhone », créé plus récemment, est parfois employé en référence aux langues européennes et à leurs locuteurs en Afrique. « Langue de grande diffusion » (LGD) est un terme consacré désignant toute langue véhiculaire, généralement dans des contextes où elle a le statut de langue seconde ou addition-nelle. De nombreuses langues africaines, dont l’arabe, jouent le rôle de LGD ou de langue véhiculaire dans certains contextes. Les LEGD dominent sur Internet et dans les logiciels du monde entier.

3. Selon une estimation, jusqu’à 90 % des habitants de certains pays n’en parle pas les langues officielles (Mackey 1989: 5, cité dans Robinson 1996: 5).

4. Une des stratégies adoptées pour l’éducation et l’alphabétisation en Afrique est de commencer par l’enseignement en L1 pour faciliter l’apprentissage dans les langues officielles. Cette stratégie est souvent appelée le « bilinguisme soustractif ». La localisation des TIC, telle que nous l’abordons dans cet ouvrage, n’est pas conçue à des fins aussi limitées, même s’il est vrai que les personnes qui apprennent à utiliser des ordinateurs dans une langue qu’ils maîtrisent réussiront plus facilement à acquérir des compétences en informatique dans une autre langue.

L’utilisation des TIC dans les langues africaines ouvre la voie à un usage plus efficace de ces technologies par les plus érudits. Elle complète et élargit ainsi le potentiel offert par les applications en LEGD.

DES DÉFIS À RELEVER

Le nombre et la diversité des langues du continent – plus de 2 000, selon Ethnologue (Gordon 2005), soit environ le tiers de toutes les langues vivantes du monde – représentent cependant un défi de taille pour les projets de localisation et les programmes d’éducation en leur faveur. Le fait que de nombreuses langues considérées comme distinctes appartiennent à des groupes de langues étroitement liées et dont les locuteurs se comprennent entre eux démontre la complexité de la linguistique africaine.

Les initiateurs de projets destinés à accroître l’utilisation des TIC en Afrique en faveur du développement, de l’éducation ou d’autres fins commencent à reconnaître la nécessité de répondre à ces réalités sociolinguistiques. De tels efforts tirent profit des progrès d’internationalisation de ces technologies, d’une plus grande utilisation d’Unicode (ISO 10646)5 pour gérer plusieurs alphabets et davantage de caractères et de l’existence de logiciels utilitaires permettant de créer de nouvelles configurations de claviers.

Il reste toutefois un certain nombre d’obstacles. Certains sont techniques, comme l’utilisation de jeux de caractères étendus et d’Unicode sur de vieux systèmes informatiques et des claviers européens. D’autres sont d’ordre économique, comme les coûts de la traduction de contenus. D’autres encore sont de nature sociale et concernent les niveaux d’éducation et les attitudes parfois négatives à l’égard des langues africaines chez les spécialistes du développement et de l’éducation étrangers et parfois même chez les locuteurs natifs.6 Dans certains pays, les politiques gouvernementales concernant les langues et l’éducation sont défavorables aux langues africaines, ce qui a un fort impact sur l’utilisation des TIC.

5. Au milieu des années 1990, l’Organisation internationale de normalisation (ISO) et le consortium Unicode, qui a fait ses débuts en tant qu’association profession-nelle, ont coordonné leurs efforts pour mettre en place un système de codage unique. Ce système est parfois appelé le jeu de caractère universel, mais on le désigne communément par le simple terme d’Unicode. C’est ainsi que nous y ferons référence dans cet ouvrage.

QU’EST-CE QUE LA LOCALISATION?

Le terme « localisation » est employé dans différents contextes liés aux TIC, mais les définitions ont toujours trait à l’adaptation d’interfaces utilisateur et de données numériques aux cultures, normes et modes de communication locaux. Daniel Yacob (2004) propose une interprétation générale définissant l’objet de la localisation comme: « le transfert de la conscience culturelle dans un système informatique qui fait de l’ordinateur une extension naturelle de la société qu’il sert ». En pratique, l’aspect le plus important à prendre en considération dans le processus de localisation est invariablement la langue.

Les préoccupations liées à la localisation étaient sans doute présentes de manière intrinsèque et latente dès les premiers balbutiements de l’informatique. En d’autres termes, il était inévitable que l’informatique finisse par permettre de traiter les langues humaines, que la question du choix des langues surgisse et que des utilisateurs de différents horizons linguistiques revendiquent l’utilisation de langues supplémentaires. Au fur et à mesure que les ordinateurs ont acquis la capacité de transmettre des images, des sons et des styles de présentation, il est devenu évident que des questions d’adéquation culturelle allaient suivre.

6. Ce sujet ne peut être approfondi ici, mais il mérite qu’on s’y arrête. La dévalorisation des cultures indigènes en Afrique était une caractéristique fondamentale des interactions entre l’Europe, l’Amérique du Nord et l’Afrique pendant des siècles, à l’époque où l’esclavage et la colonisation étaient considérés comme acceptables. Ce n’est actuellement plus le cas et les cultures africaines sont de plus en plus valorisées dans le monde actuel, mais peu de valeur est accordée aux langues africaines en dehors du cercle restreint des linguistes. Aussi tard que dans les années 1970, dans un important texte d’introduction à l’Afrique, Bohannan et Curtin abordaient à peine la question des langues africaines, si ce n’est pour suggérer qu’elles avaient sans doute peu d’avenir (Bohannan & Curtin 1971; cette observation a été modifiée dans les versions ultérieures – voir Bohannan & Curtin 1995). Chaudenson (2004) fait remarquer que la question des langues est pratiquement absente des discours sur le développement en Afrique et Brock-Utne (2005) attire l’attention sur les attitudes négatives des bailleurs de fonds étrangers à l’égard du multilinguisme en Afrique, qu’ils ont tendance à considérer comme une entrave au développement.

Dans la pratique, la localisation est à la fois un ensemble technique de démarches et de méthodes d’adaptation de logiciels et de contenus à des langues et des cultures données et, plus généralement, une activité d’entreprise intégrant les dimensions techniques, l’aménagement de données linguistiques et l’organisation nécessaires à l’atteinte de cet objectif. Dans l’ensemble, la localisation a pour but de faciliter l’utilisation de langues cibles dans les TIC et peut être considérée comme s’inscrivant dans une perspective plus large d’adaptation de la science et des technologies à divers milieux socioculturels.

LA LOCALISATION D’UN POINT DE VUE TECHNIQUE

Les systèmes informatiques et les TIC en général comprennent des éléments de deux ordres: le matériel et les bits (chiffres binaires). Associés, ces éléments définissent les possibilités techniques de la localisation.

Pour simplifier, l’aspect matériel des TIC comporte des dispositifs et des connexions. Les dispositifs – ordinateurs et appareils mobiles de plus en plus puissants – peuvent fonctionner de manière indépendante selon les besoins comme, par exemple, pour stocker et manipuler des données telles que des textes, des feuilles de calcul ou d’autres fichiers. Ils peuvent aussi se connecter à un réseau lié à d’autres dispositifs – Internet (ou un intranet) – pour l’extraction ou l’échange de données par courriel, sur des pages web ou par transmission multimédia en continu. La localisation concerne les aspects indépendant et en réseau des TIC.

Afin de pouvoir utiliser le matériel, les bits employés au niveau le plus élémentaire pour coder et manipuler des informations et concevoir les logiciels nécessaires à ce codage sont organisés de façon à permettre aux humains d’interagir avec les dispositifs et les réseaux et d’effectuer le stockage et la transmission de données. Autrement dit, deux aspects entrent en ligne de compte: d’une part, l’interface permettant d’accéder à la technologie et de l’utiliser et, d’autre part, le contenu, soit les documents et les données. Le tableau 2.1 illustre et compare ces deux aspects, c’est-à-dire les deux catégories fondamentales de matériels et les deux manières principales d’utiliser cette technologie. Il est en effet plus facile de comprendre les éléments des TIC à considérer dans le processus de localisation en les examinant sous forme de tableau.

D’après cette analyse, nous pouvons identifier trois objectifs distincts, mais comportant des éléments communs. Ces objectifs sont présentés ci-dessous et seront ensuite analysés plus en profondeur:

image Équiper les systèmes déployés dans plusieurs localités – ou mettre à jour leurs capacités actuelles – pour qu’ils puissent répondre aux besoins en langues locales, ce qui faciliterait la production de documents et l’affichage de contenus web multilingues (voir tableau 2.1, point 1);

image Produire des contenus web – originaux et traduits – destinés à différents publics dans des langues et des formats qu’ils puissent comprendre (voir tableau 2.1, points 2 et 4);

image Effectuer la localisation d’interfaces utilisateur sur des dispositifs individuels et sur Internet (voir tableau 2.1, points 1 et 3).

Le projet PAL s’est intéressé à ces trois objectifs, mais la localisation d’interfaces (notamment logicielles) s’est révélée particulièrement cruciale. En effet, elle représente le prolongement logique des efforts visant à équiper des systèmes afin de répondre aux besoins en langues locales et pourrait faciliter la production de contenus localisés.

ÉQUIPER LES SYSTÈMES

L’équipement des systèmes se définit généralement comme la mise à jour de la capacité des systèmes informatiques à utiliser des langues locales de diverses façons, en particulier des textes non ASCII7. Les principaux problèmes concernent les polices de caractères, la saisie et l’affichage.

7. Nous nous intéressons ici principalement aux langues écrites, mais il est important de reconnaître l’importance des fichiers audio et des images non textuelles – seuls ou accompagnés de texte – dans la localisation et l’informatique multilingue.

TABLEAU 2.1 Les différents aspects de la localisation

 

Interface/accès (comment nous interagissons avec les technologies)

Stockage, communication et extraction de données (à quelle(s) fin(s) nous utilisons ces technologies)

Ordinateur (dispositif individuel)

1. Système d’exploitation, logiciels divers, clavier, écran

2. Documents et fichiers divers, créés par le ou les utilisateurs

Réseau (connexions entre des ordinateurs: Internet et les intranets)

3. Éléments susmentionnés (point 1) et logiciels spécialisés résidant sur des serveurs tels que des moteurs de recherche ou des bases de données

4. Contenu web, stockage distant, capacité à connecter des ordinateurs individuels en temps réel

De nombreuses langues africaines s’écrivent avec un alphabet latin étendu, tandis que d’autres, comme l’arabe, emploient un alphabet autre que le latin. Pour ces langues – contrairement à celles utilisant essentiellement les mêmes caractères que les langues d’Europe occidentale (comme c’est le cas pour de nombreuses langues d’Afrique méridionale et orientale) –, l’avènement d’Unicode ouvre la porte à de nouvelles possibilités. Il est absolument nécessaire de disposer d’une bonne sélection de polices de caractères complètes et de moyens de saisie normalisés et accessibles, qui se basent surtout sur des configurations de clavier, mais comprendront également par la suite des logiciels de reconnaissance vocale (les claviers et les modes de saisie sont étudiés plus en détail au chapitre 8). La première étape du processus de localisation dans ces langues repose en effet sur ce dernier kilomètre de l’internationalisation, qui désigne le processus d’amélioration des ordinateurs et des systèmes pour répondre aux besoins linguistiques du monde entier.

Les polices de caractères sont, de facto, le premier point à prendre en considération, car en l’absence de polices comprenant les caractères étendus ou non latins nécessaires, les applications logicielles n’afficheront pas entièrement ou correctement les textes rédigés dans un certain nombre de langues. Cela signifie que, bien qu’elles puissent permettre d’afficher les caractères et les signes diacritiques des systèmes d’écriture pour lesquels elles ont été conçues et qu’elles puissent être utiles à quelqu’un produisant des documents à des fins personnelles, les polices de caractères Unicode, dont tous les caractères sont codés conformément à la norme Unicode, depuis l’ère du 8 bits, ne peuvent être lues par des systèmes sur lesquels ces polices n’ont pas été installées, sauf dans le cas des documents écrits en HTML. Les polices embarquées s’affichent alors sans installation explicite8. Les polices de caractères 8 bits ne sont pas compatibles, car chacune d’entre elles utilise différemment le nombre limité de points de code dont elles disposent pour les caractères, tandis que l’Unicode attribue en principe un seul point de code par caractère dans tous les systèmes d’écriture (comme nous le verrons plus en détail au chapitre 6).

Pour saisir du texte dans des langues utilisant des caractères non ASCII, des configurations de clavier spécialisées sont nécessaires. Celles-ci peuvent être créées pour des langues ou des groupes de langues pour lesquelles il n’existe encore aucun logiciel de localisation. Outre la capacité des systèmes à gérer des textes, leur capacité à permettre aux utilisateurs de créer et d’utiliser des multimédias ne se basant pas seulement sur du texte est un autre point important, quoi que souvent négligé.

On sait par ailleurs qu’il existe un grand nombre de vieux ordinateurs en Afrique – provenant souvent de dons de matériel usagé – qui ne peuvent pas traiter l’Unicode et peuvent être limités à d’autres égards (voir chapitre 5).

CONTENUS

Le terme « contenus » désigne généralement les contenus web, c’està-dire les informations présentées sur les sites internet. Plus globalement, ce terme comprend aussi les informations stockées sous forme de documents ou de données sur des ordinateurs ou transmises sur Internet par d’autres moyens, comme le courrier électronique par exemple. Ce dernier moyen est particulièrement intéressant lorsqu’on cherche à mesurer l’utilisation de diverses langues et la demande d’outils pour y parvenir.

Comme nous l’avons vu précédemment, la production et l’affichage sur Internet d’informations adaptées et accessibles aux utilisateurs sont facilités par l’équipement de systèmes. Le choix des langues est évidemment un élément essentiel, car c’est grâce à des idiomes compréhensibles que les TIC peuvent véhiculer des informations en faveur du développement et à d’autres fins. D’autres aspects, tels que l’adéquation culturelle des sujets et des images et la façon d’envisager la fonction de communication des langues (par exemple, en prenant en compte les dialectes et les styles contemporains, par opposition aux styles formels), ont également leur importance dans la localisation de contenus.

8. Voir http://hapax.qc.ca/extrait-foucault/foucault-p339.html

On peut classer les contenus web en deux catégories basées sur l’origine: d’un côté, les contenus produits localement et de l’autre, ceux qui sont produits ailleurs, mais qui ciblent le public local. Ces deux catégories sont importantes, mais nous nous intéresserons principalement à la première. Ballantyne (2002) analyse la question du contenu du point de vue de cette classification et du public cible. Il pourrait être utile de chercher à développer une collaboration entre les développeurs locaux et inter-nationaux, où qu’ils se trouvent, afin de déterminer quelle serait la meilleure façon d’intéresser leur public potentiel commun.

La localisation de contenus dans les principales langues internationales est au centre des préoccupations d’un grand nombre d’entreprises privées et d’organisations à but non lucratif. Il s’agit d’un secteur important, dans lequel œuvrent de nombreuses associations commerciales et professionnelles9, mais il n’a pas encore touché l’Afrique de manière significative, si ce n’est pour la localisation en arabe et dans les LEGD, et ne s’est pas encore intéressé sérieusement à la question des langues africaines.

À l’heure actuelle, il existe peu de contenus web développés dans des langues africaines, en Afrique ou ailleurs, et peu de contenus provenant d’Afrique, dans quelque langue que ce soit. La question des contenus localisés est étudiée plus en détail au chapitre 10.

LOCALISATION DES INTERFACES UTILISATEUR

La localisation des interfaces utilisateur comprend la traduction dans diverses langues de logiciels informatiques de base, comme les navigateurs et les logiciels de traitement de texte, y compris les commandes, les dictionnaires et les fichiers d’aide (la capacité d’un logiciel à répondre à divers besoins en matière de langage est considéré comme un aspect de l’équipement de systèmes). Elle s’intéresse également de plus en plus aux contenus web interactifs (appelés communément « Web 2.0 »).

9. Par exemple, la Globalization and Localization Association (GALA), la Localization Industry Standards Association (LISA) et l’Institute of Localisation Professionals (TILP). Il existe également une revue spécialisée, Multilingual (anciennement Multilingual Computing), et une revue académique, Localisation Focus.

Parmi les autres aspects de la localisation figurent notamment le développement d’une terminologie (ce qui est en quelque sorte un prolongement de la traduction), les conventions concernant l’affichage de certaines informations et l’adéquation culturelle des thèmes abordés dans les logiciels. Dans de nombreux cas, la localisation concerne seulement certains de ces aspects. La localisation en arabe et, dans une très faible mesure, dans certaines des langues africaines les plus parlées est réalisée par des fabricants de logiciels privés, notamment Microsoft, dans le cadre de son programme sur les langues locales. Bien que ces initiatives favorisent la promotion de la localisation en général, elles ne s’intéressent qu’aux langues principales et aux marchés de grande envergure. Dans certains cas, notamment dans le contexte de TIC-D, la localisation peut engendrer des coûts plus élevés que ce que les utilisateurs peuvent supporter. C’est pourquoi de nombreuses personnes choisissent de promouvoir l’utilisation de logiciels libres comme une façon plus abordable de favoriser l’expression locale et la localisation dans un nombre accru de langues.

La localisation de logiciels informatiques est complexe. Il faut prendre en compte les quatre éléments suivants:

image Systèmes d’exploitation (Windows, UNIX, Linux, par exemple);

image Applications logicielles ou progiciels entièrement traduits (OpenOffice, Microsoft Office ou les programmes spécialisés comme les serveurs):

image Des programmes partiels, dont seules les commandes les plus fréquemment utilisées sont traduites. C’est la stratégie employée par Microsoft dans ses packs d’interface linguistique (LIP), dont seuls les commandes et les fichiers d’aide les plus utilisés sont traduits, soit environ 80 % du programme;

image Des outils de production pour la langue cible, sans commandes ni fichiers d’aide traduits, c’est-à-dire comprenant seulement la configuration des langues, les modes de saisie (configuration de clavier) et les correcteurs d’orthographe. Cette catégorie peut être considérée comme le prolongement de l’équipement de systèmes.

À l’exception des systèmes d’exploitation, ces points représentent différents niveaux de localisation des logiciels courants. En ce qui concerne les langues africaines, la localisation se fait principalement à ces niveaux. Les systèmes d’exploitation sont traduits dans les principales langues internationales, mais peu d’efforts ont été faits pour offrir la même chose aux locuteurs de langues africaines.

Bien que la société Microsoft ait augmenté le nombre de langues dans lesquelles elle propose ses logiciels et qu’elle ait annoncé des projets dans d’autres langues, la localisation est toujours plus développée dans les logiciels libres. La suite OpenOffice est adaptée à une centaine de langues et les projets dans certaines de ces langues ont déjà été menés à terme10.

D’autres logiciels bureautiques propriétaires, tels que WordPerfect, de Corel, se sont concentrés sur les langues principales, tout en dévelop-pant parfois des outils de production dans des langues moins usitées.

Jusqu’à maintenant, le développement de la localisation de logiciels a été essentiellement déterminé par l’amélioration de l’internationalisation (comme nous l’avons déjà évoqué) et la demande accrue sur les marchés de grande envergure. Le perfectionnement progressif de la capacité à produire des textes dans divers systèmes d’écriture – notamment grâce à l’existence d’Unicode, une norme unique pour tous les caractères – facilite la production et l’utilisation de contenus multilingues (Unicode et les caractères sont étudiés plus en détail au chapitre 6). Par ailleurs, on assiste à une diversification des utilisateurs (l’utilisation des TIC est de moins en moins coûteuse et de plus en plus accessible dans davantage d’endroits et sous différentes formes) qui entraîne un accroissement de la demande d’interfaces en différentes langues et un élargissement du cercle des contributeurs potentiels pour combler la demande de localisation.

Des processus de localisation ont également été engagés par des entreprises ou dans le cadre de projets internationaux. Sauf exception, ces processus de localisation n’ont pas été intégrés aux projets de TIC-D en Afrique.

10. http://L10n.openoffice.org/languages.html, consulté en juillet 2009. En général, les logiciels et systèmes d’exploitation libres ont été davantage localisés que les logiciels propriétaires (The Economist, Open source’s local heroes, 4 décembre 2003).

LA LOCALISATION EN TANT QUE PROJET

La localisation, au sens large de processus et d’activité, prend en considération plusieurs éléments tels que11:

image Les facteurs nécessaires à la localisation, comme une orthographe normalisée, des données locales, ainsi qu’une organisation et des ressources permettant de réaliser cette localisation au sens technique du terme;

image Des aspects de durabilité à long terme, comme l’exécution et la commercialisation des logiciels localisés et le suivi auprès des utilisateurs ainsi que les mises à jour;

image L’attention accordée aux compétences des utilisateurs (allant de l’alphabétisation de base à la culture informatique);

image Les conséquences de la localisation des TIC sur d’autres aspects de la société, de l’économie et de la culture.

Au chapitre suivant, nous proposons un schéma facilitant la compréhension de ces éléments essentiels.

PAR OÙ COMMENCER?

L’Afrique est un continent multilingue, mais il n’existe aucun logiciel ou contenu internet dans la majorité de ses langues – même les plus importantes et celles qui comptent le plus de locuteurs. Vu les mouvements de population passés et l’influence des langues coloniales, la diver-sité linguistique est une réalité dans tous les pays du continent.

L’AFRIQUE SUBSAHARIENNE

La plupart des pays situés au sud du Sahara ne possèdent pas de langue majoritaire unique. Plusieurs de ces pays comptent des douzaines, voire des centaines de langues. Les LEGD introduites au moment de la colonisation – l’anglais, le français et le portugais – servent de langue officielle et facilitent la communication à un certain niveau dans de vastes régions, mais elles constituent principalement la deuxième langue des segments les plus instruits et urbains de la société et n’ont pas autant de liens avec les cultures africaines que les langues africaines autochtones.1212 Les populations rurales, et notamment les femmes, maîtrisent généralement moins bien les LEGD.

11. À une échelle encore plus large, c’est-à-dire à un méta-niveau, on peut également inclure le développement d’outils facilitant le processus de localisation. Cela diffère de l’internationalisation des technologies.

Les logiciels et contenus en LEGD ne peuvent donc satisfaire les besoins de la majorité de la population africaine. Même dans les zones plus limitées (et principalement urbaines) où elles le peuvent, de nombreux habitants sont encore exclus linguistiquement et les choix sont restreints par le manque de contenus et de logiciels dans les langues africaines. Par ailleurs, si les langues de travail sont limitées aux LEGD, tout effort d’utilisation des TIC au service du développement risque d’être freiné. En d’autres termes, les besoins de localisation en Afrique doivent être analysés en fonction du rôle essentiel et efficace que l’on souhaite voir jouer aux TIC dans le développement du continent.

Le nombre d’ordinateurs et la qualité des connexions internet augmentent sur le continent, tout comme l’intérêt pour la localisation de logiciels et de contenus en langues africaines. Cela ne s’explique pas seulement par le développement, mais également par l’intérêt que l’on porte à ce sujet ailleurs. La quantité de documents internet en langues africaines augmente peu à peu et des efforts actifs de localisation de logiciels sont entrepris, notamment en Afrique du Sud, en Afrique de l’Est et au Nigeria. Ces efforts n’ont cependant pas été coordonnés et les connaissances sur le sujet demeurent limitées, à l’exception de celles de quelques spécialistes.

Cette évolution se produit à une époque où l’intérêt pour la localisation à travers le monde grandit, tant au sein des sociétés de génie logiciel (Bergmann 2005) que du mouvement du logiciel libre. Vu les besoins, l’intérêt local naissant et l’existence de ressources internationales, le moment est idéal pour favoriser la localisation en Afrique.

12. Nous n’insinuons pas que les LEGD n’ont aucun lien avec la culture africaine, mais que ces liens sont différents et, pour des raisons évidentes, moins profonds.

LE MONDE ARABOPHONE

Le besoin de localisation en arabe est tout à fait réel, mais de nature différente, même si de nombreux pays de la région ont eux aussi été colonisés, influencés par l’anglais ou le français de façon similaire et initiés aux TIC dans ces langues. Contrairement aux langues d’Afrique subsaharienne, l’arabe dispose d’une quantité non négligeable de logiciels et de contenus localisés, comme on peut s’y attendre pour une langue aussi répandue13. En outre, le monde arabophone, y compris les pays d’Afrique du Nord, possède généralement de meilleures infrastructures et de meilleurs indicateurs des TIC que l’Afrique subsaharienne. Les défis à relever dans cette région sont donc moins redoutables qu’au sud du Sahara.

Malgré tout, le nombre de logiciels localisés est encore relativement limité et il manque encore un niveau similaire de localisation dans les langues et les thèmes locaux. Il faut donc renforcer la capacité des développeurs à localiser des logiciels et des contenus en langue arabe pour les différents utilisateurs, notamment ceux vivant en dehors des principales villes. C’est d’ailleurs l’objectif central de ce projet en ce qui concerne l’arabe. Il est également nécessaire de mettre au point des dictionnaires électroniques arabes pour les applications libres telles qu’OpenOffice. Ceux-ci pourront être adaptés à des pays en particulier, tout comme les dictionnaires anglais et français diffèrent selon les lieux.

Cet ouvrage s’intéresse principalement aux pays arabophones d’Afrique du Nord, tout en reconnaissant les liens linguistiques, culturels et historiques de cette région avec le Moyen-Orient.

QUI LOCALISE?

La question de savoir qui bénéficie, ou pourrait bénéficier, de la localisation a déjà été soulevée dans l’analyse de l’importance de la localisation. Il convient également de se demander qui effectue ce processus de localisation et qui bénéficierait en premier lieu de l’intérêt accru pour la localisation en Afrique en termes d’informations, de réseaux et d’outils.

13. L’arabe est non seulement la langue maternelle d’une grande partie de la population d’Afrique du Nord (l’Égypte étant, par exemple, le pays arabophone le plus peuplé), mais c’est également une langue très répandue dans le monde qui compte de nombreux locuteurs sur les autres continents. Certaines questions de localisation en langues africaines concernent donc des marchés potentiellement vastes et peuvent compter sur des ressources importantes et variées.

Cette question comporte des dimensions aussi variées qu’il y a de types de localisations, mais on peut simplement répondre que toute personne qui désire mettre en rapport les langues africaines et les contenus et langages interactifs des TIC, qui a les connaissances et les moyens pour y parvenir et qui entreprend ou participe de quelque façon que ce soit à la localisation est un localisateur. Le localisateur est généralement plus instruit que la moyenne, possède une expérience profession-nelle des TIC et connaît au moins deux langues – au moins une langue dominante utilisée dans les TIC et une langue dans laquelle il peut les adapter. Il s’agit d’un groupe très restreint, surtout en Afrique.

En ce qui concerne l’origine et la situation géographique des localisateurs, on peut distinguer trois grandes catégories:

image Les Africains vivant en Afrique;

image Les Africains vivant ailleurs dans le monde;

image Les non-Africains possédant une solide connaissance et un fort intérêt pour la localisation en Afrique, y compris la connaissance d’une langue concernée par ce processus.

Dans certaines régions du continent où le niveau économique est plus élevé, la population plus instruite et les infrastructures mieux développées, comme en Afrique du Nord ou en Afrique du Sud, la première catégorie est la plus importante, mais les deux autres peuvent, d’une certaine façon, prêter main-forte à la première. Dans certains contextes toutefois, les localisateurs ne vivant pas en Afrique peuvent mener des initiatives de localisation – par exemple lorsque des expatriés africains développent un projet dans leur langue d’origine et que des intérêts commerciaux ou des organisations de développement international jouent un rôle dans ce processus.

Les localisateurs de contenus doivent connaître les langues, mais ils ont moins besoin de compétences techniques pointues que les localisateurs de logiciels, qui doivent maîtriser les deux. Le plus important dans l’équipement de systèmes – que ce soit pour concevoir un projet utilisant les TIC au service du développement ou de l’éducation, par exemple, ou pour diriger un cybercafé – est de se familiarisé avec les questions d’inter-nationalisation et de connaître les besoins en langues locales.

Les personnes participant au processus de localisation possèdent des compétences différentes. Ainsi, des groupes d’individus dont les connaissances techniques et linguistiques se complètent peuvent former une équipe cohérente. Un certain niveau de compétences organisationnelles est essentiel pour coordonner les efforts et planifier les actions. Et puisque la localisation concerne des produits destinés à un marché (que ces produits soient gratuits ou non), il faut aussi penser au marketing. Ainsi, une multitude d’individus contribuent au processus de localisation.

Pour revenir à la description des localisateurs, il convient de souligner l’importance de la motivation à participer aux efforts de localisation. Ces personnes sont probablement plus efficaces lorsqu’elles travaillent en groupes, chacune apportant des compétences complémentaires à l’autre. L’efficacité de ces individus et de ces groupes serait renforcée par des mesures de soutien, notamment des formations, des politiques soulignant l’importance de la localisation, des sources d’information comme celle développée par ce projet et des outils facilitant le travail de localisation pour des personnes dont les compétences techniques ne sont pas très élevées.

OÙ EN EST LA LOCALISATION EN AFRIQUE?

Cet ouvrage a pour objectifs de faire la lumière sur l’état d’avancement de la localisation en Afrique afin d’informer les localisateurs, les décideurs et les spécialistes en TIC au service du développement et de servir de point de référence pour évaluer l’efficacité des futurs travaux de localisation.

En règle générale, on peut dire que le potentiel de localisation en Afrique est considérable, mais que, malgré un intérêt croissant, le niveau actuel d’activité est faible et le degré et la nature des projets de localisation et des efforts en faveur des TIC locales et multilingues varient en fonction des régions.

Les chapitres 10 à 12 traitent des travaux de localisation entrepris récemment dans trois domaines: Internet, la localisation de logiciels et les technologies mobiles et les applications spécialisées. Le chapitre 13 s’intéresse à une localisation durable et les chapitres 3 à 9 situent le contexte de ces analyses.

3
Introduction à « l’écologie de la localisation »

CET OUVRAGE PART de l’hypothèse selon laquelle la localisation est bien plus complexe, à tous les niveaux, que ce qu’on pourrait penser. Cette hypothèse est particulièrement vraie dans un environnement hétéroclite comme le continent africain, qui se caractérise par de nombreuses langues, peu ou pas de normes (d’orthographe, par exemple), des politiques fluctuantes, beaucoup de langues transfrontalières, des tendances sociolinguistiques en pleine évolution, un accès inégal aux ordinateurs et à Internet et toute une série de facteurs qui définissent le fossé numérique et ce qu’on appelle le « fossé analogique » (analogue divide)1. Si ces facteurs ont un impact sur la localisation d’un point de vue technique et en tant que projet, la localisation peut elle aussi avoir des conséquences sur ces facteurs. En effet, la localisation est essentielle pour combler le fossé numérique en améliorant l’accès aux TIC et leur pertinence. De cette façon, elle favorise le potentiel de ces technologies dans le domaine du développement et de l’éducation.

1. Le terme « fossé analogique » est apparu à la suite de débats sur l’usage du terme « fossé numérique » pour désigner les inégalités socioéconomiques persistantes entre les plus nantis et les laissés-pour-compte, qui n’ont aucun rapport avec les TIC ou l’accès aux technologies numériques.

L’ENVIRONNEMENT DE LA LOCALISATION D’UN POINT DE VUE ÉCOLOGIQUE

La localisation est essentielle pour combler le fossé numérique, autrement dit pour améliorer l’accès aux TIC et renforcer leur pertinence. Mais le processus de localisation est influencé par divers facteurs, notamment ceux qui déterminent le fossé numérique et analogique qui sépare les régions du monde les plus riches des plus défavorisées. Il est important de comprendre comment ces facteurs – individuellement ou conjointement – entravent ou facilitent les initiatives de localisation, tant pour déterminer l’état actuel de la localisation en Afrique que pour déterminer comment faire pour assurer la durabilité des projets de localisation. Il s’agit d’un système de facteurs relativement complexe dont le tout est plus que la somme de ses parties.

Afin de faciliter la compréhension de ce système, nous proposons une approche écologique, que nous nommons « écologie de la localisation », pour servir de schéma conceptuel à l’évaluation des impacts et des interactions des divers facteurs entrant en ligne de compte. Nous présentons également une proposition de modèle destiné à faciliter cette démarche.

Bien que ce schéma conceptuel ne permette pas de réaliser la tâche immédiate et relativement simple de traduction de logiciels et de contenus, il doit cependant avoir une utilité pratique dans la planification de projets de localisation à plus long terme. Le schéma de l’écologie de la localisation est également destiné à servir de modèle pour une évaluation continue du processus de localisation en Afrique. Ce modèle écologique peut non seulement nous aider à mieux cerner la question du fossé numérique, mais également, nous l’espérons, à évaluer l’impact de la localisation sur le fossé analogique.

L’écologie

La notion d’écologie, qui désigne à la base l’étude des interactions entre les organismes dans leur milieu naturel, s’applique à des domaines de plus en plus nombreux. Elle s’applique tout d’abord aux modèles visant à décrire les interactions entre les sociétés humaines et le milieu naturel (écologies humaine, sociale, culturelle, politique et du paysage)2, et aux conceptualisations plus abstraites décrivant les processus complexes de la vie personnelle ou en société (écologies familiale, cognitive et linguistique, par exemple).

2. La description faite par Otis Duncan (1959) du « complexe écologique », associant l’écologie naturelle et les systèmes sociaux humains au sein d’un même modèle, représente une étape décisive de cette évolution.

Cette évolution du champ d’application de l’écologie en tant qu’instrument conceptuel est tout à fait pertinente, étant donné que cette notion prend ses racines dans la pensée holistique et systémique du début du XXe siècle3. Nous souhaitions continuer sur cette lancée en proposant le terme d’écologie de la localisation et, ce faisant, nous avons découvert que d’autres travaux posaient déjà les bases de cette application.

En 1970, Einar Haugen a proposé d’utiliser la métaphore de l’écologie pour expliquer les dynamiques des langues et leurs liens avec d’autres facteurs (Fill 2001). Cela a marqué le début d’une période où l’étude de l’écologie des langues, ou écologie de la linguistique, était très populaire.

La notion d’écologie de la linguistique n’a pas été exempte de critiques. Harlech Jones (1993), par exemple, fait preuve de scepticisme concernant l’étendue de l’analogie avec l’écologie naturelle et s’intéresse davantage à l’aspect conflictuel qui explique la situation des langues africaines. La notion d’écologie ayant toutefois été privilégiée au cours des dernières décennies, elle semble appropriée pour organiser les réflexions sur les liens entre les facteurs à considérer dans le processus de localisation sans faire de suppositions quant à leur nature. Bien que le nombre de publications mentionnant l’écologie des langues ou de la linguistique ait diminué ces dernières années, il s’agit d’une démarche communément admise pour analyser les relations entre les langues et leurs liens avec différents facteurs sociaux.

Bien que plus récente, l’idée d’appliquer le concept d’écologie à divers aspects de l’utilisation des TIC et du fossé numérique, n’est évidemment pas nouvelle. Ainsi, Matwyshyn (2003) analyse les différences d’utilisation des technologies entre hommes et femmes en termes d’écologie humaine ou sociale. Autre exemple, le site internet World-Information.org explique la notion d’écologie numérique comme un moyen de comprendre les « écosystèmes d’information » et « la production, la distribution, le stockage, l’accessibilité, la propriété, le choix et l’utilisation d’informations dans des environnements technologiquement déterminés4 ».

3. Il convient de remarquer que le Sud-Africain Jan Smuts a exposé la notion d’holisme en 1926. Smuts était un érudit et un homme politique et il a été nommé deux fois Premier ministre de son pays au début du XXe siècle.

Nous avons en quelque sorte été devancés dans notre volonté de développer un modèle d’écologie de la localisation par Robert Chaudenson (1987, 2003), qui a étudié « l’aménagement linguistique intégré » en des termes rappelant fortement la notion d’écologie. Son approche des facteurs liés au choix de l’orthographe est toujours digne d’intérêt et peut être appliquée à d’autres aspects techniques et linguistiques dans une perspective de planification et d’aménagement linguistique (voir également l’étude du modèle PLETES dans ce même chapitre).

L’écologie de la localisation

Haugen (2001/1972) a défini pour la première fois l’écologie des langues comme: « l’étude des interactions entre une langue donnée et son environnement ». Cette définition constitue un bon point de départ pour cette étude.

Le processus de localisation s’inscrit dans des contextes spécifiques. Les raisons générales qui justifient la localisation ont déjà été abordées. Toutefois, dans certains pays ou pour certaines langues, la motivation et les attentes des localisateurs peuvent concerner des situations, des besoins, des opportunités et des aspirations caractéristiques de leur région. En outre, la localisation est influencée par des tendances et des facteurs socioculturels, linguistiques, politico-légaux, pédagogiques, technologiques et économiques. Le schéma de l’écologie de la localisation offre un moyen de rendre compte de ces tendances et facteurs et de leurs éventuelles interactions.

L’écologie de la localisation représente donc, avant tout, une façon de comprendre:

image Les facteurs qui influencent le potentiel de localisation et les efforts spécifiques de localisation, ainsi que les conséquences de ces facteurs sur la localisation (comment ils la facilitent ou l’entravent, par exemple);

image Les interactions entre ces facteurs qui ont un fort impact sur la localisation.

4 http://world-information.org/wio/readme/992006691, consulté en juillet 2009.

Il est néanmoins important de se rappeler que la localisation n’est pas seulement influencée par différents facteurs, mais qu’elle peut également introduire de nouvelles dynamiques dans d’autres sphères d’activité, comme l’utilisation des TIC, l’éducation, le développement des langues et l’évolution de la situation sociolinguistique. Le modèle, comme les circonstances réelles qu’il est censé illustrer, est donc véritablement interactif.

Lorsqu’on pense à un travail de localisation en particulier, on imagine généralement un groupe de personnes ou une organisation ayant affaire à des tâches bien spécifiques et qui a besoin de ressources et peut-être de conseils et d’informations pour les mener à bien. En fait, ce travail dépend d’autres éléments qui appartiennent à un système. Si cet aspect n’est pas clair au début du projet, il le deviendra vraisemblablement plus tard, lorsque des obstacles apparaîtront et que le processus de localisation entrera dans une nouvelle phase. Les tâches essentielles du processus de localisation font donc simplement partie d’un système plus large et ne constituent donc que quelques aspects d’un grand nombre d’éléments devant être pris en compte pour garantir le succès d’une initiative de localisation durable.

La normalisation Unicode des caractères tifinagh, bien qu’elle ne constitue pas à strictement parler un projet de localisation, est une bonne illustration. Pendant des années, la proposition de coder les caractères n’avait pas dépassé le stade de l’ébauche. Puis, en 2003, le gouvernement marocain a décidé d’utiliser le tifinagh pour enseigner le tamazight (langue berbère) dans les écoles, attirant ainsi l’attention sur la nécessité de pouvoir utiliser librement ces caractères en informatique et sur Internet, ce qui était difficile avec les anciens systèmes de codage. La décision des pouvoirs publics a donc ravivé le projet de codage du tifinagh. Ces deux facteurs pourront, avec d’autres, conduire à la localisation de contenus et de logiciels en langue tamazight, ce qui aura, à son tour, d’autres conséquences.

D’autres exemples illustrent les interactions entre différents facteurs. Lorsqu’un gouvernement ou un bailleur de fonds annonce un projet de construction d’un télécentre en milieu rural (comme au Ghana en 2005)5, par exemple, ou la distribution d’ordinateurs aux écoles (comme au Rwanda en 2005) (Nsengiyumva & Stork 2005), l’existence ou l’absence de logiciels localisés change complètement la donne du projet et ce qu’il peut apporter. De tels programmes peuvent à leur tour apporter élan et ressources au processus de localisation.

5. Ghana News Agency (2005), About 230 rural communities to get ICT centres. http://www.ghanaweb.com/GhanaHomePage/NewsArchive/artikel.php?ID=94999, consulté en juin 2009.

La localisation de logiciels dépend également du niveau de normalisation de l’orthographe, de la terminologie et des dictionnaires. Cette normalisation peut être favorisée par les politiques linguistiques des gouvernements et d’autres programmes institutionnels sur les langues locales (dans les universités, les organisations œuvrant en faveur de l’alphabétisation ou les organisations non gouvernementales comme SIL International, par exemple), mais peut également être le fruit d’initiatives de localisation.

Ces exemples révèlent un autre élément important de cette approche basée sur la compréhension des interactions entre différents facteurs: l’extensibilité (scalability). Les décisions et les actions relatives aux TIC et à la localisation en Afrique peuvent être adoptées aux niveaux local, national ou international. Les interactions entre les bailleurs de fonds et les gouvernements au sujet des TIC au service du développement ou de l’éducation, par exemple, ont des conséquences sur les interactions au niveau local. Inversement, la localisation de logiciels dans des langues spécifiques – processus auquel peuvent ne participer que quelques acteurs au niveau local – peut avoir un impact sur les débats concernant les politiques linguistiques et en matière de TIC aux niveaux national et international et peuvent même faire intervenir des bailleurs de fonds internationaux.

LE MODÈLE PLETES

Un certain nombre de facteurs spécifiques peuvent entrer en ligne de compte lorsqu’on imagine un modèle d’écologie de la localisation dynamique et extensible. Dans tout système écologique, on peut dire que tout est directement ou indirectement lié. Toutefois, à des fins de compréhension et d’analyse, il est utile d’identifier ou de préciser un nombre limité de facteurs clés (ou de catégories de facteurs) et de liens. Telle était la démarche d’Otis Duncan (1959), par exemple, qui a limité son analyse de l’écologie humaine à quatre éléments essentiels: la population, l’organisation, l’environnement et la technologie6.

6. On peut également mentionner les modèles de Campbell et Olson (1991), qui développent l’œuvre de Duncan (1959), ainsi que Rambo (1983).

Le modèle le plus proche de celui que nous proposons est peut-être celui développé par Chaudenson (2003) au sujet de l’aménagement linguistique. Même si son modèle n’est pas présenté comme une « écologie », il illustre les rapports entre différents facteurs intervenant dans les décisions concernant l’aménagement linguistique. Ce modèle comprend les éléments suivants: linguistique, psycholinguistique (réactions individuelles), économie (dans le sens d’économie d’usage) et sociolinguistique (schéma 3.1).

SCHÉMA 3.1 Modèle d’aménagement linguistique

Aménagement linguistique et développement: modèle de détermi-nation d’une « opération » d’aménagement (ici le choix d’une graphie (G) mais le principe du modèle peut être maintenu pour toute action d’aménagement linguistique).

image

Tout modèle de ce type, illustrant des interactions entre différents facteurs, comporte un certain degré de simplification et une sélection d’aspects visant à souligner la situation décrite. Chaudenson (2003) a concentré son attention sur un sujet relativement spécifique et analysé séparément quatre éléments de la linguistique (la langue en soi, la sociolinguistique, la psycholinguistique et l’économie d’usage) ainsi que le facteur technique. Les dimensions sociales – dans le cas présent, la façon dont les individus interagissent avec un élément d’orthographe – font implicitement partie d’autres facteurs.

Dans le cas de l’écologie de la localisation, nous pouvons commencer par suggérer comme facteurs clés la langue, la technologie et la société ou les aspects socioculturels. Comme dans le modèle de Chaudenson, ces derniers sont parfois considérés comme implicites, mais méritent une catégorie à part. En effet, bien que les facteurs linguistiques et technologiques soient les éléments centraux de l’activité de traduction d’un projet de localisation, la dimension sociale et culturelle est tout aussi importante lorsqu’on s’intéresse à l’utilisateur et à l’impact des technologies localisées sur la société.

SCHÉMA 3.2 Trois facteurs essentiels dans l’écologie de la localisation

image

Chacune de ces trois catégories est très vaste et comprend des ramifications qui permettent de souligner l’importance des liens entre les différents facteurs. Il est possible, par exemple, de développer des moyens d’utiliser une langue sur un ordinateur sans prendre en compte ses utilisateurs (autres que ceux qui participent au projet) ou de créer de nouveaux systèmes pour les utilisateurs sans s’intéresser aux langues (si on exclue la langue dominante, comme nous le mentionnerons lorsque nous aborderons la question des projets luttant contre l’élargissement du fossé numérique). Le schéma 3.2 illustre simplement ces trois facteurs et les liens qui existent entre eux.

Nous savons que d’autres facteurs ont un effet sur le potentiel de localisation et ses résultats. Il faut voir au-delà de ce triangle. Parmi ces facteurs, trois ont une importance particulière: les politiques et le processus qui leur donne lieu (la politique); la finance, les marchés et la disponibilité des ressources (l’économie); et la scolarisation et la formation des individus à des compétences générales telles que l’alphabétisation et l’utilisation des TIC (l’éducation). En ajoutant ces trois catégories, nous nous retrouvons avec six facteurs ou groupes de facteurs pouvant être considérés comme essentiels dans le processus de localisation:

image Politique: mesures politiques, processus de prise de décision et intérêts à considérer dans ces processus, environnement juridique et licences d’exploitation;

image Linguistique: situation linguistique dans le pays ou la région et aspects de chaque langue, nombre et distribution des langues parlées, nombre de locuteurs, existence ou non d’une orthographe normalisée pour chaque langue et existence ou non de divers dialectes appartenant à ces langues;

image Économique: niveaux de vie, ressources disponibles pour différentes sortes d’activités, investissements publics, sociaux et philanthropiques, niveaux de revenus individuels et familiaux;

image Technologique: infrastructures électriques et de communication, présence d’ordinateurs (et types de systèmes d’exploitation), connectivité à Internet, variations de ces éléments d’une région à l’autre du pays en question;

image Éducationnel: systèmes d’éducation (formels ou informels), infrastructures scolaires;

image Socioculturel: démographie, tissu social, groupes ethniques, culture(s), attitudes de la population dans son ensemble et des individus en particulier.

SCHÉMA 3.3 Le modèle PLETES

image

Ces six catégories et les liens entre elles font de ce modèle un instrument utile à la compréhension de l’environnement de la localisation. Par commodité, nous l’appellerons « modèle PLETES », selon l’acronyme formé avec la première lettre des six facteurs qui le composent (voir schéma 3.3). Ce modèle n’est pas définitif – il peut exister d’autres façons d’illustrer les mêmes problématiques et les liens entre ces facteurs –, mais il sert au moins de point de départ aux analyses et permet de garder les principaux facteurs à l’esprit au cours de nos réflexions.

Afin de mieux démontrer la portée du modèle PLETES, nous vous présentons une liste de paires de facteurs. Même si certaines de ces combinaisons n’ont pas nécessairement une influence directe sur le processus de localisation, elles déterminent toutes l’environnement de la localisation, notamment en ce qui concerne les projets de localisation et la durabilité potentielle de leurs résultats:

image Facteurs linguistiques et sociaux: sociolinguistique et linguistique appliquée; nombre de langues, répartition des locuteurs, attitudes envers les langues; utilisation de différentes langues dans différentes situations et par différents groupes; langues dans la culture populaire; facteurs sociolinguistiques en tant qu’éléments clés pour comprendre les besoins exprimés et latents en matière d’interfaces et de contenus localisés et accueil des produits de localisation par la population;

image Facteurs linguistiques et éducationnels: taux d’alphabétisation (par langue dans un contexte multilingue); alphabétisation en langue maternelle (parlée) permettant d’évaluer le potentiel immédiat d’utilisation de logiciels localisés; langue(s) d’enseignement dans les systèmes éducatifs formels, ce qui aura un impact sur les taux d’alphabétisation dans ces langues ainsi que sur le développement des langues;

image Facteurs linguistiques et politiques: politiques et aménagement linguistique, de la législation à l’application, orientations officielles en ce qui a trait à la localisation et à des sujets tels que la normalisation de l’orthographe et le soutien des gouvernements en faveur de la documentation, des périodiques et autres médias produisant des ressources pouvant servir au processus de localisation;

image Facteurs linguistiques et technologiques: aspects technologiques favorisant l’utilisation des langues, comme Unicode, les configurations de claviers, les possibilités de localisation de logiciels et les applications avancées; façon dont les langues, notamment la terminologie, soutiennent ces technologies; aspect traductionnel de la localisation; linguistique informatique;

image Facteurs linguistiques et économiques: ressources pour les travaux linguistiques (documentation, constitution de corpus et terminologie); aspects économiques de la localisation;

image Facteurs socioculturels et éducationnels: taux de fréquentation scolaire et d’achèvement; détermination du profil des gens instruits; nombre de personnes possédant des compétences dans certains domaines permettant de savoir quelle proportion de la population pourrait bénéficier des logiciels localisés;

image Facteurs socioculturels et politiques: identification des décideurs; nature des intérêts (ce qui peut être important pour comprendre les orientations officielles en matière de localisation et dans des domaines tels que la politique linguistique et pour proposer des démarches en ce même sens);

image Facteurs socioculturels et technologiques: identification des personnes ayant un accès à ces technologies et le droit de les utiliser; impact des technologies sur la culture et la société;

image Facteurs socioculturels et économiques: problèmes socioéconomiques fondamentaux et généralement persistants, notamment les origines du fossé analogique qui accompagne ou conditionne souvent le fossé numérique;

image Facteurs éducationnels et politiques: politiques en matière d’éducation;

image Facteurs éducationnels et technologiques: enseignement des technologies; technologies dans le secteur de l’éducation; efforts mis en œuvre pour installer des ordinateurs dans les écoles ou distribuer des ordinateurs portables aux enfants (exemples pour lesquels ces facteurs sont un moteur essentiel);

image Facteurs éducationnels et économiques: investissements dans l’éducation; budgets (pour les écoles, la formation des enseignants, la mise au point de matériel pédagogique et les manuels destinés aux élèves);

image Facteurs technologiques et politiques: politiques et aménagement des TIC, notamment les plans nationaux de développement de l’infrastructure d’information et de communication; problèmes liés à l’octroi de licences de logiciels et à la propriété intellectuelle;

image Facteurs économiques et politiques: politique économique, notamment en matière de développement, de budgétisation et de respect des priorités des bailleurs de fonds;

image Facteurs économiques et technologiques: aspects économiques des TIC, notamment les problèmes tels que les ressources relatives disponibles pour l’investissement dans les TIC, l’intérêt des stratégies d’externalisation et la commercialisation de logiciels localisés.

En réalité, bien sûr, de nombreux facteurs entrent en ligne de compte. Ainsi, les facteurs sociolinguistiques et techniques contribuent à l’idée très répandue selon laquelle les TIC ne peuvent être utilisées qu’en LEGD et dans des langues étrangères. En privilégiant les langues officielles (LEGD) au détriment des langues maternelles, le système éducatif peut conforter cette idée. Les politiques concernant les langues d’enseignement dans les écoles et les politiques linguistiques imposent souvent de telles démarches. Par ailleurs, les facteurs économiques (notamment les autres priorités en matière de développement, les réalités budgétaires, la pénurie d’enseignants qualifiés et les coûts de matériels) limitent souvent les ressources pouvant être allouées à l’enseignement en langue maternelle. Le niveau d’alphabétisation en langue maternelle peut donc être un facteur de la demande manifeste de logiciels localisés.

Le lien entre la répartition des locuteurs de différentes langues dans un pays ou une région et l’accès aux ordinateurs et la connectivité constitue un autre exemple (les facteurs linguistiques, technologiques, sociétaux, politiques et économiques ont ici un rôle à jouer). Cet aspect est important lorsqu’on prévoit de commercialiser des logiciels localisés.

Un autre exemple, concernant cette fois la localisation de logiciels libres, est la façon dont l’économie et la politique, de même que la qualité des traductions, ont un impact sur la concurrence actuelle ou potentielle entre les propriétaires de logiciels.

Tout travail de localisation ne prend pas forcément en compte de manière active l’ensemble de ces facteurs ni ne doit nécessairement s’en préoccuper, mais ils font partie de l’environnement dans lequel s’effectue cette localisation. À petite échelle, il est tout à fait possible que des individus ou des groupes motivés possédant les compétences nécessaires et un minimum de ressources puissent commencer et même achever la traduction de certains logiciels sans prendre ces facteurs en considération. Toutefois, lorsque les objectifs deviennent plus ambitieux et qu’on souhaite obtenir des résultats durables, l’environnement de la localisation acquiert une importance accrue et il devient nécessaire de le considérer avec méthode.

COMPLEXES DYNAMIQUES DE L’ÉCOLOGIE DE LA LOCALISATION

Afin de trouver un sens à cette longue série d’interconnexions, qui devient encore plus compliquée lorsqu’on prend en compte de multiples facteurs, il est utile de souligner plusieurs liens ou complexes clés du système. Ceux-ci comprennent notamment les rapports entre les langues, la technologie et la société; les points communs ou non entre les politiques linguistiques et les politiques en matière de TIC; et les facteurs de localisation durable.

Les relations entre les facteurs linguistiques, technologiques et socioculturels

Les liens entre les facteurs linguistiques, technologiques et socioculturels sont illustrés dans le triangle représenté par le schéma 3.2, qui fait lui-même partie du modèle PLETES (schéma 3.4). Si on peut ignorer certains facteurs, ce triangle représente les principales dynamiques de la localisation: la sociolinguistique (les langues que les individus parlent et la façon dont ils les parlent), les liens entre les langues et les technologies et entre les individus et ces dernières. D’un côté, la localisation en tant que traduction (technologie langagière) nécessite d’accorder une attention particulière aux dimensions culturelles de la communication et, de l’autre, les technologies de l’information et de la communication sont conçues et localisées pour les individus (et mêlent donc les aspects linguistiques, technologiques et socioculturels). La mise au point de configurations de clavier, par exemple, ne consiste pas seulement à trouver une façon de faciliter la saisie des caractères d’une langue donnée. Elle nécessite également de prendre en compte les attentes des utilisateurs et les pratiques existantes7.

SCHÉMA 3.4 Les trois facteurs essentiels de la localisation dans le modèle PLETES

image

7. Les publicités qui font la promotion du clavier Konyin, par exemple, annoncent: « Ne changez pas votre façon de taper ! Aucun code obscur à apprendre ! Aucune formation nécessaire ! ». La marque reconnaît ainsi l’importance de ce facteur socioculturel.

SCHÉMA 3.5: Linguistique appliquée, aspect traductionnel de la localisation et usages sociaux des TIC (de gauche à droite)

image

La plupart des initiatives de localisation se préoccupent principalement, au moins au début, du processus technique, de la localisation à des fins linguistiques et culturelles et des utilisateurs finaux.

Linguistique appliquée, aspect traductionnel de la localisation et usages sociaux des technologies

Une autre façon de voir les dynamiques essentielles illustrées par le schéma 4 consiste à les considérer comme trois dynamiques ou spécialisations agissant indépendamment les unes des autres: la linguistique appliquée et la sociolinguistique, l’aspect traductionnel de la localisation et les utilisations sociales des technologies. Chacune de ces dynamiques est représentée dans le schéma 3.5. La localisation rassemble en effet ces trois aspects.

Politiques linguistiques et politiques en matière de TIC

Le modèle PLETES peut également servir à illustrer deux dynamiques d’intervention essentielles concernant la localisation. Les politiques, notamment les orientations en matière de TIC des gouvernements et des bailleurs de fonds et les politiques linguistiques des gouvernements, peuvent avoir des conséquences sur les principaux aspects qui intéressent les localisateurs. Les politiques linguistiques concernent surtout les stratégies politiques, les questions socioculturelles et, bien sûr, les langues. D’autres facteurs entrent probablement en ligne de compte, mais ces trois-là semblent être les principaux. On peut avancer que les politiques technologiques s’intéressent aux questions économiques concernant les investissements nécessaires et les résultats escomptés. Citons comme exemple les efforts déployés pour augmenter la connectivité grâce à des projets comme l’initiative Leland (financée par l’USAID), qui s’est attaquée au problème technique de l’expansion de la bande passante dans certains pays d’Afrique tout en gardant à l’esprit les réglementations régissant l’utilisation de cette bande passante (c’est-à-dire les aspects politiques et économiques). Ici aussi, d’autres facteurs doivent être pris en considération, mais dans une moindre mesure. Ces deux dynamiques d’intervention sont représentées par les modèles PLETES du schéma 3.6.

Si l’on considère que cette illustration des principales dynamiques en jeu représente les priorités en matière d’élaboration des politiques en matière de TIC, d’une part, et des politiques linguistiques, d’autre part, il semble y avoir peu de points communs entre les deux.

Le travail de localisation semble n’être en réalité intégré à aucun de ces deux principaux domaines d’intervention. Cela démontre peut-être qu’il est nécessaire de mieux associer les politiques linguistiques et les politiques en matière de TIC, dans le cadre de « politiques de localisation », par exemple, de façon à mettre l’accent sur les liens manquants des deux côtés.

Cette disjonction apparente entre les principaux facteurs intervenant dans les deux types de politiques et les processus et motifs inhérents à leur formulation semble laisser aux localisateurs une bonne marge de liberté dans leur activité et leur offrir peu de soutien.

SCHÉMA 3.6 Comparaison entre les principaux facteurs d’intérêt pour les politiques linguistiques (gauche) et en matière de TIC (droite)

image

Dynamiques des projets relatifs au fossé numérique

Les efforts réalisés pour élargir l’accès aux TIC semblent s’être d’abord concentrés sur la dimension technologique et socioculturelle (installation d’ordinateurs et de connexions dans les communautés), mais ils se sont vite intéressés à d’autres aspects politiques (réglementations et liens avec d’autres priorités nationales), économiques (coûts) et éducationnels (formations, souvent en lien avec les écoles) (voir schéma 3.7). Ces efforts vont donc souvent bien au-delà des premières préoccupations des politiques en matière de TIC. Toutefois, dans la mesure où les langues ne sont pas intégrées à leurs modèles – et de nombreux projets ne se préoccupent pas activement de ces problèmes –, ils ne comportent aucun élément commun avec les intérêts premiers de la localisation ou des politiques linguistiques.

Dynamiques de localisation durable

La notion d’écologie de la localisation permet également de prendre en considération l’importante question de la durabilité de la localisation, qui se divise en deux phases plus ou moins consécutives. La première partie de cette durabilité peut être désignée par le terme « exécution » (à savoir, l’accomplissement d’une série de projets comme la traduction d’un logiciel) et la deuxième par « activités consécutives » (c’est-à-dire la commercialisation du logiciel localisé, son implantation dans le secteur et la prise en compte des réactions et des suggestions des utilisateurs). L’exécution exige d’être attentif non seulement aux dimensions techniques et linguistiques, mais également à d’autres facteurs, dont le plus important est peut-être l’aspect financier (s’assurer que l’on dispose d’un apport de ressources suffisant pour maintenir l’effort initial lorsque l’enthousiasme des débuts est confronté à divers obstacles). Les activités consécutives concernent en principe des aspects comme la communication et le marketing, les compétences des utilisateurs et même les politiques des pouvoirs publics. Le schéma 3.8 montre les rapports entre les différents facteurs nécessaires pour une localisation durable, y compris ceux qui sont à la base de tout processus de localisation: l’exécution d’un projet de localisation (en ajoutant la dimension économique) et les activités consécutives, qui peuvent impliquer toutes les dimensions.

SCHÉMA 3.7 Projets relatifs au fossé numérique: des dynamiques fondamentales aux dynamiques plus complexes, à l’exclusion des langues

image

SCHÉMA 3.8 Localisation, exécution et activités consécutives

image

Localisation – Exécution –Activités consécutives

De ce point de vue, il semblerait que les initiatives de localisation doivent être prêtes à intégrer diverses compétences communes aux organisations non gouvernementales ou de la société civile afin de garantir une production et des résultats durables.

UTILITÉ POUR LES TIC ET LA LOCALISATION

Le schéma de l’écologie de la localisation rassemble des problèmes tels que ceux que nous avons abordés précédemment dans un système complexe qui influe sur les possibilités et les orientations des travaux de localisation. La notion telle qu’illustrée par le modèle PLETES est une abstraction, mais elle peut permettre d’organiser des efforts de localisation durables sur le long terme. Autrement dit, ce modèle sert de moyen mnémonique pour garder à l’esprit tous les aspects du processus, anticiper les problèmes pouvant survenir et identifier les facteurs qui peuvent être importants et dont on peut tirer parti.

Écologie et processus de localisation

Une fois que l’on a bien compris que de nombreux facteurs influencent la localisation, en tant que technique ou en tant que projet, il faut savoir comment utiliser cette connaissance. Ce modèle et l’ensemble du contenu de cet ouvrage peuvent servir à rédiger des matériels didactiques et organiser des ateliers de formation pour permettre aux groupes de localisation de se préparer aux différents facteurs, aux influences et aux forces pouvant affecter la réussite à long terme de leurs efforts.

L’écologie de la localisation peut également permettre d’imaginer les conséquences de la localisation et la façon dont la localisation d’un logiciel dans une langue donnée influe sur les rapports entre les autres facteurs entrant en ligne de compte.

L’écologie de la localisation et le fossé numérique

La localisation et l’objectif plus général consistant à combler le fossé numérique, qui en est, selon nous, un élément indissociable, partagent plusieurs facteurs. Ce n’est pas la première fois que la question du fossé numérique est abordée sous l’angle des différents facteurs qui y contribuent, mais il semble utile d’appliquer à cette analyse un modèle écologique explicite incluant l’aspect linguistique. Le problème de toute étude sur le fossé numérique est, entre autres, que l’on ne tient pas suffisamment compte de la langue comme facteur d’accès, bien qu’elle représente la pierre angulaire de toute communication et de toute codification du savoir.

Il serait intéressant d’examiner plus en profondeur la question de la localisation lorsqu’on traite du fossé numérique et des efforts visant à le combler. Le concept d’écologie de la localisation et son illustration dans le modèle PLETES pourraient permettre d’y parvenir.

Les chapitres suivants s’attarderont sur certains de ces facteurs et leurs interactions. Dans les trois prochains chapitres, nous analyserons la situation linguistique et sociolinguistique, puis nous nous pencherons sur le contexte technique de la localisation, à savoir l’accès physique et l’internationalisation.

4
Contexte linguistique

LE PROFIL LINGUISTIQUE de l’Afrique est très complexe si l’on en juge par la répartition des locuteurs des nombreuses langues africaines, les tendances sociolinguistiques actuelles, l’attitude des groupes sociaux envers l’usage de plusieurs langues, l’impact des politiques en matière de langues et d’éducation sur l’utilisation des langues africaines et les changements qu’elles subissent et l’adaptation des langues à de nouveaux facteurs. En d’autres termes, cette complexité est due à des facteurs sociolinguistiques, à des orientations politiques, à la géographie des langues et à la culture contemporaine. Pour ce qui est des langues prises isolément, d’autres aspects essentiels interviennent, comme les variations dialectales, le degré d’intercompréhension entre des langues voisines, le ou les systèmes d’écriture utilisés et l’orthographe ainsi que la constitution de la terminologie.

Ces questions sont analysées plus en détail dans plusieurs études linguistiques sur les langues africaines, notamment celles de Childs (2003), Heine et Nurse (2000) et Webb et Kembo-Sure (1998). Ce chapitre cherche à décrire dans les grandes lignes les principaux éléments de l’environnement linguistique de la localisation en langues africaines en s’attardant sur la façon dont ces éléments influencent le processus de localisation.

LANGUES, DIALECTES ET GÉOGRAPHIE LINGUISTIQUE

La plupart des publications décrivant les langues africaines commencent par énumérer les quatre familles de langues autochtones du continent: les langues afro-asiatiques (anciennement appelées langues chamito-sémitiques), nigéro-kordofaniennes (dont les langues nigérocongolaises sont, de loin, le groupe le plus répandu), nilo-sahariennes et khoïsanes (ou langues à clics)1. Cependant, la taxonomie linguistique des langues africaines (et les liens de parenté entre elles) ne peut être utile à la traduction et la localisation qu’aux niveaux les plus bas de l’arbre taxonomique, là où l’intercompréhension devient problématique (ou lorsque des structures syntaxiques similaires permettent une éventuelle traduction automatique).

À travers le vaste territoire africain, les langues et les sous-familles linguistiques s’entrecroisent. Les territoires des locuteurs de différentes langues se chevauchent et les différences dialectales entre de nombreuses langues sont plus ou moins progressives. Par ailleurs, on trouve également en Afrique des langues provenant des familles malayo-polynésienne (le malgache) et indo-européenne (l’afrikaans).

Dans de nombreuses régions, la combinaison de ces facteurs crée un mélange complexe de langues, qui sont plus intriquées dans certaines parties du continent, comme les régions boisées de la côte ouest de l’Afrique et d’Afrique Centrale (par exemple, selon Ethnologue [Gordon 2005], le Nigeria compte plus de 400 langues, le Cameroun plus de 280 et la République démocratique du Congo plus de 200), et le sont moins dans les régions semi-arides comme le Sahel. Sur les grandes zones de territoires où l’on parle l’arabe, les langues berbères (comme le tamazight et le tamacheq), le peul et le swahili, ces langues ont connu des variations dialectales et vernaculaires. À l’époque précoloniale et, à des degrés variables, encore aujourd’hui, la communication entre les différents groupes était facilitée soit par l’intercompréhensibilité entre les dialectes similaires, soit par le recours à des langues locales de grande diffusion comme langues véhiculaires.

La colonisation européenne, qui a imposé des frontières arbitraires et divisé ainsi de nombreuses communautés linguistiques tout en rassemblant des groupes de langues différentes, a également introduit plusieurs LEGD comme langues administratives (notamment l’anglais, le français et le portugais)2. Celles-ci ont, de bien des façons, complexifié encore davantage le paysage linguistique africain. Tout d’abord, les LEGD ont endossé le rôle de langue véhiculaire à des fins officielles, mais également à des fins de contacts et d’échanges avec d’autres pays du continent et avec le reste du monde. Elles permettaient souvent aussi de distinguer l’élite du commun des mortels ou, du moins, témoignaient d’un statut social élevé (voir Mazrui et Mazrui 1998; Myers-Scotton 1990, 1993). Dans une certaine mesure, ces langues sont également devenues, au fil des ans, des langues véhiculaires dans certaines régions et villes. Les membres de l’élite les ont parfois même adoptées au sein de leur foyer. Par ailleurs, des créoles issus de LEGD se sont établis soit comme langues véhiculaires (comme le krio au Sierra Léone), soit comme langues mater-nelles (comme les créoles du Cap-Vert et de plusieurs îles de l’Océan Indien).

1. L’ouvrage de référence sur les familles de langues africaines, bien que critiqué, est celui de Joseph Greenberg (1970).

2. L’usage de l’allemand et de l’italien a pour ainsi dire disparu là où ces langues avaient été introduites. Quant à l’espagnol, il a été conservé en Guinée Équatoriale, mais il n’est plus d’usage officiel dans le Sahara occidental.

LANGUES, DIALECTES ET MACROLANGUES

La situation linguistique complexe de l’Afrique soulève des questions sur les « frontières » entre les langues et sur la définition même des langues et des dialectes. La distinction entre les deux a toujours fait l’objet de controverse dans le domaine de la linguistique, où s’opposent, d’un côté, les « séparatistes » (splitters), qui tendent à souligner les différences entre les langues, et, de l’autre, les « unionistes » (joiners), qui en privilégient les points communs.

Les chercheurs de SIL International qui ont recensé dans Ethnologue l’ensemble des langues du monde (Gordon 2005) peuvent à juste titre être qualifiés de séparatistes. Dans les pages de description des langues du wiki, Ethnologue propose souvent plusieurs entrées pour les variantes d’une même langue qui font l’objet d’une seule entrée dans les listes sur lesquelles nous nous basons pour notre étude de la localisation. Selon Ethnologue, l’Afrique compte 2 092 langues (Gordon 2005).

À l’inverse, le Centre d’études avancées sur les sociétés africaines (Center for Advanced Study of African Society, CASAS) peut être considéré comme unioniste. Les chercheurs de ce centre, qui ont étudié des groupes de langues, sont arrivés à la conclusion que, dans les faits, l’Afrique compte beaucoup moins de langues distinctes que ce que l’on affirme généralement. Le directeur du CASAS, Kwesi Kwaa Prah (2002, 2003), suggère qu’entre 75 et 85 pour cent des Africains parlent entre 12 et 15 « langues principales » comme langue maternelle ou seconde (L1 ou L2) et que celles-ci sont en fait des groupes de langues plus ou moins liées.

Même les séparatistes reconnaissent qu’il peut y avoir certains degrés d’intercompréhension entre différentes langues et que les locuteurs de langues voisines peuvent même parfois avoir une certaine notion des ressemblances fondamentales qui les unissent. Dans de telles situations, SIL International emploie le terme de « macrolangues »3.

La terminologie, ancienne et nouvelle – comme, par exemple, les termes « faisceau de langues » (langues proches, mais peu intercompréhensibles; language cluster, en anglais), « continuum dialectal » (variation linguistique sur un territoire donné qui rend la communication de plus en plus difficile avec la distance) et « nivellement dialectal » (diminution des différences entre des dialectes ou des langues proches en raison de facteurs tels que l’augmentation des contacts ou des mariages entre leurs locuteurs et l’utilisation de la langue dans les médias) – reflète la complexité de la situation.

Ainsi, dans certains cas (vraisemblablement nombreux), les localisateurs doivent prendre en compte plusieurs paramètres dans leurs décisions concernant la localisation. Par exemple, le peul, dont font partie le fulfulde, le pular et le pulaar4 et qui est parlé dans une grande partie de l’Afrique de l’Ouest, mais par une minorité de la population de chaque pays où il est présent, comporte plusieurs variantes clairement différentes, mais dont les similitudes sont suffisantes pour que les locuteurs de la plupart des variantes puissent se comprendre. Les localisateurs doivent donc décider, par exemple, si les logiciels doivent être localisés dans une seule langue, dans les neuf langues qui, selon Ethnologue, composent ce groupe ou dans certains groupes de variantes très proches. Ils doivent également choisir s’ils utiliseront la même démarche pour localiser des contenus en peul que pour les logiciels ou bien s’ils appliqueront d’autres critères. Enfin, il faut décider, lors de l’élaboration de la terminologie, d’utiliser ou non des formes susceptibles d’être comprises par les locuteurs de toutes les variétés de peul5.

3. Les macrolangues, que les « unionistes » peuvent parfois appeler simplement « langues », mais qui, dans d’autres cas, s’apparentent aux groupes de langues, constituent une catégorie qui est apparue lors du processus d’harmonisation des différentes parties de la norme ISO 639, qui définit les codes de représentation des langues.

4. Le pular est une langue peule parlée en Guinée et dans les régions voisines. Quant au pulaar, il est parlé en Sénégambie et dans les environs.

Le cas de l’arabe mérite également qu’on s’y attarde, car Ethnologue relève 16 variantes différentes seulement pour l’Afrique du Nord et de l’Est et le nombre total d’entrées est de 40. Ici, la différence est qu’il existe déjà une forme commune normalisée – l’arabe standard moderne – contrairement à ce que l’on peut observer pour de nombreuses autres langues africaines.

Des langues très proches linguistiquement peuvent également être parlées par différents groupes qui accordent une place importante à leurs différences culturelles (comme c’est le cas pour les locuteurs du teso et du turkana, qui sont des langues largement intercompréhensibles).

Nous approfondirons ce sujet lorsque nous aborderons le système de codes utilisés dans les TIC pour désigner des langues ou des groupes de langues spécifiques (voir chapitre 9).

Géographie linguistique et localisation

Le chevauchement des différentes zones linguistiques et les frontières héritées du partage colonial de l’Afrique, qui ont divisé encore davantage les communautés linguistiques, ont compliqué la répartition déjà complexe des locuteurs de certaines langues. Le découpage imposé par les pouvoirs coloniaux a, dans de nombreux cas, conduit à des changements additionnels et à certaines divergences au sein des langues en raison de l’influence de différentes LEGD. On peut citer comme exemples le wolof du Sénégal et de la Gambie, le haoussa du Nigeria et du Niger et le tsonga du Mozambique et de l’Afrique du Sud.

On a évoqué pendant des années la possibilité d’élaborer un atlas linguistique de l’Afrique qui illustrerait la répartition des langues parlées sur le continent, avec davantage de détails et une plus grande exactitude que les cartographies précédentes. L’Académie africaine des langues (ACALAN) a récemment mis sur pied un tel projet (Alexander 2008; Afrik.com 2008) et des études ont également été menées à l’échelle nationale, notamment en Afrique du Sud (Van der Merwe et Van der Merwe 2003). De tels projets d’atlas linguistiques pourraient être intégrés à des travaux plus larges de localisation, premièrement pour expliquer les différentes utilisations potentielles des logiciels localisés et des normes de claviers et, deuxièmement, pour comparer la répartition des langues et les différences d’accès aux ordinateurs et à Internet.

5. Le peul dispose d’un vocabulaire riche, basé sur des racines verbales, qui comprend de nombreux synonymes, lesquels ne sont pas tous utilisés de la même façon ni avec la même fréquence par tous les locuteurs. Par ailleurs, certaines formes sont parfois utilisées dans certains lieux en plus des formes plus usitées (le système numéral au Mali en est un exemple, tout comme les pronoms en pular guinéen). Ce genre de situation devrait peut-être être pris en compte dans l’élaboration d’une terminologie.

SOCIOLINGUISTIQUE ET ÉVOLUTION DES LANGUES

Les sociétés africaines sont généralement multilingues et de nombreux individus apprennent plusieurs langues qu’ils maîtrisent plus ou moins et qu’ils utilisent dans différents contextes ou qu’ils mélangent selon le processus que les linguistes appellent l’alternance des codes. Ces sociétés assistent à d’importants changements dans la façon dont leurs citoyens utilisent les langues: modification des langues parlées en milieu urbain, nivellement dialectal6, appauvrissement des langues les moins usitées7, danger de disparition et extinction. Il n’est pas exagéré de dire que la linguistique africaine subit de profonds changements, qui prennent parfois des directions opposées8.

Les attitudes envers les langues et la perception qu’en ont les Africains et les étrangers travaillant dans le domaine du développement et de l’éducation en Afrique jouent un rôle très important. Il n’est pas rare d’observer des attitudes négatives à l’égard des langues africaines, allant de l’idée qu’elles ne sont utiles qu’en tant que « langues locales », contrairement aux LEGD, aux doutes quant à leur capacité à exprimer des réflexions complexes et des concepts scientifiques. De nombreux Africains sont malgré tout résolus à utiliser et développer leur langue mater-nelle (voir les commentaires à ce sujet dans la partie sur la terminologie, au chapitre 6).

6. Atténuation des différences entre des dialectes en raison de facteurs tels que les mariages, les mouvements de population et les médias.

7. Phénomène qui se caractérise par le fait que les locuteurs ne maîtri-sent pas complètement la langue et, dans des cas extrêmes, qu’aucun locuteur ou groupe de locuteurs ne maîtrise la langue dans son intégralité.

8. Parmi les récents ouvrages concernant les évolutions linguistiques en Afrique contemporaine, on peut notamment citer celui de Batibo (2005).

Dans toute société complexe, de telles divergences d’opinions sont inévitables, et il serait utopique de pense qu’il puisse en être autrement des langues9. Il existe certainement un intérêt important (et peut-être latent) pour les logiciels et contenus localisés chez un certain nombre de personnes, mais cela n’a, à notre connaissance, fait l’objet d’aucun sondage.

Ces attitudes négatives pourraient décourager ceux qui cherchent à utiliser les langues africaines, notamment dans des projets de localisation10. Cela ne signifie pas qu’il faille convaincre les personnes qui ne sont pas intéressées par les logiciels et contenus localisés. Néanmoins, de telles attitudes freinent les progrès dont pourraient bénéficier des utilisateurs potentiels qui s’intéressent aux résultats des travaux de localisation.

La notion selon laquelle le recours à une langue donnée exclut l’utilisation d’une autre a une incidence négative sur le potentiel de localisation, tout comme l’idée que si un logiciel ou certains contenus web sont fournis dans une langue plus répandue, il est peu ou pas nécessaire d’offrir les mêmes services dans d’autres langues11.

Ce genre d’attitude souligne l’importance de l’éducation dans les efforts de localisation.

La situation et l’avenir de nombreuses langues africaines moins répandues font également l’objet de préoccupations. Nombre de ces langues sont considérées comme menacées de disparition12.

De nombreuses autres langues africaines moins répandues sont également en déclin et s’appauvrissent à divers degrés, mais elles sont cependant loin de disparaître13. Dans tous les cas que nous avons mentionnés, la localisation peut, entre autres avantages, permettre de revitaliser les langues.

9. Bernard (1996) fait mention de cette diversité d’opinions dans une étude visant à déterminer si les linguistes devraient chercher à préserver les langues indigènes.

10. L’auteur a relevé dans au moins deux sources l’opinion selon laquelle, au Ghana, la demande d’interfaces ou de logiciels en langue indigène n’était pas très élevée. L’idée que la distribution d’interfaces ou les travaux de localisation en différentes langues doivent être précédés par une demande massive et manifeste ignore l’existence d’une demande latente.

11. L’auteur a observé cette attitude chez certains professionnels du développement.

12. Le Livre rouge des langues en danger de disparition de l’UNESCO dresse la liste de plus de 180 langues d’Afrique qui sont considérées comme menacées (http://www.tooyoo.l.u-tokyo.ac.jp/Redbook/Africa/AF_index.cgi, consulté en juillet 2009). La situation des langues africaines qui s’appauvrissent et sont menacées de disparition fait l’objet d’une étude de Batibo (2005).

TRADITIONS ORALES ET ÉCRITES

On affirme communément que l’Afrique est une région à tradition orale plutôt que littéraire et écrite, à l’exception des langues arabe et berbère en Afrique du Nord et des langues de la Corne de l’Afrique qui utilisent un alphabet provenant du guèze. Bien que cette généralisation soit en partie vraie, elle oublie de prendre en compte l’usage répandu de symboles à des fins diverses (Mafundikwa 2004) et l’adaptation, il y a plusieurs siècles, de l’alphabet arabe pour écrire de nombreuses langues parlées dans des régions où l’islam a une place importante (notamment au Sahel et pour le swahili). Au cours du siècle dernier, l’écriture des langues africaines, principalement avec des caractères basés sur l’alphabet latin ailleurs qu’en Afrique du Nord et dans la Corne de l’Afrique, est devenue une pratique plus courante, même si les traditions orales n’en demeurent pas moins vivantes.

Traditions orales

La tradition orale n’implique pas nécessairement l’absence de tradition écrite. Alors que la tradition orale présente des limites évidentes en ce qui concerne la sauvegarde du savoir et la transmission d’informations dans le temps, elle fait appel à des moyens de mémorisation et d’expression très impressionnants.

Bien que les TIC privilégient l’usage du texte, il vaut la peine de réfléchir à des manières de mieux exploiter les capacités audio de ces technologies afin de les adapter au développement des traditions orales. Les organisations nationales et les institutions régionales africaines qui travaillent à la collecte et à la préservation des traditions orales (voir plus loin l’examen des politiques linguistiques) pourraient collaborer aux efforts visant à associer de manière plus efficace les traditions orales et les TIC.

13. Il a par exemple été dit que l’igbo, une langue nigériane parlée par au moins 18 millions de locuteurs, était menacé de disparition en raison de certaines impressions concernant la façon dont cette langue est utilisée et transmise ou non. Voir Daily Champion, Igbo: Endangered language (éditorial), 20 décembre 2004, (http://allafrica.com/stories/200412201271.html, consulté en décembre 2004) et Lotanna AA (2005) Revitalising the Igbo language, Daily Champion, 28 novembre 2005 (http://allafrica.com/stories/200511280234.html, consulté en décembre 2005). Ces références donnent une définition trop large de la menace de disparition, mais elles illustrent l’intérêt et les préoccupations de nombreux locuteurs de l’igbo.

L’écriture des langues africaines

Les systèmes d’écriture des langues africaines peuvent être classés en trois grandes catégories:

image Anciens systèmes d’écriture ayant évolué avec une langue ou une famille de langues. L’arabe, l’alphasyllabaire éthiopien/guèze et le tifinagh en sont des exemples encore utilisés aujourd’hui.

image Systèmes d’écriture inventés au cours des deux derniers siècles, c’est-à-dire relativement récemment. Certains sont encore utilisés (comme le n’ko, le kikakui, le vaï et le mandombe), tandis que d’autres ont disparu14.

image Adaptation d’un autre alphabet. L’exemple précolonial le plus répandu était l’utilisation des caractères arabes par les musul-mans érudits pour écrire des langues africaines autres que l’arabe. Mais l’alphabet latin, introduit par les Européens lors de la colonisation, est sans aucun doute le plus répandu aujourd’hui.

L’adaptation de systèmes d’écriture aux langues africaines

L’adaptation d’un système d’écriture d’une langue ou d’une famille de langues à une autre, que celle-ci ait déjà été écrite ou non, nécessite fréquemment de modifier le système en question pour l’ajuster à la phonétique souvent très différente de la ou des nouvelles langues. Dans le cas de l’arabe, par exemple, certains habitants d’Afrique subsaharienne ont ajouté des caractères modifiés pour répondre aux besoins de leur langue, comme l’ont fait des locuteurs non arabes en Asie. L’alphabet latin a connu le même sort dans son adaptation à certaines langues africaines. De nouveaux caractères ont également été ajoutés à l’alphasyllabaire éthiopien, ou guèze, pour qu’il puisse être appliqué à certaines langues minoritaires.

14. Certaines personnes créent et proposent encore de nouveaux alphabets pour une ou plusieurs langues africaines (voir, à titre d’exemple: Secka 2005; Agence de Presse Sénégalaise 2005).

En raison du grand nombre de langues africaines, de la façon dont le continent a été divisé au moment de la colonisation et de la diversité des groupes (souvent missionnaires) qui ont participé à l’adaptation écrite des langues africaines, la question de la normalisation s’est vite posée.1535 Les efforts de l’Institut international des langues et cultures africaines, (International Institute of African Languages and Cultures, IIALC 1930) visant à normaliser l’utilisation de l’alphabet latin à l’échelle du continent en sont un bon exemple. Après l’indépendance, une série de réunions d’experts financées par l’UNESCO ont été organisées pour discuter de la normalisation et de l’harmonisation des orthographes des langues africaines16. Des projets similaires ont été menés au niveau régional aux quatre coins du continent. Dans l’ensemble, ces efforts, qui se poursuivent encore aujourd’hui, ont réussi à guider les organisations nationales qui ont fixé l’orthographe des langues parlées dans leur pays.

La normalisation de l’utilisation de l’alphabet arabe n’a pas reçu une telle attention, même si l’Organisation islamique pour l’Éducation, les Sciences et la Culture (ISESCO) a financé le développement d’un ensemble de nouveaux caractères normalisés pour plusieurs langues d’Afrique subsaharienne (voir Chtatou 1992). Cette initiative reposait dans une certaine mesure sur l’utilisation de ces caractères dans des langues non arabes du Moyen-Orient et n’a pas été largement acceptée par les locuteurs des langues africaines visées17.

15. L’histoire de l’adaptation des alphabets latin et arabe aux langues africaines a été étudiée dans certains cas, mais dans une faible mesure et pas pour toutes les langues africaines. L’analyse des codes orthographiques du haoussa par Philips (2000) fait exception. Sadembouo (1991) mentionne l’impact de plusieurs groupes de missionnaires sur l’orthographe des langues beti.

16. Une liste de plusieurs de ces conférences et d’autres réunions concernant d’autres aspects des politiques linguistiques en Afrique est disponible en ligne à l’adresse suivante: http://www.bisharat.net/Documents/(consulté en juillet 2009).

17. Plusieurs experts s’intéressent à de nouvelles recherches sur le sujet (Fallou Ngom, communication personnelle, 2006).

La situation actuelle

Plusieurs facteurs sont à prendre en compte lorsqu’on aborde le thème de l’orthographe des langues africaines:

image Alors que l’orthographe semble relativement fixe pour certaines grandes langues, pour d’autres, elle semble encore en évolution.

image Les récents changements orthographiques réalisés dans certaines langues sont dus, entre autres, à l’incompatibilité entre les polices de caractères proposées par les premiers systèmes informatiques (et même par les systèmes actuels) et les caractères ou signes diacritiques adoptés pour l’imprimerie et l’écriture18.

image Dans certains cas, une même langue utilise des systèmes d’écriture différents, ce qui donne souvent lieu à une concurrence, voire des conflits, entre leurs défenseurs respectifs. C’est le cas de langues ayant des traditions écrites anciennes et de langues qui sont écrites depuis moins longtemps. Les gouvernements ont tendance à ignorer l’utilisation d’alphabets anciens autres que le latin lorsqu’une orthographe basée sur le latin a été adaptée19.

image De nombreuses langues africaines, en particulier celles qui sont moins répandues, n’ont toujours pas de système d’écriture formel.

image Les conventions et les politiques régissant les codes orthographiques sont généralement fixées au niveau national par les gouvernements ou par des chercheurs. La coordination avec d’autres États où les mêmes langues sont parlées reste limitée.

18. Roger Blench (communication personnelle, 2006) remarque, par exemple, que la plupart des codes orthographiques compilés par Kay Williamson (1984) pour plusieurs langues nigérianes ne sont peut-être plus utilisés actuellement.

19. Parmi les exceptions, on compte notamment les billets de banque en naira du Nigeria qui, jusqu’en 2007, affichaient le montant en haoussa écrit en ajami. C’était la seule langue indigène représentée sur la monnaie. Le Nigeria a depuis décidé de passer aux transcriptions latines du haoussa, du yoruba et de l’igbo sur ses pièces et ses billets.

image Plusieurs pays ont tenté d’élaborer une orthographe générale censée satisfaire les besoins de toutes les langues parlées sur leur territoire20.

LES POLITIQUES LINGUISTIQUES ET D’ENSEIGNEMENT DES LANGUES

Les politiques adoptées à l’échelle nationale ou régionale ont des conséquences sur la localisation et sont donc un facteur essentiel de l’écologie de la localisation. Les politiques en matière de TIC sont abordées au chapitre 5, mais nous allons nous attarder ici sur les politiques concernant la langue. Les deux domaines d’action suivants, qui présen-tent certains points communs, nous intéressent particulièrement:

image Les politiques linguistiques et les questions d’aménagement linguistique, notamment:

image Les décisions concernant l’orthographe, qui, comme nous l’avons déjà mentionné, ont un intérêt particulier pour la localisation;

image Les décisions liées à l’utilisation des langues dans le domaine du développement, qui sont à prendre en compte dans l’application de la localisation aux TIC-D21.

image Les politiques en matière d’éducation, avec une attention particulière portée à la question des langues africaines en tant que langues d’enseignement et matières enseignées.

La politique linguistique en Afrique

Par politique linguistique, on entend généralement l’ensemble des instructions et des recommandations juridiques et administratives concernant l’utilisation des langues dans la sphère publique, y compris le statut « officiel » ou « national » de telle ou telle langue, l’utilisation de certaines langues au sein du gouvernement, dans le système juridique et dans le domaine du développement et de l’éducation (dont nous parlerons plus en détail dans ce chapitre) et les normes, notamment l’orthographe officielle (que nous aborderons également dans une section à part)22.

20. Il est intéressant de remarquer que le processus de création d’un alphabet mené au Cameroun a connu un certain succès (Tadadjeu 1993; Tadadjeu et Sadembouo 1984).

21. Ce sujet a été abordé dans une très faible mesure dans la littérature, notamment par Ongarora (2002), Prah (2000), Robinson (1996) et Simala (2002), ainsi que dans la présente étude. Nous considérerons cependant les langues dans le développement comme faisant partie de la question plus large des politiques linguistiques.

Depuis la décolonisation et l’indépendance, la politique linguistique africaine présente deux caractéristiques: premièrement, on constate un recours aux langues des anciens colonisateurs, les LEGD, dans l’administration et l’enseignement, que cela soit ou non régi par la loi ou la Constitution23; deuxièmement, on remarque la tenue de vastes débats sur le rôle des langues autochtones et la façon de les utiliser.

De nombreux gouvernements africains ont souhaité disposer d’une langue commune pour bâtir leur nation, ce qui a favorisé l’usage des LEGD. Selon Bamgbose (1996), cette mentalité se fonde sur « deux mythes complémentaires: le premier étant qu’avoir plusieurs langues dans un même pays (multilinguisme) divise toujours et le deuxième, qu’avoir une seule langue (monolinguisme) est toujours source d’unité » (voir aussi Bamgbose 1991: 14).

Si les débats menés à l’échelle nationale et régionale sur l’utilisation des langues africaines ont donné lieu à beaucoup de propositions, peu d’actions ont réellement été engagées24. On peut peut-être y voir un indice des tensions liées à la valorisation du monolinguisme, comme nous l’avons mentionné, et des attitudes ambivalentes envers la valeur des langues africaines par rapport à celle des LEGD.

22. Halaoui (2001) fait la distinction entre politique linguistique et aménagement linguistique et, en réalité, cette question mériterait une analyse nuancée. Cependant, pour comprendre l’écologie de la localisation, nous pouvons nous contenter de traiter le sujet comme un problème unique, sans pour autant en ignorer la profonde complexité.

23. De nombreux pays africains n’ont pas de langue officielle déterminée par la loi (Gadelli 1999). Ce fait est confirmé par des recherches sur les politiques linguistiques nationales réalisées dans le cadre du projet PAL, qui citent, parmi les sources utilisées, le site de Jacques Leclerc (2005), L’aménagement linguistique dans le monde (http://www.tlfq.ulaval.ca/axl/afrique/afracc.htm, consulté en juillet 2009). Ce n’est pas seulement le cas en Afrique. De nombreux pays du monde (et notamment les États-Unis) n’ont pas trouvé nécessaire de désigner une langue officielle.

24. Le site Internet de l’Académie Africaine des Langues (ACALAN) présente la liste des nombreuses déclarations et plans d’action nés de conférences et de réunions en Afrique qui sont restés lettre morte (http://www.acalan.org/, consulté en juillet 2009).

Dans tous les cas, on peut affirmer que les politiques et aménagements linguistiques en Afrique ont été négligés, à tel point qu’Okombo (2001) décrit ce domaine comme: « une dimension oubliée de la gestion des affaires publiques et du développement » (voir aussi Gadelli 1999). Bamgbose (1991: 6) croit que cela est dû à: « une impression générale que les problèmes linguistiques ne sont pas urgents et que leur résolution peut attendre ». Il décrit ensuite la situation en ces termes:

Les politiques linguistiques des pays africains se caractérisent par un ou plusieurs des problèmes suivants: évitement, imprécision, arbitraire, inconstance et non-application des déclarations (Bamgbose 1991: 111).

Au cours des dernières années, une plus grande attention a été accordée aux politiques linguistiques, car elles ont, par exemple, une influence sur l’éducation (comme nous le verrons plus loin). Ainsi, au niveau régional, l’ACALAN a été créée et, dans l’Afrique du Sud postapartheid, certains problèmes linguistiques font l’objet d’études approfondies.

Il pourrait être intéressant pour les gouvernements de commencer par décider s’ils veulent que les langues parlées dans leur pays soient transmises aux générations futures25. Cette question peut sembler inutilement provocatrice à une époque où la disparition des langues en Afrique et dans le monde entier est un sujet brûlant, mais elle a le mérite de souligner les enjeux actuels. Une réponse affirmative entraîne d’autres questions et d’autres impératifs, dont certains sont directement liés à la localisation des TIC et à la nécessité de mettre en place des stratégies cohérentes pour progresser dans ce domaine.

25. Helen Ladd, professeure en politique des pouvoirs publics et en économie à l’université Duke, propose une question similaire pour l’Afrique du Sud: « parmi les questions de politique linguistique auxquelles ils doivent répondre, il y a notamment celle de savoir si les onze langues [officielles] devraient toutes continuer à être utilisées » (entretien de N. Aziz, « South Africa: rainbow nation pursues ‘elusive equity’ », 15 décembre 2004. http://allafrica.com/stories/200412150903.html, consulté en juin 2009). Mme Ladd ne parle pas des langues menacées de disparition, pour lesquelles on ne peut éviter de se poser la question, mais des langues officielles et répandues. Dans cet ouvrage, nous mentionnons des pays africains qui se sont posé le même genre de questions.

L’absence de politiques linguistiques soutenant activement l’application des langues africaines à l’informatique signifie que la localisation dépendra probablement d’initiatives menées par des individus, des organisations ou des entreprises.

Institutions et organisations linguistiques en Afrique

Des organisations de recherche et de linguistique appliquée existent dans tous les pays africains. Elles font souvent partie du gouvernement ou d’une université. Il existe également des institutions continentales et régionales. À l’échelle du continent, l’Académie Africaine des Langues (ACALAN), dont le siège se trouve à Bamako, au Mali, est mandatée par l’Union africaine pour faciliter les travaux sur les langues africaines. Les institutions régionales les plus réputées sont celles qui ont été créées avant tout pour étudier les traditions orales, à savoir:

image Le CELHTO: Centre d’études linguistiques et historiques par tradition orale, à Niamey (Niger);

image Le CERDOTOLA: Centre régional de recherche et de documentation sur les traditions orales et pour le développement des langues africaines, à Yaoundé (Cameroun);

image Le CIDLO: Centre d’investigation et de documentation sur l’oralité, à Tananarive (Madagascar);

image L’EACROTANAL: Centre de recherche de l’Afrique Orientale sur les traditions orales et les langues nationales africaines (Eastern African Centre for Research on Oral Traditions and African National Languages, actuellement fermé), à Zanzibar (Tanzanie).

Des organisations non gouvernementales s’intéressant aux questions linguistiques et culturelles existent dans de nombreux pays. À l’échelle du continent, SIL International, qui possède des bureaux dans de nombreux pays, est la plus importante d’entre elles.

Politique en matière d’éducation et langues d’enseignement

À l’échelle nationale ou internationale, l’enseignement en langue maternelle et l’éducation bilingue font de plus en plus l’objet de débats26. Le présent ouvrage n’a pas pour but de justifier l’éducation en langue maternelle et bilingue (ou multilingue), mais ses bénéfices pour les écoliers sont communément admis. Cependant, il n’est pas facile de mettre en place un tel système. Cela donne lieu à d’importants débats nationaux et soulève des problèmes, notamment pour la formation des enseignants et la production de matériel didactique.

Les conséquences des politiques en matière de langues d’enseignement sur la localisation sont un tout autre problème. Nous avons déjà mentionné la façon dont la décision du Maroc d’avoir recours au tifinagh pour enseigner le tamazight, en 2003, a incité les parties prenantes à entreprendre la normalisation Unicode de cet alphabet. L’enseignement en langue maternelle et la localisation peuvent être favorables l’un à l’autre, notamment lorsque les TIC sont introduites dans l’enseignement par l’intermédiaire de programmes de fourniture d’ordinateurs aux écoles, de projets tels que One Laptop per Child (OLPC) ou la participation des centres de TIC-D aux initiatives d’alphabétisation des adultes.

ALPHABÉTISATION DE BASE, PLURILITTÉRACIE ET APTITUDES DES UTILISATEURS

L’analphabétisme est l’un des facteurs faisant obstacle à la réduction du fossé numérique (d’autres facteurs seront abordés au chapitre 5). Dans des contextes multilingues – ce qui est généralement le cas en Afrique –, il est peut-être plus approprié de parler de « plurilittéracie » (terme désignant la capacité à lire et à écrire dans plusieurs langues)27 bien que ce sujet soit rarement traité en ces termes. Les utilisateurs peuvent être répartis en plusieurs catégories selon leurs capacités à lire et à écrire:

26. Il est intéressant de noter que de nombreuses conférences et réunions ont eu lieu au fil des ans au sujet de l’enseignement en langues africaines. Deux des premières se sont déroulées à Abidjan, en Côte d’Ivoire, et à Ibadan, au Nigeria en 1964 (Sow 1977). Parmi les plus récentes, l’une traitant de l’éducation bilingue a eu lieu à Windhoek, en Namibie, en août 2005 et une autre a été organisée à Oslo, en Norvège, en juin 2006, au sujet des langues et de l’éducation en Afrique. Une liste non exhaustive de ces conférences se trouve à l’adresse suivante: http://www. bisharat.net/Documents/(consulté en juillet 2009).

27. Deux termes désignent cette capacité: « multilittéracie », qui désigne peut-être plus fréquemment la maîtrise de plusieurs médias, et « plurilittéracie », qui est employé dans des ouvrages européens dans le sens plus restreint d’aptitude à lire plusieurs langues. C’est ce dernier terme que nous utilisons ici.

image Utilisateurs « plurilettrés », capables de lire et d’écrire dans toutes les langues qu’ils parlent (et qui ont un système d’écriture);

image Utilisateurs capables de lire et d’écrire dans une LEGD, mais pas dans leur langue maternelle, ce qui arrive généralement lorsque l’enseignement se fait exclusivement en LEGD;

image Utilisateurs ayant terminé leur scolarité et possédant différents niveaux d’aptitudes à la lecture et à l’écriture dans la langue d’enseignement, sans la maîtriser parfaitement;

image Utilisateurs capables de lire, dans une certaine mesure, leur langue maternelle ou une langue véhiculaire grâce à des cours d’alphabétisation offerts par des programmes nationaux, des projets de développement ou le système d’éducation traditionnel (comme les écoles coraniques);

image Utilisateurs analphabètes ou fonctionnellement analphabètes.

Les utilisateurs potentiels de contenus et de logiciels localisés en Afrique n’ont donc pas tous la même capacité à profiter des opportunités qui se présentent à eux dans ce domaine, ce qui confirme le lien fonda-mental qui existe entre éducation (y compris les cours d’alphabétisation et les politiques relatives aux langues d’enseignement) et localisation. Les localisateurs auraient donc tout intérêt à s’associer aux programmes d’alphabétisation (qu’il s’agisse de formations classiques ou de cours utilisant les TIC là où des télécentres publics ont été mis en place pour favoriser le développement local) et aux projets destinés à fournir des ordinateurs aux écoles et à offrir aux étudiants un accès à des logiciels et des contenus dans leur langue maternelle. Du point de vue de l’écologie de la localisation, le développement des compétences des utilisateurs dépend des facteurs linguistiques, technologiques et éducationnels.

Le développement de la capacité à lire et à écrire dépend également de l’orthographe. On commence à s’intéresser davantage à ce sujet28, qui a une influence sur l’utilisation des ordinateurs dans les nombreuses langues dont le système d’écriture n’est pas complètement établi.

28. Voir, par exemple, Joshi et Aaron (2005). Ethnologue présente une liste de ressources sur le sujet à l’adresse suivante: http://www.ethnologue.com/LL_docs/index/Orthography(Literacy).asp (consulté en juin 2009).

Dans de nombreux pays africains, les taux d’alphabétisation et de plurilittéracie mettront du temps à s’accroître, ce qui semble indiquer qu’il serait plus opportun de favoriser l’utilisation de sons et d’images dans les contenus et les interfaces utilisateurs.

TERMINOLOGIE ET ADAPTATION DES CONCEPTS TIC

La terminologie est un aspect de l’évolution des langues et de l’aménagement linguistique qui présente un intérêt particulier pour la localisation. Le développement de la terminologie concerne de nombreux domaines, et notamment les TIC. La terminologie relative à l’informatique et à Internet fait l’objet d’études, mais ce sont généralement les techniciens spécialisés plutôt que les linguistes qui cherchent ou créent les termes nécessaires dans le domaine de la localisation.

Il existe plusieurs façons de développer ou d’emprunter des termes pour désigner des concepts nouveaux ou étrangers – un processus que Coulmas (1992) appelle « l’adaptation linguistique ». Dans certains cas, les termes sont créés par les locuteurs. Toutefois, lorsque la majorité de la population est peu familière avec les technologies, les termes sont empruntés à une autre langue ou inventés, souvent par des individus ou des groupes qui se sont eux-mêmes donné cette mission ou qui ont été désignés à cet effet par une quelconque autorité. La théorie relative à ce processus n’est pas d’un grand intérêt pour les traducteurs de logiciels qui doivent pouvoir évoquer divers concepts, mais il est utile de la garder présente à l’esprit lorsqu’on prévoit de développer une terminologie.

Le processus de création de terminologie est généralement mené à bien par des spécialistes de la langue qui possèdent une certaine connaissance des domaines techniques concernés. Ainsi, Microsoft a eu recours à des groupes d’experts pour élaborer une terminologie et des diction-naires en vue de ses travaux de localisation dans les principales langues africaines.

Si l’objectif des initiatives de localisation en matière de terminologie est assez restreint et se limite à des besoins particuliers, de tels efforts devraient se baser sur des mouvements de développement terminologique plus larges et y participer. Il ne faut toutefois pas oublier que les linguistes sont divisés quant à l’intérêt des efforts de développement terminologique dans tous les domaines scientifiques pour des langues moins répandues.

Le développement d’une terminologie de la localisation fait partie intégrante du processus de création de dictionnaires pour accompagner les logiciels. Ces deux missions pourraient être associées à des projets lexicographiques plus larges.

5
Contexte technique I: l’accès matériel

L’ANALYSE DU contexte technique de la localisation vient compléter la description du contexte linguistique faite au chapitre précédent et sert de base à un examen plus détaillé de la localisation en Afrique. Notre étude du contexte technique sera divisée en deux parties:

image L’accès matériel: nous aborderons une série de questions relatives à la connectivité, aux infrastructures, à l’accès au matériel informatique et aux droits d’utilisation. L’accès matériel est complété par l’accès logiciel, qui est favorisé par la localisation.

image L’internationalisation des technologies: nous étudierons les innovations technologiques et les processus de normalisation visant à favoriser l’utilisation de différentes langues et divers caractères dans les applications informatiques et sur Internet. L’internationalisation est, d’une certaine façon, une condition nécessaire à la localisation et à l’accès logiciel.

Bien que ces deux sujets soient liés sous plusieurs aspects – notamment par leur rapport fondamental à la question plus large d’accès total aux TIC et par leurs liens actuels ou potentiels avec les programmes de TIC au service du développement (TIC-D) et de l’éducation (TIC-E) –, nous les analysons dans deux chapitres distincts. En fait, tous les efforts de promotion des TIC en Afrique accomplis à l’échelle locale, internationale ou les deux ont pour objectif final (ou, du moins, déclaré) d’améliorer l’accès aux technologies, ce qui comporte de vastes implications.

Puisque c’est là leur objectif premier, les programmes de TIC-D et TIC-E participent souvent à la fourniture de matériel informatique, à l’augmentation de la connectivité et, moins régulièrement, au développement de logiciels libres et à la localisation. En facilitant l’accès aux technologies, ces programmes et projets contribuent également de manière non négligeable à la création d’un environnement technique favorable à la localisation.

Nous commencerons donc par aborder la question de l’accès aux technologies et des facteurs associés. Nous traiterons ensuite de l’infrastructure, du matériel et des systèmes d’exploitation ainsi que de la connectivité, avant de nous pencher sur les tendances actuelles en matière de logiciels libres et de localisation et leurs conséquences en Afrique. Nous ferons référence, le cas échéant, à des initiatives de TIC-D et TIC-E.

ACCÈS MATÉRIEL ET LOGICIEL

L’accès aux TIC est un facteur essentiel pour déterminer l’ampleur du fossé numérique1. Ainsi, de nombreuses activités liées aux technologies en Afrique, et notamment la localisation, sont axées sur son amélio-ration. La plupart des études et des publications à ce sujet se consacrent pourtant principalement, voire exclusivement, à la façon dont les individus ont ou vont avoir accès aux ordinateurs et autres dispositifs connectés à Internet ou à tout autre réseau2. Ces études ont privilégié la question de savoir s’il existait des ordinateurs fonctionnels, si ceux-ci se trouvaient dans des lieux faciles d’accès pour les utilisateurs potentiels, s’ils étaient connectés à Internet et si les utilisateurs potentiels pouvaient payer le prix demandé pour leur utilisation.

Il est clair que l’accès au sens large a de plus vastes implications. Plusieurs sources ont tenté de développer ce point. Ainsi, TeleCommons (2000) fait, dans une évaluation du potentiel d’utilisation des TIC pour le développement rural, la distinction entre « l’accès matériel » aux infrastructures et applications TIC et « l’accès logiciel », c’est-à-dire les logiciels et les applications destinés à permettre aux utilisateurs d’Afrique rurale de se servir des TIC pour leurs propres besoins une fois qu’ils ont obtenu un accès matériel. C’est sur cette définition que nous nous basons dans cet ouvrage, mais la complexité de l’accès peut être envisagée selon d’autres points de vue.

1. L’accès est également un point important dans les situations d’inégalité, mais nous n’aborderons pas cet aspect ici.

2. Ce fait trouve son origine dans les premières études sur l’accès aux TIC et le fossé numérique. Dans leur préface de l’ouvrage de Afnan-Manns et Dorr (2003) sur le fossé numérique, Dorr et Besser ont écrit: « depuis la naissance de ce concept, dans les années 1990, les discours sur le “fossé numérique” se sont focalisés sur l’accès aux technologies et ont proposé des solutions basées sur du matériel et des connexions supplémentaires ».

L’organisation Bridges.org, par exemple, est allée plus loin et a défini 12 dimensions de ce qu’elle appelle « l’accès réel »3 aux TIC. Une de ces dimensions, intitulée « contenu adapté », fait spécifiquement mention des langues. Plusieurs points ressortent de l’analyse de l’accès aux TIC et de la localisation:

image Les bases de l’accès aux TIC dans les contextes difficiles:

image Le point de départ de toute analyse de l’accès aux TIC consiste notamment à déterminer si des ordinateurs fonctionnels sont disponibles, ainsi que l’énergie nécessaire pour les faire fonctionner et une connexion pour les mettre en réseau.

image Les coûts de la mise en place et du maintien de l’accès aux TIC sont généralement au-dessus des moyens locaux et nécessitent donc souvent un soutien ou des initiatives de l’étranger.

image L’autorisation d’utiliser le matériel, que ce soit par le biais de droits d’accès ou autres, représente souvent des frais importants par rapport aux ressources des utilisateurs potentiels et peut donc restreindre leur accès matériel.

image La façon dont l’accès et la localisation répondent aux besoins des utilisateurs:

image Le choix des langues est particulièrement important pour deux éléments de l’accès aux TIC: les interfaces logicielles du matériel informatique et les logiciels interactifs sur Internet.

image Le terme « accès logiciel » fait référence à la façon dont les moyens d’accès anticipent les besoins des utilisateurs.

image La localisation est la principale garantie de cet accès logiciel.

3. Cette présentation n’est plus disponible sur le site Internet de l’organisation, mais on peut la trouver à l’adresse suivante: http://web.archive.org/web/20041119054155/ http://www.bridges.org/digitaldivide/realaccess.html (consulté en février 2011).

image La façon dont les compétences des utilisateurs leur donnent un accès matériel et logiciel. Celui-ci dépend donc:

image Du profil des utilisateurs, y compris leur langue et leur capacité à lire et à écrire;

image Du souci implicite de développer les compétences des utilisateurs, y compris leur capacité à lire et à écrire (voir la partie sur les politiques des langues dans l’enseignement au chapitre 4).

Métaphoriquement parlant, l’accès – au matériel, aux connexions et aux interfaces pouvant être comprises par les utilisateurs potentiels (conjugués avec d’autres facteurs) – représente l’une des extrémités du pont entre les utilisateurs et les TIC, tandis que les compétences des utilisateurs – éducation, formation, expérience, etc. – forment l’autre extrémité. On peut donc dire qu’il existe un certain équilibre ou une complémentarité entre l’accès logiciel et les compétences des utilisateurs. Si les utilisateurs qui ont le plus d’aptitudes ou d’expérience ont moins de besoins en matière d’accès logiciel, les utilisateurs qui en ont moins nécessitent davantage d’aide et ont notamment besoin d’interfaces localisées4.

L’amélioration de l’accès logiciel grâce à la localisation et le développement des compétences des utilisateurs apparaissent donc comme deux éléments complémentaires et essentiels pour faire de l’accès matériel aux TIC un accès « réel » (lié à d’autres facteurs de l’écologie de la localisation tels que l’enseignement en langue maternelle). Il ne faut cependant pas oublier que les utilisateurs compétents et qui maîtrisent plusieurs médias peuvent préférer les interfaces localisées plutôt que leur version en LEGD.

Cela dit, l’accès logiciel peut anticiper les préférences variées des utilisateurs compétents et polyglottes. Le simple fait que les utilisateurs africains instruits et multilingues puissent utiliser des logiciels et comprendre des contenus en anglais ou en français ne signifie pas qu’ils n’aimeraient pas se servir d’applications dans leur langue maternelle ou dans d’autres langues à un moment donné ou qu’ils n’en tireraient aucun avantage.

Tous ces éléments dépendent de l’accès matériel, qui est le thème central de ce chapitre.

4. L’auteur a déjà utilisé un logiciel en allemand et en chinois alors qu’il ne maîtrisait que peu ou pas ces langues, mais sa longue expérience de ce même logiciel en anglais et en français lui a permis d’y avoir « accès » pour une utilisation de base.

INFRASTRUCTURES ESSENTIELLES

Les études sur le développement des TIC (localisées ou non) en Afrique font souvent référence aux autres indicateurs concernant les infrastructures et les éléments techniques essentiels comme le nombre de lignes téléphoniques et le niveau d’électrification5. En réalité, les mauvaises infrastructures de communication et le manque de sources d’énergie fiables limitent même les efforts les plus louables destinés à faciliter l’accès aux ordinateurs et à Internet. Ces facteurs essentiels évoluent petit à petit et de nouvelles solutions, comme les sources d’énergie alternatives (notamment le solaire), ainsi que l’explosion de la technologie mobile changent en partie la donne.

Pour les besoins de cette étude, nous allons cependant considérer les facteurs importants en matière d’infrastructure comme allant de soi afin de nous concentrer sur les autres variables techniques qui ont une influence sur les processus actuels et potentiels de localisation en Afrique.

MATÉRIEL INFORMATIQUE ET SYSTÈMES D’EXPLOITATION

La façon la plus simple de mesurer la pénétration des TIC et l’ampleur du fossé numérique consiste à déterminer l’existence ou l’absence de matériel en état de fonctionner – principalement des ordinateurs, mais également de plus en plus souvent des dispositifs portables ou de poche – pouvant traiter, stocker et transférer des informations. En leur absence, il est évidemment inutile de parler de connexion, d’accès et de localisation. C’est suite à ces observations qu’ont été lancées des initiatives telles que la création du Simputer (ordinateur de poche en vente depuis 2002) en Inde6 et le projet OLPC visant à concevoir et distribuer des ordinateurs portables bon marché aux écoliers des pays pauvres7.

5. Parmi les autres facteurs non techniques qui ont une influence sur le taux d’utilisation des TIC en Afrique, on peut noter l’alphabétisation et le niveau de revenu (revenu disponible permettant l’accès aux TIC dans les télécentres payants ou l’achat d’ordinateurs et de connexions à Internet).

6. Le projet Simputer a été lancé en Inde il y a plusieurs années dans le but de combler le fossé numérique (http://www.simputer.org/, consulté en juillet 2009).

7. Ce projet a été élaboré par Nicholas Negroponte et le laboratoire média du Massachusetts Institute of Technology (MIT) et il est présenté en ligne aux adresses suivantes: http://laptop.media.mit.edu/et http://laptop.org/ (consultés en juillet 2009).

Le nombre d’ordinateurs en Afrique est peu élevé par rapport aux autres régions du monde et, pour des raisons économiques évidentes, ce sont souvent de vieilles marques fonctionnant avec d’anciens systèmes d’exploitation. Les efforts menés par des organisations étrangères pour essayer de résoudre l’aspect matériel du fossé numérique en Afrique, tel qu’elles le perçoivent, en distribuant des ordinateurs neufs ou usagés ont un impact restreint (même s’ils sont bien conçus ou qu’ils reposent sur de bonnes intentions, ils ne poursuivent que des objectifs limités dans des contextes beaucoup plus larges).

L’existence en Afrique de nombreux ordinateurs et systèmes d’exploitation dépassés a des conséquences sur l’utilisation potentielle de divers types de logiciels et de contenus web multilingues. Souvent, les vieux systèmes d’exploitation ne peuvent pas exécuter des logiciels plus récents, utiliser les caractères Unicode ni exploiter au maximum les connexions Internet. Tôt ou tard, ces systèmes finiront par disparaître, mais étant donné la persistance des causes profondes de leur utilisation, il semble fort probable que le pourcentage d’ordinateurs utilisés ne pouvant pas faire fonctionner les systèmes d’exploitation et les logiciels les plus récents reste élevé sur le continent africain. Autrement dit, l’utilisation d’ordinateurs et de systèmes ne pouvant pas tirer pleinement parti des progrès les plus récents en matière d’internationalisation et de localisation risque de se poursuivre, avec un retard constant par rapport aux dernières technologies.

Nous avons avant tout traité ici de la question des ordinateurs. Pourtant, le développement rapide de la téléphonie mobile en Afrique et la capacité croissante des ordinateurs de poche devraient être considérés comme le signe avant-coureur de changements significatifs dans l’aménagement des TIC sur le continent, et notamment du développement de la localisation. La possibilité d’envoyer des SMS multilingues est déjà à l’étude. Au chapitre 12, nous aborderons le développement de la puissance des ordinateurs de poche et leur potentiel à plus long terme, mais il convient de remarquer que la technologie mobile n’est pas sujette aux mêmes limites que les ordinateurs en matière d’infrastructure (comme nous l’avons mentionné précédemment) et qu’elle est naturellement plus abordable.

CONNECTIVITÉ ET POLITIQUES EN MATIÈRE DE TIC

Une autre façon d’évaluer le fossé numérique en Afrique consiste à déterminer le niveau de connectivité, c’est-à-dire l’existence et la qualité des connexions internet. Même si cette donnée n’a pas de conséquences directes sur la localisation en soi, elle influe sur son environnement.

Dans les années 1990, l’un des principaux objectifs concernant les TIC en Afrique était d’accéder à un niveau de connectivité minimum à l’échelle nationale. Depuis le succès des projets comme l’initiative Leland (financée par l’USAID) et l’Initiative Internet pour l’Afrique (IIA, financée par le PNUD)8, ainsi que l’introduction de nouvelles infrastructures pour faciliter l’utilisation des téléphones portables et des réseaux VSAT, par exemple, des projets se sont développés pour étendre la connectivité aux régions les plus reculées d’Afrique.

Cette évolution a été accompagnée et, à divers degrés, guidée par l’étude et le développement de politiques régissant l’utilisation de la bande passante sur l’ensemble du territoire des pays concernés. Le projet Leland apportait non seulement une aide à l’infrastructure, mais il préconisait également des orientations politiques afin de favoriser une organisation durable permettant une utilisation optimale de la bande passante. Il s’inspirait d’une philosophie du marché qui voulait que les bénéficiaires nationaux de la bande passante élargie la revendent aux fournisseurs de services internet privés.

À une plus large échelle, la Commission économique pour l’Afrique (CEA) des Nations Unies, par le biais de son initiative « Société de l’information en Afrique » (African Information Society Initiative, AISI), a incité tous les pays de la région à développer leurs plans d’infrastructure nationale de l’information et de la communication (NICI) pour les aider à déterminer comment étendre leur connectivité9. Ce programme a été lancé en 1999 à la suite du Forum de développement africain sur le thème de « l’Afrique face aux défis de la mondialisation et l’ère de l’information ». Les plans NICI s’articulaient autour de quatre grands axes: développement de politiques en matière de TIC, applications (ou domaines) prioritaires, développement de l’infrastructure et choix des technologies (Ya’u 2005).

8. L’initiative Leland, connue sous le nom de projet d’infrastructure de l’information mondiale en Afrique, a été officiellement créée en 1995 avec l’intention d’étendre la pleine connectivité internet à au moins 20 pays d’Afrique (http://www.usaid. gov/leland/). L’IIA a été lancée en 1996. Les deux projets ont coordonné leurs efforts pour développer la connectivité dans le maximum de pays (Okpaku 2003).

9. http://www.uneca.org/aisi/nici/country_profiles/, consulté en février 2011.

Généralement, la connectivité à Internet et les politiques régissant son utilisation sont étroitement liées.

Techniquement parlant, la bande passante continue de croître en Afrique (CRDI 2005), et le nombre de connexions à Internet augmente rapidement (USINFO 2006). Cette évolution a été en grande partie rendue possible grâce à l’utilisation de liaisons montantes dans chaque pays, mais le déploiement de câbles sous-marins – le SAT-3/WASC en Afrique de l’Ouest et le FAST10 en Afrique méridionale et orientale –1158 joue également un rôle de plus en plus grand.

Malgré tous les efforts pour accroître la connectivité dans les pays africains, les niveaux de connectivité actuels entre les pays et dans chacun d’eux varient énormément.

Certains problèmes structurels déjà mentionnés affectent le développement potentiel de l’accès aux technologies. À titre d’exemple, il est particulièrement difficile de connecter les communautés rurales. Certains pays ont mis en place un système de tarification téléphonique permettant un accès commuté au même prix sur l’ensemble de leur territoire. Si cela pallie l’un des inconvénients, la qualité des connexions et l’accessibilité sont encore médiocres.

Quand on s’intéresse à la connectivité (du point de vue de l’écologie de la localisation et du modèle PLETES), on voit tout de suite que les décisions politiques ont une influence sur les technologies.

Cet aspect est important, car la situation des langues et de la connectivité ou de l’accès peut indiquer quelles sont les zones prioritaires pour la localisation. Par ailleurs, l’accès dépend de la motivation qui sous-tend le processus de localisation.

10. Nous n’avons trouvé aucune référence au câble FAST sur Internet et sur les sites cités dans la note, NdT.

11. L’influence de ces câbles est étudiée dans l’Atlas Acacia du CRDI (2005) et dans les rapports de Balancing Act sur Internet en Afrique (2004, 2005, 2006).

6
Contexte technique II: l’internationalisation

EN AFRIQUE, L’ÉTUDE DE l’accès aux TIC part inévitablement de l’analyse de l’accès matériel pour se tourner ensuite vers la question de l’accès logiciel. À l’échelle mondiale toutefois, un processus a été mené en parallèle depuis plusieurs années pour permettre aux TIC de mieux répondre à ces besoins. L’internationalisation désigne l’amélioration des ordinateurs, des systèmes et des protocoles IP pour les adapter à toutes les langues du monde. Ce processus facilite donc la localisation et l’informatique dans de nombreuses langues. Au sens large, l’internationalisation comprend également les travaux de normalisation comme Unicode.

UN ENVIRONNEMENT TECHNIQUE FAVORABLE

On peut dire que l’internationalisation – tant au niveau des amélio-rations techniques que de la normalisation – détermine l’environnement technique de la localisation et de l’adaptation des TIC en plusieurs langues. Dans le cadre de l’écologie de la localisation, l’internationalisation peut aussi comprendre l’aspect technique et politique de l’organisation des langues dans les TIC. Ces facteurs sont en constante évolution et il est essentiel de les comprendre pour envisager pleinement les problèmes de localisation.

Les normes techniques favorisent l’interopérabilité et sont donc l’une des facettes de l’internationalisation. C’est le cas, par exemple, de l’adoption et de l’enrichissement progressif du jeu universel de caractères établi par Unicode (que nous étudierons plus en détail dans la prochaine partie). En contribuant à un environnement prévisible pour les utilisateurs, les normes techniques facilitent l’accès logiciel.

Outre Unicode, d’autres normes ayant été adoptées pour différentes raisons pourraient être de plus en plus utilisées grâce à la localisation. On peut citer comme exemple la série de codes définis par les normes ISO 639 successives pour représenter les noms de langues (voir chapitre 9). Les codes des noms de pays, notamment ceux à deux lettres (ISO 3166)1, et les codes à quatre lettres et trois chiffres pour les systèmes d’écriture (ISO 15924)2 en sont un autre exemple. Des recommandations ont également été rédigées concernant l’utilisation de ces codes dans les applications informatiques et les contenus web, comme le document RFC 46463. Ces codes servent entre autres choses à définir des paramètres de lieu, locales en anglais, des paramètres qui permettent d’indiquer la langue, l’écriture et le pays de l’utilisateur (voir chapitre 9).

Il existe également un ensemble de normes pour les claviers d’ordinateur, l’ISO 9995, qui comprend des recommandations concernant les configurations de clavier (voir chapitre 8).

Techniquement parlant, l’internationalisation a pour objectif de faciliter la localisation d’un produit donné plutôt que d’effectuer à partir de rien des versions localisées dans différentes langues. L’internationalisation comprend donc des données techniques et prévoit, au moment de la conception des logiciels, un espace pour intégrer des commandes dans différentes langues et avec différents caractères. Rathke (2005) propose un bref résumé des facteurs de l’internationalisation qui sont importants pour la localisation des logiciels ou des contenus libres.

De manière plus générale, l’internationalisation inclut la capacité à éditer dans différentes langues et avec différents caractères dans des applications web ou des logiciels qui ne sont pas localisés.

1. Il existe aussi des codes à trois lettres et trois chiffres (http://userpage.chemie. fu-berlin.de/diverse/doc/ISO_3166.html, consulté en juillet 2009), ainsi qu’une première version pour les subdivisions territoriales (http://en.wikipedia.org/wiki/ISO3166, consulté en juillet 2009).

2. http://www.unicode.org/iso15924/iso15924-codes.html, consulté en février 20111.

3. http://www.ietf.org/rfc/rfc4646.txt, consulté en février 2011. Ce document remplace les versions RFC 1766 et RFC 3066.

L’internationalisation participe à la création d’un environnement prévisible pour les utilisateurs. Ce processus implique à terme plusieurs aspects de la localisation.

TRAITEMENT DES CARACTÈRES COMPLEXES: DU CODE ASCII À UNICODE

La représentation des caractères latins étendus et non latins par ordinateur et sur Internet présente certaines difficultés en termes d’espace pour les alphabets comprenant de nombreux caractères, de reproduction de caractères complexes et d’adaptation à différents jeux de caractères. Ces problèmes ont été plus ou moins résolus grâce à Unicode, qui vise à couvrir tous les systèmes d’écriture, et grâce à l’amélioration de la capacité de traitement et de stockage des ordinateurs. Les travaux de normalisation ne sont cependant pas encore achevés et l’application de solutions techniques pourrait prendre du retard par rapport aux normes actuelles.

Historique

Le codage de caractères permet de retranscrire des textes en langage informatique grâce à des jeux codés sur sept bits (avec 128 points de code ou espaces pour les caractères ou autres informations). Le codage le plus connu est l’ASCII, qui est basé sur l’anglais. Ce codage est né aux États-Unis au début des années 1960 pour être utilisé en télégraphie. Il a ensuite été adopté en informatique. En 1972, la norme internationale ISO 646 a intégré l’ASCII et l’a complété avec de nouveaux caractères pour l’adapter à d’autres langues. Plus tard, les jeux de caractères codés sur huit bits (avec 256 points de code) – parfois appelés « ASCII étendus » – ont permis de coder davantage de caractères et d’alphabets.

Au départ, pour répondre aux besoins des différents alphabets, on a créé des polices en « modifiant » des caractères d’autres jeux (ASCII ou huit bits), c’est-à-dire en attribuant certains caractères à des points de codes utilisés à l’origine pour d’autres caractères.

Pour répondre à la multiplication des langues utilisées en informatique, une série de normes pour les polices codées sur un seul octet a été développée sous le nom d’ISO 88594. Microsoft a créé des jeux de caractères similaires, comme Windows 1252 pour l’alphabet latin utilisé pour les principales langues d’Europe de l’Ouest – également appelé ANSI (American National Standards Institute)5 – et Windows 1256 pour l’arabe. Ces polices huit bits (ou un octet) permettent d’indexer directement 256 glyphes différents. Les 128 premiers (de 0 à 127) sont identiques à ceux de l’ASCII et les 128 autres (de 128 à 255) varient selon les normes. Aucune norme commerciale ou industrielle (sous l’ISO 8859, par exemple) n’a été conçue spécifiquement pour une langue ou un groupe de langues d’Afrique subsaharienne.

4. Il y en a 15 en tout (http://en.wikipedia.org/wiki/ISO/IEC_8859, consulté en février 2011).

Une norme distincte a été mise au point en 1983 pour les langues africaines ayant adopté l’alphabet latin étendu: l’ISO 6438, ou jeu de caractères africains codés pour l’échange d’informations bibliographiques. Mais ce codage était apparemment à peine utilisé, voire pas du tout, même aux fins indiquées dans son intitulé (Clews 2003)6. Cette norme a été conçue par un comité technique de normalisation différent de celui qui a élaboré l’ISO 8859 (Clews 2003). Étrangement, bien que la norme ISO 6438 ait été mise au point à peu près en même temps que l’alphabet africain de référence de Niamey en 1978, les deux ont apparemment été développés séparément à partir de sources similaires7. Bien que ces deux jeux de caractères comportent beaucoup d’éléments communs, ce sont les caractères de l’ISO 6438 qui ont été retenus pour Unicode.

Vu son importance religieuse et politique, l’arabe a été l’objet de beaucoup d’attention au début du processus. Cette langue présente des difficultés en raison du sens d’écriture (bidirectionnel: de droite à gauche, sauf pour les chiffres qui se lisent de gauche à droite) et des changements de forme de nombreux caractères lorsqu’ils précèdent ou qu’ils suivent d’autres lettres. Le codage a évolué d’une version en sept bits à une version en huit bits et a finalement adopté les jeux de caractères ISO 8859-6 et Windows 1256.

5. La désignation ANSI est quelque peu inappropriée, car l’Institut n’a jamais adopté officiellement les premières versions de cette norme. Cependant, elles ont été appelées « Windows ANSI » et ce terme est communément employé.

6. La norme ISO 6438 est protégée par le droit d’auteur et ne peut être consultée en ligne. Des versions non protégées d’avant l’adoption de la norme ISO 6438 en 1983 sont accessibles sur http://www.itscj.ipsj.or.jp/ISO-IR/039.PDF (consulté en juillet 2009) et sur http://anubis.dkuug.dk/jtc1/sc2/open/02n3129.PDF (consulté en juillet 2009) pour après 1983. À notre connaissance, la norme ISO 6438 n’est utilisée officiellement que dans la base de données bibliographique UNIMARC (Riley, communication personnelle, 18 mars 2009).

7. Bien que très semblables, il existait un certain nombre de différences dans ces deux jeux de caractères. Voir, par exemple, http://scripts.SIL.org/cms/scripts/page. php?site_id=nrsi&item_id=AfrGlyphVars (consulté en février 2011).

Pendant près de vingt ans, les ordinateurs Macintosh d’Apple fonctionnant sous UNIX ont évolué différemment d’ASCII à Unicode (du jeu de caractères Macintosh à MacRoman et WorldScript). Dans les années 1980, des utilisateurs ont découvert que les systèmes et logiciels Macintosh facilitaient les travaux en langues africaines avec des alphabets latins étendus et non latins, mais cela ne semble pas avoir eu beau-coup d’impact en Afrique, où les produits Apple sont encore relativement rares8.

Unicode

Unicode (ISO 10646), ou jeu de caractères universel, offre une norme unique de codage pour tous les caractères du monde. Unicode a intégré tous les caractères des normes de codage précédentes et vise à faciliter l’utilisation et l’échange entre toutes plateformes et sur Internet de textes rédigés dans tout système d’écriture. Cette norme est donc au cœur de l’internationalisation des TIC.

Unicode peut en principe définir jusqu’à un million de caractères, mais sa dernière version (Unicode 5.2, au moment de la rédaction du présent ouvrage) couvre tous les principaux systèmes d’écriture et bien d’autres (mais pas tous) en n’en utilisant qu’environ 100 000. Unicode est généralement codé en UTF-8 (Unicode Transformation Format)9, ce qui lui permet d’être souvent utilisé avec aussi peu de bits que les codages précédents, pour le codage de la langue anglaise. Par contre, dès qu’on utilise une lettre accentuée, comme en français, UTF-8 utilise plus d’octets. Pour l’arabe, chaque caractère prend deux octets UTF-8.

8. L’organisation non gouvernementale sénégalaise Associés en recherche et en éducation pour le développement (ARED), dirigée pendant de nombreuses années par une linguiste américaine, Sonja Fagerberg-Diallo, représente une exception notable. L’un des premiers exemples d’utilisation possible du latin étendu avec les ordinateurs Macintosh était un manuel d’apprentissage du peul de Guinée, réalisé par Mme Fagerberg-Diallo en 1986.

9. Il existe d’autres UTF, dont UTF-16 et UTF-32 (les chiffres indiquent le nombre de bits). Pour en savoir plus, voir http://en.wikipedia.org/wiki/UTF-8 (consulté en février 2011).

Unicode et l’Afrique

Puisque de nombreuses langues d’Afrique utilisent des alphabets latins étendus ou des caractères non latins (et parfois les deux), Unicode offre une solution aux problèmes rencontrés par plusieurs systèmes de codages non standards. Des obstacles ont cependant dû être surmontés.

Pour commencer, même si les entreprises se sont mises à utiliser Unicode et que les systèmes ont été conçus en tenant compte de la norme, celle-ci ne semble pas bien comprise en Afrique, même par les spécialistes de l’informatique. De nombreux experts techniques sont occupés à des projets qui portent sur les principales langues internationales (et notamment l’arabe) et les spécialistes des langues africaines, lorsqu’ils travaillent avec des ordinateurs, ont souvent encore recours à la panoplie de codes sur huit bits mentionnés précédemment.

Cette situation commence progressivement à changer. En effet, grâce à l’arrivée sur le marché de nouveaux ordinateurs, à la meilleure connaissance de l’informatique multilingue et aux efforts visant à faciliter l’utilisation d’Unicode, davantage de personnes sont formées (soulignons notamment les efforts menés depuis le début des années 2000 par le projet RIFAL [Réseau international francophone d’aménagement linguistique]10, financé par la France pour aider les organisations linguistiques nationales d’Afrique de l’Ouest à adapter leurs bases de textes à Unicode).

Le manque de polices comportant les caractères nécessaires et, même lorsque celles-ci existent, leur absence des systèmes informatiques utilisés constituaient un deuxième problème.

La capacité d’Unicode à répondre aux besoins spécifiquement africains a également été mise en doute, notamment en ce qui concerne l’utilisation des signes diacritiques dans les orthographes dérivées du latin (voir partie suivante).

Enfin, la question de savoir si la capacité de disque nécessaire pour les textes en Unicode par rapport aux polices huit bits ne constituait pas un frein à son utilisation a également été soulevée (voir Paolillo 2005: 47, 72-73). Vu les progrès techniques en matière de gestion d’Unicode (comme l’UTF-8) et l’augmentation de l’espace disque et de la mémoire des ordinateurs permettant de prendre en charge des fichiers bien plus lourds (notamment des images et des sons), cet élément ne pose pas vraiment problème11. Il est cependant problématique pour l’envoi de SMS sur un téléphone portable, car les messages utilisant des caractères non définis par l’ASCII ont une longueur autorisée bien plus limitée.

10. http://www.rifal.org/, consulté en juillet 2009.

Unicode et les signes diacritiques dans les transcriptions en caractères latins

Si Unicode permet en principe de transcrire toutes les langues écrites avec l’alphabet latin et ses variantes, plusieurs problèmes sont encore à l’étude, notamment en ce qui concerne certains caractères12. Toutefois, la décision prise par Unicode à la fin des années 1990 d’avoir recours à la « composition dynamique » pour écrire des lettres diacritiques en associant des caractères de base avec un ou plusieurs « signes diacritiques combinatoires », plutôt qu’en ajoutant de nouveaux caractères « précomposés » pour toutes les combinaisons, n’a pas été bien reçue par certains experts. S’il semblerait que cette ligne de conduite ait été adoptée et que la technologie nécessaire à sa mise en œuvre s’améliore, il n’est pas inutile de rappeler dans quel contexte cette décision a été prise.

La question du traitement des signes diacritiques dans certaines graphies africaines a reçu plus ou moins d’attention depuis la fin des années 1990. À cette époque, le Consortium de données linguistiques (Linguistic Data Consortium) de l’université de Pennsylvanie, aux États-Unis, remarquant la lenteur des progrès en faveur de la composition dynamique dans les systèmes Windows et le manque d’intérêt encore plus flagrant des développeurs de systèmes Macintosh et Linux, a lancé un projet dont l’objectif était de dresser la liste des caractères nécessaires pour les langues africaines afin de déterminer les possibilités de créer des normes alternatives de caractères codés sur huit bits. Cette initiative, organisée sous les auspices de l’African Language Resource Council (ALRC), a été abandonnée au bout de quelques années, principalement en raison des progrès réalisés dans le domaine.

11. L’auteur est redevable à Mark Davis, Doug Ewell et Steve Summit pour l’avoir éclairé au sujet de cette liste Unicode (septembre 2006). Ils ont répondu à un fil de discussion intitulé « Unicode & space in programming & L10n » (Unicode et l’espace dans la programmation et la localisation), que l’on peut lire sur http://unicode.org/mail-arch/unicode-ml/y2006-m09/ (consulté en juin 2009).

12. Pour donner un exemple récent, dans le glyphe utilisé pour le γ (Y majuscule avec un crochet, utilisé pour le son y éjectif en peul et en haoussa), le crochet a été mis de l’autre côté pour refléter l’usage local en Afrique de l’Ouest. On peut lire une description de cette caractéristique sur http://scripts.SIL.org/HooktopYVariants (consulté en juillet 2009). Cela est apparemment dû aux années de divergence entre la pratique actuelle en Afrique (comme l’illustre l’alphabet africain de référence) et le glyphe retenu dans les documents ISO (ISO 6438) (http://en.wikipedia.org/wiki/%C6%B3, consulté en juillet 2009).

Un autre projet, motivé par le même type de préoccupations et l’impression que le système de composition dynamique pourrait défavoriser les langues africaines, a été élaboré au Canada par Progiciels BPI dans le but de créer un jeu de polices codées sur huit bits pour des langues africaines. Cette initiative a été saluée lors de la conférence intitulée « Internet: Passerelles du développement », qui s’est tenue à Bamako, au Mali, en février 2000 (voir Bourbeau et Pinard 2000).

Ce problème a de nouveau été soulevé à Bamako, en 2002, lors d’une réunion de préparation au premier Sommet mondial sur la société de l’information (qui a eu lieu à Genève en 2003). Il a été suggéré qu’un jeu de polices huit bits pourrait conduire à l’adoption de nouvelles normes spécifiques à l’Afrique dans la série ISO 885913. Certains intervenants ont déploré que l’Afrique ait été défavorisée par la décision prise par Unicode de ne plus ajouter aucun caractère latin précomposé avant d’avoir analysé en profondeur les besoins des langues africaines.

Plus récemment, un article présenté lors de la conférence sur Unicode en 2005 a affirmé que le problème concernait plutôt le traitement des données dans les langues africaines utilisant des caractères sous forme combinée (Chanard 2005) et les implications à long terme de l’utilisation de caractères composés.

Trois observations peuvent être faites en réponse à ces préoccupations. Premièrement, il ne semble pas y avoir eu d’évaluation approfondie de l’utilisation actuelle des signes diacritiques et des caractères étendus dans les orthographes africaines. En réalité, il pourrait même s’avérer impossible de réaliser un inventaire de cette nature. Les initiatives qui s’en rapprochent le plus sont peut-être la compilation de caractères effectuée par l’ALRC et les recherches menées par John Hudson pour le compte de Microsoft14. Quoi qu’il en soit, ces recherches sont principalement basées sur ce que des articles linguistiques, des diction-naires ou d’autres documents de ce genre désignent comme étant les caractères ou combinaisons utilisés dans les langues concernées. Ces informations peuvent parfois être contradictoires et les orthographes officielles peuvent avoir connu des changements depuis la publication de ces documents. Dans d’autres cas, les signes diacritiques servant à indiquer des tons dans les langues tonales ne sont pas normalisés ou ne sont utilisés que lorsque la clarté est essentielle ou lorsque l’aide à la prononciation est importante, notamment dans les manuels d’enseignement. En bref, l’utilisation ou la nécessité éventuelle de caractères précomposés n’est ni claire ni facilement établie.

13. http://www.bisharat.net/Documents/Bamako2002-workshop.htm, consulté en juillet 2009.

14. SIL pourrait certainement faire une synthèse générale des travaux de ses bureaux, situés aux quatre coins du continent africain, mais, à notre connaissance, cela n’a pas encore été fait. L’idée de dresser la liste des caractères utilisés dans les langues africaines a également donné lieu, en 2005, à un projet sur l’internationalisation des noms de domaines qui n’a jamais abouti. Le projet PAL a aussi envisagé de créer une base de données des caractères étendus utilisés dans les langues africaines, mais il a été découragé par la qualité inégale des données disponibles et par le fait que les orthographes puissent changer.

Deuxièmement, la technologie permettant d’avoir recours à la composition dynamique a beaucoup évolué. La capacité à placer correctement des signes diacritiques sur des caractères de base et la possibilité d’utiliser des caractères de base avec des signes diacritiques combinatoires pour former des glyphes élimine le problème du manque de caractères précomposés. Cependant, les vieux systèmes informatiques étant toujours largement utilisés en Afrique, la combinaison de signes diacritiques est encore un problème pour beaucoup.

Enfin, d’un autre point de vue, les objections contre l’utilisation des signes diacritiques combinatoires reposent sur une mauvaise connaissance de la technologie.

Unicode et les caractères non latins

Parmi les systèmes d’écriture africains, l’arabe et l’éthiopien/guèze (employé, entre autres, pour l’amharique et le tigrigna dans la Corne de l’Afrique) ont été codés par Unicode peu de temps après la création de cette norme. Comme l’alphabet latin, ces deux systèmes d’écriture comprennent des versions étendues avec des caractères réservés aux langues autres que les principales langues que ces systèmes permettent d’écrire.

Deux autres alphabets ont été ajoutés à Unicode au cours des dernières années: le tifinagh (ajouté en 2005) et le n’ko (ajouté en 2006).

D’autres systèmes d’écriture sont en train d’être codifiés, notamment le vaï (utilisé pour la langue du même nom, qui appartient au groupe mandé et est parlée dans le sud-ouest de l’Afrique). Le processus de codage d’alphabets aussi minoritaires est piloté par l’Initiative de codage de caractères (Script Encoding Initiative) de l’université de Californie à Berkeley. Ces alphabets ont de la valeur pour plusieurs raisons, même s’ils ne sont pas utilisés par beaucoup d’individus.

LE « DERNIER KILOMÈTRE » DE L’INTERNATIONALISATION

Au sens large du terme, l’internationalisation comprend de nombreuses initiatives et actions destinées à faciliter l’utilisation des TIC en plusieurs langues, notamment la localisation.

Dans notre étude de l’équipement de systèmes, au chapitre 2, nous avons décrit ce processus comme le « dernier kilomètre » de l’internationalisation. En effet, grâce à tout un système de normes et d’innovations techniques, nous pouvons désormais, en théorie et en pratique, afficher et saisir des textes dans presque toutes les langues. Toutefois, quelques aménagements et actions sont encore nécessaires pour que les utilisateurs finaux puissent bénéficier de ces progrès.

L’INTERNATIONALISATION ET LA LOCALISATION

Maintenant que nous avons présenté le contexte linguistique et technique de la localisation en Afrique, y compris l’internationalisation, nous analyserons dans les chapitres suivants les aspects de l’internationalisation et de sa mise en œuvre qui sont importants pour la localisation de logiciels et de contenus internet (et pour leur utilisation) en Afrique, notamment Unicode et le traitement de texte, les claviers et les systèmes de saisie ainsi que les codes de langues et les paramètres de lieu.

7
Textes, codes et polices en langues africaines

CE CHAPITRE VIENT APPROFONDIR la question de l’orthographe des langues africaines (chapitre 4) et des normes permettant de reproduire des textes sur ordinateur (chapitre 6).

Étant donné l’importance cruciale du texte pour stocker et transmettre des informations sur ordinateur et sur Internet, l’aspect le plus fondamental du processus de localisation en langues africaines est peutêtre la capacité à afficher, transmettre, stocker et rechercher les caractères utilisés dans ces langues de façon fiable et reconnaissable. Cette question vient établir un lien entre le long processus de développement de langues africaines écrites et d’éducation dans ces langues avec les efforts plus récents d’aide à l’internationalisation pour différents alphabets et caractères étendus.

Dans ce contexte, le présent chapitre s’intéresse donc aux caractères non latins et latins (et surtout aux caractères latins étendus ou complexes), à l’évolution de l’utilisation de textes en langues africaines dans les TIC, aux problèmes de codage et aux polices de caractères.

LES CARACTÈRES NON LATINS ET LES TIC

Plusieurs langues africaines utilisent des alphabets non latins qui présentent une importance historique et culturelle. Les alphabets les plus utilisés et qui sont normalisés par Unicode sont:

image L’arabe: pour la langue arabe, bien sûr, mais aussi pour la transcription d’autres langues africaines, souvent avec des adaptations permettant de représenter différents systèmes phonétiques (on parle alors parfois d’alphabet ajami);

image L’éthiopien/guèze: utilisé pour des langues de la Corne de l’Afrique (principalement l’Éthiopie et l’Érythrée), notamment l’amharique, le tigrigna et le tigré;

image Le tifinagh: alphabet traditionnel des langues berbères d’Afrique du Nord et du Sahel, dont le tamazight et le tamacheq;

image Le n’ko: système d’écriture créé à la fin des années 1940 et utilisé principalement pour les langues mandingues d’Afrique de l’Ouest.

Par ailleurs, un certain nombre d’alphabets n’ont pas encore été codés. Même s’ils sont généralement utilisés par un nombre restreint d’individus, ils peuvent malgré tout présenter un intérêt historique.

TYPOLOGIE DES ORTHOGRAPHES AFRICAINES BASÉES SUR LE LATIN

Comme nous l’avons déjà mentionné, la plupart des langues africaines utilisent l’alphabet latin dans leur forme écrite, souvent en y ajoutant des caractères étendus. Étant donné le nombre de langues concernées et la diversité descaractères utilisés et de moyens (comme l’existence de polices comprenant les caractères nécessaires et les techniques permettant d’ajouter des signes diacritiques le cas échéant), il convient d’en faire une description schématique.

À cet effet, nous présentons une typologie des orthographes africaines similaire à celle proposée par Taylor (2000) avant qu’Unicode ne devienne la norme internationale de facto pour le traitement des textes dans les TIC. Dans cette classification, déjà présentée par Osborn et coll. (2008),173 chaque niveau présente des difficultés supplémentaires en matière de traitement de texte (affichage, transmission ou saisie) par rapport aux catégories inférieures:

1. Ce sujet a également été abordé dans liste de diffusion A12n-collaboration, sur http://lists.kabissa.org/lists/archive/public/a12n-collaboration/msg01059.html (consulté en juillet 2009). A12n est une abréviation d’africanisation formée sur le même modèle que les abréviations techniques communes d’internationalisation (I18n) et de localisation (L10n) en insérant entre la première et la dernière lettre du mot le nombre de lettres figurant entre les deux.

image Orthographes de 1re catégorie: ASCII – tous les caractères et leurs combinaisons figurent dans le jeu de caractères codés ASCII. En Afrique, c’est le cas du swahili et du zoulou.

image Orthographes de 2e catégorie: latin-1, c’est-à-dire tous les caractères et combinaisons couverts par l’ISO 8859-1/Windows 1252 (ou ANSI). Dans les systèmes d’exploitation actuels et dans la plupart des applications, il n’y a pratiquement aucune différence en termes d’affichage ou de transmission des caractères entre le latin-1 et l’ASCII de la première catégorie. En outre, les configurations de clavier permettant de taper ces caractères sont bien implantées pour la plupart des principales langues européennes. Cependant, il arrive encore que, pour une raison ou pour une autre, les caractères ne s’affichent pas correctement (les lettres accentuées en français, par exemple). Pour d’autres langues, la saisie de caractères en l’absence de claviers normalisés et l’affichage sur des systèmes ou des applications dépassés peut poser des problèmes. Le sango est un exemple de langue africaine figurant dans cette catégorie.

image Orthographes de 3e catégorie: latin étendu sans signes diacritiques combinés (mais peut-être avec des caractères précomposés contenant des diacritiques dans des jeux de caractères étendus n’appartenant pas au latin-1), c’est-à-dire qui peuvent s’écrire avec les jeux de caractères latins d’Unicode sans nécessité d’y ajouter des signes diacritiques pour les tons. En Afrique, c’est le cas du peul et du kikuyu.

image Orthographes de 4e catégorie: jeux de caractères latins complexes, c’est-à-dire qui peuvent s’écrire en latin étendu en combinant des signes diacritiques. Le yoruba et l’igbo en sont des exemples.

image Orthographes de 5e catégorie: orthographes qui ne sont pas encore complètement couvertes par Unicode car un ou plusieurs de leurs caractères n’ont pas encore été intégrés à la norme Unicode. En Afrique, il existe probablement peu d’orthographes provenant du latin qui entrent dans cette catégorie.

Une orthographe appartenant à une catégorie donnée peut comporter des caractères d’une ou plusieurs autres catégories. Par ailleurs, tous les alphabets formés à partir du latin comprennent des caractères ASCII (1re catégorie). Le wolof, par exemple, appartient à la 3e catégorie en raison de sa lettre γ (eng) représentant une nasale vélaire, mais il comporte également plusieurs caractères accentués du latin-1 (2e catégorie) et des caractères ASCII (1re catégorie).

Les usages différents d’une même langue peuvent conduire à la nécessité d’utiliser différentes catégories. En bambara (langue mandingue), par exemple, les marques de tonalité sur les voyelles ne sont généralement pas utilisées, ce qui fait que cette orthographe appartient à la 3e catégorie. Mais les tons peuvent être indiqués et il est alors nécessaire d’ajouter des signes diacritiques aux voyelles (e ouvert) et ɔ (o ouvert). Le bambara entrerait alors dans la 4e catégorie. La différence est de taille pour ce qui est du fonctionnement total dans différents contextes, mais elle n’est pas décisive pour un fonctionnement de base permettant le « dernier kilomètre » de l’internationalisation..

ÉVOLUTION DE L’UTILISATION DE TEXTES EN LANGUES AFRICAINES DANS LES TIC

Mis à part l’arabe, l’utilisation des langues africaines en informatique et sur Internet s’est développée relativement lentement pour des raisons linguistiques, pédagogiques, politiques et techniques, dont certaines sont fondamentales, comme nous l’avons mentionné au chapitre 4.

Il est important de garder à l’esprit que les ordinateurs et Internet, tout comme les systèmes éducatifs officiels un siècle plus tôt, ont été introduits et diffusés comme des médias plus ou moins monolingues fonctionnant dans l’une ou l’autre des LEGD. Cet état de fait illustre la domination internationale de ces langues dans les logiciels et les contenus internet et la connaissance généralisée de ces langues par les Africains qui sont les plus susceptibles d’avoir accès aux TIC (généralement les membres de l’élite urbaine).

Paradoxalement, il semblerait que les orthographes dérivant du latin et comportant des caractères étendus reçoivent moins d’attention que les orthographes non latines, même s’il est techniquement plus facile de traiter les orthographes latines étendues (au moins celles de 3e catégorie ou inférieures, qui n’ont pas de signes diacritiques combinatoires).

Les textes en langues africaines dans les TIC

Dans cette partie, nous aborderons certains aspects de l’évolution de l’utilisation des langues africaines dans les TIC. Il faut cependant savoir que la façon dont les systèmes informatiques et les logiciels gèrent les lettres modifiées ou les caractères diacritiques n’appartenant pas à l’alphabet latin de base (les 26 lettres du français) ou au jeu de caractères ASCII (l’alphabet latin plus un minimum de symboles) constitue un problème particulier pour un certain nombre de langues écrites avec ces caractères.

Si les premières interfaces pour ordinateurs personnels utilisaient l’anglais et le jeu de caractères ASCII, il était inévitable qu’on finisse un jour par utiliser d’autres langues. Il est difficile d’évaluer l’ampleur de cette utilisation, mais grâce à l’amélioration de la capacité des systèmes à gérer de plus grands jeux de caractères et à la création d’Internet, l’informatique multilingue est devenue possible en Afrique comme ailleurs. Le potentiel accru, mais encore limité, des polices de caractères huit bits (désignées par différents termes, comme ANSI, tel que nous l’avons déjà mentionné) a permis l’élaboration de polices pour davantage de langues.

Au fil des ans, un certain nombre de solutions ont été observées dans l’usage pour contourner le problème posé par les textes en langues africaines lorsque les polices disponibles, leur compatibilité ou l’absence de moyens de saisie simples (liés notamment aux configurations de claviers) entravaient l’utilisation de l’orthographe officielle, notamment dans les courriers électroniques et sur le Web. Le tableau 7.1 présente sommairement les différents modes d’utilisation de textes en langues africaines dans ce contexte.

Ces solutions sont toujours utilisées dans une certaine mesure, même si Unicode et UTF-8, ainsi que leur adaptation à de nouvelles applications, permettent en principe l’utilisation de jeux de caractères plus amples (et plus complets). Les techniques de substitution sont particulièrement évidentes dans les listes de diffusion et les groupes de discussion2. Malgré les avantages offerts par Unicode, il semblerait que son potentiel ne se soit pas encore réalisé pour un grand nombre d’utilisateurs et d’applications internet. Cette situation s’explique parfois par le manque de polices de caractères (voir nos propos à ce sujet plus loin dans ce chapitre). Toutefois, l’absence de systèmes de saisie adéquats devient un problème même lorsque ces polices sont disponibles (voir chapitre 8). Le manque de connaissance d’Unicode constitue également un obstacle.

2. C’est le cas de plusieurs groupes Yahoo ! dont le contenu en haoussa est considérable et d’un groupe sénégalais qui dispose de contenus en pulaar et en wolof.

En principe, le contenu web pose les mêmes difficultés, mais les présentations statiques permettent d’utiliser Unicode, même si le codage HTML requiert la saisie de codes décimaux ou hexadécimaux pour les caractères non ANSI. Nous évoquerons plus loin la quantité de contenu web en langues africaines.

Il ne faut pas non plus oublier que la question de l’utilisation des langues africaines dans les TIC fait ressurgir des sujets datant d’avant l’ère de l’informatique à propos du choix des orthographes et de l’harmonisation des transcriptions. Ces questions étaient au centre des études et des réunions d’experts mentionnées au chapitre 4. Bien que nous ayons tendance à les oublier, elles ont souvent jeté les bases des travaux actuels.

En outre, la rédaction en langues africaines avec des machines à écrire et dans l’imprimerie a précédé les discussions et les propositions concernant leur utilisation en informatique. La plupart de ces problèmes ont été oubliés même s’ils présentent des similarités avec difficultés rencontrées actuellement avec la saisie de données.

TABLEAU 7.1 Modes d’utilisation d’orthographes dérivant du latin avec des caractères étendus et/ou des signes diacritiques (orthographes de 3e ou 4e catégorie) dans les TIC

Orthographe normale

• Actuelle: orthographe « correcte » conforme aux pratiques courantes, à la législation ou aux décrets

• Actuelle avec des erreurs: les caractères ont l’air corrects ou presque, mais ils ne le sont pas. Dans plusieurs cas, des caractères similaires peuvent être choisis par erreur dans des jeux de caractères latins ou non latins

• Dépassée: norme changée depuis (par exemple, certains écrivent le pular de Guinée avec l’orthographe utilisée jusqu’au milieu des années 1980)

Solutions de substitution

• ASCII simple: tous les caractères étendus et les signes diacritiques sont remplacés par la forme la plus proche en ASCII. Ainsi, les pages internet de la BBC en haoussa sont actuellement affichées en ASCII plutôt qu’avec l’orthographe normalisée boko

• ASCII simple avec majuscules: les caractères étendus sont remplacés par des majuscules

• Autres signes diacritiques ou combinaisons: d’autres signes diacritiques ou combinaisons sont utilisés pour indiquer ceux qu’on ne trouve pas dans les polices auxquelles on a accès. Ainsi, pour écrire certaines langues du Nigeria, on peut remplacer le point souscrit par un tréma

Recours à des images

• Petites images pour des caractères étendus ou diacrités: il s’agit généralement d’images en format GIF ou JPG insérées dans le texte à l’endroit voulu

• Grandes images de textes entiers: ce sont généralement des fichiers PDF, mais parfois aussi GIF ou JPG

Techniques hybrides

• Combinaison de plusieurs techniques susmentionnées

• Introduction d’éléments provenant d’une autre langue. Par exemple, en reproduisant des formes basées sur le français ou l’anglais qui ne font pas partie de l’orthographe concernée

Source: adapté d’Osborn (2001)

LES POLICES DE CARACTÈRES

La question des polices de caractères a été particulièrement problématique pour la localisation dans certains pays d’Afrique et pour certaines langues utilisant des caractères non ASCII. Nous aborderons brièvement ces deux cas dans les paragraphes suivants.

Le latin étendu

L’adaptation de polices de caractères sur huit bits pour transcrire de nombreuses langues africaines – une pratique impliquant plusieurs individus, organisations et projets et qui a été qualifiée d’« anarchique » (Cissé et coll. 2004) – était apparemment assez commune (voir chapitre 6). Cette pratique s’est traduite par l’apparition d’un certain nombre de polices spéciales non compatibles, généralement appelées « anciennes polices ou polices préexistantes », qui sont encore utilisées à différents degrés3.

Il n’existe, à notre connaissance, aucune liste exhaustive de ces polices, mais nous en présentons plusieurs exemples dans le tableau 7.2.

La norme Unicode normalise des caractères latins étendus, mais les polices comprenant ces caractères n’ont été que peu à peu mises à disposition du public. Les signes diacritiques combinatoires (comme, dans certains cas, les marques de tonalité) posent parfois problème dans les logiciels et les polices elles-mêmes lorsque la position des diacritiques par rapport aux caractères de base est affectée. Il est possible de contourner ce problème en utilisant un glyphe unique associant un caractère de base et un signe diacritique combinatoire, mais cette technique exige l’identification des combinaisons nécessaires. Elle est dès lors plus efficace lorsqu’on l’applique à des langues spécifiques plutôt qu’à des besoins variés.

On cherche actuellement à accroître le répertoire de caractères disponibles dans les polices et améliorer la façon dont ils gèrent les signes diacritiques combinatoires. Microsoft a enrichi un certain nombre de ses polices dans son nouveau système d’exploitation Windows et les efforts de développement de polices de caractères libres se poursuivent. À titre d’exemple, une branche du projet ANLoc se consacre au développement de caractères latins étendus adaptés aux langues africaines dans des polices de caractères libres choisies.

3. De nouvelles polices sont encore créées à l’occasion, même si Unicode les rend inutiles. Ainsi, en 2006, l’élaboration d’une nouvelle police de caractères sur huit bits a été annoncée pour l’éwé au Togo (http://togocity.com/, 2006).

Les caractères non latins

Il existe un certain nombre de polices de caractères arabes, codées sur huit bits par les normes ISO 8859-6 ou Windows 1256 ou en Unicode. Unicode comprend bien sûr ces caractères, mais aussi des caractères additionnels, notamment pour des langues non arabes du Moyen-Orient, mais également pour certaines langues africaines (dont l’alphabet modifié est souvent appelé ajami). En raison du caractère informel des normes, il n’est pas clair dans quelle mesure les polices existantes tiennent compte de l’usage en Afrique.

TABLEAU 7.2 Quelques anciennes polices sur huit bits pour les caractères latins étendus en Afrique

Lieu, site ou organisation

Ancienne police sur huit bit s

Origine

Mali

Bambara Arial, Bambara Times

Créées dans le cadre d’un séminaire de l’ACCTa (fin des années 1990)

Matchfont.com

Police pour le kikuyu

Créée par Gatua wa Mbugwa (1999)

Niger

Indrap98b, La Nigérienne

Créées pour les langues nigérianes (fin des années 1990)

SIL International

De nombreuses polices pour une utilisation générale ou propre à un pays

Créées dans les années 1990 puis converties en Unicode

Notes:

a ACCT: Agence de coopération culturelle et technique, désormais appelée OIF (Organisation internationale de la francophonie)

b INDRAP: Institut national de documentation et de recherche pédagogique

S’il existe des solutions n’appartenant pas à Unicode pour l’éthiopien/guèze, les polices Unicode sont naturellement plus satisfaisantes pour diverses raisons. Par ailleurs, il existe des dizaine de polices pour le tifinagh et le n’ko, mais peu d’entre elles sont normalisées.

LES LANGUES SANS SYSTÈME D’ÉCRITURE

Pour les nombreuses langues africaines moins courantes ne possédant pas encore de système d’écriture, il faut passer par plusieurs étapes avant de pouvoir travailler avec des textes dans les TIC. Diki-Kidiri (2008) propose un guide à cet effet.

8
Claviers et systèmes de saisie

POUR UTILISER DES textes sur ordinateur – afin de créer ou d’éditer des documents et de remplir des formulaires –, il est nécessaire de disposer d’un système de saisie efficace. Ce système prend généralement la forme d’un clavier informatique. Les claviers sont fabriqués en série pour les langues principales, aux dépens des langues écrites avec des caractères différents. Ce chapitre traite des difficultés rencontrées lorsqu’on cherche à faciliter la saisie de caractères latins étendus et non latins.

LES CLAVIERS

Les claviers informatiques ont été pratiquement conçus sur le même modèle que les claviers des machines à écrire, qui étaient à l’origine adaptés aux langues couvertes par l’ASCII et l’ANSI. Pour les autres caractères, il a fallu mettre au point de nouvelles méthodes de saisie.

Cependant, un clavier informatique opère à un niveau plus abstrait qu’une machine à écrire, même si, pour l’utilisateur, son fonctionnement peut paraître aussi lié aux lettres apparaissant sur les touches que dans le cas d’une machine à écrire. Cette impression est due en partie aux configurations de clavier, mais les pilotes de clavier peuvent être conçus ou adaptés pour associer n’importe quel caractère à une touche ou une combinaison de touches (en associant des touches mortes ou les touches Alt ou AltGr à une touche de lettre). Cela peut se faire de plusieurs façons: soit par l’utilisateur, qui change les raccourcis-clavier attribués à certaines touches sur l’ordinateur qu’il utilise, soit par quelqu’un disposant d’un programme de configuration de clavier comme le Keyman de Tavultesoft ou le Microsoft Keyboard Layout Creator (MSKLC), qui sont destinés à être utilisés avec d’autres logiciels, soit par un program-meur de logiciels ou un localisateur qui définit les paramètres du clavier (et propose éventuellement des options à l’utilisateur potentiel) dans le logiciel même. Aucune de ces méthodes ne requiert de prendre en compte de ce qui est représenté sur les touches du clavier, même si la définition de certaines touches peut être plus intuitive pour les utilisateurs. Par ailleurs, le potentiel de normalisation de ces méthodes est important. Ainsi, les fabricants de logiciels commerciaux et les vendeurs de matériel informatique sont naturellement soucieux d’agir en coordination avec les normes concernant les langues des principaux marchés.

Une autre méthode consiste à concevoir des claviers de série (on parle ici du périphérique physique) et un pilote (comprenant peut-être des polices de caractères) pour une ou plusieurs langues, comme le clavier Konyin pour les langues nigérianes, par exemple.

Dans les paragraphes suivants, nous allons traiter de toutes les possibilités mentionnées, à l’exception de la première, c’est-à-dire la modification de certains raccourcis-clavier.

La création de configurations de clavier

Pour les langues utilisant un alphabet latin étendu ou non latin, mais ne disposant d’aucun modèle de saisie préalable, il est relativement facile d’attribuer des raccourcis-clavier ou de créer des configurations de clavier. Ainsi, des programmes tels que Keyman et MSKLC permettent à tout un chacun de réaliser et de partager une configuration particulière.

Lorsqu’on part d’un modèle préexistant (comme le clavier QWERTY en anglais ou AZERTY en français), la création d’une configuration de clavier commence par le choix des lettres à garder et à ajouter. Il est possible de conserver tous les caractères du clavier et d’en ajouter de nouveaux en associant les touches de lettre à des touches de modification (Alt, Ctrl, AltGr). Les logiciels de création de claviers donnent également la possibilité de configurer des touches mortes qui, lorsqu’on tape ensuite sur une autre touche, produisent un caractère ou une combinaison différente des dessins des touches concernées. La question des claviers est compliquée par le fait qu’ils peuvent être configurés d’au moins trois manières différentes, que nous présentons ci-dessous, et que l’on peut également avoir recours à des solutions alternatives1.

1. Cette description se base sur des informations fournies par Cunningham (communication personnelle, 2006) et Hosken (2003).

On a généralement recours aux solutions suivantes pour pouvoir saisir des caractères étendus et des signes diacritiques:

image La substitution, c’est-à-dire la réattribution d’une touche2. Cela signifie qu’il faut changer de clavier pour chaque langue utilisée. Il existe deux sortes de substitution:

image Les touches des lettres qui ne sont pas utilisées dans une langue donnée sont réattribuées à des caractères ou des signes diacritiques employés dans cette langue, mais pas dans la langue pour laquelle le clavier a été conçu. Dans le cas des alphabets non latins, cela concerne toutes les touches de lettre.

image Les touches alphanumériques du clavier d’origine sont réattribuées à des lettres de la langue cible.

image La combinaison de touches, c’est-à-dire l’association de deux touches, généralement les touches de modification (Alt, Ctrl, Alt et Ctrl à la fois ou AltGr) et une autre touche (habituellement une touche de lettre), pour écrire autre chose que ce qui est assigné à la touche de lettre. Dans certains cas, sur le clavier Konyin par exemple, il existe une touche spéciale ayant la même fonction que la touche AltGr.

image Des suites de touches, avec, par exemple:

image Des touches mortes qui, lorsqu’on appuie dessus, n’affichent aucun caractère, mais lorsqu’on appuie ensuite sur une autre touche, affichent un caractère ou un signe diacritique n’apparaissant pas sur le clavier. Cette fonction est utilisée pour les accents dans la configuration de clavier États-Unis International de Windows. À titre d’exemple, les touches de l’apostrophe, du guillemet double et de l’accent circonflexe servent à accentuer la voyelle dont elles sont suivies. Cette technique permet à deux touches d’afficher un caractère précomposé, mais elle ne fonctionne pas pour deux caractères (comme un signe diacritique combinatoire sur un caractère de base).

2. Les claviers QWERTY et AZERTY offrent un exemple des différences d’attribution. La place des touches A, Z, Q et W varie entre les deux configurations. De la même manière, il est possible, grâce à une configuration personnalisée, de réattribuer les touches dans un pilote pour clavier sans changer ce qui est représenté sur celles-ci.

image Des touches mortes fonctionnant dans le sens inverse, c’est-à-dire des touches d’accent que l’on ajoute après le caractère de base.

image Une combinaison de ces solutions.

En fonction du public visé, il existe d’autres procédés, notamment l’attribution de touches pour certaines langues et l’adaptation d’une configuration à plusieurs langues pour satisfaire aux besoins des pays ou régions multilingues.

De manière générale, il semble que les concepteurs de claviers choisissent la technique qui leur semble la meilleure. Dans ce domaine, les opinions et les préférences varient beaucoup d’une personne à l’autre. Pour ce qui est de la ou des langues couvertes, il existe des solutions alternatives et on préfère généralement développer des configurations propres à des langues en particulier. On pourrait cependant préconiser un plus large consensus concernant la disposition des touches. Dans les sociétés multilingues, et notamment en Afrique, il faudrait adapter les claviers à plusieurs langues lorsque cela est possible. La mise au point de configurations de clavier adaptées à de trop nombreuses langues pourrait toutefois conduire à des dispositions trop complexes.

Les claviers: conception et normalisation

Dans le cadre d’un processus de localisation de logiciels ou de création de produits, la conception de claviers répondant à divers besoins linguistiques peut être aussi simple que nous le suggérons dans les paragraphes précédents. Il est cependant primordial de tenir compte des normes. Ces dernières sont utiles tant aux localisateurs qu’aux utilisateurs finaux, car elles définissent les attentes et y répondent. Autrement dit, elles créent un environnement prévisible favorable à la programmation, la localisation et l’utilisation des ordinateurs.

Il existe une série de recommandations internationales (ISO 9995) concernant la proposition et la réalisation de claviers normalisés pour une situation donnée (comme une langue ou un groupe de langues)3. Cette norme indique entre autres que les claviers présentent trois groupes d’affectation, à savoir4:

3. http://en.wikipedia.org/wiki/ISO/IEC_9995, consulté en février 2011.

4. Cette description est tirée d’une page du site internet d’IBM intitulée « Globalize your on demand business » (http://www-306.ibm.com/software/globalization/topics/keyboards/iso.jsp, consulté en février 2011).

image Le groupe 1, qui représente la première couche, avec les caractères de base et la touche Majuscule pour changer la casse.

image Le groupe 2, qui constitue la couche nationale, avec les caractères de base et la touche Majuscule. On y accède en tapant sur une touche de verrouillage.

image Le groupe 3, qui permet de saisir des caractères supplémentaires. Ce groupe fonctionne sur un seul plan et on y accède avec une touche Majuscule.

Toute stratégie de conception de claviers à long terme devrait prendre en compte ces recommandations ainsi que les besoins des langues et les attentes des utilisateurs cibles.

DES CLAVIERS POUR L’AFRIQUE

En Afrique subsaharienne, on utilise communément des claviers d’ordinateur conçus pour l’Europe et l’Amérique du Nord (en particulier les claviers QWERTY et AZERTY). La seule langue couverte par cette étude qui dispose de claviers spécifiques dont l’utilisation est bien implantée est l’arabe.580 Il existe des systèmes de saisie pour l’éthiopien/guèze dans la Corne de l’Afrique, mais ils ne sont pas encore normalisés. Ce chapitre s’intéresse donc surtout aux efforts menés pour permettre des transcriptions en caractères latins, principalement avec des caractères étendus et des signes diacritiques (voir chapitres 4 et 6 pour le contexte).

Lorsque les langues emploient essentiellement les mêmes caractères que ceux figurant sur les claviers en LEGD et dans les logiciels (dans le cas des orthographes de première et deuxième catégories), la question de nouvelles techniques de saisie ne se pose généralement pas. Les nombreuses langues africaines qui utilisent des caractères étendus et des signes diacritiques présentent toutefois des difficultés. Les nombreuses langues du monde pour lesquelles on utilisait des machines à écrire spéciales avant l’avènement des ordinateurs de bureau ont obtenu des claviers informatiques adaptés à ceux de ces machines. Peu de ces langues étaient parlées en Afrique et, à notre connaissance, elles n’ont pas eu d’impact visible sur la conception des claviers d’ordinateur6. Il a donc fallu trouver des solutions alternatives.

5. Ceux-ci sont souvent associés à des dispositions de clavier QWERTY ou AZERTY, de telle façon qu’on peut voir les lettres arabes et latines sur les touches.

La plupart des claviers utilisés en Afrique ont été conçus pour l’anglais ou le français et un nombre non négligeable de configurations ont été mises au point pour la saisie de langues ou de groupes de langues africaines.

Comme nous l’avons indiqué au chapitre 6, il existe différentes façons de créer des interfaces destinées à saisir des caractères spéciaux et des signes diacritiques avec des caractères latins grâce à des programmes comme le Keyman de Tavultesoft ou le MSKLC de Microsoft, ou simplement en affectant des touches dans un logiciel de traitement de texte. Ces techniques ne sont pas difficiles à mettre en œuvre et sont disponibles pour un nombre croissant de langues, de pays ou de régions7. Des exemples de travaux de conception de claviers pour les langues africaines sont présentés sur le site internet qui accompagne cet ouvrage.

Les configurations de clavier pour les alphabets dérivés du latin ont soulevé l’intérêt d’individus et d’entreprises. Dans certains cas, comme au Nigeria, ce sujet a également attiré l’attention du gouvernement8. Malgré tout, la question des claviers adaptés aux langues africaines n’a pas été systématiquement étudiée dans son ensemble. Un certain nombre de configurations ont donc été conçues pendant plusieurs années pour des situations spécifiques en Afrique et, dans certains cas, des pilotes pour claviers et des polices sur huit bits ont été créés pour les accompagner9.

6. Williamson (1984: 66) mentionne des claviers de machines à écrire pour les langues nigérianes et des méthodes pour taper sur des claviers en anglais. Dans les années 1980, la société IBM a créé des boules d’impression avec ce que nous appelons aujourd’hui des caractères latins étendus pour son modèle de machine à écrire Selectric. Mann et Dalby (1987) ont proposé un clavier pour machines à écrire et ordinateurs comprenant seulement des minuscules, basé sur l’alphabet africain de référence de Niamey, mais sans grand succès (http://scripts.SIL.org/cms/scripts/page.php?site_id=nrsi&item_id=IntlNiameyKybd, consulté en février 2011). Il existe en fait une configuration de clavier s’inspirant du modèle de Mann et Dalby, mais elle comprend également les majuscules.

7. Voir, par exemple, le site de Tavultesoft (http://www.tavultesoft.com, consulté en février 2011) ou les liens concernant les projets de clavier a12n (http://www.bisharat.net/A12N/Projects, consulté en février 2011).

8. L’Agence nigériane de développement des technologies de l’information (Nigerian Information Technology Development Agency, NITDA) a créé une configuration de clavier.

La facilité avec laquelle on peut créer et diffuser des configurations de clavier comporte cependant quelques aspects négatifs. Chantal Enguehard, professeure à l’université de Nantes et participante du projet RIFAL, a exprimé son inquiétude quant à la confusion que pourrait créer la prolifération de configurations (Enguehard 2006). Elle a, avec Harouna Naroua, de l’université de Niamey, évalué et comparé plusieurs configurations de claviers (Enguehard et Naroua 2008).

L’étude des configurations de claviers en Afrique nous conduit inévitablement à la question des solutions alternatives aux claviers QWERTY ou AZERTY ou de la création de claviers spécifiquement conçus pour les langues africaines. Ainsi, Chinedu Uchechukwu, linguiste nigérian vivant en Allemagne, a suggéré l’utilisation du clavier allemand QWERTZ, qui dispose d’une lettre de plus que le clavier QWERTY. Une simple touche supplémentaire pourrait faciliter la configuration du clavier pour intégrer les caractères diacritiques additionnels nécessaires pour rédiger en igbo. Cette idée, comme d’autres qui ont conduit à la création de diverses configurations de clavier10, est le résultat d’échanges menés sur plusieurs groupes de discussion (voir tableau 13.1).

Le seul clavier que nous connaissons qui soit conçu spécifiquement pour des langues africaines est le clavier Konyin, dont nous avons déjà parlé, qui est destiné aux langues nigérianes11. Les nouvelles configurations de clavier ne devraient donc pas être très différentes des claviers auxquels les utilisateurs sont déjà habitués, c’est-à-dire, en général, les claviers français et anglais.

9. C’était par exemple le cas au Mali, où les polices sur huit bits Bambara Arial et Bambara Times ont été créées dans le cadre d’un projet mis en œuvre par l’organisation française ACCT à la fin des années 1990.

10. Les configurations de clavier d’Andrew Cunningham, du projet OpenRoad, en font notamment partie (http://www.openroad.net.au/languages/files/, consulté en juillet 2009). Voir aussi les interventions à ce sujet sur le groupe de discussion sur la langue igbo et les TIC (http://www.quicktopic.com/17/H/tCcDxVXHgQxN, consulté en février 2011).

11. http://www.konyin.com/, consulté en février 2011. Ce clavier est compatible avec les logiciels Microsoft Windows.

L’ensemble du continent africain, et plus particulièrement l’Afrique subsaharienne, utilise actuellement des claviers conçus à l’origine pour l’Europe de l’Ouest ou l’Amérique du Nord12. Les claviers anglais, fran-çais et portugais ont leur utilité, car ce sont les langues officielles de nombreux pays africains. Ces claviers pourraient servir de point de départ à l’élaboration de claviers plus africanisés. Si la prolifération actuelle de nouvelles configurations de claviers pour les langues africaines présente quelques inconvénients, ce processus pourrait faire naître de nouveaux concepts de production de claviers dérivés des claviers QWERTY et AZERTY qui, comme le clavier Konyin, conviennent mieux à l’Afrique que les claviers européens classiques.

Au Nigeria, notamment, plusieurs tentatives ont été faites pour concevoir des claviers adaptés aux caractères spéciaux nécessaires pour transcrire les nombreuses langues nigérianes. Ces travaux, ainsi que d’autres efforts menés dans des pays africains francophones à partir du clavier AZERTY, pourraient conduire à l’utilisation d’au moins deux claviers en Afrique, chacun pouvant adopter plus d’une configuration (voir chapitre 9).

Une branche du projet ANLoc vise actuellement à créer des configurations de clavier pour les langues africaines.

MODES DE SAISIE ALTERNATIFS

Des solutions alternatives aux claviers classiques sont également à l’étude ou même déjà utilisées partout dans le monde. On peut notamment citer les tablettes graphiques, utilisées comme claviers ou avec un système de reconnaissance de l’écriture manuscrite, les claviers virtuels, les claviers électroluminescents, qui affichent les caractères actifs sur les touches, et les applications de synthèse du texte à partir de la parole.

Les tablettes graphiques

Une tablette graphique est un dispositif externe (mais qui peut parfois être physiquement intégré à un clavier) qui permet d’envoyer des signes graphiques à une application logicielle. Ces signes sont généralement réalisés à l’aide d’un stylet qui permet de saisir du texte de deux façons:

12. Ainsi, en l’an 2000, dans un cybercafé de Bamako, au Mali, l’auteur a trouvé des claviers français, anglais et allemand.

image Avec un clavier virtuel et le logiciel correspondant, qui permet-tent d’afficher les caractères désirés en touchant les cases qui leur sont attribuées sur le clavier;

image En utilisant un programme de reconnaissance de l’écriture manuscrite, qui permet d’écrire des caractères ou des mots en les traçant avec le stylet sur la tablette.

En 2003, Lee Pearce, de Large-Format Computing, a conçu des claviers pour tablettes graphiques (de production ou prototype).1388 Cette solution conviendrait particulièrement à un syllabaire tel que l’éthiopien/guèze – pour lequel un clavier pour tablette graphique a d’ailleurs été conçu –, mais elle n’a pas eu beaucoup de succès dans d’autres contextes. Cela est en partie dû au fait que la saisie à l’aide d’un stylet est lente ou tout simplement peu familière. Cette méthode pour-rait s’avérer utile pour le syllabaire vaï si les utilisateurs potentiels considéraient qu’elle correspond mieux à leurs besoins qu’un éditeur de méthode d’entrée (IME) associé à un clavier. En tant que périphérique USB, la tablette graphique présente l’avantage de pouvoir être utilisée conjointement à un clavier classique pour faciliter la saisie de plusieurs langues ou de plusieurs alphabets.

Les claviers virtuels

Les claviers virtuels – qu’ils soient complets ou composés seulement des touches pour les caractères étendus – sont une autre solution. Les touches virtuelles pour les caractères étendus dans les applications web interactives comme les formulaires ou les courriers électroniques sont relativement communes, mais leur utilisation pour les langues africaines ne semble pas très répandue, sauf pour les messageries électroniques en langues africaines que nous évoquerons au chapitre 10.

Des claviers virtuels complets sont disponibles dans plusieurs applications, mais ils présentent l’inconvénient d’occuper de la place sur l’écran.

13. http://www.bisharat.net/A12N/Projects/#tabl, consulté en février 2011.

Par ailleurs, l’utilisateur doit alterner entre le clavier classique et les touches virtuelles ou encore utiliser seulement un clavier virtuel – deux méthodes qui prennent du temps.

Les claviers électroluminescents

À long terme, les claviers rétro-éclairés indiquant les affectations des touches d’une configuration de clavier donnée sont une autre solution plus prometteuse pour l’informatique multilingue, en Afrique ou ailleurs dans le monde. Ils peuvent en principe s’adapter et afficher n’importe quelle disposition de touches. Cette technologie émergente est l’œuvre du Art Lebedev Studio, en Russie, qui a créé le clavier Optimus14.

Les applications de synthèse du texte à partir de la parole

La technologie de la reconnaissance vocale et son utilisation dans les applications de synthèse du texte à partir de la parole (speech-to-text, STT) présentent un potentiel intéressant pour la saisie de textes. Les applications STT se sont beaucoup améliorées au fil du temps et offrent maintenant des résultats satisfaisants. Le programme Dragon Natural-lySpeaking de Nuance, un logiciel commercial de STT réputé pour l’anglais, démontre le potentiel de cette technologie.

Des travaux ont été menés pour élaborer un logiciel de reconnaissance vocale des langues yoruba et somali, mais aucun produit n’est encore disponible.

Nous étudierons plus en détail la question des applications STT au chapitre 12.

14. Selon le site d’Art Lebedev (http://www.artlebedev.com/, consulté en février 2011): « Chaque touche du clavier Optimus est un afficheur indépendant qui montre exactement ce qu’elle contrôle à chaque instant. »

9
Définition des langues dans les TIC: étiquettes et paramètres de lieu

DES SOLUTIONS DE LOCALISATION assez complètes existent pour plusieurs langues, avec les polices et des claviers appropriés. Les logiciels de localisation nécessitent cependant un système d’identification permettant d’adapter une interface aux préférences de l’utilisateur et d’identifier les contenus web en fonction de la langue et du pays. C’est la fonction que remplissent les codes de langue et les paramètres de lieu.

LES LANGUES ET LA NORME ISO 639

Les langues peuvent être identifiées dans les documents en ligne grâce à certains codes et les logiciels peuvent être conçus de façon à insérer ces codes lorsqu’ils enregistrent en format HTML. Les plus importants de ces codes sont définis par la norme ISO 639. Certaines étiquettes de langues supplémentaires sont établies par le Language Tag Registry Unit (LTRU), un groupe de travail de l’Internet Engineering Task Force (IETF). Par ailleurs, les paramètres de lieu, définis à l’aide des codes ISO 639 et d’autres informations, facilitent eux aussi la localisation. Nous analyserons ici ces deux éléments, leur importance en Afrique et les problèmes qu’ils soulèvent pour la définition des langues dans diverses applications TIC.

Généralités

En 2010, cinq normes internationales de représentation des noms de langues ont été adoptées par l’Organisation internationale de normalisation: l’ISO 639-1, avec des codes à deux lettres, trois normes qui utilisent des codes à trois lettres (l’ISO 639-2, -3, et -5), l’ISO 639-6 avec des codes à quatre lettres. Une autre norme, l’ISO 639-4, donne les principes de codage pour les noms des langues (voir tableau 9.1).

Cette série de normes a plusieurs fonctions, notamment l’identification des langues dans lesquelles sont rédigés les contenus web et la sélection de paramètres de lieu (localisation) adéquats, le cas échéant. Les parties 1 et 2 de la norme 639 comportent certaines redondances. Les indicatifs à deux lettres utilisés par l’ISO 639-1 se sont avérés insuffisants pour représenter toutes les langues du monde, c’est pourquoi l’ISO 639-2 et ses codes à trois lettres sont venus pallier ce manque.

TABLEAU 9.1 Les normes ISO 639 de représentation des langues (actuelles et prévues)

ISO 639-

Description

État

Page Internet de référence

1

Codes à deux lettres pour les langues

Adoptée officiellement en 2002 après plusieurs années d’existence

http://www.loc.gov/standards/iso639-2/php/French_list.php

2

Codes à trois lettres pour les langues et les groupes de langues

Adoptée en 1998

http://www.loc.gov/standards/iso639-2/php/French_list.php

3

Codes à trois lettres pour les langues individuelles (exhaustif)

Adoptée en 2007

http://www.sil.org/iso639-3/codes.asp

4

Recommandations et principes pour le codage des langues

Adoptée en 2010

http://www.iso.org/iso/fr/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=39535

5

Codes à trois lettres pour les groupes de langues

Adoptée en 2008

http://www.loc.gov/standards/iso639-5/index.html

6

Codes à quatre lettres pour les variantes linguistiques

Adoptée en 2009

http://www.iso.org/iso/fr/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=43380

Cependant, tout comme la norme ISO 639-1, l’ISO 639-2 avait à l’origine été créée à des fins terminologiques et bibliographiques et ne visait donc pas à couvrir toutes les langues. Il n’existait en outre aucune méthode permettant de s’assurer de la codification systématique de toutes les langues, ce qui ouvrait la voie à des redondances et des doublons dans leurs descriptions. Pendant un certain temps, l’ISO 639-2 comprenait à la fois les codes bibliographiques et les codes terminologiques de certaines langues1. Ainsi, les codes ak pour l’akan, tw pour le twi et fat pour le fanti offrent un exemple de redondance, car le twi et le fanti sont généralement considérés comme des langues akan.

La troisième norme, l’ISO 639-3, cherche à identifier toutes les langues en se basant sur les critères de SIL International et d’Ethnologue. Certaines incohérences entre les ISO 639-1 et 639-2, d’une part, et l’ISO 639-3, d’autre part, posent également problème. Dans certains cas, l’ISO 639-3 présente des codes différents pour des langues réunies sous un seul code dans les ISO 639-1 et 639-2. La catégorie des « macro-langues » a donc été introduite pour de nombreuses catégories de langues des ISO 639-1 et 639-2 correspondant à plusieurs langues dans la norme ISO 639-3 (d’autres ont été reclassées comme « groupes » de langues proches dans l’ISO 639-5).

Les langues africaines dans l’ISO 639

Plusieurs langues (ou groupes de langues) africaines, y compris l’arabe, ont un code ISO 639-1 à deux lettres. Un plus grand nombre de langues possèdent un code 639-2 à trois lettres. Il ne semble pas qu’une méthodologie stricte ait été employée pour choisir les catégories de langues. En effet, les deux premières parties de la norme comprennent à la fois des langues individuelles et des catégories regroupant des langues très proches. Par ailleurs, l’ISO 639-3 a adopté la méthodologie et les catégories de la liste de langues d’Ethnologue tout en introduisant de nouveaux critères2.

1. La page http://www.loc.gov/standards/iso639-2/develop.html (consultée en février 2011) explique comment cette situation s’est produite.

Il faudrait éventuellement envisager une approche plus méthodique pour le choix des langues et des groupes de langues africaines. Les discussions au sujet des catégories (langue, variante, macrolangue, et groupe de langues) dans les normes ISO 639 offrent l’occasion de mener des travaux en ce sens. Idéalement, des linguistes spécialisés dans les langues africaines et l’ACALAN devraient participer à ces discussions. En effet, comme il s’agit de normes internationales ayant des répercussions sur l’Afrique et qu’un certain nombre de pays africains sont membres de l’ISO (ISO 2006), au moins quelques-uns de ces pays devraient participer à ce processus.

Les paramètres de lieu

Les paramètres de lieu sont essentiels pour certaines langues utilisées en informatique et sur Internet. Texin (2006) décrit les paramètres de lieu comme « un mécanisme employé sur le Web, dans les environnements Java et dans de nombreuses autres technologies pour établir la langue d’une interface utilisateur, les formats de présentation et le comportement des applications ». Il s’agit donc d’un autre exemple de la façon dont l’internationalisation des TIC facilite la localisation.

Généralités

Les paramètres de lieu sont des informations de base concernant certains besoins et certaines préférences, comme le jeu de caractères Unicode, qui sont nécessaires pour afficher un texte dans une langue donnée et notamment les ordres de tri, les unités monétaires, le format des dates et les signes décimaux. Les paramètres de lieu concernant une langue et un pays sont généralement indiqués avec les codes ISO 639 (langues), ISO 3166 (pays) et, si une langue s’écrit dans plusieurs alphabets, ISO 15924 (systèmes d’écriture). Il existe relativement peu de paramètres de lieu pour les langues africaines.

2. Chacune des fiches des principales langues (sur le wiki du PAL) donne des informations sur les codes ISO 639 de la langue concernée.

La mise au point et l’intégration des paramètres de lieu à la base de registre appropriée constituent une étape nécessaire de la localisation des TIC dans une langue. La principale base de registre est le Common Locale Data Repository (CLDR), gérée par le Consortium Unicode3, mais il en existe également une pour OpenOffice.org.

Les paramètres de lieu pour les langues africaines

Il existe relativement peu de paramètres de lieu pour les langues africaines. Plusieurs initiatives ont été menées pour y remédier.

L’un des premiers projets – le projet Yeha – a été mis en œuvre par Daniel Yacob en 2001 et s’intéressait plus particulièrement aux paramètres de lieu pour les langues d’Afrique de l’Est4.

Début 2006, Alberto Escudero-Pascual et Louise Berthilson, de l’organisation non gouvernementale IT46, ont lancé un outil de création de paramètres de lieu en ligne, LocaleGEN5, pour aider à répertorier ces paramètres pour OpenOffice et le CLDR. Cela a conduit à la classification de nouveaux paramètres de lieu. En 2008, les participants d’un sous-projet d’ANLoc se sont lancés dans la création de paramètres de lieu pour 100 langues africaines. Cet effort devrait se poursuivre au moins jusqu’en 2010.

Le tableau 9.2 dresse la liste des langues africaines pour lesquelles des paramètres de lieu ont été incorporés au CLDR avant mai 2009. Les paramètres de lieu sont créés pour une langue et un pays et, dans certains cas, des systèmes d’écriture alternatifs peuvent être indiqués.

3. http://www.unicode.org/cldr/, consulté en février 2011.

4. http://yeha.sourceforge.net/, consulté en février 2011.

5. http://www.it46.se/localegen/, consulté en février 2011.

TABLEAU 9.2 Langues africaines dont les paramètres de lieu figurent dans le CLDR 1.6.1

Langue

Code ISO-639 employé

 

 

Pays concernés

 

-1

-2

-3

 

Afar

aa

 

 

Djibouti, Érythrée, Éthiopie

Afrikaans

af

 

 

Afrique du Sud, Namibie

Akan

ak

 

 

Ghana

Amharique

am

 

 

Éthiopie

Arabe*

ar

 

 

Algérie, Égypte, Libye, Maroc, Soudan, Tunisie et plusieurs pays d’Asie du Sud-Est

Atsam

 

 

cch

Nigeria

Bambara

bm

 

 

Mali

Bemba

 

bem

 

Zambie, RDC

Bena

 

 

bez

Tanzanie

Blen

 

byn

 

Érythrée

Chewa/Nyanja

ny

 

 

Malawi

Chiga

 

 

cgg

Ouganda

Copte

 

cop

 

Égypte

Embu

 

 

ebu

Kenya

Évé

ee

 

 

Ghana, Togo

Ga

 

gaa

 

Ghana

 

 

 

 

 

Gikuyu

ki

 

 

Kenya

Guèze

 

gez

 

Éthiopie, Érythrée

Gusii

 

 

guz

Kenya

Haoussa

ha

 

 

Nigeria, Niger, Ghana, Soudan; alphabets latin et arabe

Igbo

ig

 

 

Nigeria

Jju

 

 

kaj

Nigeria

Kabuverdianu

 

 

kea

Cap Vert

Kabyle

 

kab

 

Algérie

* Toute langue est en principe identifiée par un code ISO 639 de trois lettres, mais dans le cas où la langue a un code de deux lettres en ISO 639-1, ce dernier est utilisé.

Kalenjin

 

 

kln

Kenya

Kamba

 

kam

 

Kenya

Kinyarwanda

rw

 

 

Rwanda

 

 

 

 

 

Koyra Chiini [Sonrai]

 

 

khq

Mali

Koyraboro Senni [Sonrai]

 

 

ses

Mali

Kpellé

 

kpe

 

Guinée, Liberia

Langi

 

 

lag

Tanzanie

Lingala

ln

 

 

Congo, République démocratique du Congo

Luo

 

luo

 

Kenya, Tanzanie

Luyia

 

 

luy

Kenya

Makonde

 

 

kde

Tanzanie, Mozambique

Malagasy

mg

 

 

Madagascar

Masai

 

mas

 

Kenya, Tanzanie

Meru

 

 

mer

Kenya

Morisyen

 

 

mfe

Maurice

Nama

 

 

naq

Namibie

Ndébélé

nr

 

 

Afrique du Sud

Nyankole

 

nyn

 

Uganda

Oromo

om

 

 

Éthiopie, Kenya

Peul

ff

 

 

Plusieurs pays en Afrique de l’ouest

Rombo

 

 

rof

Tanzanie

Rwa

 

 

rwk

Tanzanie

 

 

 

 

 

Saho

 

 

ssy

Érythrée

Samburu

 

 

saq

Kenya

Sango

sg

 

 

Centrafrique

Sena

 

 

seh

Mozambique

Shambala

 

 

ksb

Tanzanie

Shona

sn

 

 

Zimbabwe

Sidamo

 

sid

 

Éthiopie

Soga

 

 

xog

Uganda

Somali

so

 

 

Somalie, Éthiopie, Kenya, Djibouti

Sotho du Nord

 

nso

 

Afrique du Sud

Sotho du Sud

st

 

 

Afrique du Sud, Lesotho

Swahili

sw

 

 

Kenya, Tanzanie

Swati

ss

 

 

Afrique du Sud, Swaziland

Tachelhit

 

 

shi

Maroc; alphabets arabe et tifinagh

Taita

 

 

dav

Kenya

Tamazight

 

 

tzm

Maroc, alphabets arabe et tifinagh

Teso

 

 

teo

Uganda

Tigré

 

tig

 

Érythrée

Tigrigna

ti

 

 

Érythrée, Éthiopie

Tsonga

ts

 

 

Afrique du Sud

Tswana

tn

 

 

Afrique du Sud

Tyap

 

 

kcg

Nigeria

Venda

ve

 

 

Afrique du Sud

Vunjo

 

 

vun

Tanzanie

Wolaitta

 

wal

 

Éthiopie

Wolof

wo

 

 

Sénégal

Xhosa

xh

 

 

Afrique du Sud

Yoruba

yo

 

 

Nigeria

Zoulou

zu

 

 

Afrique du Sud

Source: CLDR 1.9 (décembre 2010) (http://cldr.unicode.org/, consulté en février 2011)

10
Internet

COMME POUR LES AUTRES USAGES DE L’INFORMATIQUE, l’utilisation des ordinateurs pour échanger des informations et y avoir accès par le biais d’Internet a été accompagnée de plusieurs tentatives de recours à des langues diverses. Pour plusieurs raisons qui ont déjà été mentionnées (dont, jusqu’à récemment, les problèmes sociolinguistiques, éducationnels et techniques liés à l’affichage des caractères non ASCII), l’Afrique accuse un certain retard dans ce domaine.

LE COURRIER ÉLECTRONIQUE

Le courrier électronique constituait un premier pas évident dans l’utilisation d’Internet en Afrique et il est resté, pour beaucoup, sa principale utilité. Il est apparu suite aux efforts menés pour fournir une connexion aux pays de la région (voir Levey et Young 2002; Renaud 1994). Quand le reste du monde a commencé à surfer sur la Toile, l’organisation Kabissa s’est mise à proposer des pages internet par courrier électronique pour les nombreux utilisateurs africains qui ne disposaient pas d’une largeur de bande suffisante pour télécharger ces pages par le biais de logiciels de navigation1.

Bien qu’il soit difficile de déterminer l’ampleur de l’utilisation des différentes langues dans les courriers électroniques privés, certaines données permettent de faire une estimation de l’utilisation des langues africaines dans ce moyen de communication. Ainsi, au début des années 2000, deux services de messagerie électronique en ligne facilitaient la rédaction dans plusieurs langues africaines grâce à des touches virtuelles pour les caractères latins étendus: http://Africast.com/et http://Mailafrica.net/2.

1. Ce service a pris fin en 2006.

Il semble également que les langues africaines soient utilisées dans les groupes de discussion et sur les sites de dialogue en ligne. Da Costa (2002) a remarqué que: « de nombreux clavardages et courriels sont rédigés dans des langues autochtones comme le swahili ». Ces dernières années, un certain nombre de groupes de discussion dans lesquels une grande partie, voire la totalité des échanges se font dans une langue afri-caine, ont été créés. Il existe, par exemple, plusieurs listes de diffusion dans lesquelles le haoussa et le swahili (qui sont probablement les langues autochtones les plus parlées du continent) sont les premières langues de communication. Par ailleurs, Van der Veken et De Schryver (2003) ont trouvé des groupes de discussion en haoussa, en somali et en lingala.

Esterhuysen (2002) a signalé l’existence en 1992 d’un service de traduction de langues africaines par courrier électronique. Aujourd’hui, Gmail offre la traduction de courrier électronique en plusieurs langues, dont l’afrikaans et le swahili.

L’INTERNATIONALISATION ET LE WEB

Les efforts visant à faciliter l’utilisation des langues dans les TIC comprennent notamment des initiatives spécifiques à Internet ou ayant une utilité particulière pour cette technologie. Lecodage UTF-8 d’Uni-code (voir chapitre 6), par exemple, est de plus en plus utilisé pour les contenus web et les courriers électroniques multilingues.

Le World Wide Web Consortium (W3C)397 établit des normes pour le balisage des pages internet afin de favoriser, entre autres, les contenus multilingues.

Certaines analyses de l’utilisation du Web ont des implications sur l’internationalisation et la localisation. On étudie par exemple depuis plusieurs années comment le Web pourrait se transformer petit à petit en ce qu’on appelle le « Web sémantique », dont les caractéristiques facilitent la navigation ainsi que la mise en relation et la manipulation d’éléments d’information. Plus récemment, les experts et les entreprises qui s’intéressent à la façon dont le Web peut fonctionner et répondre à des besoins de manière de plus en plus interactive ont articulé leurs réflexions autour des discussions concernant le Web 2.0.

2. Ces deux sites ont cessé de fonctionner depuis.

3. http://www.w3.org/, consulté en juillet 2009.

LE CONTENU WEB DANS ET SUR LES LANGUES AFRICAINES

Si les langues africaines sont présentes sur le Web, elles sont peu visibles, et l’ampleur de leur utilisation actuelle fait l’objet de débats. Nous sommes portés à penser que le contenu en langues africaines (dans ces langues, plutôt que sur elles) est encore faible et qu’il ne se développe que progressivement. Les résultats de plusieurs enquêtes donnent cependant une image plus complète de la situation actuelle du contenu web en langues africaines et de son évolution.

Ces enquêtes peuvent être classées en quatre catégories: les enquêtes non officielles, les recensements, les estimations statistiques et les recherches des robots d’indexation. Comme on pouvait s’y attendre, les enquêtes non officielles simples sur plusieurs années de contenu web, réalisées par langue grâce à des moteurs de recherche, n’ont pas trouvé suffisamment de contenu dans l’une ou l’autre des langues africaines pour les placer au même niveau que certaines langues européennes minoritaires4.

Des enquêtes plus ciblées donnent des résultats plus intéressants. Ainsi, une étude non officielle réalisée en Tanzanie en 2001 dans le cadre d’un rapport pour l’Agence suédoise pour le développement international a estimé que dix pour cent des sites internet concernant la Tanzanie présentaient au moins une partie de leur contenu en swahili (Miller Esselaar & Associates 2001). Pour la plupart de ces sites cependant, la plus grande partie du contenu n’était pas dans cette langue.

Diki-Kidiri et Edema (2003) ont réalisé une étude approfondie dans laquelle ils ont cherché, répertorié et compté des sites internet. Ils ont trouvé un nombre non négligeable de sites traitant des langues africaines d’une façon ou d’une autre, mais ont remarqué que ceux-ci disposaient de très peu de contenu dans ces langues. En réalité, une grande partie de ces sites consistaient en des présentations des langues africaines, notamment des dictionnaires en ligne et des pages pédagogiques. Van der Veken et De Schryver (2003) ont eu recours à une méthodologie de la recherche et de l’extrapolation statistique différente. En comptant les occurrences de certains mots en particulier et en faisant une estimation du nombre de mots que ces occurrences pouvaient représenter en se basant sur la fréquence des termes recherchés dans un texte classique, ils ont conclu que le contenu web en langues africaines pour-rait être bien plus important qu’on l’imagine. Il est toutefois difficile de déterminer à partir de ces estimations le type de contenu dont il est question5. Par ailleurs, si Diki-Kidiri et Edema (2003) ont raison en affirmant que la plupart des sites ayant du contenu en langues africaines traitent des langues, il ne s’agit vraisemblablement pas de textes représentatifs. Les dictionnaires, par exemple, comportent généralement autant de mots moins communs que de mots et de termes fréquemment utilisés. Autrement dit, l’approche statistique ne fonctionne peut-être pas dans ce contexte.

4. Une enquête simple par langue réalisée sur Internet en 2000 par Vilaweb, le site web d’un journal barcelonais (Pastore 2000), n’a répertorié aucune langue africaine dans les 31 langues les plus utilisées. Une étude complémentaire classant les 48 langues les plus employées sur le Web plaçait l’afrikaans en 42e position après des langues comme le basque et le slovène, et le swahili en dernière position après le frison et le féroïen (Mas 2003).

Une étude menée actuellement par l’Observatoire des langues (Language Observatory) cherche à mieux évaluer la quantité de contenu dans diverses langues sur Internet. Une enquête sur les langues africaines a été lancée en 2006 grâce à une technique d’abord utilisée pour les langues asiatiques et ayant recours à un robot d’indexation et à l’analyse des statistiques (Suzuki et coll. 2002)6. Cette enquête s’intéresse exclusivement aux sites internet ayant un domaine de premier niveau associé à un pays africain et remarque de manière générale qu’il existe peu de contenu dans la plupart des langues africaines.

Il est bien sûr plus difficile d’analyser la nature du contenu dans des langues données que d’estimer la présence de ces langues sur le Web. L’étude de Diki-Kidiri et Edema (2003) semble être la plus révélatrice à ce sujet.

Une autre technique d’analyse de contenu web consiste à les classer en termes d’origine et de public. Ballantyne (2002) a eu recours à cette approche en étudiant le contenu web de pays développés. Bien que son étude ne s’intéresse pas à la question de la langue (ou des langues), son schéma pourrait être très utile pour comprendre la nature des contenus en étudiant leur origine et le public visé. Ainsi, le pourcentage de sites offrant un contenu descriptif sur les langues africaines traduit la situation dominante sur le Web de personnes extérieures à l’Afrique désirant apprendre une langue africaine ou en savoir plus sur celle-ci. En considé-rant le contenu de ce point de vue, les localisateurs peuvent avoir une meilleure connaissance de ce contenu, de leur cible et de la façon dont leur travail peut être facilité. En outre, on pourrait utiliser ce schéma pour identifier ce qui n’est pas fait en matière de localisation, en analyser les raisons et déterminer ce qui pourrait être fait pour obtenir de meilleurs résultats.

5. Les informations présentées ici font l’objet d’une étude plus récente et plus approfondie de l’UNESCO (2005) sur la diversité linguistique sur Internet.

6. [ne semble plus foncionner].

LE CONTENU WEB SUR LES LANGUES AFRICAINES

Il convient de s’attarder sur le contenu web traitant des langues africaines, car il représente une grande partie du contenu en langues africaines. Cette catégorie est vaste et comprend des présentations de qualités variées, allant du contenu très informel et parfois incomplet aux projets bien réfléchis et, dans certains cas, ambitieux. En général, cette catégorie reflète le fait que le public potentiellement intéressé par les langues africaines est composé en majeure partie de personnes qui ont peu de connaissance de ces langues, voire aucune, ou qui sont peu familières avec leur forme écrite (notamment les personnes qui ne savent pas lire ni écrire dans leur langue maternelle, comme nous l’avons déjà mentionné au chapitre 4).

Parmi les matériels sur les langues africaines les plus remarquables sur Internet, on compte le dictionnaire de swahili en ligne du projet Kamusi7, des présentations à des fins académiques comme le site sur le haoussa de l’UCLA et certains travaux visant à utiliser le Web comme outil d’enseignement. Ces derniers peuvent être classés en fonction de leur public: les apprenants en langue seconde (L2), qui ne vivent généralement pas en Afrique et connaissent peu la langue concernée (et l’apprennent, par exemple, à l’université), les enfants d’Africains expatriés (on parle alors parfois d’enseignement des « langues d’origine ») et les Africains vivant en Afrique qui suivent des cours d’alphabétisation dans leur langue mater-nelle, soit parce qu’ils ne savent lire et écrire que dans une autre langue, soit parce qu’ils sont analphabètes (le projet ALI, lancé au Cameroun au début des années 2000, est un exemple de ce type de cours)8.

7. http://kamusiproject.org/, consulté en février 2011.

En plus de répondre à certains besoins et de faire connaître les langues africaines en général, ce genre de contenu favorise aussi d’autres formes de localisation.

Les nouveaux attraits du Web

Deux formules plus récentes sur Internet offrent de nouvelles possibilités de développement de contenu en langues africaines, à savoir les blogues et Wikipédia. Les blogues sont de plus en plus répandus dans le monde entier, y compris en Afrique. Il en existe déjà plusieurs en langues africaines. Puisque des sites gratuits offrent un espace à quiconque désire commencer un blogue, il est relativement facile de produire des contenus textuels dans n’importe quelle langue. Tant que les blogues et les blogueurs auront leur place dans le cyberespace, nous pouvons nous attendre à ce que la quantité de contenu en langues africaines continue de croître.

Wikipédia est une encyclopédie en ligne expressément multilingue. Il existe près de 40 versions de Wikipédia en langues africaines (les plus représentées sont l’arabe, l’afrikaans, le swahili et le yoruba), mais nombre d’entre elles ont très peu de contenu. Suite à des discussions sur la façon de favoriser le développement de ces versions, engagées dans le cadre de la conférence Wikimania, en 2006, des mesures ont été prises pour coordonner ce travail9.

L’absence de développement de certaines versions de Wikipédia en langues africaines (et d’autres projets de la Fondation Wikimédia) est au centre des préoccupations, tout comme la façon dont la Fondation qui dirige ces projets devrait réagir lorsqu’aucun utilisateur ne contribue activement à une version donnée.

8. ALI est l’abréviation d’Apprentissage des langues africaines par l’Internet (Tonye, Soundjock et Mbede [2002]; http://www.kabissa.org/archives/a12n-forum/msg00187.html, consulté en juillet 2009). Ce projet est suspendu depuis 2004 en raison du manque de fonds (Tonye, communication personnelle, 2007). Il ne faut pas confondre le projet ALI avec le programme en ligne ALI Akan, qui est basé en Suisse et destiné aux apprenants de l’akan en langue seconde (ALI signifie alors African Languages on the Internet).

9. Les participants à cet effort échangent à ce sujet sur un groupe Yahoo!: http://tech.groups.yahoo.com/group/afrophonewikis/(consulté en février 2011).

Plusieurs observations intéressantes ont été faites à ce sujet. La première est que certaines versions de Wikipédia en langues africaines se sont développées assez rapidement lorsqu’un ou quelques contributeurs se sont mis à y contribuer, comme ça a été le cas pour le wolof et le yoruba10.

La deuxième observation ressort d’une étude réalisée en Tanzanie, qui a démontré que même les utilisateurs expérimentés ne savaient pas comment créer une page Wikipédia. Cette révélation n’est pas sans conséquence sur les efforts visant à promouvoir Wikipédia en Afrique.

L’INTERNATIONALISATION DES NOMS DE DOMAINE

Alors qu’Unicode et le développement d’outils permettant de traiter des caractères complexes permettent en principe d’afficher sur Internet du contenu dans n’importe quelle langue, l’affichage des noms de domaine dans plusieurs langues et systèmes d’écriture constitue un autre aspect à prendre en considération. Pendant quelques années, l’adaptation multilingue et l’internationalisation des noms de domaine en Afrique ont soulevé un certain intérêt, comme le démontre la création du volet africain du Consortium des noms internet multilingues (Multilingual Internet Names Consortium, MINC): AFRIMINC11.

En 2005, alors que les débats internationaux en la matière s’intensifiaient, un projet soutenu par l’ACALAN, le PNUD et l’Agence Inter-gouvernementale de la Francophonie s’est attaqué au problème12.

De son côté, l’Internet Corporation for Assigned Names and Numbers (ICANN) a testé plusieurs techniques pour traiter les noms de domaines internationalisés et multilingues dans des caractères non latins comme l’arabe13.

10. Voir http://wo.wikipedia.org/pour le wolof et http://yo.wikipedia.org/pour le yoruba (consultés en février 2011).

11. Son directeur, le Dr Nii Quaynor, du Ghana, était également directeur de l’ICANN pour la région africaine entre 2000 et 2003.

12. Une réunion de préparation organisée par Mouhamet Diop, de la société sénégalaise Next SA, s’est tenue à Dakar le 7 septembre 2005 pour mettre en route le projet.

13. Deux principales méthodes alternatives ont été testées pour traiter les caractères et les alphabets non ASCII (Crawford 2006).

11
La localisation de logiciels

LES APPLICATIONS LOGICIELLES EN LANGUES africaines peuvent être considérées comme un moyen essentiel pour faciliter l’utilisation des technologies et leur accès et comme un outil pour les personnes désirant créer des contenus web.

LES APPLICATIONS ET LES SYSTÈMES D’EXPLOITATION

Comme nous l’avons déjà mentionné au chapitre 2, la localisation de logiciels concerne à la fois les systèmes d’exploitation et les applications logicielles. Les systèmes d’exploitation font fonctionner le matériel informatique et hébergent et gèrent les applications avec lesquelles les utilisateurs interagissent. Les applications comprennent toute une série de programmes, allant des logiciels de bureautique classiques (y compris les logiciels de traitement de texte et les tableurs) aux jeux, en passant par les navigateurs et les programmes spécialisés tels que les systèmes d’information géographique (SIG).

Si la plupart des travaux de localisation en langues africaines touchent les applications logicielles (comme les logiciels de traitement de texte, les navigateurs ou les suites bureautiques de Microsoft ou OpenOffice), Microsoft a entrepris des projets de localisation de Windows et il existe plusieurs initiatives visant à localiser les systèmes Linux (notamment Ubuntu).

LES TENDANCES EN MATIÈRE DE LOGICIELS PROPRIÉTAIRES

Il existe de nombreux logiciels propriétaires, que nous définissons comme un logiciel à source fermée sous licence traditionnelle et généralement disponible dans le commerce. La plupart, sinon tous, ne sont localisés que dans les langues pour lesquelles le marché est suffisamment important. Les logiciels propriétaires localisés dans des langues africaines sont généralement des logiciels de traitement de texte ou des navigateurs internet.

Le groupe Microsoft (2004), chef de file des logiciels de bureautique – propriétaires ou non – s’est intéressé à quelques grandes langues africaines. Dans son projet de pack d’interface linguistique (Language Interface Pack, LIP), Microsoft a ajouté à un système de base comme l’anglais la traduction d’environ 80 pour cent des commandes.

Cependant, l’un de ces projets de localisations les plus anciens et, au départ, les plus prometteurs, celui du swahili, ne s’est pas montré à la hauteur des attentes1. Les avis divergent quant aux raisons de cet échec, qui peut s’expliquer par des lacunes dans l’exécution de la localisation (voir chapitres 2 et 3), par les méthodes utilisées pour développer le logiciel en swahili ou par le prix de ce logiciel. On peut certainement tirer des leçons de cette expérience et, en l’analysant dans le détail, celle-ci pourrait profiter à d’autres projets de localisation, en cours ou futurs.

LES TENDANCES EN MATIÈRE DE LOGICIEL LIBRE

Les logiciels libres (ou logiciels ouverts) sont particulièrement intéressants dans le contexte africain en raison de leur potentiel évident pour ce qui est de la localisation en de multiples langues. Cela s’explique par leur gratuité ou leur prix dérisoire et l’accessibilité de leur code source. Cela dit, le logiciel libre est autant un mouvement2 qu’une technique de développement et de commercialisation de logiciels.

Bien que leurs utilisateurs y soient généralement moins nombreux qu’ailleurs, le mouvement du logiciel libre s’est étendu en Afrique et dans le monde arabe. Des groupes d’utilisateurs de logiciels libres existent dans de nombreux pays africains.

1. Gachenge B, Why Microsoft Swahili version failed, Business Daily (Nairobi), 12 mars 2008. http://allafrica.com/stories/200803111159.html, consulté en février 2011.

2. Pour un rappel historique du mouvement, voir Rasch (2000).

En raison du nombre croissant de passionnés dans le monde entier, les logiciels libres offrent un soutien exceptionnellement diversifié, mais également des défis à surmonter (le projet PAL espère faciliter la communication et la coordination des efforts effectués par les localisateurs de logiciels libres qui se trouvent en Afrique ou qui s’intéressent à ce continent).

Paradoxalement, les logiciels libres bénéficient du soutien de grandes sociétés telles que Sun Microsystems et IBM. C’est un entrepreneur sudafricain, Mark Shuttleworth, qui a financé la conception du système Debian GNU/Linux.

Malgré le potentiel qu’offrent les logiciels libres pour la localisation, ils sont, en Afrique comme dans presque tout l’hémisphère sud, plus souvent considérés comme un moyen de réduire les coûts et la dépen-dance à l’égard des logiciels propriétaires, notamment ceux de Microsoft. Les liens entre les logiciels libres et la localisation ont apparemment mis du temps à se développer en Afrique (avec quelques exceptions dignes d’être mentionnées, comme Translate.org.za en Afrique du Sud). Il semble que plusieurs associations nationales œuvrant en faveur du logiciel libre mettent l’accent, du moins au départ, sur la promotion de l’utilisation des logiciels comme OpenOffice dans les langues officielles. C’est également la position des organisations régionales.

Si les logiciels libres et la localisation semblent converger de plus en plus à l’échelle internationale, reste à savoir comment encourager les utilisateurs de logiciels libres africains à participer au processus de localisation dans leur pays ou leur région.

Des outils pour faciliter la localisation des logiciels libres

D’un point de vue technique, les possibilités de localisation de logiciel, notamment pour les communautés de langues minoritaires, sont limitées par le nombre de personnes disposant des connaissances nécessaires en programmation et dans les langues concernées. L’une des solutions permettant de faciliter la localisation consiste donc à créer des outils simples destinés aux localisateurs potentiels qui ont la motivation et les compétences linguistiques nécessaires, mais pas le bagage technique jusqu’alors indispensable pour traduire des logiciels.

Le serveur Pootle, conçu par Dwayne Bailey de Translate.org.za et Javier Sola de Khmeros, est un exemple d’outil facilitant la localisation d’OpenOffice par des individus ayant un faible niveau d’expertise technique3. L’objectif est de « placer la barre plus bas » pour que des personnes qui maîtrisent les langues, mais ont un bagage technique et une connaissance de la programmation limités, puissent entreprendre des projets de localisation d’applications libres.

Cette méthode a également été suivie dans d’autres contextes comme, par exemple, pour répertorier des paramètres de lieu dans un outil en ligne. Il serait intéressant d’étudier les effets de cette ouverture de la localisation aux passionnés du libre qui ont une bonne connaissance des langues, mais ne sont pas spécialisés en informatique.

LA LOCALISATION DE LOGICIELS EN AFRIQUE

Les premières initiatives

Plusieurs efforts de localisation de logiciels dans des langues africaines ont été entrepris dans les années 1990. En voici quelques exemples:

Applications DOS:

image Koma Kuda: logiciel de traitement de texte pour écrire en mandingue avec le système d’écriture n’ko, qui se lit de droite à gauche;

image Afri-Alpha: logiciel permettant de produire des textes dans plusieurs langues du Bénin et d’Afrique de l’Ouest (l’interface était apparemment en français et n’avait été traduite dans aucune langue africaine).

Applications Windows:

image Somitek Hikaadiye: logiciel de traitement de texte et correcteur d’orthographe en somali (Windows 3.1);

3. http://translate.sourceforge.net/wiki/pootle/index?DokuWiki=04b0203d28c369 61cbc8160b690994ba, consulté en f’evrier 2011.

image Oromiffa d’Oromosoft: logiciel de traitement de texte permettant d’écrire en galla avec un alphabet latin modifié appelé qubee;

image Amharic WordPerfect: version locale du logiciel n’ayant pas été commercialisée.

Ces premiers efforts de localisation en langues africaines et pour leur usage sont intéressants, notamment parce qu’ils ont eu lieu avant que l’environnement Windows ne change le mode de fonctionnement des ordinateurs (un changement qui s’est fait en parallèle avec la domination sur le marché de Microsoft et de sa suite bureautique MS Office) et avant le développement exponentiel d’Internet. Un certain nombre d’initiatives peu connues, mais néanmoins très concrètes, ont vu le jour à cette époque. Bien que ces efforts n’aient apparemment pas conduit à une activité soutenue dans ce nouvel environnement, ils démontrent tout de même une reconnaissance précoce du potentiel de la localisation et constituent une expérience utile (notamment en ce qui concerne la terminologie développée et les configurations de clavier utilisées).

Ces dernières années, les besoins en logiciels localisés ont gagné en visibilité et davantage d’efforts ont été faits dans ce sens. Des initiatives telles que Translate.org.za ont ouvert la voie aux localisateurs africains et le principal fournisseur de logiciels propriétaires, Microsoft, a fait preuve d’un certain intérêt en la matière.

Les efforts actuels de localisation de logiciels libres

Le tableau 11.1 dresse la liste des langues africaines pour lesquels des projets de localisation du logiciel OpenOffice sont en cours ou ont été achevés.

D’autres logiciels ont été localisés. Ainsi, l’organisation non gouvernementale Open Knowledge Network a conçu son propre logiciel localisé pour mener à bien ses projets. Un programme de dessin destiné aux enfants, TuxPaint, a été localisé en swahili et, plus récemment, en xhosa et en venda. Quant au navigateur Mozilla, il a été localisé en ganda.

En ce qui concerne les systèmes d’exploitation, il existe des projets de localisation d’Ubuntu (Linux).

LES INTERFACES WEB

La localisation d’outils en ligne comme les moteurs de recherche est un sujet tout aussi intéressant. Ce domaine tient autant de la localisation de logiciels, du fait de l’importance de la terminologie et du profil des utilisateurs, que de celles de contenus web, car elle implique l’utilisation des langues africaines sur les sites internet, qui sont également des interfaces utilisateur. On peut citer comme exemple le programme de Google, Google in your Language, qui propose plusieurs versions en langues africaines et en prépare actuellement de nouvelles. Le réseau social en ligne Facebook dispose également d’un programme de localisation et plusieurs versions en langues africaines sont en cours de réalisation.

En règle générale, les sociétés qui gèrent des moteurs de recherche ou des sites de réseautage ont recours à des traducteurs bénévoles pour localiser leurs interfaces. La localisation dépend donc d’individus ou de groupes qui donnent de leur temps; les langues dépendent des bénévoles disponibles; et la qualité des traductions peut varier. Pour résoudre ce dernier problème, Google tente de faire réviser les traductions en interne par des employés parlant les langues concernées ou par d’autres bénévoles4.

4. Denis Gikunda (communication personnelle, 2009).

TABLEAU 11.1 Projets de localisation d’OpenOffice

Langue

Code

Site internet

Responsable

Afrikaans

af

http://af.openoffice.org/

Andreas Pauley

Amharique

am

 

Daniel Yacob

Arabe

ar

http://ar.openoffice.org/

Ossama Khayat

Kinyarwanda

rw

 

murf@e-tools.com

Ndébélé du Sud

nr

 

 

Sotho du Nord/sepedi

ns

http://www.translate.org.za

Dwayne Bailey

Sotho du Sud

st

http://www.translate.org.za

Dwayne Bailey

Swahili

sw

http://www.kilinux.org/

Alberto Escudero-Pascua

Swati

ss

 

 

Tigrigna

ti

http://ti.openoffice.org/

Mahfuz Ibrahim

Tsonga

ts

 

 

Tswana

tn

http://www.translate.org.za/

Dwayne Bailey

Venda

ve

 

 

Xhosa

xh

http://www.translate.org.za/

Dwayne Bailey

Zoulou

zu

http://www.translate.org.za/

Dwayne Bailey

Source: http://L10n.openoffice.org/languages.html; http://wiki.services.openoffice.org/wiki/Languages (consulté le 27 février 2011)

12
Technologie mobile et autres applications spécialisées

SI UNE GRANDE PARTIE des efforts de localisation concernent les ordinateurs et les logiciels les plus utilisés, il ne faut pas pour autant oublier la technologie mobile et les applications spécialisées. La technologie mobile est le résultat le plus récent de la miniaturisation de la technologie et estompe la frontière entre les différentes technologies numériques autrefois séparées et indépendantes. Les téléphones ne sont plus les seuls à exister en format de poche, sans fil et portable. Le matériel informatique adopte désormais les mêmes caractéristiques: il fait notamment office d’appareil photo et de gestionnaire d’informations personnelles et permet de se connecter à Internet.

D’autres TIC concernées par l’internationalisation et la localisation méritent d’être mentionnées: les technologies audio, les systèmes d’information géographique et les outils d’aide à la traduction. Certaines font partie de ce qu’on appelle les « technologies de la langue », notamment les technologies qui permettent de transposer des langues d’une forme écrite à orale, ou inversement, ou de les traduire.

LA TECHNOLOGIE MOBILE

La miniaturisation des TIC

La technologie mobile, qui regroupe à la fois les téléphones portables et les ordinateurs de poche, constitue un ensemble de dispositifs dont l’expansion traduit les progrès incessants de la technologie grâce auxquels de petits appareils réalisent à moindre coût les fonctions qui exigeaient auparavant des dispositifs plus encombrants. Le plus abordable des appareils mobiles, à savoir le téléphone portable, est désormais à la portée des personnes à faible revenu dans tout l’hémisphère Sud. Ce marché attire les investissements et renforce l’intérêt pour la localisation.

À l’autre bout de l’échelle des prix, le Simputer n’a pas rempli sa promesse de favoriser l’accès à des dispositifs informatiques de poche multilingues et relativement abordables aux plus défavorisés. Mais le processus de miniaturisation et de réduction des coûts est en bonne voie et, à l’avenir, ces attentes pourraient être comblées.

La localisation des téléphones portables en Afrique

Les téléphones portables occupent déjà une place importante en Afrique. Ils sont de plus en plus répandus, et leur utilisation dépasse, à l’heure actuelle, celles des lignes fixes, même dans les zones rurales de certains pays. Cette tendance et l’évolution de la technologie des messages texte se sont accompagnées d’un intérêt accru pour la localisation des interfaces utilisateur en langues africaines. La technologie mobile pourrait donc être le nouveau créneau porteur de la localisation. Elle s’est tellement développée que les dispositifs mobiles et les ordinateurs peuvent désormais être utilisés de façon interchangeable pour partager et traiter des données. Les difficultés de la localisation des téléphones portables dans les langues d’Afrique du Sud ont déjà été abordées par Shanglee (2004).

Parmi les entreprises de téléphonie mobile, Nokia semble être particulièrement active dans le domaine de la localisation1, et Sony Eriksson et Samsung ont également commercialisé des interfaces en langue locale en Afrique du Sud. Une entreprise américaine, Tegic Communications (qui appartient maintenant à Nuance), a adapté son logiciel de saisie de texte intuitive – une fonction présente sur de nombreux modèles de télé-phones portables – à plusieurs langues africaines, dont l’afrikaans, l’arabe et le swahili, et s’apprête à faire de même pour le xhosa et le zoulou (Senne 2006).

1. Nokia a localisé ses menus et la saisie intuitive pour au moins un modèle de téléphone en afrikaans, arabe et swahili, et seulement ses menus en zoulou, xhosa, sotho, yoruba, haoussa et igbo (http://www.europe.nokia.com/A4160009, consulté en février 2010).

Les commandes dans des alphabets africains non dérivés du latin, notamment l’arabe, ont fait leurs preuves et les recherches pour l’amharique sont en bonne voie. De nombreux téléphones des régions arabes permettent déjà de rédiger des messages texte en arabe.

LES TECHNOLOGIES AUDIO: MESSAGES VOCAUX, TTS ET RECONNAISSANCE VOCALE

En théorie, il est possible de transmettre, manipuler et transformer des paroles dans n’importe quelle langue grâce à des appareils informatiques. L’exploitation de ce potentiel devrait être une priorité pour les langues à tradition orale et dans les zones où le taux d’analphabétisme est élevé.

Certaines technologies audio ne sont pas très populaires dans les pays techniquement développés. Les courriels audio, par exemple, ne semblent pas s’être établis dans ces pays et n’ont qu’un usage limité ailleurs. Grâce aux progrès technologiques et notamment à la possibilité de transmettre des paroles par Internet avec la technique de voix sur IP et les appareils mobiles, d’autres applications, comme les commandes vocales, pourraient être étudiées.

L’association des formats audio, visuel et textuel pourrait être particulièrement utile pour l’apprentissage et pour anticiper les besoins des utilisateurs dont les capacités de lecture et d’écriture sont limitées.

La synthèse de la parole à partir du texte (Text-to-speech ou TTS) est bien sûr très intéressante pour les régions où les personnes ayant accès aux technologies ne peuvent pas lire, pour quelque raison que ce soit. Quant à la synthèse du texte à partir de la parole (STT), nous avons déjà abordé ses avantages au chapitre 8, dans notre analyse des modes de saisie alternatifs.

Les technologies audio en Afrique

Des études se sont intéressées aux systèmes TTS, notamment en raison du taux d’analphabétisme élevé en Afrique. Ces dernières années, plusieurs programmes ont été conçus pour les langues africaines. Le projet LLSTI (Local Language Speech Technology Initiative) a coordonné la création de systèmes TTS en swahili, en zoulou et en ibibio, en collaboration avec des partenaires locaux et internationaux. La version swahili est un exemple intéressant de l’application de la technologie TTS, car elle est utilisée pour l’envoi de messages texte sur les téléphones portables dans le cadre d’un projet kényan lancé par l’Open Knowledge Network et l’université de Nairobi.

Nous ne connaissons aucun système STT pour les langues africaines. En revanche, l’organisation nigériane African Language Technology Initiative (ALT-I) a mené des recherches sur la reconnaissance vocale en yoruba et des études ont également été faites concernant le somali.

LES SYSTÈMES D’INFORMATION GÉOGRAPHIQUE

Les systèmes d’information géographique (SIG) sont une technologie spécialisée servant à combiner des données spatiales (généralement des cartes) avec d’autres informations. En raison de l’évolution de cette technologie et de son utilisation, son potentiel en matière de localisation devient de plus en plus intéressant. Les logiciels de SIG sont devenus bien plus accessibles que leurs versions précédentes, dont la maîtrise nécessitait un certain niveau de formation. Cette évolution rend notamment possible l’utilisation des SIG en dehors des laboratoires informatiques et dans les processus d’analyse participative et de planification en faveur du développement local.

L’imagerie spatiale est l’outil idéal pour l’aménagement du territoire et des ressources naturelles à l’échelle locale. En effet, même des personnes analphabètes peuvent rapidement comprendre la technique, qui permet de superposer des informations et d’analyser des données de façon très poussée. De sérieux efforts ont été déployés dans plusieurs régions de l’hémisphère Sud, y compris en Afrique, pour conjuguer l’utilisation de cette technologie avec les méthodes de recherche participative déjà établies, comme la cartographie participative, pour former ce qu’on appelle la participation publique aux SIG, ou SIG participatif (PPGIS ou PGIS)2.

Cependant, trop peu d’attention est accordée à la localisation des logiciels dans la langue maternelle des habitants des milieux ruraux. De tels travaux de localisation pourraient peut-être favoriser l’accès direct aux SIG, ou du moins à leurs résultats, d’individus qui pourraient ainsi bénéficier davantage de cette technologie.

2. http://www.iapad.org/, consulté en février 2011.

Le logiciel de SIG commercialisé par ESRI est souvent considéré comme une référence dans le secteur. Mais il existe également un certain nombre d’applications SIG libres3 dont l’une, le Geographic Resources Analysis Support System (GRASS), est particulièrement réputée.

Les normes en matière de SIG sont définies par la série ISO 19100 (qui régit principalement l’échange d’informations géographiques), qui n’a aucun rapport direct avec les possibilités ou le processus de localisation.

Les SIG en Afrique

L’utilisation des SIG est en pleine croissance en Afrique. Pourtant, à notre connaissance, aucun logiciel de SIG n’a encore été localisé dans une langue africaine. Une initiative a apparemment été lancée pour traduire le logiciel GRASS en amharique.

Cependant, les concepteurs de l’application SIG GRASS ne sousestiment pas son potentiel en matière de localisation et espèrent qu’elle sera traduite dans de nombreuses langues4. Le logiciel supporte désormais les caractères Unicode.

LA TRADUCTION ASSISTÉE PAR ORDINATEUR

La possibilité de traduire des idées écrites ou prononcées d’une langue à l’autre avec l’aide d’un ordinateur est l’une des fonctions les plus intéressantes des TIC dans les contextes multilingues, mais elle a pourtant reçu relativement peu d’attention en Afrique5. La technologie évolue rapidement dans ce domaine. Elle est liée aux travaux de localisation et a un impact sur ceux-ci.

3. Le site http://opensourcegis.org/(consulté en février 2011) présente une liste de ces programmes.

4. Markus Neteler (communication personnelle, 2005). Pour de plus amples informations sur l’application GRASS, voir http://grass.itc.it/(consulté en février 2011).

5. L’Association internationale pour la traduction automatique (International Association for Machine Translation, IAMT), par exemple, est composée de trois associations régionales, l’une pour les Amériques, l’autre pour l’Europe et la troisième pour l’Asie-Pacifique, mais aucune pour l’Afrique, un continent qui représente à lui seul environ un tiers des langues du monde.

La traduction assistée par ordinateur (TAO) comprend la traduction automatique (TA) par un programme informatique visant à traduire des textes écrits ou oraux d’une langue vers une autre, dans un cadre général ou spécifique, et les mémoires de traduction (translation memory, TM), qui servent plutôt à traduire de nouveaux textes en se basant sur des traductions effectuées précédemment et dont le contenu est relativement similaire. D’importants progrès ont été réalisés dans ce domaine au cours des dernières années, à tel point qu’il convient de se demander si nous avons franchi une étape et si leur utilisation, non plus exceptionnelle et sujette à l’erreur, est désormais répandue et utile.

Dans sa forme la plus simple, une TM est une base de données de traductions antérieures réalisées par des individus à un moment donné. Des segments de texte sont alignés par paires de langues pour que, lorsque des phrases ou des termes déjà traduits apparaissent dans un nouveau texte, la traduction correspondante dans l’autre langue s’affiche. Les TM visent donc à limiter la quantité de texte saisi pour les segments dont la traduction est prévisible. Elles constituent donc un outil dont l’usage est très répandu dans le domaine de la localisation et sont utilisées par les entreprises des pays industrialisés6.

Contrairement aux mémoires de traduction, la traduction automatique doit faire face à l’imprédictibilité du langage humain et fournir d’une façon ou d’une autre des traductions utiles et fidèles. Des spécialistes cherchent depuis plusieurs années à les développer grâce à diverses méthodes et technologies. On évoque généralement deux méthodes différentes, qui peuvent également être combinées. La première est basée sur des règles et passe par l’analyse de la structure de la langue pour traduire les mots d’une phrase. La deuxième s’appuie sur des statistiques grâce à la collecte de données et d’exemples, ce qui présente quelques éléments communs avec les mémoires de traduction. La première méthode exige une connaissance sans faille de la grammaire et la deuxième une quantité importante de données textuelles dans les langues concernées. Le développement d’outils de TA statistiques est donc difficile pour les langues présentant peu de documents écrits.

6. Il est important que les utilisateurs finaux – qui pourraient avoir besoin de se référer à des notices ou des modes d’emploi dans une langue différente de l’original – disposent de documents clairs et cohérents.

Les outils de TA reposant sur des règles peuvent être particulièrement utiles pour les paires de langues proches. C’est d’ailleurs sur ce type de langues que le programme de TA par transfert superficiel Apertium a concentré ses efforts.

La TAO en Afrique

Les moteurs de TA par « transfert superficiel » sont particulièrement intéressants. Il s’agit en effet d’une méthode adaptée à la traduction entre des paires de langues voisines. Le logiciel de traduction libre Apertium, cité précédemment, en est un exemple7. Tout comme le programme plus simple d’adaptation entre dialectes assistée par ordinateur (computerassisted dialect adaptation, CADA) des années 19908, cette méthode pourrait être utile pour des langues africaines proches.

Actuellement, la TA est peu utilisée entre les langues africaines et non africaines, à l’exception de l’arabe (et notamment des traductions arabe/anglais), qui a fait l’objet de recherches considérables et pour lequel il existe déjà des logiciels de TA sur le marché et des outils de traduction en ligne. Pour les autres langues du continent, plusieurs projets sont en cours, mais pour l’instant, les programmes de TA permettent uniquement la traduction entre l’anglais et le xhosa ou le pulaar/fulfulde. Ces derniers ont été conçus et présentés en ligne9 grâce aux efforts de Martha O’Kennon, de l’Albion College (États-Unis), et au logiciel Prologue. Ils fonctionnent par règles et ne peuvent traduire que de courtes phrases. Mme O’Kennon travaille également avec des collaborateurs pour le développement de programmes de TA pour l’akan et le yoruba.

Il existe un certain nombre de projets à plus grande échelle, notamment le projet Salama, pour la traduction du swahili, lancé il y a plus de vingt ans sous la direction de M. Arvi Hurskainen, professeur à l’université d’Helsinki (Finlande)10. Le projet de recherche sur les langues africaines de l’université du Maryland (États-Unis) s’intéresse notamment à la traduction automatique des langues africaines. D’autres initiatives visent également à constituer un corpus dans le but de développer, à terme, des moteurs de TA. C’est le cas du projet SAY pour l’amharique (et d’autres langues non africaines) de l’université du Nouveau-Mexique, aux États-Unis.

7. http://xixona.dlsi.ua.es/apertium-www/?id=whatisapertium&lang=fr, consulté en février 2011.

8. Jeff Allen (communication personnelle, 2006).

9. http://mokennon2.albion.edu/language.htm, consulté en février 2011.

10. http://www.njas.helsinki.fi/salama, consulté en février 2011.

L’Afrique du Sud compte apparemment quelques spécialistes en TA, mais nous n’avons eu connaissance d’aucune initiative de développement de la TA pour les langues africaines basée en Afrique.

Les mémoires de traduction ont été utilisées pour certaines langues africaines. La société de traduction sud-africaine Web-Lingo, par exemple, utilise la mémoire de traduction de Trados11 pour certains de ses travaux. Par ailleurs, l’outil libre de mémoire de traduction OmegaT possède une version en afrikaans12.

11. http://www.trados.com et http://sdl.com/en/products/translation-memory/sdltrados/, consultés en février 2011.

12. http://www.omegat.org/omegat/omegat.html, consulté en juillet 2009.

13
Pour une localisation durable

ÀUNE ÉPOQUE OÙ LA LOCALISATION des TIC en langues africaines prend de plus en plus d’importance grâce à tous les progrès que nous avons mentionnés, il est essentiel de se pencher sur les conditions nécessaires pour qu’elle se développe durablement et atteigne ses objectifs. En effet, la localisation – que nous avons introduite dans cet ouvrage comme un produit dont l’objectif est d’anticiper et de répondre aux besoins en TIC multilingues et contextualisées en Afrique – est également un processus qui ne peut remplir sa fonction et atteindre des résultats durables que sous certaines conditions.

Nous avons cherché, dans cet ouvrage, à étudier ce processus et ses résultats. Le présent chapitre revient sur les besoins en matière de localisation et de localisateurs.

Il s’agit donc de déterminer quels sont les différents types de localisation et qui réalise ce processus. Nous répondrons à ces questions dans ce chapitre, qui comprend également une évaluation et une analyse stratégique de ces besoins dans une perspective de localisation durable en Afrique. Les besoins ont été identifiés par les participants d’un atelier du projet PAL qui a eu lieu à Casablanca, au Maroc, du 13 au 15 juin 2005.

LES BESOINS EN FONCTION DES TYPES DE LOCALISATION ET DES LOCALISATEURS

Nous avons vu au chapitre 2 que le processus de localisation pouvait prendre plusieurs dimensions, dont la plus importante est l’équipement ou l’adaptation des systèmes, des contenus internet et des interfaces utilisateur (logiciels). Pour ce qui est des localisateurs, nous avons identifié trois grandes catégories: les Africains vivant en Afrique, les Africains vivant hors du continent et les non-Africains.

Les besoins par type de localisation

L’internationalisation des TIC permet en grande partie de satisfaire aux conditions techniques nécessaires à l’équipement de systèmes et autres processus de localisation dans des alphabets latins étendus et non latins (voir chapitre 6). Que les informaticiens, les linguistes et les localisateurs en Afrique le reconnaissent ou non, la priorité doit maintenant être accordée à la mise en valeur des ressources disponibles et, dans certains cas, à la formation à l’utilisation d’Unicode.

La création et la traduction de contenus localisés sont plus exigeantes, notamment en matière de compétences linguistiques et de connaissance des outils nécessaires pour mener à bien ces processus. Il faut par exemple connaître les polices adaptées et les moyens de coder les alphabets latins étendus et non latins. Toute étude concernant des documents texte soulève cependant la question de la normalisation de l’écriture de la langue concernée, notamment de l’orthographe et de la terminologie. Cet aspect relève plutôt de la linguistique appliquée, mais les dynamiques de l’écologie de la localisation – les problèmes non résolus concernant l’écriture des langues, par exemple – peuvent, pour certains types de localisation, poser problème en termes de résultats et d’accueil de la part des utilisateurs potentiels.

La localisation de logiciels est encore plus problématique, surtout en ce qui a trait aux compétences nécessaires. La terminologie spécialisée servant à désigner les concepts liés aux TIC dans des langues peu familières avec ces technologies constitue l’un des problèmes de ce domaine. Les travaux de conception d’outils visant à faciliter la traduction de logiciels par des personnes qui maîtrisent les langues mais qui ont peu de connaissances techniques reçoivent de plus en plus d’attention (comme, par exemple, le serveur Pootle, mentionné au chapitre 11).

Ces travaux cherchent à répondre aux différents besoins des individus qui participent au processus de localisation afin de leur permettre d’être plus efficaces. Avant d’analyser cet aspect plus en détail, il est important d’évoquer la question de la durabilité, qui implique davantage de problèmes et certains enjeux stratégiques.

Les besoins en matière de durabilité

La durabilité, qui est un terme courant dans le domaine du développement international, désigne les chances de survie d’un système ou d’une réalisation. Cette survie dépend de la façon dont ce système ou cette réalisation a été mené à bien et prend en compte les facteurs qui l’influencent.

À la base, le processus de localisation implique des relations entre la technologie et les langues. Les facteurs socioculturels tels que le profil des utilisateurs, la façon dont la langue est utilisée et les conventions culturelles doivent donner un sens à ces relations. Comme nous l’avons déjà observé au chapitre 3, ces dynamiques constituent les fondements de la localisation, mais elles s’inscrivent dans un environnement plus large. Les localisateurs doivent donc bien comprendre ce contexte et s’appuyer sur cet environnement.

Les besoins des localisateurs

Il n’est pas exagéré d’affirmer que la localisation dépend de la motivation des individus qui y participent ainsi que de leurs compétences et leur capacité d’organisation. Naturellement, les personnes qui travaillent dans le domaine de la localisation viennent toutes d’horizons différents et ont des qualités et des intérêts variés. En général, leurs besoins dépendent du contexte dans lequel ils réalisent leurs travaux de localisation. Autrement dit, chaque problème dépend du travail effectué.

Cependant, on peut supposer que, pour effectuer ce travail qui, par définition, exige des compétences à la fois linguistiques, techniques et organisationnelles, les localisateurs ont potentiellement besoin d’informations, de soutien et de formations dans au moins un de ces domaines.

Les localisateurs des trois catégories (les Africains vivant en Afrique, les Africains vivant sur un autre continent et les non-Africains) ont des atouts différents et complémentaires:

image Les localisateurs vivant en Afrique représentent bien sûr le futur de la localisation sur ce continent. C’est certainement le groupe qui se développe le plus rapidement et c’est pourquoi toute tentative d’évaluation plus poussée des besoins des localisateurs devra bien sûr concentrer son attention sur lui1. En général, on peut considérer que ces localisateurs ont tendance à avoir une meilleure connaissance des langues que des aspects techniques. Ils ont donc besoin de formations ciblées sur les aspects techniques de la localisation et d’outils facilitant leur travail.

1. Comme l’ont effectivement fait les projets PAL et ANLoc.

image Les Africains vivant hors du continent constituent un groupe qui joue un rôle crucial à court terme. Son impact actuel et son potentiel sur la localisation dépasse largement le nombre d’individus qui le composent. Cela s’explique en grande partie par leur niveau moyen d’éducation et leur accès au TIC. Il faut cependant trouver un moyen de mettre en contact, organiser et travailler avec les membres d’un groupe aussi hétéroclite et dispersé.

image Les non-Africains qui s’intéressent au progrès des langues africaines dans les TIC jouent un rôle de soutien important en s’impliquant dans des communautés de localisateurs et dans des initiatives qui ont pour objectif de développer des ressources, des formations et des collaborations dans ce domaine.

COMPRENDRE LES BESOINS DES LOCALISATEURS

Afin de lancer une initiative de localisation et de la mener à bien, il faut connaître les besoins des localisateurs. On peut réaliser un tour d’horizon et une analyse de l’extérieur ou choisir d’aborder la question du point de vue des localisateurs eux-mêmes. Ces deux approches ont leurs avantages, mais la seconde a le mérite de bénéficier de la connaissance que les localisateurs ont des besoins matériels et informationnels du processus de localisation.

L’un des objectifs de l’atelier organisé par le projet PAL à Casablanca en 2005 était d’obtenir des informations de la part des localisateurs au sujet de leurs besoins. Les préparatifs de l’atelier comprenaient l’identification, dans les grandes lignes, des sujets susceptibles d’être abordés et l’organisation des séances de travail pour en discuter.

Besoins techniques, linguistiques, stratégiques et organisationnels

L’atelier du projet PAL a proposé un premier découpage de l’analyse des besoins en matière de localisation en deux grandes catégories: d’une part, les besoins techniques et linguistiques et, d’autre part, les besoins stratégiques et organisationnels.

Les localisateurs devaient pouvoir développer leurs idées autour de ces grandes lignes. C’est la méthode qui a été employée avant et pendant l’atelier organisé à Casablanca, d’abord à travers le wiki, puis au cours des séances réunissant les participants.

Besoins techniques et linguistiques

L’objectif principal de cette partie est d’identifier les conditions techniques et linguistiques nécessaires à la réussite des travaux de localisation en Afrique. Les facteurs techniques et linguistiques2 sont essentiels au processus de localisation, ainsi qu’aux autres aspects du traitement de l’écriture et des textes dans les TIC. Il semblait donc approprié de les analyser ensemble.

Dans ce contexte, le terme « linguistique » est pris au sens large de « relatif à la langue » et ne désigne donc pas seulement la structure et les usages de la langue, même si ceux-ci ne sont pas sans conséquence sur les travaux de localisation. La normalisation des orthographes, les variantes linguistiques constituées par les dialectes et qui font que l’on assiste à divers degrés d’intercompréhension, et la terminologie sont autant de questions linguistiques ayant un intérêt particulier dans le domaine de la localisation.

Pour ce qui est des aspects techniques, on retrouve des problèmes semblables à ceux rencontrés lors de la traduction de logiciels ou de contenus, et notamment certains éléments d’internationalisation comme l’adaptation des systèmes et la définition de paramètres de lieu.

Besoins stratégiques et organisationnels

Cette partie a pour principal objectif d’identifier les éléments stratégiques et organisationnels nécessaires au succès des efforts de localisation en Afrique. Ces points, souvent négligés, semblaient essentiels pour des travaux de localisation efficaces. Trop souvent, des travaux effectués en parallèle se répètent inutilement, des initiatives nées de grands espoirs ne sont pas assez ambitieuses pour être menées à bien et le manque de ressources devient un obstacle. Par ailleurs, il est important que ces efforts obtiennent le soutien nécessaire pour mettre en place un environnement favorable à la localisation. Il est donc nécessaire d’envisager comment mieux coordonner les différents efforts réalisés dans ce domaine.

2. Dans le modèle PLETES, cela concerne deux éléments de la dynamique de la localisation.

Certaines des questions évoquées dans cette partie concernent également les travaux sur les logiciels libres en général.

Besoins identifiés lors de l’atelier du projet PAL

L’atelier organisé à Casablanca a permis de rassembler les expériences et les opinions des participants au sujet des difficultés qu’ils avaient rencontrées, des victoires qu’ils avaient remportées et de ce dont ils estimaient avoir besoin pour en faire davantage et être plus efficaces. Les participants ont d’abord échangé par petits groupes avant de présenter leurs résultats aux autres. Chaque idée a été présentée sur une carte distincte. Les cartes ont été accrochées sur un mur et classées par l’ensemble des participants dans des catégories qui se sont ainsi créées naturellement. De cette façon, les catégories ont été définies à partir des informations fournies et non pas en fonction d’une structure générale préétablie. Les participants ont identifié cinq catégories:

image Le gouvernement, notamment les relations et l’importance du soutien;

image Les réseaux entre pairs, notamment la nécessité de travailler en collaboration à la localisation des logiciels libres et les avantages qui en découlent;

image La normalisation, qui est importante dans plusieurs domaines comme l’orthographe;

image Les questions techniques, y compris certains aspects du processus de localisation en soi;

image Les questions sociolinguistiques, notamment les problèmes propres aux langues rencontrés lors des travaux de localisation.

Bien que d’autres technologies aient été mentionnées, la plupart des échanges concernaient OpenOffice et les interfaces utilisateur de base.

Comparaison et synthèse

Plusieurs remarques nous viennent à l’esprit lorsqu’on compare les deux grandes catégories citées précédemment, à savoir les aspects techniques et linguistiques et les éléments stratégiques et organisationnels. Il est intéressant de noter que l’un des piliers de la localisation évoqués à Casablanca était les réseaux entre pairs.

Il est quelque peu surprenant que les localisateurs qui ont participé à l’atelier organisé à Casablanca n’aient pas parlé de stratégie ou d’organisation. Il est possible que ces questions ne se posent pas encore pour les projets de localisation qui n’en sont qu’à leurs premiers balbutiements. Il est également possible que le sujet soit plus intéressant vu de l’extérieur. Cela dit, il est fort probable que les futures collaborations nous permettent de répondre à plusieurs questions qui n’ont pas été formulées dans les termes que nous attendions.

Les problèmes techniques et sociolinguistiques et les questions de normalisation mentionnés correspondaient plus ou moins à nos pronostics. Si nous aurions dû prévoir l’importance que les participants ont accordée au rôle des gouvernements, la présence de cet élément nous rappelle à quel point cette préoccupation est essentielle.

ANALYSE DES BESOINS DU POINT DE VUE DU PANAFRICANISME

Si l’opinion des localisateurs est d’une importance cruciale, il est néanmoins nécessaire de considérer les besoins à court et long termes d’un point de vue stratégique. En effet, les localisateurs sont des experts dans leur milieu, mais ils ne sont pas toujours sensibles aux relations plus larges et à plus long terme de l’écologie de la localisation. On peut donc analyser les besoins à travers une vue d’ensemble prenant en compte les liens et les similarités entre les travaux réalisés à l’échelle locale qui ne sont pas visibles du point de vue des localisateurs, ainsi que les tendances à plus long terme que les localisateurs ne pourraient peut-être même pas identifier dans le cadre d’un atelier.

Parmi ces tendances, on peut citer l’augmentation du financement de la part des organisations intergouvernementales et des bailleurs de fonds, l’évolution des moyens de communication, qui permet aux initiatives de se compléter plutôt que d’empiéter les unes sur les autres par ignorance, et la création d’outils de grande envergure, comme les bases de données répertoriant des informations et des contacts.

Les langues transfrontalières posent des problèmes d’ordre stratégique. Par le passé, l’UNESCO a d’ailleurs organisé un certain nombre de conférences à ce sujet. Les besoins en la matière sont actuellement déterminés par le potentiel de localisation des TIC dans ces langues, et plusieurs organismes interafricains et internationaux pourraient financer des activités dans ce domaine. Les localisateurs et leurs programmes peuvent également prendre contact entre eux. Aussi, dans certains cas, le développement de travaux transfrontaliers peut simplement dépendre d’un élément catalyseur ou d’un premier contact.

Les langues composées de plusieurs dialectes (qui sont souvent transfrontalières) soulèvent des questions concernant les paramètres de lieu et les méthodes alternatives de localisation de logiciels pour les communautés les plus grandes ou pour les variantes linguistiques.

Dans une perspective de planification, il serait utile de recouper les informations concernant le potentiel de localisation dans certaines langues et l’évolution des conditions locales et régionales avec des données telles que la connectivité et l’accès physique aux TIC, ce qui reviendrait à cartographier l’écologie de la localisation dans un espace géographique (en utilisant peut-être un logiciel de SIG). Cela permettrait de commencer à évaluer les principaux besoins et impacts éventuels de la localisation.

Malheureusement, une telle approche stratégique du processus de la localisation fait défaut et, étant donné la nature des initiatives locales, elle serait probablement impossible sans une aide extérieure. C’est ce qui a motivé la création du projet PAL et le développement de sa présence sur Internet par le biais de son site et de ses listes. Le projet a finalement réussi à atteindre certains de ces objectifs, notamment grâce à son wiki, qui présente des informations sur de nombreuses langues africaines et leur localisation.

Parmi ces informations figurent les problèmes posés par les langues composées de plusieurs dialectes ne possédant pas une version standard unique et par les langues transfrontalières. On peut par exemple se demander s’il serait logique de chercher à effectuer une localisation de logiciels commune pour des langues très proches ou quelle est la meilleure façon de collaborer lorsque des langues sont parlées dans plusieurs pays.

Certains critiquent l’absence de stratégies à long terme concernant le développement de produits et leur commercialisation. La localisation est un processus qui ne peut jamais être considéré comme achevé, surtout lorsqu’elle concerne des logiciels en constante évolution. Tout processus de localisation repose sur la planification, l’établissement de relations ainsi que la recherche et la prise en compte des réactions aux travaux déjà effectués. Reste à savoir comment faire intégrer cette conception aux localisateurs, aux décideurs et aux bailleurs de fonds.

FACILITER LA COMMUNICATION

Depuis septembre 2001, un certain nombre de listes de diffusion et de groupes de discussion ont été mis en place spécialement dans le but de favoriser les discussions sur des sujets liés à l’informatique et à Internet dans les langues africaines. Il est possible que ces sujets aient été traités sur d’autres listes avant la création de ces listes et de ces groupes, mais nous ne disposons d’aucune information à ce sujet. Il convient de citer ces groupes spécialisés, car leur existence a sans doute créé un certain nombre de dynamiques. Le tableau 13.1 en fait une brève présentation.

TABLEAU 13.1 Groupes de discussion sur les langues africaines et les TIC

 

Date de création et de fermeture

Format et mode de participation

Langue de travail

Nombre d’inscrits

Nombre d’articles et sujets traités

Groupes de discussion gérés par Bisharat!

 

 

 

 

 

Jeux de caractères et claviers haoussasa http://www.quicktopic.com/8/H/JxKHy9ccPUVB

02/09/2001

Babillardélectronique; aucune inscription nécessaire

Anglais

11

121, polices, orthographe, claviers

Unicode-Afrique, http://fr.groups.yahoo.com/group/Unicode-Afrique/

20/01/2002

Inscription à une liste de diffusion; archives publiques

Français

178

1 345, orthographes, polices, Unicode, encodage, claviers, autres projets

A12n-collaboration

21/03/2002

Inscription à une liste de diffusion; archives publiques

Anglais

143

1 210, jeux de caractères, polices, claviers, codage, problèmes techniques

Langues ghanéennes et TIC, http://www.quicktopic.com/16/H/9xffAXi7whnv

09/07/2002

Babillard électronique; aucune inscription nécessaire

Anglais

6b

78, polices, orthographe, claviers

Notes: Toutes les URL fournies ici étaient actives au moment de la rédaction du présent ouvrage. Lorsque ces    groupes changent d’hébergeur, on peut généralement les retrouver grâce aux moteurs de recherche.

a On parle en anglais de « charset», qui est une contraction de « character » et de « set ». Un jeu de caractères est un ensemble de lettres et de symboles utilisés pour afficher et imprimer des textes dans une langue donnée. Ici, ce terme fait référence aux moyens techniques permettant de rédiger en haoussa.

Langue yoruba et TIC (polices, claviers et applications), http://www.quicktopic.com/15/H/KKgbRqJUAR8

27/07/2002

Babillardélectronique; aucune inscription nécessaire

Anglais

20b

351, polices, orthographe, claviers

Langue igbo et TIC (polices, claviers et applications)

17/10/2002

Babillard électronique; aucune inscription nécessaire

Anglais

11b

265, polices, orthographe, claviers

A12n-forum

01/06/2003 14/12/2007

Inscription à une liste de diffusion; archives publiques

Anglais

42

645, actualité, localisation, contenu web

A12n-entraide

01/06/2003 21/11/2007

Inscription à une liste de diffusion; archives publiques

Français

18

173, actualité. localisation

Langues togolaises et TIC, http://quicktopic.com/25/H/k2zuDzmgxGkc

23/01/2004

Babillard électronique; aucune inscription nécessaire

Français

6b

84, polices, enseignement des langues

Langues sénégalaises et TIC, http://quicktopic.com/25/H/6KmBx6F8jES

23/03/2004

Babillard électronique; aucune inscription nécessaire

Francais

3b

34, claviers, orthographes, actualité

Langues béninoises et TIC, http://quicktopic.com/27/H/UbEFBKa7X46Ra

19/07/2004

Babillard électronique; aucune inscription nécessaire

Français

2b

52, orthographe, polices, textes en ligne

Langues burkinabées et TIC, http://www.quicktopic.com/31/H/rhTwJR2T8ar

28/05/2005

Babillard électronique; aucune inscription nécessaire

Français

1b

10, modeles de texte

PanAfrLoc

15/06/2005

Inscription à une liste de diffusion; archives publiques

Anglais et français

46

234, localisation

Ibibio, efik, anang et TIC (polices, claviers et applications), http://www.quicktopic.com/37/H/q8r5VVqGF5Q

28/07/2006

Babillard électronique; aucune inscription nécessaire

Anglais

4b

27, polices, clavier, TTS

b Inscription optionnelle. Tout le mondepeut lire ou rédiger des articles.

Applications avancées en swahili, http://www.quicktopic.com/37/H/mCpXBt3d7qQN

18/09/2006

Babillard électronique; aucune inscription nécessaire

Anglais et swahili

1b

17, applications avancées

A12n-politiques, http://lists.bisharat.net/mailman/listinfo/a12n-policy

14/12/2007

Inscription à une liste de diffusion

Anglais

11

16, politiques en matière de langues et de TIC

Autres groupes de discussion sur la localisation en langues africaine s

 

 

 

 

 

Africa@unicode.org

2003

Inscription à une liste de diffusion

Anglais

(inconnu)

(inconnu); codage des alphabets africains

Informatique et langues des deux Congo, http://groups.google.com/group/info-langues-congo

2005

Inscription à une liste de diffusion; archives publiques

Français

18

(inconnu); problèmes relatifs aux langues de la RDC et de la République du Congo

Linux2Igbo

2003

Inscription à une liste de diffusion

Anglais

 

(inconnu); localisation du système d’exploitation Linux en igbo

Les listes de diffusion gérées par Bisharat !3 ont révélé l’importance et l’utilité de ce moyen de communication qui favorise la collaboration sur divers aspects de l’utilisation des langues africaines et des TIC. L’importance de ces réseaux est soulignée par la découverte que différents groupes ont parfois réalisé des travaux de localisation dans un même pays sans connaître l’existence des autres. Les listes de diffusion ne sont pas la seule façon d’encourager la communication, mais elles ne coûtent pas cher et sont efficaces. Associées aux méthodes traditionnelles telles que les conférences et le réseautage entre individus, elles peuvent grandement contribuer à changer la façon dont certaines questions sont envisagées.

3. Bisharat ! est une initiative lancée en 2000 et constituée en personne morale en 2004 dans un objectif de recherche, de promotion et de réseautage sur l’utilisation des langues africaines dans le domaine des TIC pour le développement.

C’est pour cette raison que le projet PAL a créé un groupe de discussion trilingue visant à favoriser la communication sur tout le continent et au-delà des frontières linguistiques postcoloniales. Trois listes de diffusion ont été créées – une pour chaque langue de travail, à savoir l’anglais, le français et le portugais –, ainsi qu’un système de traduction automatique permettant de suivre les discussions engagées dans chacune de ces langues4. Les articles postés sur l’une ou l’autre des listes étaient automatiquement traduits dans les deux autres langues. L’intervention de modérateurs était cependant nécessaire pour garantir la qualité de la traduction. Si l’expérience s’est révélée somme toute positive, la gestion de la traduction automatique nécessitait plus d’un modérateur.

4. http://lists.panafriL10n.org/mailman/listinfo/pal-en; http://lists.panafriL10n.org/mailman/listinfo/pal-fr; et http://lists.panafriL10n.org/mailman/listinfo/pal-pt, consultés en juillet 2009. La traduction a été réalisée par Tradauto, un service de FUNREDES.

14
Résumé, recommandations et conclusion

LA LOCALISATION EN AFRIQUE est un nouveau sujet de préoccupation et un processus qui répond, ou devrait idéalement répondre, au développement sur tout le continent d’un ensemble de TIC en constante évolution. Dans les chapitres précé-dents, nous avons analysé les besoins et l’environnement nécessaires à la localisation et aux localisateurs, le contexte linguistique et technique et les activités de localisation récentes et actuelles. Le présent chapitre résume les principaux thèmes abordés et propose quelques recommandations et suggestions.

Celles-ci sont classées par catégories:

image Perspectives stratégiques;

image Conférences et ateliers;

image Formation et éducation du public sur la localisation;

image Sources d’information et réseautage;

image Langues, politiques et aménagement;

image Politiques fondamentales en matière de localisation et de TIC;

image Afrique et normes TIC pour la localisation;

image Applications avancées et recherche.

PRINCIPAUX THÈMES ABORDÉS

Cet ouvrage s’est intéressé à un certain nombre de sujets liés à la localisation en langues africaines, y compris en arabe. Avant toute recommandation, il convient de rappeler certains thèmes saillants de cette étude:

image L’importance des langues africaines et de la localisation. Même si cette idée est évidente, il convient, puisqu’il s’agit du principe fondamental de ce projet et de cet ouvrage, de l’évoquer à nouveau. L’importance des langues est discutable à bien des niveaux. Le soutien apporté à la localisation des TIC implique une volonté générale de la part des gouvernements et des populations de préserver et de développer les langues africaines. Même si l’on admet, comme nous l’avons vu au chapitre 4, que cette question ne fait l’unanimité dans aucune communauté linguistique, elle suscite néanmoins un intérêt inévitable qui mérite une réponse dans le domaine de la localisation (nous reparlerons du rôle des gouvernements, notamment dans la prochaine partie).

image Les systèmes et les connexions. La localisation se fait dans un environnement qui dépend d’autres facteurs et d’autres processus qui sont liés entre eux et s’influencent les uns les autres, comme la sociolinguistique, les mesures politiques de toutes sortes, l’internationalisation des technologies et la normalisation et l’évolution des TIC. C’est pour mieux comprendre ces systèmes et cet environnement que nous avons introduit la notion d’écologie de la localisation et le modèle PLETES (chapitre 3) et que nous nous sommes attardés sur les facteurs linguistiques (chapitre 4), techniques (chapitre 5) et d’internationalisation (chapitre 6). Ces facteurs et les liens qu’on observe entre eux ont une importance d’ordre pratique dans la réussite à long terme de la localisation.

image La spécificité des informations. Dans cet ouvrage (et sur le site internet qui l’accompagne), nous nous sommes efforcés d’éviter les généralités telles que « les langues africaines » et de privilégier les informations particulières, en précisant par exemple de quelles langues et de quels lieux il était question et en prenant en compte les réalités propres à chaque pays. Si, lorsqu’on adopte un point de vue général sur l’Afrique, on parvient à saisir les tendances et les problèmes les plus larges, il est tout aussi important de ne pas perdre de vue les situations et les besoins propres à certaines réalités. Cette préoccupation se retrouve également dans l’analyse de plusieurs facteurs de l’écologie de la localisation et des travaux réalisés par le passé. Ce souci de précision permet d’analyser plus clairement les problèmes, les besoins et le potentiel de chaque situation. Dans l’ensemble, cette approche nous donne des informations sur les travaux actuels et sur la planification et l’établissement de priorités pour de futurs travaux de localisation.

image La communication. Le partage d’informations sur les activités et les ressources, y compris le réseautage entre pairs, est essentiel à la réussite des efforts de localisation qui pourraient manquer de moyens et de connaissances pour atteindre leurs objectifs. Les groupes de discussion en ligne, dont nous avons parlé au chapitre 13, ne sont qu’un outil parmi d’autres. Nous reviendrons d’ailleurs sur l’importance des conférences et des ateliers.

image L’importance complémentaire des initiatives locales et d’une vision plus large. La localisation dépend des initiatives et des connaissances locales, mais celles-ci sont rarement suffisantes pour atteindre des résultats optimaux. Dans certains cas, un point de vue plus large peut faciliter le travail au niveau local et contribuer ainsi à la planification de la localisation de façon à bénéficier au plus grand nombre et à avoir les meilleures chances d’obtenir des résultats durables. Dans d’autres cas, les initiatives locales peuvent tirer parti d’une idée plus large de réalités dont elles peuvent ne pas avoir conscience. Les points de vue local et général sont donc nécessaires et dépendent l’un de l’autre, tout comme la localisation et l’internationalisation sont interdépendantes: la première contribue à la seconde et la seconde facilite la première.

image Le rôle crucial des gouvernements africains et des organisations intergouvernementales. En Afrique, les institutions officielles nationales, régionales ou continentales occupent une fonction essentielle dans des domaines qui ont une influence sur le processus de localisation, comme les politiques linguistiques, éducatives et technologiques. D’un point de vue pratique, elles peuvent également soutenir directement la localisation en déterminant comment l’informatique multilingue pourrait se développer dans leur pays et à travers le continent. S’il ne bénéficie pas de l’attention qu’il mérite de la part des gouvernements et des institutions intergouvernementales, le processus de localisation ne peut aller de l’avant, car certaines décisions ne peuvent être prises que par des gouvernements ou avec leur aide.

PERSPECTIVES STRATÉGIQUES

D’un point de vue général, il pourrait être utile de développer une stratégie à long terme et appliquée par étapes qui mette l’accent sur plusieurs aspects des TIC et détermine lesquels devraient être localisés, dans quelles langues, comment, dans quel ordre, quand, par qui et avec quel soutien.

Dans une certaine mesure, la localisation est motivée par des groupes ou des projets locaux, mais elle peut également trouver un certain élan dans des initiatives extérieures. Des tiers peuvent aussi servir à cultiver un certain intérêt, offrir des conseils ou même mettre en contact certaines parties prenantes. Ainsi, des groupes isolés ou des projets spécifiques travaillant sur des langues proches ou sur la même langue dans des pays différents peuvent vouloir associer leurs efforts et partager leurs idées, mais manquer de clairvoyance ou de contacts pour y parvenir. Le projet PAL apporte une réponse à tous ces problèmes.

Une stratégie novatrice de localisation des TIC en langues africaines devrait également prendre en compte les aspects particuliers de la nature et de la répartition des langues, de leur utilisation actuelle et de la façon dont elles évoluent dans les sociétés dans lesquelles elles sont parlées. Ceci s’avère particulièrement vrai pour l’Afrique subsaharienne, car l’Afrique du Nord, à majorité arabophone, a pu tirer profit des actions réalisées dans de nombreux pays pour développer l’informatique et l’accès à Internet en arabe.

La cohabitation entre les locuteurs de différentes langues, l’utilisation de plusieurs langues en fonction du contexte socioéconomique et le caractère généralement multilingue de la plupart des pays africains constituent un profil linguistique et socioculturel différent de celui des pays plus avancés technologiquement. D’une certaine manière, leur situation ressemble davantage à celle des pays d’Asie du Sud, sauf que ces régions ont une tradition écrite plus ancienne et que la plupart de leurs langues comptent un plus grand nombre de locuteurs, ce qui a facilité leur accès aux TIC. En plus de définir ses propres objectifs en matière de langues et de technologies et en tout ce qui a trait à l’écologie de la localisation, l’Afrique devra développer, par le biais des technologies, des techniques adaptées à ses réalités sociolinguistiques et ses aspirations socioéconomiques.

Il est loin d’être sûr que les autorités chargées de l’élaboration des politiques linguistiques et technologiques soient préparées à remplir ce rôle. Certaines institutions font preuve d’un véritable intérêt, comme l’ACALAN, qui a favorisé le débat sur la diversité linguistique sur Internet. Des travaux essentiels ont été réalisés, notamment l’analyse des configurations de clavier pour l’éthiopien/guèze en Éthiopie et les études de linguistique appliquée menées, entre autres, par le Centre for Advanced Study of African Languages (CASAS) et l’Association nationale de comités de langues camerounaises (ANACLAC). Cependant, les autorités concernées semblent ne pas avoir la capacité, ni même parfois la volonté, de définir le potentiel multilingue des TIC en Afrique ou de proposer des mesures concrètes pour le réaliser. Le bilan des accomplissements en matière de mesures linguistiques proposées au cours des dernières années est loin d’être encourageant.

La plupart des bailleurs de fonds ne sont pas non plus sensibles à ces réalités et ces besoins. À l’exception du soutien en faveur de l’alphabétisation des adultes et, plus récemment, des réformes favorisant l’éducation bilingue, les organismes de développement n’ont, dans l’ensemble, pas accordé beaucoup d’importance aux langues africaines. La situation est similaire en ce qui a trait à la localisation.

Cette observation soulève immédiatement deux questions: comment peut-on éveiller un intérêt pour les stratégies et les perspectives de localisation et comment améliorer les capacités pour les développer et les poursuivre? Ces deux questions en amènent une troisième: où peut-on trouver la clairvoyance et l’expertise nécessaires pour répondre à ces problèmes?

On peut envisager qu’une organisation africaine prenne la tête de cette mission, éventuellement en collaboration avec un organisme de recherches comme le CRDI ou une organisation internationale comme l’UNESCO. Une coopération entre, d’une part, des organismes étrangers possédant les connaissances techniques nécessaires et, d’autre part, des organisations africaines disposant d’un mandat en matière de politiques pourrait être une solution idéale. Reste à voir qui prendra l’initiative de mettre au point un projet global, au lieu de se limiter à des déclarations d’ordre général.

Si on peut espérer que les institutions africaines d’enseignement supérieur et de recherche s’impliquent dans le mouvement, envisagent un futur, proposent des mesures, mettent au point des stratégies et développent des compétences, nous n’avons pas encore observé d’initiatives de ce genre. Il se pourrait que des professeurs d’universités du Nord ouvrent la voie dans cette direction, en collaboration avec d’autres africanistes. Ces universitaires et les institutions pour lesquelles ils travaillent pourraient peut-être, en partenariat avec des institutions africaines, influencer l’évolution des technologies de l’information dans toutes les langues d’Afrique.

Il se pourrait aussi que les efforts menés à l’échelle locale pour traduire des logiciels atteignent non seulement leurs objectifs, mais stimulent et encouragent également une réponse plus large et introduisent une nouvelle dynamique dans les discours sur les TIC et la localisation des applications logicielles en Afrique. Cela exigerait une communication et une organisation sans faille.

Le secteur des logiciels propriétaires et commerciaux ne doit pas non plus être négligé. En collaboration avec des organismes publics de certains pays, Microsoft a notamment investi dans l’internationalisation et la localisation de certains de ses logiciels en Afrique. Cette approche pourrait constituer un modèle stratégique alternatif dont on pourrait tirer quelques leçons. Les sociétés de téléphonie mobile qui favorisent les échanges de messages texte en langues africaines sont une autre catégorie d’entreprises qui ont un certain poids dans ce domaine. Les entreprises africaines qui participent d’une façon ou d’une autre à la localisation, un créneau potentiellement porteur, constituent un autre groupe important, quoique plus limité. On peut espérer que les organismes publics, les bailleurs de fonds, les organisations non gouvernementales et les entreprises impliqués dans le domaine des TIC en Afrique s’entendent sur l’importance de la localisation et souhaitent travailler ensemble pour réaliser cet objectif de la façon la plus cohérente possible.

CONFÉRENCES ET ATELIERS

En Afrique, le processus de localisation implique plusieurs facteurs et divers organismes et individus. En outre, vu l’évolution rapide des TIC, le besoin de coordonner les efforts, de planifier leurs initiatives et de former des individus se fait de plus en plus sentir.

Les ateliers et conférences qui seront inévitablement organisés dans ce but doivent non seulement réunir toutes les parties prenantes, mais aussi permettre d’exploiter progressivement les résultats des travaux précédents et de s’assurer qu’aucune question importante n’est laissée de côté. Les conférences et les ateliers qui sont organisés ne font pas assez souvent référence aux réunions précédentes et ne parviennent généralement pas à mettre à profit les efforts passés.

Dans ce contexte, on pourrait proposer une planification stratégique des réunions de localisation. Un tel plan prendrait la forme d’un cadre de référence destiné à diverses organisations et pourrait être conçu et appliqué à grande échelle et impliquer la participation d’organisations clés. La mise en place de ce plan exigerait un consensus sur les objectifs de la localisation. Les réunions faciliteraient l’accomplissement des objectifs généraux, même si les résultats à venir ne sont pas encore clairs.

Lors de ces réunions, il serait intéressant de se pencher sur les quatre aspects suivants (allant du niveau local à un niveau plus général):

image Les ateliers sur la localisation ou les ateliers techniques pour les localisateurs de logiciels ou de contenu. Outre les ateliers tels que ceux du projet PAL à Casablanca (Maroc) et Tshwane (Afrique du Sud), les événements d’Africa Source et l’atelier du réseau africain pour la localisation organisé à Marrakech (Maroc) par l’organisation non gouvernementale Tactical Tech, il serait utile de prévoir des réunions régionales pour certains pays et certaines langues en particulier. Les questions abordées dans ces ateliers dépendraient des besoins et des intérêts propres à la région concernée. L’objectif serait de former des spécialistes à certains aspects et certaines phases du processus de localisation, allant des connaissances essentielles comme Unicode et l’élaboration de contenu à la création de paramètres de lieu, en passant par la traduction de diverses applications logicielles, la question des actions consécutives à la localisation et les applications avancées (voir la partie consacrée à ce sujet dans ce chapitre).

image L’application et l’adaptation de la localisation pour les domaines de l’entreprise et du développement, y compris la création de contenu. L’un des principaux objectifs de la localisation est d’aider à combler le fossé numérique, mais des réunions entre localisateurs et organismes de développement pourraient permettre d’étudier quelles en seraient exactement les conséquences dans des cas particuliers. L’Open Knowledge Network, entre autres, a fait des efforts pour utiliser plusieurs langues et permettre aux organisations partenaires de partager des informations. À mesure que des logiciels localisés feront leur apparition et que le potentiel de localisation des applications spécialisées se développera, une plus grande attention de la part des organisations à l’égard de la localisation dans le domaine des TIC-D deviendra de plus en plus utile et nécessaire.

image Les problèmes linguistiques et les TIC. Cette catégorie comprend les réunions d’experts en matière d’aménagement linguistique, dont l’objectif est de trouver des solutions pour traiter les langues regroupant plusieurs dialectes, les langues transfrontalières et les faisceaux de langues dans le domaine de la localisation et des TIC en général. Ces réunions pourraient s’inspirer des colloques sur les langues et les orthographes africaines animés par l’UNESCO dans les années 1960 et 1970 ou de celui, plus petit, qui s’est tenu à Okahandja (Namibie) en 19961, en y ajoutant la dimension TIC. Il est évidemment nécessaire de réfléchir à l’utilisation de la langue en informatique et sur Internet. Les questions à aborder concernent notamment des sujets essentiels comme les orthographes, les relations entre les dialectes et les langues voisines et la possibilité de choisir une version standard d’une langue pour différents travaux. Il convient de traiter également de la représentation des langues africaines dans les normes internationales comme l’ISO 639 et dans les paramètres de lieu (tels que répertoriés dans le CLDR). On pourrait également y aborder la question du développement et de l’harmonisation de la terminologie (comme nous le verrons par la suite).

1. http://www.bisharat.net/Documents/, consulté en février 2011.

image La planification stratégique de la localisation en Afrique. Cet aspect est fortement lié à la question d’une perspective plus large et d’une planification à long terme, à l’échelle continentale, régionale et nationale, que nous avons mentionnée précédemment. Les ateliers sur les TIC de la Conférence préparatoire africaine pour le Sommet mondial sur la société de l’information à Bamako (Mali) en 2002 et à Accra (Ghana) en 2005 allaient dans ce sens. Cet aspect pourrait comprendre la planification de réunions pour des conférences et autres événements concernant les trois points précédents. Il pourrait également inclure des réunions plus informelles entre de hauts dirigeants.

Ce genre de tables rondes pourraient parfois être organisées dans le cadre d’événements plus importants ou en marge d’autres réunions, afin d’optimiser la participation et de minimiser les coûts de transport pour les intervenants. Les sujets abordés et les objectifs des réunions varieraient en fonction des besoins locaux, nationaux, régionaux et continentaux.

Stratégie géographique

Les conférences et les ateliers sur la localisation devraient non seulement être organisés à l’échelle du continent, mais également à l’échelle nationale et régionale. En fait, il serait peut-être préférable d’accorder la priorité aux réunions régionales pour ensuite s’intéresser aux conférences organisées régulièrement à l’échelle du continent. Certaines réunions régionales devraient être dédiées à des langues de travail autres que l’anglais, notamment le français, l’arabe2 et le portugais.

Donner aux localisateurs et à toute personne intéressée par l’informatique et Internet en langues africaines la chance d’aborder les difficultés propres à leur situation et aux langues dans lesquelles ils localisent permettrait de soutenir les efforts réalisés au niveau local et d’enrichir les réunions continentales. Les listes de diffusion et les sites internet, comme ceux créés par le projet PAL, pourraient faciliter la communication entre les localisateurs des différents pays africains.

2. Les expériences passées ont révélé que de nombreuses personnes travaillant dans le domaine de la localisation en arabe utilisaient souvent l’anglais ou le français comme langue de travail. La possibilité de travailler en arabe est toutefois envisagée.

L’organisation d’une conférence sur la localisation au Nigeria a par exemple été suggérée. Cette conférence pourrait être l’occasion de mettre en route ces efforts. Plusieurs organisations se sont intéressées à divers aspects de la localisation, notamment la traduction de logiciels, la conception de claviers et les logiciels de TTS et de reconnaissance vocale. Ces initiatives portent surtout sur les trois principales langues du Nigeria, c’est-à-dire le haoussa, le yoruba et l’igbo, mais quelques efforts remarquables sont menés pour d’autres langues comme l’ibibio.

L’organisation d’une première conférence quelque part en Afrique pourrait servir de modèle à d’autres réunions ailleurs sur le continent.

Au-delà de l’Afrique, le CRDI appuie et finance la tenue d’une conférence mondiale sur la localisation concernant l’Asie (avec la participation du projet PAN Localization, une initiative régionale visant à développer l’informatique en langues locales en Asie), l’Afrique et peutêtre certaines communautés indigènes des Amériques et d’Océanie. Une rencontre d’une telle envergure serait productive, car elle favoriserait les échanges et les contacts à plus grande échelle et étendrait ainsi les réseaux locaux, régionaux et continentaux. Cette conférence3 posera essentiellement la question des apports des technologies des langues aux problèmes de développement international. Les recherches présentées deront le point sur le rôle de ces technologies des langues dans l’amélioration de l’ éducation, de la gouvernance, des services de santé et ainsi de suite.

FORMATION ET ÉDUCATION DU PUBLIC SUR LA LOCALISATION

L’éducation en faveur de la localisation, c’est-à-dire la formation des localisateurs et l’éducation du public sur la localisation, représente un enjeu qui va bien au-delà des ateliers et des déclarations qui y sont faites.

Formation

Dans tous les domaines, des formations sont proposées pour permettre à des individus et des équipes de développer des compétences et d’atteindre certains objectifs. La localisation ne fait pas exception. Les thèmes des formations peuvent varier en fonction des événements, mais, comme pour la planification des conférences, il faut veiller à ce qu’ils s’inscrivent dans une stratégie plus large de développement des compétences et de la localisation.

3. Site de la conférence disponible au: http://www.hltd.org

Pour ce qui est du public visé, les formations en localisation devraient cibler les personnes participant déjà à des initiatives de localisation, celles qui sont motivées et qui aimeraient participer et celles qui, n’appartenant à aucun de ces deux groupes, font un travail lié à la localisation (qui élaborent des projets de TIC-D ou TIC-E ou qui travaillent à l’implantation de télécentres, par exemple).

Investir dans la formation pour garantir l’avenir

La plupart des études et des réunions concernant la localisation portent essentiellement sur des projets immédiats et des résultats mesurables à court ou moyen terme. Ceci s’applique autant aux formations en localisation (ou dans des domaines liés comme les TIC-D) qu’à d’autres aspects.

Lorsqu’on s’intéresse à des questions comme la durabilité de la localisation et l’utilisation potentielle des TIC avancées en langues africaines (voir plus loin), le besoin à plus long terme de professionnels hautement qualifiés devient apparent. Il est recommandé d’investir dans l’éducation d’une génération d’Africains spécialisés dans la localisation ainsi que dans les langues et l’informatique, bien que cela dépasse les objectifs du projet PAL et de son successeur, ANLoc. Si ces domaines interdisciplinaires reçoivent une attention croissante ailleurs dans le monde, l’Afrique semble les négliger. Par ailleurs, peu d’Africains participent aux études sur l’internationalisation des TIC, par exemple, et encore moins aux recherches sur la traduction automatique ou la reconnaissance vocale. À moins que les institutions et les bailleurs de fonds qui en ont les moyens ne s’emploient à résoudre ce problème – en offrant des bourses d’études et en investissant dans des programmes de recherche –, l’Afrique conservera un handicap à long terme concernant les TIC multilingues, un domaine dont elle pourrait sûrement tirer profit et auquel elle pourrait grandement contribuer.

Éducation du public

Le « public » visé par l’éducation en matière de localisation comprend plusieurs groupes: les utilisateurs d’ordinateurs en Afrique en général, notamment ceux qui travaillent comme techniciens mais ne participent pas au processus de localisation, et les individus qui occupent des postes à responsabilités dans des domaines appartenant à l’écologie de la localisation (comme, par exemple, les dirigeants, les enseignants et les hommes d’affaires). L’éducation du public pourrait sensibiliser la population à la localisation, améliorer sa connaissance de certains aspects et l’inciter à participer au processus.

L’éducation du public peut se faire par le biais de méthodes traditionnelles de relations publiques et de communications pour le développement. Si on peut bien sûr tirer parti d’Internet (notamment des sites web et des listes de diffusion, voir partie suivante), il peut également être utile de mettre en place une campagne classique d’éducation du public pour sensibiliser la population et attirer l’attention des médias en Afrique.

Des Années de la localisation en Afrique pourraient par exemple être organisées pour attirer l’attention sur certains aspects de la localisation et des TIC multilingues. On pourrait y aborder des sujets comme Unicode, les paramètres de lieu, la numérisation de textes en vue de leur diffusion sur le Web et les applications avancées. Chaque sujet pourrait être traité selon différentes approches. On pourrait traiter de la question d’Unicode en sensibilisant la population à ce sujet, tandis que d’autres sujets comme les paramètres de lieu pourraient être associés à des objectifs qui permettraient d’évaluer les résultats et d’organiser des conférences. S’il est relativement facile de déclarer une année consacrée à un thème particulier, il faut bénéficier du soutien des principales organisations du continent. On peut, à cet égard, tirer des leçons de l’Année des langues africaines, en 2006.

SOURCES D’INFORMATION ET RÉSEAUTAGE

Cette partie s’intéresse aux structures d’information permettant de promouvoir et de faciliter la localisation, aux moyens d’étudier et d’apprendre au sujet de la localisation dans tous les aspects de l’environnement correspondant (c’est-à-dire de l’écologie de la localisation) et aux manières de faciliter et de renforcer le réseautage entre les localisateurs eux-mêmes. Dans un sens, ces stratégies de communication peuvent être qualifiées de métastratégies, car elles cherchent à favoriser d’autres stratégies abordées dans ce chapitre en permettant de les développer, d’y donner accès, de les modifier et de les appliquer.

Si les localisateurs ont accès à plusieurs ressources en ligne – sur les logiciels libres et même sur les langues africaines –, les ressources sur la localisation en langues africaines, qu’elles soient de nature générale ou qu’elles ne concernent que certaines langues en particulier, font généralement défaut. Parmi les exceptions, on compte quelques ressources pour l’arabe, l’éthiopien/guèze et un nombre limité d’autres langues, y compris les ressources figurant sur le site Translate.org.za. Il existe donc un véritable besoin en ressources web pour les localisateurs et la localisation en Afrique.

Par ailleurs, s’il existe plusieurs listes de diffusion consacrées à divers aspects de la localisation et des TIC multilingues en Afrique (voir chapitre 13), celles-ci ont tendance à être assez spécialisés et utilisent soit l’anglais, soit le français comme langue de travail.

Outre ces ressources, qui facilitent la recherche et l’échange d’information, les individus et les réseaux qu’ils forment ont également leur importance. La constitution et le développement de réseaux de localisation représentent un besoin plus large et peut-être plus dynamique. Les réseaux peuvent se créer de bien d’autres façons, par le biais de conférences, notamment, comme nous l’avons déjà mentionné. Internet constitue un moyen rapide d’entretenir ces réseaux et de favoriser la communication et mérite donc une attention toute particulière.

Contribution du projet PAL

Pour répondre à cette situation, le projet PAL avait notamment pour objectif de créer des ressources en ligne pour les localisateurs africains. Plusieurs approches ont été envisagées et la formule adoptée a été celle d’un site web basé sur un wiki accompagné de listes de diffusion (voir chapitre 13). Ce wiki est en train d’être intégré au site d’ANLoc et fera office de référentiel pour les mises à jour d’informations concernant le présent ouvrage. Il est destiné à servir de porte d’accès aux informations sur la localisation dans une langue ou un pays donné et à proposer des liens vers les sites web et les outils correspondants. Le wiki devrait non seulement être utile aux localisateurs, mais également à tout autre individu pouvant apporter son concours au processus de localisation ou promouvoir les TIC multilingues dans le cadre de projets visant à combler le fossé numérique, par exemple. Le wiki est divisé en cinq rubriques:

image Langues principales;

image Systèmes d’écriture (ou caractères);

image Pays;

image Organisations;

image Sources d’informations utiles à la localisation.

Ces rubriques visent à fournir des informations concernant plusieurs aspects de la localisation. Les langues (qui sont l’élément central de la localisation) ne s’arrêtent pas aux frontières, ne se limitent pas à un pays particulier et peuvent comprendre plusieurs dialectes. Les caractères (forme de texte utilisée dans les TIC) sont employés pour de nombreuses langues et modifiés de diverses façons. Plusieurs organisations s’intéressent aux langues et à la localisation sur le contient africain. Il existe tout un ensemble de sources d’informations générales concernant la localisation qui peuvent être utiles à ce processus en Afrique.

LANGUES, POLITIQUES ET AMÉNAGEMENT

Cette partie traite des politiques en matière de langues et de l’aménagement linguistique et de leur influence sur la localisation. Toute analyse de ce genre doit prendre en compte à la fois les pays concernés (car c’est à cette échelle que les politiques sont élaborées et que l’aménagement se fait) et les langues elles-mêmes.

La localisation et la diversité linguistique en Afrique

Toute stratégie visant à favoriser la localisation en Afrique exige d’avoir un certain sens de l’étendue du projet et de savoir dans quelle mesure celui-ci peut, au-delà des initiatives existantes, toucher les localisateurs potentiels là où aucun projet de localisation n’a encore été mis en place. Avec ces considérations à l’esprit, le projet PAL a cherché à classer les informations et les contacts par langue et par pays. Cette approche part de l’idée selon laquelle ce qui est identifié et classé ne peut passer inaperçu et qu’on peut facilement prendre comme point de départ ces éléments concrets.

Étant donné le peu de moyens dont disposent les localisateurs, il faudra accorder la priorité aux efforts et aux ressources en fonction de la langue ou du pays concerné ou selon des considérations plus générales. Cette approche pourrait défavoriser, du moins à court terme, les langues les moins courantes, y compris les langues en danger de disparition.

La stratégie la plus pragmatique pour les langues qui n’ont pas la priorité dans le développement de logiciels serait peut-être d’intégrer des correcteurs d’orthographe pour ces langues dans les logiciels localisés dans des langues plus communes. Même une solution provisoire de cette nature présenterait un défi notable pour les langues dont le nombre de locuteurs et la quantité de ressources sont assez limités, mais l’objectif est sans doute plus réaliste. Étant donné la diversité du multilinguisme en Afrique, ce genre d’association entre des langues plus ou moins répandues pourrait offrir une approche logique de la localisation.

Normalisation des langues et des orthographes

La normalisation, au sein d’un même pays et entre des pays frontaliers qui partagent des langues communes, est un autre aspect de l’aménagement linguistique. En cas de variation dialectale, la localisation (et, à terme, l’utilisation des ordinateurs) pourrait être facilitée par l’identification et le développement de versions – ou au moins d’orthographes et de terminologies – normalisées, lorsque cela n’a pas encore été fait. Ce rôle est généralement tenu par les gouvernements (comme pour le runyakitara en Ouganda), mais dans un cas au moins (le n’ko pour les langues mandingues), les efforts de normalisation ont été menés au niveau local.

Des orthographes normalisées n’ont pas encore été définies pour toutes les langues africaines, ni même pour toutes les langues qui possè-dent un système d’écriture plus établi (voir chapitre 4). Il s’agit d’un problème récurrent en Afrique depuis l’indépendance, tout comme l’harmonisation des transcriptions pour les langues proches, les langues transfrontalières et les différentes langues d’un même pays. Ces questions doivent faire l’objet d’une attention soutenue et être résolues afin que les langues concernées puissent être utilisées en informatique, dans toutes les applications et tous les contenus textuels.

Politiques en matière d’éducation

Ce serait sortir du cadre de cet ouvrage que de proposer des recommandations concernant les politiques éducatives en matière de langues d’instruction et d’enseignement des langues africaines dans les écoles, mais il est clair que les initiatives de localisation bénéficieraient de l’utilisation des langues africaines dans l’enseignement (l’éducation étant un élément essentiel de l’écologie de la localisation) et inversement. L’installation de logiciels localisés sur les ordinateurs des écoles offrirait aux élèves un nouveau mode d’apprentissage et une relation différente avec les technologies. Les élèves capables de lire et écrire dans plusieurs langues pourraient interagir de manière plus efficace avec les contenus web et les logiciels multilingues et contribuer à l’enrichissement de ces matériels.

Les projets de TIC-E financés par l’étranger, tels que le projet OLPC, pourraient avoir un impact positif sur la localisation et la programmation en faveur de l’utilisation des langues dans l’éducation.

Par ailleurs, il pourrait être intéressant d’étudier le potentiel des TIC pour l’alphabétisation de base et l’alphabétisation en langue maternelle pour les personnes ayant reçu une éducation uniquement dans une LEGD.

Il ne serait pas non plus superflu d’analyser les liens possibles avec la création de dictionnaires et de modules d’apprentissage de deuxièmes langues en ligne. La collaboration entre les programmes de langues africaines des universités de l’hémisphère Nord et les programmes de linguistique appliquée et d’éducation en Afrique pourrait conduire à l’élaboration de ressources linguistiques en ligne pour les Africains.

POLITIQUES ET PROGRAMMES FONDAMENTAUX EN MATIÈRE DE LOCALISATION ET DE TIC

La localisation pourrait également, dans tous ses aspects, tirer parti d’autres activités liées aux TIC, notamment de politiques nationales en matière de TIC, de groupes d’utilisateurs de logiciels libres et même de projets de développement.

Politiques de TIC nationales

Les politiques nationales visant à favoriser le développement des TIC, comme les plans NICI, pourraient mentionner plus explicitement la localisation et attacher plus d’importance à ce processus. Elles pourraient par exemple prévoir un soutien moral ou matériel pour des initiatives de développement de contenu web en langues autochtones, par exemple, ou la traduction de logiciels, la participation à l’élaboration de normes ayant une incidence sur l’utilisation des langues ou encore des formations liées aux langues ou à l’informatique.

Les gouvernements peuvent avoir une influence considérable et servir de modèle, en choisissant, par exemple, les langues dans lesquelles ils publient leurs informations sur Internet. L’Afrique du Sud est un exemple intéressant à ce sujet, car elle possède plusieurs sites officiels dans différentes langues. D’autres gouvernements publient également du contenu en langues autochtones. Les gouvernements pourraient exiger que les projets de TIC-D financés par des fonds étrangers prennent en compte le caractère multilingue des populations visées dans leur choix de logiciels, de polices et de claviers pour les ordinateurs qu’ils installent.

Le rôle des organisations de développement international

Un certain nombre de bailleurs de fonds et d’organisations participant à des actions de développement international se sont intéressés à divers projets de TIC-D et de TIC-E. Certaines de ces organisations, notamment le CRDI, la fondation OLPC et Geekcorps, ont pris en compte certains aspects de la localisation dans leur contenu web et leurs interfaces, mais elles pourraient en faire bien plus, par exemple:

image Équiper les systèmes informatiques des télécentres (avec des polices essentielles, des possibilités de configuration de clavier et des logiciels localisés le cas échéant);

image Offrir du contenu dans plusieurs langues;

image Créer des contenus web localisés pouvant être imprimés pour que les communautés éloignées des télécentres puissent les lire;

image Chercher à développer une collaboration avec des groupes de localisation, dans les pays bénéficiaires où il en existe, pour localiser des logiciels;

image Soutenir de nouveaux projets de localisation.

Intégrer davantage les communautés du logiciel libre au processus de localisation

En Afrique, le manque d’interactions souvent observé entre linguistes et informaticiens risque de se répéter entre certains groupes d’utilisateurs de logiciels libres et les localisateurs. Le moment est venu de rapprocher ces deux groupes, car les logiciels libres et la localisation reçoivent tous deux davantage d’attention. Il conviendrait donc d’identifier et de contacter les groupes d’utilisateurs de logiciels libres de divers pays et de les interroger sur leur intérêt pour la localisation.

Mettre en lien plusieurs domaines de localisation: logiciels libres, TIC-D et milieu commercial

Deux ou trois domaines de la localisation devraient sans doute être mis en lien. Le premier concerne les communautés de langues de pays ou groupes de pays particuliers. C’est à ce niveau que le projet PAL et d’autres initiatives de localisation ont tendance à opérer. En général, il s’agit d’initiatives locales non gouvernementales portant principalement sur le contenu et les applications libres.

Le second domaine concerne la localisation dans des contextes de développement particuliers. On peut notamment penser au projet Open Knowledge Network, mené dans certaines régions d’Afrique et d’Asie du Sud. Ce domaine et le précédent coïncident partiellement en Afrique, mais la localisation destinée à des communautés de langues particulières porte sur les applications libres et peut impliquer des Africains vivant à l’étranger, tandis que la localisation dans le contexte du développement implique des organismes de développement qui créent et mettent en place des projets de TIC-D. Ces deux domaines nécessitent en principe la participation de linguistes et d’informaticiens, qui pourraient être mis en relation afin de favoriser les échanges d’idées et les collaborations fructueuses.

Le milieu commercial et des affaires constitue le troisième domaine qui nous intéresse. Les multinationales de logiciels propriétaires (notamment Microsoft) et les fabricants de logiciels africains s’intéressent à la localisation sur certains marchés, tandis que les entreprises des autres secteurs peuvent s’intéresser à la localisation de contenu ou d’interfaces.

S’il peut être difficile de concilier les approches de ces différents domaines pour établir des liens entre le milieu commercial et les initiatives de localisation en faveur de communautés de langues particulières ou du développement, ces efforts peuvent apporter des bénéfices inattendus. La recherche de coordination ou de coopération entre divers groupes partageant des intérêts communs pourrait avoir des résultats très positifs pour les langues africaines. Elle pourrait en effet permettre à la localisation d’avoir un impact plus large et de se maintenir à plus long terme.

Logiciels libres, logiciels propriétaires et ressources limitées pour la localisation

Comme dans d’autres domaines, les ressources manquent souvent en Afrique pour les TIC et les travaux de linguistiques. Une autre façon de mettre en lien les différents domaines de la localisation consisterait à promouvoir la collaboration entre les développeurs de logiciels propriétaires et les développeurs de logiciels libres en ce qui a trait aux ressources essentielles pour la localisation dans des langues minoritaires, ce qui serait un compromis inédit pour ces langues et leurs locuteurs. Cela pourrait passer par le soutien au développement de ressources comme des dictionnaires de façon à bénéficier au plus grand nombre, le plus tôt possible. De tels efforts cibleraient les langues les moins courantes et les moins dotées.

La technologie mobile

La prolifération rapide des téléphones portables en Afrique et la miniaturisation de la technologie informatique donnent une toute nouvelle dimension à la localisation, ce qui mérite d’être pris en compte dans l’élaboration de politiques et de programmes dans ce domaine. Nous aborderons plus en détail cet aspect technologique dans une autre partie de ce même chapitre.

NORMES TIC AYANT UN IMPACT SUR LA LOCALISATION EN AFRIQUE

Comme nous l’avons vu dans les chapitres précédents, les normes sont un facteur décisif de la réussite de la localisation, car elles facilitent l’utilisation de diverses langues dans les TIC, la traduction de logiciels et la production et l’utilisation de contenus web linguistiquement diffé-rents. Nous avons déjà mentionné quelques recommandations concernant les normes liées aux langues. Cette section s’intéresse davantage aux normes technologiques – des claviers à l’encodage – qui ont un impact sur la localisation et l’informatique multilingue en Afrique. Une plus grande participation des gouvernements et des organisations interafricaines est recommandée à tous les niveaux dans l’élaboration de normes ayant des conséquences sur la localisation en langues africaines, y compris de la part de l’ISO et de ses comités techniques concernés.

Normes internationales en matière de langues et participation de l’Afrique

Au chapitre 9, nous avons abordé la question du rôle de l’ISO et de la participation de l’Afrique dans l’élaboration de normes en matière de langues. Il est nécessaire de trouver des façons de faciliter et d’encourager les gouvernements africains et les institutions de normalisation ainsi que les organismes de langue et de linguistique appliquée en Afrique à s’intéresser davantage à ces questions. L’Afrique ne participe presque pas à cet aspect essentiel de l’écologie de la localisation.

Le codage des langues défini par l’ISO 639 est un point particulièrement important (voir chapitre 9), car de nouveaux codes sont parfois nécessaires. Un autre aspect essentiel concerne les nouveaux éléments qui sont développés pour les normes (ISO 639-4 et ISO 639-6). Sans la participation de l’Afrique ou d’experts ayant une bonne connaissance de la réalité des langues africaines et de la localisation, les besoins propres à ce continent pourraient ne pas être identifiés. Il faut trouver le moyen d’analyser l’application du système des codes aux langues et groupes de langues africains et afin de s’assurer qu’ils satisfont correctement aux besoins en matière de paramètres de lieu et de localisation.

Unicode est un autre sujet de préoccupation lorsqu’on s’intéresse aux normes internationales. En effet, même si le nombre de caractères déjà codés pour les principaux alphabets utilisés en Afrique est assez considérable, des caractères supplémentaires pourraient être nécessaires et certains alphabets moins répandus n’ont pas encore été codés. Pour-tant, l’Afrique n’est presque pas représentée dans le processus de normalisation et les délibérations et décisions sont laissées à d’autres pays.

Paramètres de lieu

Les paramètres de lieu sont classés selon des codes internationaux normalisés (en fonction des langues, des pays et, parfois, des alphabets) et sont essentiels à la localisation. Or, relativement peu de langues disposent de paramètres de lieu. Ce domaine nécessite une plus grande attention, mais aussi une meilleure coordination dans le cas de certaines macrolangues ou certains groupes de langues pour lesquels il existe plusieurs codes possibles. Il faudrait prévoir et coordonner une campagne visant à augmenter le nombre de paramètres de lieu enregistrés pour les langues africaines et prenant en compte ces problèmes.

Même s’il ne s’agit que d’un début, le sous-projet d’ANLoc, mentionné au chapitre 9, de créer 100 paramètres de lieu africains représente une mesure importante en ce sens.

Les normes de clavier pour l’Afrique

Comme nous l’avons vu au chapitre 8, la question des configurations de clavier pour les langues africaines dont l’orthographe comporte des caractères étendus reçoit de plus en plus d’attention à l’échelle locale. Les initiatives mises en place concernent les configurations intégrées à la localisation de logiciels, celles qui sont conçues avec des programmes tels que Keyman et MSKLC et la création d’un clavier pour les langues nigérianes. Reste à savoir comment promouvoir la normalisation des configurations de clavier d’une façon qui soit favorable aux localisateurs et aux utilisateurs d’ordinateurs. Bien que de nombreuses configurations soient indépendantes des autres logiciels, il faut néanmoins les prendre en compte au moment de la localisation des logiciels et de la fabrication des claviers.

Les localisateurs qui travaillent sur les claviers devraient commencer à prendre en compte l’évolution des claviers de manière plus générale et à plus long terme, ne serait-ce qu’en se familiarisant avec les autres configurations de clavier qui existent déjà dans la région ou le pays qui les intéresse ou pour leurs langues de travail ou des langues similaires. Idéalement, les claviers africains pourraient évoluer de façon à s’adapter aux différentes langues parlées dans un pays ou une région en particulier.

Les configurations de clavier associées à la localisation de logiciels comme OpenOffice et Microsoft Office et à la saisie de données en langues africaines dans des logiciels non localisés sont également dignes d’intérêt. Il faut coordonner les efforts réalisés dans ce domaine et s’en inspirer pour développer des normes.

Au niveau de l’élaboration des politiques, il convient de se demander qui aurait le pouvoir de traiter ce genre de questions, comment ce pouvoir serait géré et qui serait impliqué: les organisations gouvernementales, les linguistes, les sociétés privées ou encore une combinaison des trois. Encore une fois, il est important de prendre en compte ce qui a déjà été fait dans des circonstances différentes.

Lorsqu’on conçoit un clavier pour une utilisation plus large et à plus long terme, il est crucial de ne pas perdre de vue certains facteurs essen-tiels et les principes de l’ISO 9995. Il est avant tout nécessaire de comprendre les habitudes des utilisateurs. On peut raisonnablement penser que les Africains multilingues et capables de lire et d’écrire dans plusieurs langues utiliseront plusieurs langues à l’ordinateur, parfois lors d’une même session. Il est tout aussi important de se rappeler que de nombreux ordinateurs sont utilisés dans des lieux ouverts au public tels que les cybercafés et les télécentres, et que chaque poste doit donc offrir la possibilité d’utiliser plusieurs langues. Si ces besoins ne semblent pas particulièrement urgents à l’heure actuelle, puisque la plupart des logiciels et des sites internet ne sont disponibles que dans les LEGD, il faut pouvoir les anticiper. Au fur et à mesure que des logiciels et des contenus interactifs localisés en langues africaines feront leur apparition, la possibilité d’utiliser les technologies de différentes façons deviendra plus concrète.

Nous faisons donc face à un double impératif: il faut pouvoir, d’un côté, offrir à l’utilisateur final la configuration de clavier la plus efficace et la plus utile dans chaque situation et, de l’autre, répondre aux besoins de l’ensemble de ce marché multilingue complexe. Il faudrait donc pouvoir, avec un seul clavier, satisfaire la demande d’autant d’utilisateurs que possible, sans créer une configuration trop lourde pour être utilisée facilement dans une langue donnée, ou bien développer un ensemble de configurations de clavier propres à chaque langue et compatibles avec un clavier général permettant la saisie de caractères appartenant à de nombreuses langues. Les configurations de clavier n’existent isolément dans aucun des deux cas. Elles font partie d’un système harmonisé dans l’intérêt des utilisateurs qui peuvent avoir recours à plusieurs configurations pour saisir du texte dans des langues différentes.

Toute stratégie se voulant exhaustive et tournée vers l’avenir devrait également envisager l’utilisation d’autres modes de saisie, comme les nouveaux claviers électroluminescents, les tablettes graphiques et les logiciels de synthèse de la parole en texte (dont il est question dans la prochaine partie).

APPLICATIONS AVANCÉES, OUTILS ET RECHERCHE

Par localisation de logiciels, on entend souvent la localisation de logiciels informatiques généralistes. Il est important d’aller plus loin et d’envisager la localisation d’applications spécialisées et avancées, la création d’outils permettant une utilisation plus poussée des langues et la recherche visant à développer ces aspects et l’utilisation des technologies en langues africaines. Autrement dit, les initiatives de localisation pour-raient s’intéresser davantage aux usages spécialisés et avancés des TIC, ce qui pourrait parfois faciliter d’autres travaux de localisation.

Dans cette partie, nous traiterons de la question des technologies mobiles et avancées et suggérerons une façon de favoriser la recherche dans ces domaines.

Les technologies mobiles

Nous avons déjà abordé, au chapitre 12 et dans une autre partie du présent chapitre, la question des technologies mobiles, qui sont favorisées par les progrès continus en matière de miniaturisation. Nous avons également remarqué qu’il s’agissait d’un nouveau champ de la localisation qui prenait rapidement de l’importance en Afrique, du moins en ce qui concerne les téléphones portables. En raison des possibilités que représentent les SMS, courriers électroniques et autres messages texte en langues africaines pour les appareils mobiles, ainsi que les interfaces vocales (comme le logiciel TTS en swahili que nous avons déjà mentionné), il faudrait peut-être s’intéresser davantage aux normes de localisation en la matière.

Les alphabets complexes soulèvent non seulement un problème de compatibilité avec les ordinateurs, mais aussi un problème de normes. Quel lien pourrait-il et devrait-il y avoir entre les entreprises qui participent à la localisation des téléphones portables et des terminaux de poche et les initiatives de localisation de logiciels informatiques? Dans le cas de Microsoft, il existe peut-être une certaine synergie entre les divers travaux liés aux logiciels destinés aux ordinateurs et ceux destinés aux appareils mobiles, mais quid de la localisation des logiciels libres?

Avec la miniaturisation croissante et les innovations en ce qui concerne les terminaux de poches, il est important de se demander si l’évolution des appareils mobiles en Afrique mérite qu’on s’y attarde étant donné que le secteur des technologies mobiles est dominé par les intérêts commerciaux. La nature commerciale du secteur n’est pas un problème, mais il vaut la peine de se pencher sur le manque apparent de liens entre le secteur des technologies mobiles et les autres efforts de localisation. Il faudrait par ailleurs étudier les possibilités de développement de logiciels localisés destinés aux terminaux de poche.

Les systèmes d’information géographique

Comme nous l’avons vu au chapitre 12, la technologie SIG permet une manipulation numérique de données et de cartes. Elle pourrait faire partie des technologies à localiser en priorité pour une utilisation dans la planification, l’analyse et l’éducation en faveur du développement local. Les SIG sont utilisés dans des projets de développement participatif en Afrique et ailleurs dans le monde et leur utilisation croissante en Afrique laisse présager leur potentiel en matière de localisation.

Puisqu’il existe au moins un bon logiciel libre de SIG gratuit (GRASS), tous les ordinateurs des télécentres communautaires, des écoles et des bureaux de l’État devraient être équipés de SIG et il faudrait mettre en œuvre un programme de localisation de ces logiciels dans les principales langues africaines. La principale difficulté d’une telle approche est qu’il faudrait l’accompagner de formations afin que les utilisateurs puissent profiter pleinement des avantages de ces applications.

Nous ne prétendons pas exclure les logiciels de SIG propriétaires, mais le prix est un important facteur dissuasif en Afrique. Quoi qu’il en soit, tout projet visant à encourager une plus grande utilisation des SIG sous quelque forme que ce soit conduira certainement à une augmentation de la demande en SIG sous toutes leurs formes.

Dans un premier temps, la localisation des SIG devrait commencer par l’étude, en collaboration avec des localisateurs africains travaillant sur d’autres projets, de la possibilité de localiser le logiciel GRASS. La localisation de ce programme en amharique, qui est déjà en cours, pour-rait constituer un bon point de départ. Un tel projet pourrait difficilement se faire sans la participation d’experts en langues, de techniciens spécialisés dans le logiciel GRASS et d’éventuels bailleurs de fonds.

Étant donné la répartition géographique des locuteurs de différentes langues, les SIG pourraient également être un outil efficace pour l’aménagement linguistique et la planification de la localisation.

Des outils technolinguistiques de pointe

L’Afrique se caractérise par la multiplicité de ses langues, des traditions souvent décrites comme plus orales qu’écrites (à tel point que certains systèmes d’écriture n’ont pas encore été normalisés) et un faible taux d’alphabétisation. Une utilisation conventionnelle des TIC privilégiant les formats texte ne pourrait donc pas tirer parti des nombreuses aptitudes et idées formées dans toutes les langues qui n’ont pas une tradition écrite très établie. Par ailleurs, les langues minoritaires seraient constamment désavantagées, car ces langues sont rarement écrites et les quelques enregistrements existants pourraient ne jamais être retranscrits de façon à être accessibles aux locuteurs natifs.

En principe, les nouvelles technologies ouvrent la voie à d’autres utilisations possibles pour n’importe quelle langue et les langues les moins avantagées peuvent être celles qui en bénéficient le plus. Les politiques en matière de langues et de TIC doivent tenir compte de cet aspect. Pour cela, les décideurs, les chercheurs, les militants et les locuteurs natifs doivent faire preuve d’une grande clairvoyance et communiquer entre eux.

Paradoxalement, certaines technologies de transformation de messages vocaux et de textes parmi les plus avancées pourraient être les mieux adaptées aux langues africaines. Ce sont, par exemple, comme nous l’avons vu au chapitre 12:

image La synthèse vocale et la synthèse de la parole à partir du texte (TTS);

image La reconnaissance vocale et la synthèse du texte à partir de la parole (STT);

image Les outils audio avancés, comme l’audionumérique;

image La traduction automatique (TA) et les mémoires de traduction (TM).

Ces technologies pourraient non seulement bénéficier de recherches fondamentales, mais également de réflexions innovantes sur les stratégies à long terme visant à les utiliser et les adapter à la réalité africaine.

Planification et recherche

Il serait intéressant de promouvoir des études fondamentales et appliquées dans les domaines susmentionnés dans le cadre d’un programme de recherche appliquée mené par un groupement d’institutions d’Afrique et d’ailleurs. La philosophie de ce programme ne serait pas de « rattraper » le niveau atteint ailleurs dans le monde, mais de « prendre de l’avance », car les TIC pourraient trouver de nouvelles utilisations dans le contexte africain.

L’idée serait de cibler, dans les dix prochaines années environ, une série de technologies de pointe qui serviraient à atteindre des objectifs particuliers. Nous présentons ci-dessous quelques suggestions qui, pour certaines, exigent une orthographe normalisée:

image Diversifier et augmenter le nombre encore restreint d’applications TTS. La LLSTI (Local Language Speech Technology Initiative) pourrait notamment participer à ce projet.

image Développer des programmes STT pour un certain nombre de langues et chercher des manières de rationaliser la production de ces logiciels pour diverses langues de façon à ce qu’ils puissent fonctionner correctement indépendamment des différences dialectales des langues dont les dialectes ne sont pas normalisés.

image Évaluer les possibilités de différents types de contenus et d’applications en langues africaines ayant recours au format audio ou à une combinaison de sons et d’images. L’objectif serait non seulement de faciliter l’accès des personnes ayant un faible niveau d’alphabétisation et des handicapés, mais également d’étudier de nouvelles façons d’interagir avec les technologies en Afrique et ailleurs. Il faudrait envisager l’éventuelle participation à ces études des centres africains sur l’oralité.

image Développer une stratégie de constitution de corpus pour davantage de langues africaines. Une telle stratégie pourrait exploiter telles quelles les sources existantes et envisager de nouvelles façons d’élaborer des textes en langues africaines. Des corpus parallèles avec une traduction en LEGD pourraient être particulièrement utiles pour les logiciels de traduction.

image Étudier l’utilisation de logiciels de traduction (notamment les logiciels de traduction automatique et les mémoires de traduction) pour les langues africaines, même les moins répandues. Il faudrait par exemple envisager la possibilité de constituer des mémoires de traduction en ligne pouvant être utilisées partout, déterminer si les différentes techniques de traduction automatique, qui évoluent constamment, pourraient être adaptées à la situation des différentes langues du continent et étudier comment ces technologies pourraient permettre de contourner les obstacles qui entravent la traduction de textes en langues africaines pour l’Administration publique, l’éducation et le développement, entre autres.

image Faire appel à des linguistes et des informaticiens africains et les former afin d’amener une nouvelle génération d’Africains à participer aux recherches sur le traitement des langues et la localisation.

image Établir un lien entre les innovations en matière de TIC multilingues et la localisation et les TIC-D et TIC-E pour, à terme, faciliter les projets visant à répondre aux besoins propres à l’Afrique. Il faudra sans doute pour cela développer de nouveaux partenariats, à la fois au niveau de la recherche et des applications pratiques, pour localiser des applications SIG pour le développement rural, par exemple, ou pour distribuer des logiciels libres localisés dans les nouveaux télécentres, qui pourront ensuite faire part de leur opinion concernant les résultats de ces efforts et les éventuelles améliorations à apporter.

Autres moyens facilitant la localisation

Nous avons déjà signalé, aux chapitres 6 et 12, l’existence de logiciels facilitant la traduction d’autres logiciels. Certaines des applications susmentionnées pourraient également aider à localiser et créer du contenu en langues africaines. Elles pourraient également faciliter la localisation de logiciels.

Pour ce qui est de la production de texte en différentes langues, il faudrait étudier comment l’utilisation de logiciels de traduction et de STT pourrait réduire les coûts et le temps nécessaires pour développer du contenu pour le Web ou même pour des publications (du matériel scolaire, par exemple).

Enfin, les technologies de numérisation par balayage, déjà bien connues, pourraient permettre, grâce à un système de reconnaissance optique des caractères (ROC) adapté, le cas échéant, aux caractères latins étendus et non latins, de numériser des publications sur et dans des langues africaines afin de les diffuser par le biais d’Internet dans les communautés de locuteurs natifs (à condition d’en avoir obtenu l’autorisation).

CONCLUSION

Cet ouvrage présente un tour d’horizon de la localisation en Afrique et de son potentiel. Nous avons commencé par introduire un modèle d’écologie de la localisation afin de fournir au lecteur un élément conceptuel essentiel. Nous avons ensuite apporté des informations générales sur les langues africaines et sur certains aspects des TIC afin de brosser un portrait de la situation actuelle et d’en tirer des recommandations.

Si l’idée générale qui sous-tend cet ouvrage est que la localisation des TIC en langues africaines est importante et que le potentiel d’utilisation des TIC en langues africaines à des fins diverses est considérable, nous reconnaissons toutefois que le processus n’est pas simple. Le contexte technologique et éducatif n’est pas favorable, les ressources nécessaires sont limitées et les politiques n’encouragent pas activement les initiatives en matière de localisation. Si nous pouvons proposer quelques recommandations, des questions importantes demeurent sans réponse:

image Comment la localisation va-t-elle se développer en Afrique?

image À quels aspects de la localisation devrait-on accorder la priorité?

image Qui se chargera de diriger les efforts de localisation pour chaque langue, pays, région, langue de travail (LEGD) et à l’échelle du continent et comment faire pour les coordonner?

image Quelle est la meilleure façon d’encourager, coordonner et soutenir les initiatives en matière de localisation?

image Comment peut-on obtenir un plus grand soutien politique et institutionnel et le conserver?

image Comment tirer au mieux parti du soutien des expatriés africains et des bénévoles étrangers pour développer des compétences en matière de localisation sur le continent?

image Où trouver les ressources nécessaires à la localisation, notamment pour les langues les moins courantes et les moins dotées?

image Comment les informations figurant dans cet ouvrage et sur le site internet qui l’accompagne peuvent-elles être utilisées pour faciliter les efforts de localisation et comment pourrait-on les développer?

Les informations fournies dans cet ouvrage visent à servir de ressources pour aider à répondre à ce genre de questions stratégiques et soutenir des initiatives de localisation individuelles. Si l’objectif des informations ciblées est de favoriser les projets locaux, les détails ajoutés révèlent les structures et les connexions dans leur ensemble. Cette contribution fait donc partie d’un processus général qui, comme tout processus, est composé de cycles d’évaluation et d’anticipation, d’examen et de révision.

L’Afrique est le deuxième plus grand continent et présente l’une des plus importantes diversités linguistiques. Pourtant, elle ne se trouve pas encore en position de tirer pleinement parti des avantages des TIC – et encore moins de les modeler – pour répondre aux réalités et aux attentes de sa population en forte croissance. Le potentiel multilingue toujours plus grand des TIC est également confronté à des politiques linguistiques et un environnement sociolinguistique qui ne permettent pas de profiter de ces progrès.

Quel que soit le succès de la localisation, celle-ci ne constitue pas une fin en soi. Au début du présent ouvrage, nous avons abordé la question du fossé numérique et la façon dont la localisation, en favorisant et en adaptant l’accès aux TIC, peut contribuer de façon non négligeable à combler ce fossé. Les initiatives de localisation et les réflexions visant à poursuivre ce processus à long terme doivent donc trouver une manière de lier la recherche sur la localisation et les résultats de ce processus aux projets de TIC-D et TIC-E.

Le succès et l’utilité de la localisation ne dépendent pas seulement des autres éléments de l’écologie de la localisation. Le processus de localisation représente une nouvelle dynamique du développement social, économique, technologique, éducationnel, linguistique et politique en Afrique, comme ailleurs dans le monde. La mesure dans laquelle cette dynamique peut réellement servir des processus plus larges dépend de l’attention qui lui est accordée, de la planification, de l’action et, bien sûr, d’une certaine unité.

Ce dernier point mérite tout particulièrement d’être mentionné en conclusion. L’unité est au centre des préoccupations des États africains, des rassemblements à l’échelle du continent (dont certains au nom du panafricanisme) et d’organisations continentales comme l’Union africaine. La promotion de l’usage des langues africaines au niveau national a souvent donné lieu à des débats sur les effets de telles mesures sur l’unité nationale. Paradoxalement, à l’échelle du continent, les discussions sur la promotion des langues africaines conduisent fréquemment à des déclarations favorables et même à des plans d’action, mais cela s’est rarement traduit par des actions concrètes de la part des pays, des organisations régionales ou des principaux bailleurs de fonds.

Pour des raisons pratiques liées au besoin de collaboration au sujet des TIC multilingues, qui sont en constante évolution, une approche panafricaine de la localisation devrait en principe faire écho aux conférences africaines et aux déclarations des quarante dernières années concernant la promotion des langues africaines. Les initiatives risquent cependant d’être confrontées, à l’échelle des gouvernements et même des autorités en matière de TIC, à des obstacles idéologiques semblables à ceux rencontrés par les initiatives panafricaines précédentes concernant les langues autochtones africaines. C’est sans doute particulièrement vrai lorsqu’on soulève la question de la priorité à accorder à certaines langues plus répandues.

Il est donc important de souligner que la diversité des contenus et des logiciels localisés ne constitue pas une force séparatrice, mais exige plutôt une action commune. Le fait de commencer par certaines langues ne signifie pas que d’autres seront exclues, sinon que les ressources et les capacités nécessaires à leur localisation vont se développer. Par nature, les TIC sont cumulatives: les progrès réalisés dans une langue augmentent les possibilités d’action dans d’autres langues.

De la même façon qu’Unicode, en tant que système de codage de caractères unique, facilite l’utilisation de différents alphabets, une approche panafricaine de localisation des TIC pourrait paradoxalement fournir, dans de nombreuses régions d’Afrique, des résultats optimums pour les langues prises individuellement et dans leur ensemble. Des petits projets isolés ignorant l’importance de l’écologie de la localisation en Afrique et ne participant pas aux discussions mondiales sur l’informatique en langue locale ont peu de chances d’obtenir des résultats durables. Si des liens sont établis entre eux, ils pourront en revanche prétendre à la durabilité.

À long terme, les TIC pourraient, grâce à la localisation et à l’adaptation des langues et des modes de communication des Africains, favo-riser le développement, au sens le plus large du terme, c’est-à-dire révéler des potentialités. Nous espérons que cet ouvrage contribuera, de façon modeste mais significative, à atteindre cet objectif en Afrique.

Références

Afnan-Manns S et Dorr A. 2003. Re-evaluating the bridge: An expanded framework for crossing the digital divide through connectivity, capability, and content. Report on the digital divide’s multiple dimensions: indicators for measuring success. Los Angeles: The Pacific Bell/UCLA Initiative for 21st Century Literacies at the UCLA Graduate School of Education & Information Studies. Disponible à l’adresse suivante: http://www.newliteracies.gseis.ucla.edu/publications/re-eval_bridge.pdf (consulté en juin 2009).

Afrik.com/2008. « Linguistic atlas to provide Africa with a geo-linguistic map ». 11 septembre 2008. Disponible à l’adresse suivante: http://en.afrik.com/article14471.html (consulté le 20 juin 2009).

Agence de Presse Sénégalaise (APS). 2005. « Un professeur d’anglais à la retraite invente une écriture dénommée Typafrica ». APS 06-05-2005. Disponible à l’adresse suivante: http://www.aps.sn/artfiche.php?page=&id-article=8389 (consulté en juillet 2005).

Alexander N. 2008. « The African Academy of Languages (ACALAN): A linguistic renaissance for the continent? ». Openspace 2(3). Disponible à l’adresse suivante: http://www.osisa.org/files/openspace/2_3_language_ p055-059_neville_alexander.pdf (consulté le 20 juin 2009).

Balancing Act Africa. 2004. « African internet country profiles, Part 1, West Africa ». Londres: Balancing Act. Disponible à l’adresse suivante: http://www.balancingact-africa.com/profile1.html (consulté en juin 2009).

Balancing Act Africa. 2005. « African internet country profiles, Part 2, East Africa ». Londres: Balancing Act. Disponible à l’adresse suivante: http://www.balancingact-africa.com/profile2.html (consulté en juin 2009).

Balancing Act Africa. 2006. « African internet country profiles, Part 3, Southern and Central Africa ». Londres: Balancing Act. Disponible à l’adresse suivante: http://www.balancingact-africa.com/profile3.html (consulté en juin 2009).

Ballantyne P. 2002. Collecting and propagating local development content: Synthesis and conclusions. IICD en collaboration avec la Commission tanzanienne pour la science et la technologie, financée par le DFID. Rapport de recherche n° 7. Disponible à l’adresse suivante: http://www.ftpiicd.org/files/research/reports/report7.pdf (consulté en juin 2009).

Bamgbose A. 1991. Language and the nation: The language question in subSaharan Africa. Édimbourg: Edinburgh University Press.

Bamgbose A. 1996. « Pride and prejudice in multilingualism and development. In R. Fardon et G. Furniss (éds) African languages, development, and the state. Londres: Routledge.

Batibo H. 2005. Language decline and death in Africa: Causes, consequences, and challenges. Clevedon, Royaume-Uni: Multilingual Matters.

Bergmann F. 2005. « Open-source software and localization ». MultiLingual Computing 16(2): 70. Disponible à l’adresse suivante: http://www.project-open.com/whitepapers/oss-LION/(consulté en juin 2009).

Bernard H.R. 1996. « Language preservation and publishing ». In N.H. Horn-berger (éd.) Indigenous literacies in the Americas: Language planning from the bottom up. New York: Mouton de Gruyter.

Bohannan P. et Curtin P. 1971. Africa and Africans (édition revue et corrigée). Garden City (NY): Natural History Press.

Bohannan P. et Curtin P. 1995. Africa and Africans (4e édition). Prospect Heights (IL): Waveland Press.

Bokamba E.G. 1995. « The politics of language planning in Africa: Critical choices for the 21st century ». In M. Putz (éd.) Discrimination through language in Africa: Perspectives on the Namibian experience. Berlin: Mouton de Gruyter.

Bourbeau L et Pinard F. 2000. « Observations, réflexions et perspectives de l’informatisation des langues africaines ». Compte-rendu de la conférence « Internet: Passerelles du développement » organisée à Bamako, au Mali (21-26 février), par le réseau ANAIS. Disponible à l’adresse suivante: http://web.archive.org/web/20060103201531/http://www/progicielsbpi.ca/man/bam2000/(consulté en juin 2009).

Brock-Utne B. 2005. « Language-in-education policies and practices in Africa with a special focus on Tanzania and South Africa: Insights from research in progress ». In A.M.Y. Lin et P.W. Martin (éds) Decolonization, globalization: Language-in-education policy and practice. Clevedon: Multilingual Matters.

Campbell D.J. et Olson J.M. 1991. Framework for environment and development: The kite. Center for Advanced Study of International Development, document n° 10, université de l’État du Michigan.

Chanard C. 2005. « Pour une transcription pérenne des langues africaines ». Article présenté lors de la 27e conférence sur l’internationalisation et Unicode, Berlin (6 avril).

Chaudenson R. 1987. « Pour un aménagement linguistique intégré: Le cas de la graphie des créoles français ». Études Créoles 10(2): 143-58.

Chaudenson R. 2003. « Langues et numérisation: Français, créoles, langues africaines ». In I. Ndaywel è Nziem (éd.) Les langues africaines et créoles face à leur avenir. Paris: L’Harmattan.

Chaudenson R. 2004. « De Ouagadougou (1988) à Ouagadougou (2004) en passant par Libreville (2003) ». In Penser la Francophonie: Concepts, actions et outils linguistiques. Actes des premières journées scientifiques communes des réseaux de chercheurs concernant la langue, Ouagadougou, Burkina Faso (31 mai-1er juin). Paris: Agence universitaire de la Francophonie.

Childs G.T. 2003. An introduction to African languages. Amsterdam: John Benjamin.

Chtatou M. 1992. Using Arabic script in writing the languages of the peoples of Muslim Africa. Rabat: Institut des études africaines.

Cissé T., Mbodj C., Van Campenhoudt M. et Wane M. 2004. « Expérimentation de normes de balisage en langues partenaires ». In Penser la Franco-phonie: Concepts, actions et outils linguistiques. Actes des premières journées scientifiques communes des réseaux de chercheurs concernant la langue, Ouagadougou, Burkina Faso (31 mai-1er juin). Paris: Agence universitaire de la Francophonie. Disponible à l’adresse suivante: http://www.termisti.refer.org/ouagadougou.pdf (consulté en juin 2009).

Clews J. 2003. « ISO 6438, the Niamey keyboard, and IS0/TC46/SC4/WG1 ». Article posté le 13 mai sur le groupe de discussion Unicode@unicode.org. Disponible à l’adresse suivante: http://unicode.org/mail-arch/unicodeml/y2003-m05/0256.html (consulté en juin 2009).

Coulmas F. 1992. Language and economy. Oxford: Blackwell.

Crawford S. 2006. « Testing IDNS ». CircleID. Disponible à l’adresse suivante: http://www.circleid.com/posts/testing_internationalized_domain_ names_idns/(consulté en juin 2009).

CRDI (Centre de recherche pour le développement international). 2005. L’Atlas Acacia: Cartographie de la croissance des TIC en Afrique. Ottawa: CRDI.

Da Costa P. 2002. « African content on the web ». In L. Levey et S. Young (éds) Rowing upstream: Snapshots of pioneers of the information age in Africa. Johannesbourg: Sharp Sharp Media.

Diki-Kidiri M. 2008. « Comment assurer la présence d’une langue dans le cyberespace? ». Division de la société de l’information, Secteur de la communication et de l’information, UNESCO. Disponible à l’adresse suivante: http://unesdoc.unesco.org/images/0014/001497/149786F.pdf (consulté en juin 2009).

Diki-Kidiri M et Edema AB. 2003. « Les langues africaines sur la toile ». Cahiers du Rifal 23: 5-32.

Duncan O.D. 1959. « Human ecology and population studies ». In P.M. Hauser & O.D. Duncan (éds) The study of population: An inventory and appraisal. Chicago: University of Chicago Press.

Enguehard C. 2006. Article posté sur Unicode-Afrique le 18 avril. Disponible à l’adresse suivante: http://fr.groups.yahoo.com/group/Unicode-Afrique/message/1050 (consulté le 21 juin 2006).

Enguehard C. et Naroua H. 2008. « Evaluation of virtual keyboards for West African languages ». Compte-rendu de la 6e conférence internationale pour les ressources linguistiques et l’évaluation (Language Resources and Evaluation Conference, LREC). Disponible à l’adresse suivante: http://www.sciences.univ-nantes.fr/info/perso/permanents/enguehard/recherche/LREC2008_Enguehard_Naroua.pdf (consulté le 21 juin 2009).

Esselink B. 1998. A practical guide to software localization: For translators, engineers and project managers. Amsterdam: John Benjamins.

Esterhuysen A. 2002. « Networking for a purpose: African NGOS using ICT ». In L. Levey & S. Young (éds) Rowing upstream: Snapshots of pioneers of the information age in Africa. Johannesbourg: Sharp Sharp Media.

Fill A. 2001. « Ecolinguistics: State of the art 1998 ». In A Fill & P Mühlhäusler (éds) The ecolinguistics reader. London: Continuum.

Gadelli K.E. 1999. « Language planning: Theory and practice. Evaluation of language planning cases worldwide ». Document établi pour la Division des langues, Secteur de l’éducation, UNESCO, Paris.

Gordon R.G. Jr (éd.). 2005. Ethnologue: Languages of the world (15e édition).

Dallas: SIL International. Disponible à l’adresse suivante: http://www.ethnologue.com/(consulté en juin 2009).

Greenberg J.H. 1970. The languages of Africa (3e édition). Bloomington (IN): Indiana University Press.

Halaoui N. 2001. « Aménagement et politique linguistiques: la politique des langues au Bénin ». Language Problems and Language Planning 25(2): 145-166.

Harlech-Jones B. 1993. « What ecology? » Logos 13: 11-24.

Haugen E. 2001/1972. « The ecology of language ». In A. Fill et P. Mühlhäusler (éds) The ecolinguistics reader. London: Continuum. Première publication dans A.S. Dil (éd.). 1972. The ecology of language: Essays by Einar Haugen. Stanford: Stanford University Press.

Heine B. et Nurse D. (éds). 2000. African languages: An introduction. Cambridge: Cambridge University Press.

Herbert R.K. 1992. « Language in a divided society ». In R.K. Herbert (éd.) Language and society in Africa: The theory and practice of sociolinguistics. Johannesbourg: Witwatersrand University Press.

Hosken, M. 2003. An introduction to keyboard design theory: What goes where? SIL International. Disponible à l’adresse suivante: http://scripts.sIL.org/KeybrdDesign (consulté en juin 2009).

Institut international des langues et civilisations africaines (International Institute for African Languages and Cultures, IIALC). 1930. Practical orthography of African languages (édition revue et corrigée) Londres: IIALC.

ISO (Organisation internationale de normalisation). 1988. ISO 3166:1988. Codes for the representation of names of countries (3e édition). Août 1988.

ISO (Organisation internationale de normalisation). 1998. ISO 639-2:1998. Codes for the representation of names of languages (Part 2: Alpha-3 code) (1re édition).

ISO (Organisation internationale de normalisation). 2002. ISO 639-1:2002. Codes for the representation of names of languages (Part 1: Alpha-2 code).

ISO (Organisation internationale de normalisation). 2004. ISO 15924:2004. Information and documentation: Codes for the representation of names of scripts. Janvier 2004.

ISO (Organisation internationale de normalisation). 2006. ISO and Africa. Disponible à l’adresse suivante: http://www.iso.org/iso/en/commsmarkets/developingcountries/pdf/iso_and_africa.pdf (consulté en juin 2009).

Joshi R.M. et Aaron P.G. (éds). 2005. Handbook of orthography and literacy. Hahwah (NJ): Lawrence Erlbaum Associates.

Levey L.A. et Young S. (éd.). 2002. Rowing upstream: Snapshots of pioneers of the information age in Africa. Johannesbourg: Sharp Sharp Media.

Mackey W.F. 1989. « Status of languages in multinational societies ». In U. Ammon (éd.) Status and function of language and language varieties. Berlin: Walter de Gruyter.

Mafundikwa S. 2004. Afrikan alphabets: The story of writing in Africa. West New York (NJ): Mark Batty.

Mann M. et Dalby D. 1987. A thesaurus of African languages: A classified and annotated inventory of the spoken languages of Africa with an appendix on their written representation. Londres: Hans Zell Publishers.

Mas J. 2003. « La salut del català a internet ». Softcatala. Disponible à l’adresse suivante: http://www.softcatala.org/articles/article26.htm (consulté en juin 2009).

Matwyshyn A.M. 2003. « Silicon ceilings: Information technology equity, the digital divide and the gender gap among information technology professionals ». Northwestern Journal of Technology and Intellectual Property 2(1). Disponible à l’adresse suivante: http://www.law.northwestern.edu/journals/njtip/v2/m/2 (consulté en juin 2009).

Mazrui A.A. et Mazrui A.M. 1998. The power of Babel: Language and governance in the African experience. Chicago: University of Chicago Press.

Microsoft Corporation. 2004. « Microsoft enables millions more to experience personal computing through local language program ». 16 mars. Disponible à l’adresse suivante: http://www.microsoft.com/presspass/press/2004/mar04/03-16LLPPR.asp (consulté en juin 2009).

Miller, Esselaar and Associates. 2001. A country ICT Survey for Tanzania. Rapport final établi pour l’Agence suédoise pour le développement international. Disponible à l’adresse suivante: http://www.milless.co.za/down-loads/Sida%20reports%20-%20Tanzania.pdf (consulté en novembre 2004).

Myers-Scotton C. 1990. « Elite closure as boundary maintenance: The evidence from Africa ». In B. Weinstein (éd.). Language policy and political development. Norwood (NJ): Ablex.

Myers-Scotton C. 1993. « Elite closure as a powerful language strategy: The African case ». International Journal of the Sociology of Language 103: 149-63.

Nsengiyumva A. et Stork C. 2005. « Rwanda ». In A. Gillwald (éd.). Towards an African e-index: Household and individual ICT access and usage across 10 African countries. Research ICT Africa. Disponible à l’adresse suivante: http://link.wits.ac.za/papers/e-index-rwanda.pdf (consulté en juin 2009).

Okombo D.O. 2001. « Language policy: The forgotten parameter in African development and governance strategies ». Conférence inaugurale, Université de Nairobi.

Okpaku J.O. Sr. 2003. « Towards a road map for ICT development in Africa ». In J.O. Okpaku Sr (éd.). Information and communications technologies for African development: An assessment of progress and the challenges ahead. Disponible à l’adresse suivante: http://www.ictdevlibrary.org/downloads/18_un_iCT_task_force_african_development_roadmap.pdf (consulté en juin 2009).

Ongarora D.O. 2002. « African languages in development: Prospects and encumbrances ». In F.R. Owino (éd.). Speaking African: African languages for education and development. Le Cap: Centre for Advanced Studies of African Society

Osborn D. 2001. « The knotty problem of using African languages for e-mail and internet ». Balancing Act’s News Update 69. Disponible à l’adresse suivante: http://www.balancingact-africa.com/news/back/balancing-act_69.html (consulté le 21 juin 2009).

Osborn D., Anderson D. et Kodama. 2008. « Support for modern African languages and scripts in Unicode/ISO 10646: Where are we today? ». Document présenté lors de la 32e conférence sur l’internationalisation et Unicode, San José, Californie (10 septembre).

Paolillo J. 2005. « Language diversity on the internet ». In J. Paolillo, D. Pimienta, D. Prado, et coll. (éd.). Mesurer la diversité linguistique sur Internet. Montréal: UNESCO. Disponible à l’adresse suivante: http://unesdoc/unesco.org/images/0014/001421/142186e.pdf (consulté en juin 2009).

Pastore M. 2000. « Web pages by language ». ClickZ Stats, 5 juillet. Disponible à l’adresse suivante: http://web.archive.org/web/20060314155743/ www.clickz.com/stats/sectors/demographics/article.php/5901_408521 (consulté en juin 2009).

Philips J.E. 2000. Spurious Arabic: Hausa and colonial Nigeria. Programme d’études africaines, université du Wisconsin.

Prah K.K. 2000. Mother tongue for scientific and technological development in Africa (3e édition). Le Cap: Centre for Advanced Studies of African Society.

Prah K.K. 2002. « Language, neo-colonialism, and the African development challenge ». TRIcontinental No. 150 (La Havane, Cuba).

Prah K.K. 2003. « Going native: Language of instruction for education, development and African emancipation ». In B. Brock-Utne, Z. Desai et M. Qorro (éds). Language of instruction in Tanzania and South Africa. Dares-Salaam: E&D Publishers.

Rambo A.T. 1983. Conceptual approaches to human ecology. East-West Environment and Policy Institute, rapport de recherche n° 14. Honolulu: East-West Environment and Policy Institute.

Rasch C. 2000. A brief history of free/open source software movement. Open Knowledge. Disponible à l’adresse suivante: http://www.glennmcc.org/foss/brief-open-source-history.html (consulté en juin 2009).

Rathke E. 2005. Internationalization for localization (l18n for l10n). Conférence OpenOffice 2005, Koper/Capodistria, Slovénie. Disponible à l’adresse suivante: http://ooocon.kiberpipa.org/media/index-talk-2005.html (consulté en juin 2009).

Renaud P. 1994. Le projet RIO, historique, organisation, partenaires. Disponible à l’adresse suivante: http://www.unitar.org/isd/publications/rio/prog-rio94.html (consulté en juin 2009).

Robinson C.D.W. 1996. Language use in rural development: An African perspective. Berlin: Mouton de Gruyter.

Sadembouo E. 1991. Préalables à la standardisation des langues africaines. In N. Cyffer, K. Schubert et H.-I. Weier (éds). Language standardization in Africa. Hambourg: Helmut Buske Verlag.

Secka, P.M. 2005. « Local alphabet to be launched ». The Independent (Banjul), 25 février. Disponible à l’adresse suivante: http://www.qanet.gm/Independent/independent.html (consulté en mars 2005).

Senge P. 2006. The fifth discipline: The art and practice of the learning organization (édition revue et corrigée). New York: Doubleday/Currency

Senne D. 2006. « Zulu, Xhosa SMS made possible ». ITWeb. Disponible à l’adresse suivante: http://www.itweb.com.za/sections/telecoms/2006/0606231042.asp?S=Cellular&A=CEL&O=FRGN (consulté en juin 2009).

Shanglee R. 2004. « Localization in African languages: Translators face linguistic challenges as they localize modern technology ». Multilingual Computing and Technology 15(1): 61.

Simala I.K. 2002. « Empowering indigenous African languages for sustainable development ». In F.R Owino (éd.). Speaking African: African languages for education and development. Le Cap: Centre for Advanced Study of African Society.

Smuts J. 1926, réimprimé en 1973. Holism and evolution. Westport (CN): Greenwood.

Sow A.I. (éd.). 1977. Langues et politiques de langues en Afrique noire: l’Expérience de l’UNESCO. Paris: Nubia.

Suzuki I., Mikami Y., Ohsato A. et Chubachi Y. 2002. « A language and character set determination method based on N-gram statistics ». ACM transactions on Asian language information processing 1(3): 269-278. Disponible à l’adresse suivante: http://portal.acm.org/affiliated/citation.cfm?id=772759&dl=guide&coll=ACM&CFID=15151515&CFT OKEN=6184618 (consulté en juin 2009).

Tadadjeu M. 1993. « Cameroon ». In R.H. Hartell (éd.). Les alphabets de l’Afrique. Dakar: UNESCO et SIL.

Tadadjeu M. et Sadembouo R. (éds). 1984. « Alphabet général des langues camerounaises » (adopté par le comité national pour l’unification et l’harmonisation des alphabets des langues camerounaises, Yaoundé, Cameroun (7 au 9 mars 1979). Faculté de Lettres et Sciences sociales, département de Langues africaines et de Linguistique, université de Yaoundé.

Taylor C. 2000. « Typesetting African languages: Report of an investigation ». Disponible à l’adresse suivante: http://www.archive.org/details/TypesettingAfricanLanguages (consulté en novembre 2009).

TeleCommons Group. 2000. « Rural access to information and communication technologies: The challenge of Africa ». Document établi pour l’African Connection Secretariat, avec le soutien du programme d’information pour le développement (infoDev). Disponible à l’adresse suivante: http://www.telecommons.com/reports.cfm?itemid=122 (consulté en juin 2009).

Texin T. 2006. What is wrong with locales? Disponible à l’adresse suivante: http://www.i18nguy.com/locales/Locales.pdf (consulté en juin 2009).

Togocity.com. 2006. « L’écriture informatisée de la langue Ewe est maintenant possible ». 8 mars. Disponible à l’adresse suivante: http://www.togocity.com/article.php3?id_article=914 (consulté en juin 2009).

Tonye E, Soundjock ES et Mbede J. 2002. « Apprentissage des langues africaines par l’Internet (ALI): Les cas des langues camerounaises ». Document présenté lors de la conférence mondiale sur le réseautage communautaire à l’ère du numérique, Montréal, Canada (7-12 octobre).

UNESCO (Organisation des Nations Unies pour l’éducation, la science et culture). 2005. Mesurer la diversité linguistique sur Internet. Disponible à l’adresse suivante: http://unesdoc/unesco.org/images/0014/001421/142186e.pdf (consulté en juin 2009).

USINFO (American Information Web). 2006. « Internet connections growing fastest in Africa ». Département d’État américain, bureau des programmes d’information internationaux. Disponible à l’adresse suivante: http://newsblaze.com/story/20060427183152tsop.nb/topstory.html (consulté en juin 2009).

Van der Merwe I.J. et Van der Merwe J.H. 2003. Linguistic atlas of South Africa: Language in space and time. Sun Press. Disponible à l’adresse suivante: http://usinfo.state.gov/dhr/Archive/2006/Apr/28-229950.html.

Van der Veken A. et De Schryver G.-M. 2003. « Les langues Africaines sur la toile: Étude des cas haoussa, somali, lingala et xhosa. Cahiers du Rifal 23: 33-45.

Webb V. et Kembo-Sure (éds). 1998. African voices: An introduction to the languages and linguistics of Africa. Le Cap: Oxford University Press.

Williamson K. 1984. Practical orthography in Nigeria. Ibadan: Heinemann Educational Books.

Yacob D. 2004. « Localize or be localized: An assessment of localization frameworks ». Document présenté lors du colloque international sur les TIC: Éducation et application dans les pays en développement, Addis Abeba, Éthiopie (19-21 octobre).

Ya’u Y.Z. 2005. « Confronting the digital divide: An interrogation of African initiatives to bridge the gap ». In J.O. Adesina, Y. Graham et A.O. Olukoshi (éds). Africa and development challenges in the new millennium: The NEPAD debate. Londres: Zed Books.

Index

A

Académie africaine des langues (ACALAN) 58, 65, 66, 114, 125, 159, 187

African Language Resource Council (ALRC) 88

African Language Technology Initiative (ALT-I) 138

Afrique de l’Est 29, 115

Afrique de l’Ouest 56, 80, 86, 87, 92, 130

Afrique du Nord 7, 30, 31, 57, 60, 92, 158

Afrique du Sud 29, 31, 57, 58, 66, 116, 117, 118, 129, 136, 142, 161, 171

Afrique subsaharienne 7, 18, 28, 30, 61, 62, 84, 105, 108, 158

Agence des États-Unis pour le développement international (USAID) 48, 79

Agence suédoise pour le développement international 121, 192

alphabétisation 7, 18, 28, 38, 41, 43, 45, 68, 69, 70, 77, 123, 159, 170, 179, 180

alternance des codes 58

aménagement linguistique 36, 39, 43, 64, 65, 70, 86, 162, 168, 169, 179, 189

Année des langues africaines (2006) 166

Apple 85

applications avancées 43, 153, 162, 166

Association nationale de comités de langues camerounaises (ANACLAC) 159

atlas linguistiques 57

B

Bamgbose, A. 65, 66, 188

bilinguisme soustractif 18

C

Cameroun 54, 64, 67, 124, 195

caractères arabes 61, 99

caractères latins étendus 83, 91, 98, 99, 101, 106, 120, 182

caractères non latins 86, 89, 91, 98, 99, 125

caractères spéciaux 106, 108

Centre de recherche de l’Afrique Orientale sur les traditions orales et les langues nationales africaines (EACROTANAL) 67

Centre de recherches pour le développement international (CRDI) 4, 7, 11, 80, 159, 164, 171, 189

Centre d’études linguistiques et historiques par tradition orale (CELHTO) 67

Centre d’investigation et de documentation sur l’oralité (CIDLO) 67

Centre for Advanced Studies of African Societies (CASAS) 55, 159

Centre régional de recherche et de documentation sur les traditions orales et pour le développement des langues africaines (CER 67

Chaudenson, Robert 20, 36, 39, 40, 189

claviers

configurations de 19, 26, 43, 95, 101, 102, 103, 106, 107, 108, 110, 171, 176

virtuels 108, 109, 110

codage de caractère

ANSI 84, 93, 95, 96, 101

codage de caractères

ASCII 94

codage de caractères

ASCII 22, 24, 83, 84, 85, 87, 93, 95, 97, 101, 119, 125

caractères latins 83, 87, 91, 93, 98, 99, 101, 105, 106, 120, 182

polices de caractères libres 98

reconnaissance optique des caractères (ROC) 182

Unicode 19, 23, 24, 27, 37, 43, 68, 78, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 95, 96, 98, 99, 114, 115, 120, 125, 139, 144, 151, 161, 166, 174, 185, 189, 190, 193

codes ISO 111, 113, 114

Commission économique pour l’Afrique (CEA) des Nations Unies 79

composition dynamique 87, 88, 89

Consortium des noms internet multilingues (MINC) 125

continuum dialectal 56

Corne de l’Afrique 60, 89, 92, 105

courriels audio 137

D

diacritiques 23, 63, 86, 87, 88, 89, 92, 93, 94, 95, 97, 98, 103, 105, 106, 107

dialectes et sous-familles linguistiques 25, 41, 53, 54, 55, 56, 58, 141, 147, 150, 162, 168, 180

dictionnaires en ligne 122

diversité linguistique 28, 122, 159, 168, 193, 195

E

Écologie de la localisation 9, 16, 33, 34, 35, 36, 38, 40, 45, 49, 50, 51, 64, 65, 69, 76, 80, 81, 144, 149, 150, 156, 157, 159, 166, 170, 174, 182, 184, 185

Écologie humaine 35, 38

Écosystèmes d’information 35

enseignement en langue maternelle 45, 67, 68, 76

extensibilité (scalability) 38

F

Facebook 132

faisceau de langues (language cluster) 56, 162

Forum de développement africain 79

fossé analogique voir fossé numérique 33, 34, 44

fossé numérique voir fossé analogique 13, 33, 34, 35, 41, 44, 49, 50, 51, 68, 74, 77, 78, 79, 162, 168, 183

G

Gambie 57

Geekcorps 171

Geographic Resources Analysis Support System (GRASS) 139, 178

géographie linguistique 53

Ghana 37, 59, 116, 125, 163

Google 132

groupes de discussion 95, 107, 120, 151, 153, 154, 157, 189

H

Haugen, Einar 35, 36, 191

I

IBM 104, 106, 129

initiative « Société de l’information en Afrique » de la CEA 79

Institut international des langues et civilisations africaines (IIALC) 62, 191

Internet Engineering Task Force (IETF) 111

J

jeux de caractères 19, 83, 84, 85, 93, 95, 97, 114, 151

K

Kenya 117, 118

L

langues africaines

afrikaans 54, 121, 124, 136, 142

akan 113, 124, 141

amharique 89, 92, 137, 139, 142, 179

arabe 2, 7, 18, 23, 25, 26, 29, 30, 54, 57, 60, 61, 62, 84, 86, 89, 92, 94, 105, 113, 116, 124, 125, 129, 136, 137, 141, 156, 158, 163, 167

attitudes négatives à l’égard des 58

éthiopien/guèze 61, 62, 89, 92, 99, 105, 109, 159, 167

haoussa 57, 62, 63, 87, 95, 97, 120, 123, 136, 151, 164, 195

ibibio 137, 164

intercompréhension entre les 53, 54, 56, 147

langues afro-asiatiques 53

langues berbères (tifinagh) 54, 92

langues chamito-sémitiques 54

langues à clics 54

langues khoÔsanes 54

langues mandingues (n’ko) 92, 94, 130, 169

langues nigéro-congolaises 54

langues nigéro-kordofaniennes 54

langues nilo-sahariennes 54

localisation en 7, 9, 30, 53, 91, 127, 131, 153, 156, 167, 174

menacées de disparition 60

peul 54, 56, 57, 85, 87, 93

somali 110, 120, 130, 138, 195

swahili 54, 60, 93, 120, 121, 123, 124, 128, 131, 136, 137, 141, 153, 177

taxonomie linguistique des 54

wolof 57, 94, 95, 125

xhosa 131, 136, 141, 195

yoruba 63, 93, 110, 124, 125, 136, 138, 141, 152, 164

zoulou 93, 136, 137

langues d’enseignement 44, 64, 67, 68, 69

langue seconde 18, 123, 124

Langues européennes de grande diffusion (LEGD) 18, 19, 25, 28, 29, 44, 54, 57, 58, 65, 66, 69, 76, 94, 105, 170, 176, 181, 182

langues transfrontalières 33, 149, 150, 162, 169

localisateurs 14, 31, 36, 47, 48, 56, 69, 101, 104, 123, 129, 131, 143, 144, 145, 146, 147, 149, 150, 155, 161, 162, 163, 164, 166, 167, 168, 169, 172, 175, 178

localisation, contexte technique de la

bande passante 48, 79, 80

contenus web 22, 24, 25, 26, 59, 78, 82, 96, 111, 112, 120, 121, 122, 123, 127, 132, 152, 170, 171, 174 équipement de systèmes 22, 24, 26, 31, 90, 143, 144

internationalisation 19, 27, 28, 31, 51, 73, 78, 81, 82, 83, 85, 89, 90, 91, 92, 114, 120, 125, 135, 144, 147, 156, 157, 160, 165, 189, 193

systèmes d’exploitation 27, 41, 74, 77, 78, 93, 98, 127, 131, 153

localisation de logiciels

interfaces utilisateur 13, 20, 22, 25, 70, 114, 132, 136, 144, 148

logiciels libres 29, 128, 129, 172, 178

Open Knowledge Network 131, 138, 172

packs d’interface linguistique (LIP) 128

serveur Pootle 130, 144

tablettes graphiques 108, 109, 177

TuxPaint 131

Ubuntu 127, 131

localisation durable 37, 45, 49, 50, 143

localisation en Afrique 9, 16, 17, 29, 30, 31, 34, 38, 73, 77, 90, 147, 163, 166, 167, 168, 173, 182

Local Language Speech Technology Initiative (LLSTI) 137, 180

logiciels propriétaires 27, 128, 129, 131, 160, 172, 173

M

Madagascar 67

Mali 57, 67, 88, 99, 107, 108, 163, 188

Maroc 68, 116, 143, 161

Microsoft 26, 27, 70, 83, 88, 98, 101, 106, 107, 127, 128, 129, 131, 160, 172, 175, 177, 192

modèle PLETES 36, 38, 42, 46, 47, 50, 51, 80, 147, 156

monolinguisme 65

Moyen-Orient 7, 30, 62, 99

Mozambique 57

multilinguisme 3, 4, 20, 65, 169

N

Niger 57, 67, 99, 116

Nigeria 29, 54, 57, 63, 68, 97, 106, 108, 116, 118, 164, 193, 196

nivellement dialectal 56, 58

normes internationales 83, 92, 112, 114, 162, 174

O

Observatoire des langues 122

Organisation internationale de normalisation (ISO) 19, 112, 191

Organisation islamique pour l’Éducation, les Sciences et la Culture (ISESCO) 62

orthographes 7, 26, 28, 33, 36, 38, 40, 41, 43, 53, 62, 63, 64, 65, 69, 86, 88, 89, 91, 92, 93, 94, 95, 96, 97, 105, 130, 144, 147, 148, 151, 152, 162, 169, 175, 180

P

paramètres de lieu

Common Locale Data Repository (CLDR) 115, 116, 118, 162

Language Tag Registry Unit (LTRU) 111

projet Yeha 115

plans d’infrastructure nationale de l’information et de la communication (NICI) 79, 171

plurilittéracie 68, 70

polices 22, 23, 63, 83, 86, 88, 91, 92, 95, 96, 97, 98, 99, 102, 107, 111, 144, 151, 152, 153, 171

politiques en matière d’éducation 44, 64

Progiciels BPI 88

Programme des Nations Unies pour le développement (PNUD) 79, 125

projet de recherche sur les langues africaines 142

projet PAL 7, 22, 65, 89, 129, 143, 146, 148, 150, 154, 158, 161, 164, 165, 167, 168, 172

projets de localisation

Initiative Internet pour l’Afrique 79

initiative Leland 48, 79

One Laptop per Child (OLPC) 68, 77, 170, 171

Réseau africain pour la localisation (ANLoc) 2, 3, 4, 99, 108, 115, 145, 165, 167, 175

R

reconnaissance vocale 6, 23, 110, 137, 138, 164, 165, 179

République démocratique du Congo (RDC) 54, 117, 153

Réseau international francophone d’aménagement linguistique (RIFAL) 86, 107

réseautage 132, 154, 155, 157, 166, 195

Rwanda 38, 117, 133, 192

S

Sénégal 57, 118

Shuttleworth, Mark 129

SIL International 38, 55, 56, 67, 99, 113, 190, 191

sociolinguistique 37, 39, 40, 42, 46, 47, 51, 156, 183

Sommet mondial sur la société de l’information 3, 88, 163

Sun Microsystems 129

synthèse de la parole à partir du texte (text-to-speech, TTS) 137, 153, 164, 177, 179, 180

synthèse du texte à partir de la parole (speech-to-text, STT) 110, 137, 138, 179, 180, 182

systèmes d’écriture 9, 23, 27, 53, 61, 63, 69, 82, 83, 85, 89, 90, 92, 100, 115, 125, 130, 169, 179

systèmes d’information géographique (SIG) 127, 138, 139, 150, 178, 179, 181

T

Tactical Tech 161

Tanzanie 67, 118, 121, 125

Tavultesoft 101, 106

technologies de l’information et de la communication au service du développement (TIC-D) 14, 26, 27, 64, 68, 73, 74, 162, 165, 171, 172, 181, 183

technologies de l’information et de la communication (TIC) 1, 2, 3, 4, 6, 7, 9, 13, 14, 15, 17, 18, 19, 20, 21, 22, 24, 26, 27, 28, 29, 30, 31, 33, 34, 35, 37, 38, 41, 44, 45, 47, 48, 49, 50, 57, 60, 64, 66, 68, 69, 70, 73, 74, 75, 76, 77, 78, 79, 80, 81, 85, 90, 91, 92, 94, 95, 96, 97, 100, 107, 111, 114, 115, 120, 135, 139, 143, 144, 146, 147, 149, 150, 151, 152, 153, 154, 155, 156, 158, 159, 160, 161, 162, 163, 165, 166, 167, 168, 170, 171, 172, 173, 177, 179, 180, 181, 182, 183, 184, 185, 189, 196

Tegic Communications 136

TeleCommons 74, 195

téléphonie mobile

Nokia 136

Samsung 136

Simputer 77, 136

Sony Eriksson 136

terminologie 4, 26, 38, 43, 53, 56, 57, 58, 70, 71, 131, 132, 144, 147, 163

Texin 114, 195

traditions orales 60, 67, 137

traduction assistée par ordinateur

mémoires de traduction (TM) 140, 142, 180, 181

traduction automatique (TA) 6, 54, 139, 140, 142, 154, 165, 180, 181

Web-Lingo 142

Translate.org.za 129, 130, 131, 167

U

UNESCO 59, 62, 122, 149, 159, 162, 190, 193, 194, 195

Union africaine 67, 184

W

World-Information.org 35

World Wide Web

blogues 124

Consortium (W3C) 120

Web sémantique 120

Wikipédia 124, 125