Communication L1 S1








télécharger 286.89 Kb.
titreCommunication L1 S1
page6/13
date de publication20.03.2018
taille286.89 Kb.
typeDocumentos
ar.21-bal.com > droit > Documentos
1   2   3   4   5   6   7   8   9   ...   13

3) la théorie mathématique de la communication


Restait cependant à définir ce que sont l'information au sens cybernétique du terme et la communication en tant qu'échange d'informations. Qu'est-ce qui est émis, qu'est-ce qui circule, qu'est-ce qui s'échange dans les machines cybernétiques que s'efforcent alors de réaliser les ingénieurs, comment s'opèrent les échanges, quelles sont les conditions nécessaires à l'exécution d'échanges efficaces, etc.? La réponse ne viendra pas de la cybernétique mais du secteur de la téléphonie puisque cette théorie

"est l'aboutissement des travaux d’un grand nombre de chercheurs (H. Nyquist, R.W.L. Hartley, D. Gabor) sur l’utilisation optimale des moyens de transmission de l’information (téléphone, télégraphe, télévision, etc.). Le premier exposé synthétique de cette théorie est dû à Claude E. Shannon, ingénieur aux Bell Telephone Laboratories. L’idée fondamentale est que l’information doit être transmise à l’aide d’un canal (ligne téléphonique, ondes hertziennes). On est alors conduit à étudier d’une part l’information proprement dite (quantité d’information, entropie d’une source d’information, etc.), d’autre part les propriétés des canaux (équivoque, transinformation, capacité, etc.), et enfin les relations qui existent entre l’information à transmettre et le canal employé en vue d’une utilisation optimale de celui-ci.

On peut ainsi considérer la théorie de l’information comme une théorie du signal au sens large. Elle intervient chaque fois qu’un signal est envoyé et reçu, et s’applique, par conséquent, aussi bien à la téléphonie, à la télégraphie et au radar qu’à la physiologie du système nerveux ou à la linguistique, où la notion de canal se retrouve dans la chaîne formée par l’organe de phonation, les ondes sonores et l’organe auditif." (Encycl. Universalis, art. Théorie de l'information)

a) Le modèle de Shannon


Dans son laboratoire, Shannon travaille sur les procédures de codage qui permettent à un dispositif récepteur de reconstituer exactement le message envoyé par un émetteur et transmis le long d'une voie de communication. Le but du codage est double : augmenter le nombre des messages par ligne mais aussi protéger ces messages des dégradations subies par le signal, et qu'on appelle "bruits". Ses recherches l'amènent ainsi à proposer un modèle de communication promis à un grand avenir dans le domaine de la cybernétique, des télécommunications, de l'informatique, mais aussi de la biologie (théorie du code génétique). Cette "théorie mathématique de la communication" permet en effet de décrire efficacement – c'est-à-dire de façon opérationnelle – le réel et les comportements que l'on peut y observer, du moins dans certains cas bien déterminés. On verra en effet qu'il serait absurde de vouloir réduire toutes les situations de communication à ce modèle et plus encore de réduire toute la communication à ce schéma linéaire.

Mais voyons le schéma en question :
Message Message

émis Signal Signal reçu

Source  Emetteur  Canal  Récepteur  Destination



Source de bruit
Il y a des choses intéressantes dans cette représentation :

- Une source produit un message (parole, texte écrit, image, musique, etc…);

- l'émetteur code ce message et le transforme en signal (vibration des molécules d'air, variation en tension d'un courant électrique, codage binaire, graphie sur papier, etc.) de telle façon qu'il puisse être transmis par un canal (air, câble électrique, canal hertzien ou tout simplement la poste, …) dont le débit doit être adéquat ;

- le récepteur transforme le signal reçu en message et le conduit au destinataire (oreilles + cerveau : la vibration sonore devient langage, transformation de variations de tension en vibrations d'une membrane  restitution du message vocal, …);

- enfin, ajout essentiel, au cours du processus de transmission, le signal peut être altéré par du bruit, ce "bruit" étant en fait une dégradation du signal au cours de son transport par le canal. Ce bruit rend le décodage difficile, parfois impossible (friture dans le vieux téléphone analogique, parasites dans les transmissions hertziennes, vacarme d'un camion qui empêche d'entendre son interlocuteur, bavardage des étudiants pendant un cours … ou gestuelle bizarre dans une conversation, …).

On reviendra souvent à cette notion de bruit, mais aussi à celle de codage/décodage par l'émetteur/récepteur, notions essentielles à toute problématique de la communication.

b) Quantification de l'information


Cependant, la théorie de Shannon ne se réduit pas à un schéma. En effet, elle propose en outre une opération apparemment paradoxale qui est la quantification de l'information, c'est-à-dire la quantification de ce qui se trouve "transporté" de l'émetteur au récepteur. Allons donc! On pourrait quantifier une information du type : "il fait beau" ou "demain il fera beau", ou "je vais changer de voiture", ou n'importe quelle autre phrase de ce type? Oui, car toute information est strictement liée à la notion d'incertitude.

Par ex., dans un pays où il fait toujours beau, dire "il fait beau" ou "demain il fera beau" ne contient strictement aucune information. En revanche, dans nos climats incertains, lorsque les services météorologiques annoncent qu'il fera beau demain, c'est une véritable information, précisément parce que le beau temps n'est jamais garanti. Et il y a d'autant plus d'information dans le bulletin météo que l'annonce est inattendue. Par ex., en pleine période de bise bien installée, annoncer un ciel bleu pour le lendemain n'est ni très difficile ni très inattendu. En revanche, une annonce de pluie, phénomène beaucoup plus incertain dans cette configuration météo, contient une plus grande quantité d'information.

Comment va-t-on s'y prendre pour quantifier, pour mesurer cette quantité d'information ? On va évaluer son incertitude, c'est-à-dire le nombre de questions appelant des réponse par oui ou par non auxquelles il faudra répondre pour lever cette incertitude.

Un exemple : vous entrez dans une librairie et vous dites "je veux un livre". L'incertitude du libraire est alors très grande, tant le nombre de livres susceptibles d'être achetés est grand. Pour réduire cette incertitude, il va poser une série de questions : quel genre littéraire (roman, livre scolaire, philosophie, sciences sociales, etc.), quel prix, etc.? Chaque réponse, en excluant un certain nombre de livres, réduit l'incertitude et augmente la quantité d'information. Si enfin vous acceptez un auteur et un titre dans telle édition, il n'y a plus aucune incertitude et l'information est totale : le libraire peut alors vous dire s'il a ou non le livre désiré… S'il a fallu n questions binaires au libraire pour vous amener à choisir tel ou tel livre – c'est-à-dire pour lever toute incertitude quant à vos choix possibles – la quantité d'information présente dans l'énoncé "je choisis tel livre" sera de n bits.

Autre exemple, toujours cité : si vous tirez une carte au hasard dans un jeu, la probabilité qu'elle soit rouge (ou noire) sera de 1 chance sur deux. Pour déterminer si la carte est rouge ou noire, il suffit d'un bit. Pour déterminer cœur ou carreau, il faudra 2 bits, etc. Idem en infographie N&B : pour déterminer si tel pixel est noir ou blanc, 1 bit suffira. D'où la "légèreté" de ce type d'image. En revanche, plus vous utiliserez de couleurs ou de niveaux de gris, plus il vous faudra de questions binaires pour déterminer précisément la couleur ou le niveau de gris de tel pixel parmi les 4, 8, 16, 256 (niveaux de gris) ou encore milliers ou millions de couleurs possibles. Le "poids" du fichier-image augmente avec la quantité d'information qu'il contient…

On peut donc dire, et c'est ce que fait Shannon, que l'incertitude et la quantité d'information dépendent des probabilités d'occurrence(1) de certains événements. Ainsi, moins un événement est prévisible, plus il est inattendu, et plus grande est la quantité d'information que contient l'annonce de cet événement.

On peut également dire que plus faible est la probabilité d'un message, plus grande est sa quantité d'information.

Et cette quantité est égale au nombre de choix binaires nécessaires à l'annulation de l'incertitude initiale…

On appelle bit (contraction de binary digit) la quantité d'information correspondant au résultat d'un choix entre deux possibilités également probables. (infographie N&B, carte rouge ou noire tirée au hasard, etc.)

Voilà donc notre information quantifiée, ce qui nous permet, par exemple, de mesurer le "poids" de nos fichiers informatiques. Est-ce que cela nous permet pour autant de mesurer la quantité de communication d'une conversation téléphonique ou d'un courrier (électronique ou non) ? Evidemment non. Car on sent bien que si cette mesure de la quantité d'information intéresse les ingénieurs des télécommunications ou les informaticiens (pour lesquels les temps de traitement et de transfert, ou l'importance des zones de stockage, constituent un élément essentiel) n'a pas grand chose à voir avec ce que nous appelons communication dans la vie quotidienne. Nous reviendrons longuement sur ce problème au semestre prochain. Mais il ne faut pas négliger pour autant l'apport considérable de la cybernétique et de la théorie mathématique de l'information dans les techniques qui ont considérablement bouleversé nos pratiques de communication.

1   2   3   4   5   6   7   8   9   ...   13

similaire:

Communication L1 S1 iconArchitecture de communication pour les applications multimedia interactives...
«cross ‐ layer» qui permet alors d'améliorer de façon significative la réactivité du système. Afin de faciliter l'intégration et...

Communication L1 S1 iconCours de communication
«Nulle part ni pour personne n’existe la communication. Ce terme recouvre trop de pratiques, nécessairement disparates, indéfiniment...

Communication L1 S1 iconRésumé P. Breton et S. Proulx s’intéressent d’abord aux techniques...
«sociale», ou communication médiatisée, qui met en jeu la circulation de messages

Communication L1 S1 iconDes halles sous jardin inondées de lumière
«Pour que ce projet soit réussi, IL fallait une communication limpide, critique et quelquefois passionnée entre le fabricant et les...

Communication L1 S1 iconBrevet de technicien supérieur communication
«communication» et à d’autres spécialités de brevet de technicien supérieur ainsi que les dispenses d’épreuves accordées conformément...

Communication L1 S1 iconCommunication

Communication L1 S1 iconBureau de la communication

Communication L1 S1 iconStratégie de Communication

Communication L1 S1 iconDirectrice marketing & communication

Communication L1 S1 iconProgramme général, communication








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com