Résumé de l’ouvrage








télécharger 470.97 Kb.
titreRésumé de l’ouvrage
page4/11
date de publication25.03.2017
taille470.97 Kb.
typeRésumé
ar.21-bal.com > économie > Résumé
1   2   3   4   5   6   7   8   9   10   11
PARTIE 3 L’INFORMATISATION DE L’ENTREPRISE
Chapitre 7 : Le socle sémantique


  • Différences entre langages naturels et langages de programmation


Le langage est un système de signes à la fois signifiant (phonétique) et signifié (concept) (De Saussure) mais la différence fondamentale entre nos langages naturels tels le français et les langages de programmation est le caractère totalement explicite et non ambigu de ses derniers. Là où le langage naturel est fortement allusif et suggestif (joie du poète ou de l’humoriste), les langages théoriques manient des concepts dépourvus de connotations (joie du mathématicien ou du logicien), les langages de programmation proposent une syntaxe de l’action (joie de l’automate et de l’informaticien). De ces différences de nature naissent les faux amis et les contresens sources de confusions entretenues par l’ignorance, de puissants intérêts économiques et d’enjeux de pouvoir. Dans le périmètre d’analyse de langages naturels un adjectif comme « logique » traduit l’ensemble des règles formelles garantes de la cohérence du raisonnement. Dans le cadre des langages de programmation le terme « logique » s’appliquera aux règles syntaxiques du langage. Là où la sémantique permet de distinguer la forme du fond de nos langages naturels, il ne sera question que de structures et de typages de données dans les langages de programmation. Là où la donnée est une mesure, une observation, une valeur expérimentale l’informaticien traduira donnée comme l’attribut évalué d’un objet métier dans l’entreprise. Ainsi puisque la sémantique formelle informatique est dédiée à la description des composants abstraits ou axiomatiques manipulés par les langages de programmation, il ne reste plus de place pour définir le langage de l’entreprise et de ses métiers incarnés dans le SI. De cette ambigüité découle un manque qui, bien que peu visible du néophyte, donne naissance à des solutions informatiques inadaptées aux métiers et à ses usages : des référentiels mal conçus, des problèmes de correspondance (mapping) de données où l’on confond choux et carottes et des pertes de signification dans l’entreprise issus de la méconnaissance de la nature profonde de l’informatique.


  • L’importance et la spécificité de l’ingénierie du SI


Les fonctions et l’usage premier du SI dans l’entreprise est de fournir des capacités de mémorisation, de classement, de calcul et de recherche de l’information. Ces fonctions première ont crée les organes de base du SI à savoir :

Des socles référentiels et sémantiques de l’entreprise (gestion des données, composants et objets métiers)

Une infrastructure composée de plates-formes technologiques (architectures matériel/logiciel)

Des applications de l’entreprise liant programmes / traitements / données / structures de données / processus (workflow)

Des systèmes de communication permettant l’échange la publication et la diffusion de l’information (messagerie, groupware .. )
L’ingénierie des SI relève de l’ingénierie des systèmes mais dans un domaine très particulier celui de l’organisation du travail avec l’automate. Les conditions de succès sont plus liées aux implicites des intentions et aux périmètres de légitimations des pouvoirs organisationnelles réelles ou en devenir qu’à la qualité intrinsèque des technologies. Les principes rationnels d’ingénierie traditionnels ne sont plus suffisants sans la sensibilité raisonnable de sociologues et de linguistes exprimant la personnalité et les spécificités de l’organisation. La majorité des échecs en termes d’informatisation des organisations est liée à cette difficulté sémantique, alors que le pilotage de systèmes techniques embarqués ou l’asservissement des automates par l’ordinateur même très contraints sont désormais bien maitrisés.


  • Le SI : système vasculaire et squelette de l’organisation


L’analyse des processus de l’organisation conduit à redéfinir les entités légitimes et les centres de décision réels en distinguant les fonctions de production structurelles (les métiers de l’entreprise) des facteurs de production conjoncturels (les organisations dans l’entreprise). C’est au sein du SI que s’établit l’alchimie subtile de transmutation des forces extérieures à l’entreprise (marché,..) et la physique newtonienne régissant l’écosystème interne à l’entreprise. Le SI incarne à la fois la physiologie des fluides de l’entreprise (son système vasculaire) et sa structure stable (son squelette). Toute analyse du SI est à la fois une radiographie et une échographie vasculaire de l’organisation. L’informatique est la science de l’intermédiation, l’incarnation de la sociologie des acteurs de l’articulation entre le monde physique et la sociologie de l’organisation.



  • L’indispensable administration des données


La donnée informatique se caractérise par le couple Définition/Mesure ( Sémantique / Propriété). Lorsque l’humain est capable d’interpréter ce couple alors la donnée devient information. La pertinence du SI et donc entièrement dépendant de ce couple et l’on appelle administration des données la gestion de sa qualité sémantique et de la justesse des mesures stockées. Son but est l’élimination les homonymies les synonymes pour assurer l’exhaustivité et l’intégrité de la donnée. Les définitions, les règles, les identifiants et les nomenclatures sont stockées dans des référentiels. Une partie de l’art de l’informaticien est de choisir avec pertinence les nomenclatures, les attributs, les identifiants, les codifications adaptés au traitement automatique. Des pathologies usuelles de l’entreprise sont le dévoiement de la donnée de référence dans des applications locales, la difficulté de faire évoluer des nomenclatures alimentant des applications interdépendantes alimentées en cascade et s’appropriant puis transformant à chaque étapes les données de référence pouvant aboutir à une dérive de sa signification initiale. Dans des cas pathologiques extrêmes, l’interconnexion de SI est quasi impossible lorsque les données ne sont pas administrées ou lorsque les nomenclatures employées ne sont pas bijectives. De plus à ces erreurs de conception ou de modélisation viennent s’ajouter des erreurs de capture des données qui font que l’information stockée sans un contrôle humain pointilleux est très souvent sujette à caution.


  • Les bases de données : une technologie fiable mais un simple outil


Deux innovations majeures permettent d’accéder à l’information : les bases de données qui outre le stockage fournissent des fonctions de recherche des données et les moniteurs transactionnels qui donnent accès aux systèmes. La théorie des bases de données sous son aspect rationnel passe sous silence l’importance majeure des choix et conventions qui ont présidés à la conception du SI et des applications. L’aspect structurant des choix (population sélectionnée, attributs observés, classification, codification) est occulté par la facilité apparente et fallacieuse de créer des enveloppes physiques d’accueil (fichiers ou bases de données). De plus le choix des techniques de modélisations est loin d’être neutre et impose son vocabulaire et ses concepts implicites. On parle alors de manière abusive de modèle entité-relation dans un schéma entité-association, et plutôt de classes dans un modèle objet, de relations dans un modèle relationnelle. Le modèle relationnel basé sur la théorie ensembliste et son algèbre manipulera des tables et tableaux (lignes = individus/ colonnes = attributs de la relation) les identifiants servant de clef de jointure inter-tables alors que dans les modèles décisionnels on privilégiera les modèles en étoile ou flocon liant tables de faits et dimensions. Les technologies telles que les bases de données ne sont donc que des outils et pas un produit final, il s’agit de la glaise façonnée par l’informaticien pour une organisation particulière.
La construction d’un SI peut sembler un processus parfaitement codifié basé sur des théories et méthodes cartésiennes éprouvées. En réalité les choix arbitraires des concepteurs, conscients ou non, font qu’un SI est toujours un construit social heuristique unique et dépendant d’un contexte donné. A ce titre la lisibilité du SI est une condition nécessaire pour une appréhension pertinente de l’information. Le SI est l’interface permettant à l’agent opérationnel de consulter, saisir traiter l’information. L’organisation du travail, vue à travers le prisme de l’écran informatique (ou son complément papier qu’est le rapport) doit être compréhensible c'est-à-dire lisible par l’humain. C’est à travers cette fenêtre numérique que l’employé interagit avec les processus de production de son entreprise. C’est dans ce sens que l’on peut dire qu’un SI élucide l’entreprise. La cohérence du SI est à la fois source de compréhension des attentes de l’organisation et générateur de sens. A l’inverse un SI mal adapté au contexte opérationnel symbolisera l’entropie source de désorganisation de l’entreprise (« la cathédrale et le bazar »).
CHAPITRE 8 Outils et Architecture
Ainsi la compréhension de l’évolution des composants technologiques fournissant l’ensemble des briques constituant les SI contemporains et les raisons qui ont amené les informaticiens à les concevoir est indispensable pour maîtriser les systèmes ainsi constitués. Le foisonnement et la richesse des champs couverts par les innovations technologiques ne peuvent plus être ignorés du décideur même si leur analyse est aride et difficile car ils constituent l’essence même de l’informatique.


  • Bref historique des langages de programmation


Les années 50 furent une période d’intense innovation en terme de langages de programmation (plus de 120 dénombrés en 1967). Tous les besoins et problèmes donnèrent lieu à la naissance d’un langage ad-hoc
L’assembleur pour programmer le matériel (1950)

Le fortran (Backus 1954) et Algol (1958) pour le calcul scientifique

Le Cobol (1959) pour l’informatique de gestion

Le Basic (1964) pour l’apprentissage de la programmation

Le C (1972) pour accéder aux fonctions primaires des composants matériels

Le Pascal (1970) pour la programmation structurée

L’APT pour le contrôle des machines numériques

Le GPSS pour les modèles de simulation

Le Lisp et Scheme pour la manipulation des listes

Le Perl comme langage de commande

SQL , Focus et Dbase pour l’accès aux bases de données

Simula (1969), Smalltalk (1980), C++ (1983), Java (1995) pour les langages objets
A l’image de l’industrie automobile, la programmation est passée du stade artisanal, passe-temps individuelle de hobbyistes passionnés à une activité industrielle de développement de code mobilisant et structurant de grandes équipes multinationales.


  • Les langages de programmation des systèmes d’exploitation


Les systèmes d’exploitation (MS-DOS, OS400, MVS, VMS, Linux, Unix, Windows …) sont le cœur opérationnel, le noyau (Kernel) de l’ordinateur. Ces programmes prennent en charge le fonctionnement interne de l’ordinateur (gestion de fichiers, de la mémoire, de l’exécution des programmes, des équipements périphériques, de l’interface homme-machine …). La mission de ces programmes est de masquer le fonctionnement interne de l’ordinateur pour permettre à l’utilisateur ou l’informaticien de focaliser son effort sur la création et l’exécution de ses propres programmes sans se soucier de la réalité physique matériel en proposant un environnement opérationnel simplifié ou virtuel (mémoire virtuelle, espace d’adressage virtuel …). Dans ce sens la virtualisation ou abstraction simplificatrice logique est l’essence même de l’informatique.


  • Le SI est un être hybride découpé en applications


Tout programme informatique est une fonction de transformation de données fournies en entrée du système informatique et fournissant les résultats attendus en sortie. Historiquement l’exécution d’un programme nécessite de définir conjointement les traitements à opérer et les structures de données à manipuler. Lorsque les traitements sont compliqués, on découpe les travaux de transformation en plusieurs programmes plus petits ou plus spécialisés. Les programmes sont appelés systèmes lorsqu’ils concernent les fonctions internes de l’ordinateur proches du système d’exploitation et applications pour les programmes spécifiques aux métiers de l’entreprise ou les progiciels du commerce. L’art du découpage du SI en applications est appelé urbanisation (discipline très empirique). Historiquement les programmes furent développés de manière ad hoc pour les besoins spécifiques de chaque département dans l’entreprise utilisatrice (logiciel sur mesure) puis l’offre du logiciel prêt à l’emploi s’est progressivement structurée par la diffusion de progiciels sectoriels (logiciels packagés dont les versions intégrées les plus abouties sont appelées ERP Enterprise Ressource Planning tels Sap, Baan, PeopleSoft, JD Edwards …) et la diffusion massive de logiciels multi usages grand public (bureautique, communication …). L’histoire de la société allemande SAP (Waldorff 1972) actuellement leader sur le marché de l’ERP est à ce titre très emblématique de l’évolution du marché du logiciel. Issue d’une souche logicielle développée en sur-mesure pour l’un de ses clients, l’entreprise Sap a su structurer l’ensemble des besoins d’informatisation de l’entreprise autour d’une base de données unique constituant un SI intégré assurant techniquement sa cohérence et son intégrité. Ainsi pendant plus de 20 ans les différentes versions du logiciel (R2 sur mainframe dès 1981 puis R3 en client/serveur à partir de 1992) ont supporté les approches de BPR (Hammer & Champy) en proposant des processus et bonnes pratiques métiers paramétrables prêts à l’emploi en condamnant le développement spécifique sur mesure. Cette approche extrême de standardisation des processus se fit au prix d’une grande rigidité et donna naissance à d’autres courants de pensée qui proposèrent des approches d’intégration d’applications moins fortes et des couplages basés sur des échanges de messages par l’intermédiaire de couches dites middleware (EAI, ESB , Corba …) permettant de coordonner le SI sans passer par le modèle de la base de données unique..
D’autres solutions spécialisées sont également apparues pour consolider et historier les données de gestion de l’entreprise dans le but de suivre l’évolution de l’activité en fournissant des tableaux de bord, des rapports, des alertes et des indicateurs de pilotage opérationnel voire des hypercubes (ou tableaux multidimensionnels) permettant l’analyse de séries chronologiques et facilitant l’analyse des grands volumes de données (ou datamining). Ces SIAD (système d’information d’aide à la décision) sont accompagnés de méthode de modélisation et d’un vocabulaire qui leurs sont propres. On parle ainsi de modélisation en étoile ou en flocon, de bases de faits, modélisation des agrégats, de cubes et hypercubes ou de traitements de type Olap Molap Rolap Holap.
CHAPITRE 9 La modélisation par objets
Les « technologies objets ou orientées objets » couvrent deux aspects de la construction des systèmes informatiques :

La modélisation pour définir les fonctionnalités attendues à base d’objets : concepts séparant la partie métier (besoin) et la partie technique (intégration) avec sa notation graphique (langage de modélisation UML).

La programmation par objets (java …).


  • Passage du processus à l’objet


La modélisation des processus permet élucider le comment produit l’entreprise. Il s’agit de décrire à la fois l’enchainement (ordonnancement ou chorégraphie) des activités opérationnelles (comprenant l’ensemble des tâches intellectuelles ou physiques réalisées par un acteur dans une étape de production) et le contenu de chacune de ces activités (acteurs, données manipulées, traitements réalisés, contrôles de productivité …) que ces activités soient réalisées par un humain ou par l’automate. Contrairement au management taylorien basé sur un contrôle isolé des activités de production, la gestion opérationnelle des processus est fondée sur le suivi à postériori de la production par la fourniture et l’analyse de statistiques qualitatives et quantitatives. Les processus ainsi modélisés sont entièrement instrumentés par le SI qui réalise de manière homogène l’assistance de l’utilisateur dans l’exécution de ses taches (fournir les interfaces de dialogue, réaliser les échanges d’informations nécessaires entre tâches) et la collecte d’indicateurs de suivi des performance du processus. Il est essentiel de bien comprendre que l’informatisation des processus n’est pas l’automatisation intégrale des activités de production mais l’assistance par l’ordinateur de l’utilisateur dans l’accomplissement de ses activités (notion de workflow) et le suivi des indicateurs complets de performance du couple humain/automate. Dans ce contexte, le terme d’objets informatiques est employé pour désigner un modèle unifié de programmes et de données représentant les entités de gestion du monde réel de l’entreprise (client, facture, employé, dossier, produit …).


  • De la programmation impérative à l’objet


Les programmes informatiques exprimés dans des langages de programmation basés sur une machine de Turing se composent de trois composants intimement couplés :

Les structures de données manipulées

Les algorithmes de traitement appliqués aux données

Les appels et enchainements données/traitements
Tous ces langages ont une expressivité identique mais ils diffèrent suivant la manière d’articuler ces trois composants et par les facilités d’usage pratique suivant les contextes d’emploi particuliers. Avant de coder le programme, la phase de modélisation permet de définir les structures de données et les traitements à réaliser. Les langages classiques de type impératif (Cobol, Fortan, C, Pascal ..) sont basés sur la dichotomie traitements/données où il est difficile de faire évoluer de manière cohérente les traitements et les structures de données. Pour contourner cette difficulté, les langages de programmation dits objets (Simula 1961 Dahl & Nygaard, Smalltalk 1976 Kay, C++ 1980 Stroudstrups, Java 1985 Sun) encapsulent données et traitements au sein d’un objet unique qui représente des classes (les populations), des attributs (les données) et des méthodes (traitements). L’objet doit donc être compris comme un niveau d’abstraction complémentaire c'est-à-dire un élément de modélisation opérant sur des classes et embarquant des notions d’héritage, de polymorphisme et d’agrégation bien éloignées des concepts de classification/objet/méthode du langage naturel. Dans le contexte objets, modéliser une application c’est spécifier conceptuellement les classes, leurs relations, les attributs, les méthodes manipulés au niveau général (modèle métier) et au niveau détaillé (modèle de programmation) en utilisant des langages (ou notations) de représentation.


  • Le langage de modélisation UML (Unified modeling Language)


Dans les années 80, des méthodes de conceptualisation séparant données et traitements (MCD/MCT de Merise) ont accompagné la programmation impérative. Dès 1990, la diffusion du paradigme objets a donné naissance à de nombreuses méthodes de conception orientées objet (OMT de Raumbaugh, OOD de Booch, OOSE de Jacobson). Ces trois gourous (appelés les amigos) ont, fait rarissime, fusionné leurs travaux au sein du langage UML actuellement normalisé par l’OMG (Object Management Group). Le langage UML intègre à la fois une description normative formalisant les étapes de modélisation mais aussi un langage graphique permettant de représenter le langage de l’entreprise. Pour représenter les SI ces systèmes organiques multidimensionnels, UML propose une approche par vues soit 12 diagrammes standards décrivant : la structure statique de l’application (diagramme de classes, d’objets, de composants, de déploiement), son comportement dynamique (cas d’utilisation, diagrammes de séquences, de collaboration, d’activités, et d’états), le modèle d’organisation du code en modules (packages, systèmes, modèles). Le but de ces modélisations est de lutter contre la versatilité, l’ambigüité et le caractère équivoque des spécifications basées uniquement sur des langages naturels. Un modèle UML complet comporte :
Un modèle métier couvrant l’exhaustivité des aspects stratégiques (intentions, buts, calendriers) et les processus de travail concernés

Les principes et choix de modélisation

Un modèle formel décrit en UML
Chapitre 10 La conquête de l’ubiquité
On ne serait être complet dans l’évocation des technologies majeures constituant un SI sans évoquer l’épopée des réseaux informatiques. Issue du télégraphe du XIXième siècle, l’industrie des télécommunications avec ses commutateurs électromécaniques puis électroniques ne relevait pas du secteur informatique. Ces deux secteurs furent longtemps antagonistes et ne convergèrent que lors de la digitalisation (numérisation) des signaux et de leurs supports. Leurs querelles d’allemands donnèrent naissance à de nombreuses approches technologiques concurrentes : le routage dynamique de datagrammes pour les réseaux informatiques nécessitant de fortes consommations de puissance de calcul (protocole TCP/IP) contre la réservation de capacités et circuits virtuels (protocole X25) forts consommateurs de bande passante Télécom. La première étape de convergence fut la mise en place de réseaux d’ordinateurs, ce qui n’eut rien d’évident et se fit même dans l’hostile des acteurs majeurs du secteur informatique alors focalisés sur l’ordinateur et ses périphériques (IBM …) et les opérateurs Télécoms (AT&T…) obnubilés par la téléphonie et refusant l’innovation que constituait la complémentarité de ces secteurs. La conquête de l’ubiquité pour l’informatique fut donc le fruit du hasard et de la nécessité. L’évolution du réseau a été basée sur le modèle en couches permettant l’unification de protocoles permettant l’évolution parallèles des technologies physiques (câble cuivre, fibre optique, liaison radio …) tout en capitalisant sur des protocoles d’adressage des ordinateurs (TCP/IP) permettant l’interconnexion des réseaux hétérogènes. Les grandes étapes de l’épopée de la mise en réseaux des ordinateurs sont les suivantes :
Phase 1 : naissance des réseaux d’ordinateurs
1962 : Travaux de Licklider sur le temps partagé au sein de l’ARPA

Travaux sur les réseaux maillés (Baran) et la commutation de paquets pour le transport des données numériques en remplacement de la commutation de circuits du monde des Télécom.

1965 : Marill définit le premier protocole d’échanges entre ordinateurs

1969 : Arpanet premier réseau universitaire basés sur des petits ordinateurs spécialisés (IMP Interface Message Processor d’Honeywell)

1973 :Naissance des premiers protocoles et gestion du trafic pour des premiers réseaux locaux d’ordinateurs (LAN de type .Ethernet (Metcalfe). Norme IEEE 802.3 (1980). Token Ring…) interconnectés par des ponts et routeurs (WAN).
Phase 2 : naissance de la toile
1969 Création du comité de normalisation (NWG) pour la spécification (RFC) des protocoles d’échanges sur Internet (telnet)

1972 : RFC pour FTP pour l’échange de fichiers

1974 : RFC pour TCP (Cerf & Kalen) transport des datagrammes entre ordinateurs

1976 : Adventure (Crowther & Woods) premier jeu de type Donjon & Dragons en réseau

1978 : RFC pour IP spécialisé dans le routage des datagrammes entre réseaux

1981 : RFC pour SMTP messagerie inter-ordinateurs

1985 : Naissance de l’Internet universitaire fédérateur des réseaux existants (backbone NFSNET) en remplacement de l’ARPANET de la Défense américaine.

1988 : Modèle OSI (Open Systems Interconnection) issu de l’industrie IT concurrence en vain le modèle universitaire TCP/IP

1991 : Naissance de la Toile (Web) (Berners-Lee) réseau logique facilitant le travail collaboratif né de la fusion de l’Internet et de l’hypertexte permettant la navigation dans les documents numériques (technologies du web sémantique URL http HTML XML …).
Les premières applications normalisées (messagerie, échange de fichiers ) vont rapidement donner naissance à la toile (World Wide Web) capable d’adresser non plus des ordinateurs mais des pages d’informations via des navigateurs (Mosaic). Ces innovations apportèrent la notion d’hypertexte constitué de textes, d’images, des documents multimédia numérisés (films, musiques) reliés par des protocoles d’accès (URL HTML http XML) et aboutissant à une structuration sémantique de l’informatique numérique indexée par des moteurs de recherche posant des rapports neufs entre rédacteurs et lecteurs tout en reposant les bases de la diffusion de la pensée et du droit d’auteur.

Chapitre 11 L’informatique de communication
Initialement structurée autour de la saisie, du traitement et de la mise à disposition d’informations structurées, l’informatique historique a vu son champ d’action démultiplié par l’introduction d’une informatique communicante couplant de nombreuses applications (messagerie, gestion des agendas, forums.. ;) offrant la possibilité de gérer des données non structurées et connotées au grand dam des informaticiens rétrogrades. L’automatisation des fonctions de traitement de ces éléments a été rendue possible par l’apparition de logiciel de gestion des flux de documents (workflow) permettant de supporter et d’outiller les processus de l’entreprise en maîtrisant le contrôle, la qualité et les délais de propagation (formulaires, abonnement, statistiques, tables d’adressage .. )
1   2   3   4   5   6   7   8   9   10   11

similaire:

Résumé de l’ouvrage iconV. Résumé de l’ouvrage 4

Résumé de l’ouvrage iconDirection «maitrise d’ouvrage»

Résumé de l’ouvrage iconLa maîtrise d’ouvrage et le calendrier

Résumé de l’ouvrage iconAdresse Maître d’Ouvrage

Résumé de l’ouvrage iconMaître d’ouvrage ville d’amiens

Résumé de l’ouvrage iconOuvrage numérisé grâce à l’obligeance des

Résumé de l’ouvrage iconOuvrage numérisé grâce à l’obligeance des

Résumé de l’ouvrage iconListe des principaux exercices de l’ouvrage

Résumé de l’ouvrage iconOjectif maîtrise d’ouvrage de projets décisionnels

Résumé de l’ouvrage iconChapitre 1 dispositions generales description de l'ouvrage








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com