Résumé Théorique








télécharger 321.33 Kb.
titreRésumé Théorique
page3/6
date de publication11.06.2018
taille321.33 Kb.
typeRésumé
ar.21-bal.com > comptabilité > Résumé
1   2   3   4   5   6






Fig. 7. Appareil de restitution photogrammétriques
La deuxième génération est analytique (Fig.8) ; si les premières recherches ont débuté dès 1952 avec un système expérimental (OMI-Bendix), c’est en 1956 que le concept de l’appareil analytique a été défini et réalisé par le Dr. Uki V. Helava, photogrammètre d’origine finlandaise. Le premier prototype date de 1963 et le premier appareil commercialisé de 1976. L’utilisation de l’ordinateur permet de limiter

considérablement le nombre de pièces en mouvement, de diminuer le nombre de composants optiques et d’améliorer la fiabilité et la précision. De plus, la restitution est obtenue sous forme numérique, base de données informatique plus durable, plus précise et plus complète que le support papier. La possibilité de diriger le curseur sur un point déterminé par ses coordonnées permet une interaction entre le processus de restitution et les données mémorisées.
La précision de ces appareils permet le positionnement d’un curseur de pointé à quelques micromètres près, ce qui donne des précisions de restitution pouvant descendre en dessous de la dizaine de centimètres en planimétrie et en altimétrie suivant l’échelle des clichés.



Fig. 8. Station analytique Leica

Le concept analytique actuel est fondé sur la séparation des calculateurs assurant, d’une part, la tâche de pilotage et, d’autre part, les programmes de service (fig.9-a.). C’est ce principe qui est désormais utilisé par tous les constructeurs, d’autant plus que l’arrivée des ordinateurs de type PC et compatibles et leur possibilité d’intégration de cartes électroniques a bouleversé les données techniques et les prix de fabrication. Les derniers développements des appareils analytiques actuels consistent à offrir, en plus, la superposition du graphique dans les oculaires en mono ou en stéréo avec option couleur ; ce procédé est déjà mis en oeuvre dans le S9AP de Wild, en mode ras ter, mode







point par point dans lequel on n’est pas lié au nombre de vecteurs, ou en mode vectoriel, plus contraignant.


Fig. 9-a : Schéma de fonctionnement d’un restituteur analytique

La dernière génération de ces appareils, datant du début des années quatre-vingt-dix, est entièrement numérique ; à partir de prises de vues numériques du terrain, comme les photographies du satellite SPOT, ou bien à partir de prises de vue aériennes – de meilleure résolution que les scènes satellite – numérisées sur un scanneur, un ordinateur traite les informations pour obtenir directement la restitution du terrain en trois dimensions sous forme numérique. Il n’y a plus aucune pièce mécanique. La seule limitation en précision devient celle de la prise de vue ou de sa numérisation ; les meilleurs scanneurs actuels offrent une résolution de l’ordre du micromètre. Une photographie noir et blanc de 225 × 225 mm peut être numérisée en cinq minutes avec des pixels de 12,5 micromètres. Contrairement à toutes les gammes d’appareils précédentes, l’opérateur observe le terrain sur un écran informatique et non sur support photographique ; l’écran est séparé en deux par le logiciel de restitution et l’opérateur observe au travers d’une lunette binoculaire une moitié de l’écran sur chaque oeil. L’avènement de ces appareils constitue une révolution pour la photogrammétrie, non pas du point de vue du principe de base, qui demeure inchangé, mais du point de vue des possibilités nouvelles offertes aux manipulateurs en utilisant les immenses possibilités de la corrélation numérique et des logiciels de PIAO (Photo Interprétation Assistée par Ordinateur).
Certains fabricants développent des restituteur numériques et les solutions logicielles complètes qui les accompagnent (par exemple, la gamme DPW Leica de Helava).
2.5. Stéréo préparation et canevas d’aéro triangulation
L’opération de calage des clichés nécessite la présence de quatre points d’appui par

photographie. Il est très rare de pouvoir observer quatre points connus sur une photo

graphie.






Cela nécessite donc des opérations topographiques au sol avant les prises de vues : ces opérations sont appelées stéréo préparation. Elles consistent à déposer au sol des plaques visibles depuis l’avion ; leur taille est fonction de l’échelle de la prise de vue, de l’ordre de 30 cm × 30 cm, dont on détermine les coordonnées par des méthodes topo métriques classiques (triangulation, GPS, etc.). La stéréo préparation représente un travail important sur le terrain ; une campagne comme celle de la figure 3., nécessitant 19 clichés pris en trois passes, demande de positionner environ un trentaine de points déterminés en X, Y et Z, avec l’inconvénient de l’incertitude des repères qui peuvent être déplacés ou détruits.


Fig. 9 - b : Canevas d’aéro triangulation
Pour éviter d’avoir à repérer où à positionner au sol un grand nombre de points de calage, une technique nommée aéro triangulation a été mise au point. Son principe est de calculer la position de points fictifs directement sur les négatifs photographiques, par exemple les points 1, 1´ et 1´´ du cliché I de la figure 9 -b. : sur cette figure, l’inclinaison des clichés par rapport à la ligne de vol s’explique par l’effet de dérive. Ces points serviront à transférer le repère général de travail d’un cliché à l’autre. On peut alors se contenter d’un minimum de points d’appuis connus et visibles au sol ; ces derniers serviront de base au calcul de l’ensemble du canevas d’aéro triangulation. Un logiciel spécifique à ce type de calcul, appelé programme de compensation, détermine les coordonnées de tous les points fictifs par un calcul en bloc (moindres carrés), à partir de la connaissance de quelques points anciens du terrain. Si, dans certaines zones, le nombre de points anciens est insuffisant pour obtenir un contrôle et une précision corrects, il faut ajouter et déterminer des points nouveaux sur le terrain.
Pour augmenter la précision de la triangulation, on n’utilise pas des objets photographiés au sol mais des points créés physiquement sur les clichés : ce sont des trous micrométriques qui percent la gélatine du cliché (PUG de Wild) ou le film entier (laser de Zeiss Jena). Ils sont effectués au moyen d’une machine spécialement conçue à cet effet. Ces points sont positionnés dans l’axe de chaque photographie et se retrouvent donc sur trois photographies consécutives dans le sens longitudinal et sur une ou deux autres dans le sens transversal : par exemple, le point 2´´ de la figure 9 -b. se retrouve sur les clichés I, II et III ainsi que sur les clichés VIII et IX.





Le marquage des points s’effectue en vision stéréoscopique sur deux clichés en même temps ; on fraise un perçage de 60 micromètres de diamètre à la surface du négatif dont la position est repérée par une autre marque plus visible, le dessin d’un cercle de 6 mm de diamètre.
Soit par exemple (fig. 9-b.) une série de dix clichés de recouvrement longitudinal égal à 60 % et à 25 % en transversal, sur lesquels sont disposés cinq points anciens visibles. Les points anciens étant seulement au nombre de trois sur la première passe, l’opérateur ajoute sur le terrain un quatrième point. Il marque ensuite les 10 négatifs, soit 30 marques plus le transfert des points entre les bandes adjacentes. Le marquage des points ne s’effectue que sur la ligne du nadir de chaque cliché (points 1, 1´, 1´´) afin de ne pas gêner le pointé de l’opérateur lors de la phase de mesure proprement dite ; les points entre les bandes sont de même marqués une seule fois sur la bande adjacente (points 1´´, 2´´, 3´´, 4´´, 5´´, 6, 7, 8, 9 et 10).
Après la phase de marquage, suivent les opérations d’observation des clichés marqués, auparavant avec un stéréocomparateur, désormais sur un restituteur analytique ; puis intervient la phase de compensation globale, calcul d’aéro triangulation en bloc grâce aux liens entre bandes qui, à partir des points existants, permet de calculer les coordonnées planimétriques et altimétriques de tous les points d’appuis et des points marqués. Un paragraphe ne suffirait pas à décrire l’évolution incessante des programmes de compensation avec leur méthode, polynomiale, par modèles indépendants, par faisceaux, incluant désormais ou non les sommets de prises de vue, etc.
La détermination du canevas d’aéro triangulation est généralement effectuée sur la machine la plus précise dont dispose le cabinet de photogrammétrie. La précision des meilleures machines analytiques actuelles est de l’ordre du micromètre (Emq de 3 µm), c’est-à-dire que sur un cliché à l’échelle 1/1 000, il est possible, en théorie, d’approcher la précision au millimètre en restitution. En fait, la précision de restitution finale est plutôt de l’ordre de quelques centimètres car de nombreuses erreurs se cumulent : précision de la prise de vue, précision de l’observation des points de calage, fermeture du canevas d’aéro triangulation, précision des pointés des opérateurs de restitution, etc.
Les derniers développements de l’aéro triangulation montrent que ce processus peut faire l’objet d’un traitement automatisé s’appuyant sur le tout numérique. En effet, suite à la phase de numérisation de toute la mission photo sur scanneur, on obtient des images d’une taille de l’ordre de 10 Gbytes, soit 10 milliards de pixels ; grâce à la corrélation, il est possible de reproduire de façon automatisée les phases de marquage virtuel de points et de choix de points (schémas). De nouveaux programmes intègrent ces développements (HATS de Helava, par exemple) et permettent d’aéro trianguler des zones très vastes d’une manière quasi-automatique. Certaines tâches de pointé sont toujours du ressort de l’opérateur : pointé des points d’appui et aide en cas d’impossibilité de corréler automatiquement.





Si l’on conjugue les apports du GPS et du numérique, l’aéro triangulation connaîtra encore de nombreuses évolutions dans les années à venir.
2.6. Quelques autres difficultés physiques et techniques
Quelques unes des difficultés techniques rencontrées sont les suivantes :






Fig. 10 – a. : Vision

stéréoscopique

  • la limite de perception de l’oeil humain ; l’acuité

visuelle est l’aptitude de l’oeil à séparer les plus petits détails possibles. Dans les meilleures conditions d’observation de clichés, l’acuité monoculaire est de l’ordre de g = 4 cgon ; elle est environ cinq fois plus petite en vision stéréoscopique, soit de l’ordre de 8 mgon, jusqu’à 3

mgon dans des conditions excellentes (voir fig. 10-a.). L’écartement moyen des yeux étant de e = 65 mm, cette acuité permet de détecter une différence de parallaxe jusqu’à une distance D telle que : e » D.3.10–3.p/200. On en déduit que Dmaxi » 1 400 m. Ceci implique que, dans un avion volant à plus de 1 500 m d’altitude, la perception du relief ne s’effectue plus en vision stéréoscopique mais uniquement grâce aux éléments monoculaires de la perception de la profondeur.


L’ordre de grandeur de la variation minimale de distance perceptible par l’oeil est g» e/D Þ d g » - e.dD/D2.
Numériquement, pour d g = 3 mgon et e = 65 mm, on peut séparer des détails de 1/20 de millimètre à une distance de 0,25 m. Sur une photographie à l’échelle 1/2 000, une résolution de l’ordre de 10 cm sur le terrain peut être obtenue ;



Fig. 10 -b. : Dessin en

mode point ou ras ter

  • les limites techniques des appareils de numérisation scanneurs) ; sur les photographies numérisées et travaillées sur des restituteur numériques, ce n’est plus l’oeil qui fixe les limites de résolution mais la précision de la numérisation. La résolution d’un scanneur est donnée en dpi (dots per inch) ou points par pouce. L’unité de résolution est aussi appelée pixel. Une image numérisée est constituée d’un très grand nombre de pixels : on parle d’image en mode point (bitmap ou raster). La figure 10-b. est une illustration de ce que représente un pixel dans une image en mode point : l’objet dessiné semble linéaire ou vectoriel. En fait, si l’on effectue

un zoom très proche, on constate qu’il est constitué d’un assemblage de points ou pixels qui doivent donc être aussi petits que possible afin que l’image de l’objet paraisse lisse. Les formats informatiques les plus courants sont le format GIF et le format TIFF, compressé ou non. À titre indicatif, un négatif de 24 cm x 24 cm numérisé à 1000 dpi représente une quantité d’environ 82 millions de pixels,soit

1   2   3   4   5   6

similaire:

Résumé Théorique iconRésumé Théorique

Résumé Théorique iconRésumé Théorique

Résumé Théorique iconRésumé Nous proposons ici un essai théorique, qui analyse le concept...

Résumé Théorique iconRésumé Nous nous proposons de construire un modèle théorique original...

Résumé Théorique iconRésumé : Cette recherche est une réflexion théorique centrée sur...
«brevet a changé de statut et s’apparente de plus en plus à une arme cruciale dans le jeu de la concurrence» entretenant de fait...

Résumé Théorique iconA etude theorique

Résumé Théorique iconPartie I préambule théorique et méthodologique

Résumé Théorique iconPartie theorique : définitions des concepts utilisés au sein de ce mémoire professionnel 5

Résumé Théorique iconFormation théorique et opérationnelle
«First Millennium», régie d’œuvres, recherches documentaires, publication de colloque

Résumé Théorique iconCours théorique et pratique de la taille des arbres fruitiers. Quatrième...








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com