Diapositive1

Vous avez les connaissances de bases en photographie aérienne (enfin, si vous êtes allé sur le premier chapitre de ce cours). Ce deuxième chapitre est consacré à l'imagerie numérique.

Les couleurs : Qui dit imagerie numérique dit vision et vision des couleurs. Voici un petit film absolument remarquable réalisé par l’université de Laval au Québec (IDIKO) qui résume parfaitement et de manière remarquable le principe de vision des couleurs et son lien avec la physique du rayonnement.

La vision des couleurs

Diapositive3

Le codage des couleurs, les deux types de codage : Pour décrire de manière numérique une information analogique de type « image » il n’existe que 2 méthodes : le raster qui définit les données par pixels et le vecteur (ou vectoriel) qui les définit selon un axe x et y

Diapositive4

C’est quoi une image numérique ? Une image numérique en format dit « bitmap » est une matrice de valeurs « interprétée » sous forme de couleurs sur ordinateur. Une image numérique n’est rien d’autre qu’un tableau de valeurs agencées en lignes et en colonnes généralement de 0 à 255. On pourrait très bien imaginer faire du « traitement d’image » directement sous des outils comme Excel !

Diapositive5

L’image vectorielle : L’autre possibilité (qu’on utilise notamment à l’aide des tables à numériser) consiste à enregistrer des points à l’aide d’un stylet ou d’une souris dans un espace orthonormé, défini en fonction de position en X et en Y. Un point est un NOEUD, un segment entre 2 points un ARC, un ensemble de segments fermés, un POLYGONE. Cette technique, plus fine, plus souple à travailler tend à se généraliser pour définir des images (en particulier en 3D). Dans ce cours, nous n’aborderons pas les données vectorielles. Pour en savoir + : mon cours sur Inkscape

Diapositive7

C’est structuré comment ? L’agencement d’une image se fait en points le plus souvent carrés : les PIXELS, ordonnés en lignes et en colonnes dans une MATRICE et définis par leur RESOLUTION, leurs VALEURS exprimées en général en couleurs, leurs POSITIONS et la taille finale de l’image.

Diapositive8

C’est fabriqué comment ? Deux possibilités pour acquérir une image numérique. Utiliser un outil qui capte directement les données, comme un appareil photo numérique qui va faire une « photo » d’un paysage. Les rayons lumineux traversent des optiques (classiques) et au lieu de venir impacter de la pellicule photo argentique, les photons impactent des petites cellules de capteurs appelées CCD pour « coupled charge device » (DTC en français, ça ne s’invente pas !) et sensibles à la lumière. L’énergie lumineuse est transformée en impulsion électrique puis en données numériques pour être ordonnées et stockées.

Diapositive9

Scanner : L’autre technique d’acquisition consiste à passer par un scanner. Toujours des plaques de CCD, mais cette fois l’impulsion lumineuse initiale est interne (comme une photocopieuse) impacte le document (comme une feuille) et est renvoyée vers une « rangée » de CCD qui se déplace le long du document. Plus les CCD sont petits et nombreux, plus le document pourra être scanné finement.

Diapositive10

Terminologie : Résolution : La résolution d’une image correspond au nombre de pixels par unité de surface réelle. Elle s’exprime en DPI : Dot Per Inch (point par pouce). 1 pouce correspond à 2,54 cm. Donc par exemple une résolution de 300 DPI signifie que sur une surface réelle de 2,54 cm x 2,54 cm on compte300 pixels en largeur et 300 pixels en hauteur. La résolution classique d’un écran est de 72 DPI, il n’est pas rare de scanner des images (comme des diapos par exemple) à plus de 2000 DPI.

Diapositive11

Donc? Méfiez-vous des images que vous voyez sous forme d’icônes, elles peuvent paraitre « bonnes » et en fait être très pixélisées !!

Terminologie : Différence taille / définition / résolution : Ici encore, une superbe démonstration de l’équipe pédagogique de l’université de Laval ! Pourquoi s’en passer !

Dimension de l'image: distinguer la taille, la définition et la résolution [IDIKO-03_MATRICIEL]

Diapositive13

Terminologie – Espace colorimétrique : L’espace colorimétrique correspond à la méthode employée pour définir les couleurs et leurs valeurs. On distingue 3 espaces colorimétriques principaux :

  • La SYNTHESE ADDITIVE : correspond à la superposition de 3 couleurs rouge, vert et bleu (RVG ou RGB) sur un fond noir. C’est le principe utilisé par nos yeux (cellules sensibles au rouge, vert et bleu) mais également les écrans d’ordinateur ou de télé,  les vidéoprojecteurs… La plupart des logiciels de retouche d’images fonctionnent en RVB
  • La SYNTHESE SOUSTRACTIVE : correspond à une source blanche (contenant toutes les couleurs) dont on enlève ou rajoute des filtres magenta, cyan et jaune (CMJ ou CMJN pour Noir). Le système est utilisé en imprimerie (offset) notamment. Les outils de PAO type Illustrator fonctionnent par défaut en CMJN
  • Le MODELE TLS pour Teinte Luminosité Saturation, essentiellement utilisé en vidéo, où la définition de la couleur en fonction de : La teinte (position de la couleur sur le cercle chromatique ) - La luminosité (quantité de blanc ou de noir) - La saturation (quantité de couleur)

 

Diapositive15

Terminologie : Plans chromatiques : Le principe même des espaces colorimétriques est qu’une couleur est en fait une information monochromatique plus ou moins intense transposée sur un plan. Donc une image en couleurs sur écran n’est que la superposition de 3 plans monochromatiques rouge, vert et bleu. De fait, il est possible de travailler directement sur chacun des plans, il est également possible de « jouer » sur les compositions colorées (très utilisé en télédétection). Rien n’oblige à mettre le rouge dans le plan « rouge » et de même pour le vert et le bleu. On peut alors créer des images avec des effets colorées étranges : sépia, psychédéliques…

Diapositive16

Terminologie : Profondeur de bit : Une image (ou un plan) est en général codée sur 8 bits, c’est-à-dire 256 niveaux potentiels (2 puissance 8). L’information numérique quelle qu’elle soit est codée en binaire : 0 ou 1. Puis combinée : 00 – 01 – 10 – 11 pour 2 bits….. On peut alors ramener une image sur 256 couleurs à 16 ou 8 ou même 2 niveaux (ce qu’on appelle une image binaire). Plus la « profondeur » de codage sera importante, plus l’image pourra avoir des niveaux de couleurs plus nombreux et plus fins.

Nouvelle démonstration pédagogique d'IDIKO :

Profondeur de l'image: La couleur du pixel [IDIKO-02-MATRICIELLE ]

Diapositive18

Terminologie : L’histogramme : Une très grande partie de l’analyse et du traitement d’une image se fait à partir de son « histogramme ». L’histogramme est un transfert des valeurs des pixels en quantité en fonction de la valeur. On compte le nombre de pixels ayant la même valeur de 0 à 255 et on reporte cette « quantité » sur un diagramme avec en abscisse les valeurs, en ordonnée le nombre. Dans le « rouge », un pic sur la droite de l’histogramme signifie qu’il y a beaucoup de pixels très rouges. Attention cependant : ces valeurs ne préjugent pas de leur localisation sur l’image. C’est par l’histogramme qu’on va rendre une image plus contrastée, moins forte dans une couleur, réhaussée à tel ou tel niveau…

Attention, l'histogramme est une notion fondamentale si vous souhaitez traiter les images ! Cette vidéo vous aidera à mieux comprendre (IDIKO bien sûr !) :

L'histogramme: un portrait de la luminosité de l'image [IDIKO-08_MATRICIEL]

 Voilà en gros, l'essentiel des notions de base que vous devez connaitre en imagerie numérique. Pour aller plus loin, je vous invite à aller jeter un oeil sur mes cours spécifiques, notamment sur la retouche d'images. Je ne saurais trop vous recommander à nouveau toutes les remarquables séquences vidéo d'IDIKO, notamment leur playlist sur Youtube.

Désormais il vous faut vous familiariser avec les outils :