juin
11
Classé dans (La compression avec perte) par Benjamin Laffontas le 11-06-2008

Introduction :

Cette méthode de compression est apparue vers la fin des années 80, on désirait a cet époque amélioré la rapidité d’échange des informations, un groupe d’experts du monde de la photographie a donc, en 1991, créer le format JPEG : Joint Photographic Expert Group.

La compression JPEG consiste à effectuer une dégradation de l’image indiscernable à l’œil, de façon à offrir un taux de compression beaucoup plus intéressant que les autres méthodes, donc à permettre de réduire considérablement l’espace occupé par le fichier sur le disque ou la vitesse de son transfert sur un réseau.

Pour ce faire, l’image est décomposée en blocs qui vont ensuite subir diverses opérations pour diminuer la taille de l’image initiale. Cette compression est donc une compression avec perte car elle subit une perte définitive d’information, même si il est possible de revenir à une image proche de l’image initiale avec certains procédés.

Voici le procédé de compression et de décompression JPEG d’une image :


Découpage en blocs de 8×8 pixels et transformation DCT :

Une image informatique est constituée de points de couleur uniforme : ce sont les pixels. Ils sont caractérisés par leur position dans l’image, et par leur couleur.

On peut représenter l’image par une matrice, qui a autant d’éléments que l’image a de pixels. Les coordonnées de ceux-ci sont données par leur position dans la matrice, et leur couleur par la valeur qu’ils ont dans la matrice.

On découpe ensuite cette matrice en sous matrice de 8×8 pixels.

A chacune de ces matrices on a applique ensuite la transformation DCT (Discrete Cosine Transform, ou Transformée en Cosinus Discrète). Cette technique est similaire de à la transformée de Fourier : transformation en somme de sinus et de cosinus de différentes fréquences et amplitude, mais pour la DCT on ne prend en compte que les cosinus.

Formule DCT

Chaque morceau d’image est donc représenté pas une somme de 64 fonctions cosinus de fréquence (hautes fréquences -> variation brusque de couleur entre 2 pixels, basses fréquences -> plage de couleur uniforme entre les pixels) et d’amplitude aux quels on associe une matrice ce qui nous donne une matrice tridimensionnelle 8×8x64

Matrice tridimentionelle

Prenons pour simplifier une matrice 8×8 qui est la somme des 64 matrices que compote un bloc.
Dans cette matrice est représenté les couleur de chaque pixel de l’image (chaque coordonnées correspond à une couleur d’un pixel)

Matrice 1


Matrice 1

Matrice 2



Matrice 2

La transformation de la matrice1 par la DCT donne la matrice2.

La transformation DCT est une transformation réversible, il n’y a donc pas de perte d’information à cette étape.

La quantification :

La quantification pondère l’importance des différents domaines de fréquences, sachant que la vision humaine est moins sensible aux hautes fréquences de détails. On va donc attribuer à chaque donnée un coefficient de poids qui correspond à son importance dans l’image. Cela revient à diviser les coefficients de Fourrier de l’image par ces coefficients de poids, et ne garder que ceux supérieurs à une certaine valeur.

Cela va nous permettre d’atténuer les hautes fréquences, c’est à dire celles auxquelles l’œil humain est très peu sensible. Ces fréquences ont des amplitudes faibles, et elles sont encore plus atténuées par la quantification (les coefficients sont même ramenés à 0).

Formule de quantification


Q(i,j) = 1 + (1 + i + j) ´ Fq

avec Fq facteur de qualité et Q le pas de quantification.

Par exemple, pour Fq = 5 on obtient la matrice 3. On va finalement prendre la partie entière de la division de chaque valeur de la matrice 2 par la valeur de la matrice 3 ayant la même position, ce qui nous donne la matrice 4.

Matrice 3Matrice 4


Matrice 3                                              Matrice 4

On peut remarquer que la matrice final (matrice 4) comporte un grand nombre de 0, c’est donc une valeur récurrente qui sera compressé pas un codage statique.

Codage statique :

On peut ici utiliser un code statique tel que le codage de Huffman.

Exemple du déroulement de la compression d’un bloc d’une image


juin
02
Classé dans (La compression avec perte) par Benjamin Laffontas le 02-06-2008

La compression avec pertes, aussi appelée compression irréversible ou non conservative, est utilisée pour les médias qui font appel à nos sens.
Elle consiste à accepter une dégradation du média décompressé. Cette dégradation devra être indiscernable ou suffisamment réduite pour ne pas être perçue par nos sens et ne pas altérer la compréhension générale du média.
La compression de données avec pertes est donc utilisée lors de la compression d’images, de musiques ou encore de vidéos.

En effet pour ces types de médias, une dégradation lors de la décompression n’est pas forcément un problème. Prenons l’exemple de la musique : une oreille normale ne fait pas systématiquement la distinction entre une musique provenant d’un CD audio ou d’un fichier au format de compression mp3.
Pourtant le débit binaire est complètement différent : un CD audio a un débit de 176.4 Ko/s soit 1,4 Mbit/s alors que le mp3 a un débit de 192 Kbit/s (en général), et pourtant la différence est souvent indiscernable pour la plupart des personnes. Et si l’oreille ne fait pas de différence, il n’est donc pas nécessaire d’utiliser un format non compressé qui prend de la place et qui est de “même” qualité (pour nous utilisateur) qu’un format compressé.

La compression avec pertes, qui est donc un procédé irréversible (i.e. il n’y a pas de retour en arrière possible), est basée sur la perception des images et du son par nos oreilles et nos yeux. On va donc jouer sur cette perception pour compresser le fichier.
Par exemple, pour une image, on va regrouper les pixels de même couleur en zones, ou dans une vidéo, on va garder pour une séquence seulement les parties de l’image qui changent par rapport à l’image précédente et supprimer la partie redondante.

juin
02
Classé dans (La compression sans perte) par Frédéric Pierre le 02-06-2008

En 1952, David Albert Huffman, alors étudiant au MIT (Massachusetts Institute of Technology), mit au point le codage qui porte son nom : le codage de Huffman (Huffman coding en anglais). Il publia cette même année “A Method for the Construction of Minimum-Redundancy Codes” (ici au format pdf), où il explique sa méthode.

Une source d’informations est définie par un alphabet (ensemble de symboles) et par une distribution de probabilités définissant la probabilité d’apparition de chaque symbole. Le codage de Huffman est une méthode de compression statistique, faisant donc intervenir la distribution de probabilités de la source. Il s’agit d’un codage entropique :  l’entropie étant la quantité moyenne d’informations par symbole (formule), elle est exprimée en bits/symbole. Elle est maximale pour une source lorsque tous les symboles sont équiprobables. Moins une source est redondante plus elle porte d’informations et donc plus son entropie est élevée.

La méthode de Huffman utilise un code à longueur variable pour chaque symbole. Ainsi, un symbole revenant souvent sera codé sur un nombre de bits moins important qu’un symbole n’apparaissant que rarement. Le taux de compression est limité par une limite théorique : l’entropie. On peut noter que si les symboles étaient équiprobables, un code à longueur fixe pour coder chaque symbole serait optimal et l’entropie donnerait la longueur minimale de ce code fixe.

Le principe de cette méthode repose sur la construction d’un arbre de codage. Prenons un exemple afin de comprendre sa construction. Cet exemple est tiré du cours de “Transmission” de Thomas SPRÖSSER donné en première année dans notre école.

Nous prendrons un vocabulaire de 8 éléments (s0, s1 … s7). Tout d’abord, dressons un tableau faisant apparaître le codage primaire (de longueur fixe) de chaque élément dans l’ordre décroissant de la fréquence d’apparition de ces derniers :


Étapes de la construction de l’arbre :

1ère étape : on écrit les symboles du code primaire dans l’ordre croissant.

2ème étape : on regroupe les deux premiers éléments du code (i.e. les deux revenants le moins souvent) en additionnant leur fréquence.

3ème étape : avec ces deux éléments comme des branches, on créé un nœud en associant la valeur 0 aux
branches droites et la valeur 1 aux branches gauches.

4ème étape : on donne au nœud créé la somme des fréquences de ces deux fils.

5ème étape : on sélectionne, parmi tous les éléments et nœuds les deux dont la fréquence est la plus faible.

6ème étape : on répète le schéma de création d’un nouveau nœud et on lui attribue sa fréquence.

7ème étape : on continue jusqu’à obtenir la racine de l’arbre.

8ème et dernière étape : en commençant par la racine, on remonte jusqu’aux éléments ; la suite des poids des branches leur donne le code secondaire.

Visualisez toutes ces étapes en image (vous pouvez utiliser les boutons PREV/NEXT au bord des imges, après avoir cliqué sur la première image)


L’algorithme de Huffman est encore très utilisé de nos jours. La norme non conservative JPEG, après avoir éliminé un certain type d’informations, compresse les données restantes à l’aide de cet algorithme. Il est également utilisé pour la transmission de fax, mais également par la plupart des compresseurs comme second étage de compression (i.e. qu’après avoir été comprimé par une autre technique, les données sont surcomprimées à l’aide de l’algorithme de Huffman) .

mai
21
Classé dans (La compression sans perte) par Frédéric Pierre le 21-05-2008

Il existe différents procédés pour compresser une information sans pertes, nous allons dans cet exemple nous intéresser à l’une des plus simples d’entre elles : le Run Length Encoding (RLE) (codage par plages en français).
Cet algorithme de compression est du point de vue théorique très simple à appréhender. En effet, on ne fait que remplacer des éléments identiques se succédant par un seul de ces éléments, suivi du nombre de répétitions.

exemple :

  • donnée source : Moogli
  • donnée compressée : M$2ogli

On peut voir avec cet exemple que la donnée compressée prend plus de place que la donnée source (7 caractères contre 6). Il est donc important de fixer un seuil du nombre de répétitions minimales à partir duquel on codera cette répétition afin d’éviter ce genre de situation, le but de la compression étant bien entendu de gagner de la place.
Le caractère ‘$’ est ici choisi comme caractère spécial (arbitraire), il permet d’indiquer une compression, et il est essentiel pour la phase de décompression (i.e. pour pouvoir retrouver la donnée source à partir de la donnée compressée).
On montre pour ces raisons que le seuil doit être supérieur ou égal à 4.

Ainsi, en appliquant un seuil  de 4 on aura :

  • donnée source : Moogli
  • donnée compressée : Moogli

dans ce cas on ne gagne aucune place mais en tout cas on n’en perd plus.

Prenons un autre exemple :

  • donnée source : Heeeellooooo
  • donnée compressée : H$4ell$5o

on obtient une compression de 25% (on gagne 3 caractères sur 12).

Cette méthode n’offre malheureusement que de médiocres résultats. Par le passé, elle a été beaucoup utilisée, essentiellement pour la compression d’images. Il est en effet plus aisé de trouver des répétitions successives d’un pixel de même couleur dans une image qu’une répétition successive d’une lettre dans un texte en langue française par exemple. Dans le cas d’une image matricielle (bitmap en anglais) l’information est stockée sous la forme d’un tableau de points de couleurs (pixels). Dans une zone de l’image où la couleur est homogène on pourra donc trouver des successions de pixels identiques, et ainsi gagner en place de stockage à l’aide d’une méthode de compression tel que le RLE.

mai
20
Classé dans (La compression sans perte) par Frédéric Pierre le 20-05-2008

La compression sans perte (lossless data compression en anglais), appelée aussi compactage consiste en une nouvelle représentation d’une information sous une forme plus condensée.  Le fait que l’on garde exactement la même quantité d’information avant et après la compression en fait une opération réversible.

Pour des données telles que du texte, un programme exécutable, un tableau excel, etc., une compression sans perte est indispensable, on ne peut pas se permettre d’altérer l’information originale.

La compression sans perte se base sur le fait que la plupart des données possèdent une certaine redondance statistique. Prenons un exemple simple : un texte écrit en langue française, statistiquement on y trouvera plus de e, s ou encore de a que de x ou y (source). Dans l’article précédent on pouvait compter ainsi 97 e, 78 r pour seulement 2 y ou un seul k. Il y a également peu de chance qu’un k suive un z. On pourra ainsi gagner de la place lors du codage d’une information en se basant sur la fréquence d’apparition des caractères dans le cas d’un texte.

Nous verrons dans le prochain article un exemple de mise en pratique de ce type de compression.

mai
15
Classé dans (Introduction) par Frédéric Pierre le 15-05-2008

Comme dans tous échanges d’informations, la transmission de données compressées nécessite la compréhension du système de codage, aussi bien par l’émetteur que par le récepteur, afin que l’information transmise puisse être comprise par les deux interlocuteurs.

La compression de données est également l’objet de grands enjeux économiques liés aux limites technologiques. En effet, le stockage de données demande un matériel coûteux et encombrant, de plus la réduction de la consommation de bande passante lors d’une transmission de données permet une réduction des coûts.
En revanche, l’utilisation d’une donnée compressée induit une décompression et donc un surcroît de traitement pénalisant certaines applications.

On distingue deux types de compression : la compression sans perte (ZIP, PNG, FLAC, etc.) et la compression avec perte (JPG, MP3, AVI, etc.).