Regard sur l’image

Accueil > Français > Techniques (images et numériques) > Les biais de la technique > Images et numérique > Le numérique, plus de soixante-cinq ans déjà (1)

- Le numérique, plus de soixante-cinq ans déjà (1)

,  par Hervé BERNARD dit RVB

L’histoire provoque parfois d’étrange coïncidences, ainsi la fin de la Seconde Guerre Mondiale voit naître simultanément : ENIAC (Electronic Numerical Integrator and Calculator) l’une des premières machines considérées comme l’ancêtre de l’ordinateur, la télévision en tant que média grand-public et la publication par Vannevar Bush [1] de la description d’un système de stockage et d’indexation de l’information appelé ‘’Memex’’ qui décrit, en fait, les prémisses de l’hypertexte [2]

Soixante ans plus tard, ces trois événements ont construit deux des industries les plus florissantes du vingtième siècle (l’informatique et l’industrie audio-visuelle) et elles sont à l’origine de l’une des plus grandes révolutions industrielles et culturelles de l’humanité sous l’égide du numérique.

Si nous avons choisi ces trois événements pour marquer la naissance du numérique, c’est parce qu’ils le placent déjà à la croisée des chemins : révolution de la communication, révolution de la création artistique, révolution de la transmission des connaissances. Tout est en place pour la convergence numérique. Ces événements nous redisent, si nécessaire que le numérique n’est pas apparu d’un coup de baguette magique : plus de soixante ans de recherches qui reposent, notamment, sur toutes les études de la perception visuelle et sonore effectuées depuis le XIXè siècle, et ce n’est pas rien... Une durée qui nous éloigne d’une quelconque immédiateté sans remonter à Mathusalem et à l’invention du zéro.

© Hervé Bernard 1990

Que recouvre le terme numérique ? Quel est le point commun entre une machine-outil à commandes numériques, un scanner médical, une machine IRM, un télescope spatial, un DVD ou un lecteur SACD ? L’utilisation d’un codage numérique pour transporter, analyser.... bref traiter l’information. Aujourd’hui, le numérique est devenu un grand fourre-tout, un vrai pêle-mêle contenant aussi le son et l’image. Hors, dans ces deux derniers domaines, seul l’enregistrement et le traitement du signal sont numériques. L’enregistrement, la restitution et la perception restent analogiques. Un capteur sonore ou visuel, un écran ou un haut-parleur sont fondamentalement des systèmes analogiques( [3]

Le codage de l’information
Donc, le numérique est une technique de codage de l’information c’est-à-dire un moyen de formaliser l’information afin de la manier (transport, transformation, analyse, enregistrement…). Cependant, le numérique est bien loin s’en faut d’être le premier codage. Pour parodier Bergson, on pourrait même dire que créer des codages de l’information est le propre de l’homme. L’alphabet, la gamme musicale, le morse sont quelques exemples de codages développés au cours de l’histoire de l’humanité. Ces trois codages, tout comme le numérique ont en commun d’être des codages discrets. Il est impossible de confondre un A avec un B, un do avec un ré et un point avec un trait et cela tant que le signal est suffisamment perceptible.

© Hervé Bernard 1990

Quelles sont les qualités d’un codage ? Générer le moins d’erreur possible notamment, en étant le plus robuste possible lors de la transmission et de la lecture. Dans le codage numérique, les sources d’erreurs sont réduites au minimum par rapport à un codage comme l’alphabet qui dispose de vingt-sept caractères. En français, différents sons peuvent se confondre comme le montrent le s et le z, le p et le b... La force essentielle d’un codage binaire est de réduire les erreurs au strict minimum car, lors de la transmission, tant que le signal est perceptible, et même s’il est atténué, un 1 reste 1 et un 0 reste un 0. Tandis que dans le domaine analogique, toute variation d’intensité du signal se traduit par une variation d’amplitude de la restitution comme le montre le disque ou le négatif rayé. Comment reproduire les vingt-sept caractères de l’alphabet avec seulement deux éléments ? En définissant des arrangements capables de produire des « mots » qui permettront de recréer ces vingt-sept lettres, les signes de ponctuation, les caractères accentués, les dix premiers chiffres (...) ou toute autre information comme le son et/ou la voix.

Avant de coder, faut-il encore savoir ce que l’on veut transmettre et c’est là où le travail de théoriciens de l’information comme Nyquist [4] ou Claude Edouard Shannon [5]
ont été essentiels (voir les 3 papiers sur l’échantillonnage). C’est là aussi qu’interviennent, comme nous le disions précédemment, toutes les recherches faites dans le domaine de la perception par des philosophes comme Berkeley, Merleau-Ponty (...) ou encore la création de la Commission Internationale de l’Éclairage [6] dans le domaine de la standardisation de la définition des couleurs.

Transmettre l’imperceptible ou le non-pertinent est inutile. Cela ne sert qu’à surcharger le canal de transmission. Il va donc falloir discriminer. C’est-à-dire choisir d’écarter ou de conserver l’information lors de son codage. Mais comment définir la pertinence d’une donnée ? Ainsi, dans le domaine de l’alphabet et de la notation de la langue française, l’encodage choisi ne transmet pas l’accent du locuteur si l’on respecte l’orthographe et la grammaire. En effet, dans ce codage les accents locaux sont considérés comme une information non-pertinente et donc génératrice de bruit.

Définir la pertinence ou la non-pertinence d’une information dans le domaine de la perception visuelle et/ou auditive est chose complexe. Ainsi, l’imperceptible du chef d’orchestre est totalement différent de celui d’un ouvrier utilisant un marteau-piqueur depuis plus de vingt-ans. De même, un chasseur aura développé son oreille, donc ses capacités de discrimination, en fonction du gibier qu’il recherche. Et, pour les couleurs, les capacités de discrimination d’un photograveur travaillant dans l’édition de livres d’art et celle d’un mineur de fond (qui a travaillé toute sa vie dans l’obscurité de la mine) sont différentes. Ce problème de l’imperceptible sera encore plus crucial avec les techniques de compression du signal. En effet, si dans un premier temps, il est relativement facile de définir la quantité d’information visuelle ou auditive nécessaire à l’aide de la définition de la bande passante perceptible par l’oreille (entre 30 Hz -en deçà les sons sont qualifiés d’infrasons- et 20 kHz -au-delà les sons sont qualifiés d’ultrasons-) ou par l’œil humain (le spectre visible s’étend de 380-450 nm -en deçà il s’agit des ultra-violets- à 650-780 nanomètres -au-delà ce sont les infrarouges-) ; réduire cette bande-passante pour diminuer le volume des données et donc gagner du temps dans le stockage, dans la transmission et dans la recherche des données nous confronte à la question de l’information nécessaire et suffisante à la compréhension d’un message. Et cette information nécessaire varie, comme nous le disions précédemment en fonction du contexte. Ainsi, pour revenir sur les accents locaux, ils deviennent un discriminant essentiel lorsqu’ils servent à disculper un inculpé dans une affaire criminelle.

(À suivre)