Cet article est destiné à faire un bref résumé de l'histoire et de la théorie thermographique ainsi que de son vocabulaire. Notez également que la thermographie mesurant des rayonnements en dehors de la lumière visible, elle est donc d'office en échelle de gris puisque ces nuances ne reflètent que la traduction d'une puissance de rayonnement et tout le reste est donc en couleurs artificielles, pour aider à l'analyse. Notez que le mot thermographie vient du grec θερμός (thermos) signifiant « chaud » et γράφειν (graphein) signifiant "peindre, dessiner, écrire" soit donc l'écriture de la chaleur, toute comme photographie est l'écriture de la lumière.
Le premier paradoxe de la thermographie qui en contient beaucoup est que sa définition ne fait pas vraiment consensus et que malgré son origine, démarche et raisonnement, il s'agit d'une technique ou d'une discipline scientifique mais pas d'une science ne fut-ce qu'à cause de l'importance de l'environnement et des qualités du thermographe qui opère l'analyse ainsi que de celui qui va exploiter, analyser et traiter les données des relevés.
Voici cependant quelques unes des définitions officielles:
Infrarouge:Le nom signifie « en dessous du rouge » (du latin infra : « plus bas »), car l'infrarouge est une onde électromagnétique de fréquence inférieure à celle de la lumière visible: le rouge. La longueur d'onde des infrarouges est comprise entre le domaine visible(≈ 0,7 μm) et le domaine des micro-ondes(≈ 1 mm)..
Dans la pratique, en thermographie on observe majoritairement de 8 à 13 μm mais aussi entre 2 et 5 μm .
Voir aussi: Définitions de la thermographie
Les infrarouges ont été découverts vers 1800 par William Herschel, un astronome anglais d'origine allemande qui regardait la chaleur apportée par la lumière et eut la curiosité de regarder si si chaque couleur apportait la même chaleur. À l'aide d'un prisme optique, il décomposa la lumière du soleil et l'appliqua sur un thermomètre. C'est là qu'outre la constatation que la couleur rouge était la couleur la plus chaude, il découvrit qu'à côté de celle-ci, de manière invisible, il existait une zone plus chaude que toutes les autres. Ne pouvant la percevoir, il décida de la nommer infrarouge. Ce fut aussi la première expérience démontrant que la chaleur pouvait se transmettre sans rayonnement visible.[1]
Quelques termes qui reviennent souvent dans le monde de l'analyse thermique: [2]
Il s'agit simplement du cadrage de votre observation donc du choix des éléments qui apparaîtront dans votre relevé de thermographie, comme en photo classique sauf que la nature des reflets est différentes ainsi que les réglages de contraste. C'est ici plus techniques qu'artistique mais la lisibilité est primordiale ainsi que d'éviter les pollutions inutiles. La composition de la scène désigne les éléments qui la compose.
Il s'agit des bornes de températures observées, le minimum et le maximum. Généralement, cette mesure est automatique mais débrayable en manuel, cette mesure est essentielle lors de l'analyse sur place et vitale si vous ne savez pas prendre des thermogrammes éditables mais des images thermiques figées car elles ne pourront alors plus être modifiées par après.
Ce concept est celui de la température moyenne de votre gain, c'est simplement le milieu de votre échelle thermique.
Dans ce cadre-ci, il s'agit de la mise en évidence, dans l'image et par un contraste d'une plage de température bien définie pour l'isoler du reste de la scène, c'est en quelque sorte un gain secondaire dans le gain principal.
Sans pour autant que cette notion fasse consensus, nous entendrons dans ce site qu'un thermogramme est une image thermographique contenant sa matrice de température voire d'autres données radiométriques permettant son retraitement ultérieur tandis qu'une image thermique est simplement une vision statique d'une scène thermique.
Voir aussi: Thermogramme vs image thermique
C'est une optique classique sur un capteur sensible à une certaine longueur d'onde des infrarouges donc la netteté de l'image est semblable à l'optique classique mais va aussi jouer sur la précision de la mesure, une image floue est plus imprécise.
Après Herschell, c'est un écossais, John Leslie, qui va mettre en évidence que chaque matériau émet la chaleur selon sa nature propre: géméotrie, surface, propreté mais également un facteur pshysico-chimique: l'émissivité:L'émissivité d'un matériau est un nombre sans dimension donc sans unité de mesure. C'est la capacité d'un matériau à émettre de l'énergie par rayonnement: rapport entre l'énergie rayonnée par un matériau et l'énergie rayonnée par un corps noir à une même température. Un corps noir est l'idéal théorique avec une émissivité de 1 (ε = 1) alors que n'importe quelle matériau réel à une émissivité inférieure à 1 (ε < 1)..
L'invention majeure de Leslie, dans ce domaine, est un cube de métal portant son nom, rempli d'eau chaude mais dont la nature de 4 de ses faces est différente et permet donc l'observation mais aussi la mesure de l'émissivité de chaque matériau.
La thermographie est une mesure de chaleur mais notre technologie ne fournit encore que la température apparente, non corrigée sur l'émissivité de l'objet ce qui signifie que toutes les valeurs observées sont faussées, généralement seulement légèrement mais parfois la nature de certains objets impose leur analyse recouverts, peints ou leur écartement de l'analyse (cuivre, corrosion, inox, ...)
Voir aussi : Émissivité et thermographie: la zone interdite
Cette notion est également proche de celle de l'optique, c'est le grain, en réalité, c'est la sensibilité de votre caméra thermique, le plus petit écart thermique discernable.
C'est un outil du thermographe permettant une lisibilité et/ou une mise ne évidence plus claire de la situation, les plus utilisées sont fer(lisibilité) et arc-en-ciel(mise en évidence des contrastes). Ceci permet de convertir l'échelle de gris d'origine est des matrices d'analyse colorées. Souvent, quand on dispose de thermogramme, ce facteur est modifiable à posteriori.
Voir aussi: Les palettes de couleur des thermogrammes
Les images doubles sont simplement la représentation en tandem de la vue en photographie digitale ou en vue humaine avec sa vision en thermographie infrarouge. Ces documents sont encore relativement rares dans le domaine public. Heureusement, ils se multiplient car les caméras actuelles prennent de plus en plus souvent les relevés en binômes digital/thermique.
Ce terme signifie que l'image thermique sera présentée en fusion dans une image digitale de la scène. En effet, jadis il fallait deux appareils pour ce travail, aujourd'hui la majorité des caméra thermiques prennent les vues en tandem d'une part mais également avec une caméra numérique ayant une focale différente, nettement plus grand angle que la vision thermique et permettent même souvent des fusions automatiques avec des mises en évidence, ...
Facilité à transmettre ou à emmagasiner l'énergie thermique d'un matériau.
La conduction thermique est un transfert thermique spontané d'une région de température élevée vers une région de température plus basse,établie par Jean-Baptiste Biot en 1804 et formalisée par Fourier en 1822[3]. Ce qui signifie que la somme algébrique du travail et de l'énergie étant une valeur physique constante dans un système clos, nous rentrons dans une système obéissant aux lois de la thermodynamique et où donc nous étudierons la répartition de l'énergie, celle-ci ne pouvant être détruite d'une part mais où également les niveaux d'énergie définissent le sens des échanges. Cela nous amène donc à la Loi de Fourier modifiée:Dans des conditions stationnaires, le flux de transfert thermique par conduction est directement proportionnel à la conductivité thermique, à la section de passage, et à la différence de température entre les extrémités d'un parcours donné. Il est inversement proportionnel à la longueur du parcours.
Instantaneous Field Of View, c'est en optique l'ampleur de la zone géométrique observée à une certaine distance et qui caractérise la performance de l'optique. En thermographie, cela correspond au nombre de mm couverts par un pixel sur une surface observé à un mètre de la caméra, approximativement mais il peut même être différent en horizontal et en vertical.[4]
C'est en réalité 3x3 IFOV, il exprime la taille du plus petit objet observable à 1 mètre de distance (à adapter sur simple règle de 3). Cette mesure est en fait la dimension et la précision de votre analyse car va déterminer la taille d'objet dont la caméra va vous fournir la température moyenne apparente.
Voir aussi: Distance et thermographie
Thermo Regulation Frequencies est en fait une action de prendre la température de l'environnement pour en extraire le rayonnement parasite moyen en face de la scène (dans le dos de l'observateur) afin de corriger les températures apparentes de la scène.[5]
C'est la source d'étalonnage des caméras thermiques, il s'agit, pour la thermographie d'appareils de chauffe utilisant l'effet cavité afin d'approcher le plus possible une émissivité de un. Ces corps noirs sont disposé en arc de cercle avec la caméra au centre afin de la présenter à chacun avec le même angle et la même distance (normalement, on prend 7 mesures de température réparties uniformément sur la plage de température de travail de votre thermacam).
Ce sont les deux philosophies principales du relevé thermographique et chacun a sa propre stratégie et ses propres limites, il est d'ailleurs difficile de rectifier ou de compléter les relevés si l'on désire passer de l'un à l'autre. C'est typique un choix ou un non choix qui doit être opérer dès le départ du relevé.
Le quantitatif est extrêmement exigeant sur le plan précision et contrôle des paramètres d'environnement dans la mesure où l'on va s'appuyer sur les valeurs chiffrées fournies par les capteurs, c'est la méthode la plus exigeante et trop souvent uniquement praticable en laboratoire. Certains thermographes estiment d'ailleurs que cette démarche est illusoire car la marge d'erreur est trop importante, elle est donc à éviter si les températures à mesurer sont trop peu différentes du reste de l'environnement et que le contraste est donc faible. On l'appelle aussi la détection d'anomalie et elle permet égaler de quantifier le sérieux d'une situation et planifier la criticité d'une réparation. Il est obligatoire d'effectuer toutes les corrections et compensations de température afin d'obtenir une mesure (émissivité, facteur de surface, température de réflexion, distance, température ambiante, ...).
Le qualitatif peut sembler plus facile voire plus abordable car elle va essentiellement se baser sur les motifs thermiques et des comparaisons de situations similaires. Dans cette démarche-là, il faut déjà disposer d'éléments de comparaison, espérer que les facteurs d'émissivité, propreté, corrosion, condensation, ... ne vont pas brouiller le raisonnement mais l'on peut également créer des situations de comparaison. Cette méthode est plus robuste que la quantitative et moins exigeante sur le précision mais, néanmoins, le risque d'erreur pour cause de comparer des éléments qui ne devraient pas l'être est important. c'est une méthode qui exige plus d'expérience et de connaissance métier de la scène observée ainsi qu'un contrôle de la situation d'utilisation des éléments de la scène thermique. Cette méthode permet de rester en température apparente, l'émissivité est d'ailleurs souvent laissée sur 1 ainsi que les températures et hygrométries ne sont pas corrigées car réputées identiques pour toute la scène.
Il n'y a pas réellement de limites dans l'utilisation des caméras thermographiques seulement des limitations matérielles.
La plage de température d'observation civile la plus courante est le 8-13 μm mais l'on observe aussi sur 2-5 μm pour des raisons techniques, scientifiques ou militaires, la zone entre 5 et 7,5 μm étant généralement bannie car la vapeur d'eau est vue opaque dans ces longueurs d'onde ce qui vu son omniprésence sur Terre ne permet plus les relevés.
Voici néanmoins une liste non-exhaustive des possibilités de la thermographie infrarouge: [6] [7] [8]
Les caméras de thermographie ou thermacam ont beaucoup évolué depuis les premiers capteurs qui ne permettaient pas de visualiser sur un écran mais seulement de mesurer. Comme vous le voyez, les mesures étaient encore sommaires mais cela ne les a pas empêché de théoriser la majorité de ce que nous utilisons aujourd'hui avec des interfaces de plus en plus perfectionnés.
C'est l'écran de télévision qui va créer la première révolution en permettant de visualiser en nuances de gris les images thermiques mais il fallait un petit chariot pour transporter le matériel, écran et batteries comprises ainsi que le bolomètre refroidi par cryogénie, cet appareillage était généralement manipulé par des ingénieurs tant les réglages étaient complexes mais ayant également de larges capacités de technicien pour pallier aux nombreuses pannes possibles. Il fallait aussi un appareil photo au début pour prendre des clichés de l'écran avant l'invention du magnétoscope.
Cependant, très vite, grâce à l'amélioration de la technique, on a pu transmettre les informations par câble à distance puis par ondes tout en guidant l'opérateur par radio ou en utilisant une télécommande vers un robot. Puis vint l'écran LCD, très vite vers la couleur mais aussi les bolomètres non refroidis ne demandant plus d'unité de cryogénie puis les microbolomètres couplés à des écrans LCD couleurs tactiles permettant désormais des caméras manuelles utilisables même à une seule main et avec des autonomies de plusieurs heures tout en prenant des images ou des vidéos éditables désormais et sauvées sur des mémoires flash.
Il a également longtemps existé des pellicules infrarouges permettant de prendre des photos thermiques avec de simples appareils photos mais leur développement et conservation étaient vraiment problématiques.
Globalement, désormais, les caméras thermiques sont électroniques et avec écrans de visualisation ainsi que sauvegarde des relevés en photographie ou en vidéo. Habituellement également,ces données sont dites radiométriques càd qu'elles contiennent en parallèle, dans l'image, une matrice des températures relevées ou les matrices progressives de T° pour les vidéos ce qui permet grâce à des logiciels spéciaux d'éditer ces images et de faire des corrections d'environnement, émissivité,distance, ...
À noter également que désormais la sensibilité thermique des capteurs est un enjeu aussi majeur que la résolution de ceux-ci. Actuellement (2013), on ne considère en modèle professionnel qu'à partir de 0.1° de sensibilité, certains modèles descendent déjà à 0.03° voire 0.01° tandis qu'en terme de résolution, le 160x120 pixels est déjà acceptable mais la norme est plutôt 320x240 et bientôt 60x480 pixels; des modèles avancés tirent déjà couramment à 1 mégapixel.
Les composantes essentielles du prix des caméras sont dans le microbolomètre d'une part selon sa sensibilité et sa résolution en infrarouge mais aussi dans les lentilles qui sont malheureusement en germanium, métal rare et coûteux mais utilisé pour sa très bonne perméabilité aux IR, son homogénéité et sa résistance même si les PVC sont également une voie prometteuse mais avec une plus grande fragilité. L'un des problèmes de son prix étant qu'il est essentiellement extrait de la sphalérite zinguée (ou sulfure de zinc) à hauteur de 120 tonnes par an, recyclage du vieux germanium compris mais essentiellement des déchets des fonderies de zinc et qu'il rentre également dans la production du photovoltaïque, fibre optique, automobile ou électronique. Ce semi-conducteur métalloïde est le problème principal car il sert de base à beaucoup de technologies de pointe, il était par exemple le substrat des premiers transistors et sert encore dans des domaines de recherche où l'on n'a pas encore réussi à le remplacer.[9]