Score agrégé de performance environnementale

La multiplicité des scores d’impact environnemental lorsqu’ils sont pris de manière individuelle constitue rarement une bonne base pour la prise de décision. C’est pourquoi, TOTEM permet de visualiser le profil environnemental d’un élément ou du bâtiment à l’aide d’un score agrégé. L’agrégation de tous les impacts environnementaux en un score unique s’inscrit dans cette logique « decision- making » et permet aux utilisateurs d’effectuer une sélection orientée vers la prise de décision quant aux solutions de construction.

 

Pondération selon la méthode PEF

Au sein du logiciel TOTEM, il est donc possible de calculer un score unique pour l’ensemble des dix-neuf indicateurs environnementaux. Dans la suite logique de la mise à jour de la norme EN 15804 + A2 en juillet 2021 sur laquelle TOTEM s’aligne, il a été décidé d’abandonner l’ancienne approche de monétisation et d’appliquer l’approche de pondération PEF (Performence Environmental Footprint). La méthodologie PEF calcule, sur base des indicateurs environnementaux caractérisés, un score unique au moyen d’une étape de normalisation suivie d’une étape de pondération.

L’approche de la pondération PEF comprend deux étapes : normalisation et pondération, qui sont ensuite regroupée dans une agrégation.

Normalisation

La normalisation vise à calculer l’ampleur du phénomène de l’indicateur de catégorie par rapport à un système de référence.  Pour chaque indicateur environnemental, les valeurs caractérisées sont divisées par leurs facteurs de normalisation respectifs, exprimés en impact global annuel par habitant (sur la base d’une valeur globale pour l’année de référence 2010). Les résultats normalisés sont donc logiquement sans dimension.

TOTEM applique les facteurs de normalisation proposés par la plateforme européenne sur l’analyse du cycle de vie (EPLCA 2019). Par exemple, le facteur de normalisation pour le changement climatique est de 8,1 X 10³ kg CO2 eq./personne par an. L’ensemble des facteurs de normalisation utilisé dans la méthode PEF a été élaboré à partir de données statistiques sur les émissions et les ressources utilisées dans le monde pendant un an par habitant.

Pondération

Dans un deuxième temps, les valeurs normalisées sont pondérées en les multipliant par des facteurs de pondération afin de refléter l’importance relative perçue des catégories d’impact environnemental considérées. Par exemple, le facteur de pondération pour le changement climatique est de 21,06 %.

Les facteurs de pondération proposés sont calculés sur la base d’une combinaison d’ensembles de pondération :

  • un ensemble de pondérations provenant d’une enquête publique (25 %)
  • un ensemble de pondérations dérivé d’une enquête menée auprès d’experts en ACV (25 %), et
  • une approche hybride combinant des critères fondés sur des preuves (par exemple, l’étendue, la durée, la réversibilité des impacts…) et un jugement d’expert (50 %). Pour tenir compte de la robustesse des indicateurs d’impact, un facteur de correction (sur une échelle de 0,1 à 1) est appliqué aux facteurs de pondération afin de réduire l’importance des catégories d’impact dont la robustesse est faible (degré d’incertitude trop grande, données peu représentatives,…).

Agrégation

Après pondération, les résultats des différents indicateurs environnementaux peuvent être additionnés pour obtenir une note globale unique (exprimée en millipoints dans TOTEM). Le tableau ci-dessus un aperçu des facteurs de normalisation et de pondération.

Après normalisation et pondération, les scores peuvent être agrégés en un seul score. Dans les tableaux de résultats de Totem, un « facteur d’agrégation » par indicateur d’impact est donné sur la base de la combinaison des facteurs de normalisation et de pondération du PEF. Ces facteurs d’agrégation sont calculés en multipliant l’inverse de chaque facteur de normalisation avec son facteur de pondération correspondant et puis en multipliant par 1000 pour la conversion de Pt en millipoints.

Si vous voulez en savoir plus sur le score environnemental unique de Totem, nous vous recommandons la video ci-dessous :


Ventilation des résultats

Disposer d’un score unique permet de combiner des impacts différent, mais ne bride pas toute capacité d’analyse plus fouillée. Totem propose différentes décompositions des résultats, par indicateurs, composant, ou étape du cycle de vie.

Impact par indicateur

La figure ci-illustre la décomposition de l’impact environnemental d’un élément choisi en exemple est issu de la bibliothèque de TOTEM. Il s’agit d’un élément correspondant à la description suivante: Élément de toiture en pente / Recouvrement en ardoise_Fibre-ciment | Poutres_Bois résineux (172 mm – entraxe 400 mm) | Matelas_Laine de roche (170 mm) | Panneau_Plâtre.

Cette figure permet d’identifier facilement les impacts les plus impactant dans le score global de cet élément : dans ce cas, il s’agit de la contribution u changement climatique, de l’épuisement des ressources abiotiques et des émissions de particules fines.

Si vous voulez en savoir plus sur les différents indicateurs environnementaux utilisés dans TOTEM, nous vous recommandons la video ci-dessous :

Impact par composant

Le même exemple peut être analysé par composant :

On voit ici que 46% de l’impact est lié aux pertes de chaleur par transmission associée à cette paroi, et que le deuxième élément le plus impactant est lié au recouvrement en ardoise, ce qui suggère de mettre en question ce choix de recouvrement avant d’autres composants, tels que le matériau isolant (5% de l’impact uniquement dans ce cas).

Impact par étape du cycle de vie

Cette troisième visualisation permet de voir que la phase B6, représentant l’énergie de chauffage associée à l’élément, est de loin dominante. Deux autres phases se détachent : A1-A3, qui couvre la production des éléments, et B4, qui représente le remplacement de certains éléments durant le cycle de vie. Les étapes de transport et de fin de vie pèsent par contre peu, ce qui relativise les incertitudes pesant sur les scénarios de réemploi, recyclage ou traitement en fin de vie.

Gestion du carbone biogénique

Qu’est-ce que le carbone biogénique?

Le carbone biogénique est le carbone stocké dans la matière végétale sous forme de biomasse, par le processus de photosynthèse. La photosynthèse est le processus par lequel les plantes utilisent l’énergie solaire pour convertir le dioxyde de carbone et l’eau en glucose (sucre) et en oxygène.

L’idée derrière la notion de carbone biogénique est donc de tenir compte du fait que, au cours de la croissance des plantes, le carbone provenant du CO2 atmosphérique s’incorpore à la structure des molécules organiques qui constituent la biomasse. Par conséquent, cela peut être considéré comme une forme de séquestration du carbone. Cette capacité de captation du carbone atmosphérique par la biomasse est souvent utilisée dans le contexte de discussions sur les stratégies à adopter pour réduire les émissions de gaz à effet de serre (GES).

Certains produits de construction, comme le bois, présentent donc un potentiel de stockage du carbone temporaire du carbone, et sont à ce titre considérés comme des puits naturels de carbone.

Dans Totem, la prise en compte du carbone biogénique concerne uniquement les matières biosourcées dont la formation est relativement rapide. Dans cette logique, TOTEM ne considère pas les produits pétroliers comme des puits à carbone biogénique même si ceux-ci sont issus de matières premières végétales mais dont la formation – bien au-delà de l’échelle humaine – est très longue.


La comptabilité du carbone biogénique

Deux méthodes sont possibles pour comptabiliser le carbone biogénique dans les analyses de cycle de vie :

  • Soit on comptabilise la fixation du carbone dans la phase de production. On doit alors également prendre en compte l’émission de ce carbone biogénique dans l’atmosphère lors de la fin de vie (ou le transfert vers le cycle de vie subséquent dans le cas du recyclage ou du réemploi).
  • Soit les deux flux de carbone biogénique (fixation et émission) sont négligés puisque le bilan global sur le cycle de vie est de toute façon nul.

TOTEM a chois d’appliquer la première méthode. Sur le cycle de vie complet, le bilan du carbone biogénique est donc considéré comme nul : la quantité absorbée pour produire la matière végétale est équivalente à la quantité émise ou transférée en fin de vie.

Les impacts sont déclarés dans les modules où ils se produisent. Cela signifie que l’absorption de carbone est déclarée au sein de la phase de production du cycle de vie et que les émissions, elles, sont déclarées dans la phase liée à la fin de vie. Il s’agit de la méthode « -1; +1 ».

 

Prenons l’exemple de l’élément de toiture inclinée nommé « TI_Pannes_Bois résineux_BIB_Reno_04 » de la bibliothèque TOTEM.  Un stockage de 40 kg CO2 eq. est déclaré et comptabilisé dans la première phase du cycle de vie (modules A). A l’autre bout, aux modules C3 et C4 portant la fin de vie, sont déclarés respectivement 16 et 25 kilos de CO2 eq pour l’indicateur de l’impact « carbone biogénique ». Il y a donc un bilan carbone biogénique presque à l’équilibre puisqu’in fine, en tenant compte des arrondis, l’impact global vaut seulement 1,5 kg CO2 eq. (-40+16+25).

Si vous souhaitez en savoir plus sur la prise en compte des différents indicateurs environnementaux dans TOTEM, et notamment sur le carbone biogénique, nous vous invitons à visionner la video suivante :


Les matériaux biosourcés dans TOTEM

Les matériaux de construction biosourcés sont des matériaux d’origine végétale ou animale, dérivés de la biomasse ou des matériaux d’origine biologique, excluant les matériaux intégrés dans des formations géologiques et/ou fossilisés. Ils se trouvent dans leur état naturel ou sont synthétisés ou manufacturés par traitement physique, chimique ou biologique utilisant de la biomasse.

Sur base de cette définition, une classification a été réalisée de l’ensemble des matériaux utilisés dans TOTEM, le label biosourcé n’étant attribué qu’aux matériaux dont la majorité du contenu est biosourcé. Par exemple, un profilé FJI composé des matériaux « bois lamellé » et « OSB », tous deux biosourcés, sera luio aussi considéré comme tel. Par contre, un panneau sandwich composé de panneaux agglomérés et d’isolation synthétique n’est pas considéré comme biosourcé car seul le panneau aggloméré l’est.

Dans la bibliothèque des composants, un filtre (Biosourcé, Non biosourcé) est disponible afin de n’afficher que ces derniers.

Données génériques et / ou spécifiques

 

Il y a dans TOTEM deux types de données, qui diffèrent selon leur origine. D’une part des données dites génériques, qui décrivent des matériaux ou composants « types », et d’autre part des données dites spécifiques, liées à un produit ou composant particulier, lié donc à un fabriquant clairement identifié.

Chaque type de donnée à son usages, les deux se complétant utilement. A terme, l’objectif est d’utiliser uniquement des données spécifiques, mises à disposition directement par les producteurs de matériaux, via la base de données de B-EPD. D’ici à ce que cette base de données soit suffisamment alimentées, le recours aux données génériques restera indispensable.

Nous présentons dans cette page les principaux points liés à chaque type de données. Si vous voulez creuser le sujet plus profondément, nous vous invitons à regarder les deux videos ci-dessous :


Les données génériques

EcoInvent


 

Ecoinvent est une base de données Suisse d’inventaire du cycle de vie (ICV) qui fournit, depuis 2003, des données sur les impacts environnementaux associés à la production de divers biens et services. L’objectif principal de cette base de données est de soutenir les analyses du cycle de vie, qui évaluent l’ensemble des impacts environnementaux tout au long du cycle de vie d’un produit, depuis l’extraction des matières premières jusqu’à la fin de vie.

Ecoinvent couvre un large éventail de secteurs industriels et de processus de production. Elle fournit pour chacun des données sur les émissions de gaz à effet de serre, la consommation d’énergie, la consommation d’eau, et d’autres aspects environnementaux pertinents. La base de données EcoInvent est conforme aux normes ISO 14040 et ISO 14044 et documente actuellement plus de 20 000 processus industriels.

Le logiciel TOTEM s’alimente de cette base de données qui lui permet de disposer de suffisamment de données au sein de l’outil. Les données mobilisées sont adaptées à la réalité du marché belge, notamment au niveau du mix énergétique et des données liées au transport.

La base de données ECOINVENT permet de disposer de suffisamment de données au sein de l’outil. Il a été choisi de l’utiliser pour différentes raisons: exhaustivité, transparence, adaptabilité.

Adapter les données au contexte belge

Afin d’assurer la représentativité géographique du contexte belge, des opérations sont effectuées sur les données reprises dans EcoInvent. En particulier :

  • Les données sont adaptées aux spécificités de notre territoire tel qu’il est aujourd’hui : un mix énergétique donné, des filières de traitement des déchets plus ou moins développées, etc…
  • Lorsque plusieurs processus sont décrits pour un même composant, la préférence est donnée à ceux représentatifs de l’Europe occidentale.
  • Lorsqu’aucun processus d’Europe occidentale n’est disponible dans la base de données, les données disponibles sont adaptées en remplaçant les flux d’énergie, les flux d’eau et le traitement des matériaux en fin de vie. Ces adaptations ne concernent que les flux inclus dans la production du produit analysé, et non ceux liés aux processus sous-jacents (par exemple, la production de matières premières utilisées dans le processus de production).
  • Pour les matières premières dont le taux d’importation est très important, des scénarios spécifiques ont été établis pour le transport des matières premières vers la Belgique. Sur la base de ces scénarios, des processus spécifiques peuvent être créés pour les versions importées de ces produits. C’est le cas par exemple pour plaques de pierre bleue en provenance d’Asie.
Dans le cadre de l’étude MMG, il a été examiné si le pourcentage de matières premières secondaires adopté par défaut dans les processus EcoInvent diffère de la pratique belge. L’exercice a été fait pour un nombre limité de produits contenant une matières premières secondaires (acier, laine de verre, verre cellulaire, cellulose, MDF, OSB, béton et autres), Il a également été vérifié si les limites du système et les règles d’allocation pour le recyclage et les coproduits appliquées dans les données d’EcoInvent sont cohérentes avec les principes de la norme EN 15804. Résultat ? des divergences ont été pointées, et des processus de traitement des données d’EcoInvent adaptés.

Par exemple, dans la base de données EcoInvent, le béton est produit à partir de ciment CEM I. En Belgique, cependant, le ciment de four (CEM III A) est couramment utilisé pour le béton coulé. Par conséquent, le processus standard EcoInvent a été modifié pour remplacer le CEM I pour 10% par le CEM III B et pour 55% par le CEM III A23.


Les données spécifiques : B-EPD

EPD est l’abréviation de « Environmental Product Declaration » (déclaration environnementale de produit). Le « B » fait référence à la Belgique. Une B-EPD est donc une EPD conforme aux principes généraux du programme B-EPD du SPF Santé.

Depuis octobre 2020, Totem intègre dans sa bibliothèque des composants établis sur base des déclarations environnementales de produits des fabricants. Les composants enregistrés dans la bibliothèque TOTEM sur base d’une déclaration environnementale sont appelés composants spécifiques.

Une EPD est réalisée à l’initiative d’un fabricant de matériaux ou d’un groupement de fabricants. Elle contient des informations quantifiées sur les impacts environnementaux des produits de construction basées sur une analyse du cycle de vie. Plusieurs fois par an, Totem enrichit sa base de données de nouvelles EPD. Au moment d’écrire cet article (mars 2024) la base de données EPD des autorités fédérales belges renseignent 144 produits de construction. C’est encore une jeune base de données puisque le programme B-EPD a pris son envol en 2019.

En tant qu’opérateur du programme, le SPF Santé se base sur la norme NBN EN ISO 14025 et EN 15804. Ces normes européennes fournissent un cadre afin que les EPD des produits, des services et des processus de construction soient calculées, vérifiées et présentées de façon harmonisées. Les B-EPD contiennent entre 20 et 30 pages d’informations sur le produit, le processus de fabrication, le ou les fabricants, ainsi que les hypothèses et les résultats de l’étude ACV. La base de données B-EPD est consultable par le grand public, via le portail du SPF Santé.


Exemple de l’EPD d’une poutre en bois lamellé-collé

Les partenaires du projet européen ProFilWood (Fibois, Hout Info Bois, OEWB…) ont souhaité développer, en collaboration avec les entreprises, des EPD collectives afin de mesurer plus précisément les impacts environnementaux des produits en bois destinés à la construction, dans le but d’introduire ces données dans l’outil TOTEM afin d’affiner les informations sur ces éléments à base de bois. Cette EPD évalue le cycle de vie des poutres en bois lamellé-collé « du berceau à la tombe ». Elle est collective et se base sur les données de production de 4 fabricants belges. le propriétaire de cette EPD est l’Office économique Wallon du Bois.

Au-delà des données collectées et déclarées par l’EPD, lorsque celle-ci est richement documentée, elle donne à voir les processus de fabrication des produits de construction concernés. A titre d’exemple, le schéma ci-dessous – extrait de l’EPD – synthétise le processus de production du produit de façon détaillée :

 

Lien entre performance énergétique et performance environnementale

Si la notion de PEB (Performance énergétique des Bâtiments) est largement connue, celle de performance environnementale appliquée au bâtiment l’est beaucoup moins. Est-ce un nouveau concept qui vient se rajouter à celui de la PEB ou est-ce celle-ci qui se met au vert? Bref, comment définit-on la performance environnementale du bâtiment ? C’est à cette question que cet article tente de répondre.


Théoriquement, une bascule entre impacts

La performance énergétique des bâtiments n’est pas sans lien avec la performance environnementale car elle (la PEB) a notamment un impact significatif sur les émissions de gaz à effet de serre, la consommation des ressources naturelles et la qualité de l’environnement.

Avec le renforcement des normes de la PEB au fil du temps, l’énergie primaire mobilisée pour les besoins fonctionnels du bâtiment pendant la phase d’occupation tend à diminuer. Une performance énergétique améliorée signifie a priori une utilisation plus rationnelle des ressources. Cela peut réduire par exemple la demande en combustibles fossiles et en électricité. L’amélioration de la performance énergétique contribue en ce sens à réduire l’impact environnemental du bâtiment.

Mais atteindre une haute performance énergétique implique de mettre en œuvre des matériaux et systèmes qui ont un impact environnemental propre, lié à leur production et fin de vie, qui peut :

  • Soit présenter un « coût » environnemental s’il s’agit de matière que l’on aurait pas mis en œuvre sans cet objectif de performance énergétique (le Xème centimètre d’isolant).
  • Soit présenter un coût initial différent de celui de la solution de référence (une pompe à chaleur à la place d’une chaudière par exemple).

Schématiquement, on va observer un glissement au fil des améliorations de performance énergétique : une part de la réduction d’impact lors de l’usage du bâtiment va être annulée par une augmentation d’impact lors des phases de production, construction et fin de vie. Une bascule s’opère donc entre le poids environnemental lié aux besoins énergétiques du bâtiment et le poids environnemental lié aux matériaux.

Toute la question est de savoir si ce glissement compense, voire annule, le bénéfice de la performance énergétique. L’avènement de l’outil Totem s’inscrit dans ce questionnement. Il devient essentiel de prendre en compte à la fois les aspects liés à la performance énergétique des bâtiments et à l’impact environnemental associé aux matériaux mis en œuvre dans un bâtiment afin de concevoir des bâtiments plus durables et respectueux de l’environnement.


En pratique, c’est moins clair

La bascule décrite au point précédent se voit-elle dans la réalité ? Pas si sûr…

Un review publié en 2016 a regroupé les résultats d’analyses de cycle de vie de 90 bâtiments résidentiels. Si les auteurs identifient bien une tendance à l’augmentation de l’énergie « embarquée » lorsque l’on va vers plus de performance énergétique, les chiffres montrent en fait une très large variabilité dans la part relative des impacts « in use » et « embodied » pour tous type de bâtiment. Cela indique que ce qui fait l’impact environnemental des bâtiments tient plus aux choix de construction qu’au niveau de performance énergétique.

Part relative de l’énergie embarquée (EE) et opérative (OE) dans les analyses de cycle de vie de 90 bâtiments résidentiels.((Chastas, P., Theodosiou, T. et Bikas, D. (2016) Embodied energy in residential buildings-towards the nearly zero energy building: A literature review, Building and Environment Volume 105, 15 August 2016, Pages 267-282))

Globalement, les études disponible donnent la tendance suivante((Voir par exemple : Ayşegül Demir Dilsiz et al. (2019) Embodied versus operational energy in residential and commercial buildings: where should we focus? J. Phys.: Conf. Ser. 1343 012178)) :

  • Il y a une corrélation entre augmentation de la performance énergétique et augmentation de la part « embarquée » dans l’impact environnemental global : c’est logique, si on consomme moins, la partie liée aux matériaux sera relativement plus lourde
  • Il n’y a pas d’augmentation de l’impact global liée à une tendance à l’amélioration de la performance énergétique : le choix d’aller vers plus de performance n’est pas contrebalancé par l’impact des matériaux mis en œuvre
  • Il y a une très grande variabilité d’impact global, pour tout niveau de performance énergétique, et cette variabilité a tendance à augmenter pour les bâtiment les plus performants : les choix de modes constructifs sont toujours importants, et encore plus lorsque leur poids dans le bilan global augmente.

En conséquence, l’évaluation environnementale global est un sujet de plus en plus brulant, mais pas une remise en cause fondamentale des efforts faits ces dernières années.


Et à l’échelle d’une paroi ?

Le score agrégé de performance environnementale obtenu en millipoints dans le logiciel Totem peut être présenté de différentes façons, notamment via un graphique dissociant l’impact des matériaux et celui de l’énergie . Ce graphique permet à l’utilisateur d’évaluer l’importance relative de l’impact des matériaux (en rouge) et de l’impact énergétique (en vert).

Mais de quelle énergie est-il question ? Etant donné que l’impact des matériaux prend également en compte des aspects énergétiques comme l’énergie utilisées lors du processus de fabrication des ressources premières, lors du transport, pendant le chantier, quelques clarifications s’imposent : Dans le logiciel TOTEM, le calcul lié aux consommations énergétiques correspond uniquement à la phase d’utilisation du bâtiment (B6) et ne concerne donc qu’une seule phase du cycle de vie. Les autres consommations énergétiques comme l’énergie dite grise apparaît dans le score « matériaux ». Lea consommation durant la phase d’utilisation est calculée sur base de la consommation d’énergie pour le chauffage liée aux pertes de transmission en recourant la méthode des degrés-jours équivalents.

Que faire de ce genre de chiffres ? Prenons l’exemple d’un mur creux avec deux niveaux d’isolation en PUR différents (U=0,14W/m2K ou U=0,24W/m2K). On constate que :

  • L’impact environnemental des matériaux augmente lorsque l’on ajoute de l’isolant
  • L’impact environnemental de l' »énergie lors de la phase d’usage diminue lorsqu’on ajoute de l’isolant
  • Dans ce cas-ci, l’impact global est constant

Dans le second exemple ci-dessous, il s’agit également d’un mur creux avec deux niveaux d’isolation en PUR différents, mais cette fois sur base de laine minérale (U=0,15W/m2K ou U=0,24W/m2K). On constate cette fois que l’impact global est réduit lorsque l’isolation augmente :


Vers une réglementation intégrée ?

Le cadre actuel de la PEB se limite à des exigences en énergie primaire. Cela va changer. Les autorités européenne ont définitivement approuvé un texte imposant l’intégration d’exigence tenant compte des émissions de carbone des bâtiment sur l’ensemble de leur cycle de vie.

« Étant donné que les bâtiments donnent lieu à des émissions de gaz à effet de serre avant et après leur durée de vie utile, les États membres devraient également tenir compte des émissions de carbone sur l’ensemble de leur cycle de vie. »((Directive du 13 septembre 2023 relative à l’efficacité énergétique (EU/2023/1791))

Il est évidemment trop tôt pour décrire la façon dont cette exigence se traduira sur le terrain, mais on peut déjà avancer que :

  • Vu que TOTEM intègre dans son évaluation une approche « cycle de vie » et des indicateurs liés aux émissions de carbone équivalent, c’est l’outil naturel pour la mise en place de cette exigence en Belgique.
  • Il est impossible à ce stade de déterminer des seuils d’émission de carbone à viser. Il faut donc s’attendre à un effort intense de benchmarking dans les années qui viennent, pour déterminer le bilan carbone des pratiques actuelles et fixer ces seuils.
  • Si les textes européens imposent un bilan carbone, ils ne disent rien des autres impacts environnementaux. Or, TOTEM travaille avec un indicateur unique agrégeant de multiples impact. Faudra-t-il détricoter cet indicateur unique ? Y adjoindre un indicateur « carbone » ? Time will tell. En tout état de cause, il y a une forte corrélation entre un score global et un bilan carbone, vu le poids important des indicateurs liés au changement climatique dans le score agrégé. Pour s’en convaincre, le graphique ci-dessous établi une courbe de tendance entre le score agrégé et le total des émissions de CO2 équivalente pour les toitures reprises dans la bibliothèque de TOTEM (version été 2023). On voit bien que la corrélation des assez forte., mais pas parfaite.
Corrélation entre le score environnemental agrégé et les émissions de CO2 équivalent, pour les toitures inclues dans la bibliothèque d’éléments de TOTEM en 2023

Du matériau au bâtiment

Différents niveaux d’analyse

Plusieurs niveaux d’analyse sont nécessaires pour une évaluation environnementale. Ces différents niveaux suivent une structure hiérarchique. Faisons un parallèle : les lettres de l’alphabet sont les plus petites parties élémentaires du langage écrit, et peuvent être assemblées en mots, ces derniers formant des phrases ; dans TOTEM les matériaux constituent l’alphabet, combinables en composants, eux-mêmes à la base de complexes de parois appelés élément, qui ensemble constituent le bâtiment.

TOTEM est donc construit selon une structure hiérarchique distinguant quatre niveaux d’analyse détaillés ci-dessous. Parmi ces niveaux, seuls les plus élevés, à savoir les éléments et les bâtiments permettent donc une comparaison de leur score environnemental.


Les matériaux

Les matériaux constituent le niveau hiérarchique de base et servent à alimenter les niveaux supérieurs. TOTEM ne score ni ne documente les matériaux pris individuellement. L’idée est que l’impact d’un matériau ne peut être isolé de son conditionnement (emballage) et de sa mise en œuvre (assemblage), considérés au niveau du composant. Dans cette logique, il n’est pas possible d’afficher le score de l’impact environnemental pour ce niveaux hiérarchique dans TOTEM, bien qu’il soit pris en compte dans les scores affiché aux niveaux hiérarchiques supérieurs.

La couche matériaux n’est en conséquence pas directement visible dans TOTEM. Les données liées peuvent par contre être obtenue indirectement, en passant par le niveau supérieur des composants. Dans une certaine mesure, dans le cadre d’un projet et donc dans le cas d’une modélisation, il est possible d’apporter des modifications aux niveau des constituants du composant que sont les matériaux.

Ce niveau hiérarchique de base n’a donc clairement pas (à ce stade ?) vocation à être manipulé par l’utilisateur.


Les composants

Les composants sont essentiellement des « matériaux mis en œuvre » : chaque composant peut être constitué de plusieurs matériaux et/ou inclure une fixation. Ces matériaux conditionnés et mis en œuvre constituent le premier niveau hiérarchique aisément accessible par l’utilisateur de TOTEM.

Dans la bibliothèque des composants de TOTEM, deux types peuvent être trouvés :

  • des composants génériques qui ne sont pas liés à une certaine marque. Ces composants génériques sont représentatifs des composants utilisés en Belgique pour la construction d’immeubles d’habitation et de bureaux. Les données relatives à ces composants génériques proviennent de la base de données EcoInvent, une base de données suisse couramment utilisée dans le monde scientifique. Ces données sont générées en rassemblant les données (disponibles) de divers fabricants et donnent une indication de l’impact « moyen » d’un matériau de construction.
  • des composants spécifiques pour lesquels une déclaration environnementale de produit (EPD) existe. Il s’agit de données exclusives des fabricants belges de matériaux de construction qui ont été objectivement déclarées sous la forme d’une déclaration environnementale de produit (B-EPD) dans la base de données fédérale. Pour ces composants spécifiques, TOTEM renvoie vers l’EPD concernée.

Si vous voulez en savoir plus sur la base de données EcoInvent et les déclaration environnementales de produits, nous vous invitons à regarder les deux videos ci-dessous :


Les éléments

Les éléments sont un assemblage de différents composants, eux-mêmes combinant plusieurs matériaux. Les éléments sont typiquement des parois intérieures ou extérieures, mais aussi, de plus en plus, des systèmes techniques tels qu’une installation de chauffage central.

La base de données des éléments est accessible au public dans TOTEM et les utilisateurs sont autorisés à modifier certains paramètres de ces derniers. Typiquement, l’épaisseur d’une paroi, ou le détail des composants la constituant sont éditables. C’est une différence majeure entre les composants et les éléments, car la bibliothèque des composants n’est accessible qu’en lecture seule.


Le bâtiment

Dernier niveau hiérarchique, le bâtiment est constitué d’un certain nombre d’éléments (tels que les sols, les murs extérieurs ou intérieurs, les installations techniques, etc.).

L’introduction de cette échelle permet de réaliser une analyse de performance environnementale à une échelle qui concerne le concepteur. La démarche de minimisation d’impact ne se limite en effet pas à choisir la paroi « la moins impactante », mais aussi à réfléchir à la conception plus globalement. Par exemple en maintenant des parois existantes ou en travaillant à limiter les surfaces de parois à construire.

L’échelle du bâtiment permet ces analyse en évaluant le score environnemental cumulé de l’ensemble des éléments et en le ramenant à une unité comparable entre bâtiment, à savoir le m2 plancher.

L’approche est trop récente aujourd’hui, mais à terme des benchmarks de projets devraient permettre de définir des performances de référence pour différents types de bâtiment, et éventuellement sur cette base fixer des objectifs réglementaires.


Unité fonctionnelle (UF)

L’utilisation d’unités fonctionnelles standardisées simplifie la comparaison et l’évaluation de la performance environnementale des bâtiments, et ce indépendamment de la taille ou du type de bâtiment.

L’unité fonctionnelle (UF) est l’unité de mesure utilisée pour évaluer un élément de construction. De la même manière que pour comparer le prix de deux fruits en ramenant les prix au kilo, pour comparer les impacts environnementaux de deux éléments, on ramènera les impacts à une unité de mesure commune. Le choix de l’UF est importante car elle doit permettre de comparer les choses de manière complète et objective.

Dans le bâtiment, il s’agira souvent d’une unité exprimée en surface (un mètre carré de paroi ou de bâtiment), mais cela ne se limite pas à la dimension. La fixation d’hypothèses de durées de vie de composants, définissant un rythme de remplacement, et la définition de conditions d’ambiance intérieure, permettant de calculer l’impact d’un élément sur la consommation de chauffage, sont nécessaires pour réaliser une analyse rigoureuse. C’est tout l’intérêt d’un outil tel que TOTEM de proposer, dans une interface simple, le cadre méthodologique permettant ces analyses.

Pourquoi l’Unité Fonctionnelle est importante?

  • Comparaison objective: En utilisant une unité fonctionnelle commune (m² de mur dans cet exemple), vous pouvez comparer objectivement des options qui semblent très différentes.
  • Décisions éclairées: Cela vous permet de prendre des décisions basées sur des données quantifiables et objectives concernant la durabilité des options de construction.
  • Adaptabilité: La flexibilité de l’UF permet de prendre en compte des facteurs variés, tels que la durée de vie et l’impact sur la consommation d’énergie, ce qui rend l’analyse plus complète.

En résumé, l’utilisation d’une unité fonctionnelle standardisée, comme dans l’outil TOTEM, permet aux professionnels du bâtiment de prendre des décisions plus éclairées et durables concernant leurs projets, en s’assurant que les comparaisons entre différents éléments de construction sont justes et significatives.

Indicateurs d’impacts environnementaux

L’impact environnemental est évalué au travers d’une multiplicité d’indicateurs, que l’on peut rassembler en dix familles. Nous donnons ci-dessous quelques éléments d’explication pour chacune.  Si vous voulez en savoir plus sur les choix d’indicateurs, nous vous conseillons la video suivante :

Potentiel de réchauffement climatique

Trois sous-indicateurs sont utilisés pour caractériser l’impact d’un composant sur le changement climatique, exprimé en kgCO2 équivalent. On y parle de Potentiel de Réchauffement Global (PRG) lié à différentes formes d’émissions. Ces trois sous-indicateurs sont ensuite agrégés en un potentiel global.

Le potentiel de réchauffement global-fossile / PRG-fossile

Cet indicateur d’impact tient compte du potentiel de réchauffement dû aux émissions et aux gaz à effet de serre (GES) vers tout milieu provenant de l’oxydation et/ou de la réduction des combustibles fossiles ou de matériaux contenant du carbone fossile au moyen de leur transformation ou leur dégradation (par exemple, combustion, incinération, mise en décharge, etc…).

Le potentiel de réchauffement global biogénique / PRG-biogénique

Le potentiel de réchauffement global lié aux émissions de carbone (équivalent) dans l’air (C02, CO, CH4) provenant de l’oxydation et/ou de la réduction de la biomasse de surface par sa transformation ou sa dégradation (par exemple combustion, digestion, compostage, mise en décharge ) et l’absorption de CO2 de l’atmosphère par photosynthèse pendant la croissance de la biomasse. Cet indicateur tient compte du PRG dû à la séquestration et aux émissions provenant de la biomasse de toute origine à l’exception des forêts naturelles.

La question de la prise en compte du carbone biogénique dans Totem est souvent posée.

Le potentiel de réchauffement global par transformation de l’occupation des sols / PRG-luluc

Cette sous-catégorie concerne le potentiel de réchauffement global lié aux absorptions et aux émissions de carbone dus aux variations des stocks de carbone causés par la transformation de l’occupation des sols. Des variations dans la gestion des sols peuvent avoir une influence persistante sur les stocks de carbone pendant des décennies. des changements d’affectation des sols comme le défrichement, peuvent donner lieu à de grandes émissions spontanées.

Le potentiel de réchauffement (climatique) global /  PRG-total

Cet indicateur prend en compte  l’augmentation de la concentration atmosphérique moyenne de diverses substances d’origine anthropique ( CO², CH4, CFC,…) que l’on nomme communément les émissions de gaz à effets de serre (CO2, HFC, CH4, …) qui conduisent au réchauffement climatique.

Cet impact est déclarée en tant que Potentiel de Réchauffement Global. Ce PRG-total est la somme des PRG-fossile, PRG-biogénique et PRG-luluc.


Appauvrissement de la couche d’ozone

Cet indicateur prend en compte les émissions dans l’air (CFC, HCFC, halons, …) qui contribuent au « trou dans la couche d’ozone ». Il est exprimé en kgCFC11 équivalent (kilo trichlorofluorométhane équivalent).

La destruction de l’ozone est causée par des réactions complexes entre l’ozone stratosphérique et des composés tels que les chlorofluorocarbure (CFC), les gaz contenant du brome (les halons), les solvants chlorés. les CFC, composés chimiques d’origine humaine, sont des dérivés chlorés et fluorés d’hydrocarbures que l’on retrouve notamment dans les produits suivants: (agents de climatisation dans les climatiseurs, agent gonflant dans certaines mousses rigides, isolants, … Ces composés contribuent à deux mécanismes de pollution bien connus, le premier concerne cet indicateur, il s’agit donc de la destruction de la couche d’ozone. Le second mécanisme de pollution impliqué est celui se rapportant à l’indicateur précédent: l’effet de serre.

L’amenuisement de la couche d’ozone se traduit entre autre par une réduction de la filtration naturelle des rayonnements ultraviolets moins efficace, menant à une augmentation des cancers de la peau, et impactant la flore et de la faune sous-marine.


Acidification des sols et de l’eau

Cet indicateur porte sur l’évaluation des émissions dans l’atmosphère de composés susceptibles de se transformer en acides (ex : acide sulfurique, acide nitrique). Il est évalué en mol H+ équivalent (mole d’ions H+ équivalents).

Lorsque présents dans l’atmosphère, ceux-ci peuvent être lessivés par les précipitations (pluies acides) et se retrouver dans les eaux de ruissellement, de surface et dans le sol. Cette acidification engendre la dégradation des milieux et conduit à des impacts sur la faune (mort de poissons, …) et la flore (dépérissement de la végétation).


Eutrophisation

Cet indicateur prend en compte les émissions dans l’air et dans l’eau des substances qui causent des excès d’éléments nutritifs dans les lacs, rivières et les océans. Il se décompose en trois sous-indicateurs mesurés en kg P eq. (pour l’eau douce), kg N eq. (pour l’eau de mer) et mol N eq. (pour les sols).

L’eutrophisation a pour conséquence notamment le développement anarchique d’algues dans les plan d’eau, empêchant ensuite le développement normal de la biodiversité.


Formation d’ozone photochimique

Cet indicateur prend en compte les émissions dans l’air de substances qui conduisent à la production d’ozone troposphérique (ozone bas, smog d’été). Il se mesure en kg NMVOC eq. (kg éthylène équivalent).


Épuisement des ressources abiotiques

Deux types d’épuisement des ressources sont considérées :

Épuisement des ressources abiotiques non fossiles

Cet indicateur prend en compte l’épuisement des matières premières minérales (minerais métalliques tels que Fer, Cuivre, Plomb, Zinc, …). Il se mesure en kg Sb eq. (kg antimoine équivalent).

Épuisement des ressources abiotiques combustibles fossiles

Cet indicateur prend en compte l’épuisement des combustibles fossiles (gaz, pétrole, charbon, …). Il se mesure en MJ (Méga Joule).


Épuisement des ressources en eau

Cet indicateur prend en compte la consommation des ressources en eau douce. Il se mesure en m³ de privation équivalente mondiale.


Particules fines

Cet indicateur prend en compte les émissions dans l’air de fines particules solides (poussières), générant des maladies cardiaques et pulmonaires chez l’humain. Il se mesure en DALY (Disability Adjusted Life Years). Cela correspond à une estimation des années de vie perdues par une mort prématurée ou vécues avec un handicap).


Rayonnement ionisant – effets sur la santé humaine

Cet indicateur prend en compte les émissions de rayonnements ionisants (radioactifs) pouvant entrainer des lésions cellulaires. Il se mesure en DALY (Disability Adjusted Life Years). Cela correspond à une estimation des années de vie perdues par une mort prématurée ou vécues avec un handicap).


Ecotoxicité pour les écosystèmes aquatiques d’eau douce

Cet indicateur prend en compte les émissions de substances pouvant causer des dommages aux organismes vivants dans les eaux douces, telles que les composés halogènes organiques, métaux lourds, PCB, dichlorobenzène (DB) et hydrocarbures polycycliques (PAH). Il se mesure en CTUe (Comparative Toxic Unit equivalent).


Toxicité humaine

Deux sous-indicateurs sont utilisés pour établir la toxicité humaine, selon que les effets soient cancérigènes ou non.

Cet indicateur prend en compte les émissions dans l’air et l’eau, de substances (composés halogènes organiques, métaux lourds, PCB, dichlorobenzène (DB), hydrocarbures polycycliques (PAH), pouvant causer des dommages (cancérigènes ou non) aux organismes vivants, et à l’humain plus particulièrement. Il se mesure en CTUh (Comparative Toxic Unit for human).


Occupation et transformation du sol

Il s’agit d’un indicateur adimensionnel combinant deux types d’impacts, pour deux type d’action: l’occupation du sol, et la transformation de celui-ci.

Matière organique du sol


Ce sous-indicateur prend en compte l’occupation et les changements d’affectation du sol (terres arables et milieux urbains) dans le temps. Cela a des implications significatives sur la qualité des écosystèmes (perte de biodiversité), des paysages et de l’environnement (variation de la matière organique du sol, érosion, filtration des eaux de pluie, valeurs foncière, production alimentaire, …). Il se mesure en Déficit en kg C.

Biodiversité


Ce sous-indicateur mesure le risque de perte de biodiversité lié à des changement d’affectation du sol, en quantifiant la perte de territoires favorable à la biodiversité.. Il se mesure en m² x an.


Agrégation en millipoints

Schéma © Architecture et Climat (UCLouvain).

Afin de faciliter la comparaison entre variantes, les différents impacts environnementaux considérés dans TOTEM sont agrégés en un score unique, exprimé en millipoints par unité fonctionnelle (m2, m ou unité pour un élément, m2 de plancher pour un bâtiment).
Plus ce score est élevé, plus les impacts environnementaux sont importants.

Avant juillet 2021, cette agrégation se faisant par un système dit de « monétarisation ». Tous les impacts environnementaux étaient convertis en euros, sur base d’une évaluation du coût de réparation du dommage environnemental causé. Depuis juillet 2021, l’agrégation se fait par une méthode appelée PEF (Product Environmental Footprint) qui est harmonisée au niveau européen. Le score agrégé est maintenant exprimé en millipoint (d’impact par habitant mondial). Cette méthodologie a été choisie afin d’harmoniser la méthode TOTEM avec les recommandations européennes.

Le millipoint est une unité adimentionnelle obtenue suite à ces deux étapes :

  • La normalisation : division du score de chaque indicateur environnemental (chacun dans sa propre unité) par l’impact par habitant mondial moyen pour ce même indicateur environnemental (dans la même unité)
  • La pondération : chaque score normalisé est multiplié par un facteur de pondération qui exprime l’importance relative de chaque indicateur et corrigé par la robustesse de cet impact. (si un indicateur présente beaucoup d’impact ou que la méthodologie évolue encore énormément, la correction va diminué le poids attribué à cet indicateur (échelle de 0.1 à 1)

Si vous souhaitez en savoir plus sur ces questions, nous vous invitons à visionner la vidéo suivante :

 

Analyse du cycle de vie

L’Analyse du Cycle de Vie (ACV): est une méthode scientifique d’évaluation globale des impacts environnementaux, multicritère et multi-étapes. Cette méthode normalisée permet d’évaluer quantitativement les effets de produits ou de services sur l’environnement.

  • Multicritère car elle intègre tout un spectre d’indicateurs environnementaux.
  • Multi-étapes car elle prend en compte les différentes étapes du cycle de vie. L’ACV est à ce titre souvent qualifié de méthode « du berceau à la tombe ».

Une question de flux

Une ACV se fonde sur plusieurs critères d’analyse des flux entrants et sortants. On appelle « flux » tout ce qui entre dans la fabrication du produit et tout ce qui sort en matière de pollution. Parmi les flux entrants, on trouve, par exemple, ceux des matières et de l’énergie : ressources en fer, eau, pétrole, gaz. Quant aux flux sortants, ils peuvent correspondre aux déchets, émissions gazeuses, liquide rejeté, etc.

La collecte des informations relatives aux flux est une étape importante de l’ACV. Ils sont quantifiés à chaque étape du cycle et correspondent à des indicateurs d’impacts potentiels sur l’environnement. La complexité des phénomènes en jeu et de leurs interactions est une source d’incertitude sur la valeur réelle des impacts, c’est pourquoi on les qualifie de « potentiels ».((https://expertises.ademe.fr/economie-circulaire/consommer-autrement/passer-a-laction/dossier/lanalyse-cycle-vie/quest-lacv))

 


L’ACV selon les normes ISO

La méthode d’analyse du cycle de vie s’articule autour de quatre étapes. Celles-ci sont à la fois distinctes et interdépendantes, car tout au long de l’étude de fréquents retours sont nécessaires, ce qui rend la démarche générale itérative. Ces 4 étapes de l’ACV sont définies par les normes ISO 14040 et ISO 14044.

Étape 1: Définition des objectifs et du champs d’étude

Cette étape consiste à définir quels sont les objectifs de l’ACV, en précisant la destination de l’étude (par ex, déclaration environnementale), mais également les frontières du système et les limites de l’étude, l’unité fonctionnelle, la qualité des données, les incertitudes acceptées, etc. Cette étape est essentielle car les résultats de l’étude y font forcément référence.

Étape 2: Analyse de l’inventaire:

L’analyse de l’inventaire (ICV) est –selon la norme ISO 14040– la phase de l’ACV impliquant la compilation et la quantification des intrants et des extrants d’un produit ou d’un système de produits sur l’ensemble de leur cycle de vie. Cette étape consiste donc à dresser l’inventaire et à quantifier les flux de matières et d’énergies entrants (intrants énergétiques, intrants de matières premières, intrants auxiliaires) et sortants (les produits, co-produits et déchets relatifs au produit « final » considéré, les émissions polluantes dans l’air, l’eau et le sol), associés aux différentes étapes du cycle de vie du produit. L’ICV est donc une comptabilité analytique des flux entrants et sortants.

L’inventaire proprement dit inclut :

  • la récolte des données proprement dite, qui est une phase souvent longue et fastidieuse ;
  • la description du mode de calcul permettant de quantifier les intrants et les sortants pertinents d’un produit.

La réalisation d’un inventaire est un processus itératif puisque le produit est d’autant mieux connu que les données sont recueillies ; cela amène généralement de nouvelles exigences ou des limitations sur ces données engendrant parfois un changement de mode de récolte de ces données, en accord avec les objectifs et le champ de l’étude (phase 1 d’une ACV). Dans certains cas, la phase de récolte des données amène à revoir les objectifs et le champ de l’étude.

Étape 3: Évaluation des impacts:

Les données sur les intrants et les extrants sont traduites en indicateurs environnementaux, en termes d’impacts potentiels sur l’environnement, sur la santé humaine, ou sur la disponibilité des ressources. Cette quantification est généralement réalisée à l’aide de logiciels dédiés qui utilisent des méthodes reconnues et validées.

Totem se base pour l’analyse d’impact sur une liste de 19 indicateurs environnementaux, repris des recommandations européennes.

Étape 4: Interprétation

Cette étape est itérative avec les trois précédentes, de manière à toujours valider que les résultats obtenus répondent aux objectifs de l’étude (par exemple, il arrive que la non-disponibilité de certaines données puisse conduire, en cours d’étude, à restreindre le champ de l’étude). C’est également ici que l’on évaluera la robustesse des résultats.


Les différentes phases du cycle de vie (dans TOTEM)

Dans les normes européennes, le cycle de vie d’un bâtiment est divisé en plusieurs étapes, chacune ayant des limites clairement définies. La règle de base est qu’un impact est attribué à l’étape dans laquelle il se produit. Cinq étapes composent le cycle de vie d’un produit. Chacune se subdivise en sous-partie, appelées « modules ».

La phase de production

Cette phase couvre toutes les étapes en amont du chantier. Elle porte donc sur l’extraction des matières premières ou composants entrant dans la fabrication du produit étudié (module A1), leur transport (module A2) et la fabrication du produit proprement dit (module A3).

La phase de construction

Il s’agit de l’opération la plus visible pour le concepteur ou maître d’ouvrage : la phase de chantier proprement dit (module A5), mais également le transport des marchandises entre le lieur de fabrication et le chantier (module A4)

La phase d’utilisation

Cette phase, en général très lourde dans le bilan global d’un bâtiment, couvre les multiples impacts liés à l’utilisation d’un bâtiment. On distingue dans totem :

  • deux modules liés à l’usure des composants, à savoir les opérations de maintenance régulière (B2) et de remplacement (B4)
  • deux modules liés aux consommations associées, en termes d’utilisation d’énergie (module B6) et d’eau (module B7).

Totem ne considère pas les modules B1 (usage d’énergie) et B3 (réparation), faute de données disponibles.

La phase de fin de vie

La fin de vie est divisée en quatre modules chronologiques, à savoir : la déconstruction (module C1), le transport (module C2), le traitement des déchets (module C3) et leur élimination (module C4).

Deux difficultés majeures se posent à ces étapes :

  • comment faire des hypothèses solides sur des opérations de traitement telles qu’elles se pratiqueront dans plusieurs décennies ?
  • comment intégrer une transition du secteur de la construction vers plus de réemploi ? Si mathématique il « suffit » d’identifier une fraction de matériaux et composants qui sortiront du système avec les modules C .. bonne chance pour faire des hypothèses sur les pratiques de réemploi dans 50 ou 60 ans !

Les informations supplémentaires, au-delà du cycle de vie du bâtiment

Pour aider à répondre aux deux questions ci-dessous, le module D vient compléter les informations précédentes de données sur par exemple les possibilités de réemploi ou de recyclage des composants. Des informations utiles, mais qui reflètent un potentiel plus qu’un impact, ce qui justifie le caractère « informatif » de ces modules.


Intégrer la circularité dans l’ACV

A l’évidence, l’incertitude pesant sur la fin de vie des composants a un impact sur une analyse de cycle de vie. Bien qu’il faille relativiser cet impact (quelques pourcents environ du bilan global), l’effort de transition vers une économie plus circulaire nécessite que l’on s’y arrète un moment.

A ce jour, il est d’ores et déjà possible de tenir compte dans TOTEM du fait que l’on choisit de faire recours à des produits issus de réemploi. Dans ce cas, les modules A (liés à l’extraction et transformation de ressources primaires) et éventuellement B1 (si l’élément remployé est déjà sur le site du projet) seront négligés.

Il n’est par contre pas encore possible de valoriser la mise en œuvre d’élément qui ont un potentiel de réemploi à terme. Pourquoi ? Parce que la fin de vie est, à l’heure actuelle, décrite sur base des processus existants de recyclage, valorisation ou traitement de déchets. Or, faute de filières de réemploi développées, il est impossible aujourd’hui de traduire celles-ci en processus rigoureusement décrits. Très probablement, cela évoluera progressivement avec le développement de ces filières.

Plus largement, la question du réemploi illustre une limite intrinsque des méthodes ACV appliquées au secteur du bâtiment : la nécessité de faire aujourd’hui des hypothèses à long terme dans une industrie et un contexte qui sont amenés à changer en profondeur sur un espace de temps inférieur à la durée des analyses…

Pour approfondir votre compréhension sur l’application des principes de l’économie circulaire au sein de Totem, nous vous recommandons de visionner la vidéo proposée ci-dessous :

Si vous voulez en savoir plus le les hypothèses de calcul faites dans TOTEM, nous vous invitons à consulter la vidéo suivante :

TOTEM – Les notions clés en 5 minutes

 

Qu’est-ce que TOTEM ?

TOTEM est un outil belge en ligne commun aux trois régions qui permet aux acteurs de la construction d’évaluer l’impact environnemental des bâtiments et des éléments de construction sur l’ensemble du cycle de vie du bâtiment. son nom est l’acronyme de « Tool to Optimize the Total Environmental impact of Materials ».

TOTEM est donc avant tout un outil d’aide à la décision, qui peut être utilisé à toutes les étapes d’un projet. Il fournit des scores environnementaux pour un projet dans son ensemble ou pour l’un des éléments/techniques/ matériaux utilisés. Ces scores sont calculés sur base de 19 indicateurs, qui couvrent l’ensemble du cycle de vie. TOTEM permet donc de comparer différents scénarios de construction ou de rénovation, de démolition ou de réemploi.

L’objectif est d’optimiser les choix architecturaux et de construction pour aller vers une réduction de l’impact environnemental. L’outil a également pour objectif de promouvoir les connaissances et la compréhension en matière de performance environnementale des bâtiments et de faciliter le dialogue au sein du secteur de la construction.

Rentrer dans l’outil TOTEM, c’est un peu comme un jeu de poupées russes; chaque notion en appelle une autre. L’outil en ligne est généreusement documenté. Le but de cet article n’est donc pas de retranscrire littéralement ce qui se trouve dans la documentation mais bien de donner une vision d’ensemble synthétique des notions phares. Les schémas ci-dessous sont les illustrations emblématique de TOTEM, que l’on retrouvent dans les nombreuses publications relatives à l’outil. Chaque schéma contient un hyperlien développant les notions illustrées. Si vous souhaitez approfondir le sujet, n’hésitez pas à cliquer dessus.

Et si vous voulez en savoir plus sur le « bon usage » de TOTEM et/ou les hypothèses de calcul derrière cet outil, nous vous invitons à visionner les vidéos suivantes :


Performance énergétique ou performance environnementale

Sous l’impulsion des réglementations européennes de Performance Energétique des Bâtiments (PEB), le secteur de la construction s’est intensément attelé à réduire les consommations énergétiques des bâtiments au cours de ces dernières années. Les performances ont donc beaucoup évolué. Au début de cette dynamique, on parlait du concept de « basse énergie ». Les bâtiments passifs sont apparus vers 2010. Aujourd’hui c’est le concept « Nearly Zero Energy Buildings (NZEB) » QZEN qui est mis en avant. A l’avenir, les bâtiments à « énergie positive » produiront plus d’énergie qu’ils n’en consommeront.

Mais aux consommations liées à l’usage du bâtiment, s’ajoute désormais une préoccupation liée à l’impact « gris » (non lié aux consommations pour l’usage), et une prise de conscience de la multiplicité des impacts, qui ne se limite pas à l’enjeu énergétique. Les problématiques sont en effet nombreuses : préservation des ressources en matières premières, limitation de l’utilisation des énergies fossiles, gestion de l’eau, lutte contre la pollution atmosphérique, conception de bâtiments à haute performance énergétique, réutilisation/recyclage des matériaux, … Pour intégrer ces défis dans une approche globale, il est essentiel d’avoir une approche sur la totalité du cycle de vie des bâtiments, des éléments constructifs et des matériaux.


L’Analyse de cycle de vie (ACV)

La prise de conscience accrue de l’importance de la protection de l’environnement et des impacts possibles associés aux produits fabriqués et consommés, a augmenté l’intérêt pour le développement de méthodes destinées à mieux comprendre ces impacts et à y remédier. L’une de ces technique est l’analyse du cycle de vie.

D’après la norme ISO 14040, l’ACV est une « compilation et évaluation des intrants, des extrants et des impacts environnementaux potentiels d’un système de produits au cours de son cycle de vie ». Initiée dans les années 1990, l’analyse de cycle de vie est aujourd’hui un outil performant et reconnu. La normalisation internationale ISO (14040 à 14043), développée à partir de 1994, a fixé les bases méthodologiques et déontologiques de ce type d’évaluation, favorisant une harmonisation de la méthodologie employée, davantage de robustesse et de fiabilité des résultats et une communication plus formalisée.

Approche multicritère sur l’ensemble des étapes du cycle de vie des produits considérés « du berceau à la tombe », l’ACV est le concept-clé sur lequel s’appuie l’outil TOTEM.


Les indicateurs d’impact environnementaux

L’impact environnemental est évalué au travers d’une multiplicité d’indicateurs, que l’on peut rassembler en quelques grandes familles. Celle-ci couvrent des éléments très différents, allant du réchauffement climatique à l’épuisement des ressources, en passant par les impacts pour la santé humaine et des écosystèmes. C’est donc un panel le plus complet possible des impacts environnementaux qui est présenté, illustrant la complexité des conséquences de nos choix de construction.

A la difficulté qu’il y a à décrire et quantifier chacun des impacts individuellement s’ajoute le défi de rassembler ceux-ci en un indicateur unique permettant de prendre des décisions pratiques. Une gageure ?


Le score agrégé en millipoints

Totem propose un score agrégé exprimé en millipoints par unité fonctionnelle. Ce score combine les 19 indicateurs environnementaux en un résultat unique. Il se base pour cela sur la méthode PEF (Product Environmental Footprint), qui inclus une étape de normalisation pour chacun indicateur, puis une pondération combinant des éléments objectifs (robustesse des méthode d’évaluation) et des éléments subjectifs (perception d’importance de l’indicateur).


Les données génériques et spécifiques

Avant 2020, TOTEM utilisaient des données génériques uniquement, provenant de la base de données ECOINVENT. Il s’agit d’une base de donnée suisse largement reconnue dans le domaine scientifique, développée spécifiquement pour les analyse du cycle de vie. Elle a été choisie pour sa représentativité des données pour l’Europe occidentale.

Spécifiquement pour l’outil TOTEM, les données génériques d’EcoInvent sont harmonisées autant que possible au domaine de la construction belge (mix énergétique belge avec facteur d’émission adapté, adaptation des scénarios de fin de transport, de fin de vie, etc.).

Depuis 2020, TOTEM intègre également des données spécifiques provenant directement des producteurs de matériaux qui réalisent des analyses de cycles de vie au sein de leurs unités de production pour produire des données spécifiques à leur produit. Il s’agit des Déclarations Environnementales de Produits (EPD). La réalisation d’EPD et leur intégration dans Totem implique bien évidemment une série de règles, portant sur la standardisation des documents, le recours à une analyse de cycle de vie conforme aux normes, une définition précise de l’objet d’étude, un processus de review par des vérificateurs reconnus par le SPF, et l’enregistrement des données au sein d’une base de données totalement ouverte.


Matériaux, composants, éléments et bâtiments

Plusieurs niveaux d’analyse sont nécessaires pour une évaluation environnementale. Ces différents niveaux suivent une structure hiérarchique. Faisons un parallèle : les lettres de l’alphabet sont les plus petites parties élémentaires du langage écrit, et peuvent être assemblées en mots, ces derniers formant des phrases ; dans TOTEM les matériaux constituent l’alphabet, combinables en composants, eux-mêmes à la base de complexes de parois appelés élément, qui ensemble constituent le bâtiment.

TOTEM est donc construit selon une structure hiérarchique distinguant quatre niveaux d’analyse détaillés ci-dessous. Parmi ces niveaux, seuls les plus élevés, à savoir les éléments et les bâtiments permettent donc une comparaison de leur score environnemental.

slowheat

La démarche Slowheat

 


De quoi s’agit-il ?

Slowheat est une démarche mettant en question le principe du maintien des températures intérieures dans les zones dites “de neutralité thermique”. Elle lui préfère une approche basée sur le chauffage direct des corps, l’adaptation comportementale, sociale et physiologique, et la valorisation des fluctuations naturelles des conditions d’ambiances. Le chauffage des espaces y est vu comme la solution de dernier recours. Cette démarche vient donc en complémentarité des efforts de rénovation énergétique. Elle offre un moyen d’action à court terme, complémentaire ou supplétif aux opérations de rénovation “classiques” qui nécessairement devront s’étaler dans le temps.

Slowheating (n.m.) : Pratique de chauffage développée dans le projet éponyme qui adapte nos façons d’habiter autour de sept principes et d’une idée centrale qui consiste à chauffer les corps distinctement des bâtiments. Elle poursuit l’objectif de concilier au mieux modération de la consommation et bien-être des habitants((Rapports de recherche Slowheat, disponibles sur www.slowheat.og)).


Principes

Les développeurs du slowheating proposent d’articuler cette pratique sur 7 principes :

  1. On libère la pratique du chauffage. Chacun peut faire différemment selon ses besoins et son mode de vie.
  2. On rediscute les normes de confort dans le ménage et dans la société plus largement. 20°C partout et tout le temps, c’est une construction sociale qui peut être questionnée.
  3. On (ré)chauffe les corps de multiples manières. Différentes sensations de froid peuvent justifier différents moyen de se réchauffer.
  4. On choisit de façon empirique les solutions qui nous conviennent. A chacun de se saisir de concept et d’essayer concrètement jusqu’à trouver son équilibre.
  5. Toute consommation d’énergie est maîtrisée, elle est le fruit d’une décision raisonnée. Attendons d’avoir (un peu) froid pour chauffer. 
  6. Cette décision se base sur nos besoins et nos ressentis du moment : écoutons nos corps. Tant qu’on est bien, pourquoi chauffer ?
  7. On favorise les voies les moins énergivores pour répondre à nos besoins en fonction des contraintes du moment. Apportons la chaleur où et quand c’est nécessaire. C’est le principe du chauffage de proximité.

Ressources

Nous vous invitons à découvrir la démarche slowheat en parcourant le site consacré à cette recherche : https://www.slowheat.org/recherche

Ce site a été réalisé par une coalition de cochercheurs née en octobre 2020, composée d’une vingtaine de citoyens dont 4 sont également présents en tant que chercheurs universitaires interdisciplinaires (Architecte, Ingénieur, Sociologue…) et 2 en tant que professionnels du terrain et des processus participatifs.

N’hésitez pas également à découvrir les pages Energie+ dédies aux solutions de chauffage de proximité, et à divers retours d’expérience (école, bureau, administration). En particulier, l’expérience Slowheat réalisée à l’école des Bruyères de Louvain-la-neuve :

Slowheat à l’école des Bruyères

 

Partages d’énergie

Le système énergétique actuel est en pleine transformation et tend vers toujours plus de décentralisation. Ceci s’explique notamment par une volonté citoyenne grandissante de participer à la transition énergétique amorcée il y a quelques années. En plus de cela, beaucoup d’entreprises et de particuliers ont pour objectif de décarboner leurs consommations énergétiques en ayant recours à des énergies vertes plus respectueuses de l’environnement.

En réponse à ces volontés, le modèle de partage d’énergie apparaît comme une solution tout à fait adéquate. Le partage d’énergie peut prendre différentes formes. Elles reposent toutes sur la mutualisation des moyens de production et de stockage de l’électricité((https://www.cwape.be/node/158)).

Autoconsommation individuelle/collective – L’autoconsommation correspond à la production plus ou moins égale à la consommation d’énergie renouvelable par un foyer ou un immeuble collectif .L’énergie produite est consommée localement et instantanémentà l’échelle du bâtiment.

 

Communauté d’énergie renouvelable – Les CER ont pour but de produire, consommer, stocker et vendre de l’électricité. Elles peuvent regrouper des particuliers, des petites et moyennes entreprises et des autorités locales. Un périmètre local est défini par le Gouvernement, en accord avec le gestionnaire du réseau concerné. Ce périmètre doit se situer en aval de postes publics de transformation électrique. Il est défini en fonction de la pertinence de la production d’électricité dans ce périmètre et de l’autoconsommation collective locale potentielle. Les unités de production produisent de l’énergie renouvelable et peuvent être installées sur les bâtiments ou librement sur le périmètre local((Bricourt, P. (2021, 30 mars). Feedback : Webinar – Les communautés d’énergie, outil pour la transition énergétique ? Ma CER. https://macer.clustertweed.be/2021/05/01/feedback-liege-creative/)).

Communauté d’énergie citoyenne – Aucune restriction n’est prévue en ce qui concerne les participants potentiels à une communauté d’énergie citoyenne. En revanche un contrôle effectif devra être réalisé par des personnes physiques. Dans ce type de communautés, et seulement dans celles-ci, la production d’électricité à partir de sources non renouvelables est autorisée. Le périmètre de la communauté n’est pas non plus limité. Tout comme pour les CER, les installations ne seront pas forcément liées à des bâtiments.

Les partages d’énergie fonctionnent selon quelques grands principes repris en détail sur le site https://macer.clustertweed.be/. Ce site internet dédié spécifiquement aux communautés d’énergie renouvelables reprend toutes les informations nécessaires sur le sujet. De plus, le gouvernement est actuellement en cours d’élaboration d’un décret visant à encadrer les échanges et partages d’énergie. Pour en savoir plus sur la réglementation et son application, consultez cette page.

En résumé, il existe5 critères principaux qui cadrent les communautés d’énergie renouvelables :

  • Une CER doit être une entité juridique (asbl, coopérative, …).
  • Son objectif principal n’est pas la recherche du profit mais plutôt de générer des bénéfices sociaux, environnementaux ou économiques.
  • La communauté doit reposer sur une participation citoyenne ouverte et volontaire.
  • Seuls les citoyens, les PME et les autorités locales peuvent être membres d’une communauté d’énergie renouvelable.
  • La communauté doit être gérée localement par ses membres (citoyens,PME autorités locales).

Pour qu’un partage d’énergie soit pertinent, il est évident que celui-ci doit répondre à quelques principes importants:

  • Production suffisante
  • Production disponible sur le long terme
  • Stabilité de la communauté (assurer le modèle économique)
  • Diversité des profils de production
  • Diversité des profils de consommation

Répartition de l’énergie

Les membres de la communauté ayant chacun des besoins et des consommations en électricité différentes, la question de la proportion de l’énergie produite par les installations communes distribuée à chaque consommateur doit être analysée afin de garantir le bon fonctionnement de la collectivité.

Le partage s’effectue tous les quarts d’heure par le réseau public, à l’aide de compteurs intelligents selon le mode de répartition choisi par la communauté. Attention toutefois que ces modèles sont évidemment théoriques, ils ne représentent en aucun cas le trajet des électrons réellement en mouvement dans le réseau.

Plusieurs modes de répartition sont envisageables, ayant chacun des points forts et des points faibles:

Modèle fixe

Un pourcentage fixe de l’injection totale d’énergie est attribué à chaque participant, selon des critères prédéfinis. Cette quote-part peut être fonction de la puissance de soutirage de chaque consommateur, du tarif d’achat, de la consommation individuelle ou encore de l’investissement de chacun dans le projet d’installation d’énergie renouvelable commune.

Ce type de répartition peut engendrer de fortes disparités entre les gros et petits investisseurs, risquant d’exclure de la communauté les personnes en situation de précarité énergétique. De plus, dans un modèle de répartition fixe, il existe un grand risque de surplus résiduel non autoconsommé si le consommateur ayant la plus grosse part ne consomme pas l’intégralité de ce qui lui est attribué. Lorsque celui-ci est absent ou consomme moins durant un intervalle de temps, le surplus est renvoyé sur le réseau, alors que d’autres membres de la communauté pourraient en bénéficier.

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Parts attribuées

Modèle équitable 

La production est répartie de manière égale entre chaque participant ayant une consommation non-nulle au moment de la répartition. Cette manière de répartir l’énergie produite provoque moins de discriminations entre participants de la communauté. De la même manière que pour le modèle fixe, le risque de surplus non autoconsommé est grand, même lorsque la quantité d’énergie produite est inférieure à la consommation totale de la communauté.

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Autoconsommation collective

Modèle au prorata

Répartition au prorata de la consommation individuelle par rapport à la consommation totale de la communauté. Répartir l’énergie selon ce modèle permet d’utiliser l’entièreté de la production, sans injection vers le réseau BT. L’énergie mise à disposition de chaque membre de la communauté est proportionnelle à sa consommation propre. Toutefois, ce modèle provoque des discriminations envers les personnes faisant des efforts d’économie d’énergie. En effet, les clients résidentiels consommant peu sont incapables de couvrir l’entièreté de leurs besoins, face aux gros consommateurs journaliers de la communauté (restaurants, écoles, bâtiments publics…).

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Conso. inst. / Conso. tot.

Modèle hybride

Répartition de la production en deux temps: d’abord une répartition équitable, ensuite une répartition au prorata. Le surplus non autoconsommé des membres ayant été satisfaits lors de la première répartition est réparti par la suite entre les consommateurs ayant une consommation toujours non-nulle au second tour. Durant la première étape de répartition, tout le monde reçoit la même quantité d’énergie, permettant ainsi aux plus petits consommateurs de la communauté d’atteindre une meilleure autosuffisance. Les plus gros consommateurs sont encore une fois favorisés lors de la deuxième phase de répartition((Frippiat, J. (2020, juin). Autoconsommation collective, le partage de l’énergie au sein d’une communauté (Mémoire). https://hera.futuregenerations.be/fr/portal/publication/autoconsommation-collective-le-partage-de-lenergie-au-sein-dune-communaute)).

Boucle 1 – répartition équitable

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Autoconsommation collective

Boucle 2 – répartition au prorata

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Conso. inst. / Conso. tot.

Modèle en cascade

Enchaînement de répartitions équitables entre les consommateurs ayant une consommation non-nulle. Le surplus non autoconsommé par certains au tour précédent sera redistribué équitablement lors du prochain tour vers d’autres consommateurs de la communauté. Dans ce modèle, on ne sait donc jamais le nombre d’itérations successives nécessaires avant que l’énergie produite soit totalement consommée par la communauté (ou renvoyée sur le réseau)((Communautés d’énergie et autoconsommation collective : partageons nos énergies ! (2020, 18 décembre). SPW Wallonie. https://energie.wallonie.be/fr/18-12-2020-communautes-d-energie-et-autoconsommation-collective-partageons-nos-energies.html?IDD=146181&IDC=8187)).

Boucle 1 – répartition équitable

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Autoconsommation collective

Boucle 2

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Conso. inst. / Conso. tot.

Boucle n

Rouge = Consommation de la communauté
Bleu foncé = Production de la communauté
Bleu clair = Surplus non autoconsommé
Pourcentage = Conso. inst. / Conso. tot.


Avantages et inconvénients du partage d’énergie

Avantages

  • Offre la possibilité de devenir acteur de la transition énergétique, en investissant dans les énergies renouvelables.
  • Coordination et optimisation au sein d’un sous-réseau de la production, de la consommation et du stockage de l’énergie.
  • Permet de coordonner les investissements dans des nouvelles technologies.
  • Réalisation d’économies dans le développement et le renforcement du réseau de distribution.
  • Favorise une “smartisation du réseau” via les compteurs intelligents, ce qui permet d’une part d’éveiller la société à un changement de son mode de consommation d’électricité et d’autre part de redynamiser la compétitivité énergétique wallonne.
  • Accessible à tous, y compris les locataires et les personnes n’ayant pas la possibilité (financière ou espace disponible) d’acquérir des moyens de production décentralisés.
  • Dynamise les territoires locaux en impliquant des acteurs locaux, favorisant ainsi des retombées positives sur l’économie et les emplois de la localité.
  • Accélération du temps de retour sur investissement pour les propriétaires d’une installation en revendant leur surplus à un prix supérieur au prix du kWh actuellement renvoyé sur le réseau.
  • Economies pour les membres d’une communauté car ils achètent le surplus à un prix inférieur au prix du kWh du réseau, tout en ayant des garanties sur son origine renouvelable et locale.

Inconvénients

  • Cadre légal important qui limite fortement la participation et le rôle de certains acteurs
  • Obligation de disposer d’une personnalité juridique distincte de celle de ses membres (personne morale).
  • Obligation d’être propriétaire des unités de production et de stockage utilisées pour le partage.
  • Les installations représentent souvent des budgets importants.
  • Il existe toujours des frais de réseauliés à la consommation de l’électricité.
isolation d'une école

Réduire les consommations d’énergie de chauffage dans une démarche zéro-carbone

 

Comme mentionné en introduction du dossier consacré à la rénovation des écoles, l’énergie de chauffage dans une école représente en moyenne 60 à 70% des consommations totales. Cette part importante du poste chauffage est liée d’une part à une faible performance énergétique des bâtiments.

Dans le cas de rénovations de bâtiments scolaires dans une démarche zéro carbone, il est prioritaire de réduire cette consommation excessive de carbone liée à l’énergie de chauffe. Pour cela, des solutions « classiques »  peuvent être envisagées (changement combustible, remplacement de la chaudière…). Ou alors, dans une démarche plus innovante, nous proposons 3 pistes de réflexion afin d’atteindre l’objectif de neutralité carbone souhaité :

  • Repenser les besoins
  • Optimiser les performances énergétiques de l’enveloppe
  • Compenser les besoins résiduels avec une production propre

Repenser les besoins

Face aux enjeux énergétiques auxquels nous faisons face aujourd’hui, il s’avère de plus en plus clairement qu’un changement radical de nos pratiques et de nos standards de confort thermique s’impose afin de réduire les émissions de carbone liées à notre consommation d’énergie.

Qui dit repenser les besoins thermiques, dit aussi repenser les attentes thermiques des occupants. Celles-ci reposent habituellement sur un modèle classique d’espaces chauffés à une température standard de 20°, par un système de chauffage centralisé alimentant en chaleur l’ensemble du bâtiment. Cependant, dans une optique zéro-carbone, il est intéressant de retourner le modèle en se basant sur un principe visant à “chauffer les personnes, pas le bâtiment”. Ou encore, en poussant cette réflexion à l’extrême, il serait également envisageable de ne plus avoir recours à un contrôle permanent sur l’ambiance, mais uniquement à un apport ponctuel à certains moments critiques (relance…). Ceci est particulièrement vrai dans les école où la densité d’occupants constitue un apport thermique significatif.

  Effet du chauffage par air                                           Ce dont nous avons besoin

Une vue de l’esprit ? Pas si sûr : la théorie du confort adaptatif met en évidence l’existence, moyennant la présence d’opportunités adaptatives dans le bâtiment, de plages de températures dites “confortables” plus larges que celles dont nous avons l’habitude. Cette théorie est généralement appliquée uniquement pour la réponse aux surchauffe, faute d’études suffisante en hiver. Mais elle mérite d’être explorée.

Selon cette théorie, il serait possible de réduire les besoins thermiques à l’école en offrant aux occupants des capacités d’adaptation pour corriger localement leur ressenti. On ne parle donc pas ici de simplement placer une vanne thermostatique, mais des mettre à dispositions des solutions individuelles et proches du corps, regroupées sous l’appellation “systèmes de confort personnels (PCS)”.


Optimiser les performances énergétiques de l’enveloppe

Comme mentionné plus haut, agir sur les flux de chaleur intérieur-extérieur passe par un travail accru sur les niveaux d’isolation et d’étanchéité de l’enveloppe. Néanmoins, dans une optique zéro-carbone, “isoler plus” rime inévitablement avec “plus de carbone”. En effet, ce qui peut paraître négligeable dans un contexte global de faible efficacité énergétique devient significatif, voire prépondérant au regard de l’objectif de sobriété et d’efficacité à atteindre.

Il en va ainsi de l’énergie grise. Négligeable dans une construction courante au regard de l’énergie utilisée pour l’exploitation du bâtiment tout au long de son cycle de vie, elle devient significative pour une construction performante énergétiquement. Bien que le choix de matériaux durables – excepté leurs performances d’isolation thermique – ne soit pas une obligation pour viser les normes QZen ou plus ambitieux, il y trouve un champ d’application tout à fait opportun.

Personne n’aura pu y échapper, aujourd’hui, la tendance en termes d’isolation tend vers “toujours plus”. En effet, au cours de ces dernières années, les réglementations concernant les niveaux U des parois ne cessent de se renforcer, visant des niveaux de conductibilité thermique toujours plus faibles.

Réduire les échanges de chaleur entre intérieur et extérieur dans une démarche zéro carbone nécessite donc de trouver un réel équilibre entre le coût en carbone des matériaux utilisés pour améliorer l’isolation et la consommation en carbone liée à l’énergie de chauffage.

L’idée vous intéresse ? Consultez notre article « améliorer l’enveloppe dans une démarche zéro-carbone« .


Combiner les deux, pour se passer de chauffage ?

En poussant les deux pistes ci-dessus à l’extrême, pourrait-on envisager de se passer complètement de chauffage ? Nous avons étudié cela sur base de simulations thermiques dynamiques, en considérant une salle de classe typique. Celles-ci ont porté sur l’influence du changement d’orientation de la classe et sur le changement de position dans le bâtiment. Voici nos conclusions :

  • Il est possible de se passer d’un contrôle permanent sur l’ambiance dans des classes mitoyennes de tous les côtés (graphique SB et SBS ci-dessous), à condition que celles-ci soient composées de parois performantes et étanches. Dans le meilleur des cas, ces classes pourraient bénéficier d’une simple relance du chauffage au matin avant l’arrivée des élèves pour ainsi garder une température optimale (entre 18° et 20°) à l’intérieur tout au long de la journée. Pour tous les autres locaux de classes (graphiques SI et SIS), ne bénéficiant pas d’une position favorable, un besoin de chauffage permanent reste indispensable, malgré une amélioration des performances de l’enveloppe et une exposition favorable((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

Classe non mitoyenne orientée « ouest »                   Classe mitoyenne orientée « ouest » 

Classe non mitoyenne orientée « sud »                     Classe mitoyenne orientée « sud » 

  • Si l’on veut se passer de chauffage dans la classe, des concessions doivent être faites ; soit sur la qualité de l’air, soit sur la température ambiante, soit sur les deux en même temps. Nous estimons qu’il est préférable de mettre la priorité sur une ambiance saine dans la classe. La qualité de l’air (graphique de droite ci-dessous) ayant un impact plus important sur les performances que la baisse de température (graphique de gauche) ((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

  • Il ne faut pas négliger l’impact de systèmes d’apport de chaleur alternatifs. Si l’on prend par exemple le cas d’une installation de batteries de chauffe sur le système de ventilation complétée par des panneaux rayonnants et des systèmes de chauffe individuels, il devient possible de se passer d’un contrôle continu sur l’ambiance, même pour des locaux de classe en situation moins favorable (graphique SI ci-dessous). Il s’avère même, grâce à ces apports ponctuels de chaleur, envisageable de se passer complètement de chauffage pour des classes complètement mitoyennes (graphiques SB) ((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

Supprimer le chauffage dans les écoles est une utopie qui permet de remettre en questions beaucoup de pratiques concernant les activités scolaires, l’organisation des espaces et les besoins thermiques. Se passer d’un contrôle permanent sur l’ambiance est une opportunité pour créer un programme scolaire en adéquation avec les activités pédagogiques et l’environnement naturel qui l’entoure. Agir sur le besoin de chauffage des occupants est un projet éducationnel intégrant des éléments d’architecture. Ces considérations poussent donc à concevoir nos écoles de manière différente, en réfléchissant aux usages, au degré d’ouverture, et aux besoins en chaleur de chaque espace((Siraut,  Astrid.  Vers une école sans chauffage : adaptabilité de la construction et des occupants. p.67, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke – http://hdl.handle.net/2078.1/thesis:24912 )).

 

Stratégie hiver (fermé)                                        Stratégie été (ouvert) 

Imagination de composition architecturale selon les ambiances thermiques et les besoins scolaires  


Compenser les besoins résiduels avec une production renouvelable

Une fois les deux pistes précédentes prises en compte et les besoins thermiques de l’école considérablement diminués, il est nécessaire de se focaliser sur les technologies. Aussi réduites soient-elles, les consommations en énergie de chauffage de l’école devront être assurées par des techniques cohérentes avec l’objectif zéro-carbone de l’école. A ce titre, toute combustion d’énergie fossile doit être proscrite. Cela laisse donc deux possibilités : la biomasse et l’électricité par l’intermédiaire d’une pompe à chaleur, mais dans les deux cas, sous certaines conditions seulement. Quelles sont-elles ?

Pour la biomasse, il faut s’assurer que la ressource brûlée est effectivement “neutre en carbone”, ce qui n’est pas si évident. Pour en savoir plus, allez consulter la rubrique « impact environnemental et socio-économique » de cet article. En plus de cela, le mode de production d’énergie doit être soit très efficace en termes de rejet de carbone, soit avoir un très haut rendement (chaudière bois-énergie), soit être une cogénération. Attention toutefois à la complexité des systèmes de cogénération, qui rendent l’application en milieu scolaire difficile (à moins de passer via un tiers investisseur).

Dans le cas présent d’installations de chauffage dans des écoles à optique zéro-carbone, les technologies de biomasse s’y prêtent relativement bien. Au-delà des avantages et inconvénients évoqués ici, la biomasse offre un potentiel communautaire non négligeable par le développement de synergies territoriales autour de modes de chauffage. Pour en savoir plus sur les communautés d’énergies, consultez cet article.

Pour l’électricité, il faut s’assurer que celle-ci provienne le plus possible d’une source renouvelable. Idéalement, le besoin électrique sera compensé par une production sur site, pour obtenir un bilan annuel équilibré. On parlera alors de bâtiment zéro-énergie (ZEB). Cela nous amène à envisager des sources de production renouvelables , qui sont traitées plus loin dans ce dossier.Et bien sûr, pas question de se contenter de résistances thermiques pour alimenter un réseau de chauffage central. La pompe à chaleur est la condition sine qua non du recours à l’électricité pour le chauffage.

Les pompes à chaleur peuvent, en étant multipliées et fonctionnant par zone, offrir des gammes de puissance suffisantes afin de répondre aux besoins d’une école. Cependant, tout comme pour la biomasse, les systèmes peuvent prendre beaucoup de place et générer du bruit. Une étude préliminaire sur l’implantation des unités extérieures sur le site de l’école est donc impérative. En fonction du site de l’école, cette technologie permet également de tirer parti des techniques de géothermie afin de proposer une production d’énergie au bilan carbone neutre. La pompe à chaleur offre donc de nombreux avantages en termes de neutralité carbone de l’école, mais à quel prix ? Des études de faisabilité et de rentabilité sont indispensables avant de se lancer dans de tels projets pour une école.

vers le 0 emissions de CO2

La démarche “Bâtiment zéro carbone”

La démarche des bâtiments zéro carbone n’est ni un label, ni une définition formelle d’objectifs à atteindre mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.


La neutralité carbone : un indiscutable impératif écologique

D’ici 2050, de nombreux défis devront être relevés : d’une part, l’amélioration de la performance énergétique des bâtiments devra s’accompagner d’une amélioration de la performance environnementale, et d’autre part, le secteur de la construction devra se transformer afin d’augmenter le nombre et l’ampleur des rénovations, comme le prévoit le Green Deal européen.

Dans sa stratégie à long terme pour 2050, la Commission européenne reconnaît la nécessité d’une décarbonation quasi complète du secteur du bâtiment pour atteindre ses objectifs climatiques.

Les bâtiments dans le monde représentent jusqu’à 45 % de la consommation totale d’énergie et des émissions de carbone, ce qui indique que les bâtiments sont le principal facteur de changement climatique anthropique. Les bâtiments ont donc été identifiés comme offrant les meilleures possibilités de réduction des émissions de carbone. La construction sans carbone a été considérée comme une approche importante pour réduire les émissions de carbone associées aux bâtiments et a attiré une attention politique importante dans de nombreux pays((PAN W. (2014). System boundaries of zero carbon buildings.)).

Dans le même temps, les citoyens ont beaucoup à gagner de la décarbonation des bâtiments, notamment en termes de santé, d’emploi, de réduction de la facture énergétique des ménages et d’économies sur les coûts du système.


La nécessité d’accélérer des politiques énergétiques actuelles face à l’urgence

Un nouveau rapport publié par l’European Climate Foundation (ECF), préparé par CE Delft, montre que malgré la nécessité, les avantages et l’urgence de décarboner les bâtiments européens, le secteur n’est pas actuellement sur une trajectoire vers le zéro carbone d’ici 2050. Les politiques actuelles axées sur les incitations et l’information ne sont pas suffisantes pour atteindre cet objectif. Selon ce rapport, les politiques actuelles ne seraient capable de réduire les émissions des bâtiments que de 30% d’ici 2050((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

 

démarche 0 carbone

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.


La neutralité carbone

Nous considérons que la neutralité carbone consiste à atteindre un équilibre entre les émissions de CO₂ d’origine humaine et leur élimination de l’atmosphère. Cependant, dans la pratique, les possibilités d’éliminer le CO₂ de l’atmosphère étant limitées, la neutralité carbone ne sera atteinte qu’en limitant très fortement les émissions, en agissant en faveur d’une multiplication des possibilités d’élimination du CO2 et en compensant les émissions d’un secteur en les réduisant ailleurs, en investissant par exemple dans les énergies renouvelables, l’efficacité énergétique, etc…

En ce qui concerne les bâtiments, une partie des émissions de CO₂ est liée à la consommation d’énergie opérationnelle, c’est-à-dire l’énergie consommée pendant l’utilisation des bâtiments, et une autre partie est due à la fabrication, au transport et à l’application des matériaux. Actuellement, les exigences réglementaires n’incluent pas l’empreinte carbone des matériaux.

Nos Régions ont donc développé l’outil TOTEM (Tool to Optimise the Total Environmental Impact of Materials), qui vise à évaluer les impacts environnementaux de leurs projets de construction à l’aide de 17 indicateurs, dont le CO₂. (voir Les Dossiers du CSTC 2018/2.2).

En effet, on sait que :

  • l’impact environnemental des bâtiments est bien plus important que la seule énergie qu’ils consomment
  • Plus la performance énergétique des bâtiments s’améliore, plus la part des émissions de CO₂ liée aux matériaux mis en œuvre augmente (voir schéma).

QZENDeltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone.

Les deux voies principales pour approcher cette neutralité carbone sont donc :

  • l’ abandon quasi total des énergies fossiles (gaz, pétrole, charbon, …) car elles émettent massivement du CO₂ lors de leur combustion.
  • l’ évolution de notre régime en terme de matériaux
    • processus de fabrication/recyclage des matériaux
    • processus de construction/déconstruction des bâtiments ((Deltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone))

Comment approcher concrètement cette neutralité carbone ?

En se concentrant sur trois domaines où le potentiel de réduction des émissions est le plus important, à savoir la performance énergétique de l’enveloppe des bâtiments existants, les vecteurs énergétiques et les matériaux de construction, le rapport publié par l’ECF (préparé par CE Delft et Climact) recommande une toute première feuille de route à long terme des politiques visant à réaliser des réductions essentielles de carbone dans le secteur des bâtiments résidentiels. Celle-ci est, pour une large part, également valable pour les écoles.

Les mesures ont été regroupées en cinq « zones cibles d’émissions » :

  • L’enveloppe du bâtiment :
    • Améliorer l’enveloppe des bâtiments existants et nouveaux pour réduire la demande d’énergie pour le chauffage et la climatisation.
    • Réduire le niveau d’émissions intrinsèques associé aux matériaux de construction utilisés.
  • Changement de combustible de chauffage :
    • Décarbonation de la demande résiduelle de chauffage par le passage à des vecteurs énergétiques sans carbone (électricité renouvelable, chauffage urbain, gaz sans carbone, biomasse durable).
      Ce changement englobe la décarbonation du vecteur énergétique (combustible) ainsi qu’un système de chauffage différent dans le bâtiment, et souvent aussi une infrastructure énergétique nouvelle ou adaptée.
  • Efficacité des appareils ménagers :
    • Remplacement des appareils électriques par des appareils plus efficaces.
  • Électricité renouvelable :
    • Décarbonation de l’électricité résiduelle en passant à une électricité 100 % renouvelable.
  • Matériaux de construction décarbonés :
    • Utilisation de matériaux recyclés et sans carbone dans la construction et la rénovation et passer à une industrie 100 % décarboné((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.

Schéma © Architecture et Climat (UCL).

Nous avons pu également relier cette démarche à une norme déjà active au Canada depuis 2017.
Cependant, contrairement à cette norme, nous voyons la démarche des bâtiments zéro carbone comme quelque chose qui n’est :

  • ni un label
  • ni une définition formelle d’objectifs à atteindre
  • mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.

Les cinq axes de réflexion principaux des bâtiments zéro carbone que nous leur empruntons seraient donc :

  • la réflexion sur le carbone intrinsèque : reconnaître l’importance des impacts des matériaux du bâtiment sur le cycle de vie
  • la diminution des émissions de gaz à effet de serre par l’ arrêt de brûler quoi que ce soit, à moins que la source soit locale, durable (biomasse gérée durablement/pompe à chaleur)
  • la compressions des besoins d’ énergie opérationnelle
    • chauffage par un travail sur l’enveloppe
    • électricité par un travail sur les talons de consommations et l’efficacité des appareillages/systèmes/luminaires
  • la couverture de ces besoins par l’ énergie renouvelable produite sur place au maximum sinon achetée au fournisseur
  • la réduction de la demande d’ énergie de pointe

Réflexion sur le carbone intrinsèque

L’analyse multicritère des impacts d’un matériau ou d’une solution est un exercice complexe.

Si on privilégie le réemploi et qu’on choisit des matériaux

  • fabriqués partir de matières premières renouvelables (et renouvelées !) et/ou ou à partir de matières recyclées ;
  • peu transformés (surtout thermiquement) ;
  • peu ou pas traité, n’utilisant pas de produits toxiques ;
  • résistants et réparables ;
  • issus de filières locales et d’entreprises qui respectent leurs travailleurs ;
  • assemblés mécaniquement ;
  • réutilisables ou recyclables en fin de vie.

Alors, on est dans le bon ! Analysons tout ceci de façon détaillée via le site « rénover mon école ».

Schéma © Architecture et Climat (UCL).


Une vision dépassant le seul domaine de la construction : concevoir avec une vision globale pour de meilleurs résultats.

En 2014, un chercheur chinois a tenté de cadrer théoriquement le terme ‘bâtiment zéro-carbone (ZCB)’ afin de pallier les manques de connaissances des fondements théoriques et des limites qu’il identifie dans ses recherches. En effet, pour lui, les ZCB sont des “systèmes sociotechniques complexes qui ne peuvent être examinés efficacement sans définir explicitement leurs limites […] car toutes les stratégies de réduction du carbone impliquent des facteurs politiques, économiques, techniques, sociaux et comportementaux qui relient de multiples parties prenantes telles que les praticiens, les occupants et les chercheurs”. Dès lors, concevoir un ZCB peut parfois s’avérer plus complexe que prévu. ((PAN W – 2014 –  System boundaries of zero carbon buildings))

Aujourd’hui, une planification urbaine de plus en plus intelligente maximise les possibilités de conception à faible émission de carbone dans les bâtiments et les infrastructures environnantes.

Lorsque les bâtiments sont considérés, par exemple, comme une source d’énergie pour les véhicules électriques, il est clair que les frontières interdisciplinaires sont franchies. La conception des bâtiments peut donc faire partie d’un ensemble plus vaste qui englobe également les transports et la planification urbaine.

Il est bon de rappeler que la conception de bâtiments à faible émission de carbone tient également compte des scénarios d’utilisation future et de fin de vie, en maximisant le potentiel d’entretien, de réparation, de rénovation et d’adaptation. Une conception intelligente pour le désassemblage et la déconstruction choisit et utilise des matériaux qui peuvent être recyclés, ou qui peuvent être extraits et séparés facilement pour être traités.

Parallèlement, les mesures de performance de dernière génération relèvent le niveau des normes de conception dans les nouvelles constructions, dans le but d’éliminer les émissions de carbone associées aux coûts d’exploitation. Dans ce contexte, l’accent est mis sur le suivi et la mesure des résultats avec une fiabilité et une rigueur accrues, et sur l’utilisation de solutions de conception intégrées pour atteindre des émissions nettes nulles aujourd’hui tout en préparant l’avenir.

 

technologie de convertion du bois

Technologies de conversion du bois-énergie

technologie de convertion du bois

En fonction des caractéristiques nombreuses et variables de bois, sa valorisation est destinée soit à la fabrication des matériaux de construction ou pour la production d’énergie.

La chaîne de valorisation de bois-énergie est un processus complexe intégrant plusieurs procédés de valorisation pouvant donner à la fois de l’énergie, des produits principaux et des coproduits en parallèle ou vers la fin de la chaîne de valorisation.

En effet, nous pouvons distinguer trois sources capitales de bois-énergie :

  • La biomasse issue de la sylviculture consacrée entièrement à la valorisation du bois-énergie;
  • Les coproduits et dérivés secondaires issus de la transformation primaire et secondaire du bois ;
  • La biomasse qui est récupérée à partir du bois en fin de vie.

Quels sont les procédés de conversion de la biomasse solide en énergie ? 

Les technologies de conversion de la biomasse solide en énergie sont diverses et nombreuses. Toutefois, l’objectif final de chaque technologie est la production d’énergie sous forme de chaleur ou d’électricité.

En fonction des besoins énergétiques, une technologie de production, de conversion, de stockage et de transportation d’énergie s’impose plutôt qu’une autre. Voici les procédés technologiques de conversion de la biomasse solide en énergie les plus connus et utilisés:

  • Combustion

Dans une réaction de combustion, et en présence d’oxygène, la biomasse est complètement transformée en gaz qui s’enflamme en émettant par conversion de la chaleur.

  • Pyrolyse

La pyrolyse est une réaction de décomposition de la biomasse sous l’effet de la chaleur dans un milieu plus ou moins faible en oxygène. Dans ce procès, la biomasse solide se décompose et donne comme résultantes trois produits:

  • Un solide riche en carbone (le charbon);
  • Un gaz composé de CO2, CO, H2 et CH4 ;
  • Un complexe d’huile pyrolytique.
  • Carbonisation 

La carbonisation ne diffère pas beaucoup de la pyrolyse, mais le procédé est optimisée davantage pour la production de charbon de bois. En effet, la carbonisation vise à soumettre le bois sous une température aux alentours de 450°C durant quelques heures ou jours et dans un milieu faiblement alimenté en oxygène. En conséquence, ce procédé  permet de récupérer jusqu’à 30% de charbon concentré et 65% d’énergie((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)).

  • Gazéification 

La gazéification transforme 80% de la biomasse en un gaz composé selon un procédé thermochimique. Le mélange de gaz issu est appelé syngaz et est composé jusqu’à 75% d’anhydride contenu dans la biomasse. Nous pouvons considérer que la gazéification est une voie intermédiaire entre la pyrolyse et la combustion.

En Wallonie, la gazéification est une solution prometteuse lorsqu’elle vise à la fois la  production de chaleur et d’électricité dans des gammes de puissance comprises entre 300 et 1.000 kW((Panorama  des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)). Ce procédé est utilisé dans les systèmes de cogénération.


Les technologies pour la production de chaleur

En fonction des besoins d’utilisation, nous distinguons deux types de technologies de combustion pour la production de chaleur :

  • Une gamme de petite puissance destinée pour le chauffage domestique regroupant, d’une part, les systèmes centralisés qui produisent de la chaleur pour le logement en entier (cheminées, poêles-chaudières, inserts, etc.), d’autre part, les systèmes d’appoint destinés au chauffage à destination des particuliers (chaudières à bûches, chaudières à pellets et à plaquettes, chaudières polycombustibles pour agrocombustibles).
  • Une gamme de grande puissance par l’augmentation des dimensions du foyer. En effet, quand les besoins en puissance énergétique sont importants (jusqu’à plusieurs dizaines de Mégawatts), les chaudières de petite puissance ne peuvent pas répondre à la demande croissante en chaleur. En effet, dans les processus industriels, l’approvisionnement en  chaleur est une nécessité capitale dans les procédés de production, transformation et transportation.

Les technologies pour la production d’électricité

La production de chaleur à partir de la biomasse solide peut se faire selon deux procédés:  la combustion-vaporisation ou la gazéification.

Quand il s’agit de l’électricité produite selon une technologie de combustion-valorisation, cette dernière génère une force motrice à travers la vapeur sous pression produite par une chaudière biomasse. À la manière d’une dynamo, cette force engendre une puissance électrique quand elle est couplée à un alternateur. Nous parlons donc des générateurs d’électricité à turbines-vapeur (aubages) ou à des moteurs à vapeur (pistons).

En ce qui concerne les technologies à gazéification, la production de l’électricité  repose sur le principe de la gazéification du bois. Ce processus refroidit les gaz pour les utiliser dans un moteur qui permet de transférer une force motrice à un alternateur, qui produira de l’électricité.


Conclusion

Les projets de production, de valorisation et de consommation des combustibles biomasse sont aujourd’hui largement répandu. Ils répondent aux évolutions technologiques de valorisation de la biomasse. L’efficacité des appareils de combustion et la haute rentabilité du bois-énergie ont impacté l’évolution de cette filière et impose sa structuration sur tous les plans.

Au niveau du prix de revient, en fonction de divers facteurs comme la location de la terre ou le cout du matériel, en 2017, la consommation d’agrocombustibles autoproduits permet d’atteindre un prix oscillant entre 7 et 14 c€/litre équivalent mazout((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom –  2018)).

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d'Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence.

Ce nouveau paramètre facultatif introduit par la directive européenne 2018/884 sur la performance énergétique des bâtiments vise à quantifier la capacité d’un bâtiment à intégrer et utiliser les nouvelles technologies et systèmes électroniques pour répondre aux besoins des occupants, optimiser les performances et interagir avec le réseau.

À l’instar des certificats PEB, le SRI (Smart Readiness Indicator) a également pour objectif de permettre aux occupants (locataires et propriétaires) de rendre palpable, tangible l’intelligence d’un bâtiment.

L’indicateur vise donc à conscientiser les acteurs de la construction, propriétaires et occupants des bénéfices des technologies dites intelligentes mais aussi à accélérer le déploiement de ces dernières, particulièrement dans la perspective de la performance énergétique en utilisant le SRI comme vecteur de plus-value.

La méthode d’évaluation du SRI est basée sur une inspection des services « smart ready » qui sont présents dans le bâtiment. Par exemple, pour l’éclairage, cela peut aller du simple interrupteur on/off jusqu’aux systèmes qui peuvent moduler l’intensité lumineuse artificiel en fonction de la disponibilité en éclairage naturel.

Pour commencer, le SRI concerne tous les domaines du bâtiment :

  • Le chauffage,
  • Le refroidissement,
  • L’ECS,
  • La ventilation,
  • L’éclairage,
  • Les parties mobiles de l’enveloppe,
  • L’intégration du renouvelable local,
  • La flexibilité et la gestion de la demande,
  • L’intégration du chargement de véhicules électriques dans le système du bâtiment
  • Le monitoring et le contrôle du bâtiment…

Chaque domaine comprend des sous-domaines appelés services, par exemple, pour les véhicules électriques :

  • Capacité de recharge
  • Information à l’occupant et connectivité
  • Capacité à équilibrer le réseau (peut se charger/décharger sur le bâtiment)

Pour chaque service, un degré d’intelligence ou de fonctionnalité devra être donné, par exemple, pour la capacité de recharge :

  • 0 : absente
  • 1 : faible capacité
  • 2 : capacité moyenne
  • 3 : grande capacité

Et pour chaque degré d’intelligence de chaque service, le(s) impact(s) positif(s) seront quantifiés et pondérés en fonction de plusieurs critères comme :

  • L’économie d’énergie,
  • La flexibilité énergétique vis-à-vis du réseau,
  • L’intégration d’énergie renouvelable,
  • Le confort,
  • La commodité, ergonomie,
  • Le bien-être et santé,
  • La maintenance et la prévention des pannes
  • L’information des occupants

Exemple :

Pour le domaine chauffage, 12 services sont proposés :

  1. Contrôle des émissions de chaleur
  2. Contrôle des émissions pour les TABS (mode de chauffe)
  3. Contrôle du réseau de distribution d’eau chaude
  4. Contrôle des pompes de distribution en réseau
  5. Contrôle intermittent des émissions et/ou de la distribution – Un contrôleur peut contrôler différentes pièces/zones
  6. Stockage d’énergie thermique pour le chauffage
  7. Contrôle de la préchauffe du bâtiment
  8. Contrôle du générateur de chaleur (combustion)
  9. Contrôle du générateur de chaleur (pompes à chaleur)
  10. Mise en séquence de différentes sources de chaleur
  11. Contrôle du système de chaleur en fonction de signaux extérieurs (prix des énergies, charge réseau…)
  12. Systèmes de récupération de chaleur

Pour le service 1 : contrôle des émissions de chaleur, plusieurs niveaux d’intelligences/fonctionnalités sont possibles :

  1. Pas de contrôle automatisé ;
  2. Thermostat central ;
  3. Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) ;
  4. Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) ;
  5. Contrôle pièce par pièce avec communication et détection de présence.

En fonction du niveau choisi, les points suivants seront par exemple considérés pour chaque impact dans le calcul :

Niveau d’intelligence/fonctionnalité Impacts
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant
0 Pas de contrôle automatisé 0 0 0 0 0 0 0 0
1 Thermostat central 1 0 0 1 1 0 0 0
2 Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) 2 0 0 2 2 0 0 0
3 Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) 2 0 0 2 3 0 1 0
4 Contrôle pièce par pièce avec communication et détection de présence 3 0 0 2 3 0 1 0

Pour chaque domaine (somme de ses services), le score obtenu sera comparé au score maximal pouvant être obtenu par le bâtiment et donnera une valeur en %. Par exemple, pour un bâtiment de logement sans ventilation, sans refroidissement, sans enveloppe mobile et sans renouvelable :

Domaines Scores
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant SRI
0 Général pondéré

 

71% 0% 0% 77% 33% 17% 20% 19% 45%
1 Chauffage 75% 0% 0% 85% 64% 0% 25% 75%
2 ECS 100% 0% 0% 0% 0% 0% 50% 67%
3 Refroidissement Non-applicable
4 Ventilation Non-applicable
5 Éclairage 0% 0% 0% 0% 0% 0% 0% 0%
6 Enveloppe Non-applicable
7 Renouvelable Non-applicable
8 Gestion de la demande 0% 0% 0% 0% 0% 0% 0% 0%
9 Véhicules électriques 0% 0% 0% 0% 20% 0% 0% 0%
10 Monitoring et contrôle 60% 100% 0% 67% 38% 33% 17% 14%

 

marché de l'electricité en Belgique

Marché de l’électricité

marché de l'electricité en Belgique


La structure du marché de l’électricité en Belgique

Marché de l'électricité.

 


Le marché du gros à court terme

Il existe plusieurs types de marché du gros à court terme sur la bourse européenne des marchés de l’électricité (EPEX SPOT). Ces marchés sont réservés aux responsables d’équilibres. Il y a :

  • le « Day-Ahead-Market»
    • C’est le marché qui a lieu jusqu’à 14h30 la veille du jour de la livraison,
    • La commande se fait heure par heure,
  • L’intraday
    • Le marché ouvre deux heures après la fermeture du Day-Ahead-Market et se clôture jusqu’à 5 minutes avant la livraison physique.
    • C’est un marché d’ajustement qui permet de faire face à d’éventuels prévisions erronées ou pannes techniques.

Le marché du gros à long terme

Le marché du gros à long terme en Belgique se joue sur l’ICE ENDEX (power BE).

Sur ce marché, plusieurs types de contrats sont possibles mais ceux-ci sont inflexibles. Ils offrent l’avantage de connaitre à l’avance le prix que l’on va payer dans les mois et les années à venir mais les prix sont souvent plus chers que sur le marché à court terme. Les contrats possibles sont :

  • Month Ahead : on achète 1 mois à l’avance
  • Quarter Ahead : on achète 3 mois à l’avance
  • Year Ahead : on achète 1 à 3 années à l’avance

Le balancing

Le balancing est un marché à part entière. Le balancing intervient en cas de déséquilibre des responsables d’équilibre.

Prenons par exemple deux Responsables :

Le Responsable A et le Responsable B ont tous deux acheté 10MWh la veille pour ce jour entre 14h et 15h. Mais, voilà, les clients de A n’ont pas tourné à plein régime à cause de la pluie et d’une grève sauvage tandis que les clients de B, eux, ont fait tourner plus de lignes de production car de grosses commandes sont tombés pendant la nuit.

Les deux responsables vont donc se retrouver en situation de déséquilibre (positif ou négatif) et devoir acheter ou vendre cette l’électricité en dernière minute à ELIA au tarif du déséquilibre. Ce tarif est plafonné mais n’est connu que ¼ d’heure après !

Comme les tarifs du déséquilibre ne sont pas connus, ils peuvent in fine, s’avérer être intéressant :

  • Si on doit racheter et qu’ils sont moins chers que lors de l’achat (par exemple, si l’éolien produit plus que prévu).
  • Si on doit vendre et que l’électricité vaut plus que lors de l’achat (panne dans une centrale, manque de soleil, …)

ou pénalisant dans le cas contraire.


 Le marché du détail

Ce marché peut fonctionner selon trois types de contrats entre le fournisseur et le client :

  • Contrat à prix fixe
    • Le prix évolue en principe mensuellement mais une fois le contrat signé, le prix ne change pas sur la durée du contrat.
    • Ce contrat est sécurisant car il permet de savoir à l’avance combien nous allons payer le kWh d’électricité.
    • En cas de baisse des prix du marché, le consommateur n’en profite pas mais il pourra rompre son contrat et le renégocier avec le fournisseur de son choix.
  • Contrat à prix variable
    • Dans ce cas, le prix de l’énergie payé suit les prix du marché et évolue trimestriellement.
    • Le risque de voir les prix s’envoler existe.
    • Il peut influencer le comportement du consommateur vers plus d’adéquation avec la situation du réseau.
  • Contrats « clicks »
    • Pour les clients un peu plus joueurs, un type original de contrat existe. Entre les moments de la signature et celui de la fourniture, le client à l’occasion de « clicker » plusieurs fois sur le prix du forward de l’ENDEX. Se faisant, il détermine le prix de la fourniture.
    • Le prix est calculé de la manière suivante : PRIX= a + b.x
      • a et b étant des constantes définies à la signature du contrat
      • x étant la valeur moyenne des clicks
    • Si le client effectue ses « click » aux bons moments (quand le prix du forward est bas), alors il pourra obtenir un prix inférieur à la moyenne de prix de l’année.

sur l’ICE ENDEX (power BE).

Dans l’exemple ci-dessus, le client A a effectué de meilleurs « clicks » que le client B.

Si nos deux clients avaient contracté pour les mêmes coefficients A et B, alors le client A aura une facture plus douce que son homologue.

Facturation électrique

Facturation électrique


La facturation en général

La facturation électrique est le résultat de 3 postes :

  • La production
    • Négociable,
    • Tarif ouvert à la concurrence
  • le transport (GRT) et la distribution (GRD)
    • Fixes,
    • Mais diffèrent d’un lieu à l’autre.
    • Les tarifs applicables sont approuvés par la CREG
  • et les redevances, les taxes 
    • Comprends les prélèvements régionaux et fédéraux.
      • Redevance régionale Art. 26 : finance la politique URE régionale.
      • Redevance voirie régionale
      • Obligation de service public : finance l’éclairage public communal et les tarifs réduits pour les clients protégés
      • Cotisation fédérale : finance notamment la CREG
    • Pour les personnes assujetties : la TVA (21% en 2019)

La facturation basse tension

Cette tarification s’applique, comme l’indique son nom, aux clients raccordés au réseau BT (basse tension). C’est le cas de la plupart des bâtiments résidentiels et tertiaires de petite et moyenne dimension avec une puissance inférieure à 56 kVA. Dans ce cas, la facturation est annuelle mais une provision mensuelle est demandée par le fournisseur d’énergie.


La Facturation haute tension

On passera sous ce régime de tarification lorsque la puissance des installations dépasse les 56kVA ou qu’une cabine HT (haute tension) est présente sur site.

Dans certain cas, la cabine n’est pas directement sur site mais une connexion alimente directement le site à partir d’une cabine haute tension proche.

Dans ce cas, le relevé des consommations et la facturation est mensuelle ou trimestrielle.

 

 

Impact environnemental des éoliennes >500 kW

Impact environnemental des éoliennes >500 kW

Selon le rapport du GIEC (2014), l’impact environnemental de l’énergie éolienne serait l’un des plus soutenables avec aujourd’hui ± 10 gr de CO2équivalent/kWh

À titre comparatif, voici quelques chiffres du GIEC (2014) :
Source d’énergie Impact en gr de CO2 équivalents par kWh
Parcs éoliens 11
Panneaux solaires 27 (20-25 selon d’autres sources plus récentes)
Centrale à gaz  490
Centrale au charbon  820 (+Particules fines)
Nucléaire 12  (+Risque de catastrophe nucléaire)

La plus grande éolienne mesure 187 m de diamètre (2017) et des projets jusqu’à 220 m de diamètre sont en projet en 2019 (une éolienne Haliade-X qui sera installée à Rotterdam)((https://www.ouest-france.fr/pays-de-la-loire/saint-nazaire-44600/eolien-ge-acheve-ses-deux-rotors-geants-saint-nazaire-6394349)). Cela représente une quantité gigantesque de fondations en béton armé en plus des 100+ tonnes de métaux nécessaires juste pour construire les pales de l’éolienne ! Néanmoins une éolienne de cette envergure peut alimenter des milliers de ménages en électricité pendant 25 ans et plus, alors quel bilan ?

impact éolienne

Selon la littérature récente((Inderscience Publishers. « Wind turbine payback: Environmental lifecycle assessment of 2-megawatt wind turbines. » ScienceDaily. ScienceDaily, 16 June 2014. <www.sciencedaily.com/releases/2014/06/140616093317.htm>.)), le retour énergétique et environnemental serait inférieur ou égal à seulement 6 à 12 mois ! Globalement, plus une éolienne sera grande et/ou exposée au vent, plus son retour énergétique, environnemental mais aussi économique sera court.

En règle générale, en fonction de ses dimensions, une éolienne produira 15 à 50 fois plus d’énergie qu’elle n’en aura consommée sur son cycle de vie (de la fabrication ± 80 %, au recyclage (± 10 %), en passant par les entretiens ± 10 %).

Si un repowering est toujours possible, un jour viendra, après 20 à 30 ans, où il faudra songer à démonter l’éolienne et la recycler. Sur base d’une étude danoise((Elsam Engineering, « Life Cycle Assessment of offshore and onshore sited wind farms », Fredericia (Danemark), March 2004)) souvent citée en référence, il apparait que plus de 90-95 % de la masse composant une éolienne (hors fondation) est recyclable. Les études plus pessimistes descendent jusqu’à 80 % mais elles prennent en réalité compte des fondations qui ne seraient recyclées/réutilisées qu’à hauteur de 60-65 % pour le béton et 0% pour les sables et les graviers(( Andersen, P. D., Bonou, A., Beauson, J., & Brøndsted, P. (2014). Recycling of wind turbines. In H. Hvidtfeldt Larsen, & L. Sønderberg Petersen (Eds.), DTU International Energy Report 2014: Wind energy — drivers and barriers for higher shares of wind in the global power generation mix (pp. 91-97). Technical University of Denmark (DTU).)). Dans certains cas, les fondations (responsables de 15-20% de l’impact pour les éoliennes onshore et 30-35 % de l’impact des éoliennes offshore) pourront resservir de base à une nouvelle éolienne !

Impact envrironnemental des panneaux photovoltaïques

Impact envrironnemental des panneaux photovoltaïques

La fabrication des panneaux photovoltaïques a un impact environnemental non négligeable : fabrication à haute température du verre et du silicium, transport longue distance, quelques milligrammes de « terres rares », … Cela doit-il nous inquiéter ?

panneaux photovoltaiques impact

Selon un article de la revue « nature » [Re-assessment of net energy production and greenhouse gas emissions avoidance after 40 years of photovoltaics development], Atse Louwen, Wilfried G. J. H. M. van Sark , André P. C. Faaij & Ruud E. I. Schropp ; Nature Communications volume7, Article number: 13728 (2016)] , entre les années 80’ et aujourd’hui, l’empreinte des panneaux solaires n’a cessé de baisser passant de :

  • ±400gr à moins de ±25gr de CO2équivalent/kWh pour les panneaux monocristallins
  • ±140gr à moins de ±20gr de CO2équivalent/kWh pour les panneaux polycristallins !
À titre comparatif, voici quelques chiffres du GIEC (2014) :
Source d’énergie Impact en gr de CO2 équivalents par kWh
Parcs éoliens 11
Panneaux solaires 27 (20-25 selon d’autres sources plus récentes)
Centrale à gaz  490
Centrale au charbon  820 (+Particules fines)
Nucléaire 12  (+Risque de catastrophe nucléaire)

Dans le même temps, les rendements de production, la recyclabilité et le déploiement des panneaux n’ont cessés de croître permettant aux PV d’assurer un retour environnemental en moins de 4 à 5 ans sous nos latitudes pour les études les plus prudentes. Un retour sur 2 à 3 ans peut également être trouvé chez les auteurs dont les hypothèses sont plus favorables. Cette durée devrait continuer à se raccourcir dans les années à venir alors qu’en parallèle la durée de vie des panneaux modernes – conventionnellement définie à 20 ans – devrait s’étendre à 30 ans et + dans les années à venir.

Moyennant l’acceptation d’une baisse de rendement (de l’ordre de 20% après 20-25 ans), certaines entreprises garantissent leurs systèmes pour « toute la durée de vie de votre maison » ! Dans un futur proche, les panneaux solaires pourraient donc même survivre à votre maison !

Néanmoins, rien n’est éternel. En ce qui concerne la fin de vie des panneaux, on estime en 2019 qu’avec les techniques actuelles, entre 90 et 95% des composants des panneaux peuvent être recyclées((Selon le rapport de l’agence internationale de l’énergie : INTERNATIONAL ENERGY AGENCY PHOTOVOLTAIC POWER SYSTEMS PROGRAM, End-of-Life Management of Photovoltaic Panels: Trends in PV Module Recycling Technologies IEA PVPS Task12, Subtask 1, Recycling Report IEA-PVPS T12-10:2018, January 2018, ISBN 978-3-906042-61-9)) (l’énergie nécessaire au recyclage étant prise en compte dans le calcul du retour énergétique). Ensuite, partant du constat que, pour la Belgique, l’installation de panneaux a réellement commencé à décoller vers 2009 avec un pic vers 2011 (Apere), nous pouvons estimer que le début du recyclage à grande échelle ne devrait pas se manifester avant ±2030, ce qui nous laisse encore quelques années pour améliorer la valorisation des panneaux en fin de vie.

On pourrait aussi légitimement se demander ce qu’il en est des panneaux plus anciens dont la fabrication était jadis jusqu’à 8 fois plus impactante qu’en 2016 ? Avec un calcul rapide, on peut se rendre compte que ces premiers modèles de panneaux proposaient un retour environnemental sur 20 à 40 ans alors même que leur durée de vie tourne autour des 20 ans. Ces premières versions de panneaux ont donc un bilan neutre ou négatif sur l’environnement !

Rassurez-vous néanmoins, malgré des débuts mitigés et une explosion énergivore de la quantité de panneaux produits, toujours selon cette étude, les balances nettes cumulées depuis les débuts du PV, sont passées en positif récemment, entre 2011 et 2018 (selon les hypothèses). Et ce tant pour le CO2 évité par rapport au CO2 produit que pour l’énergie primaire produite par rapport à celle consommée pour la fabrication, l’entretien et le recyclage.

L’investissement environnemental de départ nécessaire pour qu’une technologie voit le jour et atteigne une certaine maturité est donc derrière nous et le PV a de beaux jours exponentiellement positifs devant lui !

grpahe panneaux photovoltaique impact

Re-assessment of net energy production and greenhouse gas emissions avoidance after 40 years of photovoltaics development, Nature 2016. [Les hypothèses bleues et jaunes correspondent respectivement à une hypothèse de rendement des panneaux produits progressant dans le temps et une hypothèse de rendement stagnant et bas des panneaux]

Pour conclure, rappelons qu’il vaudra toujours mieux chercher à se passer d’énergie (isolation, systèmes passifs, …) que de la produire de manière renouvelable. Un bilan « net », même « positif » implique toujours une balance entre des effets désirables mais également des impacts négatifs. Si, mathématiquement, on peut soustraire l’un de l’autre, dans la réalité les effets néfastes de la conception, de l’entretien et du recyclage ne disparaissent pas par la production d’énergie fusse-t-elle photovoltaïque. Ces effets positifs et négatifs se juxtaposent plus qu’ils ne s’annulent.

SmartBuilding : définition

SmartBuilding : définition


Définition

Un bâtiment intelligent ou « Smartbuilding » est un bâtiment qui cherche à répondre aux enjeux généraux de confort, de bien-être, de sécurité et de performance énergétique et environnementale par l’exploitation des technologies liées au monde numérique.
Architecture et Climat – Janvier 2019

Intelligence artificielle dans le smartbuilding

Pour chacun de ces enjeux, le Smartbuilding poursuit 4 objectifs majeurs :

  • La flexibilité énergétique,
  • La commodité et l’ergonomie,
  • L’optimisation et l’efficacité,
  • La maintenance et la prévention des pannes.

Le bâtiment intelligent cherche à atteindre ces 4 objectifs pour chacun des enjeux en faisant communiquer et coopérer les systèmes du bâtiment entre eux tout en incluant l’occupant.

Le bâtiment, désormais smart, dispose ainsi de nouveaux outils numériques pour (s’)informer, contrôler, prévoir, optimiser et simplifier la gestion du bâtiment.

Le Building Performance Institute Europe [BPIE] ajoute qu’un bâtiment intelligent :

  • « Conduit à une décarbonisation plus rapide des systèmes énergétiques par l’utilisation du stockage d’énergie et l’amélioration de la flexibilité de la demande énergétique ;
  • Habilite et responsabilise ses usagers et occupants en leur offrant le contrôle des flux d’énergie ;
  • Reconnait et réagit aux besoins des occupants et des usagers en termes de confort, de santé, de qualité de l’air intérieur, de sécurité mais aussi d’exigences pratiques. « 

Mais cette « surcouche SMART » présente également des risques et de nouveaux défis pour le secteur du bâtiment. Principalement, ces risques sont : l’échec de la symbiose avec les occupants, la cybersécurité, l’obsolescence des équipements, le surcoût économique et environnemental à rentabiliser (voir plus loin).


Quelle différence avec la GTC ?

Le smartbuilding se différencie de la GTC (Gestion Technique Centralisée) :

  • par son champ d’application plus large, allant bien au-delà de la HVAC en intégrant d’autres systèmes (accès, ascenseur, renouvelable, sécurité, …)
  • Par son niveau d’interaction plus élevé et plus complexe entre les différentes techniques. Ceci permet à la HVAC, l’éclairage, les protections solaires, le contrôle d’accès,… de fonctionner de concert pour améliorer le confort et la performance du bâtiment.
  • par sa philosophie et son caractère beaucoup plus flexible et ouvert. Ces qualités se manifestent vers l’utilisateur qui dispose désormais d’interface conviviales pour configurer ses systèmes à souhait mais également entres les différents systèmes techniques. Dans un Smartbuilding, les éléments ne sont liés entre eux que par un réseau et de la programmation : un détecteur ou un interrupteur n’est pas structurellement relié à une lampe plutôt qu’à une autre. La manière dont les différents éléments d’un smartbuilding interagissent entre eux est désormais flexible et modifiable à souhait.

GTC dans smartBuilding

Finalement, alors que le « cerveau » de la GTC est centralisé dans un centre de gestion, celui d’un Smartbuilding est réparti entre les différents systèmes et est présent à plusieurs échelles dans chaque sous-système.

Par exemple, chaque ampoule embarque un logiciel métier mais c’est également le cas de la passerelle qui gère les interactions entre les interrupteurs, les ampoules et le réseau. Un cloud peut également intervenir sur la gestion du système et constituer une source de service supplémentaire. Cette configuration décentralisée et parfois distribuée de la gestion améliore la résilience des systèmes.


Quels sont les systèmes intégrés dans le bâtiment intelligent ?

Concrètement, grâce à l’interopérabilité et à la standardisation lente mais croissante des protocoles de communication, les Smartbuildings sont capables de monitorer, analyser et faire coopérer une variété de systèmes techniques de plus en plus large. La seule limite étant la créativité du concepteur et/ou de l’intégrateur pour répondre aux besoins de l’occupant.

La liste des sous-systèmes pouvant coopérer au sein d’un smart building est sans limite. Nous citerons donc à titre non exhaustif les systèmes principaux les plus souvent intégrés que sont :

  • Le système de raccordement au réseau et les compteurs intelligents,
  • Le système de production de chaleur,
  • Le système de refroidissement,
  • Le système de production d’ECS,
  • Le système de ventilation,
  • Le système de production et d’intégration d’énergie renouvelable,
  • Le système de stockage d’énergie,
  • Le système d’éclairage,
  • La motorisation des parties mobiles de l’enveloppe (stores, fenêtres motorisées…),
  • Le système de protection incendie,
  • Le système de gestion des eaux,
  • Les ascenseurs,
  • Le système d’accès et de sécurité,
  • La recharge et l’intégration des véhicules électriques,
  • Le monitoring et le contrôle du bâtiment,
  • Les appareils électroménagers.

Mais aussi, pourquoi pas : la détection de fuites, les livraisons, les déchets (poubelles connectées), l’inventaire, l’agenda partagé (peut coopérer avec les systèmes des salles de réunion, etc…), l’arrosage automatique, …


Gadget ou vraiment « smart » ?

Dans la vie de tous les jours, qu’est-ce qu’un bâtiment intelligent, qu’a-t-il de vraiment smart ?

Gadget : Objet, appareil, dispositif, projet etc…, qui séduit par son caractère nouveau et original, mais qui n’est pas d’une grande utilité.

Smart : Se dit d’un bien dont la maintenance ou le fonctionnement sont assurés par un dispositif automatisé capable de se substituer, pour certaines opérations, à l’intelligence humaine.

LAROUSSE – 2018

Si le concept et l’imaginaire qui entoure le smartbuilding peut sembler un peu « geek » ou gadget au premier abord, la différence entre un bâtiment « non-smart » des années 60’ et un bâtiment intelligent correspond à peu près à la différence qu’on peut retrouver entre un tracteur « full manuel » des années 60 et une voiture hybride semi-autonome d’aujourd’hui !

Le tracteur est composé d’une série d’éléments (phares, moteur, direction, freins…) actionnés et régulés indépendamment par des commandes individuelles, directes et manuelles.

tracteur dans la catégorie smartbuilding

 

À contrario, et même si nous y sommes habitués et que nous ne le remarquons peut-être plus, nos voitures actuelles sont en réalité des « smartcars » avec tout ce que cela comporte d’aspects positifs, ou pas.

voiture du futur

Rendez-vous compte : la voiture hybride choisi seule si c’est le moteur électrique ou thermique qui doit être utilisé en fonction de l’état de la batterie, du réservoir, de la vitesse et du type de conduite ; la voiture ne se déverrouille que lorsque la clé se trouve à proximité, la lumière intérieure s’allume à l’ouverture de la porte ; les phares s’allument automatiquement quand la nuit tombe ; les vitesses passent automatiquement et de manière adaptée à notre conduite du moment ; le volume de la musique baisse lorsque le GPS s’exprime, l’alarme pour la ceinture sonne dès que le siège détecte la présence d’un passager non ceinturé ; le moteur s’éteint au feu rouge, etc…

Tiens, tiens, … entre notre tracteur et notre voiture dernier cri, tout ne serait-il pas devenu interconnecté via un réseau d’information et partiellement automatisé pour faciliter la vie à bord, améliorer le confort, la sécurité et économiser de l’énergie ?

Dans le secteur automobile comme dans le bâtiment, pour être réellement smart, il est important de trouver le bon équilibre entre automatisation et suggestion en fournissant de l’information exploitable par l’utilisateur (entretien à venir, limitation de vitesse, pression des pneus, bouchons, présence d’un obstacle, …) lui suggérant telle ou telle action.

Ainsi, nous ne sommes pas à l’abri de certaines fonctions « gadget » mais, dans leur ensemble, les bâtiments intelligents le sont vraiment et ont un impact mesurable sur l’efficacité énergétique, le confort, le bien-être, la santé et la sécurité des occupants((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)).

Dans la littérature, nous pouvons observer des réductions de consommation des bâtiments allant de 5-15% pour la HVAC et jusqu’à 60% pour l’éclairage((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)) en fonction du niveau (très variable) d’intelligence, d’automatisation et d’intégration des systèmes.

Pour conclure, tout n’est évidemment pas mauvais ou inutile dans le smartbuilding mais, comme dans les autres secteurs, il vaudra toujours mieux privilégier les alternatives passives et la sobriété énergétique, plutôt que consommer de manière « Smart ».

vélo dans la catégorie smartBuiling


Quels sont les risques liés au smartbuilding ?

Les risques inhérents à la mise en œuvre sont au nombre de 4 :

  • Risque d’échec de la symbiose avec les occupants,
  • Risque de faille informatique, cybersécurité,
  • Risque d’obsolescence des équipements et softwares,
  • Risque de surcoût économique et environnemental non rentabilisé.

Échec de la symbiose avec les occupants :

Si le projet va trop loin dans l’automatisation, l’optimisation et la prédiction tout en réduisant les possibilités de déroger et d’interagir avec les systèmes, alors l’occupant perd la maitrise de son bâtiment. Il pourrait se retrouver sans levier d’action et ne plus comprendre pourquoi en plein hiver les stores se ferment au premier rayon de soleil alors que lui, en plein « blue monday », est à la recherche de Vitamine D !

domotique

 

Il faudra à tout prix éviter ce décalage entre d’un côté, une sombre optimisation énergético-économique opérée par une machine et de l’autre, les envies et besoins impulsifs éminemment humains des occupants. Pour éviter ce clash, la « machine » devra fait preuve de transparence, flexibilité, interactivité et convivialité !

Plus généralement, pour qu’un projet de smartbuilding soit positivement adopté par les utilisateurs, celui-ci devra répondre de façon proche et avec tact aux besoins de ces derniers. Pour donner toutes ses chances au projet de Smartbuilding, le concepteur et l’intégrateur (qui sont parfois une même entité) devraient être impliqués dans le projet et échanger avec les occupants et les acteurs de la construction (Architecte, entrepreneur, électricien, …) dès les premières esquisses puis tout au long du projet.

C’est notamment lors de ces discussions que les « fourchettes » d’action (borner le chauffage entre 16°C et 22°C par exemple) et que les limites de la paramétrisation laissées à l’occupant via les diverses interfaces sont définies. À l’issue de ces discussions, un équilibre devra être trouvé entre, d’une part :

  • garantir la robustesse du système et éviter que l’occupant puisse toucher à trop d’éléments techniques, ce qui risque d’engendrer des dysfonctions
  • et, d’autre part, lui permettre d’ajuster, de déroger sur suffisamment de paramètres pour qu’il conserve le contrôle et la maitrise de son bâtiment.

Risque de faille informatique, la cybersécurité

numérique dans la catégorie smartbuiling

L’autre risque qui survient quant on mandate des machines pour prendre des décisions à notre place et qu’on les interconnecte entre elles est celui de la cybersécurité : « Et si quelqu’un s’infiltre et prend les commandes de mon bâtiment ? Ou pire, s’il utilise la connection d’une ampoule comme passerelle pour s’infiltrer sur mon serveur d’entreprise et voler mes données ? »

Bien que les inquiétudes soient légitimes, bien que la vigilence soit de mise, il n’y a pas de raison de s’en inquiéter irrationnelement ou, en tous cas, plus que nous le faisons déjà avec notre réseau Wifi, notre smartphone, mots de passes ou nos clés d’appartement.

Étant donné qu’aucun système de sécurité n’est fiable à 100%, que ce soit les serrures de votre bâtiment ou son alarme, la bonne pratique en matière de (cyber)sécurité est d’agir proportionnellement. Cela commence en évaluant la valeur des données et/ou des biens que renferme le bâtiment pour définir un niveau de sécurité adapté à atteindre et l’appliquer partout : à son smartbuilding, au réseau wifi, aux serrures physiques du bâtiment, aux mots de passes des adresses mail, …

Par analogie : « Installer une porte blindée ne sert à rien si la fenêtre reste ouverte. »

Il faut donc prendre la question de la cybersécurtié au sérieux et faire réaliser un audit pour définir le niveau de protection à atteindre mais également garder à l’esprit que d’importants progrès en la matière sont réalisés jour après jour et que les cas de cyberattaques directement liées à une faille d’un Smartbuilding sont relativement rares. Si les données que renferment le bâtiment ont de la valeur, il est toujours possible d’étanchéifier le réseau « smartbuilding » du/des réseaux qui renferment des données sensibles.

Si, au départ, le cloud avait une place importante dans le smartbuilding, suite à la révélation de certaines failles informatiques conséquentes, il est de moins en moins utilisé. Aujourd’hui, le remote controling du smartbuilding est réalisé par réseau privé virtuel ou VPN. Sans entrer dans les détails, un VPN fonctionne comme un tunnel temporaire et étanche qui permet de se connecter directement à distance à un ordinateur situé dans le bâtiment. Contrairement au Cloud qui « discute » tout le temps avec le bâtiment, ici un tunnel n’est ouvert qu’en cas de besoin et l’ensemble se déconnecte quand il n’y a plus d’échanges.

Le risque d’obsolescence des équipements et des softwares.

Les premiers smartbuilding sont relativement récents de sorte que les retours sont peu nombreux et ne permettent pas de déterminer avec certitude si ces bâtiments feront face à un phénomène d’obsolescence ou non. Néanmoins, quelques éléments de réponses peuvent être apportés.

Tout d’abord, l’interopérabilité et la structure du réseau « plug and play » décentralisé ou parfois distribué des systèmes du smartbuilding est un gage de résilience et donc de durabilité. Dans ces systèmes peu hiérarchisés et non-linéaires, chaque élément ou presque peut-être remplacé ou retiré individuellement. D’autres éléments peuvent éventuellement être ajoutés. C’est un système évolutif, ce qui facilite grandement les réparations, adaptations, remplacements.

cnetralisé et décentralisé

Cependant, qui dit systèmes évolutifs, dit également systèmes qu’on aura envie de faire évoluer. La tentation de compléter son système avec des équipements « gadgets » superflus ou par la nouvelle version de l’un ou l’autre équipement peut indirectement être source de gaspillage et d’obsolescence.

Si la GTC appartient progressivement au passé, celle-ci avait la qualité de pouvoir accompagner un bâtiment plus de 15 ans sans modification ou encombre majeure.

Quand nous observons les durées de vies couramment observées des softwares, objets connectés et autres tablettes, nous pouvons légitimement douter de la pérennité de l’ensemble des composants du smartbuilding.

  • >30-50 ans pour un bâtiment,
  • >15-20 ans pour un équipement de technique,
  • ±8-10 ans pour un objet connecté,
  • ±4-6 ans pour un système d’exploitation
  • Et ±2-4 ans pour une application

Risque de voir le surcout économique et environnemental non rentabilisé sur la durée de vie

La Smartbuilding poursuit, entre autres, un objectif d’efficacité environnementale et de rationalisation de la consommation d’énergie. Le Maitre d’ouvrage cherche de surcroit à réaliser des économies en réduisant la consommation et l’empreinte environnementale de son bâtiment.

Le premier risque d’un smartbuilding est d’observer une optimisation énergétique et une baisse de la facture énergétique insuffisamment conséquente pour compenser le surcoût « smart » lors de la construction du bâtiment.

graphe sur le smartbuilding

Ensuite, comme les nombreuses sondes, équipements, puissances de calcul, … sont sous-tension et communiquent 24h/24, 7j/7, ils engendrent une consommation d’électricité non négligeable. Ces équipements supplémentaires ont également une empreinte en énergie grise liée à leur fabrication dont il faut tenir compte. Le second risque serait que cet « investissement environnemental supplémentaire » ne soit pas au moins compensé par l’économie et la rationalisation énergétique que ces équipements génèrent au cours de leurs vies.

On estime qu’en 2025 les objets connectés auront une consommation équivalente à un pays comme le Canada.

Basé sur les chiffres de l’AIE (Agence Internationale de l’Énergie) – 2013


Le « smart » : un progrès (in)contournable ?

Un faisceau d’incitants directs et indirects comme le « SRI », l’intégration croissante du renouvelable, l’encouragement à l’autoconsommation, le choix européen d’orienter la mobilité vers l’électrique, des attentes et des normes de confort et de commodité croissantes vont pousser chaque jour un peu plus à « smartiser » nos bâtiments.

Si la volonté est de se doter des dernières technologies pour profiter des fonctionnalités et services les plus à la pointe, alors le Smart et l’interconnexion deviendront incontournables.

L’automatisation de certaines tâches et l’optimisation du bâtiment nous permet alors de multiplier les fonctionnalités, les services, rationnaliser la consommation d’énergie et améliorer le confort tout en nous soulageant d’une partie de la gestion et de la programmation.

Néanmoins, nous observons également combien la course au progrès se fait régulièrement au détriment du bon sens et de la maitrise de son environnement. C’est pourquoi nous pensons qu’il nous revient, au cas par cas, de définir si un tel progrès est de nature à répondre à un besoin réel ou non. Plutôt que d’offrir des solutions à un problème qui n’existe pas, le smartbuilding se devra de répondre sur-mesure aux besoins et aux attentes propres à chaque groupe d’occupant.

D’un point de vue uniquement énergétique, si nous devions positionner l’intégration du « smart » dans une stratégie de conception telle que la trias-energetica, elle trouverait assurément sa place en queue de peloton :

  • lorsque les besoins sont réduits au maximum rationnel (Optimisation de l’enveloppe, des comportements…),
  • que la plus grande part possible des besoins est couverte par des énergies renouvelables,
  • et que le complément (fossile) est produit avec le meilleur rendement possible

Alors seulement, comme dernier effort, le smartbuilding devrait être envisagé et intégré au bâti de manière à rationnaliser toujours plus les besoins, optimiser l’autoconsommation, perfectionner le confort et améliorer l’efficacité et la gestion énergétique.

Il serait hautement souhaitable que l’utilisation de cette force de calcul puisse, paradoxalement (?), se mettre au service des solutions Low-Tech et passives en les rendant plus autonomes et intelligentes de manière à les rendre aussi efficaces que certains systèmes actifs complexes, lourds et consommateurs d’énergie.

En effet, des éléments architecturaux « basiques » comme les fenêtres ouvrantes ou les volets sont des composants formidablement simples et efficaces pour refroidir ou ventiler un bâtiment. Leur unique « défaut » réside éventuellement dans leur mauvaise utilisation : faute d’information et de capacité d’anticipation de l’occupant mais également dans l’impossibilité d’être actionné en dehors des horaires d’occupation.

Avec un peu d’IA et quelques sondes simples, l’utilisateur peut, par exemple, être informé anticipativement par une simple diode LED de l’intérêt ou non d’actionner tel ou tel dispositif de manière à adapter et optimiser son utilisation des ouvrants.

Dans certains cas judicieux, pour aller plus loin, ces éléments peuvent être connectés et motorisés de sorte que, lorsque l’utilisateur est absent, le smartbuilding pourra prendre le relais et actionner ces systèmes simples avec très peu de moyens techniques et énergétiques.

Architecture et Climat  – Janvier 2019

Intelligence artificielle (IA) appliquée aux bâtiments

Intelligence artificielle (IA) appliquée aux bâtiments

Aujourd’hui, l’intelligence artificielle (IA) s’immisce partout, jusque dans nos bâtiments… Mais au-delà du mythe, de la crainte ou encore du fantasme, qu’est-ce que réellement l’intelligence artificielle et quel rapport entretient-elle avec les bâtiments ? De quoi s’agit-il ?

L’intelligence artificielle regroupe l’ensemble des technologies (les programmes, codes, machines, techniques…) capable de reproduire un ersatz d’intelligence. Il s’agit donc pour ces outils, programmes ou techniques de simuler des processus cognitifs, parfois plus vite qu’un humain, parfois de façon originale. Néanmoins, l’intelligence artificielle ne peut naître d’elle-même ou apprendre d’elle-même sans supervision humaine. L’IA n’a pas de « volonté » ou de « conscience », il ne s’agit que d’une chaine de petits calculs et algorithmes relativement « simples » qui, combinés bout à bout et itérés, permettent d’accomplir des processus cognitifs complexes (reconnaitre des caractères, convertir une voix en texte, …). Ce haut niveau de complexité peut parfois semer le trouble et faire croire « qu’il y a quelqu’un là de-dedans » mais il n’en est rien !


Les limites d’une intelligence informatique supervisée

Si, du côté du matériel (le « hardware »), les « machines de calcul » atteignent des sommets (augmentation des puissances, cloudcomputing, …), la limite la plus forte se situe dans la formalisation, la programmation des tâches : comment expliquer à une machine qu’elle doit effectuer une tâche déterminée ?

C’est en effet une chose d’avoir de la puissance et une endurance à toute épreuve mais si on ne sait pas qu’il faut mettre un pied devant l’autre pour courir, toute cette puissance ne sert à rien. Ainsi, la programmation informatique des tâches est aussi ardue que la logique d’une machine est éloignée de celle d’un humain : une machine a plus de facilité à énumérer des nombres premiers qu’à reconnaitre un chat ou, simplement, marcher. Pour une machine tout est mathématique et logique, rien n’est « inné », tout doit rentrer dans des cases.

Aussi, jusqu’à présent, aucune machine n’apprend par elle-même à partir de rien. Systématiquement, l’humain doit spécifier les paramètres à prendre en compte, les règles du jeu et l’objectif à atteindre.

La performance de la machine dépend donc de ses composants mais surtout de la capacité de l’humain à en tirer parti et savoir « expliquer » (programmer) les règles du jeu de manière efficace et, le cas échéant, à fournir des données en quantité et qualité suffisante pour que la machine puisse les analyser et s’optimiser pour répondre au mieux aux objectifs. La machine peut donc s’entrainer ou optimiser un processus, parfois à des niveaux de complexité très élevés mais ne peut pas, à l’origine, faire preuve d’intelligence ou d’initiative pure par elle-même.

Si nous observons en bref le fonctionnement d’un thermostat « dernier cri » dit « smart » ou « intelligent », on se rend compte que ce n’est pas un génie. Il s’agit d’une machine à qui on a expliqué (programmé) que, pendant son exploitation, elle allait devoir optimiser sa manière d’agir sur la chaudière en fonction d’une série de paramètres (température extérieure, ensoleillement, température intérieure, …) de manière à ce que la température mesurée des espaces intérieurs réponde au mieux aux attentes planifiées de l’occupant.

Cette machine enregistre les différents paramètres qu’elle mesure et adapte son fonctionnement logique si elle manque son objectif (selon un processus d’itération préprogrammé par le concepteur). En effet, si le nouveau thermostat « intelligent » que vous avez depuis 3 jours déclenche par défaut la chaudière 30 minutes avant le réveil de l’occupant pour atteindre 20°C à 7h du matin, il va arriver un jour où les températures extérieures vont baisser et où la pièce aura besoin de bien plus de 30 minutes pour chauffer. Ce jour-là, la machine va se tromper et atteindre la température de consigne en retard mais surtout elle va le mémoriser et tenir compte de son erreur. Ainsi, si elle est bien programmée, elle « se souviendra », la prochaine fois qu’il fera aussi froid, qu’elle n’y était pas parvenue et elle lancera la chaudière un peu plus tôt et ainsi de suite. Au fil du temps, des erreurs et des corrections, le thermostat perfectionnera son algorithme pour répondre au mieux à sa mission. Plus le programmeur aura fait intervenir des paramètres dans l’algorithme plus la machine pourra se perfectionner et corriger son calcul au fil du temps.

Dans tous les cas, la machine restera limitée par son hardware (le nombre et la qualité de ses capteurs) mais aussi et surtout par la qualité de sa programmation. En effet, il ne faudrait pas que le jour où vous oubliez une fenêtre ouverte toute la nuit avec pour effet de biaiser le comportement de la relance de votre chauffage, le thermostat se dérègle et désapprenne tout. Seul un programmeur intelligent qui aurait anticipé ce genre de cas pourra permettre au thermostat de comprendre que ce matin-là était anormal et qu’il ne doit pas en tenir compte pour la suite.


Quelle place dans le bâtiment ?

Le numérique, les technologies de la communication et l’IA, prennent une place de plus en plus importante grâce aux évolutions dans les domaines des TICs (technologies de l’information et de la communication), de l’informatique, de l’électronique, … Avec l’automatisation croissante, ces progrès ont permis l’introduction dans nos bâtiments de systèmes techniques plus complexes et finement régulés sans pour autant augmenter proportionnellement la difficulté de la gestion quotidienne pour les occupants.

Ainsi, les systèmes du bâtiment ont pu devenir de plus en plus nombreux, interconnectés, perfectionnés et complexes individuellement. Cette complexité est en voie de s’accroitre dans les prochaines années avec l’intégration croissante des énergies renouvelables et la mise en réseau lente mais progressive des systèmes entre eux de sorte qu’il y aura encore une augmentation considérable du nombre de prise de mesures, de décisions et d’actions à automatiser et optimiser pour réguler tous ces systèmes en continu de manière optimale et coordonnée.

L’intégration de ces technologies dans ce qu’on appelle désormais un « smartbuilding » représente une opportunité unique d’amélioration de la performance énergétique et du confort dans les bâtiments.

NetZEB : bâtiments Nets Zéro-Énergie

NetZEB : bâtiments Nets Zéro-Énergie


Définition

Dans la famille des concepts de performance énergétique des bâtiments, je demande le bâtiment net zéro-énergie !

Mais qu’est-ce qu’un bâtiment « net » zéro-énergie ?

Les NetZEB pour « Net Zero Energy Building » (bâtiments nets zéro-énergie, ou « à bilan énergétiques neutres ») ne sont en rien des bâtiments autonomes ou zéro émissions. Ils peuvent être définis comme produisant autant d’énergie qu’ils n’en consomment sur une période de temps. Le bâtiment peut consommer ou non sa production et consommer de l’énergie issue du réseau ou de sa propre production (autoconsommation). Le bilan s’établi sur une année, généralement en énergie primaire et la production énergétique doit être renouvelable, cela va de soi !

Ainsi, un tel bâtiment compense sa consommation du mix énergétique sur le réseau en déversant sa surproduction renouvelable sur le réseau lorsqu’il ne peut l’autoconsommer. Généralement, le bâtiment sera consommateur en hiver et producteur en été. L’indication « Net » devant « zéro-énergie » vise à souligner cet équilibre entre consommation et production, calculé en énergie primaire. [Schéma central, ci-dessous]

Pour les bâtiments qui produisent plus d’énergie qu’ils n’en consomment, on parlera de bâtiments à énergie positive [schéma de droite, ci-dessous] tandis que ceux dont la production est proche de leur consommation mais inférieure on utilisera le terme « Quasi zéro énergie ». [Schéma de gauche, ci-dessous]

Schémas sur les 3 définitions bâtiments basse énergie.

* Si en 2018 aucune exigence wallonne ne porte sur le net zéro-énergie ou l’énergie positive, la directive Européenne 2010/31/UE impose néanmoins aux États-membres que toutes les nouvelles constructions soient quasi zéro-énergie dès le 1er Janvier 2021. Chaque État-membre est néanmoins libre de définir jusqu’à quelle écart entre production et consommation d’énergie primaire il considère qu’un bâtiment est « quasi » zéro-énergie. Pour la Wallonie, toutes les valeurs réglementaires en fonction du type de bâtiment se trouvent sur notre page dédiée.

On comprend donc bien que ce qui est mesuré au niveau de la balance énergétique ne concerne que les échanges entre le réseau et le bâtiment, ce qui se passe à l’intérieur du bâtiment n’est pas repris dans le bilan. L’éventuelle part d’autoconsommation n’est ainsi pas directement comptabilisée ou valorisée dans cet équilibre. L’égalité se fait par comparaison entre consommation sur le réseau et surproduction remise sur le réseau.

Schéma sur l'équilibre entre consommation sur le réseau en hiver et surproduction injectée sur le réseau en été.
Équilibre entre la consommation sur le réseau en hiver et la surproduction injectée sur le réseau en été.

Ces bâtiments sont toujours dépendants du réseau car ils y puisent une partie de leur consommation. Il ne faudra donc pas les confondre avec les bâtiments strictement zéro-énergie ou les bâtiments autonomes qui eux parviennent à annuler leurs besoins en énergie ou à les combler instantanément et en totalité par des énergies renouvelables produites sur place ou au sein d’un district énergétique local sans connexion au réseau.


Histoire du concept

Les premières mentions de bâtiments zéro-énergie sont la MIT Solar House I en 1933 (BUTTI,K.et PERLIN,J.(1980). A Golden Thread, 2500 Years of Solar Architecture and Technology. Van Nostrand Reinhold Company) et la Bliss House en 1955 (BLISS, R. (1955). Design and performance of the nations’ only fully solarheated house. Air conditioning, Heating and Ventilating, 52:92–97). D’autres exemples historiques sont la Vagn Korsgaard Zero energy Home au Danemark (ESBENSEN,T.et KORSGAARD,V.(1977). Dimensioning of the Solar Heating System in the Zero Energy House in Denmark. Solar Energy, 19:195– 199) et la Saskatchewan Conservation House (BESANT, R., DUMONT, R. et SCHOENAU, G. (1979). The Saskatchewan conservation house: some preliminary performance results. Energy and Buildings, 2:163–174). Les premières se concentraient sur la maximisation de la production et valorisation de l’énergie solaire, les secondes y ajoutaient des mesures de réduction de la demande de chaleur.

Ces deux axes de développement vont se croiser à la fin du XXème siècle, et résulter en une modification importante de la conception et du bilan énergétique des bâtiments. Par exemple, le double puis triple vitrage devient la norme permettant d’augmenter la surface vitrée des logements et bureaux sans augmenter les besoins de chaleur, mais en élevant les besoins de refroidissement. Ceci entraîne des réflexions plus poussées sur les protections solaires, le développement de doubles façades, etc. C’est à ce moment que se produit un glissement dans la manière de concevoir. Alors qu’avant une installation de conditionnement d’air était pensées isolément pour compenser les charges thermiques du bâtiment, quelle qu’elles soient, les concepteurs l’ont progressivement intégrée au concept global du bâtiment pour en faire un ensemble de plus en plus cohérent et complémentaire regroupant: l’enveloppe, les HVACs, les techniques passives, l’éclairage et les appareils électriques.

L’intégration croissante des systèmes et l’apparition au début des années 90’ de l’idée que techniquement le soleil pourrait suffire à répondre aux besoins d’énergie du bâtiment, contribue à renforcer la réflexion sur le zéro-énergie. Le soleil, bien utilisé et combiné à des techniques passives de régulation de l’ambiance pourrait permettre de tendre vers le zéro-énergie. Or, à ce moment, les panneaux solaires photovoltaïques et thermiques se développent, gagnent en efficacité mais surtout deviennent de plus en plus abordables.

La conjoncture d’alors entre :

  • le développement de technologies de production d’énergie renouvelable abordables,
  • l’urgence environnementale,
  • la nécessité de réduire le pic énergétique de la demande,
  • la mise en place de politiques économiques de soutien au développement des énergies renouvelables
  • la maturité des systèmes HVAC
  • l’émergence d’une vision complète et intégré des systèmes.

fut propice au développement de la perspective du Net Zéro-Énergie.

Assez vite est apparue une réflexion sur le caractère autonome (par rapport au réseau) ou non des bâtiments « zéro-énergie ». Vale et al. ont montré que l’idée d’une liaison au réseau permet une meilleure performance sur le cycle de vie du bâtiment que la recherche d’autonomie par le stockage in situ de l’énergie produite, et offre également plus de flexibilité (VALE, B. et VALE, R. (2002). The New Autonomous House : Design and Planning for Sustainability. Thames & Hudson Ltd). L’idée que le bâtiment « zéro-énergie » fasse partie intégrante d’un réseau énergétique s’est dès lors généralisée.

L’idée d’un habitat entièrement autonome est aujourd’hui limitée aux cas où les réseaux d’énergie font défaut. Pour éviter toute confusion le terme bâtiment net zéro-énergie (Net-ZEB) est utilisé de préférence à bâtiment « zéro-énergie » pour désigner un bâtiment dont la balance consommation/production est nulle sur une période déterminée (généralement un an). Il s’agit d’avoir pu produire et réinjecter sur un réseau autant d’énergie que l’on en aura consommé. Cette approche a le mérite de replacer le bâtiment dans un contexte régional (via le réseau d’électricité) ou local (via des réseaux de chaleur urbains). Notons que certains projets se présentent déjà comme plus ambitieux et prétendent à un statut de bâtiment à énergie positive.


Peut-on être NetZEB et gros consommateur d’énergie fossile?

Oui, en théorie, sans aucun doute. D’après la définition littérale d’un bâtiment NetZEB, il « suffit » simplement d’être aussi grand producteur que consommateur pour être NetZEB. Ainsi, un bâtiment mauvais du point de vue de sa performance thermique, pourrait compenser, par exemple, avec une grande surface de panneaux photovoltaïques. Celui-ci pourra alors être considéré comme « Net Zéro-Énergie ».

Définition littérale d’un bâtiment NetZEB.

Si mathématiquement la balance est vérifiée, d’un point de vue qualitatif peut on affirmer que l’énergie consommée en hiver à partir du mix énergétique (majoritairement fossile) équivaut à la même quantité d’énergie produite en été de manière renouvelable ?

En effet, l’énergie consommée en hiver est issue du mix énergétique wallon (et donc majoritairement non-renouvelable à ce jour) et utilisée à un moment où l’énergie est plus rare tandis que celle produite en été par les panneaux PV est injectée sur le réseau à un moment où la consommation est moindre et l’énergie se fait beaucoup moins rare…

Schéma sur le concept Net zéro-énergie, précisions (1).

Si les cas 1 et 2 sont tous deux Net zéro-énergie (la balance entre la surproduction injectée sur le réseau en été et la consommation sur le réseau en hiver étant à l’équilibre), on remarque que même avec ce « label », un bâtiment peut rester un grand consommateur d’énergie issue du mix énergétique du réseau (cas 2). Les deux balances sont mathématiquement à équilibre mais il reste qu’au bout de l’année une plus grande quantité d’énergies fossiles auront été consommées pour ce bâtiment (cas 2)… La meilleure énergie est et sera toujours celle qu’on ne consomme pas.

Schéma sur le concept Net zéro-énergie, précisions (2).

Pour avoir un sens environnemental et énergétique, les concepteurs de bâtiments Net zéro énergie ne peuvent se limiter au seul critère de l’équilibre production/consommation mais devraient aussi, dès le début de la conception, veiller à réduire les besoins au minimum rationnel et pertinent avant d’entreprendre les démarches de compensation des besoins résiduels via la production d’énergie renouvelable in situ. En ce sens, les exigences thermiques régionales sur la performance des parois (Umax) et le niveau d’isolation thermique global (niveau K) constituent des garde-fous.

Pour aller plus loin, n’hésitez pas à visiter nos pages sur les stratégies de conception !

Pour augmenter la part d’autoconsommation et réduire l’empreinte environnementale du bâtiment, le concepteur de l’installation peut également penser à déployer des moyens locaux de stockage d’énergie journalier et/ou saisonnier de manière à ne plus considérer le réseau comme un moyen de stockage infini.


Une approche intégrée

Ce nouveau statut du bâtiment alternativement ou simultanément producteur, consommateur, auto-consommateur induit des bouleversements sur la manière dont ceux-ci sont intégrés au réseau électrique et dans la manière de concevoir les bâtiments. En voici une synthèse traduite du livre « Modeling, Design and optimization of Net-Zero Energy Buildings » :

Systèmes, Conception et Utilisation Bâtiment “classique” Bâtiment NetZEB
Enveloppe Passive, pas conçue comme faisant partie du système énergétique global Optimisé pour la conception passive et l’intégration des systèmes solaires actifs
HVAC Systèmes surdimensionnés (côté sécurité) Petits systèmes contrôlés et optimisés, intégrés avec les systèmes solaires, les systèmes combinant chaleur et électricité, stockage journalier et/ou saisonnier, systèmes partagés dans le quartier.
Systèmes solaires (PV, ST), renouvelable, cogénération Pas d’intégration systématique, on y pense après, on rajoute après. Pleinement intégré : lumière naturelle / solaire thermique / Photovoltaïque / solaire hybride / géothermique / biomasse / connexion à un microSmartGrid
Système d’automatisation Systèmes utilisés de manière peu efficace. Contrôle prédictif, Optimisation du confort et des performances énergétiques.
Conception et utilisation Considéré séparément Intégré et optimisé pour satisfaire le confort.

Notons qu’une clarification est à faire entre les notions zéro-énergie et zéro-carbone. Le « Common Language for sustainable construction » propose les définitions reproduites ci-dessous (ref. : Europeann Concrete Platform Et Architects Council of Europe).

On constate une différence d’approche entre des objectifs exprimés en termes de carbone ou d’énergie primaire, selon que l’on se concentre sur l’impact climatique ou sur une approche plus large de l’enjeu énergétique. L’expression d’objectifs selon l’un ou l’autre terme est importante dans la mesure où les solutions techniques privilégiées sont différentes. Des solutions de chauffage à la biomasse ou à l’électricité nucléaire seront par exemple favorisées dans un bilan carbone, mais plus nuancées dans une approche énergétique.

« Net zero carbon buildings : Buildings that, by virtue of the materials of which they are constructed and by virtue of the fact that they produce surplus energy from renewable sources, ensure that, over their Design Life, they compensate for all carbon emissions associated with the construction and use of the building. »

« Net zero Energy : The goal of Net Zero Energy is to become a community that produces its own energy. Net Zero Energy Buildings […], for instance, rely on efficiency to reduce energy needs and allow the balance to be supplied with renewables. NetZEBs produce as much energy on-site as they use annually. The reason NetZEBs are referred to as ’net zero’ is that they are still connected to the grid. Sometimes they produce more power than they are consuming and feeding power to the grid and running the meter back. Sometimes they consume more power than they are producing and pulling power from the grid. But for a NetZEB, the energy given to the grid is equal to the amount of energy pulled from the grid on an annual basis. It is important to note that net zero refers to energy use, and does not necessarily mean zero carbon emissions from energy use. »


Un concept qui reste vague

Les définitions usuelles du NetZEB restent très vagues et reflètent le manque de consensus international sur la notion de bâtiment net zéro-énergie. La Tâche 40 « Vers des bâtiments nets zéro-énergie » de l’Agence Internationale de l’Energie (AIE) a dès lors compilé les différentes définitions existantes et leurs critiques (AGENCE INTERNATIONALE DE L’ENERGIE (2010). Task 40). Il ressort de cette tâche quatre éléments vis à vis desquels toute définition des NetZEB devrait se positionner.

Premièrement, le niveau de spécification des paramètres de calcul doit être clarifié. L’évaluation doit-elle préciser quelles conditions climatiques intérieures réaliser? Les charges internes doivent-elles être forfaitaires ? Pour quel climat doit se faire l’évaluation ?

Deuxièmement, le type d’indicateur et les règles de pondération entre formes d’énergie doivent être explicités. Si l’énergie primaire est l’indicateur généralement préféré, elle soulève des questions telles que l’évolution dans le temps des coefficients de conversion et la façon de prendre en compte les énergies renouvelables. Les émissions de CO2 sont une alternative possible, tout comme un bilan financier ou exergétique. Ces deux dernières possibilités sont cependant respectivement instables dans le temps et peu compréhensibles par le public.

Troisièmement, le caractère « net » de la définition doit être précisé : quels éléments sont pris en compte et sur quelle période de temps ? L’échelle de temps privilégiée est souvent l’année, ou un multiple d’années. Des divisions temporelles plus fines sont peu populaires car plus contraignantes, mais une tendance existe pour réaliser des évaluations sur le cycle de vie complet du bâtiment. La question du type d’énergie considéré est également importante. A côté de l’énergie nécessaire au maintien du climat intérieur, il n’y a pas de consensus sur la prise en compte des énergies liées à l’occupant ou aux matériaux. Ces deux aspects souffrent d’un manque de précision des méthodes d’évaluation et d’une divergence de point de vue selon l’utilité que l’on donne à la définition des NetZEB. D’un point de vue gestion des réseaux énergétiques, l’énergie grise n’a pas d’impact, mais l’occupation bien. Du point de vue du constructeur, l’inverse est plus vrai. L’importance relative de ces deux aspects est croissante au vu de la diminution des consommations d’énergie liées au maintien des ambiances intérieures. Il existe également un débat relatif aux énergies renouvelables, entre la limitation aux énergies produites sur site et l’intégration de crédits carbones.

Quatrièmement, les conséquences en termes de réseau énergétique sont à considérer. Les approches NetZEB considèrent souvent le réseau comme une forme de stockage infini, ce qui n’est pas la réalité. Des évaluations plus fines sont nécessaires, notamment au niveau de l’utilisation effective de l’énergie délivrée au réseau et des écarts entre les puissances maximales demandées et délivrées, ce qui devrait générer des indicateurs spécifiques à intégrer dans la démarche NetZEB. Ceci doit se faire à la lumière des évolutions que connaîtront les réseaux énergétiques à l’avenir, avec la part croissante d’énergie renouvelable qu’ils devront intégrer.

Cinquièmement, les procédures de monitoring et d’accompagnement doivent être précisées et devraient faire partie intégrante de la définition des NetZEB, pour garantir que les performances visées en conception sont bien rencontrées en pratique.


Un concept pragmatique ?

Aux critiques et limitations présentées ci-dessus, nous pensons utile d’ajouter que la définition des bâtiments zéro-énergie doit avant tout être un outil pratique destiné à guider le concepteur dans ses choix. Il en découle que cette notion doit répondre à trois caractéristiques : (1) la rigueur scientifique indispensable, (2) l’expression d’un niveau d’ambition proportionnel à l’enjeu et (3) le pragmatisme, compris comme sa cohérence avec la pratique de terrain. Le concept NetZEB n’offre pas forcément une réponse optimale à cette triple exigence. Et ce pour deux raisons.

Premièrement, les critiques relevées plus haut ont mis en évidence qu’une limitation aux besoins de chauffage et de refroidissement n’était pas adéquate. Il y a aujourd’hui consensus pour considérer que la notion des NetZEB devrait intégrer les consommations d’énergie liées au maintien des ambiances thermiques, à l’éclairage et aux auxiliaires HVAC, comme le fait la réglementation Q-ZEN. L’intégration de l’énergie grise liée aux matériaux et composants mis en œuvre est souvent mentionnée comme un élément à intégrer. Pour mieux refléter la réalité, l’évaluation devrait également intégrer d’autres consommations telles que l’énergie consommée par le chantier et le processus de conception en tant que tel, ou encore l’impact du projet sur l’énergie dépensée en transports et infrastructures ou son influence éventuelle sur les comportements énergétiques des habitants.

Sans trancher sur la liste des paramètres à intégrer, force est de constater que nous sommes face à une tendance qui pousse à agréger en une seule évaluation une série d’impacts énergétiques différents. D’une part, l’agrégation des différentes consommations rend la valeur finale difficilement compréhensible. Il devient difficile de se représenter concrètement ce qu’elle représente et quel est le poids de chaque mesure de performance énergétique dans le résultat final. D’autre part,il est difficile d’obtenir une valeur réaliste avant d’atteindre un stade d’avancement poussé du projet, vu que des choix préliminaires doivent avoir été faits pour chaque élément intervenant dans le calcul. Or, ce sont souvent les premières étapes qui déterminent la performance énergétique, ainsi que la combinaison de la performance énergétique avec la performance économique. La tendance à l’exhaustivité du calcul énergétique pourrait donc à terme rendre l’évaluation netzéro-énergie inopérante comme guide de conception.

Deuxièmement, la recherche d’un niveau « zéro-énergie » reflète une approche sectorielle de l’impact énergétique des bâtiments. Cette ambition peut être acceptée en tant que projection à l’échelle du secteur d’un équilibre énergétique global de nos sociétés, mais rien n’indique que l’équilibre annuel entre production et consommation soit pertinent à l’échelle d’un projet d’architecture. Au contraire, le niveau net zéro-énergie génère une iniquité flagrante au niveau des projets individuels, notamment entre les sites bénéficiant d’un fort potentiel d’énergies renouvelables et les autres, ou entre les projets permettant une réduction drastique des besoins et ceux qui ne le peuvent du fait de contraintes propres et justifiées (pensons aux questions de patrimoine remarquable, de capacité d’investissement, etc.). Un niveau d’ambition unique ne peut pas être considéré a priori comme applicable partout. Certaines situations de projet nécessiteront de revoir les ambitions à la baisse face aux contraintes techniques, économiques ou patrimoniales, tandis que d’autres permettrons d’aller plus loin que l’équilibre énergétique.


Tous Nets zéro-énergie ?

Bien qu’incontournable aujourd’hui, la notion de bâtiment net zéro-énergie apparait assez éloignée de l’architecture, tant dans ses fondements que dans son ambition. Les critiques qui lui sont faites par la communauté scientifique portent principalement sur la rigueur physique de sa définition, tandis que nous lui voyons un manque de pragmatisme de par sa volonté (louable en soi) d’exhaustivité.

Face à ses limites, il pourrait être intéressant de rouvrir la question du caractère autonome du bâtiment. D’une part il force à contextualiser l’approche, d’autre part il implique des formes de conservation de l’énergie dans le bâtiment et donc la nécessité d’analyses de comportements dynamiques sur base saisonnière et journalière. L’objectif d’autonomie totale pose également différemment la question des formes d’énergie valorisables et nécessite de repenser la notion de confort thermique.

Cette piste n’est à ce jour pas un objectif rationnel à l’échelle collective, notamment d’un point de vue économique. Dès lors, visons le NetZEB, mais de façon critique.

logo plan air, climat, énergie.

En Wallonie, un cap important a été franchi le 19 juillet 2018 avec l’approbation du Plan Wallon Énergie Climat (lié au PNEC 2030 : Plan National Énergie Climat). Ce plan prévoit de définir ce que sera le zéro énergie wallon. Cette définition devrait être d’application à partir de 2025. Dans la suite logique du QZEN (Quasi Zéro ENergies), ces bâtiments porteront l’acronyme ZEN (Zéro ENergies).

 

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)
Copyright https://energie.wallonie.be/.

1. Définition d’un bâtiment « quasi » zéro énergies d’après la directive Européenne

Un bâtiment « Quasi » zéro-énergie est « un bâtiment qui a des performances énergétiques très élevées […]. La quantité quasi nulle ou très basse d’énergie requise [pour le chauffage, le refroidissement, l’éclairage, l’eau chaude sanitaire et la ventilation] devrait être couverte dans une très large mesure par de l’énergie produite à partir de sources renouvelables, notamment l’énergie produite à partir de sources renouvelables sur place ou à proximité ». [Directive 2010/31/CE] Ces bâtiments peuvent également se retrouver au sens large sous les acronymes NZEB/NearlyZEB (nearly Zero Energy Building) ou Q-ZEN (Quasi Zéro Énergie) pour son application en réglementation régionale wallonne.

Chaque État-membre est tenu de fixer la définition des bâtiments dont la consommation d’énergie est quasi nulle, qui tient compte des conditions nationales, régionales ou locales.

Voir les exigences Q-ZEN 2019 (bâtiments publics uniquement) & 2021


2. A ne pas confondre !

Les Bâtiments Quasi zéro énergie sont à différencier des immeubles autonomes et des constructions Net Zéro Énergie : NetZEB (Net Zero Energy Buildings) ou Q-ZEN en Wallonie (Quasi Zéro ENergies). Contrairement à ces deux approches, dans le Quasi zéro-énergie, les besoins d’énergie primaire sur le réseau ne sont ni nuls (Bâtiment autonome), ni nécessairement totalement contrebalancés par une forte production d’énergie renouvelable sur place ou à proximité (Net Zéro Énergie). Ici, les besoins en énergie primaire nécessaires au fonctionnement normal du bâtiment sont fortement réduits et, parfois, partiellement contrebalancés par de l’énergie produite à partir de sources renouvelable pour répondre aux exigences variables selon les états-membres et les régions.


3. Le Q-ZEN en Wallonie, dans la continuité

logo QZEN

Si les premiers tâtonnements en termes de règlementations thermiques wallonnes datent de 1985 [Arrêté du 29 février 1984], ce n’est que depuis le début du millénaire que le monde politique prend pleinement conscience de l’importance d’une lutte active pour l’économie d’énergie et contre le changement climatique. C’est ainsi qu’en 2002, l’Europe ratifie le protocole de Kyoto [cop23.unfccc.int] scellant ainsi son engagement à réduire ses émissions de certains gaz à effet de serre.

Dans la foulée, une première directive européenne voit le jour (Directive 2002/91/CE). Elle sera ensuite transposée en décret (2007) et arrêtés (2008, 2009 et 2012) qui furent les premières exigences thermiques issues de directives européennes que nous ayons connus.

Plus récemment, en 2010, la directive a été révisée (directive 2010/31/UE) et trois ans plus tard cette version de la directive a été transposée en droit interne sous la forme d’un décret mis en application l’année suivant via l’arrêté d’application de 2014 modifié en dernier lieu par l’arrêté de 2017.

Pour honorer leurs engagements et respecter les directives européennes, les états membres ont renforcé les exigences en matière de performance énergétique d’années en années. Dans le secteur tertiaire, le niveau K est ainsi soumis à des exigences croissantes depuis 1985 tandis que le niveau Ew l’est depuis 2010 et a fait l’objet d’un renforcement croissant.

Schéma sur l'évolution de la réglementation thermique en wallonie.
Les Umax (coefficient de transmission thermique maximum des parois) sont pour leur part apparus en 1996.

schéma sur les Umax en wallonie.

Dernièrement, en vue de la transposition dans le droit interne de l’article 9 de la Directive européenne de 2010 relative à la performance énergétique des bâtiments, les états membres ont eu pour obligation de faire en sorte qu’au 1ier janvier 2021 tous les nouveaux bâtiments (y compris les bâtiments résidentiels) soient quasi Zéro Énergie. Pour les nouveaux bâtiments occupés et possédés par les pouvoirs publics, cette obligation est déjà valable à partir du 1er janvier 2019 !

schéma sur l'évolution du Q-ZEN en Wallonie.

Le Q-ZEN, se positionne donc dans la continuité des exigences précédentes. L’exigence est à la fois progressiste, réaliste et rationnelle. Les Umax sont conservés, le niveau K et les exigences pour la ventilation également. Le renforcement notable concerne le renforcement des exigences en matière de consommation d’énergie primaire EW (-30%) pour les parties fonctionnelles de bureau et d’enseignement ainsi que pour les bâtiments résidentiels.

Une réduction de – 27% sur le niveau Espec qui ne concerne lui que les bâtiments résidentiels est également à noter.

Vous l’aurez compris : pas de panique ! Le bâtiment Q-ZEN n’est pas nécessairement high-tech ou hors de prix, avec une stratégie passive adaptée et des technologies simples, les exigences pourront déjà être rencontrées.

Plus d’information sur la conception d’un bâtiment Q-ZEN !

Intérêt de la cogénération

Intérêt de la cogénération


Une économie d’énergie significative

Le principe d’une cogénération est de produire simultanément de la chaleur et de l’électricité. Grâce à cette production combinée, les pertes d’énergie se réduisent de manière significative. Ainsi, la cogénération permet d’économiser entre 15 et 20 % d’énergie primaire par rapport à la production séparée de ces mêmes quantités de chaleur et d’électricité.

Pour produire 350 kWhé d’électricité et 530 kWth de chaleur, deux solutions sont possibles :

  • Une unité de cogénération au gaz, avec un rendement électrique de 35 % et un rendement thermique de 53 %, va consommer 1 000 kWh d’énergie primaire .
  • La meilleure centrale électrique (Turbine Gaz Vapeur), avec un rendement de 55 %, va consommer 636 kWh d’énergie primaire. De plus, la meilleure chaudière, avec un rendement annuel de 90 %, va consommer 589 kWh d’énergie primaire. Le total pour les filières séparées s’élève à 1 225 kWh d’énergie primaire.

Cette comparaison met en évidence une économie d’énergie primaire pour une même quantité de chaleur et d’électricité produite.
L’économie d’énergie primaire est alors égale à : 1 225 – 1 000 = 225 kWhp
Exprimée par rapport à la consommation totale d’énergie primaire, la fraction économisée est de :

(1 225 – 1 000) / 1 225 = 18 %

Exprimée par rapport à la consommation d’énergie primaire nécessaire pour la production d’électricité par une centrale TGV, la fraction économisée est de :

(1 225 – 1 000) / 636 = 35 %


La réduction des émissions de CO2 récompensée par des certificats verts

Les émissions polluantes, dont le CO2, sont généralement directement proportionnelles à la consommation d’énergie. Qui dit économie d’énergie primaire pour assurer les mêmes besoins (électriques et thermiques), dit réduction des émissions en CO2.

En Région Wallonne, il est convenu que 1 MWh de gaz naturel émet 251 kg de CO2, non seulement lors de sa combustion, mais également pour sa préparation. De même, 1 MWh de mazout émet 306 kg de CO2 (source : CWaPe – coefficient d’émission de CO2 des énergies primaires – juin 2004).

Ainsi, l’économie d’énergie primaire de 225 kWh, représente :

(1 225 x 0,251) – (1 000 x 0,251) = 307 – 251 = 56 kg de CO2

exprimée par rapport à l’économie totale de CO2 :

56 / 307 = 18 %

Si l’on ramène à la production de 1 MWh d’électricité par l’unité de cogénération, l’économie en CO2 s’élève à 161 kg CO2/MWhé.


Un gain économique attrayant

L’avantage de la cogénération est aussi économique. Une installation de cogénération bien dimensionnée permet à l’utilisateur de réduire sa facture énergétique globale. Le gain sur la facture électrique sera plus important que l’augmentation de la facture d’achat en combustible et d’entretiens.

En effet, par rapport à la situation antérieure (chaudière seule), la cogénération va consommer plus de gaz naturel. Cette surconsommation de 411 kWh (première figure : 1 000 – 589 = 411 « kWh » ) va permettre de produire 350 kWh d’électricité, soit un facteur 1,17.

Autrement dit, la cogénération permet de produire 1 kWh d’électricité avec un peu plus de 1 kWh de gaz naturel. L’intérêt économique est immédiat, car les coûts sont totalement différents. Alors qu’1 kWh de gaz naturel coûte environ 5 c€, l’électricité vaut entre 9 à 17 c€ par kWh.

En complément, afin de récompenser l’effort fait pour réaliser cette économie d’émission en CO2, la Wallonie a mis en place un dispositif de certificats vert. La promotion de l’électricité produite au moyen de sources d’énergie renouvelable ou de cogénération est régie par un arrêté du Gouvernement wallon du 30 novembre 2006, dernière modification par l’arrêté du Gouvernement du 12 février 2015.

Les certificats verts sont exprimés comme un taux d’octroi au MWh électrique produit, avec un maximum de 2,5 CV/MWh (pour demande postérieure au 1/1/2015).  Le taux d’octroi sera d’autant plus important que la cogénération utilise un combustible renouvelable et donc faible émetteur en CO2.

Sachant qu’aujourd’hui le certificat vert est garanti à 65 €, il s’agit d’un soutien à prendre en considération dans un projet de cogénération.

Dans un bilan économique, il faudra donc tenir compte de l’investissement initial, des soutiens financiers, sans négliger les frais d’entretien ainsi que l’amortissement.

Il est possible d’estimer rapidement la taille et la rentabilité d’un projet de cogénération.

Calculs

 Calculer vous-même la rentabilité d’une cogénération : étude de pertinence.

Objectif de la cogénération

L’intégration d’une cogénération aura toujours pour objectif premier de répondre au mieux aux besoins énergétiques en chaleur d’un bâtiment tout en produisant simultanément d’électricité.

Le besoin de chaleur devra être soigneusement défini pour le bien considéré.

Dans une situation idéale, l’intégration de la cogénération doit faire l’objet d’une amélioration énergétique globale d’un projet, et doit donc tenir compte des améliorations énergétiques du bâtiment.  Le besoin en chaleur et donc le dimensionnement du projet sont directement liés à la qualité de l’enveloppe du bâtiment.

Une cogénération mal dimensionnée n’atteindra pas les performances prévues, elle n’aura donc ni la rentabilité énergétique ni économique attendue.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Principe de la cogénération

Principe de la cogénération


C’est quoi la cogénération ?

La cogénération ou production d’énergie totale est une technique de production combinée d’énergie électrique et de chaleur. Son intérêt réside dans les rendements énergétiques supérieurs obtenus par comparaison avec une production séparée équivalente d’électricité et de chaleur

Dans les applications les plus courantes de la gamme de puissance étudiée ici, la cogénération est réalisée à partir d’un moteur à explosion. Il s’agit, en général, d’un moteur alimenté au gaz naturel. Celui-ci entraîne une génératrice qui transforme l’énergie mécanique en électricité. La chaleur contenue dans les gaz d’échappement, dans l’eau de refroidissement et dans l’huile de lubrification peut être récupérée par des échangeurs de chaleur pour produire de l’eau chaude sanitaire ou tout type de chauffage.

Schéma simplifié d’une installation de cogénération.

Autrement dit, il s’agit de récupérer la chaleur perdue des technologies existantes de production d’électricité (type groupes électrogène). Grâce à cette récupération de chaleur, les pertes d’énergie se réduisent de manière significative. Ainsi, la cogénération permet d’économiser entre 15 et 20 % d’énergie primaire par rapport à la production séparée de ces mêmes quantités de chaleur et d’électricité.

Il est également possible d’envisager une installation de cogénération fonctionnant à partir de biomasse suivant le même principe.


Contexte de son développement

La cogénération est une technologie reconnue et en continuelle évolution

L’Union Européenne (UE) doit pouvoir faire face à des défis majeurs : accroître son indépendance énergétique et lutter contre le dérèglement climatique. Pour y arriver, l’UE a adopté en 2008 le paquet « énergie-climat » fixant les objectifs « 3 x 20 en 2020 » suivants :

  • Une diminution de 20 % de la consommation énergétique.
  • Une réduction de 20 % des émissions de gaz à effet de serre.
  • 20 % d’énergie produite à partir de sources renouvelables.

Pour atteindre ces objectifs, l’UE compte énormément sur l’Efficacité Énergétique. En effet, dans sa communication « Énergie 2020 – Stratégie pour une énergie compétitive, durable et sûre » du 10 novembre 2010, la Commission européenne souligne le rôle central de l’efficacité énergétique et la nécessité de dissocier la consommation énergétique et la croissance économique.

Directive Européenne

La directive européenne 2012/27/UE relative à l’efficacité énergétique définit des règles et fixe des exigences minimales à adopter par chaque État membre en terme d’efficacité énergétique en imposant, tant au niveau de l’utilisation de l’énergie que de l’approvisionnement énergétique, des dispositions spécifiques et transversales.

Promotion de la cogénération de qualité

Dans le cadre de l’approvisionnement énergétique, outre le développement des réseaux de chaleur et de froid, et la valorisation de la chaleur fatale en industrie, la directive européenne veut promouvoir la cogénération de qualité. Elle impose aux États membres, pour le 31 décembre 2015, d’évaluer le potentiel d’application de ces technologies sur leur territoire et d’adopter des politiques visant à encourager leur développement lorsqu’une analyse coûts-avantages démontre des avantages supérieurs aux coûts.

Une étude a été menée par PWC, l’ICEDD et le bureau DEPLASSE pour le compte du SPW – SPW Territoire, Logement, Patrimoine, Energie qui évalue le potentiel wallon de développement des réseaux de chaleur et de froid alimentés par co/trigénération. Elle est intitulée : « Rapport final-tâches 1 à 6 : Directive efficacité énergétique 2012/27 – Art. 14 – Stratégie de réseaux de chaleur et de froid alimentés par des cogénérations et des énergies fatales; décembre 2015 ».

Régulièrement, la Région wallonne évalue et améliore le dispositif de soutien au développement de cette technologie par :

  • Le régime de certificat vert ou d’aide à la production dans le cadre du décret du 12 avril 2001 relatif à l’organisation du marché de l’électricité.
  • Un accès prioritaire et non discriminatoire au réseau de distribution d’électricité.
  • Des conditions commerciales plus favorables (éligibilité accélérée) tant pour la vente de l’électricité produite, pour l’achat d’électricité d’appoint ou de secours que pour l’achat de gaz naturel.
  • Un Facilitateur en Cogénération pour accompagner (gratuitement) vos premiers pas.
  • L’organisation de séminaires et de rencontres pour en démontrer toute l’efficacité et la pertinence.
  • Un régime d’aides spécifique au secteur public qui permet le financement de cette technologie.
  • La mise à disposition d’informations techniques et administratives à travers ce module inscrit dans la dynamique d’Énergie+.
  • La mise à disposition de guide, d’outil de pré-dimensionnement (cogencalc) et dimensionnement (cogensim), …

Toutes les conditions sont réunies pour que vous, chef d’entreprise, responsable technique, … franchissiez le pas et participiez à l’effort collectif tout en vous assurant le recours à une technologie moderne à des coûts économiques avantageux.

Découvrez ces exemples de mise en place d’une cogen : le home de la commune d’Anderlecht, et la piscine du Sart-Tilman à Liège.

Objectif

L’objectif de ce module est de fournir un outil de travail simple et pratique aux responsables techniques et aux prescripteurs qui veulent s’investir dans le domaine des petites et moyennes installations de cogénération.
L’utilisateur y trouvera les informations essentielles et des conseils pratiques pour évaluer, concevoir, réaliser et exploiter une installation de cogénération.
Sans se prétendre exhaustif, ce guide aborde de façon systématique les principes de dimensionnement et de mise en œuvre de projet de cogénération en soulignant ses spécificités particulières.
Une description des acteurs institutionnels et des acteurs du marché wallon de la cogénération complète cet outil.
Les informations détaillées dans ce module « cogénération » concernent les installations suivantes :

  • La production d’énergie mécanique est réalisée par des moteurs à gaz ou diesel.
  • Les puissances des installations sont inférieures à 500 kW électriques.
  • La chaleur est récupérée dans les circuits de refroidissement du moteur et dans les gaz d’échappement.
  • La valorisation de la chaleur l’est sous forme d’eau chaude.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Synchronisation au réseau [cogen]


Principe

Dans la plupart des cas, la cogénération comme la plupart des installations décentralisées de production d’électricité est connectée au réseau pour y injecter l’excédent.
Afin de pouvoir réaliser cette connexion, il est indispensable de synchroniser le cogénérateur au réseau.

Préalablement au couplage réseau, la production décentralisée doit être mise en route avec une fréquence de rotation aussi proche possible que celle du réseau (f = 50 Hz) et une tension entre deux phases de la machine qui ait une valeur voisine de la tension entre deux phases du réseau.

Les conditions de couplage de l’alternateur sur le réseau doivent être impérativement respectées. Sans le respect des conditions de couplage, la destruction de l’alternateur est presque inéluctable.

Les conditions sont :

  • La fréquence de l’alternateur est la même que celle du réseau (ω ~ ω’). Une non-concordance des fréquences peut provoquer des retours de puissance de la part du réseau ou des couplages en opposition de phases.
  • La tension de toutes les phases de l’alternateur est identique à celle des phases du réseau (U ~ U’). Des différences de potentiel entre les phases de l’alternateur et celles correspondantes du réseau entraineraient la création de courants de circulation très élevés dans les enroulements de l’alternateur.
  • la concordance des phases est la même. En d’autres termes : « le fil rouge sur le bouton rouge … » ou, plus sérieux, les phases L1, L2, L3 (R, S, T) de l’alternateur doivent correspondre aux phases L1, L2, L3 (R, S, T) du réseau. Comme pour l’égalité des phases, la non-concordance des phases engendre des courants de circulation très élevés.

Sur le schéma présenté, les deux triades présentent une succession identique des tensions, les triades ont des fréquences proches, mais légèrement différentes représentées par la vitesse angulaire de glissement ωg. Les tensions entre les bornes 11’ ; 22’ ; 33’ s’annulent (presque) et sont au maximum simultanément (~2U).
Le couplage sera réalisé lorsque la tension 11’ est minimum. L’alternateur se synchronisera automatiquement au réseau en reprenant sa vitesse et tension.


En pratique … appareils de synchronisation

Schéma de principe de  montage des appareils de synchronisation.


Synchronoscope

Photo synchronoscope.

Cet appareil est muni d’un moteur dont la vitesse de rotation dépend de la différence entre les fréquences du réseau et de l’alternateur. La mise en parallèle s’effectue au passage à l’équilibre. Deux cas peuvent se présenter :

  • La partie gauche du cadran : il faut augmenter la vitesse de l’alternateur.
  • La partie droite du cadran : il faut réduire la vitesse de l’alternateur.

La méthode des 3 lampes

Auparavant, pour s’assurer de la concordance des phases lors de l’installation d’un nouvel alternateur, 3 lampes étaient montées de part et d’autre de l’interrupteur de couplage (voir le schéma de principe ci-dessus) :

  • Lorsque la concordance des phases est respectée, les 3 lampes s’éteignent et s’allument ensemble quand le synchronisme est proche.
  • À l’inverse, les 3 lampes s’allument et s’éteignent les unes à la suite des autres. Il est nécessaire de changer l’ordre des phases au niveau de l’interrupteur de couplage.

Le voltmètre différentiel

Photo voltmètre différentiel.

Il mesure la différence de tension de part et d’autre de l’interrupteur de couplage.
Le couplage se fait lorsque le voltmètre passe par 0 :

  • En négatif, la tension de l’alternateur est inférieure à celle du réseau.
  • À l’inverse, en positif, la tension de l’alternateur est supérieure à celle du réseau.

Le fréquencemètre

Photo fréquencemètre.

Des fréquencemètres branchés au niveau du réseau et du circuit de l’alternateur permettent de comparer si les fréquences sont proches.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Monotone de chaleur [cogen]


Principe

La monotone de chaleur est le graphique de la demande de chaleur mesurée heure par heure sur une année et classée par ordre décroissant.

Établissement d’une monotone de chaleur sur base du profil de consommation de chaleur. La courbe donne le nombre d’heures où le besoin en chaleur correspond à la puissance définie en ordonnée.


Intérêt

La monotone de chaleur sur une année permet de sélectionner le meilleur compromis entre une puissance thermique plus ou moins importante et le nombre d’heures de fonctionnement auquel cette puissance pourra fonctionner. Une faible puissance fonctionnera longtemps et de façon continue, alors qu’une grande puissance fonctionnera moins longtemps et de façon plus discontinue.
La monotone de chaleur traduit aussi une image fidèle du profil énergétique d’un bâtiment. Elle intervient, entre autres, dans l’évaluation de la puissance d’un cogénérateur. En effet, l’objectif d’une étude de faisabilité pour un système de cogénération est de maximiser la production d’énergie thermique. En d’autres termes, l’optimum énergétique d’un cogénérateur est matérialisé par la plus grande surface sous la monotone de chaleur.

Exemples

La comparaison des trois aires nous donne une indication à la fois au niveau énergétique et de la puissance thermique à prévoir pour le cogénérateur.

 

Données

Les monotones de chaleur relatives aux « profils types de consommation.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be.

Modulation de puissance [cogen]

Modulation de puissance [cogen]


Principe

Lorsqu’on parle de la modulation de puissance d’un groupe électrogène, on parle bien de la puissance électrique. Paradoxalement, la modulation de puissance d’un cogénérateur est basée sur la variation de la puissance thermique. Bien qu’il entraine aussi un alternateur comme le groupe électrogène, le cogénérateur est avant tout un générateur de chaleur et accessoirement d’électricité. Vu qu’ils sont « tous les deux unis pour le meilleur et pour le pire », la modulation de puissance thermique est intimement liée à celle de la puissance électrique.

Quel que soit le type d’alternateur, la modulation de puissance passe essentiellement :

  • Par la variation de la vitesse du cogénérateur équipé d’un alternateur asynchrone.
  • Par la variation du couple mécanique du cogénérateur équipé d’un alternateur synchrone.


L’intérêt de la modulation de puissance

La modulation de puissance est intéressante surtout pour maintenir une production électrique lorsque les besoins thermiques du circuit de chauffage connecté au cogénérateur diminuent, mais aussi pour réduire les séquences de démarrages/arrêts nuisibles à l’intégrité mécanique du moteur.

Par exemple, lorsque le cogénérateur injecte sa chaleur dans un ballon tampon qui est proche de sa consigne de température, le système de régulation du cogénérateur peut être prévu pour réduire la charge thermique de ce dernier. Dans ce cas, le cogénérateur continue à fonctionner à taux de charge partiel tout en maintenant une production d’électricité.

Attention cependant qu’à charge partielle, le rendement électrique se dégrade rapidement. En pratique, lorsque le cogénérateur est prévu pour travailler en modulation de puissance, les constructeurs proposent de ne pas descendre sous les 60 % de la puissance électrique nominale.

Le cas des alternateurs asynchrones

La modulation du taux de charge d’un cogénérateur est assez particulière lorsque l’alternateur est de type asynchrone. Pour rappel, la machine asynchrone en mode générateur doit fonctionner en « survitesse » par rapport à la vitesse du champ tournant du stator fourni par le réseau. Un glissement g négatif de quelques % suffit à l’alternateur pour atteindre sa puissance nominale. La survitesse est générée en « appuyant sur la pédale de gaz » du moteur d’entrainement et, par conséquent, en augmentant la vitesse de l’alternateur. Pour rester dans l’analogie de la voiture, l’augmentation du glissement peut être matérialisée par le comportement d’un conducteur qui, à la fois, appuie sur l’accélérateur tout en débrayant légèrement : « il fait patiner l’embrayage ». Le résultat est comparable dans le sens où les roues tournent à la même vitesse, mais que le moteur « monte légèrement dans les tours ».

Allure des courbes du couple et du courant « statorique » de la machine asynchrone fonctionnant dans les deux modes (moteur/alternateur)  en fonction d’un glissement positif ou négatif (survitesse ou sous-vitesse).

Pour une tension de réseau constante, la puissance disponible aux bornes du générateur suit la courbe du courant statorique lorsque la survitesse (ou le glissement) augmente.


Le cas des alternateurs synchrones

La variation de la puissance d’un cogénérateur équipé d’un alternateur synchrone est différente de celle d’un cogénérateur avec générateur asynchrone : il n’y a pas de glissement g ou de différence de vitesse angulaire entre le rotor de l’alternateur et le champ tournant du stator généré par le réseau.

L’action sur la « pédale de gaz » du moteur à combustion engendre juste une augmentation du couple du moteur et de la puissance électrique de l’alternateur. L’analogique de la voiture se prête bien aussi dans ce cas-ci : « pour maintenir la même vitesse d’un véhicule dans une côte, il est nécessaire  « d’appuyer sur le champignon », la vitesse des roues étant dans ce cas-ci celle du synchronisme ».

Attention, cependant, au décrochage d’un alternateur synchrone lorsque le couple résistif est trop important. Celui-ci dépend du décalage, c’est-à-dire du retard qui existe entre la force électromotrice (fem) générée par le rotor et la tension au stator. On appelle ce décalage, l’angle électrique. Si l’angle correspondant à ce déphasage dépasse 90°, on a phénomène dit de décrochage où le rotor s’emballe et la génératrice ne parvient plus à le freiner.

Courbe caractéristique du couple électrique en fonction de l’angle électrique pour une machine synchrone.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be.

Confort au sens large

Date :

  • janvier 2014

Auteur :

  • Geoffrey.

Notes :

  • 29-01-2014 : 1er passage de mise en page [liens internes, tdm, rapide passage général sur la mise en page de la feuille] – Sylvie

Antidote :

  • Oui

Confort au sens large

Le confort est défini comme « un état de satisfaction vis-à-vis de l’environnement perçu ».


Multiples dimensions du confort

La satisfaction vis-à-vis de l’environnement fait appel à toutes les dimensions physiques des ambiances, mais également à des aspects comportementaux et psychologiques.

Au niveau physique, ou physiologique, on distingue les conforts respiratoires, thermiques, acoustiques et visuels. Ces aspects sont généralement assez bien connus et de nombreuses normes définissent des seuils minimums et/ou maximums pour les grandeurs physiques concernées (éclairement, température, puissance acoustique, etc.). à noter que ces grandeurs ne sont pas nécessairement absolues : elles peuvent varier dans le temps. Ainsi, les plages de confort thermiques ne sont pas les mêmes en été et en hiver, du fait notamment d’adaptation physiologique (modification du rythme cardiaque et de la capacité de sudation).

Au niveau comportemental, c’est la capacité d’action de l’occupant dans le bâtiment qui est mise en évidence. Car les conditions intérieures et les attentes sont variables dans le temps : on accueillera plus favorablement un courant d’air en été qu’en mi-saison. Il est donc important que l’occupant ait une capacité d’action sur les organes de contrôle des systèmes du bâtiment, sur son activité et sur son habillement.

Au niveau psychologique, c’est surtout l’implication de l’occupant qui est mise en avant lorsque l’on parle d’énergie. Il ne suffit pas qu’il ait la capacité de contrôler son environnement si ces besoins physiologiques le demandent, il faut qu’il ait conscience de cette capacité. L’implication fait donc intervenir la compréhension du fonctionnement du bâtiment, la capacité d’anticiper les conséquences de ses actions sur l’ambiance et une compréhension du lien entre ses actions et leur impact énergétique. Par exemple, une personne avec une conscience environnementale élevée acceptera plus facilement une température relativement basse, si elle sait qu’elle contribue par-là à des économies d’énergie fossile.

Ces trois dimensions, physiologiques, comportementales et psychologiques sont fortement liées, comme le montre l’organigramme ci-dessous.

Notons pour mémoire qu’il existe encore d’autres dimensions à la sensation de bien-être dans un bâtiment, tels que le confort d’usage (est-ce que le bâtiment permet de déployer adéquatement l’activité pour laquelle il est conçu ?), le sentiment esthétique, un sentiment positif ou négatif lié à la nouveauté d’un bâtiment ou à la familiarité que l’on a avec, etc.


Dynamique du confort

La combinaison des différentes dimensions du confort (physiologique, comportementale, psychologique) implique que le bien-être dans un bâtiment n’est pas une notion facile à décrire. Ce bien-être non seulement sera différent pour chacun, mais également variable dans le temps, selon son âge, son sexe, son état de santé, et même son humeur.

Les premières approches scientifiques du confort, au milieu du XXe siècle, se sont focalisées sur les aspects physiologiques, en écartant volontairement tous les aspects comportementaux et psychologiques. Les chercheurs soumettaient des volontaires à des conditions contrôlées dans des chambres climatiques, sans leur permettre d’interaction avec l’ambiance, ni prendre en compte leur satisfaction globale. Cette pratique a permis d’avance rapidement dans l’étude de la dimension physiologique du confort, et d’établir, sur base de statistiques, des valeurs de référence à la base de la plupart des normes de confort utilisées aujourd’hui dans les bâtiments. On pense notamment aux indicateurs pmv (predicted mean vote) et ppd (percentage of people dissatisfied).

Mais cette méthode d’étude, que l’on peut dire statique, est par définition incapable d’intégrer les dimensions dynamiques du confort telles que les adaptations comportementales, la variabilité des états psychologiques, et même certaines adaptations physiologiques. On pense en particulier à :

  1. L’adaptation comportementale : toutes les modifications conscientes ou inconscientes du comportement en réaction à une situation ressentie : modification de l’habillement, de la position, absorption de boissons chaudes ou froides, déplacement vers un autre endroit. Entre aussi en ligne de compte les adaptations technologiques (ouverture ou  fermeture de fenêtres, l’enclenchement d’un chauffage) et culturelles : modification d’horaires, codes vestimentaires, etc.
  2. L’anticipation : Avoir une capacité de prévoir quelques heures à l’avance des conditions d’ambiance à venir permet de s’y préparer et rend plus tolérant si ces conditions échappent aux plages de confort.
  3. L’adaptation physiologique : après quelques jour d’exposition à une ambiance froide, la température de la peau et le niveau métabolique s’adaptent. En été, c’est la capacité de sudation et la vitesse du cœur qui se modifie.
  4. Adaptation psychologique : il a été démontré par les psychologues que lorsque l’on a ou croit avoir le contrôle sur la source de l’inconfort, celui-ci est mieux vécu. À l’inverse, en l’absence de capacité de contrôle, on est généralement très peu tolérant face à des écarts de confort. En d’autres mots, ce que l’on fait nous-même peut être imparfait, mais lorsque l’on nous promet un service, on s’attend à ce qu’il soit irréprochable.

C’est pourquoi les chercheurs ont, dans les années 1990 et au début des années 2000, développé une autre méthode d’évaluation du confort dans les bâtiments. Il s’agit désormais d’enquêtes de terrain, d’interviews des occupants dans leur bâtiment, avec en parallèle un monitoring des conditions physiques de l’ambiance.

The statistical dependence of indoor thermal neutralities on climate.

Dépendant entre la température « neutre » intérieure exprimée par les occupants et les températures extérieures selon que le bâtiment soit  chauffé et refroidi ou laissé sans contrôle climatique. Figure redessinée sur base de Gail S. Brager et Richard J. de Dear, Thermal adaptation in the built environment : a literature review, Energy and Buildings Volume 27, Issue 1, February 1998, Pages 83–96.

La principale découverte de cette approche, illustrée par la figure ci-dessus, est que, pour certains bâtiments, ceux qui s’apparentaient le plus aux chambres climatiques utilisées lors des premières recherches (façades hermétiques, peut de liberté laissée aux occupants de contrôler leur ambiance, codes vestimentaires stricts, etc.), les références de confort établies précédemment étaient valides. Elles reflétaient effectivement les plages de satisfaction des occupants. Mais pour d’autres bâtiments, ceux qui se basaient sur une ventilation naturelle, valorisaient la participation active des occupants au maintien du confort et leur laissaient une marge d’adaptation de leur activité ou habillement, les plages de confort théoriques se sont révélées trop étroites, si pas erronées. Toutes les enquêtes confirmaient le même fait : les plages de confort sont, dans une certaine mesure, dépendantes de la capacité d’adaptation des habitants. D’où l’idée de définir, pour ces bâtiments, des nouvelles plages de confort dites adaptatives. C’est l’objet notamment de la norme EN15251.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Binning des LEDs

Binning des LEDs

Lors de la conception d’une lampe et d’un luminaire LED, les différentes unités LED sont prises parmi un lot. Les unités LED d’un même lot peuvent avoir des caractéristiques différentes en termes d’intensité et de couleur. Pour assurer une production de luminaire de mêmes caractéristiques photométriques et de température de couleur, les constructeurs ont mis au point le « binning ».
Le binning est caractérisé par le tri en fonction de critères spécifiques :

  • Tri selon la couleur ;
  • Tri selon le flux lumineux ;
  • Tri selon la tension directe.

Pour un « bin » de couleur déterminée, une qualité de lumière constante est garantie.

Température de couleur corrélée (Correlated Color Temperature : CCT)

Le CCT permet de qualifier une source lumineuse émettant de la lumière blanche comme chaude, neutre ou froide. Comme référence, le CCT se base sur l’émission de couleur du corps noir qui passe par différentes couleurs lorsqu’il est chauffé : du rouge (le plus froid) au bleu (le plus chaud).

Schéma températures de couleurs spécifiques ANSI.

Des températures de couleurs spécifiques ANSI ont été établies par rapport à des variations de couleurs autour de 8 valeurs de référence de CCT, à savoir :

ANSI C78.377A CCT Standard
CCT nominal (K) Variation du CCT (K)
2 700 2 725 + 145
3 000 3 045 + 175
3 500 3 465 + 245
4 000 3 985 + 275
4 500 4 503 + 243
5 000 5 028 + 283
5 700 5 665 + 355
6 500 6 530 + 510

Ellipses de MacAdam

Au-delà de la qualification d’une source comme étant chaude, neutre ou froide (CCT), il est très important pour les fabricants de LED de définir une variation maximale de température de couleur par rapport à une température cible caractérisant un luminaire LED. Cette précaution permet d’éviter de se retrouver dans un même espace avec une série de luminaires émettant une lumière différente.

Pour y arriver, les fabricants se servent des ellipses de MacAdam représentant un contour à l’intérieur duquel la variation des couleurs devient plus ou moins perceptible par l’œil.

% de population qui perçoit une différence.

L’échelle des ellipses de MacAdam est définie par une succession de SDMN (standard deviation of color matching) ou les dispersions  de couleurs :

  • À l’intérieur de l’ellipse 1 SDMC (« tep »), ne sont pas visibles ;
  • Entre les ellipses 2 et 4 SDMC sont légèrement visibles ;
  • Au-delà de l’ellipse, 5 SDMC sont franchement visibles.

Les huit températures de couleur (CCT) définies par ANSI ont, quant à elles, une dispersion de couleurs définies par des « boîtes » entourant l’ellipse 7 SDMC.

D’après ANSI, un lot de puce LED est considéré comme ayant la même température de couleur selon leur appartenance à l’ellipse 4 SDMC.

Codes flux [éclairage]

Codes flux [éclairage]

 

Les codes flux représentent l’image de la distribution lumineuse d’un luminaire.  Ils caractérisent le flux lumineux pour des angles solides matérialisés dans des cônes centrés sur l’axe principal du luminaire et d’angles d’ouverture α spécifiques.

Angles définissant les codes flux.

Les principaux codes flux sont :

  • FC1, FC2, FC3, FC4 et F pour les angles solides de π/2, π, ¾ π, 2 π et 4 π. Cela correspond aux angles  α de 41,4°, 60°, 75,5°, 90° et 180° respectivement ;
  • FC4, le flux lumineux émis dans l’angle solide 2 π ou l’ensemble du flux lumineux émis vers le bas ;
  • F, le flux lumineux émis dans l’angle solide 4 π ou le flux lumineux total émis par le luminaire ;
  • PHIS, le flux lumineux total issu de l’ensemble des lampes du luminaire.

Diagramme polaire.

Angles Correspondance des angles
Angle du cône 41, 4 ° 60° 75,5° 90° 180°
Angle solide ω /2 ¾ 2 4

 Codes flux CIE.

Exemple

Luminaire à
éclairage direct

Luminaire à
éclairage mixte direct

Données photométriques
Lumen [lm] Lumen [lm]
FC 1 2 535 FC 1 1 733
FC 2 3 730 FC 2 2 292
FC 3 3 755 FC 3 2 305
FC 4 3 760 FC 4 2 309
F 3 760 F 3 870
PHIS 5 000 PHIS 4 300
Code flux CIE
N 1 FC 1 / FC 4 0,67 N 1 FC 1 / FC 4 0,75
N 2 FC 2 / FC 4 0,99 N 2 FC 2 / FC 4 0,99
N 3 FC 3 / FC 4 1,00 N 3 FC 3 / FC 4 1,00
N 4  FC 4 / F 1,00 N 4 FC 4 / F 0,60
N 5 F / PHIS 0,75 N 5 N 5 0,90

 Remarques
Les données N2, N4 et N5 sont les données à introduire dans le logiciel PEB :

  • N2 représente la composante intensive du flux lumineux ;
  • N4 représente la composante directe du flux lumineux.

N5 représente le rapport entre le flux lumineux total F émis par le luminaire et le flux lumineux émis par toutes les lampes du luminaire, soit l’image du rendement du luminaire.

  • le flux lumineux émis vers le bas (FC 4 = 3 760 lm) est identique au flux lumineux total émis par le luminaire (F = 3 760 lm), ce qui est logique pour un luminaire à éclairage direct ;
  • N 5 = 75 %.
  • le flux lumineux total émis par le luminaire (F = 3 870 lm) est supérieur au flux lumineux émis vers le bas (FC 4 = 2 309 lm) ;
  • N 5 = 90 %.

Ombres

Ombres


En fonction de sa direction, la lumière peut provoquer l’apparition d’ombres marquées qui risquent de perturber le travail effectué.

  

Lorsque la lumière provient du côté droit pour les droitiers et du côté gauche pour les gauchers.

Lorsque la lumière est dirigée dans le dos des occupants.

À l’inverse, une lumière non directionnelle, telle qu’on peut la créer avec un éclairage artificiel purement indirect, rendra difficile la perception des reliefs et peut rendre, par exemple, les visages désagréables à regarder.

Avec un éclairage directionnel et avec un éclairage diffus.

Une pénétration latérale de la lumière naturelle satisfait généralement à la perception tridimensionnelle du relief des objets et de leur couleur, grâce à sa directionnalité et à sa composition spectrale. Le cas est idéal mais le niveau d’éclairement diminue dès qu’on s’éloigne des fenêtres.

  • Composition correcte des ombres permettant une bonne perception des détails : combinaison d’éclairage direct et diffus.
  • Absence d’ombre effaçant tout relief : éclairage diffus.
  • Ombres dures pouvant modifier l’aspect des objets et donc représenter une source de danger : éclairage directionnel.

Eblouissement

Eblouissement


Généralités

L’éblouissement est dû à la présence, dans le champ de vision, de luminances excessives (sources lumineuses intenses) ou de contrastes de luminance excessifs dans l’espace ou dans le temps.

Suivant l’origine de l’éblouissement, on peut distinguer :

L’éblouissement direct produit par un objet lumineux (lampe, fenêtre, …) situé dans la même direction que l’objet regardé ou dans une direction voisine.

L’éblouissement par réflexion produit par des réflexions d’objets lumineux sur des surfaces brillantes (anciens écrans d’ordinateur, plan de travail, tableau …).

En éblouissement direct, on peut donc distinguer 2 types d’éblouissement :

  • D’une part, « l’éblouissement d’inconfort«  résulte de la vue en permanence de sources lumineuses de luminances relativement élevées. Cet éblouissement peut créer de l’inconfort sans pour autant empêcher la vue de certains objets ou détails.
  • D’autre part, « l’éblouissement invalidant«  est provoqué par la vue d’une luminance très élevée pendant un temps très court. Celui-ci peut, juste après l’éblouissement, empêcher la vision de certains objets sans pour autant créer de l’inconfort.

Le premier type d’éblouissement se rencontrera dans des locaux où l’axe du regard est toujours relativement proche de l’horizontale. C’est le cas dans les classes ou bureaux par exemple. Le deuxième cas se présente dans les salles de sport, par exemple, car l’axe de vision d’un sportif est constamment changeant et que celui-ci regarde vers le haut pour suivre les balles en hauteur.


En éclairage naturel

En éclairage naturel, l’éblouissement peut être provoqué par la vue directe du soleil, par une luminance excessive du ciel vu par les fenêtres, ou par des parois réfléchissant trop fortement le rayonnement solaire et provoquant des contrastes trop élevés par rapport aux surfaces voisines. Il est intéressant de noter qu’une plus grande ouverture à la lumière naturelle cause moins d’éblouissement qu’une petite car elle augmente le niveau d’adaptation des yeux et diminue le contraste de luminance.

Deux métriques sont couramment utilisées pour décrire l’éblouissement à la lumière naturelle : le Daylight Glare Probability (DGP) et le Daylight Glare Index (DGI).


En éclairage artificiel

En éclairage artificiel, l’éblouissement peut être provoqué par la vue directe d’une lampe ou par sa réflexion sur les parois polies des luminaires, sur les surfaces du local ou sur des objets.

L’éblouissement direct provoqué par un luminaire est d’autant plus fort pour une position donnée de l’observateur que :

  • la luminance du luminaire est élevée,
  • le fond sur lequel elle se détache est sombre,
  • l’angle compris entre la direction considérée et la verticale est important ; pratiquement, en dessous de 45° par rapport à la verticale, l’éblouissement devient négligeable,
  • le nombre de luminaires dans le champ visuel est important.

La position des luminaires et la répartition de la lumière qu’ils émettent sont donc fondamentales. D’autant que le degré de tolérance à l’éblouissement venant d’un luminaire (source lumineuse de petite taille) est plus faible que celui venant d’une fenêtre (source lumineuse de grande taille).

Température de couleur [Théories]

Température de couleur


La couleur de la lumière artificielle a une action directe sur la sensation de confort de l’ambiance lumineuse d’un espace. Elle n’influence cependant pas les performances visuelles.
Pour la qualifier, on définit la température de couleur (exprimée en Kelvins (K)). On parlera généralement de teinte chaude (température de couleur < 3 000 K) ou froide (température de couleur > 3 000 K). Plus une couleur est chaude visuellement, plus sa température thermique (en degré Kelvin) est donc faible.

Une lumière de couleur « chaude » est composée majoritairement de radiations rouges et oranges. C’est le cas des lampes à incandescence normales.

Les tubes fluorescents standards génèrent une lumière « froide » composée principalement de radiations vertes, violettes et bleues.

Ci-dessous, on illustre la variation de la sensation de confort de l’ambiance lumineuse d’un local en fonction de la température de couleur des tubes fluorescents choisis et ce pour un même niveau d’éclairement.

  • Éclairement de 300 lux lumière chaude.
  • Éclairement de 300 lux lumière froide.

De plus, les couleurs chaudes (rouge, orange) des objets sont plus agréables lorsqu’elles sont éclairées par une lumière chaude plutôt que par une lumière froide, mais par contre la lumière chaude tend à noircir les couleurs froides (bleu, violet). Ceci se manifeste particulièrement bien dans l’éclairage à incandescence classique.

Les radiations colorées émises par les objets et l’environnement peuvent aussi produire certains effets psycho-physiologiques sur le système nerveux. C’est ainsi que les couleurs de grandes longueurs d’onde (rouge, orange) ont un effet stimulant tandis que celles de courtes longueurs d’onde (bleu, violet) ont un effet calmant. Les couleurs intermédiaires (jaune, vert) ont, de même que le blanc, un effet tonique et favorable à la concentration. Les couleurs foncées et le gris ont par contre une action déprimante.

Enfin les couleurs peuvent contribuer dans une large mesure à modifier la dimension apparente des surfaces et des volumes. Les couleurs chaudes seront de préférence utilisées dans des locaux de dimensions exagérées tandis que les couleurs froides seront choisies pour les locaux de dimensions réduites.

Quelques températures de couleur sont reprises dans le tableau suivant :

 Tableau différentes températures de couleur.

Autonomie en lumière du jour

Autonomie en lumière du jour


Autonomie en lumière du jour

Le DA (Daylight Autonomy) est défini comme étant le pourcentage des heures occupées par an, où le niveau minimum d’éclairement requis peut être assuré par la seule lumière naturelle. Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 50-60 % (pour un horaire de 8h00 à 18h00).

Une autonomie en lumière du jour de 60 % pour un lieu de travail occupé en semaine de 8 h à 18 h. et un éclairement minimum de 500 lux implique que l’occupant est en principe capable de travailler 60 % de l’année uniquement avec de l’éclairage naturel.

En première approximation, ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Deux types d’autonomie en éclairage naturel doivent être distingués : l’autonomie statique et l’autonomie dynamique.
L’autonomie statique est basée sur l’évaluation du facteur de lumière du jour au point considéré et tient donc compte des conditions de ciel couvert. Elle ne considère ni le ciel clair ni intermédiaire, pas plus que les protections solaires.
Au contraire, l’autonomie dynamique en éclairage naturel est basée sur la prédiction de l’éclairement au point considéré, à chaque pas de temps (horaire ou inférieure) pour l’année entière. L’éclairement est donc prédit à partir d’un fichier météo.

Une majeur partie du contenu de cette page provient du rapport « Energy audit et inspection procedures » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet des méthodes d’audit et procédure d’inspection peut être téléchargé ici en français.


Autonomie diffuse en éclairage naturel

Cette métrique traduit le facteur lumière du jour en une estimation du pourcentage de temps durant lequel le niveau d’éclairement requis sera atteint grâce à la lumière naturelle. L’autonomie diffuse en éclairage naturel est basée sur des données météo horaires.

Un des avantages de cette métrique est qu’elle permet d’estimer les consommations annuelles d’éclairage électrique. Par exemple, si l’autonomie diffuse moyenne est de 64 %, le pourcentage de temps durant lequel les lampes seront allumées peut être estimé à 36%, des heures d’occupation.

Le DDA est hautement dépendant de l’orientation du local et de la localisation du bâtiment (la latitude est un facteur majeur). Comme elle est basée sur le niveau d’éclairement requis, l’autonomie diffuse en éclairage naturel est également liée à la fonction du local.

Cette métrique ne prend pas en compte la contribution du soleil. Cependant, comme beaucoup d’études ont montré que l’utilisation d’une protection solaire est assez imprévisible, il semble acceptable de compter sur l’éclairement diffus pour estimer avec un taux de confiance raisonnable, la contribution de l’éclairage naturel à l’éclairement intérieur. De plus, dans beaucoup de cas, quand le soleil frappe la façade, des systèmes d’ombrage appropriés sont déployés de manière à bloquer la pénétration du rayonnement solaire direct sans obscurcir la pièce et donc sans résulter en un allumage des lampes.


Autonomie dynamique en éclairage naturel

L’autonomie dynamique en éclairage naturel est basée sur la prédiction de l’éclairement au point considéré, à chaque pas de temps (horaire ou inférieure) pour l’année entière. L’éclairement est donc prédit à partir d’un fichier météo.

La notion d’autonomie dynamique en éclairage naturel est complétée par des modèles qui prédisent, pour chaque pas de temps, le statut du système de contrôle des protections solaires. Cette notion est appelée autonomie dynamique « effective » en éclairage naturel.

L’utilisation de l’autonomie dynamique est récente. Par conséquent, les valeurs cibles définies par les auteurs doivent être étudiée en profondeur est adaptées de manière à considérer le climat du site.

Par exemple, les critères de Rogers définissent que :

  • les espaces qui atteignent une autonomie dynamique comprise 40% et 60% sur plus de 60% de leur surface obtiennent un crédit de base ;
  • les espaces qui atteignent une autonomie dynamique comprise 60% et 80% sur plus de 60% de leur surface obtiennent un crédit additionnel ;
  • les espaces qui atteignent une autonomie dynamique de plus de 80% sur plus de 60% de leur surface obtiennent deux crédits additionnels.

Une autre cible peut être d’atteindre la moitié de l’autonomie d’un point extérieur non ombré, ayant le même profil d’occupation que le bâtiment étudié, pour la même localisation (Critère de Reinhart & Walkenhorst). Un espace est donc considéré comme éclairé naturellement s’il reçoit suffisamment de lumière naturelle durant au moins la moitié du temps durant laquelle le point extérieur obtient assez de lumière.

L’autonomie dynamique en éclairage naturel est basée sur le climat, elle est donc supposée être une des métriques les plus précises pour évaluer la disponibilité d’éclairage naturel dans un bâtiment. Cependant le calcul de cette valeur à plusieurs limites :

  • Le résultat obtenu pour une année entière est agrégé en une simple valeur, les informations temporelles sur l’évolution de la disponibilité de la lumière naturelle sont perdues. Toutefois, une manière de bénéficier de toute la puissance des métriques dynamiques basées sur le climat est de les représenter par des graphiques de type « carte temporelle » :

    Schéma informations temporelles sur l’évolution de la disponibilité de la lumière.

    Exemple de carte temporelle. ( Source: J. Mardaljevic)

  • La simulation est supposée modéliser le comportement humain de gestion des stores, ce qui implique une grande incertitude des résultats. Les simulations horaires sont cependant conformes à la réalité si le local est équipé de gestion automatique des protections solaires.
  • Les objectifs sont dépendants du climat, de l’occupation et du type de bâtiment et devraient être fixés pour chaque pays. Toutefois, cette métrique est intéressante pour faire des comparaisons entre diverses options de design.

Autonomie dynamique continue

L’autonomie dynamique continue est une métrique dérivée de l’autonomie dynamique. Cette métrique met en évidence la contribution bénéfique de la lumière naturelle, même à bas niveau. Elle modélise en quelque sorte l’autonomie qu’on obtiendrait dans un local équipé d’un système de gradation de l’éclairage électrique.

Comme pour l’autonomie dynamique, il n’existe actuellement pas de valeurs cibles. Ces valeurs devraient en principe dépendre du climat, de l’occupation et du type de bâtiment et devrait probablement être définies par pays.

Cependant, comparer la valeur de l’autonomie continue devrait permettre aux concepteurs de choisir parmi différentes options de configuration.

Autonomie dynamique maximale

L’autonomie maximale en éclairage naturel est définie comme le pourcentage d’heures d’occupations durant lesquelles du soleil direct entre dans le bâtiment ou que des niveaux excessif d’éclairage naturel sont atteints.

Le niveau maximum est fixé en fonction des objectifs établis pour le calcul de l’autonomie dynamique. Il vaut 10 fois cette valeur (c’est-à-dire que si l’objectif d’éclairement pour l’autonomie dynamique est de 300 lux, le niveau maximum acceptable sera de 3 000 lux). Cette manière de fixer la valeur maximum est la faiblesse de cette métrique car elle est intuitive, plutôt que basée sur des résultats expérimentaux.

Cependant, l’usage de l’autonomie maximale de manière à évaluer des situations critiques, quand trop de lumière naturelle pénètre dans le bâtiment, donne une première idée de l’endroit du local où de tels problèmes pourraient apparaître.

Autonomie dynamique spatiale

De manière à évaluer la qualité d’un espace éclairé naturellement, l’Illuminating Engineering Society (IES) a défini l’autonomie spatiale en éclairage naturel sDA. Cette métrique décrit la possibilité qu’un local profite de suffisamment de lumière naturelle, sur base d’une année.

L’autonomie spatiale en éclairage naturel est définie comme le pourcentage de la surface de travail qui atteint un niveau d’éclairement naturel minimum, pour une fraction donnée des heures d’utilisation du bâtiment, pour une année, c.-à-d., qui rencontre une certaine autonomie en éclairage naturel.

Les seuils recommandés sont 300 lux et 50 % des heures d’opération, de 8h00 à 18h00 (heure locale en tenant compte du changement d’heure d’été) et le sDA est donné en pourcents. Ainsi l’autonomie spatiale est calculée comme ceci :

sDA (300 lx, 50 %) =  (surface analysée avec un éclairement ≥ 300lx pour au moins 50% des heures d’utilisation) / (surface totale d’analyse) * 100

Selon IES, les valeurs cibles pour l’autonomie spatiale sont :

  • sDA (300 lx, 50 %) ≥ 55 % : valeur suffisante d’éclairage naturel ;
  • sDA (300 lx, 50 %) ≥ 75 % : valeur préférée d’éclairage naturel.

L’autonomie spatiale en éclairage naturel s’appuie sur des calculs basés sur des données climatiques. Elle tient donc en compte la contribution du ciel et du soleil ainsi que les systèmes d’ombrage dynamiques. Cependant, le sDA ne fournit aucune information sur un éventuel inconfort visuel. Celui-ci pourrait être évalué par le calcul de l’éblouissement annuel.


Useful Daylight Illuminance

L’UDI (Useful Daylight Illuminance) est le pourcentage des heures occupées par an où l’éclairement assuré par la seule lumière naturelle est compris entre 500 lx et 2 500 lx.

Cette valeur intègre le manque en lumière naturelle, mais également le risque de niveau d’éclairement trop élevé qui peut être associé à un inconfort des occupants et des apports solaires trop élevés.

À la place de fixer une valeur cible d’éclairement, l’UDI mesure la fréquence, sur un an, d’une gamme de niveaux d’éclairement atteints.

Quatre catégories sont définies.

  • un « UDI trop faible » caractérise un éclairement naturel insuffisant de moins de 100 lx ;
  • un « UDI supplémentaire » caractérise éclairement naturel entre 100 et 500 lux généralement suffisant mais qui peut être complété par de la lumière électrique ;
  • un « UDI autonome » caractérise un éclairement naturel entre 500 et 2 000  à 2 500 lux permettant d’être autonome vis-à-vis de l’éclairage électrique ;
  • un « UDI excédent » caractérise un éclairement naturel plus élevé que 2 000  à 2 500 lux entrainant un inconfort.

Ces limites peuvent être discutées en fonction de l’activité réalisée dans le local et de l’occupation. Ainsi, une autre considération est de définir les heures de l’année qui doivent être prises en compte.

Ce nombre peut être défini par les heures d’occupation du bâtiment ou par les heures d’éclairement naturel durant l’année.

Il n’existe actuellement pas de cible définie qui permettrait de certifier que si l’UDI est atteint sur une certaine superficie du local, le local est bien éclairé. En effet, les objectifs dépendent fortement du climat, de l’orientation, de l’application (travail sur pc, sur papier, dessin, …).

Cependant, l’UDI reste une métrique utile permettant de mettre en évidence les zones sur-éclairées (pour lesquelles un ombrage serait nécessaire) et sous-éclairées et permettant de comparer différentes configurations d’un bâtiment.


Lien avec l’éclairage artificiel : les courbes CIE

Plus le facteur de lumière du jour et l’autonomie en lumière du jour sont élevés, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Ainsi les courbes CIE donnent une indication de la disponibilité d’éclairement extérieur diffus uniquement selon la latitude ; l’orientation et le rayonnement direct ne sont toutefois pas pris en compte.

La figure suivante présente ces courbes liant latitude et éclairement extérieur  :

Pourcentage d’heures entre 9h00 et 17h00 où le niveau d’éclairement est disponible ou dépassé. (source : CIE – Commission Internationale de l’Éclairage).

Par exemple, pour un bâtiment de bureau situé à Uccle (50,8° Latitude Nord), dont l’éclairement total doit valoir 500 lux. Supposons qu’on mesure un facteur de lumière du jour de 6 % en un point. La valeur d’éclairement extérieur nécessaire pour atteindre 500 lux vaut donc 8 333 lux (= 500/0.06).

Si on trace une ligne horizontale à 8 333 lux, celle-ci rencontre la ligne verticale correspondant à la latitude au point A. Ce point est situé sur une courbe (non dessinée) qui correspond environ à 73 %.

Ce qui veut dire qu’un point du local ayant un facteur de lumière du jour de 6 % disposera de 500 lux pendant 73 % du temps de travail, en moyenne sur l’année.

Notons que cet abaque est relativement pessimiste puisqu’elle ne tient compte que d’un ciel couvert. On peut dire qu’elle convient assez bien pour des ouvertures orientées au Nord. Elle n’est pas très satisfaisante… mais l’analyse détaillée (dynamique) requiert des outils bien plus avancés qui restent pour l’instant au niveau de la recherche !

Lumière : généralités

Lumière : généralités


La lumière naturelle

Onde et particule

Lorsqu’on parle de lumière, on considère qu’elle est à la fois une particule élémentaire (photon) et une onde électromagnétique.

L’onde électromagnétique est caractérisée par :

  • Une amplitude ;
  • Une longueur d’onde (ou fréquence) ;
  • Une vitesse de propagation.

La relation suivant unit la longueur d’onde et la vitesse de propagation :

λ = C / F

où :

  • λ : longueur d’onde en nanomètre ;
  • C : est la vitesse en m.s-1 ;
  • F : fréquence en Hz.

Pour une vitesse de la lumière de 299,792,458 m.s-1 et une longueur d’onde de 380 nm (bleu) la fréquence de propagation est de :

F = 299,792,458 / 450 x 10-9 = 780 THz

À titre comparatif, le tableau suivant donne une idée des longueurs d’onde de différents types de rayonnement :

Longueur d’onde (dans le vide) Domaine Fréquence Commentaire
Plus de 10 m radio inférieure à 30 MHz
de 1 mm à 30 cm micro-onde (Wifi, téléphones portables, radar, etc.) de 1 GHz à 300 GHz incluse dans les ondes radio
de 780 nm à 500 µm infrarouge norme NF/en 1836
de 380 nm à 780 nm lumière visible de 350 THz à 750 THz rouge (620-780 nm)
orange (592-620 nm)
jaune (578-592 nm)
vert (500-578 nm)
bleu (446-500 nm)
violet (380-446 nm)
de 10 nm à 380 nm ultraviolet de 750 THz à 30 PHz
de 10-11 m à 10-8 m rayon X de 30 PHz à 30 EHz
< à 5 x 10-12 m Rayon γ (gamma) supérieure à 30 EHz

Remarque : le spectre de la lumière naturelle est changeant suivant l’état du ciel : en fonction de la présence ou pas de nuage, leur densité, leur forme, … le spectre lumineux évolue.

Spectre lumière naturelle.


Lumière blanche artificielle

En éclairage artificiel, on tente toujours de se rapprocher de la lumière naturelle qui est, par définition, une lumière blanche. C’est indispensable de s’en rapprocher pour une question principalement de confort visuel. On imagine difficilement pour des occupants de bâtiments tertiaires de travailler dans une ambiance de couleur jaune comme c’est le cas, par exemple, chez certains fabricants de téléviseur.

Spectre lampe à incandescence.

Lampe à incandescence : bon exemple de lumière blanche.

La lumière blanche artificielle qui se rapproche le plus de la lumière naturelle est donnée par la lampe à incandescence. Indépendamment des considérations énergétiques (cette lampe est amenée à disparaître à terme), la lampe à incandescence reste, sans conteste, la source de référence par rapport à la qualité visuelle d’une lampe artificielle.


Diagramme de chromaticité

Toutes les couleurs du spectre visible peuvent être représentées dans un diagramme de chromaticité de la Commission Internationale de l’Éclairage (CIE).

Diagramme de chromaticité

Quelques paramètres caractéristiques :

  • La courbe du fer à cheval représente les couleurs pures (teintes) de tout le spectre visible depuis le rouge (λ= 700 nm) jusqu’au violet (λ= 420 nm) ;
  • Le segment de droite qui joint les extrémités du fer à cheval représente les pourpres ;
  • le point de coordonnées (x=1/3 ;y = 1/3) est le blanc ;
  • la température de couleur pour le blanc est de 6 000 K ;
  • Le centre du fer à cheval focalise les différentes couleurs blanches. L’arc de cercle gradué de 10 000 à 1 500 K représente les températures de couleur qui caractérisent les différences sources lumineuses entre elles par rapport à la lumière blanche.

Confort visuel

Confort visuel

Source : Cette rubrique est basée sur la brochure « Le confort visuel et la normalisation (Normes & Règlements) » éditée par le CSTC en 2003.


La lumière

La perception de la lumière est un des sens les plus importants de l’Homme. Grâce à cette perception, nous pouvons appréhender facilement l’espace qui nous entoure et nous mouvoir aisément dedans. L’œil, jouant le rôle d’interface avec l’environnement est sensible non seulement aux caractéristiques de la lumière, mais aussi au niveau de ses variations et de sa répartition. L’œil est indubitablement une merveille de « technologie naturelle » capable de s’adapter aux conditions extrêmes qui règne sur notre planète, mais, naturellement, a ses limites au niveau adaptation et accommodation ; ce qui consiste les limites du confort visuel.


Le confort visuel

À l’instar du confort thermique, le confort visuel est, non seulement une notion, objective faisant appel à des paramètres quantifiables et mesurables, mais aussi à une part de subjectivité liée à un état de bien-être visuel dans un environnement défini.
Le confort visuel dépend à la fois :

Paramètres physiques

La luminance, l’éclairement, l’éblouissement et les contrastes sont les plus perceptibles par l’Homme et les représentatifs du confort visuel. À ces paramètres, on associe des valeurs qui garantissent le bon déroulement d’une tâche sans fatigue ni risque d’accident :

  • L’éclairement (en lux) est une valeur relativement facile à mesurer (luxmètre) ;
  • La luminance (en candela.m² ou cd/m²), plus représentative de la perception réelle de l’œil, mais demande du matériel sophistiqué (luminancemètre);
  • L’éblouissement (en UGR) qui constitue le paramètre le plus gênant dans la réalisation d’une tâche. Il se mesure avec un luminancemètre visant une direction bien spécifique. Il reste à préciser que l’éblouissement peut être direct ou indirect ;

Les contrastes, quant à eux, sont responsables d’un manque de distinction de deux zones ou éléments différents.

Théories

 Ppour connaitre les caractéristiques de base du confort visuel.

Caractéristiques propres à l’environnement

La volumétrie d’un local et les propriétés des parois influencent la qualité de la répartition du flux lumineux.  Elles constituent l’environnement immédiat ou éloigné. Le flux lumineux au niveau d’une tâche résulte de la superposition de la lumière naturelle issue d’une ouverture dans une paroi externe verticale ou/et horizontale et la lumière artificielle.

Au niveau de la composante naturelle, on distingue :

  • La composante directe issue sans réflexion du soleil ou du ciel de manière générale (réflexion du rayonnement solaire sur la couche nuageuse ) ;
  • La composante indirecte réfléchie par des éléments externes comme une surface vitrée d’un immeuble voisin ;
  • La composante indirecte interne issue de la réflexion des deux composantes externes sur les parois internes.

Schéma composante naturelle.

Au niveau de la composante artificielle d’un luminaire, on distingue aussi :

  • La composante directe depuis le luminaire sur le plan de travail ;
  • Et la composante indirecte résultant des réflexions multiples sur les parois internes du local considéré.

Schéma composante artificielle.

Les paramètres influençant le niveau d’éclairement de la tâche est directement liée aux paramètres influençant l’éclairage naturel et artificiel :

  • La contribution des composantes externes dépendra de la taille, de la forme, de l’orientation,  du positionnement de l’ouverture dans la façade, des caractéristiques du vitrage, de la présence ou pas d’une protection solaire et des coefficients de réflexion des parois ;
  • Les propriétés des luminaires, leur localisation et leur orientation

Caractéristiques propres à la tâche à accomplir

Pratiquement chaque tâche nécessite un niveau d’éclairement différent. On distinguera les tâches de précision, les tâches liées à un objet en mouvement, …  À noter que plus les contrastes sont faibles plus le niveau d’éclairement doit être important. Mais jusqu’à un certain point ! En effet, un sur éclairement d’une tâche devient aussi inconfortable.

L’éclairage artificiel devra fournir une lumière de qualité en termes de rendu de couleur (Ra) de manière à se rapprocher le plus possible de la lumière naturelle (Ra a un indice 100 pour la lumière naturelle).

Facteurs physiologiques

Nous ne sommes pas égaux devant le confort visuel. Les couleurs ne sont pas perçues de la même manière d’un individu à l’autre. Aussi, les capacités visuelles sont fonction de l’âge des personnes : dans une maison de retraite, par exemple, une lumière plus blanche (Rendu de couleur élevé) permettra plus facilement d’assurer le confort visuel des personnes âgées.

Facteurs psychologiques

Le besoin de lumière se fait souvent ressentir dans les pays scandinaves par exemple. Consciemment ou inconsciemment, les peuplades du nord compensent souvent le manque de lumière et l’uniformité de l’environnement (neige uniforme partout) par des couleurs vives au niveau des maisons.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Résistance à la diffusion de vapeur d’une paroi

Résistance à la diffusion de vapeur d’une paroi


« Coefficient de résistance à la diffusion de vapeur » d’un matériau

Le mouvement de diffusion de vapeur sera d’autant plus important que le matériau constituant la paroi sera plus perméable à la vapeur c’est à dire que son coefficient de résistance à la diffusion de vapeur est faible.

Le coefficient de résistance à la diffusion de vapeur d’un matériau μ indique dans quelle mesure, la vapeur d’eau traverse plus difficilement ce matériau que l’air. La valeur μ d’un matériau est toujours supérieure à 1.

μ

La quantité de vapeur d’eau diffusant à travers une couche d’un matériau déterminé ne dépend pas uniquement de la valeur µ du matériau mais aussi de l’épaisseur de cette couche. L’épaisseur équivalente de diffusion μd (ou Sd) indique la résistance qu’offre une couche de matériau à la diffusion de vapeur d’eau. µd est le produit du coefficient de résistance à la diffusion de vapeur (μ ) par l’épaisseur du matériau (d) et s’exprime en mètres.
Le µd d’une couche de matériau correspond à l’épaisseur en m de la couche d’air stationnaire qui exercerait la même résistance à la diffusion de vapeur que la couche de matériau.

Exemple.

Lorsque le µ d’un matériau vaut 5, cela signifie :

  • que la vapeur d’eau traverse 5 fois plus difficilement ce matériau que l’air, ou, en d’autres mots,
  • que 20 cm de ce matériau exerce la même résistance à la diffusion de la vapeur que 100 cm d’air stationnaire.

Le coefficient de résistance à la diffusion de vapeur de certains matériaux dépend de leur état : sec ou humide.


Résistance à la diffusion de vapeur d’une paroi homogène et calcul de la densité de flux de vapeur à travers cette paroi (régime stationnaire)

Considérons la diffusion de vapeur à travers une couche de matériau plane et homogène d’une épaisseur d; diffusion résultant d’une différence de pression partielle de vapeur.

  • A = superficie (m²),
  • pv1 = pression de vapeur à la face intérieure (Pa),
  • pv2 = pression de vapeur à la face extérieure (Pa)

pv1 > pv2 (Conditions hivernales)

La différence de pression de vapeur (pv1 – pv2) entraîne une diffusion de vapeur d’eau de l’intérieur vers l’extérieur.
Question : quelle est la quantité de vapeur diffusant du plan 1 vers le plan 2 en t secondes, à travers une surface A (m²) ?

Par intuition, on sait que la quantité de vapeur Qd cherchée sera :

  • directement proportionnelle à la surface considérée A (m²),
  • directement proportionnelle à la différence de pression de vapeur (pv1 – pv2) (Pa),
  • directement proportionnelle à la durée de temps considérée t (s),
  • inversément proportionnelle à l’épaisseur du matériau d (m),
  • inversément proportionnelle au coefficient de résistance à la diffusion μ .

Si l’on exprime ces considérations par une formule, on obtient :

Qd = directement proportionnelle à

Pour compléter la formule, l’expression « directement proportionnelle à », est remplacée par un coefficient de proportionnalité représenté par la lettre C.
La formule devient alors :

(1)

On peut appliquer la formule (1) non pas à A (m²) mais à 1 m² et non pas à une durée t(s) mais pour 1 s :

La grandeur Qd/A x t est appelée densité du flux de vapeur d’eau (kg/(m² x s)).
La densité du flux de vapeur d’eau est représentée par le symbole qd. Nous avons donc :

(2)

La densité du flux de vapeur qd indique donc la quantité de vapeur d’eau qui traverse la paroi par m² de surface et par seconde.
Les dimensions de C sont :

Ainsi, C s’exprime en secondes (s).

Dans les conditions telles qu’on les rencontre normalement dans les bâtiments, on peut considérer C comme étant une constante :

C = 0,185 x 10 – 9 s (ou : N = 1/C = 5,4 x 109 s – 1)

La formule (2) s’écrit :

ou (3)

(5,4 x 109 x μd) est appelé la résistance à la diffusion Z.
Cette valeur très élevée de la constante de diffusion signifie que la résistance à la diffusion de tout matériau est, en fait, très élevée et que les quantités de vapeur transportées par diffusion seront très faibles.

La relation (3) s’écrit alors :

Une résistance à la diffusion Z très élevée conduit à un faible flux de vapeur.

Remarque.

On peut obtenir une résistance à la diffusion très élevée en utilisant soit une couche mince d’un matériau ayant une valeur μ très élevée (= PARE-VAPEUR), soit une couche épaisse d’un matériau ayant une valeur μ peu élevée.

Exemple : la paroi homogène.

Une Paroi en briques silico-calcaires (ρ= 1 800 kg/m³) a une valeur égale à 15 (-) et une épaisseur de 20 cm. La pression de vapeur extérieure est de 280 Pa et la pression de vapeur intérieure de 1 320 PA.

La densité du flux de vapeur d’eau vaut :

=
64,2 x 10 – 9 kg/(m² x s) = 5,5 g/(m² x jour)


« Résistance à la diffusion de vapeur » d’une paroi composite

Généralement, une paroi se compose de plus d’une couche. La résistance à la diffusion totale d’une paroi composite s’obtient en faisant la somme des résistances à la diffusion des couches constituantes.

Zt = Z1 + Z2 + Z3 + Zn = ΣZk

ou Zt = 5,4 x 109 x (μ1d1 + μ 2d2 + … μn x dn)

Tout comme dans le cas du transfert de chaleur, la vapeur d’eau doit vaincre une certaine résistance en passant d’une paroi vers l’air ambiant et inversement. Toutefois, ces résistances de passage sont si faibles que l’on n’en tiendra pas compte.
Finalement, la formule devient :

kg/(m² x s)

dans laquelle,

  • pvi = pression de vapeur intérieure (Pa)
  • pve = pression de vapeur extérieure (Pa)
Exemple : la paroi composite.

Considérons le transport de chaleur à travers une paroi composite constituée de l’intérieur vers l’extérieur comme suit :

Enduit : d = 15 mm ρ = 1 700 kg/m³
Béton cellulaire : d = 10 cm ρ = 700 kg/m³
Laine minérale : d = 8 cm ρ = 40 kg/m³
Brique : d = 12 cm ρ = 1 800 kg/m³

Supposons qu’à l’intérieur, l’humidité relative est de 50 % à 22°C et à l’extérieur, de 70 % à – 5°C. Calculons la quantité de vapeur d’eau qui diffuse dans la paroi et l’évolution de la pression de vapeur.

Données de base :

d(m) μd(m)
Enduit : 0,015 0,15
Béton cellulaire : 0,10 0,57
Laine minérale : 0,08 0,13
Maçonnerie de briques : 0,12 1,38

La résistance à la diffusion totale est de :

5,4 x 109 x Sμd= 5,4 x 109 x 2,23 = 12 x 109 m/s

Les valeurs des pressions de vapeur maximales à 22°C et – 5°C sont respectivement de 2 645 et 401 Pa.

Les pressions sont donc :

pvi = 2 645 x 50 % = 1 322 Pa
pve = 401 x 70 % = 281 Pa

Ce qui donne :

= 87 10 – 9 kg/(m² x s) = 7,5 g/(m² x jour)

 


Évolution de la pression de vapeur dans une paroi composite (régime stationnaire)

Comme pour le transfert de chaleur, l’évolution de la pression de vapeur dans chaque couche de la paroi est rectiligne si l’on se trouve en régime stationnaire. Pour une paroi composite, il suffit donc de calculer les pressions de vapeur au droit des interfaces des différentes couches et de relier les points ainsi obtenus par des droites.

La formule suivante :

permet de calculer qd

La formule qd générale peut aussi être appliquée séparément à chacune des couches :

couche 1 :

couche 2 :

couche 3 :

En régime stationnaire, les quantités qd1,qd2, qd3 et qd doivent être égales. En effet, si qd1 était supérieur à qd2, la quantité de vapeur d’eau quittant le plan 1 serait supérieure à celle qui y arrive et, dans ce cas, la pression de vapeur au droit du plan 1 (pv1) ne pourrait rester constante.

Tout plan parallèle est donc traversé par la même quantité d’humidité ou :

qd = qd1 = qd2 = qd3

donc :

= = =

Nous pouvons en déduire pv1 et pv2 :

D’une manière générale, on peut en fait écrire :

Exemple : la toiture.

Considérons une toiture constituée de la manière suivante : une structure portante en béton, épaisseur = 120 mm, (μ = 80), un matériau isolant, épaisseur = 50 mm, (μ = 40), une couverture de toiture, μd = 100 m.

Les températures sont de – 5 °C à l’extérieur et + 20 °C à l’intérieur. Les humidités relatives respectives sont de 70 % et 50 %.

– 5 °C –> pvse = 401 PA, q = 70 % –> pve = 281 Pa
+ 22 °C –> pvsi = 2 645 PA, q = 50 % –> pvi = 1 322 Pa

Reprenons les données sous forme de tableau :

d (m) μ (-) μ d(m)
Béton (3) 0,12 80 9,6
Isolation (2) 0,05 40 2
Couverture (1) 0,01 100

Z = 5,4 x 109 x 111,6 = 603 x 109 m/s.

Si nous comparons les valeurs μd, nous voyons que 90 % environ du gradient de tension de vapeur apparaît au droit de la couverture. Les 10 % restants concernent l’isolation et la structure portante. L’évolution de la tension de vapeur est schématisée ci-après.

Pour qd, nous trouvons :

=
1,7 x 10 – 9 kg/(m² x s) = environs 0,15 g/m² x jour)

Remarque importante.

  • Dans les deux exemples précédents, le résultat n’est exact que pour autant que la tension de vapeur calculée ne dépasse, en aucun endroit de la paroi, la tension maximale.
  • Dans le cas contraire, il y aurait condensation.

Efflorescences de sels

Efflorescences de sels


Principe général

Les efflorescences sont dues à la cristallisation de sels suite à l’évaporation de l’eau qui les contient, lors d’une période de séchage consécutive à une période d’humidification. Les efflorescences apparaissent donc surtout au printemps. La cristallisation des sels provoque une augmentation de la pression dans les pores du matériau ayant pour conséquence des éclatements de la maçonnerie.

Il y a deux types d´efflorescences de sels :

  • celles qui se produisent en surface ;
  • celles qui se produisent dans la structure poreuse des matériaux.

Les efflorescences de surface n’entraînent aucun dommage au niveau des matériaux, mais provoquent des effets esthétiques indésirables. Les efflorescences apparaissant dans la structure de la brique peuvent quant à elles provoquer une dégradation prématurée de celle-ci.

Les efflorescences de sels constituent un phénomène complexe dans l’étude globale de la durabilité des maçonneries en briques de terre cuite. Cette complexité est liée au nombre élevé de paramètres intervenant dans le problème. Les trois points suivants définissent les conditions principales qui doivent être remplies pour rencontrer des problèmes liés aux sels.

Exemple d’efflorescences de sels.

Photo : http://www.masonryworktools.com/ in Isolation thermique par l’intérieur des murs existants en briques pleines – SPW 2011.


Conditions à remplir

Présence de sels

La présence de sels n´est pas liées à une mise en œuvre particulière (ni à une technique d’isolation particulière) des ions de sel doivent être initialement présents dans les matériaux ou être issus d’une source extérieure. Les efflorescences apparaissent souvent par l’interaction de la brique et d’un mortier hydraulique. Les sels peuvent également venir de remontées capillaires, de l’aspersion de sels de dégivrage ou de réaction de gaz pollués avec la chaux présente dans les matériaux. Le type de sels et leurs effets dépendent du matériau de la maçonnerie. Si aucun sel n’est présent ou introduit dans la maçonnerie, la pose d’une isolation par l’intérieur n’entraînera pas de problème lié aux sels.

Humidité de la brique

Les sels sont caractérisés par une grande solubilité et apparaissent plus fréquemment sur les façades les plus exposées aux intempéries (orientation sud-ouest). Comme on l’a vu, l’application d’un système d’isolation par l’intérieur conduit à une maçonnerie globalement plus froide et plus humide si rien n’est fait pour limiter la pénétration de l’eau de pluie et pour maintenir le potentiel de séchage du mur. Si la solubilité des sels décroît quand la température diminue, l’humidité accrue du mur favorise la dissolution des sels présents. L’application d’une isolation par l’intérieur sur une maçonnerie contenant des sels peut donc influencer la quantité de sels dissous. Il est toutefois difficile d’évaluer quel paramètre (température ou humidité) aura le plus d’influence.

Recristallisation des sels dissous

Quand le climat extérieur se réchauffe, le séchage du mur s’accélère et les sels dissous migrent vers le front de séchage. Il y a donc saturation puis recristallisation des sels dissous à cet endroit. L’augmentation de la quantité de sels dissous que peut provoquer la pose d’une isolation par l’intérieur risque d’augmenter la quantité de sel qui cristallisera et ainsi augmenter les conséquences de cette cristallisation.

Source : certains passages de cette feuille sont extraits du guide Isolation thermique par l’intérieur des murs existants en briques pleines réalisé par Arnaud Evrard, Aline Branders et André De Herde (Architecture et Climat-2010) dans le cadre de la recherche ISOLIN, financée par le département Énergie et Bâtiment durable du Service Public de Wallonie. Disponible sur le site : energie.wallonie.be

Consommation en énergie primaire

Consommation en énergie primaire

L’énergie primaire est la première forme d’énergie directement disponible dans la nature avant toute transformation: bois, charbon, gaz naturel, pétrole, vent, rayonnement solaire, énergie hydraulique, géothermique, etc. Parler en kWh d’énergie primaire permet de mettre les différentes sources d’énergie sur le même pied d’égalité, en prenant en compte toutes les transformations nécessaires avant livraison au consommateur final. On utilisera ainsi les facteurs de conversion suivants, conformément à la réglementation PEB :

  • combustibles fossiles : fp = 1
  • électricité : fp = 2,5
  • électricité autoproduite par cogénération à haut rendement  fp = 2,5
  • biomasse : fp = 1

Ainsi :

  • 1 kWh de gaz naturel équivaut à 1 kWh d’énergie primaire
  • 1 kWh d’électricité équivaut à 2.5 kWh d’énergie primaire

La consommation en énergie primaire est ainsi définie par :

Ep =  fp . Qfinal

avec Qfinal= consommation finale en énergie.

L’utilisation d’1 kWh d’électricité nécessite en réalité beaucoup plus d’énergie que l’utilisation d’1 kWh de gaz naturel, car la production d’électricité engendre beaucoup de pertes de transformation.
L’électricité a donc un facteur particulièrement élevé (2,5). Ce facteur traduit le fait qu’1 kWh électrique utilisé a nécessité 2,5 kWh de combustible pour sa transformation. Autrement dit, le rendement de production de l’énergie électrique en centrale est de l’ordre de 40 %. On voit de suite, à priori, l’absurdité d’utiliser l’électricité pour produire de la chaleur puisqu’une chaudière au mazout ou au gaz possède un rendement minimum de l’ordre de 90 %.

Oui, mais…

Si nous pouvions affirmer ceci sans concession dans les années 80’, il convient aujourd’hui de nuancer ce point de vue pour au moins 3 raisons :

  1. Le mix énergétique est de plus en plus vert : en 2018 la Belgique a produit 19% de son énergie de façon renouvelable et ce chiffre augmente chaque année (± 1% supplémentaire par an en moyenne depuis 2002 et devrait s’accélérer). Ainsi, pour mettre 1kWh électrique sur le réseau, on utilise de moins en moins d’énergie primaire.

Graphe sur les statistiques du renouvelable en Belgique

Graphe APERe sur base des données extraites des bilans régionaux SPW DGO4 (Wallonie), Bruxelles Environnement, VITO (Flandre), Eurostat (Belgique) pour les années passées

Source « Objectif 2020 » : Wallonie (scénario « Enveloppes »), Bruxelles (Estimation sur base des Quotas et Proposition BRUGEL 20111109-07), Flandres (Vlaamse Regering 31/01/2014) et Belgique (Directive européenne 20/20/20).

 

Le facteur fp pourrait par ailleurs suivre la tendance dans les prochaines années et passer de 2,5 à 2,2 voire 2.

Dans ce cadre, si nous faisons l’hypothèse un peu folle que 2/3 du mix énergétique sera renouvelable en 2050, alors le facteur d’énergie primaire chuterait théoriquement à ±0,8 ce qui rendrait l’utilisation de l’électricité du réseau plus intéressante pour le chauffage que les combustibles fossiles.

 

  1. Des technologies comme les pompes à chaleur (PAC) sont aujourd’hui matures et leurs rendements peuvent dépasser les 250%. Ainsi, avec 1kWh d’électricité du mix énergétique, la PAC fourni généralement plus de 2,5kWh d’énergie thermique soit une efficacité globale sur énergie primaire ≥ 1 et se positionne ainsi avantageusement par rapport à l’utilisation de combustible fossiles.

 

  1. Les panneaux solaires photovoltaïques sont devenus très abordables et leur rendement ne cesse d’évoluer de sorte qu’un grand nombre de nouveaux bâtiments en sont aujourd’hui équipés. Lorsqu’un bâtiment est équipé de tels panneaux en suffisance, il n’est plus absolument absurde pour ce bâtiment d’envisager de se chauffer totalement ou partiellement à l’électricité, même directe s’il arrive à autoconsommer. L’idéal restant évidemment de combiner avec une PAC performante et des moyens de stockage adaptés.

 

Bon à savoir :

La directive européenne 2018/884 permet aux Etats Membres d’aller plus loin et de faire varier les différents facteurs fp en fonction de la saison ou du mois pour tenir compte de la variabilité du mix énergétique au fils du temps (moins de soleil en hiver, par exemple). En agissant comme cela, la consommation durant les mois où l’énergie renouvelable est moins présente sera pénalisée (la valeur du fp pour l’électricité pourrait monter à plus de 2,5) et la consommation durant les mois où le renouvelable est plus présent serait moins impactant (valeur du fp inférieure à 2,5). Dans le même esprit, il est maintenant possible de différencier les valeurs fp par région ou zone énergétique (un système urbain isolé, par exemple).

Consommation finale en énergie

Consommation finale en énergie

Les besoins énergétiques nets évaluent la quantité d’énergie que devront fournir les différents systèmes de chauffage et de refroidissement afin de garantir le confort thermique de l’ambiance.

La consommation finale d’énergie englobe en plus les pertes liées au fonctionnement de ces différentes installations (rendement des installations). Elle, représente donc la consommation énergétique globale pour le chauffage et le refroidississement qui sera facturée à l’utilisateur.

Qfinal = Qnet / ηinstal

Avec :

  • instal = sys . gen
  • instal : rendement de l’installation.
  • gen :  rendement de production (du générateur).
  • sys: rendement du système qui dépend des caractéristiques de distribution, d’émission, de régulation et du stockage de l’énergie du système.

Besoin net en énergie

Besoin net en énergie

Les besoins nets en énergie représentent l’énergie que les systèmes de chauffage et/ou de refroidissement doivent fournir à l’ambiance pour maintenir une température intérieure définie (température de consigne) afin de compenser les déperditions thermiques en hiver et les surchauffes en été. On peut ainsi définir le besoin énergétique net pour le chauffage et le besoin énergétique net de refroidissement.

Les besoins nets en énergie sont donc uniquement liés aux caractéristiques constructives et à la fonction du bâtiment. Ils ne dépendent pas des caractéristiques des installations techniques.

Le besoin net en énergie est calculé sur base d’une température de consigne à partir du bilan suivant :

Qnet = QL – ηutil . Qg

Où,

  • Déperditions de chaleur [MJ] : QL = QT + QV.
  • Gains de chaleur [MJ] :  Qg = Qi + Qs.
  • Taux d’utilisation des gains de chaleur [-] : ηutil.

Les déperditions thermiques

Pertes par transmission QT

QT = HT . (ηi – ηe,m) . tm

où,

  • HT : Coefficient de transfert thermique par transmission [W/K].
  • ηe,m  : Température extérieure moyenne mensuelle [°C].
  • tm : Durée du mois  [Ms].
  • ηi : température intérieure moyenne établie par convention pour la détermination du besoin énergétique.
Pertes par ventilation QV

QV = HV . (ηi – ηe,m) . tm

où,

  • HV,heat,seci : Coefficient de transfert thermique par ventilation [W/K].
  • ηe,m : Température extérieure moyenne  mensuelle [°C].
  • tm : Durée du mois [Ms].
  • ηi : [°C] température intérieure moyenne établie par convention pour la détermination du besoin énergétique.

Les gains de chaleur

Gains internes

Ce terme représente la production de chaleur liée aux occupants et aux équipements (éclairage, bureautique, ventilateur, etc.)

Gains solaires

Les gains solaires (ou encore apports solaires) dépendent :

  • De la taille des surfaces vitrées,
  • De l’orientation et de la pente des fenêtres,
  • De la proportion vitrage/panneau/châssis,
  • Du type de vitrage (facteur g),
  • De l’ombrage de la fenêtre (ombrage environnemental et structurel),
  • Des protections solaires.

Taux d’utilisation des gains chaleurs

Selon les cas et les périodes de l’année les gains de chaleur ne sont pas toujours utiles. Par exemple, il arrive que même en hiver, les gains de chaleur dus aux apports solaires surviennent lorsque la température de consigne est déjà atteinte. La disponibilité de ces gains est donc décalée par rapport au besoin réel. C’est pour tenir compte de ce phénomène qu’un rendement d’utilisation des gains et des pertes est calculé. Celui-ci dépendra de :

  • De la proportion pertes/gains.
  • De la classe de masse thermique du bâtiment (inertie du bâtiment).

Climat utilisé pour les calculs

Un climat standardisé est généralement utilisé pour le calcul.

Ponts thermiques

Ponts thermiques


Généralités

Les ponts thermiques sont des points faibles dans l’isolation thermique de l’enveloppe du bâtiment.
À ces endroits, en hiver, la température superficielle de l’enveloppe est plus basse que celle des surfaces environnantes.

Ils découlent, en général de :

  • Contraintes constructives
  • Contraintes géométriques

Ils vont provoquer :

  • Des dépenses énergétiques
  • Un inconfort sur le plan de l’hygiène
  • La détérioration des matériaux

Pont thermique dû à des contraintes constructives

Les matériaux isolants ont généralement des capacités limitées en matière de résistance aux contraintes mécaniques.

Le principe de la continuité de la couche isolante n’a pas été respecté, ou n’a pu l’être dans certains cas, à certains endroits.

Il s’agit par exemple d’ancrages ou d’appuis entre d’éléments situés de part et d’autre de la couche isolante de la paroi.

L’isolant étant localement absent, le flux de chaleur est sensiblement plus dense dans ces parties de la paroi.

Pont thermique dû à des contraintes géométriques

Ce type de pont thermique est dû à la forme de l’enveloppe à un endroit.

A cet endroit, la surface de la face extérieure est beaucoup plus grande que la surface de la face intérieure.

La surface chauffée (intérieure) est plus petite que la surface de refroidissement (extérieure).

Dépenses énergétiques provoquées par les ponts thermiques

Dans le cas d’un bâtiment bien isolé, les ponts thermiques peuvent entraîner des déperditions de chaleur proportionnellement très importantes par rapport aux déperditions totales.

En outre, si on ne tient pas compte des déperditions dues aux ponts thermiques, l’installation de chauffage peut être sous-dimensionnée.
C’est surtout le cas lorsque le bâtiment est très bien isolé et lorsque les installations de chauffage sont dimensionnées de façon optimale.

Inconfort sur le plan de l’hygiène provoqué par les ponts thermiques

Les ponts thermiques provoquent une condensation en surface lorsque la température de celle-ci descend en dessous du point de rosée de l’air ambiant.

L’humidité de la paroi permet le développement de moisissures.

Celles-ci, outre leur aspect désagréable, dégagent des substances pouvant être odorantes et pouvant provoquer chez certaines personnes des phénomènes d’allergie.

Du point de vue hygiénique et confort les moisissures doivent donc être évitées.

Détérioration des matériaux provoquée par les ponts thermiques

Lorsque les quantités d’eau condensées sont importantes et ne peuvent être éliminées quotidiennement, elles pénètrent les revêtements et papiers peints, et provoquent leur détérioration.
Les carrelages, les revêtements plastiques, les peintures synthétiques à l’huile résistent mieux au détériorations.

Lorsque la condensation se fait dans le bois, celui-ci va pourrir plus ou moins vite en fonction de son essence et du traitement de protection dont il a bénéficié.

Si la condensation est importante, toute l’épaisseur de la paroi peut être fortement humide. La structure porteuse de la construction elle-même se dégrade sous l’effet de l’humidité permanente et éventuellement aussi du gel des matériaux.


Analyse des effets des ponts thermiques sur les flux de chaleur au travers d’une paroi

Isolation par l’extérieur d’un mur avec descente d’eau pluviale

Situation

Situation  n°1

Situation °2

L’architecte refuse de déplacer la descente d’eau pluviale; l’isolation extérieure y est interrompue.

La descente d’eaux pluviales est déplacée, l’isolation extérieure est continue.

Dessin des isothermes

Situation n°1

Situation n°2

Les températures de paroi intérieures sont d’environ 15°C.

Les températures de paroi intérieures sont plus élevées : environ 17°C.

Ligne de flux de chaleur

Situation n°1

Situation n°2

La chaleur s’échappe de manière importante par la discontinuité dans l’isolant.

La chaleur s’échappe de manière relativement identique par toutes les parties du mur.

Isolation par l’extérieur – Pourtour de baie vitrée

Situation n°1

Situation n°2

L’isolant n’est pas prolongé à l’intérieur de la baie.

L’isolant est prolongé à l’intérieur de la baie.

Situation n°1

Situation n°2

Les températures de paroi intérieures sont d’environ 16°C.

Les températures de paroi intérieures sont plus élevées : environ 18°C.

Situation n°1

Situation n°2

La chaleur s’échappe de manière importante par le retour de baie non isolé.

La chaleur s’échappe de manière relativement identique par toutes les parties du mur.

Coefficient de transmission thermique d’une façade légère de type mur rideau

Coefficient de transmission thermique d’une façade légère de type mur rideau


Les façades de ce type sont constituées de vitrages, de châssis et de panneaux opaques comme les fenêtres mais sont assemblés dans des structures pour former des modules. L’ensemble de ces modules compose la façade légère.

Exemple de module de façade légère :

Schéma exemple de module de façade légère.

La présence de la structure constituée généralement de meneaux (verticaux) et de traverses (horizontales) assurant la fixation et la stabilité de l’ensemble provoque des ponts thermiques supplémentaires dont il faudra tenir compte pour évaluer les performances thermiques de la façade légère.

Détermination précise du coefficient de transmission thermique Ucw,tot par calcul numérique

Une façade légère peut être partagée en différents modules dont certains sont identiques. Les plans de coupe sont choisis de telle sorte qu’ils délimitent des parties de façade ayant un coefficient de transmission thermique Ucw,i propre. La valeur globale Ucw,tot de l’entièreté de la façade légère est la moyenne pondérée par les aires des valeurs U de tous les modules qui compose la façade légère.

avec :

  • Acw,i = les aires des différents modules (m²)
  • Ucw,i = les coefficients de transmission thermique des différents modules (W/m²K)

Détermination précise du coefficient de transmission thermique de la valeur Ucw,i par essais

Le coefficient de transmission thermique Ucw,i d’un module de façade légère peut être déterminé avec précision avant pose par des essais  réalisés conformément à la norme NBN EN ISO 12567-1. Ils peuvent aussi être réalisés sur exactement le même module de façade légère avec  les mêmes dimensions et les mêmes composants.

Détermination précise de la valeur Ucw,i par calcul numérique

Un module de façade légère est constitué de différentes parties qui ont chacune une surface et un coefficient de transmission thermique U déterminés:

  1. les encadrements (châssis),
  2. le ou les vitrages,
  3. le ou les panneaux opaques,
  4. les meneaux,
  5. les traverses.

De plus, le contour des vitrages isolants et des panneaux est affecté d’une déperdition thermique supplémentaire résultant des effets combinés des encadrements, intercalaires, traverses, meneaux vitrages et panneaux (pont thermique linéaire).

L’ensemble de ces éléments permet de déterminer par calcul le coefficient de transmission thermique d’un module Ucw,i. Il s’agit de la valeur moyenne des coefficients de transmission thermique des  différentes parties au pro rata de leurs surfaces, augmentées des déperditions linéiques aux rives des vitrages et panneaux et entre les châssis et les éléments de structure.

Sous forme mathématique simple cela s’écrit :

avec :

  1. Acw = l’aire totale du module de la façade légère
  2. Ug = les coefficients de transmission thermique des différents vitrages
  3. Ag = les aires des différents vitrages
  4. Uf = les coefficients de transmission thermique des différents châssis (encadrements)
  5. Af = les aires des différents châssis (encadrements)
  6. Up = les coefficients de transmission thermique des différents panneaux
  7. Ap = les aires des différents panneaux
  8. Um(t) = les coefficients de transmission thermique des différents meneaux et traverses
  9. Am(t) = les aires des différents meneaux et traverses
  10. Ψf,g = les coefficients de transmission thermique linéique entre les différents vitrages et châssis (encadrements)
  11. lg = les périmètres visibles des différents vitrages dans les châssis (encadrements)
  12. ψp = les coefficients de transmission thermique linéique autour des différents panneaux
  13. lg = les périmètres visibles des différents panneaux
  14. Ψm(t),g = les coefficients de transmission thermique linéique entre les différents vitrages et les différents meneaux et traverses de la structure
  15. lm(t),g = les périmètres visibles des différents vitrages dans les différents meneaux et traverses de la structure
  16. Ψm(t),f = les coefficients de transmission thermique linéique entre les différents châssis (encadrements) et les différents meneaux et traverses de la structure
  17. lm(t),f = les périmètres visibles des différents châssis (encadrements) dans les différents meneaux et traverses de la structure

Les aires et périmètres sont déterminés conformément à l’Art. 10.2.2 de l’Annexe VII de l’AGW du 17 avril 2008.

Les coefficients de transmission thermique linéique ψ peuvent être déterminés à partir :

  • d’un calcul numérique précis suivant la norme NBN EN ISO 10077-2 ;
  • de valeurs par défaut mentionnées dans l’annexe E de l’AGW du 17 avril 2008 (Tableaux E2 , E3, E4, E5 et E6).

Influence des liaisons métalliques

Le calcul numérique ne tient pas compte des ponts thermiques provoqués par les liaisons métalliques (vis) dans les traverses et meneaux. Ces ponts thermiques peuvent être calculés précisément suivant la NBN EN ISO 10211 ou par essais suivant la NBN EN 12412-2.

Il existe également une méthode simplifiée pour tenir compte de l’influence des vis sur le coefficient de transmission thermique Um(t)  des meneaux et traverses. Ainsi pour des vis en acier inoxydable inter-distantes de 20 à 30 cm, le coefficient de transmission thermique est augmenté de 0.3 W/m²K. (Méthode de calcul suivant l’annexe C de la NBN EN 13947).

Source: AGW du 17 avril 2008, Annexe VII, Art 10.

Influence de l’écoulement d’eau sous l’isolant des toitures inversées

Influence de l'écoulement d'eau sous l'isolant des toitures inversées

L’écoulement de l’eau entre l’isolant d’une toiture inversée et la membrane d’étanchéité provoque une diminution des performances thermiques de l’isolant. La chaleur s’échappe en partie en réchauffant l’eau qui s’écoule.

  1. Lestage,
  2. Natte de protection,
  3. Isolant,
  4. Membrane d’étanchéité,
  5. Support en pente.

La réglementation prévoit une procédure pour tenir compte de l’impact de l’écoulement lorsque la couche isolante est en polystyrène extrudé (XPS).
Un terme correctif ΔUr est utilisé

Uc (U corrigé de la paroi) = U + ΔUr.

ΔUr est déterminé à partir des caractéristiques suivantes :

  • la quantité moyenne des précipitations pendant la saison de chauffe (en mm/jour) ;
  • le type de lestage (ouvert, appliqué en usine ou toiture verte) ;
  • la forme des bords des plaques (droits ou à rainures) ;
  • la résistance thermique corrigée de la couche d’isolant humidifié par diffusion ;
  • la résistance thermique totale de la paroi sans correction.

L’introduction de ces informations dans le logiciel PEB, fourni gratuitement par la Région wallonne et la Région de Bruxelles-Capitale, permet le calcul automatique du terme correctif qui est alors appliqué directement au coefficient de transmission thermique U de la paroi.

La formule du terme correctif ΔUr est indiquée à l’Art 7.2.4 de l’Annexe B1 de l’AGW du 15 mai 2014 (formule 13).

Certaines valeurs par défaut peuvent être utilisées :

  • Précipitation moyenne : 2 mm/jour ;
  • Facteur de correction pour le transfert de chaleur par précipitation :
    • 0.04  si plaques à bords droits et lestage ouvert ou appliqué en usine,
    • 0.03 si plaques à rainures et lestage ouvert ou appliqué en usine,
    • 0.02 si toiture verte.
  • Résistance thermique corrigée de l’isolant (XPS)
    • RXPS/1.023 si lestage ouvert ou appliqué en usine,
    • RXPS/1.069 si toiture verte.

Le logiciel PEB permet d’appliquer automatiquement les valeurs par défaut sur base des informations fournies.

Source : AGW du 15 mai 2014, Annexe B1, Art 7.2.4

Influence des fixations mécaniques traversant l’isolant sur le coefficient de transmission thermique U

Date :

  • Mai 2011

Auteur :

  • Claude relecture Olivier

Notes :

  • 28-10-2011, Split de la page 16892 en 3 parties, sylvie.

Source :

Lorsque la couche isolante d’une paroi est traversée par des fixations mécaniques (exemples : crochets de maçonnerie, fixations de couverture, …), la présence de celles-ci influence les performances thermiques de la paroi. La chaleur peut en effet s’échapper plus facilement en passant par les fixations généralement métalliques dont la conductivité thermique est beaucoup plus élevée que celle de l’isolant (exemple : acier : 50 000 W/mK <-> XPS : 0.040 W/mK). Heureusement leur section et leur nombre sont généralement réduits.

      

Crochets de maçonnerie.

      

Fixations mécaniques toiture chaude.

Calcul précis

L’impact des fixations sur les performances thermiques de la paroi peut toujours être évalué de manière précise par des calculs numériques conformes à la norme NBN EN ISO 10211.
Cette méthode précise de calcul doit toujours être utilisée si les deux extrémités des fixations mécaniques sont en contact thermique avec des plaques en métal (exemple : paroi à ossature métallique avec finitions métalliques sur les deux faces).

Méthode simplifiée

L’impact de la fixation mécanique sur le coefficient de transmission thermique U de la paroi peut être pris en compte par un terme correctif ΔUf.

Uc (U corrigé de la paroi) = U + ΔUf.

ΔUf est déterminé à partir des caractéristiques suivantes :

  • la longueur de la partie de la fixation qui se trouve dans l’isolant ;
  • l’épaisseur de l’isolant ;
  • le nombre de fixations par m² ;
  • la section de la fixation ;
  • la conductivité thermique de l’isolant ;
  • la résistance thermique de la couche d’isolant traversée ;
  • la résistance thermique totale de la paroi sans les corrections.

L’introduction de ces informations dans le logiciel PEB, fourni gratuitement par la Région wallonne et la Région de Bruxelles-Capitale, permet le calcul automatique du terme correctif qui est alors appliqué directement au coefficient de transmission thermique U de la paroi.
La formule du terme correctif ΔUf est indiquée à l’Art 7.2.3 de l’Annexe B1 de l’AGW du 15 mai 2014 (formule 12).

Cas particulier des crochets de murs

1. Le terme correctif ΔUf  ne doit pas être appliqué,

  • lorsque les crochets se trouvent dans des vides non isolés ;
  • lorsque les crochets ont une conductivité thermique λ inférieure à 1 W/mK (exemple : matière synthétique).

2. Il est toujours permis d’utiliser les valeurs par défaut suivantes

  • nombre de crochets par m² : 5 ;
  • section du crochet : 13 mm² (Ø 4 mm) ;
  • λ du crochet : 50 W/mK (acier) ;
  • longueur du crochet = épaisseur de l’isolant.

Le logiciel PEB permet d’appliquer automatiquement les valeurs par défaut.

Source: AGW du 15 mai 2014, Annexe B1, Art 7.2.3

Coefficient de transfert thermique par transmission vers l’environnement extérieur via un espace adjacent non chauffé (EANC)

Coefficient de transfert thermique par transmission vers l’environnement extérieur via un espace adjacent non chauffé (EANC)

N.B.: Il s’agit ici d’un local situé au-dessus du sol et non d’une cave entièrement ou partiellement enterrée.

Le transfert de chaleur entre le bâtiment chauffé et l’extérieur au travers d’un espace adjacent non chauffé s’effectue aussi bien par transmission que par ventilation. Avant d’atteindre l’extérieur, la chaleur doit traverser les parois situées entre le volume protégé et l’EANC, l’EANC lui-même et encore les parois qui séparent l’EANC de l’environnement extérieur.

Schéma principe transfert de chaleur.

On tiendra donc compte pour le calcul de ces déperditions via une zone tampon non chauffée d’un coefficient de réduction de température b. Celui-ci intervient notamment dans la vérification des performances de la paroi par rapport aux exigences réglementaires :

Umax≥ b*Ueq

Umax ≥ b*1/RT

Avec :

  • b : coefficient de réduction de température
  • RT : la résistance thermique totale de la paroi considérée.

Calcul Précis

Le coefficient de réduction de température b peut être calculé avec précision en effectuant un équilibre thermique entre d’une part les déperditions entre l’espace chauffé et l’EANC et d’autre part entre l’EANC et l’environnement extérieur.

Dans le cadre de la réglementation PEB, le calcul détaillé se fait à l’aide de formules indiquées dans l’AGW du 15 mai 2014, Annexe B1, Art 14.

Les données nécessaires pour le calcul sont :

  • la résistance thermique et la surface de toutes les parois qui séparent l’espace chauffé de l’EANC
  • la résistance thermique et la surface de toutes les parois qui séparent l’EANC de l’environnement extérieur
  • le volume de l’EANC
  • un taux conventionnel de ventilation de l’EANC défini à partir de ses caractéristiques: nue. Ce taux conventionnel est déterminé à partir du tableau 6 de l’Art 14 de l’Annexe B1 de l’AGW du 15 mai 2014.

Le débit d’air de ventilation entre l’espace chauffé et l’EANC est conventionnellement fixé à 0 dans le cadre de la réglementation PEB.

L’introduction de ces informations dans le logiciel PEB, permet le calcul automatique du coefficient de transmission thermique de chaque paroi multiplié par son facteur de réduction thermique (b.Ui).

Calcul simplifié

Il est toujours possible de ne pas prendre en compte la présence des EANC. Dans ce cas le facteur de réduction thermique est égal à 1, ce qui est fortement pénalisant puisque cela revient à considérer que la paroi est en contact direct avec l’extérieur.

Source : AGW du 15 mai 2014, Annexe B1, Art 14

Coefficient de transmission thermique moyen d’un plancher sur vide sanitaire

Coefficient de transmission thermique moyen d’un plancher sur vide sanitaire

Un plancher au-dessus d’un vide sanitaire n’a pas de contact direct avec le sol, mais un flux de déperdition de chaleur s’échappe via ce vide sanitaire et via le sol vers l’environnement extérieur. Un transfert supplémentaire intervient si le vide sanitaire est ventilé avec de l’air extérieur.

Le sol participe donc à la résistance thermique du plancher (La chaleur, pour sortir du bâtiment et atteindre l’air extérieur, doit traverser le plancher, le vide sanitaire, les murs périphériques de celui-ci mais aussi le sol avec lequel il est en contact). On tiendra donc compte pour le calcul du transfert thermique à travers cette paroi d’un coefficient de réduction de température b. Celui-ci intervient notamment dans la vérification des performances de la paroi par rapport aux exigences réglementaires :

Umax≥ b * Ueq

Umax ≥ b*1/RT

Avec :

  • b : coefficient de réduction de température
  • RT : la résistance thermique totale de la paroi considérée.

Calcul Précis

Un calcul numérique précis de la transmission thermique peut se faire suivant des méthodes numériques conformes aux normes.

Procédure de calcul suivant la réglementation PEB

Le calcul détaillé se fait à l’aide de formules indiquées dans l’AGW, Annexe B1, Art F.2.3.
Les données nécessaires pour le calcul sont :

  • l’épaisseur du mur périphérique à la hauteur du niveau du sol;
  • la résistance thermique totale du mur périphérique ;
  • la profondeur moyenne du vide sanitaire  sous le niveau du sol ;
  • le périmètre exposé du plancher SUR vide sanitaire ;
  • la surface du plancher SUR vide sanitaire ;
  • la résistance thermique totale du plancher SUR vide sanitaire ;
  • la hauteur moyenne du plancher SUR vide sanitaire au-dessus du sol extérieur ;
  • la résistance thermique de (l’éventuel) plancher SOUS le vide sanitaire ;
  • la surface des ouvertures de ventilation.

La conductivité thermique λ du sol, la vitesse du vent et le facteur de protection du vent sont définis par défaut dans le cadre de la réglementation PEB.

Calcul simplifié

La réglementation permet de déterminer le coefficient de transmission thermique équivalent Ueq multiplié par le facteur de réduction de température b, à l’aide d’une méthode simplifiée.

Elle donne une valeur de transmission thermique relativement pénalisante.

L’information nécessaire est la suivante :

  • le niveau de ventilation du vide sanitaire (peu ou pas ventilé ou bien très ventilé).

N.B.: L’introduction de cette information dans le logiciel PEB, fourni gratuitement par la Région wallonne et la Région de Bruxelles-Capitale, permet le calcul automatique du coefficient de transmission thermique équivalent multiplié par son facteur de réduction (b.Ueq).

Source: AGW du 15 mai 2014, Annexe B1, Art F.2.3 et Art 15.2.2

Coefficient de transmission thermique moyen d’un plancher sur cave

Coefficient de transmission thermique moyen d’un plancher sur cave

Les caves sont des espaces qui se trouvent en partie ou totalement en dessous du niveau du sol extérieur.

Le sol participe à la résistance thermique du plancher (La chaleur, pour sortir du bâtiment et atteindre l’air extérieur, doit traverser le plancher, la cave, les murs périphériques et le plancher de celle-ci mais aussi le sol avec lequel ces parois sont en contact).

On tiendra donc compte pour le calcul du transfert thermique à travers le plancher sur cave d’un coefficient de réduction de température b. Celui-ci intervient notamment dans la vérification des performances de la paroi par rapport aux exigences réglementaires :

Umax≥ b * Ueq

Umax ≥ b * 1/RT

Avec :

  • b : coefficient de réduction de température
  • RT : la résistance thermique totale de la paroi considérée.

Calcul Précis

Un calcul numérique précis de la transmission thermique peut se faire suivant des méthodes numériques conformes aux normes.

Procédure de calcul suivant la réglementation PEB

Le calcul détaillé se fait à l’aide de formules indiquées dans l’AGW, Annexe B1, Art F.2.4.
Les données nécessaires pour le calcul sont :

  • l’épaisseur du mur périphérique à la hauteur du niveau du sol;
  • la résistance thermique totale du mur périphérique ;
  • la profondeur moyenne de la cave sous le niveau du sol ;
  • le périmètre exposé du plancher SUR la cave ;
  • la surface du plancher SUR la cave ;
  • la résistance thermique totale du plancher SUR la cave ;
  • le périmètre exposé du plancher SOUS la cave ;
  • la surface du plancher SOUS la cave ;
  • la résistance thermique totale du plancher SOUS la cave ;
  • la hauteur moyenne du plancher SUR vide sanitaire au-dessus du sol extérieur ;
  • la résistance thermique de (l’éventuel) plancher SOUS le vide sanitaire ;
  • le volume de la cave.

La conductivité thermique λ du sol  et le taux de ventilation de la cave sont définis par défaut dans le cadre de la réglementation PEB.

Calcul simplifié

La réglementation permet de déterminer le coefficient de transmission thermique équivalent Ueq multiplié par le facteur de réduction de température b, à l’aide d’une méthode simplifiée.

Elle donne une valeur de transmission thermique relativement pénalisante.

Condition à remplir : au moins 70 % des parois de la cave doivent être en contact avec le sol.

L’information nécessaire est la suivante :

  • Y a-t-il ou pas des fenêtres ou des portes qui communiquent avec l’extérieur ?

N.B.: L’introduction de cette information dans le logiciel PEB, fourni gratuitement par la Région wallonne et la Région de Bruxelles-Capitale, permet le calcul automatique du coefficient de transmission thermique équivalent multiplié par son facteur de réduction (b.Ueq).

Source: AGW du 15 mai 2014, Annexe B1, Art F.2.4 et Art 15.2.2

Coefficient de transmission thermique moyen d’une dalle sur sol

Coefficient de transmission thermique moyen d’une dalle sur sol

Lorsqu’un local appartenant au volume protégé est limité par un plancher en contact avec le sol, la terre participe à la résistance thermique du plancher. La chaleur, pour sortir du bâtiment et atteindre l’air extérieur, doit traverser le plancher ainsi que le sol avec lequel il est en contact. Les isothermes (= lignes d’égale température) ne sont donc pas perpendiculaires au plan du plancher (comme c’est le cas lorsque le plancher est en contact avec l’extérieur) mais forment des courbes complexes.

Transmission de la chaleur à travers une dalle sur sol.

La méthode de calcul doit donc être adaptée. En pratique, on prendra en compte pour le calcul du transfert thermique un coefficient de réduction de température α. Celui-ci intervient notamment dans la vérification des performances de la paroi par rapport aux exigences réglementaires :

Umax≥ a * Ueq

Umax ≥ a * 1/RT

Avec :

  • a : coefficient de réduction de température
  • RT : la résistance thermique totale de la paroi considérée.

Calcul Précis

Un calcul numérique précis de la transmission thermique peut se faire suivant des méthodes numériques conformes aux normes.

Procédure de calcul suivant la réglementation PEB

Cette procédure est applicable lorsque le plancher est directement en contact avec le sol sur toute sa surface.

Le plancher peut être non-isolé, uniformément isolé ou isolé en partie (par exemple, isolation périphérique horizontale ou verticale.

Isolation périphérique horizontale.

Isolation périphérique verticale.

Le calcul détaillé se fait à l’aide de formules indiquées dans l’AGW, Annexe B1, Art F.2.2 (plancher directement en contact avec le sol) et Art F.2.4 (Parois d’une cave).

Les données nécessaires pour le calcul sont :

  • l’épaisseur du mur extérieur ;
  • le périmètre exposé du plancher ;
  • la surface du plancher ;
  • la résistance thermique totale du plancher ;

dans le cas d’une isolation périphérique sont également nécessaires :

  • la largeur de l’isolant (sa profondeur si elle est verticale) ;
  • l’épaisseur de l’isolant ;
  • la conductivité thermique de l’isolant ou sa résistance thermique ;

dans le cas d’un plancher situé plus bas que le niveau du sol extérieur :

  • la profondeur moyenne dans le sol ;
  • la résistance thermique totale du mur contre terre.

Les caractéristique du sol (conductivité thermique λ et facteur de nappe phréatique Gw) sont définies par défaut dans le cadre de la réglementation PEB.

Calcul simplifié

La réglementation permet de déterminer le coefficient de transmission thermique équivalent Ueq multiplié par le facteur de réduction de température α, à l’aide d’une méthode simplifiée: a=1/(Ueq + 1).

Elle donne une valeur de transmission thermique relativement pénalisante pour les grands bâtiments.

L’information nécessaire est la suivante :

  • la résistance thermique totale du plancher de l’environnement intérieur jusqu’à l’interface plancher-sol.

N.B.: L’introduction de cette information dans le logiciel PEB, fourni gratuitement par la Région wallonne et la Région de Bruxelles-Capitale, permet le calcul automatique du coefficient de transmission thermique équivalent multiplié par son facteur de réduction (a.Ueq ).

Source: AGW du 15 mai 2014, Annexe B1, Art F.2.2 et Art F.2.4 et Art 15.2.1

Coefficient de transmission thermique moyen d’un mur contre terre

Coefficient de transmission thermique moyen d’un mur contre terre

Lorsqu’un local appartenant au volume protégé est limité par un mur en contact avec le sol, l’environnement extérieur n’est plus l’air mais bien la terre. Celle-ci participe à la résistance thermique du mur. (La chaleur, pour sortir du bâtiment et atteindre l’air extérieur, doit traverser le mur mais aussi le sol qui l’entoure.)  On tiendra donc compte pour le calcul du transfert thermique à travers cette paroi d’un coefficient de réduction de température α. Celui-ci intervient notamment dans la vérification des performances de la paroi par rapport aux exigences réglementaires :

Umax≥ a * Ueq

Umax ≥ a * 1/RT

Avec :

  • a : coefficient de réduction de température
  • RT : la résistance thermique totale de la paroi considérée.

Lorsqu’on considère un mur extérieur avec une structure homogène et une valeur U bien déterminée, les isothermes (= lignes d’égale température) seront toujours parallèles au plan de la façade et les lignes de flux de chaleur perpendiculaires à celui-ci.

Par contre, lorsque la chaleur doit traverser le sol qui entoure le bâtiment, les lignes de flux de chaleur forment des courbes et la méthode de calcul des valeurs U doit être adaptée.

Calcul Précis

Un calcul numérique précis de la transmission thermique peut se faire suivant des méthodes numériques conformes aux normes.

Procédure de calcul suivant la réglementation PEB

Le calcul détaillé se fait à l’aide de formules indiquées dans l’AGW, Annexe B1, Art F.2.4
Les données nécessaires pour le calcul sont :

  • l’épaisseur du mur extérieur à hauteur du sol ;
  • la résistance thermique totale du mur extérieur ;
  • la profondeur moyenne dans le sol ;
  • le périmètre exposé du plancher de la cave ;
  • la surface du plancher ;
  • la résistance thermique totale du plancher ;

Les caractéristiques du sol (conductivité thermique λ et facteur de nappe phréatique Gw) sont définies par défaut dans le cadre de la réglementation PEB.
L’introduction de ces informations dans le logiciel PEB permet le calcul automatique du coefficient de transmission thermique équivalent multiplié par son facteur de réduction (a.Ueq).

Calcul simplifié

Dans beaucoup de cas, il n’est pas nécessaire de faire appel à des calculs numériques et une méthode simplifiée peut être appliquée. Elle donne via l’application de certaines formules une valeur du coefficient de transmission thermique équivalent multiplié par son facteur de réduction (a.Ueq).

Le calcul se fait automatiquement en utilisant le logiciel PEB.

Les informations nécessaires sont les suivantes :

  • La hauteur moyenne de la partie du mur enterrée(z) ;
  • La résistance thermique du mur de l’environnement intérieur jusqu’à l’interface mur-sol (Rw).

Source: AGW du 15 mai 2014, Annexe B1, Art F.2.4 et Art 15.2.3

Propagation de la chaleur à travers une paroi

Propagation de la chaleur à travers une paroi


Une paroi séparant deux ambiances de températures différentes, constitue un obstacle plus ou moins efficace, au flux de chaleur qui va s’établir de la chaude vers la froide.

La chaleur va devoir :

  • pénétrer dans la paroi,
  • traverser les différentes couches de matériaux constituant la paroi,
  • traverser des couches d’air éventuelles,
  • et sortir de la paroi.

Outre la résistance thermique des différentes couches de matériaux (R),  les coefficients thermiques utilisés sont les suivants :

 

Coefficient de transmission thermique des nœuds constructifs

Coefficient de transmission thermique des nœuds constructifs


Le coefficient de transmission thermique des nœuds constructifs

Les performances thermiques de nœuds constructifs sont caractérisées par le coefficient de transmission thermique linéaire Ψ (exprimé en W/mK) ou le coefficient de transmission thermique ponctuel χ (exprimé en W/K). Ces coefficients de transmission thermique indiquent quel supplément doit être ajouté au transport de chaleur qui a été calculé à partir des valeurs U.

Ψ et χ sont déduits des flux thermiques par transmission à l’endroit des nœuds déterminés exactement par des calculs numériques validés et comparés avec les flux thermiques calculés de manière unidimensionnelle.

On peut également utiliser des valeurs par défaut. Dans ce cas, il faut garder en mémoire que les valeurs par défaut sont particulièrement défavorables. L’utilisation systématique de valeurs par défaut sur l’ensemble d’un bâtiment conduira, dans la plupart des cas, à une pénalisation particulièrement élevée.


Prise en compte des nœuds constructifs dans le calcul de la performance énergétique des bâtiments suivant la réglementation PEB

Il s’agit du flux thermique qui se produira à travers tous les nœuds constructifs d’un volume protégé lorsqu’on applique une différence de température de 1 Kelvin entre le volume protégé et l’environnement extérieur.

La réglementation PEB prévoit trois options possibles pour déterminer ce flux thermique et son impact sur le niveau K.

Option A : Méthode détaillée

Avec cette option, le flux thermique est déterminé le plus exactement possible par un calcul numérique de l’influence des nœuds constructifs à l’aide d’un logiciel validé. On peut choisir de calculer le bâtiment dans son ensemble ou de calculer séparément chacun des nœuds constructifs. Ce genre de calcul nécessite beaucoup d’effort et sera principalement utilisé pour valoriser des nœuds constructifs très performants.

Option B : Méthode des nœuds correctement réalisés du point de vue thermique dits « nœuds PEB conformes »

Cette option a pour objectif de permettre la prise en compte des nœuds constructifs d’une manière pragmatique et simple. Des recherches sur les logements existants ont montré que l’influence de nœuds constructifs bien étudiés s’élevait à environ 3 points K sur le niveau K total d’un logement. Si on peut montrer que les nœuds constructifs sont effectivement bien étudiés (à savoir : PEB-conformes), alors un supplément forfaitaire équivalent à 3 points K est prévu pour ces nœuds constructifs. Les nœuds constructifs qui ne satisfont pas les critères sont comptabilisés séparément.

Un nœud est considéré comme PEB-conforme (dans l’option B), s’il répond au moins à une des conditions suivantes :

a) il respecte au moins une des règles de base :

b) son coefficient linéique de transmission thermique est plus petit qu’une valeur limite, définie en fonction du type de nœud (0,15 W/mK pour un angle rentrant, 0,1 W/mK pour les raccords autour des portes et fenêtre, p. ex.).

 

Fig.1 Épaisseur de contact minimale.

 

Fig.2 Interposition d’un isolant.

Fig.3 Schéma de principe du chemin de moindre résistance thermique.

Source : CSTC-Contact n° 27 (3-2010).

L’avantage de cette méthode est d’éviter des calculs conséquents et d’encourager les maîtres d’œuvre à concevoir des nœuds constructifs thermiquement performants. Vu que l’option B prévoit une possibilité de démontrer d’une manière simple et particulièrement visuelle qu’un nœud constructif est bien étudié, cette option a pour avantage que le calcul total pour la prise en compte des nœuds constructifs est réduit à un minimum. Il n’est pas nécessaire ici de déterminer les valeurs Ψ  et χ, ni les longueurs des nœuds constructifs linéaires ou le nombre des nœuds constructifs ponctuels.

Option C : Pénalité forfaitaire (à éviter absolument)

Lorsque le maître d’œuvre ne fait pas d’effort pour limiter la déperdition thermique au droit des nœuds constructifs, l’influence inconnue des nœuds constructifs sur la déperdition thermique totale est fixée par un supplément forfaitaire équivalent à 10 points sur le niveau K est, dans ce cas, appliqué. Cette option doit être évitée, car elle aboutit à des bâtiments de mauvaise qualité et d’ailleurs oblige à porter plus d’effort d’isolation sur les parois pour atteindre les valeurs K exigées par la réglementation.

Attention !

Des nœuds constructifs mal étudiés ou mal réalisés thermiquement provoqueront des ponts thermiques. Le maître d’œuvre reste responsable de réduire au minimum absolu les risques de désordres dus à ces ponts thermiques (condensation, moisissures).

Résistance thermique d’échange superficiel

Résistance thermique d'échange superficiel

L’Arrêté du Gouvernement Wallon du 17 avril 2008, dans son Annexe VII, Article 5.3 spécifie les valeurs à prendre en compte comme résistance thermique d’échange superficiel selon l’environnement et la direction du flux :

Direction du flux de chaleur
ascendant horizontal (1) descendant
Rsi [m²K/W] 0,10 0,13 0,17
Rse [m²K/W] 0,04 0,04 0,04

(1) valable pour une direction du flux de chaleur qui ne dévie pas de plus de 30° du plan horizontal.

Tableau 1 – Résistances thermiques d’échange Rsi et Rse (en m²K/W).

Pour en savoir plus sur la résistance thermique d’échange superficiel.

Coefficient de transmission thermique d’une fenêtre (Uw) ou d’une porte

Coefficient de transmission thermique d'une fenêtre (Uw) ou d'une porte


Le coefficient de transmission thermique d’une fenêtre ou d’une porte simple

N.B.: la méthode présentée ci-dessous n’est valable que pour les fenêtres ou portes considérées comme simples, cas le plus courant dans nos régions.

Elle ne s’applique pas à une double fenêtre ou à une fenêtre à vantaux dédoublés.

Fenêtre simple.

Double fenêtre.

Fenêtre à vantaux dédoublés.

Détermination par essais

Le coefficient de transmission thermique d’une porte ou d’une fenêtre peut être déterminé avant pose par des essais  réalisés conformément à la norme NBN EN ISO 12567-1 (ou -2 pour une fenêtre de toit). Ils peuvent aussi être réalisés sur exactement la même fenêtre ou porte avec  les mêmes dimensions et les mêmes composants.

Détermination par calcul

Une fenêtre ou une porte est constituée de différentes parties qui ont chacune une surface et un coefficient de transmission thermique U déterminés.

 

  1. l’encadrement (châssis) de la fenêtre ou de la porte (dans tous les cas) ;
  2. le ou les vitrages (le cas échéant) ;
  3. le ou les panneaux opaques (le cas échéant) ;
  4. la ou les grilles de ventilation (le cas échéant).

Le contour des vitrages isolants et des panneaux est affecté d’une déperdition thermique supplémentaire résultant des effets combinés des encadrements, intercalaires, vitrages et panneaux (pont thermique linéaire).

L’ensemble de ces éléments permet de déterminer par calcul le coefficient de transmission thermique de la fenêtre Uw. Il s’agit de la valeur moyenne des coefficients de transmission thermique des  différentes parties au pro rata de leurs surfaces, augmentées des déperditions linéiques aux rives des vitrages et panneaux.

avec :

  • Ug = le coefficient de transmission thermique du vitrage
  • Ag = l’aire du vitrage
  • Uf = le coefficient de transmission thermique de l’encadrement
  • Af = l’aire de l’encadrement
  • Up = le coefficient de transmission thermique du panneau
  • Ap = l’aire du panneau
  • Ur = le coefficient de transmission thermique de la grille de ventilation
  • Ar = l’aire de la grille de ventilation
  • ψg = le coefficient de transmission thermique linéique de l’intercalaire autour du vitrage
  • lg = le périmètre visible du vitrage
  • ψp = le coefficient de transmission thermique linéique autour du panneau
  • lp = le périmètre visible du panneau

Le calcul doit être effectué pour chaque fenêtre et porte.

Calcul simplifié

Pour un ensemble de fenêtres ayant un même type de vitrage, d’encadrement, de panneau de remplissage opaque et  de grille de ventilation, et étant placées dans le même bâtiment, on peut adopter une seule valeur moyenne UW pour l’ensemble des fenêtres. Celle-ci tient compte d’une proportion fixe entre l’aire du vitrage et l’aire de l’encadrement ainsi que d’un périmètre du vitrage ou des intercalaires. On évite ainsi de devoir faire ce calcul pour chaque fenêtre.

La réglementation PEB fournit ainsi une formule simplifiée permettant d’évaluer l’efficacité énergétique d’une fenêtre en tenant compte de l’efficacité du châssis et du vitrage tout en supposant une bonne étanchéité à l’air.

Partie vitrage et encadrement Partie grille de ventilation
Ug ≤ Uf Uw = 0,7Ug + 0,3Uf + 3ψg + ∑Ar (Ur – Ug)/∑AW,d [W/m²K]
Ug > Uf Uw = 0,8Ug + 0,2Uf + 3ψg + ∑Ar (Ur – Uf)/∑AW,d [W/m²K]

avec :

  • Uvc = coefficient de transmission thermique U du vitrage.
  • Uch = coefficient de transmission thermique U du châssis.
  • ψg= coefficient de transmission thermique linéique de l’intercalaire.
  • Ur = coefficient de transmission thermique de la grille de ventilation
  • ∑Ar = aire totale des grilles de ventilation présentes
  • ∑AW,d = aire totale des fenêtres (déterminée sur la base des aires des baies des fenêtres)

La proportion varie suivant que le vitrage est thermiquement plus performant que l’encadrement, ou l’inverse. Généralement c’est le vitrage qui est le plus performant. Dans ce cas la formule de calcul devient, s’il n’y a ni grille ni panneau :

UW,T= 0,7 Ug+0,3 Uf+3 ψg

Ce qui revient à considérer : 70 % de vitrage, 30 % d’encadrement et 3 m d’intercalaire par m² de fenêtre.

Si la fenêtre comprend des grilles de ventilation et des panneaux opaques la formule se complique. Elle tient compte de l’influence de ces éléments sur le résultat final (pour les calculs, se référer aux formules 20 et 21 de l’Art 8.5 de l’Annexe 7).

Source : AGW du 15 mai 2014, Annexe B1, Art 8.5


L’influence du volet (Uws)

En été, la présence d’un volet à l’extérieur améliore les moyens dont dispose le bâtiment pour résister à la surchauffe.

En hiver, un volet placé à l’extérieur d’une fenêtre apporte une résistance thermique supplémentaire lorsqu’il est fermé. Bien sûr, il n’est pas fermé en permanence et le taux de fermeture variera d’une fenêtre à l’autre. La législation PEB en Belgique suppose qu’il sera fermé 8 heures par jour.

La résistance thermique de l’ensemble fenêtre-volet  s’exprime de la manière suivante :

Rws = Rw + ΔR

ΔR dépendra de deux caractéristiques :

  1. La résistance thermique totale du volet lui-même, Rsh ;
  2. La fente totale effective entre les bords du volet et les bords de l’ouverture du jour de la fenêtre bsh = b1 + b2 + b3 . b1, b2 et b3 sont respectivement la moyenne des ouvertures des fentes en bas, en haut et sur les côtés du volet.

Attention, la fente sur le côté du volet (b3) n’est comptée qu’une fois parce que les fentes situées dans le haut et dans le bas ont une plus grande influence.

Rsh est calculé de la même manière que les autres éléments de construction.

Cas particuliers :

  • Le calcul se fait suivant la norme NBN EN ISO 10211 dans le cas d’un volet à composition hétérogène ;
  • Le calcul se fait suivant la norme NBN EN ISO 10077-2 dans le cas d’un élément profilé ;
  • Rsh = 0 dans le cas d’un volet inconnu.

Lorsque Rsh et bsh sont déterminées, ΔR est calculé à partir des formules reprises dans le tableau 3 extrait de l’Art. 8.4.5 de l’Annexe B1 de l’AGW du 15 mai 2014.

Classe Perméabilité à l’air du volet en position fermée bsh [mm] ΔR [m²K/W](1)
1 Perméabilité très élevée 35 < bsh 0,08
2 Perméabilité élevée
(le volet est lui-même étanche à l’air).
15 < bsh < 35 0,25 . Rsh + 0,09
3 Perméabilité moyenne
(le volet est lui-même étanche à l’air)
8 < bsh < 15 0,55 . Rsh + 0,11
4 Perméabilité faible
(le volet est lui-même étanche à l’air).
bsh < 8 0,80 . Rsh + 0,14
5 Perméabilité très faible
(le volet est lui-même étanche à l’air).
bsh < 3 et b1 + b3 = 0 ou(2) b2(3) + b3 = 0 0,95 . Rsh + 0,17

(1)Les valeurs ΔR sont valables pour Rsh < 0,3 m²K/W (Rsh est la résistance thermique du volet même, déterminée selon le chapitre 6 si celui-ci est d’application, selon la NBN EN ISO 10211 dans le cas d’un volet à composition hétérogène ou selon  la NBN ISO 10077-2 dans le cas d’un élément profilé).

(2)Ce cas suppose la présence de joints d’étanchéité autour d’au moins 3 côtés du volet et que du côté restant la fente soit inférieure ou égale à 3 mm.

(3)La classe 5 (perméabilité très faible) peut également être adoptée si une mesure du débit d’air au travers du volet fermé démontre que ce débit d’air n’est pas supérieur à 10 m³/h.m² (avec une différence de pression de 10 Pa – essai selon la NBN EN 12835. Des conditions supplémentaires pour la classe 5 sont disponibles dans la NBN EN 13125 par type de volet.

Tableau 3 : résistance thermique additionnelle de la couche d’air et du volet fermé.

ΔR étant ainsi connu, la résistance thermique de l’ensemble fenêtre volet Rws  peut être calculée.
Le coefficient de conductivité thermique Uws est finalement obtenu par la formule :

Uws = 1 / Rws

Le logiciel PEB permet de calculer automatiquement Uws à partir des informations introduites.

Les caisses à volets roulants

Attention, la pose de volets suppose dans certains cas la présence de caisses à volets. Lorsqu’elles sont encastrées dans la façade, il faudra être très attentif à maintenir la continuité de la couche isolante et l’étanchéité à l’air du bâtiment. Cela n’est pas toujours facile. Les détails techniques doivent être étudiés avec soin dès de le début de la conception de l’immeuble.

Source: AGW du 15 mai 2014, Annexe B1, Art 8.4.5

Coefficient de transmission thermique d’une paroi (U)

Date :

  • Mai 2011

Auteur :

  • Claude relecture Olivier

Notes :

  • 24-10-2011, Sylvie, ok!

Source :

 

Généralités

Le coefficient de transmission thermique d’une paroi est la quantité de chaleur traversant cette paroi en régime permanent, par unité de temps, par unité de surface et par unité de différence de température entre les ambiances situées de part et d’autre de la paroi.
Le coefficient de transmission thermique est l’inverse de la résistance thermique totale (RT) de la paroi.

U = 1 / RT

> U (ou k) s’exprime en W/m²K
Plus sa valeur est faible et plus la construction sera isolée.

 Pour calculer le coefficient U d’une paroi, rendez-vous sur la page « Calculs » – catégorie « Enveloppe » !

Résistance thermique d’échange superficiel d’une paroi (Rsi et Rse)

Résistance thermique d'échange superficiel d'une paroi (Rsi et Rse)


La transmission de la chaleur de l’air ambiant à une paroi et vice versa se fait à la fois par rayonnement et par convection.

…..

Le coefficient d’échange thermique superficiel entre une ambiance intérieure (hi) et une paroi est la somme des quantités de chaleur transmise entre une ambiance intérieure et la face intérieure d’une paroi, par convection et par rayonnement, par unité de temps, par unité de surface de la paroi, et pour un écart de 1 K entre la température de la résultante sèche de l’ambiance et la température de surface.

> hi s’exprime en W/m²K.

La résistance thermique d’échange d’une surface intérieure (Rsi) est égale à l’inverse du coefficient d’échange thermique de surface intérieure hi.

Rsi = 1/hi

> Rsi s’exprime en m²K/W.

Le coefficient d’échange thermique superficiel entre une paroi et une ambiance extérieure (he) est la somme des quantités de chaleur transmise entre la face extérieure d’une paroi et une ambiance extérieure, par convection et par rayonnement, par unité de temps, par unité de surface de la paroi, et pour un écart de 1 K entre la température de la résultante sèche de l’ambiance et la température de surface.

> he s’exprime en W/m²K.

La résistance thermique d’échange d’une surface extérieure (Rse) est égale à l’inverse du coefficient d’échange thermique de surface extérieure he.

Rse = 1/he

> Rse s’exprime en m²K/W.

Les différences de valeur entre Rsi et Rse ne proviennent pas de la différence de température entre l’intérieur et l’extérieur mais bien des mouvements d’air plus importants à l’extérieur qu’à l’intérieur, ce qui influence le transfert de chaleur par convection.

Les valeurs des résistances thermiques d’échange superficiel Ri et Re sont données dans un tableau extrait de la réglementation thermique.

Résistance thermique d’une couche d’air (Ra)

Résistance thermique d'une couche d'air (Ra)


Définition d’une couche d’air

Pour qu’un espace vide situé à l’intérieur d’une paroi soit considérée comme une couche d’air, dans le cadre de la réglementation, il faut que les conditions suivantes soient remplies (source : Annexe VII de l’AGW du 17 avril 2008, Art. 5.4.2.1):

  • la couche d’air doit être délimitée par deux plans parallèles qui sont perpendiculaires à la direction du flux thermique ;
  • les deux faces de ces plans sont non-réfléchissants (c’est le cas de la plupart des matériaux de construction traditionnels)1  ;
  • l’épaisseur de la couche d’air ne peut dépasser 30 cm ;
  • l’épaisseur de la couche d’air doit 10 fois plus petite que sa longueur et sa largeur ;
  •  il ne peut pas y avoir de passage d’air entre la couche d’air et l’environnement intérieur du bâtiment2.

1Si une des couche au moins est réfléchissante, il faut se référer aux annexes B.2 et B.3 de la NBN EN ISO 6946.
2Dans le cas contraire, la couche d’air et toutes les couches de matériaux situés du côté intérieur par rapport à celle-ci, ne sont pas pris en considération.

Ra, la résistance thermique d’une couche d’air plane est l’inverse de la quantité de chaleur qui est transmise en régime permanent de la face chaude de la couche d’air vers la face froide, par conduction, convection et rayonnement, par unité de temps, par unité de surface et pour un écart de 1 K entre les températures des faces chaudes et froides.

> Ra s’exprime en m²K/W.


Définition d’une couche d’air non-ventilée

Une couche d’air sera considérée comme « non-ventilée » lorsque la surface des ouvertures entre cette couche d’air et l’environnement extérieur ne dépasse pas 5 cm²

  • par m de longueur dans le cas d’une paroi verticale ou
  • par m² de surface dans le cas d’une paroi horizontale3.

3Une paroi inclinée sera considérée comme verticale dès que sa pente dépasse 30°. Dans le cas contraire, elle sera considérée comme horizontale.

NB : Une paroi inclinée sera considérée comme verticale dès que sa pente dépasse 30°. Dans le cas contraire, elle sera considérée comme horizontale.

Les résistances thermiques des couches d’air non ventilées Ra sont données dans un tableau extrait de la réglementation thermique en fonction de l’épaisseur de la lame d’air et de la direction du flux.


Définition d’une couche d’air peu ventilée

Une couche d’air sera considérée comme « peu ventilée » lorsque la surface des ouvertures entre cette couche d’air et l’environnement extérieur est comprise entre 5 cm² et 15 cm²

  • par m de longueur dans le cas d’une paroi verticale ou
  • par m² de surface dans le cas d’une paroi horizontale (pente<30°).

Dans ce cas, on peut considérer pour cette couche une résistance thermiques Ra correspondant à la moitité de celle donnée pour une  couche d’air non-ventilée d’épaisseur équivalente. De plus, la résistance thermique globale prise en compte pour les couches de construction entre la couche d’air et l’environnement extérieur sera limitée à maximum 0,15 m²K/W.


Définition d’une couche d’air fortement ventilée

Une couche d’air sera considérée comme « fortement ventilée » lorsque la surface des ouvertures entre cette couche d’air et l’environnement extérieur dépasse plus de 15 cm²

  • par m de longueur dans le cas d’une paroi verticale ou
  • par m² de surface dans le cas d’une paroi horizontale (pente<30°).

Dans ce cas, on considère pour cette couche une résistance thermique Ra nulle et la valeur Rsi sera utilisée comme valeur caractéristique de la résistance thermique d’échange superficiel extérieur (Rse=Rsi).

Résistance thermique d’une couche de matériau (R)


La perméance thermique d’une couche de matériau

La perméance thermique (P) indique la quantité de chaleur qui se propage :

  • en 1 seconde,
  • à travers 1 m² d’une couche de matériau,
  • d’une épaisseur déterminée,
  • lorsque la différence de température entre les deux faces est de 1 K (1 K = 1 °C).

> La perméance thermique s’exprime en W/m²K.

Plus la perméance thermique est élevée, plus la couche laisse passer la chaleur.
Ce coefficient est valable aussi bien pour les matériaux homogènes que pour les matériaux non-homogènes.

  • Matériau homogène : P = λ / d  où d = épaisseur de la paroi.
  • Matériau non-homogènes : P est déduite d’essais effectués en laboratoire.

La résistance thermique d’une couche de matériau

La notion de perméance thermique est peu utilisée. Elle permet d’introduire et de mieux comprendre la résistance thermique (R) qui est l’inverse de la perméance thermique.

R = 1 / P

> Elle s’exprime en m²K/W.

C’est la mesure de performance isolante de la couche de matériau. Plus la résistance thermique est élevée, plus la couche est isolante.
Ce coefficient est valable aussi bien pour les matériaux homogènes que pour les matériaux non homogènes.

Matériau homogène

La résistance thermique est obtenue par le rapport entre l’épaisseur (en m) et la conductivité thermique de la couche du matériau (en W/m.K) :

R = d / λ

Matériau non-homogène

La résistance thermique utile Ru est déduite d’essais effectués en laboratoire.

La valeur déclarée

La valeur déclarée RD d’une couche de matériau de construction est généralement fournie par son fabricant. Cette valeur est certifiée sur base d’un agrément technique (ATG, CE, ETA, ETZ, …). Elle est obtenue dans des conditions de référence données de température et d’humidité (d’après les principes donnés dans la EN ISO 10456).

Les valeurs de calcul

À partir de cette valeur RD, il est possible de déduire les valeurs de calcul de la conductivité thermique RU,i et RU,e qui correspondent aux conditions d’utilisation du matériau (interne ou externe).

Il existe un site officiel (ouverture d'une nouvelle fenêtre ! www.epbd.be) qui indique, pour les trois régions belges, les valeurs RU,i et RU,e de certains matériaux qui peuvent être utilisées pour le calcul des performances thermiques des parois suivant la réglementation PEB.

Les valeurs de calcul par défaut

Des valeurs de calcul RU,i par défaut peuvent toujours être utilisées lorsque le matériau ne possède pas de valeur RD certifiée ou n’est connu que par sa nature. Ces valeurs sont reprises dans un tableau de la réglementation.


La résistance thermique d’une couche de matériau homogène d’épaisseur variable

Dans les parois de l’enveloppe du volume protégé, certaines couches peuvent avoir des épaisseurs variables.

Exemples :

Un béton de pente
(peu d’influence sur la résistance thermique totale).

Une couche d’isolant à épaisseur variable
(grande influence sur la résistance thermique totale).

Méthode simplifiée

La résistance thermique de cette couche peut être déterminée de manière sécuritaire en considérant que son épaisseur est partout égale à son épaisseur la plus faible dmin  ->  R = dmin/λ.

Épaisseur dmin

Méthode précise

Si la différence de pente entre les deux faces de la couche est inférieure à 5 %, une méthode de calcul existe pour quantifier avec plus de précision les performances thermiques de la paroi. Celle-ci est décrite dans l’Annexe B1 de l’AGW du 15 mai 2014 à l’Art. 7.4.

Elle consiste à décomposer la paroi en éléments partiels de formes déterminées et à calculer à l’aide de formules directement la valeur U de chacun de ces éléments.

Décomposition de la paroi en éléments partiels.

Les formes de base  :

Rectangulaire

U = 1/R. ln [1 + R1/R0]

Triangulaire avec partie la plus épaisse à la pointe

U = 2/R. [(1 + R0/R1) . ln (1+R1/R0) – 1]

Triangulaire avec partie la plus mince à la pointe

U = 2/R. [1 – R0/R1 . ln (1+R1/R0)]

Avec :

  • R1: Résistance thermique maximale de la couche inclinée
  • R0: Résistance thermique globale de l’élément d’environnement à environnement sans R1.

Un outils de calcul développé par l’IBGE existe et est disponible ici. XLS

Si par contre, la différence de pente entre les deux faces de la couche est supérieure à 5%, cette méthode ne s’applique pas et un calcul numérique doit être réalisé.


La résistance thermique d’une couche de mousse de polyuréthane (PUR) projetée in situ

Il est difficile d’évaluer l’épaisseur exacte d’une couche de mousse de polyuréthane projetée in situ.

PUR projeté.

C’est la raison pour laquelle la résistance thermique R de cette couche est multipliée par un terme correctif a qui varie en fonction du type d’application.

R PUR projeté = a x R PUR en plaque

  • a vaut 0.85 pour les applications en toiture.
  • a vaut 0.925 pour les applications sur sol.

Source: AGW du 15 mai 2014, Annexe B1, Art 7. 3

PUR projeté en toiture.

PUR projeté sur sol.


La résistance thermique d’une couche de maçonnerie

Une maçonnerie est constitué de briques ou de blocs assemblés et solidarisés entre eux par du mortier. La résistance thermique d’une couche de maçonnerie devra donc prendre en compte l’épaisseur de ce joint de mortier.

Si cette épaisseur est inférieure à 3 mm, on peut considérer que les briques ou blocs sont collés.  Dans ce cas, le coefficient de conductivité thermique utile λU de la maçonnerie est égal à celui des briques ou blocs. La résistance thermique de la couche est donc égale à l’épaisseur de la maçonnerie divisée par le coefficient de conductivité thermique de la brique ou du bloc.

R = dU,maç / λU,brique/bloc

Blocs collés.

Si cette épaisseur est supérieure à 3 mm, il faudra tenir compte de la présence des joints pour déterminer le coefficient de conductivité thermique λU moyen de la maçonnerie.

λU,moyen = (λU,brique/bloc x Surface brique/bloc + λU,joint x Surface joint)  /  Surface totale

  • Surfacejoint = (l + h + d) x d
  • Surfacebrique/bloc = l x h
  • Surfacetotale = (l + d) x (h + d)

La résistance thermique de la couche est donc égale à l’épaisseur de la maçonnerie divisée par le coefficient de conductivité thermique moyen.

R = dmaç / λU,moyen

Valeurs par défaut

Lorsque la proportion de joints n’est pas connue,

  • si la conductivité thermique des joints est inférieure à des biques ou blocs, on peut considérer la maçonnerie comme collée (donc sans joints) ;
  • si la conductivité thermique des joints est supérieure à des biques ou blocs, on peut considérer :
    • la fraction joints égale à 16 % pour les maçonneries intérieures et
    • la fraction joints égale à 28 % pour les maçonneries extérieures.

Source: AGW du 15 mai 2014, Annexe B1, Art. G.3.1


La résistance thermique d’une couche non homogène d’un élément de construction avec structure bois

Les parois du volume protégé peuvent contenir des couches de matériaux non-homogènes dans lesquelles une structure bois est incorporée et dont le reste de l’espace est occupé par un matériau isolant.

Exemples :

  • chevrons d’une toiture inclinée ;
  • gîtage d’une toiture plate, d’un plafond ou d’un plancher en bois;
  • structure d’une façade légère à ossature bois ;
  •   …

Façades et plancher à ossature bois.

Toit incliné à chevrons.

Cette structure affaiblit le pouvoir isolant de la couche. Il faut donc en tenir compte pour en calculer la résistance thermique.

Celle-ci dépend de la fraction bois. Dans le cas d’une structure régulière, la fraction bois est égale à la largeur des éléments en bois divisée par la distance moyenne entre les éléments (d’axe en axe).

% bois = d / l moyen

Cette fraction est généralement augmentée de 1 % pour tenir compte des entretoises.

Calcul de la résistance thermique de la couche

La résistance thermique de la couche se calcule donc en utilisant un coefficient de conductivité thermique λU moyen.

λU,moyen = λU,bois x % bois + λU,isolant x (100 % – % bois)

La résistance thermique de la couche est donc égale à l’épaisseur de la couche divisée par le coefficient de conductivité thermique moyen.

R = d / λU,moyen

Valeurs par défaut

La réglementation propose l’utilisation de valeurs par défaut. Elles correspondent aux limites supérieures des valeurs les plus courantes en fonction du type de paroi. Celles-ci sont reprises dans le tableau suivant :

Structure en bois Fraction de bois
(valeur par défaut)
Toiture à pannes
(pannes-structure portante primaire)
0,11
Toiture à pannes
(chevrons-structure portante secondaire)
0,20
Toiture à fermes
(fermettes-structure portante secondaire)
0,12
Planchers en bois
(poutres-structure portante secondaire)
0,11
Parois à ossature en bois 0,15

Source: AGW du 15 mai 2014, Annexe B1, Art G.4

Ensoleillement

Ensoleillement


Le rayonnement solaire

En tant que source d’énergie, l’ensoleillement est un facteur climatique dont on a intérêt à tirer parti (de manière passive, via les ouvertures vitrées, et/ou de manière active pour produire de l’énergie) mais dont on doit aussi parfois se protéger pour éviter les surchauffes en été.

La maîtrise de l’énergie solaire nécessite donc de connaître la position correcte du soleil (hauteur et azimut) ainsi que l’intensité du rayonnement à tout moment.

Une énergie renouvelable, inépuisable à l’échelle humaine

Photo soleil.

Le soleil est un réacteur à fusion nucléaire qui fonctionne depuis 5 milliards d’années.
Par un processus de transformation d’hydrogène en hélium, il émet ainsi d’énormes quantités d’énergie dans l’espace (sa puissance est estimée à 63 500 kW/m²). Ces radiations s’échappent dans toutes les directions et voyagent à travers l’espace à la vitesse constante de 300 000 km à la seconde, dénommée vitesse de la lumière.
Après avoir parcouru une distance d’environ 150 millions de kilomètres, l’irradiation solaire arrive à l’extérieur de l’atmosphère de la Terre avec une puissance d’environ 1 367 W/m². C’est ce qu’on appelle la constante solaire. La Terre, une petite boule comparée au Soleil, intercepte une si faible partie de l’énergie radiante du soleil que les rayons du soleil ainsi stoppés paraissent constituer un faisceau parallèle.

Énergie la plus abondante sur Terre, l’énergie solaire est à l’origine du cycle de l’eau, du vent et de la photosynthèse, elle-même à l’origine des énergies fossiles. C’est l’ensemble de la vie sur Terre qui dépend de cette source énergétique. Heureusement pour l’humanité, selon les astronomes, le soleil ne devrait pas s’éteindre avant 5 autres milliards d’années.

Une énergie de flux, diffuse et intermittente

Les théories actuelles présentent le rayonnement solaire comme une émission de particules. Ce flux de particules, appelées photons, atteint la terre avec différentes longueurs d’ondes à la quelle correspond une énergie spécifique décrite par la relation :

E [J] = hv = h . c/λ

Avec,

  • λ : longueur d’onde [m].
  • v : fréquence [Hz].
  • c : vitesse de la lumière [m/s].

La répartition énergétique des différentes longueurs d’ondes du rayonnement électromagnétique du Soleil est appelé spectre solaire.

Schéma spectre solaire.

Avec sa température d’émission de 5 500°C, le soleil rayonne la plus grande partie de son énergie dans les hautes fréquences (courtes longueurs d’onde).
La lumière visible représente 46 % de l’énergie totale émise par le soleil. 49 % du rayonnement énergétique émis par le soleil se situe au-delà du rouge visible, dans l’infrarouge. C’est ce rayonnement que nous ressentons comme une onde de chaleur. Le reste du rayonnement solaire, l’ultraviolet, représente l’ensemble des radiations de longueur d’onde inférieure à celle de l’extrémité violette du spectre visible.

  1. Puissance émise par le soleil : 63 500 kW/m².
  2. Constante solaire : 1 370 W/m².
  3. Rayonnement réfléchi.
  4. Rayonnement absorbé et diffusé.
  5. Rayonnement solaire à la surface de la Terre (max : 1 000 W/m²).

Au moins 35 % du rayonnement solaire intercepté par la Terre et son atmosphère sont réfléchis vers l’espace. Une partie du rayonnement qui atteint la Terre a été diffusée dans toutes les directions au cours de la traversée de l’atmosphère, en rencontrant des molécules d’air, des aérosols et des particules de poussière (c’est ce rayonnement diffus, appartenant notamment à la frange bleue du spectre visible qui est responsable de la couleur bleue du ciel clair). D’autre part, la vapeur d’eau, le gaz carbonique et l’ozone de l’atmosphère absorbent 10 à 15 % du rayonnement solaire. Le reste du rayonnement atteint directement la surface.

Outre la composition de l’atmosphère, le facteur le plus important pour évaluer la quantité du rayonnement solaire qui atteint la surface de la Terre est l’épaisseur d’atmosphère que le rayonnement doit traverser.

Schéma rayonnement solaire.

Au milieu du jour, le Soleil est au-dessus de nos têtes, et ses rayons ont à traverser une épaisseur d’air moindre avant d’arriver sur Terre. Mais au début et à la fin de la journée, le Soleil est bas sur l’horizon ; la traversée de l’atmosphère se fait alors plus longue. L’atmosphère absorbe et diffuse d’autant plus de particules de lumière qu’elle est plus épaisse et plus dense. Ainsi, au coucher du Soleil, les rayons sont suffisamment affaiblis pour permettre à l’œil humain de fixer le Soleil sans trop d’éblouissement. Par contre, lorsque l’altitude augmente, la couche d’atmosphère à traverser est plus réduite : dans les sites de montagnes, l’intensité du rayonnement augmente sensiblement.

L’épaisseur d’atmosphère traversée influence donc le spectre lumineux reçu. Les normes internationales définissent différents types de spectre : AM1 (pour air mass 1, lorsque le rayonnement a traversé une épaisseur d’atmosphère), AM0 (spectre à la surface externe de l’atmosphère), AM1.5 (spectre utilisé pour les tests standardisés des panneaux solaires correspondant à la traversée d’une atmosphère et demie).

Le rayonnement solaire reçu sur une surface varie donc au cours du temps en fonction de la position du Soleil et de la couverture nuageuse. La puissance solaire maximale à la surface de la Terre est d’environ 1 000 W/m² pour une surface perpendiculaire aux rayons.

Puissance solaire pour différents ciels.


Le mouvement Terre-Soleil

Schéma mouvement Terre-Soleil - 01.

La course de la Terre autour du Soleil décrit une ellipse légèrement aplatie. Dans cette ronde annuelle autour du Soleil, la Terre effectue un tour complet sur elle-même en 24 heures autour de l’axe des pôles. Cet axe nord – sud fait un angle de 23°27′ avec la direction perpendiculaire au plan de l’orbite terrestre autour du Soleil.

Cette inclinaison est constante tout au long de la course autour du Soleil et est responsable des variations saisonnières Ainsi pendant nos mois d’hiver, en hémisphère nord la durée d’insolation est relativement courte et le Soleil n e monter pas très  haut dans le ciel, tandis que l’été règne sur l’hémisphère sud. Pendant nos mois d’été, la situation est inversée, l’hémisphère nord est tourné vers le Soleil. Les jours sont alors plus longs que les nuits dans l’hémisphère nord et le rayonnement incident se rapproche de la verticale.

Schéma mouvement Terre-Soleil - 02.

Aux équinoxes de printemps et d’automne (21 mars, 21 septembre), à midi, le rayonnement est perpendiculaire à l’équateur (latitude 0°) et partout sur le globe, les jours et les nuits sont de durée égale. C’est à ce moment que la hauteur du Soleil à midi est la plus facile à calculer. En effet, sa hauteur est égale à l’angle complémentaire de la latitude.

H = 90° – L

Schéma mouvement Terre-Soleil - 03.

Au solstice d’été (21 juin), la terre est inclinée vers les rayons solaires et, à midi, ceux-ci sont perpendiculaires au tropique du cancer (latitude 23°27′ N). Le Soleil ne se couche jamais dans les régions du globe situées à l’intérieur du cercle arctique (celui-ci se trouvant 23°27′ au-dessous du pôle Nord). Une personne vivant à la latitude de 66°33′ N (90°-23°27′) devrait veiller jusqu’à minuit pour voir le Soleil se promener aux alentours du nord, s’abaisser jusqu’à toucher l’horizon et commencer à s’élever de nouveau vers le secteur est du ciel. La hauteur du Soleil à midi (solaire) est de 23°27′ supérieure à celle de l’équinoxe.

H = 90° – L + 23°27

Schéma mouvement Terre-Soleil - 04.

Au solstice d’hiver (22 décembre), l’angle d’inclinaison est inversé et c’est le tropique du capricorne (latitude 23°27′ S) qui bénéficie d’un rayonnement perpendiculaire. La hauteur du Soleil à midi est de 23°27′ inférieure à celle de l’équinoxe.

H = 90° – L – 23°27′


Le mouvement apparent du Soleil

Pour bien comprendre et utiliser l’influence du Soleil dans le choix et le traitement d’un site, il faut bien sûr connaître à tout instant la position du Soleil dans le ciel. Cette information est indispensable pour le calcul des apports solaires, pour le choix de l’exposition d’un immeuble, l’implantation de systèmes actifs solaires (thermique ou photovoltaïque),  l’aménagement des parties extérieures voisines, l’éclairage naturel des pièces intérieures, l’emplacement des fenêtres, des protections solaires et de la végétation, etc.

À un instant donné, la hauteur et l’azimut du Soleil déterminent la position du Soleil dans le ciel. Ainsi est connue la direction du rayonnement solaire et peuvent être calculées les surfaces ensoleillées du bâtiment. Ces calculs tiendront compte des effets d’ombrage dus au relief, au cadre bâti, à la végétation ou au bâtiment lui-même.

Schéma mouvement apparent du Soleil.

En un lieu,

  • La hauteur «  » du Soleil est l’angle que fait la direction du Soleil avec le plan horizontal. Elle se compte de 0° à 90° à partir de l’horizon vers la voûte céleste.
  • L’azimut «  » du Soleil est l’angle créé entre le plan vertical passant à la fois par le Soleil et par le lieu considéré, et le plan vertical N-S. Cet angle vaut 0° au sud et est conventionnellement positif vers l’ouest et négatif vers l’est.

 Schéma hauteur et azimut du soleil.

Pour plus de clarté, on représente généralement la course solaire par un diagramme en coordonnées rectangulaires.

 

Diagramme solaire cylindrique pour Uccle en temps universel.

Pour en savoir plus sur la construction d’un diagramme solaire : LIENS (dernier point).

En regardant plus précisément, la valeur de l’azimut à différents moments de l’année, on constate que l’expression « le Soleil se lève à l’est et se couche à l’ouest » n’est pas exacte. En effet, en décembre, il se lève au sud-est pour se coucher au sud-ouest, tandis qu’en juin, il se lève pratiquement au nord-est pour se coucher au nord-ouest. Ceci donne 7 heures d’ensoleillement maximum en décembre et plus de 16 heures en juin : ce sont les deux époques des solstices de l’année. Ce n’est qu’aux équinoxes de printemps et d’automne que la durée du jour est égale a celle de la nuit.

Quant à la hauteur du Soleil, elle atteint un maximum de 62° le 21 juin à 12 heure (heure universelle), alors que le 21 décembre a 12 huniv. Elle n’atteint que 16°.

Les graphes et tableaux qui suivent donnent la hauteur et l’azimut du Soleil à Uccle, en fonction du temps universel, pour les mois de mars, juin, septembre et décembre.

Graphe hauteur et l'azimut du Soleil à Uccle en mars.

Temps
universel
Soleil :
hauteur degré
Soleil :
azimut degré

7
8
9
10
11
12
13
14
15
16
17

8,7
17,5
25,3
31,6
35,5
36,7
34,7
30,1
23,4
15,2
6,2

– 75,1
– 62,7
– 48,9
– 33,4
– 16,0
2,5
20,8
37,7
52,8
66,1
78,3

 Graphe hauteur et l'azimut du Soleil à Uccle en juin.

Temps
universel
Soleil :
hauteur degré
Soleil :
azimut degré
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
3,1
11,4
20,4
29,9
39,3
48,3
56,0
61,2
62,3
58,7
51,8
43,2
33,9
24,4
15,2
6,5
– 124,0
– 112,9
– 102,1
– 90,9
– 78,7
– 64,1
– 45,5
– 20,7
8,6
35,8
56,9
72,9
85,9
97,4
108,3
119,2

 Graphe hauteur et l'azimut du Soleil à Uccle en septembre.

Temps
universel
Soleil :
hauteur degré
Soleil :
azimut degré
6
7
8
9
10
11
12
13
14
15
16
17
6,0
15,4
24,3
32,1
38,3
41,9
42,3
39,6
34,0
26,6
17,9
8,6
– 87,9
– 76,0
– 63,2
– 48,7
– 31,9
– 12,9
7,4
26,9
44,3
59,4
72,6
84,7

 Graphe hauteur et l'azimut du Soleil à Uccle en décembre.

Temps
universel
Soleil :
hauteur degré
Soleil :
azimut degré
8
9
10
11
12
13
14
15
1,9
8,3
12,9
15,5
15,8
13,8
9,6
3,6
– 48,3
– 36,1
– 22,9
– 8,9
5,4
19,5
32,9
45,4


L’irradiation solaire incidente

L’angle que font les rayons du Soleil avec une surface détermine la densité énergétique que reçoit cette surface. Puisque le rayonnement solaire arrive sur la Terre sous forme d’un faisceau parallèle, une surface perpendiculaire à ces rayons intercepte la densité maximale d’énergie. Et si l’on incline la surface à partir de cette position perpendiculaire, son éclairement diminue.

Le meilleur moyen de représenter ce phénomène consiste peut-être à figurer les rayons parallèles du Soleil par une poignée de crayons tenus dans la main au-dessus d’une feuille de papier, pointes en bas. Les marques faites par les pointes représentent des grains d’énergie. Lorsque les crayons sont perpendiculaires à la feuille, les pointes sont serrées au maximum : la densité d’énergie par unité de surface est la plus grande. Lorsqu’on incline ensemble tous ces crayons parallèles, les pointes s’écartent et couvrent des surfaces de plus en plus allongées : la densité d’énergie diminue avec l’étalement des traces.

Schéma irradiation solaire incidente.

Cependant, une surface qui s’écarte de 25 % de cette position perpendiculaire au Soleil, intercepte encore plus de 90 % du rayonnement direct maximum. L’angle que font les rayons du Soleil avec la normale à la surface (angle d’incidence) déterminera le pourcentage de lumière directe interceptée par la surface. Le tableau ci-dessous donne les pourcentages de lumière interceptée par une surface pour différents angles d’incidence.

Tableau pourcentage du rayonnement intercepté par une paroi en fonction de l'angle d'incidence.

En réalité, le rayonnement total reçu sur une surface, appelé irradiation solaire incidente (ou encore éclairement énergétique global), est défini par la somme de trois composantes :

  • L’irradiation directe, provenant directement du Soleil. Cette composante s’annule si le Soleil est caché par des nuages ou par un obstacle.
  • L’irradiation diffuse, correspondant au rayonnement reçu de la voûte céleste, hors rayonnement direct. Cette énergie diffusée par l’atmosphère et dirigée vers la surface de la Terre, peut atteindre 50 % du rayonnement global reçu, lorsque le Soleil est bas sur l’horizon, et 100 % pour un ciel entièrement couvert.
  • L’irradiation réfléchie, correspondant au rayonnement réfléchi par l’environnement extérieur, en particulier le sol, dont le coefficient de réflexion est appelé « albedo ».

Schéma rayonnement direct, diffus et réfléchi.

En particulier, on définit aussi l’irradiation hémisphérique comme l’irradiation globale reçue sur une surface horizontale (la composante réfléchie par le sol est nulle dans ce cas).
L’éclairement énergétique global  est mesuré par un solarimètre suivant l’inclinaison et l’orientation souhaitées. L’éclairement énergétique diffus seul est mesuré par un solarimètre à bande d’ombre : c’est le même instrument muni d’un ruban semi-circulaire qui, ajusté périodiquement, masque l’ensoleillement direct de l’appareil de mesure.

La quantité d’énergie reçue sera dépendante cette puissance, mais aussi de la durée de l’ensoleillement.

Irradiation solaire annuelle et ressources connues d’énergie par rapport à la consommation énergétique mondiale annuelle.

Et cette énergie reçue est énorme !  Même si toute l’énergie solaire reçue sur Terre n’est pas exploitable, on estime que la partie qui pourrait l’être représente trois fois plus que l’énergie consommée mondialement. Cette énergie qui semble inépuisable à l’échelle humaine est totalement respectueuse de l’environnement : son utilisation ne produit ni déchets ni émission polluante. Un véritable défi pour l’avenir !


Les obstacles à l’ensoleillement

Des masques solaires peuvent être occasionnés par le relief, la végétation existante, les bâtiments voisins, ou encore par des dispositifs architecturaux liés au bâtiment lui-même.

Les constructions constituent des écrans fixes pour leur voisinage. Leur rôle peut être positif si l’on recherche une protection contre le Soleil : c’est le cas des villes méditerranéennes traditionnelles, où l’étroitesse des ruelles et la hauteur des bâtiments réduisent considérablement le rayonnement direct et fournissent un ombrage bienvenu.

Schéma obstacles à l’ensoleillement.

Par contre, ce rôle peut être négatif si les bâtiments voisins masquent le Soleil alors qu’on souhaite bénéficier d’apports solaires. En effet  sous notre climat, durant les mois d’hiver, environ 90 % des apports solaires interviennent entre 9 h et 15 h solaire. Tous les masques de l’environnement (immeubles ou grands arbres, qui interceptent le Soleil pendant ces heures) gêneront grandement l’utilisation des gains solaires.

Dans le cas d’une conception solaire passive, il importera donc de mesurer l’impact de cet effet de masquage.  Pour ce faire, on représentera  sur un diagramme cylindrique ou stéréographique (figure ci-dessus) les courbes de la course solaire annuelle et la silhouette des bâtiments voisins. On repèrera ainsi facilement les périodes où l’ensoleillement est disponible et on pourra calculer les facteurs de réduction des gains solaires.

L’emploi de matériaux réfléchissants (vitrages) peut également influencer l’exposition effective d’un bâtiment. Ainsi, un édifice orienté nord et doté de larges vitrages clairs pour tirer parti de la lumière naturelle peut se retrouver dans une situation sud si on construit en face un bâtiment équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement. À l’évidence, les conditions de confort, dans le premier bâtiment, sont profondément modifiées par la construction du second.


L’ensoleillement en Belgique

Sous notre climat, le Soleil nous apporte annuellement environ 1 000 kWh/m² au sol, l’équivalent énergétique de 100 litres de mazout par m² !

Photo soleil.    Illustration 100 litres de mazout par m².

La quantité d’énergie solaire reçue en un lieu est inégalement répartie au fil des saisons. Elle varie suivant le jour et l’heure considérés, et est influencée par les conditions météorologiques et le niveau de pollution de l’air. On considère en général que l’on reçoit 250 kWh du 15 octobre au 15 avril  et 750 kWh du 15 avril au 15 octobre.

Graphe énergie solaire mensuelle reçue (Uccle).

Suivant les conditions météorologiques,  le rayonnement nous parviendra selon ses composantes diffuses et directes en proportion plus ou moins grande.

N.B. : Le rayonnement solaire global est ici considéré sur une surface horizontale (sur laquelle la composante réfléchie du rayonnement est nulle).

En pratique, les conditions météorologiques peuvent être qualifiées par l’insolation directe relative : c’est le rapport entre l’insolation effective (S) et l’insolation maximale théorique (So). Celle-ci détermine les types de ciel :

  • Un ciel est considéré comme serein lorsque l’insolation directe relative S/So est comprise entre 80 et 100 %,
  • un ciel est considéré comme moyen lorsque l’insolation directe relative S/So est comprise entre 20 et 80 %,
  • un ciel est considéré comme couvert lorsque l’insolation directe relative S/So est comprise entre 0 et 20 %.
Ciel Mois de l’année
J F M A M J J A S O N D
Couvert 65 54 45 40 30 28 32 29 29 43 61 70
Moyen 23 33 39 44 47 53 52 55 47 37 28 20
Serein 12 13 16 16 13 19 16 16 24 20 11 10

Et le tableau suivant donne pour Uccle, les moyennes journalières mensuelles de l’insolation directe relative.

Mois J F M A M J J A S O N D
S/So (%) 23 28 34 39 46 40 41 45 43 35 24 17

Par exemple, une insolation directe relative de 34 % au mois de mars à Uccle indique qu’en moyenne seulement 34 % du temps est ensoleillé entre le lever et le coucher du Soleil.

Énergie moyenne journalière reçue sur une surface horizontale.

Annuellement, c’est environ de 60 % de l’énergie solaire qui nous arrive sous forme de rayonnement diffus, et 40 % sous forme de rayonnement direct.

Global [kWh/m².an] Direct [%] Diffus [%]
Normale 980 40 60
2002 990 44 56
2003 1 151 52 48
2004 1 034 44 56
2005 1 056 47 53
2006 1 040 47 53
2007 998 45 55

Rayonnement annuel reçu sur une surface d’1m² au sol.
Source IRM.

> En Belgique, dû à la présence fréquente de nuages, plus de la moitié de l’énergie solaire nous provient de manière diffuse !

L’éclairement énergétique disponible

Les graphes suivants donnent l’éclairement énergétique solaire direct et global pour un ciel serein à Uccle, le 15 des mois de mars, juin, septembre et décembre.

Schéma éclairement énergétique solaire direct et global pour un ciel serein à Uccle, décembre.

Schéma éclairement énergétique solaire direct et global pour un ciel serein à Uccle, mars.

Schéma éclairement énergétique solaire direct et global pour un ciel serein à Uccle, juin.

Schéma éclairement énergétique solaire direct et global pour un ciel serein à Uccle, septembre.

Par exemple, les éclairements énergétiques solaires direct et global pour un ciel serein à Uccle sont,

  • le 15 mars à 10huniv.(11hoff) de 291 W/m² et 424 W/m² pour une surface horizontale,
  • le 15 juin à 13huniv.(15hoff) de 124 W/m² et 323 W/m² pour une surface verticale ouest,
  • le 15 septembre à 13huniv.(15hoff) de 467 W/m² et 687 W/m² pour une surface verticale sud.

Dans le cas où la surface réceptrice est verticale, l’éclairement énergétique sera maximal sur une surface sud en hiver, tandis qu’il sera maximal sur une surface est ou ouest en été. Ceci étant, la surface verticale n’est jamais la surface la plus favorable au captage de l’énergie solaire.

Afin de tenir compte des conditions météorologiques, les tableaux ci-après donnent l’éclairement énergétique solaire global pour un ciel moyen et un ciel couvert, à Uccle (Bruxelles), le 15 des mois de mars, juin, septembre et décembre, d’une surface horizontale et d’une surface verticale d’orientation sud, nord, est et ouest.

Par exemple, l’éclairement énergétique solaire global pour un ciel moyen et un ciel couvert à Uccle est,

  • le 15 mars à 9huniv. (10hoff) de 197 W/m² et 89 W/m² pour une surface horizontale,
  • le 15 juin à 9huniv. (11hoff) de 419 W/m² et 130 W/m² pour une surface verticale est.

Tableau éclairement énergétique global W/m² - ciel moyen.

Ciel moyen.

Tableau éclairement énergétique global W/m² - ciel couvert.

Ciel couvert.

Comparativement au ciel serein, la réduction de l’éclairement énergétique global sur une surface horizontale est de l’ordre de 30 % par ciel moyen et de 70 % par ciel couvert. Cette différence s’accentue lorsque la surface réceptrice tend à être perpendiculaire au rayonnement solaire.

Variation géographique de l’exposition énergétique

Le tableau ci-dessous donne pour les stations sélectionnées les expositions énergétiques moyennes mensuelles et annuelles en Wh/m².

Wh/m2 MIDDELKERKE UCCLE CHIEVRES KLEINE-BROGEL FLORENNES SPA SAINT-HUBERT
Janvier 23 324,1 19 934,9 18 946 21 429,49 20 193,282 21 701,74 22 207,33
Février 38 408,6 35 366,7 34 127,7 37 347,43 36 886,284 39 867,08 42 403,39
Mars 82 762,2 70 736,2 70 311,2 73 494,77 74 980,998 75 783,84 77 881,23
Avril 120 012 106 964 104 289 110 814,4 108 247,55 111 258,9 112 953,5
Mai 155 199 142 253 133 433 142 964,2 139 408,37 144 247,7 147 089,5
Juin 161 996 148 892 139 511 149 189,7 149 189,71 152 095,5 154 251,2
Juillet 156 251 140 136 131 869 141 958,6 144 339,32 144 247,7 148 684,1
Aout 133 588 120 135 113 045 122 898,7 120 976,34 127 024,1 124 579,4
Sept. 97 249,4 89 548,8 85 518 89 726,62 90 176,658 93 757,5 95 727,1
Octobre 60 666 54 359,9 54 087,7 57 785,18 58 599,132 61 316,02 59 199,18
Nov. 28 288,4 24 577 24 771,4 27 132,73 26 249,322 27 085,5 25 560,38
Déc. 18 576,5 15 690,1 15 940,2 18 120,89 16 820,79 17 654,19 18 279,24
ANNEE 1 076 322 968 591 925 849 992 862,8 986 067,77 1 016 040 1 028 816

La Belgique se caractérise par des variations géographiques relativement faibles, inférieures à ± 5 % pour l’ensemble du pays, à l’exception de la région côtière et du pays gaumais où des écarts annuels de 10 % par rapport à Uccle sont atteints et même dépassés (+ 18 % à Luxembourg).

Du tableau précédent, les écarts par rapport à Uccle s’établissent comme suit selon les saisons : en hiver (H); printemps (P); été (E); automne (A) et période de végétation (V) couvrant les mois de mai, juin et juillet.

H P E A V Année
Middelkerke + 13 % + 12 % + 10 % + 10 % + 9 % + 11 %
Chièvres – 3 % – 4 % – 6 % – 2 % – 6 % – 4 %
Kleine-Brogel + 9 % + 2 % + 1 % + 3 % + 1 % + 2 %
Florennes + 4 % + 1 % + 1 % + 4 % 0 % + 2 %
Spa + 12 % + 4 % + 3 % + 8 % + 2 % + 5 %
Saint-Hubert + 17 % + 6 % + 4 % + 7 % + 4 % + 6 %

L’Institut Royal Météorologique de Belgique a établi une distribution du rayonnement solaire basée sur la répartition de l’insolation effective selon les zones climatiques de la Belgique sachant que les variations de celle-ci par rapport à Uccle sont approximativement les suivantes :

Littoral + 10 %
Polders et Pays de Waes de + 5 % à + 2 % selon l’éloignement de la zone côtière.
Campine et Flandre limoneuse + 2 %
Hesbaye – 2 %
Pays de Herve – 5 %
Gileppe – Warche – 7 %
Plateau ardennais + 2 % à + 5 %
Pays gaumais + 5 %
Grand-Duché de Luxembourg + 10 %

La carte ci-dessous en a été déduite.

 

L’influence de l’orientation et de l’inclinaison

Il est bien entendu clair que la quantité d’énergie reçue sur une surface dépendra de son orientation et de son inclinaison.

Le graphe ci-dessous montre cette influence dans notre pays (l’azimut se lit sur la circonférence  et la hauteur du Soleil sur les cercles intérieurs) :

Schéma influence de l’orientation et de l’inclinaison.

Une surface inclinée à 38° au sud recevra un maximum d’énergie solaire. Une surface verticale à l’est ne recevra que 50 % de cette énergie maximale.


Construction d’un diagramme solaire

La voûte céleste est la partie visible du ciel dans toutes les directions au-dessus de l’horizon. Le quadrillage du diagramme solaire représente les angles horizontaux et verticaux des points de la voûte céleste. Tout se passe comme si l’observateur repérait l’azimut et la hauteur du Soleil sur un hémisphère transparent au-dessus de lui et comme si, ensuite, il étirait cette portion de sphère en cylindre vertical.

  Schéma construction d'un diagramme solaire -01.     

Lorsque l’on connaît l’azimut et la hauteur solaire, on n’a aucune peine à situer la position du Soleil dans le ciel.

En joignant les différentes localisations, du Soleil à divers moments de la journée, on obtient le tracé de la course du Soleil.

On peut ainsi tracer la course du Soleil pour n’importe quel jour de l’année. Les trajectoires représentées sur les diagrammes solaires correspondent au vingtième jour de chaque mois (certains diagrammes les donnent pour les 5, 15 et/ou 25ème jours de chaque mois). La journée solaire est la plus longue au solstice d’été, lorsque le Soleil atteint sa hauteur la plus élevée et balaie le secteur azimutal le plus large, de part et d’autre du sud. Au voisinage du solstice d’hiver, le Soleil est au contraire beaucoup plus bas dans le ciel : il reste visible moins longtemps et balaie le secteur azimutal le plus faible.

Pour terminer, si on relie entre eux les points qui correspondent aux mêmes heures sur les différentes courbes relatives à une même latitude (et à différents moments de l’énnée, on obtient pour chaque heure du jour une ligne particulière en pointillé.

D’une manière similaire, on pourra aisément représenter les masques solaires. Il suffira pour cela de repérer l’azimut et la hauteur de chacun des obstacles et de les reporter sur le diagramme.

Niveau E : niveau de consommation en énergie primaire

Niveau E : niveau de consommation en énergie primaire


Généralités

La méthode de calcul du niveau E est pour l’instant divisée en deux sous-méthodes : une méthode pour le résidentiel et une autre pour les bâtiments de bureaux et scolaires (d’autres méthodes devraient voir le jour).

Dans ces grandes lignes, le calcul du niveau E intègre, conformément aux impositions de la Directive européenne, les éléments suivants :

  • le site et l’implantation du bâtiment : (compacité, orientation,…) ;
  • les caractéristiques de l’enveloppe et les subdivisions internes (coefficient U et niveau global d’isolation K) ainsi que l’étanchéité à l’air du bâtiment ;
  • les équipements de chauffage, de refroidissement et pour le secteur résidentiel, les équipements d’approvisionnement en eau chaude sanitaire ;
  • la ventilation ;
  • le confort intérieur ;
  • pour le secteur non résidentiel, l’éclairage naturel et les installations d’éclairage ;
  • les systèmes solaires passifs et les protections solaires ;

D’autres éléments peuvent, le cas échéant, être pris en compte :

  • les systèmes solaires actifs et les autres systèmes faisant appel aux énergies renouvelables pour le chauffage et la production d’électricité ;
  • l’électricité et la chaleur produites par une installation de cogénération ;
  • les  systèmes de chauffage et de refroidissement collectifs ou urbains ;
  •  …


Le niveau E

Ce niveau de consommation d’énergie primaire est donné par le rapport entre la consommation caractéristique annuelle d’énergie primaire et une valeur de référence, le tout multiplié par 100 :

E = 100 . Econs / Eref

où :

  • E : Niveau de consommation d’énergie primaire ;
  • Econs : Consommation caractéristique annuelle d’énergie primaire  [MJ]  ;
  • Eref : Valeur de référence pour la consommation caractéristique annuelle d’énergie primaire [MJ]

Consommation caractéristique annuelle d’énergie (Econs)

Le non-résidentiel

Econs = Eéclairage + (Echauffage + Erefroidissement + Eauxiliaires – Ephotovoltaïque – Ecogénération)

  • Eéclairage : Consommation  annuelle d’énergie primaire pour l’éclairage [MJ]
  • Echauffage : Consommation mensuelle d’énergie primaire pour le chauffage [MJ]
  • Erefroidissement : Consommation mensuelle d’énergie primaire équivalente pour le  refroidissement [MJ]
  • Eauxiliaires : Consommation mensuelle d’énergie primaire des auxiliaires [MJ]
  • Ephotovoltaïque : Production mensuelle d’énergie primaire des systèmes d’énergie solaire photovoltaïque [MJ]
  • Ecogénération : Production mensuelle d’énergie primaire résultant d’une installation de  cogénération [MJ]

L’énergie primaire consommée est donc la somme sur les douze mois de l’année de la consommation des différents postes hormis l’éclairage qui est directement comptabilisé annuellement. Ces termes sont décrits de manière plus détaillée en annexe à ce chapitre.

Le résidentiel

L’annexe I de la réglementation, destinée au résidentiel, définit  la consommation d’énergie primaire par :

Econs  = (Echauffage + Eeau chaude sanitaire + Erefroidissement + Eauxiliaires – Ephotovoltaïque – Ecogénération)

La différence entre la méthode de calcul pour les immeubles de bureaux et écoles et celle pour le résidentiel réside donc dans la prise en compte de la consommation d’énergie pour l’éclairage Eéclairage et la non prise en compte de la consommation pour l’eau chaude sanitaire Eeau chaude sanitaire.

De plus, pour le résidentiel un critère sur le risque de surchauffe est aussi à respecter. Une probabilité d’avoir un refroidissement actif est calculée sur base d’un indicateur de surchauffe obtenu par le rapport entre les gains et les pertes de chaleur et dépendant de l’inertie thermique du bâtiment. Cet indicateur doit être inférieur à 17 500 Kh.

Consommation caractéristique annuelle d’énergie de référence (Eref)

La valeur de référence pour la consommation caractéristique annuelle d’énergie primaire dépend de :

– pour le résidentiel de :

  • la surface totale de plancher ;
  • la compacité (rapport entre le volume et la surface totale de toutes les parois qui enveloppent le volume protégé).

– pour le non résidentiel (bureau et écoles) de :

  • la surface totale d’utilisation ;
  • la surface totale de toutes les parois qui enveloppent le volume protégé ;
  • du débit d’alimentation de conception pour la ventilation ;
  • d’une variable auxiliaire (représentant l’éclairement) ;
  • du nombre conventionnel d’heures d’utilisation par an.

En résumé : ce calcul revient à comparer les consommations énergétiques caractéristiques du bâtiment conçu avec les consommations caractéristiques d’un bâtiment de référence (E100). Ce bâtiment est considéré d’une géométrie similaire, d’un niveau global d’isolation K45 et équipé d’installations standards.


Méthode de calcul

La méthode de calcul pour la détermination du niveau de consommation en énergie primaire est :

  • normalisée (et donc indépendante de l’utilisateur) ;
  • définie pour un usage standardisé du bâtiment (les paramètres liés à l’occupation (taux d’occupations,…) ont été définis de manière conventionnelle) ;
  • basée sur un calcul statique mensuel ;
  • basée sur les notions du K et du BE et intègre les différentes installations et vecteurs énergétiques.

Voici, de manière schématique, la démarche de calcul :

Le calcul est établi par étapes :

Rendement d’une installation solaire thermique

Rendement d'une installation solaire thermique


Rendement d’un capteur solaire

Schéma principe de rendement d’un capteur solaire.

Le rendement d’un capteur est le rapport entre la chaleur utile (Q3) transmise au fluide et le rayonnement solaire incident (E0) :

n = Q3 / E0 [-]

Cette chaleur utile Q3 est définie par le bilan des apports solaires utiles et des pertes thermiques :

Q3 = E0 – E1 – Q2 – Q1 [MJ]

Les apports solaires utiles : E0 – E1 [MJ]

Ils représentent la part du rayonnement solaire réellement absorbée par le capteur. Ils dépendent des propriétés optiques du capteur (telles que l’absportivité de l’absorbeur et la transmissivité du vitrage).

Ils s’expriment selon la relation :  E0 * ατ

Avec :

  • α [-] : facteur d’absorption de l’absorbeur.
  • τ [-] : facteur de transmission du vitrage.

Les pertes thermiques : Q1 + Q2 [MJ]

Dépendant des propriétés d’isolation thermique du capteur, elles sont définies par la relation: Qth = K* ∆T

Avec :

  • K [W/m²K] : coefficient de déperdition thermique du capteur.
  • ∆T : T°capt – T°amb.

Le rendement d’un capteur : n = Q3/E0 [-]

n = ατ- (K*∆T / E0) [-]

L’efficacité d’un capteur dépend donc de ses caractéristiques thermiques (diminution des pertes) et optiques (augmentation des apports solaires utiles).

Courbe de rendement normalisée

La norme européenne (EN 12975) définit le rendement d’un capteur sur base de trois paramètres permettant de qualifier le comportement thermique du capteur : Son rendement optique n0, et deux coefficients de déperdition thermique a1 et a2.

Rendement optique n0

Le rendement optique n0 représente le rendement maximum du capteur lorsque la température du fluide est à température ambiante (pas de pertes thermiques). Il s’agit donc de la partie maximale de l’énergie solaire qui peut être captée. Mesuré dans des conditions standardisées de test (spectre AM 1,5, 1 000 W/m², perpendiculaire au capteur), il dépend des propriétés du vitrage et de sélectivité de l’absorbeur. Cette relation est établie comme suit : n0 = ατF

Avec :

  • α [-] : facteur d’absorption de l’absorbeur, compris entre 0,9 et 0,96.
  • τ [-] : facteur de transmission du vitrage, compris entre 0,88 et 0,91.
  • F [-] : facteur de rendement du capteur, compris entre 0,92 et 0,97.
Exemple de rendement optique pour différents types de capteurs :

* 75-85 % capteur plan ;
* 90-95 % capteur non vitré ;
* 75-85 % tube sous vide à absorbeur sur cuivre ;
* 50-70 % tube sous vide à absorbeur sur verre.

À l’heure actuelle, les fabricants utilisent généralement des verres « anti-reflet » extra clairs. Pauvres en fer, ils présentent une meilleure transmission lumineuse.

Coefficients de déperdition thermique

Les coefficients de déperdition thermique dépendent de la qualité d’isolation des capteurs :

  • a1 [W/m². K] : coefficient linéaire de transfert thermique, généralement compris entre 1,2 et 4.
  • a2 [W/m². K²] : coefficient quadratique de transfert thermique, généralement compris entre 0,005 et 0,015.

Conformément à la norme, le rendement du capteur est alors donné par la formule suivante :

n = n0 – (a1*∆T / E0) – (a2* ∆T² / E0) [-]

Avec :

  • E0 : 1 000 W/m².
  • ∆T = T°capt – T°amb

Représentation de la courbe de rendement associée. (exemple avec un n0=0.8 ; a1= 4 [W/m². K];  a2 = 0.015 [W/m². K²])

N.B. : Sur cette courbe apparaît la température de stagnation du capteur (dans l’exemple 133°) définie comme la différence de température à laquelle les gains solaires ne peuvent compenser les pertes thermiques. À ce moment, le rendement du capteur est nul.

Calculs

La page calcul comprend notamment ce tableur permettant le calcul de la courbe de rendement théorique en fonction de la température d’un capteur solair en fonction de ses propriétés optiques

Influence de la puissance du rayonnement solaire

Les différentes courbes de rendement sont conventionnellement établies pour une puissance de rayonnement de 1 000 W/m². Or, en réalité, l’ensoleillement varie considérablement au fil du temps (de 0 la nuit à 1 000 W maximum en plein soleil). La courbe de rendement en est modifiée de la sorte :

Schéma influence de la puissance du rayonnement solaire.

Influence sur la courbe de rendement d’une variation de l’intensité du rayonnement solaire.

Influence du delta de température

La différence de température entre l’absorbeur et l’extérieur génère des pertes thermiques. Plus cette différence de température est importante, plus les pertes le sont aussi. Pour une puissance de rayonnement et une inclinaison donnée, le point de fonctionnement du capteur se situera donc sur une courbe dont la pente et la courbure sont déterminées par ses coefficients de déperdition thermique.

Schéma influence du delta de température.

Influence de l’angle d’incidence

Schéma influence de l'angle d'incidence.

L’inclinaison du capteur et la position du soleil influencent le rendement du capteur.  Selon l’angle d’incidence, la transmission du rayonnement solaire au travers du vitrage sera modifiée. En effet, au moins les rayons sont perpendiculaires au capteur, au plus la composante réfléchie du rayonnement est importante. Le rendement en est donc diminué.

Cette diminution est décrite par un facteur d’angle Kθ ou IAM, en général donné par les fabricants. En pratique, on constate que ce facteur varie relativement peu pour des angles d’incidence inférieurs à 50°.

Influence sur la courbe de rendement d’une modification importante de l’angle d’incidence par rapport à une situation de départ où l’angle d’incidence est perpendiculaire au capteur.


Rendement instantané

En fonctionnement, le rendement du capteur se déplacera donc continuellement (on parle alors de rendement dynamique) sur une multitude de courbes résultantes des différents phénomènes cités ci-dessus. Le schéma suivant illustre ce comportement :

Schéma rendement instantané.

En conclusion, on retiendra qu’un capteur est d’autant plus performant :

  • qu’il fonctionne à une température proche de la température ambiante (delta T° faible).
    ==> Travail à basse température idéal ;
  • que l’irradiation est importante
    ==>  Orientation et inclinaison adaptée.

Une étude allemande a montré qu’en fonctionnement,  le rendement annuel des capteurs pour l’eau chaude sanitaire peut atteindre 50 %.


Rendement d’une installation

Le rendement de l’installation complète ne dépend évidemment pas du seul rendement des capteurs.

Des pertes thermiques se produiront lors du stockage de l’eau chaude, lors des  transferts des fluides caloporteurs entre les capteurs et le ballon solaire, et entre le ballon et les différents points de puisage.

Ces différentes pertes sont considérablement influencées par différents paramètres comme la longueur et la section des tuyaux. On veillera donc à en limiter l’impact par des longueurs de tuyauteries minimisées et une isolation adéquate.
Différentes simulations dynamiques ont montré que le rendement moyen d’une installation bien conçue tourne autour de 30 – 40 %. Globalement, l’irradiation avoisinant en Belgique les 1000 kWh/m².an, on capte donc près de 300 à 400kWh/m².an soit l’équivalent énergétique de 30 à 40 litres de fuel par m² et par an. C’est notre puits de pétrole à nous!

L’influence de la fraction solaire

Le choix de la fraction solaire, fraction représentant la part de l’eau chaude sanitaire que l’on souhaite produire par le solaire, a une influence non négligeable sur le rendement global annuel de l’installation.

Le phénomène est le suivant :

Si l’on veut dimensionner une installation pour qu’elle puisse fournir de l’eau chaude les jours de luminosités réduites, les surfaces nécessaires peuvent être considérables. Parfois, principalement en hiver, la luminosité est même insuffisante pour permettre toute production. Dans ce cas, on n’a pas d’autre choix que le recours au système d’appoint utilisant une énergie conventionnelle.
Or, cette superficie nécessaire pour les jours de luminosité médiocre peut être superflue en été. En effet, une superficie plus importante permet d’atteindre plus vite la quantité d’eau à la température voulue. Mais que se passe-t-il une fois le ballon chargé ? Rien ! Le capteur ne fonctionne plus, il « chôme » ! Le temps de fonctionnement annuel des capteurs est alors réduit.
En résumé, plus la fraction solaire est élevée plus le taux d’utilisation, est lui, réduit.

Un taux d’utilisation réduit signifie aussi une production surfacique (kWh par m² de capteurs) réduite (pertes thermiques induites par le surdimensionnement par rapport aux besoins estivaux combiné, et un fonctionnement à haute température plus fréquent).

La relation entre la surface de capteurs et la productivité de l’installation n’est donc pas linéaire. La courbe qui suit illustre bien le phénomène : Les premiers kWh sont les plus faciles à produire alors qu’il sera presqu’impossible de rendre l’installation autonome (asymptote horizontale !).

Superficie de capteurs nécessaire en fonction de la fraction solaire et rendement correspondant.

En conséquence : au plus la fraction solaire voulue sera grande, au plus le rendement global de l’installation sera faible !
Cette conclusion ne doit cependant être prise telle quelle : il ne faut pas oublier que l’énergie solaire est une énergie gratuite, renouvelable et totalement non polluante !

Idée : On pourrait imaginer étendre la production estivale d’eau chaude à d’autres usages (piscine ou bassin extérieur,…) ou pour générer du froid (c’est l’idée des recherches actuelles sur la climatisation solaire). L’utilisation de ce surplus potentiel permettrait d’utiliser efficacement l’installation plutôt que de la laisser « chômer » !

Un autre moyen de valoriser ce surplus énergétique est le stockage intersaisonnier de l’énergie produite ! Actuellement, la recherche se tourne principalement vers des grands volumes de stockage (dans le sol par exemple) ou vers des matériaux à changement de phase.

Pluies

Pluies


C’est le vent qui chasse la pluie contre la façade.
En Belgique, ce sont les façades dont l’orientation est comprise entre le SSO et le OSO qui sont le plus exposées aux pluies battantes*.

* Pluie battante : pluie qui dévie de sa trajectoire verticale (pesanteur) sous l’influence du vent.

Produit de l’intensité** moyenne des pluies battantes par leur durée moyenne, au cours d’une année (1931 – 1960).

** Intensité de pluie : quantité de pluie exprimée en mm qui est tombée pendant 1 heure.

Humidité relative et pression de vapeur extérieure

Humidité relative et pression de vapeur extérieure


La pression de vapeur et l’humidité relative de l’air extérieur influencent directement la condensation interne et de surface ainsi que l’humidification et le séchage des matériaux mis en œuvre dans les bâtiments.
Par exemple, une humidité relative extérieure de 85 % va permettre le séchage d’un mur humide (humidité relative de 100 % puisqu’il contient de l’eau sous forme liquide).

Variation de la pression de vapeur et de l’humidité relative extérieure

Du point de vue climatique, la pression de vapeur et l’humidité relative de l’air extérieur varient durant la journée et durant l’année. Ainsi :
Au cours des variations de température d’une journée

  • la pression de vapeur (pe) varie peu,
  • l’humidité relative (φe) varie fortement

Par contre, au cours des variations de température d’une année (de mois en mois), c’est le contraire :

  • la pression de vapeur moyenne varie fortement,
  • l’humidité relative moyenne varie peu.
J F M A M J J A S O N D
φe (%)
91
87
85
81
77
80
79
83
83
91
91
91
Pe (N/m²)
730
668
857
935
1072
1520
1445
1618
1352
1194
856
694

Pression de vapeur et humidité relative moyenne mensuelle.

Cette différence s’explique par la lenteur de l’évaporation de l’eau. En effet :

Une hausse de température au cours d’une journée ne suffit pas à évaporer l’eau. La pression de vapeur reste donc identique. Or, l’air pourrait contenir plus d’eau. Par conséquent, l’humidité relative diminue. Ainsi une augmentation de température peut entraîner des humidités relatives momentanément très basses.

Par contre, avec une hausse de température plus longue (à l’échelle du mois), l’évaporation a le temps de se produire. Par conséquent, la pression de vapeur augmente. L’humidité relative reste, quant à elle, constante.

Néanmoins, lors de précipitations, l’eau se présente sous forme optimale pour s’évaporer facilement (principe du vaporisateur). L’humidité relative augmente rapidement jusqu’à 100 % indépendamment de la température.
Ensuite, si la température baisse, le point de rosée de l’air peut être atteint, du brouillard se forme.

De même, dans une région boisée ou alluviale, l’air sera toujours plus humide que dans un site urbanisé (microclimats différents).

Electricité verte

Electricité verte


Définition de l’électricité verte en Wallonie

Pour que l’électricité soit considérée comme « électricité verte », elle doit être produite à partir de sources d’énergie renouvelables (vent, eau, soleil, biomasse…) ou de cogénération de qualité.

La cogénération de qualité est une production simultanée de chaleur et d’électricité telle que l’ensemble de la filière de production (préparation du combustible et combustion éventuelle lors de la production d’électricité) permette de réduire de 10 % les émissions de CO2 par rapport aux émissions résultant d’une filière de production classique (pour une même production en KWh et en tenant compte de la chaleur produite).

Mécanisme des certificats verts

Des certificats verts sont attribués aux producteurs d’électricité verte garantie par un contrôleur agréé. Les certificats verts sont attribués sur base de l’économie de CO2 réalisée par la filière de production utilisée. Un certificat vert est attribué pour une économie de 456 kg de CO2, ce qui correspond à l’émission de CO2 de la centrale électrique de référence (une TVG) pour produire 1 MWh.

Les fournisseurs d’électricité peuvent, moyennant payement, acquérir ces certificats verts auprès des producteurs d’électricité verte.  Les fournisseurs doivent fournir à la CWaPE un certain quota de certificats verts en fonction de leurs achats. Parallèlement au marché physique de l’électricité, un marché virtuel de certificats verts apparaît donc. Le quota était de 3 % en 2003 et augmente de 1 à 5 % par an atteignant ± 35 % en 2018. En 2021, le quota baissera pour remonter ensuite jusqu’à 2024.

Graphe quota nominal des cv.

Exemple : en 2018, un fournisseur qui vend 100 MWh à des clients finaux doit fournir ±35 certificats verts à la CWaPE, certificats qu’il achète à un producteur d’électricité verte ou à un intermédiaire.

Le schéma suivant résume le principe des certificats verts.

Schéma principe des certificats verts.

Le système met ainsi en place des incitants au développement des installations à énergie renouvelable et/ou de cogénération, tout en laissant jouer le marché. Le système se basant sur le gain en CO2, indépendamment de la technologie utilisée, permettra l’émergence des technologies les plus performantes au moindre coût.

Pour plus d’info sur les certificats verts [PDF]

Acheter de l’électricité verte ?

Par le système mis en place, tout consommateur achète donc de l’électricité « verte », intégrée pour quelques pour cents dans le courant distribué. Mais il lui est aussi possible d’acheter directement son électricité à un fournisseur d’électricité verte, c.-à-d. à un fournisseur qui s’est engagé à ce que au minimum 50,1 % de son électricité soit verte (en pratique, ce ratio peut varier entre 50,1 et 100+ % de renouvelables : informez-vous auprès de votre fournisseur d’électricité). C’est la meilleure manière de soutenir le développement de ces techniques propres.

Rendement d’un onduleur

Rendement d'un onduleur

Comme toujours, le rendement est le rapport entre deux grandeurs. Dans le cas d’un onduleur, le rendement se mesure en comparant la puissance de sortie de l’onduleur par rapport à la puissance d’entrée.

La puissance fournie à l’onduleur dépendra des conditions météorologiques, de la surface de panneaux installés ainsi que de leurs puissances unitaires.

Comme le rendement varie en réalité en fonction d’un grand nombre de variables, une méthode de calcul simplifiée du rendement global (sur toute la plage de puissance de l’onduleur) permet de mieux tenir compte des conditions réelles, il s’agit du « rendement européen ». Ce dernier à ça de particulier qu’il caractérise l’efficacité à charge partielle de l’onduleur. Ce rendement sera plus faible que le rendement maximal (pic) mais plus proche des chiffres mesurés dans la pratique.

Les normes européennes définissent le rendement d’un onduleur comme étant une moyenne pondérée (en fonction de temps de fonctionnement estimé pour cette charge) de différentes mesures de rendements à charge partielle.

ηEuro = 0,03 * η5 % + 0,06 * η10 % + 0,13 * η20 % + 0,1 * η 30 % + 0,48 * η 50 % + 0,2 * η100.

Dans l’exemple de l’onduleur ci-dessous, le rendement maximum est de 95,4% et le rendement suivant la norme européenne est de :

0.003 * 84.9 + 0.06 * 90.8 + 0.13 * 93.8 + 0.1 * 94.8 + 0.48 * 95.4 + 0.2 * 95 = 94,46 %

En pratique, suivant le dimensionnement de l’onduleur (par rapport à l’installation et sa production), les temps de fonctionnement à charge partielle varient sensiblement.

Actuellement le rendement maximal (pic) des meilleurs onduleurs sur le marché atteint les 98%. Plus le rendement est élevé, plus la durée de vie de l’onduleur sera élevée (les onduleurs sont sensibles à la chaleur) et ses dimensions pourront être réduites (les systèmes de refroidissement ne seront plus nécessaires).

Rendement et puissance crête des cellules photovoltaïques

Rendement et puissance crête des cellules photovoltaïques


Le rendement d’une cellule ou d’un module photovoltaïque est le rapport entre l’énergie électrique produite par cette cellule ou module et l’énergie lumineuse reçue sur la surface correspondante :

n [%] = Pproduite[kW] / Pincidente[kW]

Le rendement réel varie donc continuellement, en fonction notamment de l’énergie solaire incidente.

Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

La puissance crête est définie comme la puissance électrique produite par la cellule (ou un panneau) lorsqu’elle est soumise aux conditions STC. Cette valeur est utilisée comme référence pour comparer les panneaux photovoltaïques entre eux.

On obtient alors le rendement par la formule suivante :

Nstc [%] = Puissance crête [W/m²]* / Puissance du spectre STC [W/m²]

Avec :

  • Puissance du spectre STC = 1 000 [W/m²].

Influence de l’éclairement

La luminosité influence considérablement les performances des cellules.

Comme le montre ce graphique, le courant de court-circuit (Icc) croît proportionnellement avec l’éclairement, alors que la tension à vide (Vco) varie très peu (environ 0,5 V).

Ainsi, au plus la couverture nuageuse est importante, au plus l’intensité du courant généré est faible.


Influence de la température

La température a une influence considérable sur le comportement de la cellule et donc sur son rendement. Cette influence se traduit principalement par une diminution de la tension générée (et une très légère augmentation du courant).

Suivant les modèles, ce comportement induit, par degré, une perte de 0.5 % du rendement par rapport au rendement maximum de la cellule. On comprendra donc tout l’intérêt d’une ventilation correcte à l’arrière des panneaux !

La perte de tension d’un module ou d’une cellule peut être estimée par la formule suivante :

U(T°) = U(25°C) + (ΔT°*a)

Avec :

  • ΔT : augmentation de température par rapport aux conditions STC (25°C)
  • a : coefficient de température Voc [mV/K], valeur fournie par le fabriquant

Limite de Shockley-Queisser pour le silicium

La limite de Shockley-Queisser est une limite physique bornant à ≈ 30 % le rendement atteignable par les panneaux solaires photovoltaïques courants (composés de cellules en Silicium à jonction simple).
Ce plafond de verre provient de deux phénomènes :

  • Le panneau photovoltaïque ne valorise pas l’entièreté du spectre d’émission solaire (une partie du rayonnement est systématiquement perdue par transformation en chaleur).
  • La seconde loi de la thermodynamique qui limite le rendement des « machines thermiques » en fonction des températures de la source chaude (soleil) et de la source froide (la cellule).

Actuellement, en fonction des installations et des technologies utilisées, le rendement de cellules se situe en moyenne entre 10 % et 20 % (avec un record en Labo à 26,6 %).

Pour s’affranchir de cette limite, des cellules multi-jonctions voient le jour permettant d’atteindre des plafonds théoriques de l’ordre de 80 % de rendement. Ce type de cellule, en condition laboratoire a déjà dépassé le cap des 40 % de rendement !

Caractéristiques électriques des cellules et des modules photovoltaïques

 

Caractéristiques électriques des cellules et des modules photovoltaïques


Sous un éclairement donné, toute cellule photovoltaïque est caractérisée par une courbe courant-tension (I-V) représentant l’ensemble des configurations électriques que peut prendre la cellule. Trois grandeurs physiques définissent cette courbe:

  • Sa tension à vide : Vco. Cette valeur représenterait la tension générée par une cellule éclairée non raccordée.
  • Son courant court-circuit: Icc. Cette valeur représenterait le courant généré par une cellule éclairée raccordée à elle-même.
  • Son point de puissance maximal: MPP (en anglais : maximal power point) obtenu pour une tension et un courant optimaux : Vopt, Iopt (parfois appelés aussi Vmpp, Impp).

Rem : Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

Actuellement, les cellules présentent des valeurs de l’ordre de 0.5V-3.5A-2.1 Wc.

Raccordement des cellules entre elles

Dans les conditions standardisées de test, la puissance maximale pour une cellule Si (silicium) de 100 cm² (10 sur 10) tourne aux alentours de 1,25 Watt. Cette cellule constitue donc un générateur de très faible puissance, insuffisant pour les applications électriques courantes. Les modules sont donc réalisés par association, en série et/ou en parallèle, de cellules élémentaires. La connexion en série augmente la tension pour un même courant alors que la connexion en parallèle augmente le courant pour une tension identique.
Pour que l’électricité générée soit utilisable pour nos applications électriques, il est donc nécessaire d’associer entre elles un grand nombre de cellules.

Les modules (généralement présentés sous forme de panneaux) sont constitués d’un certain nombre de cellules élémentaires placées en série afin de rendre la tension à la sortie utilisable.
Ces modules sont ensuite associés en réseau (série-parallèle) de façon à obtenir les tensions/courants désirés.

Association en série

Par association en série (appelée « String »), les cellules sont traversées par le même courant et la tension résultante correspond à la somme des tensions générées par chacune des cellules.

Association en parallèle

Par association en parallèle, les cellules sont soumises à la même tension et  le courant résultant correspond à la somme des courants générés par chacune des cellules.

Les caractéristiques globales d’une installation se déduisent donc d’une combinaison des caractéristiques des constituants des ns*np.

Les diodes de by-pass

Il arrive fréquemment que les cellules élémentaires qui composent le module ne présentent pas toutes la même courbe caractéristique au même moment. Les raisons peuvent être multiples : variété inévitable de fabrication, défaillance, différence d’éclairement ou de température (dues par exemple à un ombrage non uniforme du module, un encrassement,…).

Sous certaines conditions, la cellule la plus faible peut alors se comporter comme une cellule réceptrice, dissipant la puissance générée par la cellule la plus forte. Celle-ci peut même être détruite si la contrainte ou la température devient trop importante.

Pour éviter ce phénomène, on place des diodes de by-pass (empêchant tout courant ou tension inverses). Celles-ci sont placées en série lorsque les cellules sont connectées en parallèle et en parallèle lorsque les cellules sont connectées en série.
Les modules aujourd’hui commercialisés comprennent généralement des diodes de protection situées en parallèle des différents strings qui le composent.

L’utilisation de ces by-pass induit néanmoins des perturbations de la courbe caractéristique, modifiant le point de puissance maximal du module :

Pour ne pas induire inutilement ces pertes, il est donc très important que ces diodes de by-pass soient utilisées et placées en cohérence avec les ombres générées par l’environnement du module.

 

Effets photoélectrique et électroluminescent

Effets photoélectrique et électroluminescent


Un matériau semi-conducteur

Un matériau semi-conducteur est un matériau dont la conductibilité électrique peut varier en fonction des conditions dans lesquelles il se trouve.

C’est la mécanique quantique et la théorie des bandes qui permettent d’expliquer ce comportement. Schématiquement, le phénomène peut être représenté de la manière suivante :

Le niveau d’énergie d’un électron d’un atome ne peut prendre qu’un certain nombre de valeurs discrètes. Ces plages sont appelées « bandes d’énergie ». Suivant leur niveau d’énergie, les électrons peuvent soit se trouver dans une bande de valence ou dans une bande de conduction. Dans le premier cas, ils contribueront aux liaisons de l’atome, dans l’autre, à la conductibilité du matériau. Entre ces bandes, il existe des bandes dites « interdites », correspondant aux valeurs énergétiques que l’électron ne peut prendre.

Pour les matériaux conducteurs, cette bande interdite n’existe pas.  Les électrons de liaisons contribuent alors directement à la conductibilité. Pour les matériaux isolants, cette bande est quasi infranchissable tant l’énergie nécessaire est importante. Pour les semi-conducteurs, cette bande interdite est suffisamment petite pour permettre un passage aisé des électrons de la bande de valence à la bande de conduction.

Cette représentation permet d’expliquer la différence de comportement à la chaleur des conducteurs et des semi-conducteurs. Dans un métal, les électrons de valence soumis à la chaleur s’agitent, diminuant la zone conductrice de la bande d’énergie. Pour les semi-conducteurs, une augmentation de la température favorise le passage des électrons situés sur la bande de valence vers la bande de conduction, améliorant la conductibilité de l’atome (diminution de la résistance).

Remarque : le niveau de fermi représente le plus haut niveau d’énergie que les électrons peuvent prendre à une température de 0K.

Il est possible d’augmenter la conductibilité d’un semi-conducteur par un procédé chimique, appelé dopage, qui consiste à insérer des impuretés dans le semi-conducteur.

On réalise ainsi des semi-conducteurs de type n et des semi-conducteurs de type p.

Pour obtenir un matériau de type n, on dope le matériau semi-conducteur (généralement du silicium) avec un élément de valence supérieure (possédant plus d’électrons que le semi-conducteur), comme le phosphore, afin d’ajouter des électrons à la bande de conduction. La conduction est alors assurée par le déplacement de ces électrons.

Pour obtenir un matériau de type p, on dope le matériau semi-conducteur par un élément de valence moins importante, comme le Bore, afin de diminuer le nombre d’électrons de la bande de valence.  La conduction est  alors assurée par le déplacement de porteurs chargés positivement (trous correspondant au manque d’électrons).


Une jonction PN

Une diode électroluminescente ou une cellule solaire photovoltaïque est composée d’une jonction p-n, la couche supérieure étant un matériau de type n et la couche inférieure de type p. Pour fabriquer ces jonctions, on effectue un traitement de surface pour déposer un semi-conducteur de type n sur la surface externe d’un matériau de type p. 

La mise en contact de ces matériaux génère une barrière de potentiel à la base du champ électrique permanent. Cette barrière, appelée zone de déplétion, est formée par recombinaison du surplus de trous et d’électrons des zones p et n remise en contact. Le schéma suivant représente les niveaux d’énergie au voisinage de la jonction :

Si la température d’une telle jonction augmente, les électrons rempliront progressivement tous les états d’énergie, annulant la bande interdite et par là, l’effet de la jonction p-n.


Effet photoélectrique

Historique et principe

L’effet photoélectrique a été découvert par Alexandre Edmond Becquerel en 1839. Il est obtenu par absorption des photons dans un matériau semi-conducteur, lequel génère alors une tension électrique. Les cellules photovoltaïques produisent du courant continu à partir du rayonnement solaire qui peut être utilisé pour alimenter un appareil ou recharger une batterie. (Source : ouverture d'une nouvelle fenêtre ! EF4, facilitateur photovoltaïque).

Le rayonnement solaire est constitué de photons dont l’énergie est décrite par la relation suivante :

E [J] = hv = h . c/λ

Avec,

  • h : constante de Planck.
  • λ : longueur d’onde [m].
  • v : fréquence [Hz].

Quand un photon heurte la cellule, il transmet son énergie aux électrons des semi-conducteurs. Si l’énergie absorbée est suffisante pour permettre le passage de la bande interdite (hv > Egap = Éconduction – Evalence), ces électrons quittent leur bande de valence et entrent dans la bande dite de conduction. Cette émission d’électrons et des trous correspondants (on parle de paires électron-trou) due à l’action de la lumière est appelée effet photoélectrique interne (car les électrons ne sont pas éjectés en dehors de l’atome). Les propriétés physiques du matériau sont alors modifiées et celui-ci devient conducteur (photoconductivité). Si à l’inverse l’énergie du photon n’est pas suffisante, il traverse le matériau sans transmettre d’énergie.

Ainsi, un matériau semi-conducteur dont la bande interdite est comprise entre 0.7 et 0.4 eV est un matériau dit photovoltaïque du spectre solaire.

Le défi est de récupérer la paire électron-trou ainsi générée, car si celle-ci n’est pas récupérée suffisamment rapidement il y a recombinaison entre l’électron et le trou. Pour pouvoir valoriser le potentiel électrique de cet effet, on utilisera la différence de potentiel induite par une jonction pn.

Influence de l’éclairement

L’effet du rayonnement lorsqu’il fournit assez d’énergie (si celle-ci est supérieure à la largeur de la bande interdite) fait apparaître des paires supplémentaires d’électron trou porteur (apparition simultanée d’un porteur n et d’un porteur p) dans la jonction.

Les porteurs p ainsi créés ont tendance à migrer vers le matériau p et les porteurs n vers le matériau n, renforçant la barrière de potentiel. Une partie des porteurs générés par le rayonnement sera elle aussi soumise à divers phénomènes de recombinaison (disparition simultanée d’un porteur n et d’un porteur p).

L’éclairement a deux effets sur le fonctionnement :

Si le système fonctionne en mode récepteur (quadrant III) : la résistance diminue avec l’éclairement, c’est la photorésistance.

Si le système fonctionne en mode générateur (quadrant IV) : le courant « court-circuit » est proportionnel à l’éclairement et la tension à vide est celle de la diode en polarisation directe. C’est la cellule photovoltaïque à jonction PN. C’est sur ce quadrant IV que sont basées les caractéristiques des cellules :

Représentation théorique et équation d’une « cellule idéale ».

Avec,

  • Icc [A] : courant de court-circuit dû à l’éclairement E
  • Vco : tension en circuit ouvert.

Pour créer un courant, on place des électrodes sur chacun des matériaux et on les relie par un circuit électrique. Ces raccordements et leur fabrication provoqueront des effets résistifs parasites qui différencieront les caractéristiques réelles des cellules de ce comportement théorique.

Théories

Pour en savoir plus sur les caractéristiques des cellules.


 Effet électroluminescent

Historique

H.J. Round fut le premier à observer une émission de lumière par un semi-conducteur en 1907. La diode électroluminescente était née. C’est, en quelques sortes, l’inverse de l’effet photoélectrique qui caractérise les cellules photovoltaïques. Utilisée dans les LEDs, cette technologie n’a pas cessé de s’améliorer tant au niveau de l’étendue de la gamme de couleurs qu’à l’explosion des domaines d’application comme la signalisation et l’éclairage de puissance.

Principe

Lorsqu’on soumet une jonction PN à une source électrique à courant continu, la jonction présente un comportement différent si elle est soumise à une différence de potentiel dans le sens direct ou dans le sens inverse.

La polarisation directe de la jonction (en respectant les bornes) provoque un abaissement de la barrière de potentiel et permet un passage important d’un courant appelé courant de diffusion et dû aux porteurs majoritaires. La présence de ce courant de diffusion déséquilibre le système et aboutit à une croissance de la population des porteurs minoritaires dans chaque zone. Si la tension de polarisation directe est suffisante, la probabilité de recombinaison radiative n’est plus négligeable et des photons sont produits par la recombinaison dans la jonction.

À titre indicatif, la polarisation inverse provoque un renforcement de la barrière de potentiel (élargissement de la zone de déplétion par recombinaison) et un courant dû aux porteurs minoritaires (trous dans le type n et électrons dans le type p). Ce courant, très faible, varie peu en fonction de la tension.

Cette caractéristique est à la base des diodes, composant électronique qui ne permet le passage de courant que dans un sens.

Ce schéma montre la relation  typique entre l’intensité du courant et le potentiel d’un tel composant :

Couleur émise

La longueur d’onde λ, soit la couleur de la lumière émise, dépend du fameux saut d’énergie :

Egap = h.c / λ.

Avec,

  • h : constante de Planck
  • c : vitesse de la lumière
  • λ : longueur d’onde [m].

Liée aux matériaux et au taux d’impuretés de la diode, la lumière émise est quasi monochromatique, ce qui signifie que la couleur émise sera saturée.

Chaque recombinaison n’est pas radiative : il n’y a donc pas d’émission de photon à tous les coups, ce qui réduit l’efficacité de la Diode électroluminescente. Il est donc nécessaire pour les fabricants d’allier des matériaux et des moyens de conception qui permettent d’optimiser le rendement radiatif. Pour l’éclairage, les fabricants ont donc dû faire appel à leur imagination pour améliorer la performance de la jonction : on parle d’hétérojonctions multiples pour les LED de puissance contre des homojonctions pour les LED classiques de basse puissance.

Combustion du bois

Date : 17/02/2010

Auteur : Laurent G.

Notes :

  • mise en page – 1er passage, Sylvie 08.2010 (liens, mise page, Antidote).

Produits de la combustion

On peut commencer par des remarques générales sur les produits de combustion. Ensuite, les spécificités du bois-énergie sont introduites.

Émission de C02 et cycle du carbone

Le bois-énergie, par exemple les bûches ou les pellets, est une énergie renouvelable. Le CO2 qui est libéré durant la combustion correspond à la quantité de CO2 prélevée par le végétal à l’atmosphère durant sa vie. Ce processus de capture est opéré par la photosynthèse. Sur un cycle complet de vie, le bilan de la combustion du bois est donc nul : le CO2 est prélevé dans l’atmosphère pour ensuite lui être restitué par la combustion du bois mort. En effet, si l’Homme n’avait pas brûlé ce bois, il se serait décomposé naturellement et aurait de toute manière libéré la même quantité de CO2 dans l’atmosphère. L’impact en termes d’émission de gaz à effet de serre (GES) est donc théoriquement neutre dans la mesure où le cycle de vie du bois est relativement court. On comprend dès lors tout l’intérêt de promouvoir ce type d’énergie.

Illustration du cycle du Carbone : bilan équivalent entre le décomposition du végétal dans la nature et sa combustion.

Comme nous venons de l’évoquer, le bois-énergie a globalement un effet positif pour réduire notre émission de GES. Il faut veiller à valoriser ce potentiel et de ne pas le dégrader. En effet pour que l’impact positif sur l’environnement soit réel, il faut que :

  • La forêt soit gérée de manière durable ;
  • l’énergie fossile dépensée pour la gestion, le transport et le conditionnement du bois-énergie soit minimisée.

Sur base des chiffres de l’année 2010 et en considérant les filières d’approvisionnement standards pour les applications domestiques, on peut approximativement compter que pour 1 kWh de bois-énergie, il faut 0.2 kWh d’énergie fossile pour des pellets et 0.1 kWh d’énergie fossile pour des bûches. En conclusion, l’impact en termes d’émission de GES n’est pas totalement nul, mais reste de loin meilleur que pour les énergies fossiles traditionnelles.

Émission de gaz nocifs et de particules fines

Comme toute combustion, il reste l’émission d’H2O à l’état gazeux, de NOx et de SOX. Il faudra être tout aussi vigilant à respecter les normes d’émission pour le bois-énergie que pour le gaz, le charbon ou le mazout. De manière générale, une bonne combustion du bois génère peu de SOx, le bois contenant initialement peu de soufre comparé par exemple au fioul. En ce qui concerne la formation de NOx, elle comparable au fioul et au gaz lorsque le bois est brûlé de manière efficace.
Néanmoins, les caractéristiques mécaniques et thermo-chimiques du bois qui interviennent lors de la combustion sont particulières et plus délicates que les vecteurs énergétiques classiques (c’est-à-dire le gaz naturel ou mazout). Par conséquent, obtenir une combustion efficace est moins évident à atteindre. Quand la combustion est sous-optimale, une série de gaz nocif supplémentaire est émise lors de la combustion. Une mauvaise combustion peut être obtenue si la température de la combustion est trop basse, notamment dû à un taux d’humidité trop élevé du bois, si la quantité d’air de combustion est insuffisante ou si le temps de contact entre l’air et le combustible est trop court. Ces problèmes peuvent être évités en travaillant avec des chaudières ou poêles modernes, bien dimensionnés, et un combustible avec un taux d’humidité acceptable.
En termes d’émission nocive, on trouve les composés organiques volatiles (COV), en particulier, le benzène, les hydrocarbures aromatiques polycycliques (HAP), les dioxines et les furannes. En outre, les fumées peuvent contenir du goudron et du charbon. Le goudron peut venir se condenser sur les parties froides de l’installation et venir l’encrasser : l’échangeur thermique de la chaudière ou la cheminée. La combustion du bois est particulièrement émettrice de particules très fines, de diamètre aérodynamique inférieur à 1µm, très néfastes pour la santé, car susceptibles d’être inhalées. L’étanchéité de l’installation est donc primordiale.
Le but de cette section n’est pas de faire le point sur l’émission de la combustion du bois-énergie. Néanmoins, on peut dire que qualitativement, ces émissions nocives sont d’autant plus faibles que la combustion s’opère dans les meilleures conditions. Par conséquent, il est important de promouvoir les appareils de combustion les plus performants et un combustible de qualité (c’est-à-dire un taux d’humidité acceptable). Dans ces conditions, l’impact sur l’environnement et sur les occupants est maîtrisé.

Minéraux et production de cendres

Les minéraux contenus dans le bois sont à l’origine de la production de cendres lors de la combustion.
La température de fusion des cendres, c’est-à-dire à laquelle elles passent de l’état solide à l’état liquide, dépend de leur composition. Il faut que la température à laquelle s’opère la combustion reste inférieure à cette température de fusion des cendres. En effet, il faut éviter que celles-ci ne coulent et viennent se solidifier sur des équipements du foyer (phénomène de vitrification). Les appareils de combustion modernes sont conçus pour répondre à cette contrainte.
Lors de la combustion du bois, des cendres dites « volantes » sont présentes dans les fumées. Elles ne constituent pas un polluant dans la mesure où il s’agit des minéraux initialement stockés dans le bois qui retournent à la nature. Néanmoins, il faut veiller à ne pas les inhaler dans la mesure où leur diamètre leur permet de se fixer dans les poumons. L’étanchéité de l’installation est donc primordiale.
Retirer les cendres, le « décendrage », demande une certaine manutention. La fréquence de nettoyage dépend essentiellement de la consommation et du volume du cendrier. On peut citer des périodes de quelques semaines à quelques mois pour le chaudières domestiques.
À noter que dans certaines conditions, les cendres sont des polluants. C’est le cas lorsqu’on brûle du bois de démolition qui est couvert d’enduits ou des végétaux qui ont absorbé des minéraux d’un sol pollué. Ce sont des éléments exogènes au bois qui génèrent des produits dangereux pour l’homme et l’environnement. Les équipements, notamment les filtres, doivent être adaptés à ce type de bois.

Quantité d’air nécessaire

On peut commencer par des remarques générales sur la quantité d’air nécessaire pour ensuite introduire les spécificités du bois-énergie.

L’excès d’air

L’alimentation en air pour la combustion du bois possède des propriétés similaires, mais aussi spécifiques. L’excès d’air a toujours pour vocation d’assurer un taux d’oxygène suffisant dans chaque zone du foyer. À défaut de la quantité requise, la combustion est incomplète et génère des imbrûlés ainsi que des gaz nocifs.
À l’opposé, un excès d’air trop important engendre une dilution des fumées, ce qui engendre un abaissement de la température et par conséquent des pertes à la cheminée plus importantes (vu que la récupération de chaleur par la chaudière sera moins efficace). En outre, une température trop basse peut aboutir à une mauvaise combustion. Il faut donc contrôler soigneusement l’excès d’air pour une bonne combustion : ni trop faible, ni trop important.
Typiquement, on trouve des excès d’air de 50 % pour les chaudières domestiques, soit une valeur plus élevée que pour la combustion du gaz naturel ou du fioul (approximativement 20%).

L’air primaire et secondaire

Dans le cas du bois, la combustion s’opère essentiellement en deux phases. C’est ce qui nous a amenés à développer une section spécifique pour ce vecteur énergétique. Nous ne développerons pas ici les différents processus thermo-chimiques qui ont lieu dans ces deux étapes. Cela risquerait d’alourdir inutilement le propos.
Ce qui est important de retenir, en termes d’alimentation en air de combustion, est que ces deux étapes nécessitent toutes deux une certaine quantité d’air. On parlera de l’air primaire et de l’air secondaire. Ces deux apports peuvent s’opérer dans des zones distinctes du foyer ou au travers d’un seul flux d’air (auquel cas, il jouera le rôle à la fois d’air primaire et secondaire). Les chaudières, voire les poêles (pour des applications domestiques), les plus performantes ont une amenée d’air spécifique pour l’air primaire et secondaire. Le foyer peut même être conçu pour que les deux phases de combustion s’opèrent dans des zones physiquement séparées.

Illustration du concept d’air primaire et secondaire pour la combustion du bois.

Le pouvoir calorifique du bois

Avant d’introduire des spécificités du bois-énergie, on peut consulter les notions générales de pouvoir calorifique sur la page précédente. On y avait défini le pouvoir calorifique par unité de masse pour des combustibles purs. Cela s’applique particulièrement bien aux combustibles gazeux ou liquides comme le gaz naturel et le mazout. La conversion en PCI par unité de volume, c’est-à-dire par litre ou par m³, est assez aisée.
Le pouvoir calorifique du bois par unité de volume dépend, quant à lui, de certaines caractéristiques du bois. Cette valeur n’est donc pas constante. Il s’agit essentiellement de l’influence des éléments exogènes que le bois contient (de la quantité d’eau et de minéraux), ainsi que de sa masse volumique. Toujours dans le cas du bois, c’est bien le PCI exprimé par unité de volume qui nous intéresse. En effet, mis à part certains types de conditionnement comme les pellets, on achète le bois par unité de volume : par m³ ou par stère. Il est donc vital de connaître le contenu énergétique de ce que l’on achète et donc d’un volume de bois.
Pour obtenir cela, notre raisonnement part du PCI par kg de bois pur. On introduit ensuite la diminution du pouvoir calorifique induite par la teneur en eau et en minéraux. On passe ensuite au pouvoir calorifique par unité de volume par l’introduction de la masse volumique qui dépend de l’espèce de bois. Quand vous achetez un m³ de bois, il existe entre les différents constituants du tas (des bûches, des pellets ou des plaquettes) des vides. Bien évidemment, ces vides contiennent de l’air et n’ont aucun pouvoir énergétique. Il faut donc déduire le nombre de m³ de bois plein contenu dans un m³ de votre tas pour connaître le PCI réel.

Humidité du bois

Le bois contient deux formes d’humidité :

  • L’humidité intrinsèque : c’est l’eau qui est intégrée, liée à la structure moléculaire du bois. Cette quantité est déterminée par des laboratoires. Elle se traduit notamment pas des valeurs différentes pour la composition chimique générique du combustible, CHyOx.
  • L’humidité extrinsèque : c’est l’humidité qui dépend des conditions climatiques. Plus précisément, le bois peut contenir des molécules d’eau entre ces fibres sans pour autant l’intégrer à sa structure moléculaire. Il peut s’agir de la sève que contient un bois vert ou de l’humidité induite par les conditions climatiques (pluie ou humidité de l’air).

Cette dernière quantité nous intéresse dans la mesure où elle peut varier au cours du temps avec la diffusion de l’eau vers l’atmosphère, si celui-ci est plus sec que le bois. Cela explique pourquoi on met sécher le bois à l’abri avant son l’utilisation : cela permet de diminuer sa teneur en eau extrinsèque.
Il y a deux manières d’exprimer la quantité d’eau extrinsèque du bois. D’abord, on exprime l’humidité relative soit en kg d’eau par kg de bois sec (sous l’abréviation DM pour « dry matter »), soit en kg d’eau par kg de bois humide (sous l’abréviation FM pour « fresh matter ») :

Humidité relative matière sèche :  [H2O]DM = kgeau / kgbois,anhydre

Humidité relative matière humide :  [H2O]HM = kgeau / kgbois,humide

État du bois Humidité relative (FM)
Bois vert 50 %
Bois séché à l’air et à l’abri pendant 1 an 30 %
Bois séché à l’air et à l’abri pendant 2 ans 20 %
Bois anhydre 0 %

Teneur en cendres

Si le bois contient beaucoup de minéraux, ceux-ci vont être à la source de cendres. On peut exprimer leur teneur par rapport à la masse brute du bois, contenant à la fois de l’humidité extrinsèque et des minéraux :

Bois brut = bois avec une certaine quantité d’humidité exogène et de minéraux

[Ce]brut = kg minéraux par kg de bois brut = kgminéraux/kgbois,brut

[H2O]brut = kg eau par kg de bois brut = kgeau/kgbois,brut

Influence sur le PCI par unité de masse

  • Si on considère un bloc de bois anhydre (c.à.d. sans eau) sans impuretés (c’est-à-dire de minéraux), sa composition sera proche de la valeur évoquée dans la formule définie pour les combustibles purs, c’est-à-dire CH1.44O0.66, il présentera alors un PCI de 18 400 kJ/kg. Cette valeur ne dépend donc pas de l’essence du bois. La valeur est la même pour 1 kg d’épicéa sec et pur que pour 1 kg de chêne sec et pur.
  • Si on considère l’influence de l’humidité extrinsèque et de la présence de minéraux, il voit diminuer le PCI par kg de bois brut (c’est-à-dire contenant à la fois de l’humidité et des minéraux). D’un coté, on aura simplement moins de bois pur et sec par kg de bois brut (effet de dilution). Et d’un autre coté, l’eau extrinsèque utilisera une partie de l’énergie contenue dans le bois pur et sec pour se vaporiser (effet de vaporisation). Cela peut se chiffrer de manière simple en kJ par kg de bois brut (c.à.d humide avec minéraux) :

PCIbrut = (1 – [Ce]brut – [H2O]brut) 18 400 – 2 501 [H2O]brut   en [kJ/kgbrut]

De nouveau, le résultat est identique quelque soit l’essence de bois considéré. À titre d’exemple, si on prend un bois avec peu de minéraux, faisons l’hypothèse que [Ce]brut est nul. Avec 50 % d’humidité relative, ce qui est un bon ordre grandeur pour un bois vert, on trouve un PCIbrut de 7 950 kJ/kg de bois vert. On est de loin inférieur au 18 400 kJ/kg du bois anhydre (sans humidité extrinsèque).

Sur base de cette constatation, l’intérêt d’utiliser du bois sec est évident. Cela explique l’intérêt de mettre sécher du bois avant son utilisation. Lors d’un achat de bois, le teneur en eau est donc un paramètre important. Sur le marché, le bois séché est d’ailleurs plus cher qu’un bois plus humide.

Influence sur le PCI par unité de volume

Comme évoqué ci-dessus, on ne fait pas de distinction entre les essences de bois. En effet, les résultats sont aussi bien valables pour du chêne, du hêtre que pour du sapin. Pourtant, l’expérience de tous les jours nous apprend qu’il faut faire attention à l’essence du bois lorsque l’on « fait du feu » ou lorsque l’on achète du bois. Cela semble en contradiction par rapport à ce qu’il a été évoqué. Où est l’astuce ?

L’astuce tient au fait que vous n’êtes pas vraiment intéressé par le pouvoir calorifique de votre bois par unité de masse [kJ/kg] mais bien par unité de volume [kJ/m³].

En effet, votre poêle ou chaudière fait un certain volume. Vous pouvez dès lors placer un certain volume de bois dans cet espace. En ce qui concerne la masse que vous y placez, vous n’avez pratiquement aucun contrôle. C’est avant tout le volume de bois qui est déterminant. En outre, vous n’achetez souvent pas du bois par kg ou tonne mais bien en fonction du volume. Nous aurons l’occasion de revenir sur ce dernier point à la section suivante parce qu’il appelle à un complément d’information.

En fait, la masse volumique du bois, c’est-à-dire le nombre de kg par m³, varie fortement entre les différentes essences. Du coup, dans un même volume de bois, vous n’avez pas le même potentiel énergétique pour toutes les essences. Voilà l’astuce ! Le PCI par m³ varie en fonction des essences et pas le PCI par kg.

Masse volumique de différentes essences (source Valbiom)

Masse volumique [kg/m³] Bois vert (frais, HR : 40-60 %) Bois sec à l’air (18 mois, HR : 25-30 %) Bois anhydre (0 % d’eau)
Chêne 1 000 750 625
Hêtre 980 750 625
Epicéa 760 450 400
Douglas 550 460
Sapin pectiné 970 550 46

Influence sur le PCI du volume apparent

Pour conclure l’analyse, il y a encore une nuance à apporter et non la moindre. Quand vous achetez du bois, vous n’achetez pas des blocs homogènes de matière.
En gros, vous achetez des tas ou des agglomérats : des tas de pellets, de plaquettes ou de bûches. Entre les différents éléments constituants du votre tas (des pellets, des plaquettes ou des bûches) vous avez des vides. Et donc quand vous achetez 1 m³ de votre tas, vous n’avez pas 1 m³ de bois plein ! Cette distinction nous permet d’introduire la notion de volume apparent.

Evolution du volume apparent pour une même quantité de  bois en fonction de la taille de la découpe (qui influence la quantité de « vides » entre les bûches).

Le volume apparent, c’est le volume de votre tas qui contient un certain volume de bois plein et un certain volume des vides entre ces différents éléments. Pour un empilement donné, le coefficient d’empilage (CE) est le rapport entre le volume de bois plein et le volume du tas :

Coefficient d’empilage (CE) = m³bois plein/m³apparent,

PCI par m³apparent = CE x masse volumique x PCIbrut,

On peut donc en conclure que le PCI par m³ apparent est influencé par l’essence du bois au travers de la masse volumique et par l’empilement. Le PCI par kg dépend quant à lui du taux d’humidité et de cendres.
Suivant le conditionnement (plaquettes, bûches ou pellets), on trouve des terminologies différentes concernant la notion de volume apparent (par exemple, « stère » pour les bûches ou « map » pour les plaquettes). Ces différences sont introduites dans les pages spécifiques à chaque conditionnement. Néanmoins, derrière ces différents vocables se cache toujours la même idée.

Ressources du vent et éoliennes

Ressources du vent et éoliennes

Photographie issue de la banque d’images de la Région wallonne.


Généralités

Une éolienne convertit l’énergie cinétique du vent en travail moteur, qui, sauf exception, sera converti en électricité. Pour assurer la rentabilité de l’implantation d’une éolienne, il est nécessaire de pouvoir évaluer le potentiel de vent dont on dispose sur un site particulier. Il s’agit, in fine, de l’énergie de base sans laquelle le projet n’aura pas de sens.

Dans la section sur rendement des éoliennes, les concepts de puissance instantanée du vent, l’énergie du vent ainsi que la distribution du vent ont été introduits. Dans cette page, nous allons voir comment ces notions indispensables à l’évaluation du rendement et des performances d’une éolienne sont reliées à l’évaluation des ressources du vent (ou potentiel de vent).

L’objectif n’est pas de donner un petit cours sur le vent, ses origines et les différents types de phénomènes météorologiques rencontrés. Il est plus prudent de s’en référer à la littérature ou à des sites spécialisés dans ce domaine. En effet, la physique rencontrée est complexe, il nous semble dangereux de simplifier les propos (seuls des spécialistes en météorologie semblent compétents pour réaliser une telle tâche). Par contre, nous allons plutôt nous focaliser sur l’interface entre notre éolienne et le vent, en d’autres termes, introduire des aspects spécifiques du vent qui sont en relation directe avec une exploitation efficace d’une éolienne.


Propriété du vent : continuité dans le temps et l’espace

C’est un titre un peu pompeux. Le message à faire passer est relativement simple, mais très important : pour comprendre le potentiel et le comportement du vent en un point donné du globe, en l’occurrence à l’endroit où vous voulez implanter une éolienne, vous devez tenir compte de phénomènes physiques à la fois locaux et globaux (au niveau de l’espace), à la fois courts et de plusieurs années (au niveau de l’échelle de temps). Le comportement de votre vent sur votre site dépend de l’interaction de phénomènes à des échelles de plusieurs milliers de kilomètres à quelques mètres, à des échelles de quelques années à quelques secondes. C’est ce qui rend l’étude du vent et la météorologie extrêmement complexe. Il suffit de suivre les prévisions météo sur plusieurs  jours et de les comparer à la réalité pour s’en convaincre. Tenter de comprendre le vent uniquement sur base de phénomènes locaux ou uniquement globaux aboutit inéluctablement à des erreurs significatives. Il en va de même pour l’évolution dans le temps.

Par conséquent, il est difficile d’évaluer le potentiel. Le nombre de méthodes pour y arriver est relativement limité.

Potentiel du vent : mesure in situ

La méthode la plus sûre est de simplement réaliser des mesures de la vitesse du vent « in situ ». On insiste bien sur le terme « in situ ». Il s’agit bien de vérifier localement ce qui se passe et pas de tenir compte d’une station météorologique voisine. Dans le cas des mesures, on constate et on analyse le potentiel de vent dont on dispose. Il n’est même pas question de comprendre les phénomènes physiques qui sont à la base de ce comportement. À noter que ces mesures se font en haut d’un mât qui est à une hauteur représentative de la future éolienne, au moyen d’un anémomètre.

Potentiel du vent : simulations par logiciel

On peut réaliser des simulations au moyen d’ordinateurs qui permettent de calculer des modèles atmosphériques. Il s’agit d’une approche complexe réservée à des spécialistes.  C’est pourquoi cette tâche est souvent sous-traitée. Néanmoins, il faut savoir que ces méthodes tiennent compte à la fois des phénomènes globaux et locaux (parfois jusqu’à 100-250 m) pour évaluer le potentiel du vent pour un site donné. Pour compléter l’analyse, il reste des phénomènes encore plus localisés (inférieurs à 100-250 m) qu’il faut intégrer de manière indépendante. De même, le comportement est modélisé sur une base de temps de quelques minutes pour accumuler plusieurs années. Attention, il s’agit du temps du modèle. En réalité, ces simulations par ordinateurs ne prennent que quelques minutes voire quelques heures pour les plus précises. Cela montre tout l’intérêt : on peut connaître en quelques heures ce qui va se passer en moyenne sur plusieurs années. On peut citer la société wallonne ouverture d'une nouvelle fenêtre ! ATM-PRO située à Nivelles qui s’est spécialisée dans les logiciels environnementaux, notamment pour évaluer le potentiel de vent.

Les échelles de temps

Le vent en un point donné est sujet à des fluctuations dans le temps. Ces variations peuvent avoir plusieurs échelles. Il peut s’agir de fluctuations de quelques secondes, comme des bourrasques, de variations de quelques minutes ou le long de la journée, de fluctuations induites par l’alternance jour-nuit, par les saisons voire des variations de comportement entre les années. En outre, dans ces considérations, on n’a même pas encore parlé des fluctuations de vitesses induites par la turbulence.

Par avoir une évaluation fiable de la vitesse moyenne ainsi que sa variance en un point, il faut compter une dizaine d’années de mesure. Bien évidemment, on ne dispose pas toujours d’un intervalle de mesure aussi long. De plus, pour valider le potentiel d’un site, on n’a souvent pas envie d’attendre si longtemps. Il faut alors trouver une méthode pour pouvoir obtenir le comportement du vent sur base d’une période de mesure beaucoup plus courte. On parle d’un minimum de quelques mois à une année complète. C’est à ce stade que les fonctions de distribution statistiques interviennent. Elles permettent sur base de données lacunaires de reconstruire le comportement global. En fait, derrière cela, on a fait une hypothèse sur l’évolution globale du vent, d’où le nom d’approche « statistique », mais elle semble être bien validée pour nos contrées.

Les échelles d’espace

L’origine du vent vient d’un niveau d’ensoleillement et d’un niveau d’absorption qui varient selon l’endroit du globe. L’équateur est plus chaud que les pôles. Cela génère une différence de pression le long de la surface de la terre qui met les masses d’air en mouvement dans les couches inférieures de l’atmosphère (troposphère). On appelle cela des cellules convectives. On se situe donc à un niveau global de plusieurs centaines voire des milliers de kilomètres.

A coté de ces phénomènes globaux, les propriétés géographiques locales sont susceptibles de générer des variations par rapport aux mouvements globaux. Ces variations interviennent sur des échelles de plusieurs centaines de kilomètres à quelques dizaines de mètres. In fine, on trouve des variations très localisées, comme la présence d’un bâtiment isolé qui influence l’écoulement dans son voisinage, mais qui seul ne modifie pas la topologie de l’écoulement dans sa région.

On rencontre parfois des atlas de potentiel de vent qui donnent la vitesse de vent à divers endroits du globe, voire sur une région donnée. Ces atlas ne tiennent pas compte des particularités locales (c’est-à-dire d’obstacles comme des immeubles et du relief local). Ils donnent une bonne idée du potentiel d’une région ou d’une zone, ce qui peut être intéressant pour la mise en œuvre d’une politique globale concernant l’éolien dans la région concernée. Néanmoins, les atlas ne permettent pas la sélection d’un site particulier pour l’implantation d’une éolienne. Comme évoqué ci-dessus, c’est dû au fait que la méthode ne tient pas compte de spécificités locales, spécificités qui ont un impact majeur sur le potentiel du vent. En conclusion, on verra les atlas comme de bons indicateurs globaux. Avoir un bon niveau de vent dans un atlas est plutôt une condition nécessaire que suffisante.

À titre d’illustration, une vue globale de l’atlas européen des vents développé par le laboratoire national danois RISO. Il considère cinq niveaux de ressource différents définis en fonction de la vitesse moyenne du vent ainsi que le type de topographie.


Influence du terrain

On met l’accent sur des caractéristiques plutôt localisées (de quelques mètres à quelques kilomètres) dans la mesure où ce sont des éléments qui peuvent être pris en compte lors de la conception d’un projet éolien. En effet, au-delà d’une certaine échelle de vent, les actions possibles qui peuvent être entreprises par un concepteur n’ont aucune influence sur ces grande échelles alors qu’il peut faire des choix d’emplacement sur un site en fonction de caractéristiques locales du vent pour optimiser son implantation.

Distinction entre terrains plat et non plat

Illustration du concept de terrain plat et non plat.

Un terrain est non-plat quand les effets du terrain sur l’écoulement de l’air sont significatifs. On peut prendre l’exemple d’une colline ou d’une vallée. À l’opposé, le terrain est considéré comme plat quand il contient de petites irrégularités (par exemple, des haies). Il est difficile d’établir une règle précise pour différencier les deux types de terrain. Voici une proposition rencontrée dans la littérature :

  • Le rapport maximum entre la hauteur d’une irrégularité et sa longueur ne peut dépasser 1/50 dans un rayon de 4 km en aval de l’éolienne. En gros, cela favorise les collines à faible pente.
  • Le point le plus bas du rotor doit être au moins trois fois plus haut que la plus haute irrégularité sur le terrain dans un rayon de 4 km en aval de l’éolienne.

Écoulement sur un terrain plat avec des obstacles

Illustration de la zone d’influence sur l’écoulement d’un obstacle.

Il peut s’agir d’obstacles naturels comme une rangée d’arbres ou des haies, voire d’obstacles érigés par l’homme comme un ou des immeubles.
Un obstacle est un objet :

  • dont la zone d’influence sur l’écoulement (en d’autres termes, la région qu’il perturbe) rentre en contact avec l’éolienne. La figure ci-dessus décrit la forme caractéristique de cette région d’écoulement fortement perturbé ainsi que ses longueurs typiques. On voit que l’écoulement est perturbé sur une vingtaine de fois la hauteur de l’obstacle en aval, mais l’objet perturbe aussi le vent en amont. À noter aussi que la zone perturbée se développe à une hauteur typiquement deux fois plus importante que l’obstacle. Dans cette zone, le vent est fortement fluctuant, tant en amplitude qu’en direction. Dans la mesure du possible, il est souhaitable de placer son éolienne à l’extérieur de la zone d’influence d’un objet.

En fait, sur base de cette définition, un obstacle est un objet capable de perturber significativement l’écoulement qui va venir rencontrer le rotor de l’éolienne. Il y a  bien deux conditions, une sur la longueur, une autre sur la hauteur. Premièrement, la zone d’influence de l’objet sur l’écoulement peut atteindre l’éolienne. Par exemple, si un petit immeuble isolé se trouve à plusieurs centaines de mètres d’une grande éolienne, il n’aura guère d’influence sur la nature du vent que le rotor de cette éolienne rencontrera. Il est trop loin.  Deuxièmement, l’obstacle doit avoir une hauteur comparable à la taille de l’éolienne. Imaginons un homme ou un tracteur se déplaçant sur le terrain d’une grande éolienne, on comprend rapidement que cela n’aura pas d’influence sur le comportement aérodynamique de l’éolienne.

Écoulement sur un terrain non plat avec de petites caractéristiques

Lorsque l’on se trouve sur un terrain non plat, on a des effets d’accélération et de décélération. Il faut donc veiller à placer l’éolienne dans une zone d’accélération par rapport à la direction dominante du vent.


La vitesse et la hauteur

Lorsque l’on réalise une mesure de la vitesse du vent, il faut toujours indiquer à quelle hauteur au-dessus du sol cette mesure a été effectuée. Imaginons que vous essayez d’estimer le potentiel éolien existant sur un terrain donné, plus particulièrement à un emplacement donné de ce terrain. Vous réalisez une campagne de mesure durant laquelle vous placez un mât de mesure qui fait 20 m de hauteur. Et bien, les vitesses de vent que vous allez rencontrer à cette hauteur sont différentes de ce que vous mesureriez à 30 ou 50 m.

Cette caractéristique est assez importante dans la mesure où, en début de projet, vous ne connaissez pas encore la hauteur du mât à laquelle vous allez placer votre éolienne. Du coup, vous ne savez pas à quelle hauteur il y a lieu de réaliser votre mesure. En fait, c’est exactement la situation opposée : vous réalisez une campagne de mesure pour savoir à quelle hauteur vous devez placer votre éolienne.

Quel phénomène physique se cache derrière tout cela ? Dans le jargon de la mécanique des fluides, on appelle ce phénomène une couche limite. Parler de ce phénomène est relativement complexe et lourd, c’est pourquoi nous allons simplifier grandement son explication pour introduire les conclusions d’intérêt pour notre développement.

Si l’on se place à une certaine hauteur au-dessus du sol, le vent possède une certaine vitesse que nous appellerons Vr (pour vitesse de référence). Au niveau sol, c’est-à-dire l’air qui touche le sol, la vitesse du vent est nulle. Ce phénomène est induit par la viscosité de l’air. La vitesse du vent va donc progresser de zéro au niveau du sol à la vitesse Vr que nous avons mesurée à une certaine hauteur.  Cette progression entre ces deux vitesses se fera de manière plus ou moins régulière, avec des augmentations voire des diminutions locales de vitesse, suivant l’historique du vent, c’est-à-dire les obstacles que le vent a rencontrés avant d’arriver au point que l’on analyse ainsi que les modifications qu’il a subies.  En outre, la rugosité du sol a une influence sur l’évolution de la vitesse en fonction de la hauteur. En d’autres termes, la vitesse ne progresse pas de la même manière suivant que le sol soit en gazon ou recouvert de plantations. On pourrait croire que c’est complètement farfelu, voire improbable, mais il est possible de la justifier physiquement, ce que nous ne ferons pas, et l’expérience le prouve clairement.

L’évolution peut être très complexe et, de manière générale, il n’existe aucune méthode simple pour pouvoir prédire cette évolution de la vitesse en fonction de la hauteur. Si on ne peut extrapoler la vitesse mesurée à une autre altitude, il faut alors réaliser la mesure à une hauteur proche de ce que sera la future éolienne.

Heureusement, le comportement du vent se simplifie un peu dans certains cas particuliers. Et c’est souvent dans ces configurations particulières que l’on placera une éolienne. Du coup, des solutions pour déduire le vent à différentes hauteurs existent.

Terrains plats et homogènes : les lois de puissance

Lorsque le sol ne présente pas de variations de relief importantes comparées à la hauteur de la future éolienne et ce, dans un rayon de plusieurs dizaines de fois cette hauteur, on peut qualifier ce terrain de « plat« . L’évolution de la vitesse de vent au voisinage du sol évoluera de manière relativement lente et progressive au fur et à mesure que le vent parcourt le terrain.

Cette évolution restera progressive si la couverture de sol, essentiellement sa rugosité, n’évolue pas dans cette zone de rayon de plusieurs dizaines de fois la hauteur. On dira que le terrain est « homogène« .

Si l’éolienne se situe sur un terrain plat, homogène et sans obstacle alors le vent évolue de manière progressive sans être perturbé. Il rentre alors dans un régime plus standard dans lequel des lois permettent de déduire l’évolution de la vitesse en fonction de la hauteur. Et encore, il ne s’agit pas de n’importe quelle vitesse, mais d’une vitesse moyenne. Cette moyenne n’a rien avoir avec les moyennes introduites aux sections précédentes qui se réalisaient sur des périodes de plusieurs mois voire un an. Il s’agit maintenant de considérer des moyennes sur des échelles de temps de quelques minutes. En effet, le vent est de nature turbulente si bien que la vitesse fluctue de manière continuelle autour d’une certaine moyenne.  De manière très simplifiée, on peut dire que la turbulence ajoute un certain bruit de fond à l’évolution temporelle de la vitesse. Ce que les lois simplifiées proposent d’évaluer ici est l’évolution de la moyenne de la vitesse (où les fluctuations induites par la turbulence ont été filtrées) en fonction de la hauteur au dessus du sol. On peut illustrer cette distinction avec les deux figures ci-dessous, la première montrant un champ instantané et la seconde la moyenne.

     

Comparaison entre la visualisation expérimentale d’une couche limite turbulente comprenant un grand nombre de fluctuations (première figure) et l’évolution de la vitesse moyenne en fonction la hauteur (seconde figure). Les règles que l’on donne ici concernent uniquement l’évolution de la vitesse moyenne avec la hauteur pour les terrains plats, homogènes et sans obstacles.

La plus connue est la loi de puissance. Son fondement théorique est souvent mis en question, mais cette approche s’avère souvent utile sur le terrain ou dans les applications de l’ingénieur. Si on mesure à la hauteur de référence, hr, une vitesse, Vr, on peut déduire la vitesse V(h) rencontrée à une autre hauteur, h :

V(h) = Vr*(h/hr)α,

le seul paramètre à fixer étant le coefficient « α », dit coefficient de cisaillement. En fait, celui-ci dépend essentiellement de la rugosité du sol (ou de la couverture du sol si vous préférez) :

Terrain Exposant de cisaillement du vent, α
Glace 0.07
Neige sur terrain plat 0.09
Mer calme 0.09
Gazon coupé 0.14
Gazon court type prairie 0.16
Gazon long type cultures céréales 0.19
Haies 0.21
Arbres et haies clairsemés 0.24
Arbres et haies plus denses 0.29
Banlieue 0.31
Forêt 0.43

Exposant de cisaillement du vent en fonction de la rugosité du sol (pour une hauteur de référence de 10 m).

Puissance du vent et hauteur

Prenons pour exemple un terrain avec du gazon coupé caractérisé par un coefficient « α » de 0.14. Si on réalise une mesure, une vitesse de 5 m/s à une hauteur de 10 m, alors la vitesse du vent à 20 m sera de 5*(20/10)0.14 soit de 5.5 m/s, une augmentation de 10 %. Comme on sait que la puissance du vent dépend du cube de la vitesse, on a Pv(h) = Pv(hr)*(h/hr). La puissance aura, elle, augmenté de 34 %. Si on augmente la hauteur du mât d’un facteur 5, c’est-à-dire en le plaçant à 50 m, alors la vitesse augmente de 25 % et la puissance du vent double. Cela met clairement en évidence que la hauteur du mât à une très grande importance. Il faut toujours placer son éolienne suffisamment haut, dans le cas contraire, on risque d’avoir des rendements déplorables. Pour les petites éoliennes domestiques, une hauteur de 10m est un minimum.

Obstacle ou rugosité ?

Pour conclure cette section, il faut être prudent dans l’emploi d’un tel tableau et de la loi de puissance associée. En effet, le lecteur attentif aura remarqué que l’on a considéré des haies ou les arbres comme étant des obstacles, mais aussi dans le tableau ci-dessus comme étant simplement de la rugosité du sol. Finalement, quand faut-il considérer un objet comme de la rugosité ou comme un obstacle ? En fait, comme évoqué plus haut, un obstacle doit avoir une taille comparable à l’éolienne tandis que la rugosité doit être composée d’une multitude d’éléments petits par rapport à la taille de l’éolienne (pouvant être considérés comme étant des aspérités du sol). À titre d’exemple, si on place une éolienne dans une clairière entourée de forêt, les arbres sont des obstacles pour une petite éolienne et sont des éléments de rugosité pour une grande éolienne commerciale.

Couche limite et charge sur le rotor

Nous avons mis en évidence que la vitesse augmente avec la hauteur par rapport au sol. Cela a un impact évident sur l’énergie du vent qui sera récupérée par l’éolienne. On ne le répétera jamais assez, mais il faut que celle-ci soit placée suffisamment haut pour assurer la rentabilité, la viabilité du projet. Le choix de la hauteur de mât est donc de première importance.

Illustration d’un chargement asymétrique sur le rotor par le vent.

Un autre aspect lié à l’évolution de la vitesse avec la hauteur est la charge aérodynamique sur le rotor. Si l’on place le rotor de l’éolienne trop bas, il recevra comme annoncé un vent plus faible, mais cette vitesse risque en plus de varier significativement le long du rotor. En d’autres termes, les forces exercées par le vent seront plus importantes sur les pales pointées sur le haut que sur les pales pointées vers le bas. Du coup, le rotor est soumis à une contrainte mécanique de nature asymétrique (différence haut-bas) et fluctuante (le rotor passe de la position basse à la position haute). Ces contraintes ont un impact négatif sur la durée de vie du matériel.

Aérodynamique des éoliennes

Aérodynamique des éoliennes

Il s’agit d’une page qui peut s’avérer assez technique pour les personnes qui n’ont pas de base en physique ou en ingénierie. Néanmoins, cette page n’est pas absolument nécessaire à une compréhension d’ensemble du fonctionnement d’une éolienne. En effet, en pratique, il n’est pas obligatoire de comprendre les phénomènes physiques exacts qui rentrent en jeu, à partir du moment où l’on sait ce que l’on peut récupérer comme puissance et énergie électrique de la part de son éolienne. Néanmoins, afin d’être complet et de permettre aux personnes intéressées d’avoir une vue plus pointue ou complète, les bases de l’aérodynamique des éoliennes sont introduites ci-dessous.

La portance et la trainée

Pour comprendre le mode de fonctionnement d’une éolienne, il faut introduire quelques concepts d’aérodynamique. Parmi ceux-ci, les notions de trainée et de portance jouent un rôle majeur. Pour commencer, on simplifie le problème. En effet, lorsque l’on regarde une aile, qu’il s’agisse d’une aile d’avion ou d’éolienne, il s’agit d’un corps à 3 dimensions spatiales. En effet, une aile possède une certaine longueur de corde (direction « x »), une certaine cambrure (direction « y ») ainsi qu’une certaine envergure (direction « z »). De manière générale, il est assez difficile de considérer ces trois dimensions simultanément. On prend uniquement les deux dimensions (2-D) qui contiennent le phénomène physique dominant. Il s’agit de la dimension de la cambrure et de la corde. Ensuite, les aérodynamiciens intégreront la troisième dimension, c’est-à-dire l’envergure, comme étant une superposition de comportements en deux dimensions (2D) le long de l’envergure.

   

À droite, illustration du concept d’aile en trois dimensions avec une cambrure (direction »y »), une envergure L (direction « z ») et une corde (direction « x »).  Le profil d’aile (surface grisée) est obtenu en « découpant » une section de l’aile en un point le long de l’envergure. À droite, vue de profil d’une pale d’éolienne qui donne un bon aperçu d’un profil d’aile. Ici, il s’agit du profil en bout d’aile.

On analyse donc les phénomènes physiques au moyen de profils 2D d’aile. Ce profil est constitué, d’une part, d’un bord d’attaque et d’un bord de fuite, et d’autre part, d’une corde qui relie ces deux extrémités (voir figures ci-dessous). Dans le cas d’une aile complète en trois dimensions, la corde, c, varie généralement en fonction de la position de long de l’envergure. En outre, la forme du profil peut varier avec cette distance. C’est souvent le cas pour les grandes éoliennes dans la mesure où la vitesse du rotor près du moyeu est nettement plus faible qu’en bout de pale. Il n’est pas nécessaire de tenir compte de cette propriété pour comprendre le principe de fonctionnement d’une éolienne voire d’un avion.

Notre profil d’aile est placé dans un écoulement, par exemple, on place le profil au centre d’une soufflerie. L’air présente une certaine vitesse, V, mesurée loin devant le bord d’attaque. En effet, les vitesses que prend l’air autour d’une éolienne sont toujours inférieures à la vitesse du son. On dit qu’elles sont subsoniques. Dans ce cas, les informations peuvent remonter le courant parce qu’elles se propagent plus vite. En fait, l’information se déplace sous forme d’ondes de pression qui ont cette vitesse du son. Du coup, si l’écoulement est subsonique, l’information peut atteindre toutes les directions de l’espace. En pratique, qu’est-ce que cela veut bien dire ? Et bien tout simplement que l’air est déjà perturbé par la présence d’un avion ou d’une éolienne avant même de l’avoir touché. Autre exemple, lorsque vous soufflez sur votre doigt, l’air est perturbé par la présence de votre doigt avant même de l’atteindre. Cela se traduit par des trajectoires courbes des filets de courant (en gros, il s’agit de la trajectoire du fluide). On voit clairement dans les figures suivantes qu’ils sont déviés bien avant d’avoir atteint le bord d’attaque. Par conséquent pour avoir une bonne idée de la vitesse à laquelle on soumet notre profil, il faut le mesurer bien loin devant le bord d’attaque, suffisamment loin pour qu’il ne soit pas perturbé par la présence du profil. Dans le jargon de l’aérodynamique, on parle de vitesse infini amont.

   

Retournons à notre profil d’aile placé dans une soufflerie. De manière générale, la corde présente un certain angle avec la vitesse de l’air en amont, V. Cet angle s’appelle l’angle d’attaque (AOA pour « angle of attack »). Plus cet angle est important, plus les filets d’air sont déviés par le profil. En d’autres termes, la présence de l’aile réorganise localement l’écoulement de l’air (autour du profil). La partie du profil entre le bord d’attaque et de fuite orientée vers le haut est appelée, extrados, tandis que l’autre moitié orientée vers le bas est appelée, intrados. Du côté de l’extrados, l’aile a fait accélérer l’écoulement. Par contre, elle a ralenti l’écoulement côté intrados. La physique nous apprend qu’une telle accélération est accompagnée d’une diminution de pression alors que la décélération engendre une augmentation de la pression. Comme la pression est différente au-dessus et en dessous de l’aile, les forces de pression sur l’aile ne sont pas identiques au-dessus et en dessous. Il en résulte une force globalement orientée vers le haut. C’est cette force qui permet aux oiseaux ou aux avions de voler. Elle est d’autant plus importante que l’angle entre l’axe du profil, c’est-à-dire la corde, et la vitesse de l’air amont, V, est important, ou dit plus brièvement, plus l’angle d’attaque est important. Il y a une limite à ce raisonnement que nous introduirons plus tard (notion de décrochage).

La force sur l’aile peut, comme toute force, se décomposer en plusieurs composantes. Dans notre cas, on considère la composante dans la direction de l’écoulement, la force de trainée (D comme « drag »), et la force dans la direction perpendiculaire à l’écoulement, la force de portance (L comme « lift »).

Illustration des concepts dans le cas d’un avion volant horizontalement à vitesse constante.

Pour illustrer l’ensemble de ces considérations, voyons ce que cela donne dans le cas d’un avion. Supposons qu’il vole en ligne droite à une certaine vitesse constante, V, dans une direction que l’on prend dans un plan horizontal. En fait, supposons que nous nous déplacions à la même vitesse que l’avion. Par définition, nous ne le verrions pas bouger. Par contre l’air qui était au repos avant le passage de l’avion (vu par un observateur situé au sol), acquiert une certaine vitesse, V, si on le regarde à partir de l’avion. De manière plus rigoureuse, on dira que l’on met son repère sur l’avion et que l’on regarde les vitesses relatives à la vitesse de l’avion, V.  Son aile principale présente un certain angle avec la direction de vol, l’angle d’attaque. Il s’ensuit une force de portance verticale et une force de trainée horizontale appliquée à l’aile et donc à l’avion entier. La première permet de vaincre la force de gravité due à la masse de l’avion complet tandis que la seconde freine l’avion :

  • Dans le cas d’un planeur, l’avion n’a pas de moteur. La trainée a donc tendance à ralentir l’avion. Pour pouvoir maintenir sa vitesse et donc continuer à voler dans une atmosphère au repos, il doit toujours descendre progressivement en altitude (notion de taux de chute) pour maintenir sa vitesse. Dans la réalité, on sait que les planeurs tirent profit de mouvements d’air plus globaux au niveau de l’atmosphère. Ces mouvements naturels peuvent générer des vents ascensionnels qui permettent au planeur de prendre de l’altitude. Néanmoins, un planeur aura toujours intérêt à avoir une trainée la plus faible possible. Cette conclusion nous permettra de rebondir plus loin lors de nos explications sur les éoliennes.
  • Dans le cas d’un avion motorisé. La vitesse est maintenue constante grâce à l’action des moteurs. Ils exercent une force de poussée (T comme « thrust ») qui s’oppose à la trainée.

Le décrochage

Dans la section précédente, on a mis en évidence le phénomène physique qui générait la portance et la trainée d’un profil d’aile. On a aussi indiqué que cette force augmentait avec l’angle d’attaque du profil. Comme introduit précédemment, il y a une limite à cette croissance. Nous expliquons maintenant ce phénomène bien connu de décrochage (ou « stall » en anglais).

Courbe de portance en fonction de l’angle d’attaque pour un profil NACA.

Sur base de la courbe ci-dessus qui reprend l’évolution de la portance en fonction de l’angle d’attaque, on voit que cette force augmente progressivement jusqu’à un certain angle au-delà duquel la portance chute brusquement. Ce phénomène est appelé décrochage et l’angle à partir duquel il intervient, l’angle de décrochage. On voit qu’une fois l’angle de décrochage dépassé, les performances aérodynamiques du profil sont nettement dégradées. On imagine assez facilement ce que cela peut engendrer dans le cas d’un avion : une perte de portance brusque risque simplement d’engendrer une chute de l’appareil. A priori, on pourrait croire qu’il est assez farfelu d’introduire un tel phénomène dans le cas des éoliennes, mais comme cela sera expliqué, dans ce domaine d’application, le décrochage est parfois mis à profit pour contrôler la vitesse de rotor.

Explication du phénomène de décrochage

Le lecteur curieux aura peut-être envie d’en savoir un peu plus sur le principe du décrochage. Un élément de réponse simple est donné ci-dessous. Il n’a pas vocation d’être complet ou particulièrement rigoureux. Il cherche plutôt à démystifier le phénomène. Dans le cas d’un profil à angle d’attaque inférieur à la limite de décrochage, les trajectoires du fluide, à savoir l’air, sont infléchies par la présence du profil. Comme expliqué précédemment, on a une accélération côté extrados et une décélération côté intrados, accompagnée d’une diminution et une augmentation de pression, respectivement. Cette différence de pression sur les deux faces du profil est la base de la génération de portance.

   

Différence de la nature de l’écoulement entre un écoulement attaché et décroché.

Lorsque le profil décroche, les angles d’attaques sont trop importants et le fluide ne parvient plus prendre les trajectoires imposées par le profil (fortement incliné). Les trajectoires de fluides ont tendance à rester plus proches de leur situation initiale (avant que l’aile ne passe). Comme il y a moins de déformation de trajectoire, il y a moins d’accélération du fluide côté extrados du profil. Du coup, la dépression est moins importante et, sans surprise, la portance devient moins importante.

Pour augmenter l’angle d’attaque admissible avant de décrocher l’écoulement d’air, un dispositif aérodynamique, un générateur de vortex, peut être installé sur les ailes. Sans entrer dans les détails, ces petits appendices vont permettre de créer des tourbillons contrôlés de manière volontaire. Cette dynamique va plaquer le flux d’air contre la surface de l’aile permettant ainsi d’augmenter l’angle d’attaque admissible avant que la pale ne décroche.


Les forces aérodynamiques sur le rotor d’une éolienne

La première section nous a permis d’introduire les notions nécessaires pour comprendre les phénomènes physiques majeurs qui s’appliquent sur le rotor d’une éolienne. On a introduit la notion de profil d’aile, de corde, d’angle d’incidence ainsi que de trainée et de portance. Lorsque l’on considère une éolienne, le problème se complexifie un peu. En effet, il faut considérer en plus la vitesse de rotation des pales qui, en pratique, est de loin plus élevée comparée à la vitesse du vent. Dans la suite, on fait l’hypothèse d’une éolienne à axe horizontal.

            

Vitesses et forces exercées sur un profil d’une éolienne. On introduit l’angle d’incidence (alpha), de calage (beta) ainsi que la vitesse relative Va dans la figure de gauche. La résultante des forces engendrée par la vitesse du vent et la rotation de l’éolienne est illustrée dans la figure de droite.

Influence de la vitesse de rotation sur l’angle d’attaque et l’intensité de la vitesse

Considérons un profil d’une pale de notre éolienne obtenu en « coupant » l’aile à une certaine hauteur, r, comprise entre le moyeu et l’extrémité de la pale. Vu du haut, cela donne approximativement la figure ci-dessus (à gauche) où la grande flèche noire indique le sens de rotation.  Si l’éolienne a une vitesse de rotation de n (Hz ou tours/seconde), alors à la hauteur du profil, la vitesse tangentielle de la pale induite par la rotation, U, est de

U = n.(2*pi*r) en [m/s],

toujours dans le sens de rotation. On voit clairement que la vitesse augmente proportionnellement avec la hauteur le long de la pale. La vitesse tangentielle maximale sera obtenue en bout d’aile. En plus de la vitesse de rotation, on a toujours la vitesse du vent, V, mesurée loin en amont de l’éolienne. Comme expliqué précédemment, l’écoulement est déjà influencé par la présence de l’éolienne avant d’arriver au niveau du rotor si bien qu’il est partiellement freiné avant d’atteindre celui-ci. En pratique, la vitesse aura idéalement diminué d’un tiers si bien qu’on se retrouvera avec 2/3 de V dans la direction perpendiculaire au plan de rotation, la direction axiale. Comme on l’a fait ci-dessus en considérant un avion, on place notre repère de vitesse sur le profil d’aile. Il faut alors combiner la vitesse de rotation de l’éolienne, U, à cette hauteur, à la vitesse 2/3 V du vent pour obtenir la vitesse du vent relative rencontrée par le profil de l’éolienne, Va. C’est cette vitesse qu’il faut connaître pour pouvoir estimer la force qui sera exercée sur le profil de la pale. En effet, on connaît maintenant la vitesse de l’écoulement (la norme du vecteur Va) mais aussi son angle d’attaque. Comme on l’a introduit ci-dessus, il ne suffit pas de connaître la vitesse du vent, V. La vitesse tangentielle, U, induite par la rotation influence significativement l’écoulement qui sera reçu par le profil.

On introduit un nouvel angle de première importance, l’angle de calage (« pitch angle » en anglais). Il se définit comme étant l’angle entre le plan de rotation et la corde du profil. Contrairement à l’angle d’attaque, il ne dépend pas de conditions de l’écoulement. Il s’agit d’un paramètre géométrique que l’on peut adapter. En effet, l’angle d’attaque dépend des conditions de fonctionnement. Dans le cas de notre éolienne, il dépend de la vitesse du vent, de la vitesse de rotation ainsi que de l’orientation de la corde du profil (autrement dit de l’angle de calage).

Représentation schématique de la variation de l’angle de calage des pales d’une éolienne.

On peut faire varier l’angle de calage en faisant tourner la pale autour de son axe, tel qu’illustré dans la figure ci-dessus. On voit qu’en modifiant cet angle, on modifie l’angle d’attaque et par conséquent la force qui sera exercée sur le rotor. Le pivotement des pales peut être réalisé par des actionneurs électromécaniques ou par un système hydraulique.

Vrillage de l’aile

Comme la vitesse relative, Vr, augmente avec la hauteur de long de la pale, la géométrie de celle-ci est adaptée à cette augmentation de vitesse. On voit notamment la diminution de l’angle de calage avec la hauteur pour garder l’angle d’attaque comparable tout le long de la pale. C’est cette variation qui donne un aspect vrillé à la pale.

Diminution de l’angle de calage avec la hauteur le long de la pale : effet de vrillage. On voit que Vr augmente entre le pied et la tête de la pale. Pour maintenir un angle d’attaque, alpha, constant, l’angle de calage, Theta, est modifié.

Caractéristiques de la force exercée sur le profil d’une éolienne

On voit, dans la deuxième figure sur la décomposition des forces (placée un peu plus haut), que la vitesse relative caractérisée par une certaine intensité et une direction décrite par l’angle d’attaque, induit une force sur le profil. Cette force F, se décompose en une composante tangentielle, FT qui contribue positivement à la rotation de l’éolienne, c’est l’effet utile recherché (du moins pour toutes éoliennes basées sur la portance), et une composante axiale FN perpendiculaire au plan de rotation qui n’a aucun effet utile. Au contraire, cette force axiale soumet l’éolienne par sa poussée à une contrainte mécanique importante. C’est l’élément dominant lors du dimensionnement du mât d’une éolienne. Si on décompose la force aérodynamique selon sa composante de portance et de trainée, on en déduit les propriétés suivantes :

  • La portance L, contribue positivement à la rotation de l’éolienne. En d’autres termes, elle induit une force dans le sens de rotation, c’est l’effet utile recherché. C’est aussi pourquoi on dit que ces éoliennes sont basées sur la portance.
  • La trainée, D, contribue négativement à la rotation de l’éolienne. En d’autres termes, elle induit une force dans le mauvais sens, c’est un effet parasite. Elle diminue le rendement de conversion de l’énergie cinétique du vent en énergie mécanique sur le rotor. C’est pourquoi, tout comme un planeur, les pales d’une éolienne sont conçues pour minimiser la trainée et obtenir ainsi les meilleurs rendements.

Le réglage de la puissance : calage et décrochage

Pour faire fonctionner une éolienne correctement, on doit pouvoir jouer sur les paramètres aérodynamiques des pales pour contrôler la vitesse de rotation ainsi que la puissance soutirée au vent :

  • Dans le cas de vents importants, le rotor peut être soumis à des forces mécaniques qui peuvent dépasser les contraintes admissibles. En outre, la puissance fournie par le rotor est limitée par la puissance maximale de la génératrice.
  • Dans le cas de fonctionnement normal, on doit pouvoir fonctionner à la vitesse de rotation souhaitée ou du moins, prédéfinie.

Il y a deux grandes manières de faire varier, et donc de contrôler, la force aérodynamique sur le rotor d’une éolienne : changer l’angle d’attaque et diminuer la surface au vent balayée par l’éolienne. La deuxième solution s’obtient en décalant le rotor (« yawing » en anglais) par rapport à la direction du vent (selon un axe vertical pour un décalage gauche-droite, ou selon un axe horizontal pour mettre incliner le rotor vers l’horizontal). On s’attardera ici sur la première solution basée sur l’angle d’attaque.

Modification de l’angle d’attaque via l’angle de calage d’une pale

La manière la plus efficace de modifier l’angle d’attaque est de jouer sur l’angle de calage.  Celui-ci peut être modifié en faisant pivoter la pale le long de son axe. Pour contrôler la force appliquée, on peut procéder de deux manières distinctes :

  • On peut augmenter l’angle de calage pour diminuer la puissance ou le réduire pour augmenter cette puissance (« pitch control » en anglais). A la limite si l’on souhaite réduire au maximum les forces exercées sur les pales pour garantir leur intégrité, notamment en présence de grands vents, on peut les placer en drapeau par rapport à la direction du vent (« feathering » en anglais).
  • Une autre manière de limiter la puissance est de dépasser rapidement l’angle de décrochage ce qui induit une diminution significative de la portance (« stall control » en anglais). Hormis pour certaines réalisations, cette seconde méthode est moins efficace que la première. Elle serait apparemment moins précise et les forces appliquées aux pales seraient plus intermittentes (dû au caractère fortement instationnaire du phénomène de décrochage).

Illustration de la variation de la force aérodynamique : diminution par réduction de l’angle de calage (centre) ou par décrochage (droite).


La trainée induite : aile d’envergure finie

Dans les développements précédents, on a essentiellement considéré les phénomènes physiques sur base de profils d’aile. En d’autres termes, on a tenu compte de deux dimensions de l’espace, c’est-à-dire la direction axiale (sens de l’écoulement pour une éolienne à axe horizontal) et tangentielle (plan de rotation). D’un point de vue purement théorique, c’est équivalent à considérer une aile infiniment longue. Pas simple de convaincre le lecteur de cette assertion, mais cela semblera sans doute plus clair par la suite. En réalité, tout le monde sait qu’une aile, que ce soit d’avion ou une pale d’éolienne, n’est pas infiniment grande. Elle a en effet une certaine envergure. Cela peut sembler trivial, mais, comme on va l’expliquer, cette limite va nous obliger à tenir compte de la troisième dimension spatiale dans notre raisonnement. Il s’agit de la direction radiale pour une éolienne à axe horizontal.

Photographie d’un tourbillon de sillage induit par un avion.

Tourbillons de bout d’aile : l’origine du phénomène

Comme on l’a expliqué précédemment en introduisant le phénomène de portance, une aile présente une certaine surpression à l’intrados et dépression à l’extrados. Que se passe-t-il en bout d’aile ? En bout d’aile, on a une région de haute pression (dans le cas d’un avion, en bas) et de basse pression (dans le cas d’un avion, en haut) qui sont voisines et non séparées par l’aile. En conséquence, l’air va se déplacer de la zone haute pression vers la zone basse pression dans un mouvement de contournement du bout d’aile. L’air se met donc globalement en rotation. Il crée un mouvement « cohérent » de rotation que l’on appelle « tourbillon ». Comme, il y a deux extrémités à une aile, on trouve deux tourbillons. Ceux-ci tournent en sens opposés l’un par rapport à l’autre.  Ce phénomène de tourbillon est clairement visible sur la photographie ci-dessus où l’on voit que l’air est mis en rotation au niveau des bouts d’aile après le passage de l’avion. Ce comportement n’a lieu que si l’aile a une certaine envergure. Si elle avait été infiniment grande, on n’aurait pas rencontré ce phénomène. Cela explique la distinction que nous avons introduite en début de section.

Ce phénomène de tourbillon est clairement visible au passage d’un avion à réaction dans un ciel bleu. En effet, la combustion qui a lieu dans un moteur d’avion rejette principalement de l’eau sous forme de vapeur et du CO2. Comme les avions volent à relativement haute altitude, la température de l’air à cette hauteur est largement négative (en °C). Du coup, l’eau qui est éjectée par les moteurs à l’état de vapeur se condense pour former de fins cristaux de glace. C’est la trainée blanche que l’on voit derrière un avion. En effet, l’eau à l’état de vapeur n’est pas visible. Par contre, une fois condensée, elle interagit avec la lumière. Revenons à nos moutons en ce qui concerne les deux tourbillons de bout d’aile. L’eau rejetée par les moteurs est capturée par les deux tourbillons de bout d’aile (phénomène dit d’ « enroulement »). Par conséquent, cela rend ces deux tourbillons visibles (parce que l’eau dans un état visible est capturée par les tourbillons). Ce sont les deux longues trainées blanches que vous voyez par ciel bleu derrière un avion de ligne. Vous remarquerez que, même si l’avion à quatre moteurs, in fine, il reste toujours deux trainées. Cela montre bien que les deux tourbillons capturent le « panache » des moteurs.

On peut se rendre compte que le même phénomène a bien lieu dans le cas d’éolienne. La figure suivante montre l’émission d’un tourbillon en bout de pale qui est translaté en aval par le vent.

 

Visualisation par dégagement d’un traceur (fumée) du sillage d’une éolienne expérimentale bi-pale.

Tourbillons de bout d’aile : augmentation de la trainée

Le phénomène de tourbillon de bout d’aile génère quelques problèmes. Nous retiendrons uniquement ici la contribution à la trainée. En effet, les tourbillons génèrent un mouvement de l’air global vers le bas juste en aval de l’aile. Ce mouvement induit par les tourbillons modifie les angles d’attaque des ailes si bien que la force est décalée vers l’arrière, augmentant ainsi la trainée. La contribution de la trainée induite est non négligeable, surtout à basse vitesse (ce qui est le cas des éoliennes). Du coup, il faut chercher à minimiser ces tourbillons de bout d’aile.

Vue de la composante verticale du champ de vitesse derrière un avion.

Retenons simplement que la forme de l’aile à une importance majeure. Un paramètre de première importance est l’allongement relatif qui est le rapport entre l’envergure et la corde moyenne d’une aile (ou d’une pale). Plus ce rapport est grand et plus la trainée induite est faible. C’est typiquement la raison pour laquelle les planeurs ont de grandes ailes allongées. En effet, ils n’ont pas de moteur si bien qu’ils sont conçus pour minimiser la trainée. En outre, ils volent à basse vitesse si bien que la trainée induite est non négligeable. En ce qui nous concerne, c’est une des raisons qui permettent d’expliquer pourquoi les éoliennes ont des pales si allongées.

 photo avion.     Photo éolienne.

Pour réduire la traînée induite par les tourbillons de bout d’ailes, le monde éolien s’est inspiré de l’aéronautique. Le monde de l’aviation et aujourd’hui celui de l’éolien utilisent un dispositif biomimétique : le winglet, sorte de petite cassure perpendiculaire située en bout de pale qui permet d’augmenter l’allongement effectif de l’aile et ainsi de réduire la traînée induite par les vortex de bout de pale.

Schéma principe du winglet.Photo de winglet.

Rendement des éoliennes

Rendement des éoliennes


 

La puissance instantanée du vent

Une éolienne est une machine qui, par définition, transforme l’énergie du vent en énergie mécanique. Pour débuter, il y a lieu de quantifier la source d’énergie dont on dispose, c’est-à-dire l’énergie associée au vent. Si le vent présente une certaine vitesse « V » à un moment donné et traverse une certaine surface « A », la puissance instantanée du vent est donnée par la relation suivante :

Pvent = 1/2 rho*A*V3,

où « rho » est la masse volumique de l’air, qui vaut approximativement 1.2 kg/m³ à 20°C, au niveau de la mer.

Néanmoins, cette relation met clairement en évidence :

  • que la puissance disponible du vent à un instant donné dépend du cube de la vitesse du vent. En conclusion, si vous avez un vent 2 x plus rapide, vous avez 8 x plus de puissance. On comprend dès lors tout l’intérêt de placer des éoliennes dans des sites venteux. Ce n’est donc pas un caprice de technicien puriste, on voit que le potentiel d’énergie dépend fortement de la vitesse du vent. C’est une condition nécessaire et non une option.
  • que la puissance disponible dépend directement de la surface traversée par le vent. Si on la considère équivalente à la surface balayée par le rotor d’une éolienne, la puissance instantanée du vent (telle qu’évaluée par la relation ci-dessus) représente le maximum de puissance disponible que l’éolienne peut convertir. On sait que la surface balayée par une éolienne dépend du rayon de son rotor (π*R²). Du coup, la puissance disponible dépend du carré du rayon de l’éolienne. En conclusion, si vous avez un rotor 2 x plus long, vous avez 4 x plus de puissance.
    [Découvrez ICI >> notre outil de pré dimensionnement éolien]

Diagramme illustrant le rapport entre le diamètre du rotor et la puissance maximale de l’éolienne :
Réalisé à partir des fiches techniques de 62 modèles d’éoliennes récentes

  • que la masse volumique de l’air a une influence sur la puissance disponible. On sait que la masse volumique de l’air dépend de la température, de  l’humidité et de la pression atmosphérique. Suivant ces paramètres, on peut obtenir des variations de 20 % de la masse volumique et donc de la puissance instantanée du vent.
    Ainsi, au niveau de la mer, par – 10 °C un mètre cube d’air pèsera 1,341 kg tandis qu’à 30 °C, il n’en pèsera plus que 1 164 kg.

L’énergie du vent

Connaître la puissance instantanée du vent est une chose, mais ce qui nous intéresse, c’est son énergie. Il y a donc une notion de temps qui va devoir intervenir quelque part. Pour connaître l’énergie du vent sur une période, il faut intégrer sa puissance sur cette même période. La connaissance de la vitesse moyenne du vent n’est pas suffisante, il faut disposer de l’évolution de la vitesse sur la période étudiée et sommer les contributions.

Prenons une période de 24h et comparons trois journées venteuses avec un vent moyen de 6m/s pour chacune mais un profil de distribution différent :

 

Si les vitesses moyennes sont bien les mêmes, le profil de distribution est lui très différent entre ces trois journées. Un simple calcul nous permet d’observer que la quantité d’énergie que le vent aura fournie sur 24h par m² pour chaque profil est drastiquement différente.

  • Jour1 : 24 [h] x 6 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 6 220 Wh = 6,22 kWh
  • Jour2 : 12 [h] x 12 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 24 880 Wh = 24,88 kWh
  • Jour3 : 6 [h] x 24 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 99 530 Wh = 99.53 kWh !!

Nous voyons donc clairement que nous ne pouvons pas moyenner la vitesse du vent et que la distribution du vent est déterminante dans le calcul de l’énergie dispensée par le vent sur une période et une surface données.

Nb : les éoliennes actuelles atteignant leur puissance maximale aux alentours de 10-15 m/s, les vents plus puissants ne seront pas pleinement exploités : l’éolienne sera freinée pour préserver son intégrité.

Explication avec quelques formules

Supposons que l’on dispose de mesures du vent à intervalles réguliers pendant une période de plus ou moins une année. L’intervalle entre chaque mesure est de « dt » secondes et le nombre d’échantillons est de « N » mesures. La durée de la période d’observation, « T », est donc N*dt. On obtient un échantillon de différentes vitesses, U1 jusque UN.  Il est donc possible d’estimer simplement la vitesse moyenne du vent, Um, pendant cette période de mesure :

Um = (1/N)*(U1+U2+ … + UN-1 + UN)

Pour obtenir l’énergie, il faut sommer les contributions des différentes mesures. Si la puissance du vent associée à une mesure de vitesse Ui vaut

Pi = 1/2*rho*A*(Ui)3

L’énergie du vent, Ev, vaut alors : Ev = (P1 + P2 + …. + PN-1 + PN)*dt. En fait, il faut connaître l’évolution de la vitesse du vent durant toute la période étudiée. Si on ne connaissait que la vitesse moyenne du vent, Um, cela ne suffirait pas pour déterminer l’énergie, Ev. En effet, on ne peut pas calculer l’énergie du vent au moyen de la vitesse moyenne (de la manière suivante) :

 Ev n’est pas égal à 1/2*rho*A*(Um)3*T

Cette différence sera chiffrée dans la section suivante et elle est loin d’être négligeable.


La distribution du vent : approche statistique

Dans la section précédente, nous avons intégré les différentes puissances pour obtenir l’énergie du vent sur la période étudiée. Il existe une autre manière de procéder qui présente en outre l’avantage de synthétiser les propriétés du vent sur la période investiguée. Il s’agit de la fonction de distribution du vent, que l’on nommera ici p(V).

Imaginons que l’on s’intéresse aux vitesses prises par le vent. Celles-ci varient entre la valeur zéro et la vitesse maximale rencontrée. On découpe cet intervalle en différentes petites plages de vitesses de largeur dV. Le produit p(V)*dV donne la probabilité que la vitesse du vent aie la valeur V durant la période d’observation (que l’on avait nommée, « T »). Cette valeur oscille entre « 0 » et « 1 ». La valeur est nulle quand le vent n’atteint jamais cette vitesse et la valeur « 1 » quand le vent est toujours à la vitesse V, ce qui, dans la pratique, n’arrive jamais. À titre d’exemple, si la probabilité p(V)*dV que la vitesse soit égale à V est de 0.5, cela veut simplement dire que l’on rencontre la vitesse V la moitié du temps de l’observation. Cela peut paraître assez abstrait, mais il est difficile de passer à côté de ce concept si l’on veut introduire les approches statistiques de l’évaluation de l’énergie du vent.

Une fois cette fonction connue, on peut déterminer la contribution de la vitesse V à l’énergie du vent de la manière suivante :

Ev(V) = 1/2*rho*A*V3*(p(V)*dV*T)

On obtient alors l’énergie du vent en sommant sur les différentes gammes de vitesse rencontrées. En d’autres termes, chaque gamme de vitesses se présente à une certaine fréquence pendant la période étudiée, « T », et correspond à une certaine contribution à l’énergie totale. Pour obtenir l’énergie du vent, il faut tenir compte de toutes les gammes de vitesse rencontrées et de leur contribution.

Comment obtient-on cette fonction de distribution ? La manière la plus consistante est d’utiliser les valeurs mesurées de vitesse et de regarder à quelle fréquence les différentes vitesses sont rencontrées. C’est la situation idéale.

Néanmoins, il arrive que l’on ne dispose pas de ces mesures ou, du moins, on dispose de mesures lacunaires qui ne permettent pas d’établir proprement la fonction de distribution. Par exemple, le potentiel de vent peut varier d’une année à l’autre si bien qu’il faut plusieurs années de mesure pour établir un comportement moyen. La littérature reprend souvent le chiffre de 10 années de mesure. On comprend dès lors qu’une évaluation du potentiel sur une période aussi longue ne soit pas toujours possible. Dans ce cas de figure, on peut faire une hypothèse sur la manière dont les vitesses sont rencontrées dans le temps. Dans le domaine de l’éolien, la fonction la plus courante est la fonction de distribution de Weibull.

Exemples de distributions de Weibull pour différents jeux de paramètres.

La fonction de Weibull est représentée dans le graphe ci-dessus. Elle ne comporte que deux paramètres : le facteur de forme, k, et le facteur d’échelle, c. Qu’est-ce que cela veut dire ? Cela veut dire que l’on sait à quelle fréquence sont rencontrées les différentes vitesses de vent, V, durant la période d’observation uniquement si l’on est capable de fixer la valeur de deux coefficients. Le but du jeu est de fixer ces deux coefficients sur base de données lacunaires dont on dispose. En d’autres mots, on est capable de reconstruire l’historique d’intérêt du vent sur la période étudiée uniquement si l’on est capable de fixer les deux paramètres de la fonction de Weibull : notamment sur base de la vitesse moyenne du vent et de sa variance. La qualité de cette méthode est correcte si, effectivement, la distribution du vent a, dans le site étudié, effectivement tendance à suivre une répartition de Weibull. Cela devient une question de spécialiste. On invite le lecteur à se référer à des ouvrages plus approfondis si cette thématique l’intéresse. À noter que l’on entend aussi parler de la fonction de distribution de Rayleigh qui est plus simple dans la mesure où elle ne comporte qu’un seul paramètre (c’est un cas particulier de la fonction de Weibull).

À titre d’exemple, commentons la figure ci-dessus représentant 5 jeux différents de paramètres pour la fonction de distribution de Weibull. On voit par exemple la courbe « rouge » représentant des vents de vitesse moyenne proche de 4.25 et qui oscille largement autour de cette valeur. La courbe « noire » quant à elle représente des vents de vitesse moyenne plus faible (proche de 3.5) et qui ont une variation nettement plus faible (proche de 3m/s) et qui ont une variation nettement plus faible autour de cette moyenne.

En conclusion, les fonctions de distribution du vent peuvent avoir deux utilités. D’une part, elles permettent de synthétiser les propriétés d’intérêt du vent en relation avec la production d’énergie et, d’autre part, si on utilise des fonctions prédéfinies comme la fonction de Weibull, elles permettent d’évaluer l’énergie du vent si on ne dispose que de données lacunaires concernant son évolution sur un site donné. Dans ce dernier cas de figure, il faut être conscient que la qualité de cette méthode est moindre qu’une campagne de mesure sur une dizaine d’années. Au mieux, les résultats auront une valeur identique.

Pourquoi ne pas directement évaluer l’énergie au moyen de la vitesse moyenne ? Ce n’est pas la même chose !

La puissance instantanée du vent est obtenue en prenant le cube de la vitesse. On obtient l’énergie sur la période de mesure en intégrant ces puissances. Mathématiquement parlant, c’est différent d’intégrer la vitesse sur la période puis de la mettre au cube. En d’autres termes, l’ordre dans lequel vous réalisez les opérations d’intégration et mise à la puissance 3 a une importante : on met d’abord la vitesse instantanée au cube puis on somme les différentes contributions durant la période analysée.

Fait-on une grosse erreur si on évalue l’énergie du vent au moyen de la vitesse moyenne ? Oui ! Sur base de cas rencontrés, on peut facilement faire une sous-estimation de 100 % voire plus.

On peut essayer de voir ce que cela donne avec la fonction de distribution de Weibull. Avant de rentrer dans le vif du sujet, on peut d’abord se faire une idée de l’évolution de la vitesse moyenne et de la variance en fonction de l’évolution des deux paramètres de la fonction de Weibull, le paramètre de forme, k, et le paramètre d’échelle, c.

On voit que la vitesse moyenne du vent dépend essentiellement du facteur d’échelle, c. La variance, quant à elle, dépend fortement des deux facteurs. Finalement, on représente maintenant le rapport entre l’énergie du vent calculée avec la fonction de Weibull et l’énergie du vent calculée de façon approximative par la moyenne de la fonction de Weibull. On connaît ce rapport sous le nom de facteur Ke,

Ke = Somme(1/2*rho*A*Ui³/N)/(1/2*rho*A*Um³) = (1/N Somme(Ui³))/(Um³)

   

Conclusion, le rapport, Ke, peut être très important, d’autant plus que le facteur de forme k est faible. On aura noté qu’il dépend uniquement de la valeur de ce facteur k. On reprend ci-dessous, un tableau avec des chiffres :

k Ke
1.2 3.99
2 1.91
3 1.40
5 1.15

Courbe caractéristique de puissance et rendement instantané

Le vent présente donc une certaine énergie pendant une période donnée. Cette énergie est convertie par l’éolienne en énergie mécanique et très certainement en énergie électrique. Cette transformation peut être décomposée en plusieurs étapes :

  1. L’énergie cinétique du vent est convertie en travail moteur à l’axe du rotor. Cette conversion est réalisée avec un certain rendement, le rendement aérodynamique.
  2. Le travail moteur au rotor est transmis vers l’axe de la génératrice avec un certain rendement, le rendement d’accouplement mécanique.
  3. La génératrice transforme le travail moteur à son axe en énergie électrique avec un certain rendement électrique.

Le rendement global est le produit des rendements de ces trois étapes. Il est difficile d’évaluer de manière simple ces trois rendements et donc d’estimer le rendement global. Le plus simple est de mesurer ce qui rentre et ce qui sort de l’éolienne pour avoir une idée de rendement global.

On définit le rendement instantané global d’une éolienne pour une vitesse de vent, V, comme étant le rapport entre la puissance électrique débitée par la génératrice, Pelec, et la puissance instantanée du vent, Pvent :

eta(V) = rendement instantané à la vitesse V = Pelec(V)/Pvent(V),

La puissance instantanée du vent a été définie au début de cette page. Il reste à connaître la puissance électrique débitée par l’éolienne en fonction de la vitesse V tout en sachant que le détail des pertes successives à chaque étape de transformation n’est pas explicité. En outre, si l’on peut connaître la puissance électrique débitée en fonction de la vitesse de vent, on peut évaluer la production électrique annuelle de l’éolienne sur base des mesures du vent réalisées in situ :

 Eelec = (Pelec(V)1 + Pelec(V)2 + … + Pelec(V)N)*dt.

La courbe caractéristique de puissance d’une éolienne donne la puissance électrique en fonction de la vitesse du vent. Généralement, ces courbes sont données par les fabricants d’éoliennes. Dans le cas de grandes éoliennes, la courbe caractéristique a été certifiée par un laboratoire et définie dans des conditions d’essai standard. On a donc une certaine assurance quant aux performances réelles de l’éolienne. La situation est plus critique pour les petites éoliennes produites par de relativement petits constructeurs. En effet, ils fournissent généralement la courbe caractéristique de puissance de leur appareil, mais ils font rarement certifier les performances. On n’a donc aucune ou peu d’assurance quant à la fiabilité des performances annoncées. Dans tous les cas, la certification des performances est un élément à bien garder à l’esprit lors de l’acquisition d’une éolienne, surtout s’il s’agit de concepts novateurs ou « potentiellement » révolutionnaires (pour ne pas dire fumants).

La courbe caractéristique de puissance comporte par trois grands paramètres (voir figure ci-dessous) :

  • La vitesse minimale de démarrage (cut-in wind speed) : il s’agit de la vitesse du vent à partir de laquelle l’éolienne commence à débiter une puissance utile (c’est-à-dire de la puissance électrique).
  • La vitesse maximale ou d’arrêt (cut-off wind speed) : il s’agit de la vitesse maximale acceptable par l’éolienne. Au-delà de celle-ci, la tenue mécanique de ces divers composants n’est plus assurée (ou simplement prévue). Si le vent présente une vitesse supérieure, l’éolienne est mise à l’arrêt, idéalement de manière automatique, pour préserver son intégrité.
  • La puissance nominale (rated power) : cette valeur est souvent égale à la puissance électrique maximale qui peut être extraite de l’éolienne. Elle n’a jamais lieu à la vitesse maximale acceptable du vent. En effet, peu avant d’atteindre la vitesse de mise à l’arrêt, des dispositifs sont mis en place pour freiner la vitesse du rotor (soit de manière dynamique, soit de manière aérodynamique), ce qui peut diminuer significativement les performances de l’éolienne.

En conclusion, on trouve typiquement des courbes de puissance ayant l’allure suivante.

 

Forme typique d’une courbe de puissance d’une éolienne : production électrique finale en kW en fonction de la vitesse instantanée du vent en m/s.

La puissance nominale d’une éolienne ne veut rien dire sur son efficacité si le constructeur ne mentionne pas à quelle vitesse de vent cette puissance électrique est obtenue. En effet, on n’est pas en mesure de déterminer la puissance instantanée du vent et donc d’établir son rendement global instantané.

Exemple : FairWind F64-40

À titre d’exemple, la société wallonne ouverture d'une nouvelle fenêtre ! FairWind établie à Seneffe commercialise des éoliennes à axe vertical dont les courbes de puissance sont disponibles sur leur site internet. En analysant leur modèle F64-40, voici les courbes obtenues :

 

 

Performances de l’éolienne à axe vertical Fairwind F64-40 suivant les données fournies par le constructeur.

On distingue clairement la vitesse minimale de 3 m/s, la vitesse maximale de 20 m/s ainsi que la puissance nominale de 40 kW obtenue à 15 m/s. Un simple calcul montre que le rendement instantané global ne dépasse pas 35 %.

Données générales FairWind F64-40
Puissance nominale (rated power) 40 kW
Vitesse du vent nominale 14 m/s
Vitesse du vent minimale (cut-in speed) 3 m/s
Vitesse de vent maximale (cut-out speed) 20 m/s
Vitesse de mise en sécurité 55 m/s
Diamètre du rotor 8 m
Longueur des pales 8 m
Surface balayée 64 m²
Hauteur du mât [12,24] m

L’estimation de la production d’électricité

Sur base de mesures

Sur base de la mesure du vent réalisée sur une période T et de la courbe caractéristique de puissance de l’éolienne, on peut évaluer la production électrique, Eelec, de l’éolienne durant cette période :

Eelec = (Pelec(V)1 + Pelec(V)2+ Pelec(V)3+ … + Pelec(V)N)*dt,

où on réalise une mesure de la vitesse toute les « dt » secondes, on possède ainsi « N » valeurs dans notre échantillon tel que T = N*dt. En bref, on suppose que la vitesse que l’on a mesurée à un moment, Vi, reste constante pendant tout l’intervalle de mesure, dt. Durant un intervalle, l’éolienne produit Pelec(V)i*dt.  On réalise finalement la somme sur tous les points de mesure pour obtenir l’énergie électrique finale.

Sur base de la distribution statistique

Une autre manière de procéder est de travailler sur base de la distribution statistique dont on connaît les paramètres (sur base de mesures ou de simulations) :

Eelec(V) = Pelec(V)*(p(V)*dV*T),

où, dans le membre de droite, le premier facteur est la puissance électrique produite à la vitesse V et le second facteur est le temps total durant lequel la vitesse est égale à V (pendant la période de mesure, T). L’énergie finale, Eelec, est obtenue en sommant sur toutes les vitesses rencontrées.

Certains constructeurs utilisent cette méthode pour communiquer une estimation de la production électrique annuelle de leur éolienne. En fait, ils fixent les paramètres de la fonction de distribution, p(V), et regardent ce que cela donne au niveau de la production. Quand vous entendez des estimations de la production électrique, il faut être conscient que le constructeur a fait des hypothèses sur la manière dont les vitesses sont rencontrées dans le temps. De manière générale, le vent sur votre site ne sera pas identique à celui qu’il a considéré dans son estimation. Pour être rigoureux, il faut veiller à ce que le constructeur communique ces paramètres. C’est la seule manière de pouvoir comparer différents matériels entre eux sur base d’estimation de la production électrique.

Estimation du rendement moyen global de l’éolienne

On peut aussi connaître le rendement moyen de l’éolienne sur la période d’observation, T. On peut estimer, d’un côté, l’énergie du vent qui était disponible (la source d’énergie), Event, et, d’un autre côté, l’énergie électrique produit par l’éolienne, Eelec (comme calculée ci-dessus). Le rapport de ces deux valeurs donne le rendement moyen :

Rendement moyen global = Eelec/Event,

Par global, on sous-entend que l’on s’intéresse à ce qui rentre et ce qui sort globalement de l’éolienne. On trouve typiquement, un rendement moyen de 20 % pour les petites éoliennes et de 35 % pour les grands modèles.

Nombre d’heures pleines de fonctionnement

La puissance débitée par une éolienne dépend de la vitesse du vent.  Par conséquent, la majorité du temps, l’éolienne ne fonctionne pas à puissance nominale (PN), le vent n’étant généralement pas suffisant pour garantir cela. C’est un des arguments des détracteurs des éoliennes. En effet, comparé à des centrales électriques traditionnelles basées sur les énergies fossiles (typiquement une centrale TGV) ou le nucléaire qui peuvent fonctionner de manière continue proche de leur puissance nominale, une éolienne fonctionnera principalement à une puissance inférieure à PN. Du coup, il faudra une puissance installée supérieure avec des éoliennes qu’avec des centrales classiques pour atteindre une même production d’énergie annuelle. C’est un argument assez controversé bien que techniquement très clair. Le but n’est pas de faire le point sur ce sujet. On reprend juste ici l’argument.

Une manière de chiffrer la production d’une éolienne est de rapporter sa production électrique annuelle en nombre d’heures de fonctionnement à puissance nominale. En d’autres termes, on calcule le nombre d’heures que l’éolienne doit tourner à puissance nominale pour débiter la même production électrique annuelle (avec un vent dont la vitesse varie).

Nombres d’heures équivalentes à puissance nominale = tN = Eelec/PN.

Valeur typique pour les grandes éoliennes en Wallonie : tN = 25% de l’année.

Valeur typique pour le petit éolien en Wallonie  tN = 11% de l’année.

Typiquement, la production annuelle électrique d’une grande éolienne en Wallonie correspond à 25 % du temps à puissance nominale. Il ne faut pas en déduire que l’éolienne ne tourne que 25 % du temps. Non, dès que la vitesse instantanée du vent dépasse la vitesse minimale de mise en fonctionnement (cut-in wind speed), l’éolienne débite de l’électricité.  En fait, les chiffres montrent que l’éolienne fonctionne 80 % du temps (source : ouverture d'une nouvelle fenêtre ! APERe). Néanmoins, elle produit à une puissance généralement inférieure à la puissance nominale, cette dernière étant souvent prise comme étant la puissance maximale.

Estimation rapide : Quick-scan

Dans certaines situations, notamment dans une étude de préfaisabilité, on souhaite pouvoir estimer grossièrement ce qu’un site va pouvoir donner comme production. On peut simplement se baser sur la vitesse moyenne du vent, Um, sur le site :

Estimation de la production = (rendement moyen global)*(1/2*rho*A*(Um)3),

où le rendement moyen est pris :

  • à 22 % pour le petit éolien (moins de 35 m de diamètre) ;
  • 30 % pour l’éolien moyen (35 à 100 m de diamètre) ;
  • et 35 % pour le grand éolien (> 100 m de diamètre).

Dans la réalité, on remarquera une tendance à un meilleur rendement pour les modèles d’éoliennes avec les pales les plus longues (> 30 m) :
Diagramme réalisé sur base de 62 fiches techniques d’éoliennes récentes.

On sait très bien qu’il s’agit d’une estimation limitée étant donné que l’effet des fluctuations de la vitesse autour de la moyenne n’est pas pris en compte. On peut montrer que cette manière d’estimer l’énergie du vent (le deuxième terme dans le membre de droite), est susceptible d’amener de grosses erreurs. On sous-estime le potentiel de vent. Néanmoins, si un constructeur prétend pouvoir produire, pour une vitesse moyenne donnée, une production électrique annuelle dépassant quatre ou cinq fois cette estimation simplifiée, vous pouvez clairement conclure que ce n’est pas une proposition honnête.


La limite de Betz

Le fabricant d’une éolienne doit faire certifier la courbe caractéristique des performances de son modèle. Cela doit être réalisé selon une méthode normalisée, idéalement par un laboratoire indépendant.

Dans la pratique, les modèles de plus faibles puissances ne bénéficient pas de cette certification. Le constructeur peut fournir une courbe de puissance, mais on n’a aucune garantie sur sa fiabilité, tout au plus, on peut se reposer sur la crédibilité du fabricant.

Comment détecter un produit farfelu ? Il n’y a malheureusement pas de méthode absolue (hormis tester le matériel). Néanmoins, certains chiffres communiqués par le constructeur peuvent être mis à l’épreuve. C’est le cas du rendement global instantané de l’éolienne tel que défini à la section précédente.

L’application des principes fondamentaux de la mécanique permet de déterminer la quantité maximale d’énergie du vent qui peut-être convertie en énergie mécanique (rotation du rotor). Ce rendement aérodynamique instantané, ou Coefficient de performance (Cp), ne peut dépasser 16/27 soit approximativement 59 %. Par conséquent, le rendement instantané qui tient aussi compte d’autres pertes (aérodynamiques, accouplement, conversion électrique, auxiliaires) doit être inférieur à cette valeur :

Rendement global instantané < rendement aérodynamique < 16/27

Cette limitation est mieux connue sous le nom de « limite de Betz » ou « théorie de Betz ». Pour arriver à ces conclusions, il a fallu introduire des hypothèses simplificatrices. Néanmoins, celles-ci sont tout à fait raisonnables.


Vitesse en bout d’aile et performance : tip speed ratio

On a vu que la limite de conversion de puissance du vent vers la puissance mécanique du rotor est théoriquement limitée à 16/27, soit 59 %, par l’approche de Betz. Par rapport à ce cas idéal, il existe une série d’imperfections qui empêchent d’atteindre cette limite. En d’autres termes, on a une série de pertes qui réduisent l’efficacité aérodynamique de l’éolienne :

  • Mise en rotation du sillage : Le vent avant de rencontrer l’éolienne ne possède pas de mouvement de rotation prononcé et cohérent. Du moins, c’est le cas s’il ne rencontre pas d’obstacles majeurs en amont de l’éolienne. Une fois que l’air est passé dans le rotor de l’éolienne, il en ressort avec une vitesse de rotation générale dans le sens opposé à celui du rotor. Cette vitesse de rotation qui n’existait pas au départ correspond à une certaine quantité d’énergie cinétique qui n’a pas pu être convertie pas l’éolienne. Il s’agit d’une première source de pertes.
  • Trainée des profils de l’aile : Lorsque l’on place une aile face au vent, il génère une force sur cette aile. C’est l’effet escompté. Cette force peut se décomposer en partie. Une force dite de portance qui est perpendiculaire à la direction du vent en aval de l’aile et une composante dite de trainée qui est parallèle à cette vitesse de vent. Dans le cas d’un avion, c’est la portance qui permet de vaincre la gravité et permet ainsi à l’avion de voler. La trainée freine l’avion, car cette force est opposée à la direction dans laquelle l’avion progresse. Pour permettre à l’avion de conserver cette vitesse, les moteurs de l’avion donnent la force nécessaire pour vaincre cette force de trainée.  Dans le cas d’une éolienne, on retrouve la même idée. Néanmoins, il faut alors tenir compte à la fois de la vitesse du vent, mais aussi de la vitesse de rotation de l’éolienne. Le problème est un peu plus complexe. Tout cela pris en compte, on se rend compte que c’est la portance des pâles de l’éolienne qui exerce une force utile dans le sens de rotation de l’éolienne. La trainée des pâles, par contre, a tendance à freiner la progression de ces pâles. C’est une deuxième source de pertes parce qu’une partie de l’énergie du vent sert à freiner l’éolienne. Fort heureusement, une aile d’éolienne est conçue pour avoir la trainée la plus faible possible pour une portance donnée. En gros, il s’agit d’une question de spécialistes dans la mesure où il s’agit de travailler sur l’aérodynamique de l’aile.
  • Nombre limité de pales : Le nombre de pales d’une éolienne est limité pour des questions de poids et de prix. Le rendement idéal considéré plus haut faisait l’hypothèse d’un nombre très important de pales. Dans la réalité, ce nombre ne sera jamais atteint. Cette limitation est source d’une troisième forme de pertes. D’un point de vue physique, ces pertes sont générées par la trainée induite. La trainée induite est d’autant plus faible que la portance est faible et le rapport entre envergure et corde moyenne de l’aile est important. Ainsi, une aile qui a une grande envergure par rapport à la corde aura une trainée plus faible. On peut s’en convaincre en comparant les ailes d’un planeur à celle d’un avion traditionnel : les ailes du planeur sont beaucoup plus allongées pour limiter la trainée, ce qui est souhaitable étant donné qu’il n’a pas de moteur. C’est une des raisons qui expliquent pourquoi une éolienne a des ailes allongées.

   

Analogie entre l’allongement (aspect ratio) des ailes d’un planeur et des pales d’une éolienne : limitation de la trainée.

Ces explications avaient juste vocation de montrer que le rendement idéal n’était jamais atteint, ceci étant dû à différentes pertes. Un facteur qui influence grandement ces pertes est le rapport entre la vitesse en bout de pale (induite par la rotation) et la vitesse du vent, le tip-speed ratio (TSR) en anglais,

Lambda = tip-speed ratio (TSR) = u/V = n.2*pi*R/V,

avec,

  • u, la vitesse en bout de pale qui peut être évaluée comme étant le produit
  • de la vitesse de rotation, n (en Hz),
  • par le rayon de l’éolienne, R, multiplié par 2*pi.
  • V est la vitesse du vent en amont.

La théorie confirmée par la pratique montre que les pertes sont minimisées pour un TSR donné. En d’autres termes, pour chaque vitesse de vent, il existe une vitesse de rotation qui maximise le rendement aérodynamique de l’éolienne, c’est-à-dire la quantité d’énergie du vent transférée au rotor. On peut s’en rendre compte sur base du la figure ci-dessous,

Évolution du rendement aérodynamique instantané en fonction du rapport entre la vitesse en bout de pale et la vitesse du vent (tip-speed ratio) : illustration des différentes sources de pertes par rapport au rendement idéal de Betz.

On peut comprendre le graphe de la manière suivante :

  1. On dispose au départ de la puissance instantanée du vent par m², ce qui correspond dans le graphe au niveau de 100 %.
  2. La théorie de Betz nous apprend que l’on peut dans le meilleur des cas récupérer jusqu’à 16/27, soit approximativement 60 %.
  3. Si l’éolienne tourne plus lentement pour une vitesse de vent donnée, on aura un couple aérodynamique important pour atteindre une même puissance et donc une forte déviation du fluide par les pales. Cela engendre une mise en rotation plus importante du sillage et donc des pertes plus importantes. On le voit clairement dans le graphe sous la dénomination « pertes de sillage ». En conclusion, plus l’éolienne tourne vite, moins les pertes par mise en rotation sont importantes.
  4. Si on considère un profil d’une pale d’éolienne, la force aérodynamique se décompose en une force de portance, mais aussi de trainée qui s’oppose dans la direction de rotation de l’éolienne (du moins pour les éoliennes dont le principe de fonctionnement est basé sur la portance). L’effet négatif sur le rendement aérodynamique est d’autant plus important que l’éolienne tourne vite. On peut s’en rendre compte dans le graphe ci-dessus sous l’appellation « trainée du profil d’aile » où les pertes augmentent avec le tip-speed ratio. Sur base des deux premiers termes de pertes (pertes de sillage et de trainée de profil), on voit apparaître un premier optimum à une vitesse de relative de bout d’aile entre 6 et 8.
  5. On voit apparaître enfin le dernier terme de perte induit par le nombre limité de pales. En fait, si on prend la courbe relative à un nombre donné de pales en pointillé (on considère ici 1, 2 ou 3 ailes), on voit que la courbe générale correspond à l’enveloppe de tous les maxima des courbes à nombre de pâles fixé.

 

Évolution du rendement aérodynamique en fonction du nombre de pales pour un modèle donné.

Au regard de la courbe ci-dessus, qui reprend l’évolution du rendement aérodynamique en fonction du nombre de pale pour un modèle donné, on voit que plus le nombre de pales est important, plus le rapport optimal de vitesse en bout de pale est faible.

En outre, l’analyse des rendements de 62 modèles récents d’éoliennes démontre qu’il y a  une tendance claire vers un meilleur rendement pour les éoliennes ayant une vitesse de vent nominale plus basse (comprises entre 10 m/s et 12 m/s.

On peut conclure cette section en faisant une description des différentes courbes caractéristiques de rendement aérodynamique pour chaque grand modèle d’éolienne. De manière générale, on voit que les éoliennes basées sur la portance, c’est-à-dire les éoliennes à axe horizontal ou à axe vertical de type Darrieus, ont un rendement aérodynamique supérieur aux éoliennes basées sur la trainée (typiquement, le rotor Savonius). L’influence du nombre de pales sur le rendement est aussi représentée. Si la vitesse de rotation diminue, il faut un couple aérodynamique plus important pour une même puissance mécanique. C’est pourquoi les éoliennes qui cherchent à produire du travail mécanique, notamment pour des applications de pompage, ont un nombre de pales important (illustré ci-dessous par l’éolienne américaine). Actuellement, les éoliennes de type Darrieus ont un rendement un peu supérieur à celui présenté dans le graphe ci-dessous.

Évolution typique du rendement aérodynamique en fonction du tip-speed ratio et du modèle d’éolienne.

Bois-énergie : les points clés

Bois-énergie


Origines et conditionnement

Cette section est essentiellement issue des dossiers réalisés par  Valbiom sur la filière bois-énergie. Ces documents sont disponibles sur le portail énergie de la Région Wallonne. Néanmoins, certains dossiers sont essentiellement destinés au secteur domestique.

Avec une superficie forestière de  544 800 ha équivalents à 32% du territoire, la Wallonie présente d’importante ressources en combustibles biomasse (En 2017, Les combustibles biomasse wallons représentent 76% de l’énergie renouvelable wallonne((La place des bioénergies en Europe, Belgique et Wallonie – Valbiom – décembre 2017))). Cependant, ces ressources ne peuvent être exploitées d’une manière raisonnée, traçable et durable qu’à travers la structuration de ce potentiel au sein d’une filière professionnelle.

D’où vient le bois ?

Le bois destiné à la production d’énergie peut avoir plusieurs origines. D’une part, il peut s’agir de bois directement coupé dans des exploitations forestières pour des applications énergétiques (typiquement le chauffage au moyen de bûches). D’autre part, il peut s’agir de sous-produits, aussi appelés « produits connexes » :

  • Sous-produits issus l’exploitation forestière, exploitation dont le produit principal sert à alimenter l’industrie. Il s’agit de sciures, de copeaux, d’écorces, de plaquettes voire de chutes diverses.
  • Sous-produits issus de la première transformation du bois, par exemple au sein de scieries ou des entreprises de déroulage du bois. Ces sous-produits peuvent se trouver sous forme d’écorces, de sciures, de plaquettes ainsi que de chutes diverses.
  • Sous-produits issus de la deuxième transformation du bois, notamment dans les menuiseries et les fabriques de panneaux. Il s’agit de copeaux, de sciures et de chutes diverses.
  • Sous-produits issus de l’entretien des routes, des voies de chemin de fer, des haies ainsi que des arbres isolés. Les volumes générés sont non-négligeables. Généralement, on exploite les grumes, c’est-à-dire le tronc d’arbre abattu dont on a coupé les branches, mais qui est toujours recouvert de son écorce,  les tiges étant broyées sur place.
  • Bois en fin de vie issu de la démolition (bois de rebut), souvent sous forme de plaquettes. Dans ce cas de figure, il faut distinguer le bois propre d’un bois traité. Par bois traité, on entend un bois imprégné par un produit de conservation du bois (PCP ou autre) ou un bois qui a été recouvert sur sa surface (par du PVC ou autre). Bref, tout élément exogène qui rend le bois impur et risque de le rendre impropre à la combustion.

Sous quelle forme ?

Les bûches

Les bûches sont principalement utilisées pour les applications domestiques étant donné que leur usage demande une certaine manutention, une charge socio-économique rarement compatible avec les applications privées ou publiques de grands bâtiments ou de logements collectifs. Pour avoir une vue globale, la thématique des bûches est reprise dans Énergie+ bien qu’il soir fort improbable de retrouver des bûches dans le domaine tertiaire, le secteur cible d’Energie+.

Les bûches viennent principalement de l’exploitation de taillis ou de la récupération des houppiers (c’est-à-dire la tête des troncs d’arbre, toute la partie supérieure au fût). Le tronc est quant à lui destiné à la scierie pour une exploitation industrielle. En fait, on utilise pour le chauffage le bois qui n’a pas la qualité ou les dimensions suffisantes pour un usage industriel, on pense notamment à la menuiserie et à la production de panneaux.

Illustration des différentes parties d’un arbre lors de sa valorisation.

Le bois peut être vendu dans un conditionnement plus ou moins fini :

  • Sur pied : l’acheteur devra réaliser ou faire réaliser la coupe du bois par ses propres moyens ainsi que son conditionnement.
  • En « bord de route » : le vendeur aura préalablement abattu l’arbre et l’aura débardé (pour l’amener au lieu de chargement).
  • Débité : le tronc aura été préalablement découpé.
  • Conditionné en stère (c’est-à-dire un volume d’un m³).
  • Séché à l’abri jusqu’à deux ans.

Plus le conditionnement sera fini, plus le coût sera élevé. Il y a moyen de réaliser des économies substantielles en réalisant une des ces étapes soi-même. Néanmoins, il faut pouvoir assurer ces tâches et disposer d’une zone de stockage qui peut être non négligeable. Encore une fois, on conçoit facilement de réaliser de telles tâches pour une application domestique alors que c’est pratiquement exclu pour les autres contextes.

Conditionnement en stère

Les bûches sont généralement conditionnées en stère. Il s’agit d’un volume d’ 1m x 1m x 1m dans lequel sont empilées des bûches. Suivant la longueur des bûches, leurs formes ainsi que leur régularité, on va pouvoir entasser plus ou moins de bûches dans ce même volume. Comme les bûches sont vendues par stère, il faut donc être vigilant sur leur condition d’empilement. D’une part, cela dépend de la qualité géométrique du bois (longueur, régularité et forme) mais aussi la rigueur avec laquelle on a empilé les bûches.

Illustration de la relation entre le volume apparent et le conditionnement du bois : évolution du volume apparent occupé en fonction de la longueur de la découpe. En prenant au départ 1 m³ de bois coupé sur 1m, on trouve in fine 0.7 m³ de bois coupé en 33 cm.

Pour quantifier cela, on définit le coefficient d’empilage qui est le volume de bois plein présent dans un stère :

CE = m³bois plein/m³apparent = m³bois plein/stère

Le tableau suivant donne un bon aperçu des variations possibles sur le coefficient d’empilage et de leur impact sur la quantité de bois plein présent au sein d’une stère. En reprenant nos considérations sur le *PCI, on voit bien que ce potentiel d’énergie par unité de masse est indépendant de l’essence. Par contre, le PCI par stère dépend à la fois de la masse volumique et du coefficient d’empilage qui sont bien fonction de l’essence.

*PCI : pouvoir calorifique inférieur.

Tableau 1 : Influence du coefficient d’empilement et de l’essence sur les propriétés énergétiques d’une stère de bûches.

Essence HR de 20 La d Coefficient d’empilage [m³/stère] Masse volumique [kg/m³] Masse volumique [kg/stère] Pouvoir Calorifique Inférieur [kWh/kg] Pouvoir Calorifique Inférieur [kWh/stère]
Chêne 0.46 à 0.68 725 334 à 493 3.9 1 302 à 1 922
Hêtre 0.58 à 0.77 725 421 à 558 3.9 1 641 à 2  176
Epicéa 0.62 à 0.76 425 264 à 323 3.9 1029 à 1 259

La définition de corde n’est pas standardisée.

Les filières de production du bois-bûche en Wallonie

Selon Valbiom, la filière de valorisation de bois-bûche est faiblement organisée puisque les producteurs sont, d’une part nombreux, et d’autre part, exercent parfois cette activité d’une manière complémentaire à une activité de valorisation forestière principale. Il s’avère donc moins fiable de récolter une information chiffrée et précise sur leur activité.

Cependant, les tendances démontrent que cette filière commence à se structurer. En effet, la production ne vise pas uniquement à répondre aux besoins de chauffage domestique, mais aussi à fournir du bois-bûche pour attirer de nouveaux clients dans le secteur industriel.

Sans une professionnalisation de cette filière en Wallonie, la production de bûches de qualité sera toujours coûteuse et demandera beaucoup de main-d’œuvre.

Les plaquettes

Photo plaquettes bois.

Exemple de plaquettes.

Source :  www.valoris-environnement.fr.

Les plaquettes sont obtenues par le broyage du bois. Elles sont obtenues à base de sous-produits d’exploitation forestière (par exemple, de houppiers), de déchets issus de la transformation du bois voir de l’entretien des routes ou voies ferrées ainsi que des espaces verts. En outre, cela permet de valoriser ces déchets et de ne pas payer pour s’en débarrasser.

C’est un conditionnement typique pour les applications dans le tertiaire ou l’industrie en chaufferie automatique. En effet, aucune manutention n’est plus nécessaire : le broyage en plaquettes permet d’automatiser tout le processus, à partir du transport jusqu’à l’alimentation de la chaudière.

Le gabarit de ces plaquettes de forme plus ou moins parallélipédique peut varier suivant l’appareil de broyage. Seule la longueur peut être réglée, généralement, elle est comprise entre 15 et 30 mm.

Elles sont obtenues en broyant du bois vert ou légèrement ressuyé. Les plaquettes présenteront alors une humidité relative autour de 50 % qui diminuera rapidement lors du stockage à cause de phénomènes de fermentation qui réchauffent le tas. C’est ce phénomène de fermentation aérobie qui assure le séchage qui dure généralement de 3 à 6 mois. Un emploi efficace nécessitera une phase de séchage sous abris et sur dalle (pour éviter les remontées d’humidité) pour atteindre une humidité de 20 à 25 %. Les plaquettes peuvent aussi être obtenues en broyant du bois qui a été préalablement séché. Dans ce cas, on peut atteindre 20 % d’humidité relative.

Exemple de séchage de plaquettes (Combubois à Sainlez).

Il est important de savoir que les plaquettes doivent avoir atteint un taux d’humidité inférieur à 30 % avant d’être stockées de manière viable sur une longue durée dans un silo fermé. Si l’humidité est trop élevée, le bois pourrait subir un phénomène dit de seconde fermentation qui engendrerait la dégradation des plaquettes (formation de méthane, de champignons ou de sucre). Ce phénomène pourrait même détériorer la chaudière lors de la combustion, et, in fine, alourdir la facture d’entretien. Cela met en évidence l’importance de la teneur en eau lors de l’achat de plaquettes. Dans certaines applications, certaines technologies de chaudières peuvent fonctionner avec des plaquettes vertes.

Mètre cube Apparent de Plaquettes (map)

De manière analogue à ce qu’il a été expliqué pour les bûches, un tas d’1 m³ de plaquettes ne contient pas 1 m³ de bois plein. En fait, il y a beaucoup de vide entre ces plaquettes. Un mètre cube apparent de plaquettes, map en abrégé, correspond à un m³ du tas de plaquettes. Dans ce mètre cube, on ne trouve approximativement que 0.4 m³ de bois plein et par conséquent, 0.6 m³ d’air.

1 m³ de bois plein est approximativement égal à 2.5 map de plaquettes.

L’essence du bois à la base des plaquettes a aussi sont importance dans la mesure où il conditionne la masse volumique. Suivant la valeur de la masse volumique, on aura plus ou moins de kg de bois dans notre map. En reprenant nos considérations sur le pouvoir calorifique inférieur (PCI), on a montré que c’est la masse volumique et l’humidité qui importent pour la détermination du pouvoir calorifique. Le tableau suivant donne un ordre de grandeur.

HR de 30 % Coefficient d’empilage [m³/map] Masse volumique [kg/m³] Masse volumique [kg/map] Pouvoir Calorifique Inférieur [kWh/kg] Pouvoir Calorifique Inférieur [kWh/map]
Plaquettes 0.4 625 250 3.3 825

Qualité et labels

Les plaquettes peuvent être de qualité différente en fonction de l’essence ainsi que de l’humidité. Les appareils de combustion ainsi que les distributeurs de plaquettes utilisent essentiellement deux chiffres pour qualifier les propriétés physiques des plaquettes. La teneur en eau en % est spécifiée après la lettre W suivie de la taille de la plaquette en mm après la lettre G : une plaquette G30 W50 correspond à des plaquettes de 30 mm à une humidité de 50 % (bois vert) alors que G30 W20 correspond à des plaquettes séchées dont l’humidité est descendue à 20 %.

On fait parfois référence au label autrichien ÖNORM M 7133 pour certifier les propriétés physiques d’un lot de plaquettes et ceci pour les applications domestiques ou de puissance inférieure à ~150 kW. Beaucoup de fabricants de chaudières se retranchent derrière ce critère de qualité pour garantir les performances et la viabilité de leur matériel (la chaudière, mais aussi le système d’alimentation). Néanmoins, pratiquement aucun fournisseur belge de plaquettes n’est certifié pour cette norme. Heureusement, beaucoup de producteurs ont des plaquettes qui ont des propriétés conformes ou proches de ce standard, mais il n’y a pas véritablement de procédure de contrôle de qualité. Dans ce cadre, il est intéressant de connaître le producteur de plaquettes ou d’engager la responsabilité du fournisseur sur la qualité de ses plaquettes dans le contrat d’approvisionnement (essentiellement sur la granulométrie G et sur la teneur en eau W).

Les filières de production des plaquettes en Wallonie

Les producteurs de plaquettes forestières en Wallonie sont majoritairement  des agriculteurs ou des exploitants forestiers qui possèdent déjà un tracteur et un accès à la ressource bois. Ils profitent d’une période creuse pour produire et commercialiser des plaquettes.

Jusqu’à présent, 19 producteurs et/ou fournisseurs de plaquettes de chauffage sont recensés par ValBiom. L’estimation de la capacité annuelle de production reste relative et tourne autour de 100.000 t en 2018.

Le bois densifié : pellets, bûchettes et briquettes

Le bois densifié est produit à partir de sous-produits de bois de petite dimension, principalement de la sciure. Pour les briquettes et bûchettes, d’autres éléments peuvent être utilisés, comme des copeaux. Après une phase de séchage, le bois est compressé pour produire un matériau dense et homogène.

Aucun liant n’est ajouté au bois pour assurer la cohésion de la matière densifiée. En effet, la compression engendre une montée importante de la température conduisant à la détente et la plastification de la lignine, un polymère naturellement présent dans le bois. Une fois refroidie, cette lignine assurera le rôle de liant naturel de la matière densifiée.

La densification du bois va augmenter son pouvoir calorifique par m³. D’une part, sous l’effet de l’augmentation de la masse volumique : on trouve plus de masse de bois dans un même volume, d’autre part, sous l’effet de la phase séchage qui va réduire l’humidité relative autour de 10 %, ce qui est bien en dessous de ce que l’on peut obtenir en réalisant un séchage du bois à l’air libre. En conclusion, la densité énergétique du bois densifié est significativement plus importante. Le volume de stockage demandé pour un même besoin énergétique sera donc plus faible que pour les bûches ou les plaquettes. En outre, l’énergie requise pour réaliser le transport est liée au PCI/m³ étant donné qu’un camion sera essentiellement restreint  par le volume de matière qu’il pourra charger. A distance de déplacement égale, le coût énergétique du transport est donc moindre pour du bois densifié.

Le produit fini peut être sous forme de :

  • pellets, des granulés de diamètre de 6 à 12 mm pour une longueur allant jusqu’à 20 mm. Dans ce cas, les petites dimensions ainsi que les surfaces lisses des pellets permettent un certain écoulement de la matière et donc une automatisation complète de l’alimentation ainsi que de la chaîne d’approvisionnement. En 2009, 7 producteurs de pellets étaient actifs en Wallonie dont un pour l’usage industriel. Une liste de producteurs et de distributeurs de pellets élaborée par Valbiom est disponible sur le site internet de l’énergie de la Région Wallonne. Les pellets sont vendues non pas par unité de volume, mais suivant la masse : en tonne ou en kg.

Photo pellets.

Exemple de pellets

  • briquettes (sous forme de briques) et bûchettes (sous forme de bûches), de 5 à 10 cm de largeur ou de diamètre pour 10 à 20 cm de longueur. Vu les dimensions, l’automatisation n’est pas possible, l’application au domaine tertiaire doit donc être mise question. D’ailleurs, le facilitateur tertiaire pour le bois-énergie, Francis Flahaux (FRW), pour le secteur public considère que cela ne s’applique pas du tout pour le tertiaire. Certains modèles semi-automatiques existent. Dans ce cas, la chaudière contient un réservoir alimenté manuellement dans lequel un volume de briquettes peut être stocké, ce qui assure une certaine autonomie. Ces briquettes seront concassées avant d’être acheminées vers la chambre de combustion. Il n’en reste pas moins que la taille de ce réservoir est limitée, cela s’applique à des installations de faible puissance, une phase de manutention étant toujours nécessaire.

Exemple de bûchettes

Qualité et labels

Le bois peut être densifié avec plus ou moins de soin, suivant le choix de la matière première ainsi que son humidité. Il en résulte que la qualité du produit fini peut-être plus ou moins bonne. Les principales propriétés recherchées sont la résistance à l’abrasion, notamment pour les phases de transport et de manutention, ainsi que la conservation durant le stockage. Durant l’achat de bois-énergie densifié, il faudra comparer les prix, mais aussi tenir compte de la qualité du produit.

Il n’existe pas de norme au niveau belge sur la qualité des pellets. Les producteurs et fournisseurs de pellets font référence à des normes de qualité étrangère. En effet, on entend souvent parler de normes allemandes DIN 51731 et DINplus, de la norme autrichienne ÖNORM M 7135 ou de la norme française NF qui donnent les caractéristiques physiques des pellets et la manière de le déterminer. Depuis quelques années, la norme allemande DINplus est devenue le standard imposé par la majorité des constructeurs de poêles et chaudières. En outre, cette qualité peut aussi être requise par les systèmes d’alimentation et pas uniquement les chaudières elles-mêmes.

Logo normes allemandes DINplus.

La standardisation des pellets permet l’automatisation et le réglage des appareils de combustion. Tous les producteurs de pellets ne font pas certifier leurs produits dans la mesure où cela peut demander beaucoup de temps et d’argent. Cela ne veut pour autant pas dire que les pellets non certifiés ne sont pas de bonne qualité. Néanmoins, aucune garantie ne peut être donnée sur cette qualité. Dans ce cas de figure, il vaut mieux connaître le producteur. Certains respectent les standards de la norme DINplus sans pour autant être passés par la procédure officielle de certification. En effet, des analyses légales peuvent toujours être faites par des laboratoires agrées. La nuance peut être comprise dans une formulation différente dans la description de leur produit : pellets « conformes » DINplus au lieu de pellets « certifiés » DINplus.

En 2012 est apparue au niveau européen une norme visant à contrôler la fabrication, l’entreposage ainsi que la qualité des granulés de bois.  Cette norme a été développée par l’European Pellet Council, organisme regroupant les associations nationales du secteur des pellets. La norme ENplus intègre 2 classes en fonction de différents critères de qualité : la classe A1, la plus stricte et la classe A2 qui diffère notamment par une tolérance plus élevée au niveau du taux de cendres. Toutes les informations sur cette norme sont disponibles sur le site officiel ENplus : http://www.enplus-pellets.eu/.

Norme EN Plus Bois

Au niveau des volumes de stockage ainsi que de transport, retenons que pour un même contenu énergétique, ce sont les plaquettes qui prennent le plus de place (600 à 1 000 kWh/map). Ensuite viennent les bûches avec un volume approximativement deux fois moindre (1 500 à 2 000 kWh/stère). Finalement, on arrive aux pellets où l’on peut de nouveau diviser par deux le volume (3 200 à 3 500 kWh/map). Il faut mettre ces chiffres en relation avec le PCI d’un litre de mazout qui vaut approximativement 10 kWh, c’est-à-dire ~10 000 kWh/m³. En conclusion, pour obtenir le même contenu énergétique qu’un mètre cube de mazout, vous avez besoin de ~3 map de pellets, ~6 stères de bois et approximativement 12 map de plaquettes. Cela donne une bonne idée du volume de stockage que cela nécessite si l’on connaît la fréquence d’approvisionnement. La durée de l’autonomie peut varier fortement d’un projet à l’autre, d’un secteur à l’autre. Un bon ordre de grandeur pour le secteur tertiaire est une autonomie de 1 mois.

Comparaison indicative des combustibles-bois : source Valbiom (comprenant documents ADEME 1999, Carré et al. 1991)

Origine Automatisation PCI (moyenne) Humidité sur masse brute Masse volumique Energie volumique
Bûches

Rémanents forestiers (feuillus) et taillis.

Non 2 100 à 3900 kWh/t 20 à 50 % 250 à 600 kg/stère 1 500 à 2 000 kWh/stère

Entretien de haies ou de bords de route.

Plaquettes

Broyage de rémanents lors d’exploitation forestière.

Oui 2 200 à 3 900 kWh/t

 

20 à 50 %

 

180 à 400 kg/map³

 

600 à 1 000 kWh/map

 

Broyage lors d’entretien de haies ou de bords de route.

Broyage de sous-produit de l’industrie de transformation du bois.

Bois de rebut.

3 300 à 3  900 kWh/t 20 à 30 % 170 à 270 kg/map³ 600 à 950 kWh/map
Pellets

Densifié à partir de sciure séchée.

Oui 4 600 kWh/t 8 à 12 % 700 à 750 kg/map³ 3 200 à 3 500 kWh/map

Les filières de production du bois densifié

Il existe 7 sites de production de pellets en Wallonie et 12 sur l’entièreté du territoire belge en 2017.

En ce qui concerne la production en granulation, l’augmentation de la capacité de production s’est accélérée, passant à 270.000 t/an en  2007, à 650.000 t/an en 2017, dont 75%  concernait uniquement la production effective de pellets.

Quant aux briquettes et bûchettes de bois densifiées, il existe en 2017 5 producteurs en Belgique, dont 3 en Wallonie. La capacité de production est de 15.000 t/an.

 


Impact environnemental et socio-économique

Impact environnemental

Dans la théorie relative à la combustion du bois-énergie, le bilan neutre de CO2 émis lors de la combustion du bois est mis en évidence. Les choses sont cependant un peu plus complexes : la réintroduction dans de la matière végétale du carbone dégagé lors de la combustion prend du temps. Or, le changement climatique n’est plus un enjeu lointain, mais une urgence. Il faut donc s’assurer que le cycle du carbone sur lequel on se base est le plus court possible. Il faut également veiller à ne pas réduire le rôle de puits de carbone des forêts, qui sont nécessaires à terme pour contrebalancer les émissions de gaz à effet de serre que nous ne parviendront pas à éviter. Or l’évolution du stockage de carbone en forêt est lente et dépend de nombreux paramètres, en particulier la répartition des classes d’âge, qui est héritée de la gestion passée. Par exemple, certains pays européens ont vu leurs forêts détruites pendant la Seconde Guerre mondiale et replantées dans les années 50. Ces forêts sont actuellement à maturité, ce qui justifie des coupes qui vont entraîner une diminution temporaire du stockage de carbone, mais répondent néanmoins à une gestion durable, visant à maintenir à long terme le stockage de carbone((https://plateforme-wallonne-giec.be/lettre/)).

Force est de constater que, à l’échelle mondiale, l’industrie du bois n’est pas toujours compatible avec les enjeux environnementaux. Notamment, l’appétit des producteurs d’énergie pour les pellets comme remplacement du charbon entraine une explosion de la demande (fois 20 entre 2009 et 2018 selon l’Outlook for Wood Pellets), et induit des pratiques défavorables à la biodiversité et à la régénération des forêts.  Cette situation a poussé un grand nombre de scientifiques à signer en février 2021 un appel aux autorités européennes  (« Letter Regarding Use of Forests for Bioenergy ») plaidant pour que la combustion de biomasse ne soit plus subsidiée et ne soit plus considérée comme neutre en carbone. Globalement, pour que la production de bois énergie ait une plus-value carbone, il faut que soit l’espace libéré laisse place à une forêt avec des stocks de carbone à l’hectare plus élevés à terme, soit la récolte permet d’anticiper une détérioration de la forêt et par conséquent entretient la pompe à carbone.

En pratique, faut-il donc en finir avec la biomasse ? Non, mais il faut aujourd’hui séparer le bon grain de l’ivraie, et considérer que l’hypothèse d’un bilan neutre ou faible en CO2  de la combustion de biomasse n’est valide que dans trois situations :

  • Lorsque le bois est issu d’une forêt exploitée de manière durable, en ce compris d’un point de vue biodiversité. Deux labels garantissent cela : FSC et PEFC. La Wallonie a fait le choix d’encourage la certification PEFC. Selon le rapport sur l’état de l’environnement wallon, fin 2020, les forêts certifiées PEFC couvraient 52,4 % de la superficie forestière wallonne totale : la quasi-totalité des forêts publiques, mais seulement une dizaine de pour cent des surfaces forestières privées, alors qu’elles constituent la moitié de la superficie totale.
  • Lorsque le bois est en fin de vie utile : un projet pilote de valorisation de bois de déchetterie est en préparation à Mont-Saint-Guibert : InBW fournira le bois de ses recyparcs, pour alimenter une chaufferie connectée au réseau de chaleur de Louvain-la-Neuve, alimentant les bâtiments de l’UCLouvain. Une idée intéressante à reproduire ailleurs : ne bruler le bois qu’à condition qu’il ait déjà été une charpente, un meuble,… et qui ne soit plus réutilisable en tant que tel.
  • Lorsque la biomasse est de cycle court. On vise là les agrocombustibles. Il s’agit de la biomasse végétale produite en zone agricole (donc non-forestière) et qui est destinée à une valorisation énergétique. Il peut s’agir de bois ayant poussé en zone agricole ou de plantes herbacées, de résidus agricoles ou de cultures dédiées (miscanthus par exemple) (Valbiom, 2018). On peut alors compter sur un cycle annuel du carbone. Les agrocumbustibles sont pour l’instant essentiellement utilisés en autoproduction (l’exploitant valorise lui-même la biomasse), mais la filière commence à se structurer, et une contractualisation avec des agriculteurs pour garantir une fourniture régulière est envisageable. Outre un intérêt climatique, cette piste permet, dans certaines conditions, de consolider le tissu économique agricole, et de redessiner des paysages tout en favorisant la biodiversité (par des haies, taillis, etc.). À l’échelle globale, la question des agrocarburants soulève d’autres enjeux, notamment la concurrence avec la production vivrière. Mais dans le contexte wallon de soutien à une agriculture paysanne, basée sur des pratiques agroécologiques, ce type de production a tout à fait sa place((https://energie.wallonie.be/servlet/Repository/panorama-des-filieres-bois-energie-et-agrocombustibles-en-wallonie.pdf?IDR=49095)).

Dans ces conditions, si le bois-énergie est brûlé dans des chaudières performantes, l’émission de gaz nocifs et de particules fines est contrôlée, si bien qu’on peut alors dire qu’il s’agit d’une énergie propre.

Que faire alors comme gestionnaire de bâtiment ? Idéalement, choisir des fournisseurs dans une logique de circuits courts : des agriculteurs locaux qui pourront diversifier leur production grâce à la fourniture d’agrocarburants. Des coopératives, agissant parfois comme tiers investisseurs, peuvent servir d’intermédiaire pour cela. Si un tel partenariat n’est pas possible, exiger de vos fournisseurs la preuve que leur biomasse est wallonne (dans le cas des agrocombustibles) ou issue d’une forêt labellisée PEFC ou FSC. En dernier recours, exiger que le bois soit d’origine UE. Surtout, il ne faut en aucun cas fermer les yeux sur la provenance de la biomasse que vous brulez !

Impact socio-économique

Plusieurs aspects peuvent être mis en évidence :

  • Une énergie rentable : Les performances du bois-énergie doivent être évaluées au-delà de considérations purement économiques. En effet, il ne fournit pas simplement de chaleur, il contribue aussi à la réduction des GES. Deux services sont donc rendus. C’est pourquoi, à performances économiques égales, il doit être favorisé par rapport aux énergies fossiles. Néanmoins, on remarque que le bois-énergie peut tout à fait être compétitif au niveau économique. Il suffit de bien étudier ou de faire évaluer son projet. Les installations bois-énergie sont caractérisées par un investissement initial relativement important, mais qui peut être amorti par une économie substantielle au niveau de la facture énergétique. En effet, suivant les sources d’approvisionnement, le coût par kWh du combustible bois-énergie est inférieur aux énergies fossiles. Contrairement à certaines idées reçues, performances économiques et énergies renouvelables peuvent naturellement aller de pair. À titre illustratif, on peut s’en rendre compte au moyen du baromètre des coûts des combustibles pour le secteur domestique réalisé par l’APERe. La figure ci-dessous tirée du mensuel Renouvelle reprend l’évolution du prix de l’énergie par kWh sur une période allant de janvier 2010 à décembre 2020. En ce qui concerne le bois-énergie, les prix ne comprennent pas les frais de transport. Néanmoins, on voit que le bois-énergie reste particulièrement bon marché et donc attractif. En fait, la différence peut être encore plus marquée pour le secteur tertiaire. Cela dépend aussi du contrat avec le fournisseur. Dans le domestiques, les pellets ont actuellement un prix comparable au mazout, mais les bûches et particulièrement les plaquettes sont moins chères que les énergies fossiles. Dans le tertiaire, les pellets peuvent aussi être obtenues à des prix intéressants par rapport au mazout.

Evolution des prix du combustible

Analyse de l’évolution des prix des combustibles pour le secteur domestique réalisée par l’APERe et issue de la revue Renouvelle.

Prix bois

Le graphique ci-dessus montre l’évolution des prix moyens unitaires, à monnaie courante, des différentes vecteurs « bois »  achetés par les ménages en Belgique.

  • Une énergie locale : Si le bois-énergie vient de nos contrées, cela contribue à diminuer la dépendance énergétique de notre pays et de nos régions. En outre, cela permet de valoriser certains sous-produtis de bois et cela crée des emplois locaux, non délocalisables.

Où en est la filière bois-énergie en Wallonie ?

En 2017, les filières de la biomasse solide ne sont pas recensées dans les règles d’art et les chiffres officiels parlant de chauffage au bois dans les entreprises et les collectivités restent très limités. Toutefois, le recensement qu’à établi ValBiom révèle la présence de 149 installations de chauffage au bois dans les entreprises en Wallonie ayant une puissance totale de 397 MW. Parmi ces installations, dix unités sont des installations de cogénération représentant 85 % de la puissance totale recensée.

Quant aux installations fonctionnant aux agrocombustibles en Wallonie, Valbiom a recensé la présence de 18 chaudières à Biomasse agricole. 7 chaudières  utilisent du miscanthus, une de l’anas de lin et 10 fonctionnent en un mélange des plusieurs types d’argocombustibles((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)).

Coefficients de performance d’une PAC


Le COP du groupe moto-compresseur

Ce COP s’écrit εc et on l’appelle « indice de performance ». C’est le rapport de la puissance thermique utile délivrée au condenseur à la puissance électrique absorbée par le compresseur uniquement. Cet indice est variable en fonction des températures des sources chaude et froide. Quand on précise une valeur de εc , on doit donc indiquer les bases de température et spécifier s’il s’agit de sources extérieures ou intérieures.

ε= chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

εc est obtenu après essais thermiques dans des conditions standard et il intègre donc les imperfections thermodynamiques (les écarts de température à l’évaporateur et au condenseur). Les pertes thermodynamiques, mécaniques, électriques du compresseur ont également été prises en compte.

L’indice de performance n’intègre par contre pas la consommation des auxiliaires (permanents ou non) et les pertes de chaleur dans les conduits.

Le COP global de la PAC

C’est le COP qui est donné par les constructeurs de pompes à chaleur. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des auxiliaires non permanents (dispositif antigel, pompes et ventilateurs régulés en même temps que le compresseur, etc). La puissance consommée aux auxiliaires permanents (pompes de circulation dans le plancher, tableau électrique, régulation et système de sécurité) n’est pas assimilée.

   Puissance thermique au condenseur (chaleur restituée dans le bâtiment)

COP = ————————————————————————–

   Puissance absorbée pour réaliser le transfert de chaleur (compresseur et auxiliaires NP)

Les mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme européenne EN 14511 fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances. Il ne faut pas perdre cela de vue lorsque l’on travaille avec ce COP.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

Le COP est le coefficient le plus utile car il donne des performances réelles d’une pompe à chaleur. De même que pour l’indice de performance, il n’intègre pas les pertes dans les conduits.


Le COP global de l’installation

Ce COP, que l’on peut écrire εi, sera toujours inférieur au COP global de la PAC vu ci-dessus. Il tient compte des éléments suivants :

  • les imperfections de l’installation (pertes d’énergie par les réseaux de distribution, pertes aux échangeurs, etc.) qui ne participent pas au chauffage des locaux,
  • les auxiliaires (pompes, circulateurs, ventilation, etc.),
  • la mise en œuvre de l’installation (dimensionnement, pose, etc.).

Si l’installation était parfaite, εi serait égal au COP global de la PAC donné par les constructeurs.


Le COP saisonnier ou global annuel de l’installation

Le coefficient annuel, ou COPA, évalue la performance annuelle de l’installation de la pompe à chaleur, auxiliaires compris. C’est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produite et injectées pendant une année y sont comparées. Il ne s’agit pas d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Il vaut le rapport des valeurs mesurées :

 énergie calorifique restituée dans le bâtiment sur une saison de chauffe

COPA = ————————————————————————–

énergie consommée pour le fonctionnement de l’installation (pompe à chaleur + auxiliaires)

Imaginons que notre PAC fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.


Le facteur de performance saisonnier SPF

Le SPF évalue théoriquement la performance annuelle de la pompe à chaleur (et pas de l’installation). Il est le rapport des quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SPF comme ceci :

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an]
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Le rendement en énergie primaire des PAC

Si la pompe à chaleur à la vertu de produire une moyenne saisonnière de 2 à 3,5 kWh thermique pour chaque kWh électrique consommé, il faut toute de même considérer l’énergie primaire nécessaire à la production de ce kWh électrique en amont.

Le facteur d’énergie primaire de l’électricité est fixé en 2019 à 2,5. Il faut ainsi 2,5kWh d’EP (énergie primaire) pour produire 1kWh d’énergie électrique en Europe.

Le rendement comptabilisé en énergie primaire tombe donc à 2,5kWh d’EP pour 2 à 3,5kWh thermiques. Soit un rendement global équivalent de 1 à 1,4. On sait par ailleurs qu’un kWh de gaz (=1 kWh d’EP) utilisé dans une bonne chaudière produit également ±1kWh d’énergie thermique.

Les PAC voient également leur rendement baisser fortement quand les températures baissent sous les 6-7 degrés en raison des principes de la thermodynamique (cycle de Carnot) mais également de la nécessité d’actionner le dégivrage des éléments extérieurs. Cette baisse de rendement rend souvent nécessaire d’y adjoindre une petite chaudière au gaz.

Bon à savoir : si, avec un kWh d’électricité, nous pouvons obtenir 2 à 3,5 kWh thermique avec une PAC, il faudra 2 à 3,5 kWh de gaz pour produire la même énergie thermique avec une chaudière. Là encore, économiquement, le gaz étant 2 à 4 fois moins cher que l’électricité, le gain économique lié au choix de la PAC n’est pas des plus évident.

Emissions de polluants liée à la consommation énergétique

Emissions de polluants liée à la consommation énergétique


Émissions de CO2

Pour les combustibles fossiles, les émissions de CO2 sont proportionnelles à la consommation d’énergie primaire. Elles dépendent du type de combustible :

  • Gaz naturel : 0.198 kg CO2/kWh
  • Mazout : 0.264 kg CO2/kWh
  • Électricité : 0.29 kg CO2/kWh.

Pour être précis, le CO2 produit par une centrale électrique dépend du type de centrale, de la saison et de l’heure de la journée. En moyenne, pour le parc de production belge, on a en moyenne autour de 0.29 kg de CO2/kWh. Pour l’année 1998, on relève

  • Hiver, heures normales : 0,335 kg CO2/kWh élec produit.
  • Hiver, heures creuses : 0,269 kg CO2/kWh élec produit.
  • Mi-saison, heures normales : 0,342 kg CO2/kWh élec produit.
  • Mi-saison, heures creuses : 0,273 kg CO2/kWh élec produit.
  • Été, heures normales : 0,328 kg CO2/kWh élec produit.
  • Été, heures creuses : 0,264 kg CO2/kWh élec produit.

Avec,

  • Hiver = novembre, décembre, janvier, février.
  • Été = juillet et août.
  • Mi-saison = les autres mois.
  • Heures normales = entre 6h00 et 20h59 (pour les jours de la semaine).
  • Heures creuses = entre 21h00 et 5h59 (pour les jours de la semaine) et les jours de WE entiers. (en pratique, ces heures sont variables en fonction du distributeur).

Ces taux d’émissions de CO2 ont déterminé au niveau des centrales électriques du parc belge (selon le programme PROMIX) dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel- SPE. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Pour le calcul des émissions de CO2 du chauffage par pompes à chaleur, une valeur moyenne de 0,347 kg CO2/kWh élec produit peut être considérée, valeur pondérée selon le nombre d’heures normales, le nombre d’heures creuses, le nombre de jours d’hiver et de mi-saison compris dans la saison de chauffe.

À titre de comparaison, voici les émissions de CO2 publiées par d’autres sources. Certaines considèrent uniquement la phase de combustion, d’autres intègrent le cycle de vie complet du combustible (c’est-à-dire l’extraction, le transport, le conditionnement en plus de la combustion).

Type d’énergie

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (cycle complet)

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (combustion)

Émission d’équivalent CO2 [g/kWhPCI] : valeur Gemis 4.5 (cycle complet)

Émission de CO2 [g/kWhPCI] : valeur ADEME 1995 (combustion)

Émission de CO2 [g/kWhPCI] : valeur PEB (combustion)

Émission de CO2 [g/kWhPCI] : valeur CWaPE

Électricité réseau belge : niveau producteur

267

247

713 (ref = vieille centrale charbon)

456 (ref = centrale TGV)

Gaz naturel

231

202

235

180

202

251

Fioul lourd

319

281

280

Fioul domestique

301

271

327

270

263

306

Propane

275

231

240

Charbon

371

341

350

335

385

Bois pellets

0

46.7

0

0

45.6

Bois bûches

0

22.4

0

0


Émissions de NOx

Les émissions de NOx ne sont pas seulement liées au combustible, mais également au mode de combustion de celui-ci (taux d’excès d’air, température de flamme).

Les taux d’émission suivants peuvent être considérés :

Plage de valeurs NOx, Electrabel-SPE : mg/kWh

Valeur moyenne NOx, Electrabel-SPE : mg/kWh

Valeur NOx, Fondation Rurale de Wallonie : mg/kWh (combustion)

Valeur NOx, Gemis 4.5 : mg/kWh (cycle complet)

Ancienne chaudière mazout

…-200

200

Chaudière mazout non Low NOx

150 – 180

165

144

244

Chaudière mazout Low NOx

90 – 120

105

Ancienne chaudière gaz

150 – 200

175

Chaudière gaz atmosphérique

100 – 180

140

Chaudière gaz modulante

20 – 90

55

144

140

Électricité

420

420

459

Chaudière à bois bûches ancienne

180

Chaudière à bois bûches moderne

151

235

Chaudière à bois déchiqueté (plaquettes)

162

Chaudière à bois condensé (pellets)

344

Remarque sur les données

Les taux d’émissions de NOx des deux premières colonnes de résultats sont celles admises dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel – SPE – 1998.

Pour les chaudières, les taux d’émission de NOx sont exprimés en mg par kWh thermique de combustible consommé (à l’entrée de la chaudière). Par contre pour l’électricité, les taux sont exprimés en mg par kWh électrique disponible à la sortie des centrales électriques (et donc en tenant compte du rendement moyen du parc des centrales électriques en 1998, soit 38 %). Comme on le constate, ce rendement s’améliore et cette progression continuera dans les années futures grâce au remplacement des centrales au charbon par des TGV (Turbine Gaz Vapeur) qui ont un rendement de 55 %. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Les valeurs récoltées par la Fondation Rurale de Wallonie (FRW) sur base de sources allemandes et reprise dans les fiches éco-construction de l’IBGE datant de 2007 négligent les productions de NOx induites par les phases de transformation et de transport du combustible.

Les valeurs reprises du projet Gemis 4.5 considèrent quant à elles tout le cycle du combustible, de son extraction, son conditionnement et son transport jusqu’à la combustion finale.


Émissions de SO2

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 800 mg SO2/kWh électrique. Ce chiffre est passé à 430 mg SO2/kWh en 1999.

Une grande marge d’incertitude existe au niveau de la production de SO2 liée à la combustion de fuel, production liée au type de fuel et à la qualité de la combustion.

Voici une série de valeurs issues du programme international Gemis 4.5 qui estime les différentes productions de polluants sur le cycle du combustible : extraction, conditionnement et transport. En outre, les valeurs reproduites dans les fiches éco-construction de l’IBGE datant de 2007 et collectée par la FRW sur base de sources allemandes sont aussi indiquées : ces valeurs ne tiennent pas compte du conditionnement et du transport.

Type de production

Production de SO2, valeur FRW : mg/kWh  (combustion)

Production d’équivalent SO2, Gemis 4.5 : mg/kWh (cycle complet)

Production de SO2, statistiques environnementales 1999

Chaudière au fioul

504

600

Chaudière au gaz

0

111

Électricité

392

430

Chaudière à bois bûches ancienne

36

Chaudière à bois bûches nouvelle

36

320

Chaudière à bois déchiqueté (plaquettes)

36

Chaudière à bois condensé (pellets)

472


Émissions de poussières

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 61 mg de poussières/kWh. Ce chiffre est passé à 41 mg de poussières/kWh électrique en 1999.

Type de production

Poussières, valeurs FRW (sources allemandes) : mg/kWh (combustion)

Poussières, Statistiques environnementale 1999 : mg/kWh

Poussières, valeurs Gemis 4.5 : mg/kWh (cycle complet)

Chaudière fioul

18

27

Chaudière gaz

0

4.8

Electricité

41

15.4

Chaudière à bois bûches ancienne

252

Chaudière à bois bûches moderne

50

189

Chaudière à bois déchiqueté (plaquettes)

14

132

Degrés-jours [Théories – climat]

Window and snow with sleeping bag
Window and snow with sleeping bag

Principe des degrés-jours

« Quantifier le froid »

La consommation de chauffage est liée à l’écart de température entre l’ambiance intérieure et l’extérieur du bâtiment.

Or la température varie d’un lieu à un autre.

La notion de « degré-jour » a été introduite pour permettre la détermination de la quantité de chaleur consommée sur une période donnée et pour effectuer des comparaisons entre des bâtiments situés dans des zones climatiques différentes.

Le principe consiste à additionner, jour après jour, les écarts de température existants entre l’intérieur et l’extérieur. Par exemple, si, en moyenne de la journée, il fait 20°C à l’intérieur et 5°C degrés à l’extérieur, on parlera de 15 degrés-jours. De même 3 journées à 0°C extérieur seront comptabilisées comme 60 degrés-jours.

En additionnant tous les écarts de température entre intérieur et extérieur sur tous les jours de la période de chauffe, on obtiendra un nombre proportionnel au besoin de chaleur du bâtiment : les degrés-jours du lieu.

En généralisant :

Le nombre de degrés-jours d’une période de chauffage est égal au produit du nombre de jours chauffés multiplié par la différence entre la température intérieure moyenne du local considéré et la température extérieure moyenne.

DJ = nombre de jours chauffés x (T intérieure moyenne – T extérieure moyenne).

Qu’est-ce qu’une « température extérieure moyenne journalière » ?

Un bâtiment possède une certaine inertie. On a donc considéré que son besoin de chauffage était proportionnel à la température extérieure moyenne sur une journée (et non à la température la plus froide de la nuit). Il a été convenu de prendre comme référence la moyenne arithmétique entre la température minimale et maximale de ce jour.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7° à 15h00, va être comptabilisée comme une journée dont la température moyenne est de 1°C.

Degrés-jours « normaux » en base 15/15

La chaleur à fournir au bâtiment n’est pas rigoureusement proportionnelle à la différence entre la température extérieure moyenne et la température de confort du local. En effet, le bâtiment jouit de certains apports gratuits : le soleil, la chaleur produite par les occupants et les équipements (les gains internes).

L’expérience a appris que dans notre pays une température intérieure moyenne (moyenne sur l’ensemble des pièces et moyenne sur les 24 heures de la journée) de 18°C pouvait être considérée comme représentative de la température de confort désirée.

Et les apports gratuits (gains internes et externes) sont estimés en moyenne à environ 3°C.

Si bien que le système de chauffage ne doit plus chauffer que jusque 15°C (le soleil et l’occupation permettant la montée de la température jusque 18°C).

De même, s’il fait 15°C dehors, le chauffage peut être interrompu : on est en dehors de la saison de chauffe.

On parle alors de « degrés-jours en base 15/15 » comme étant l’indicateur représentatif des besoins de chauffage dans notre région.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7°C à 15h00, va être comptabilisée comme 14 DJ en base 15/15.

Des moyennes de ces degrés-jours ont été établies par l’IRM sur les 30 dernières années : ce sont les degrés-jours Normaux. Ils servent de référence pour définir la rigueur moyenne de l’hiver et sont accessibles via cette adresse.

Pour plus d’informations sur ce que sont les températures normales, ainsi que la définition des périodes de référence (30 ans), vous pouvez vous rendre sur cette page.

Les degrés-jours 15/15 normaux (DJ 15/15) sont accessibles sur le site de la Région wallonne.

Les degrés-jours 15/15 sont également accessibles après chaque mois en contactant l’IRM. Adressez une demande par mail à climinfo@meteo.be en précisant la commune souhaitée (si c’est le cas).

Enfin, des degrés-jours 16,5/16,5 sont également communiqués sur le site de l’Association Royale des Gaziers de Belgique (ARGB) : http://www.gaznaturel.be.

Mais attention : leur base de référence est de 16,5°C ! Autrement dit, si la température moyenne journalière est de 5°, ils comptabiliseront 11,5 DJ, alors que 10 DJ seront comptabilisés en base 15°C. Peu importe, mais l’essentiel est de conserver une base de référence commune constante (ainsi, en base 16,5°C, les degrés-jours normaux annuels sont de 2458 !). Si la base 15 convient bien aux bâtiments administratifs ou scolaires coupés la nuit et le week-end, la base 16,5 est sans doute meilleure dans les bâtiments chauffés en permanence comme les lieux d’hébergement.

La durée de la saison de chauffe

S’il fait 8°C au petit matin en juillet et 18°C l’après-midi (donc température moyenne sur la journée de 13°C ( (8°C + 18°C)/2) ), faut-il comptabiliser 2 degrés-jours 15/15 ? Pour l’IRM : oui, bien sûr. Pourtant, on sait que la chaudière ne sera pas remise en route pour autant et qu’il ne faut donc pas comptabiliser ce « froid »-là.

L’Association Royale de la Technique du chauffage (ATIC) a donc défini des critères de début et de fin de saison de chauffe :

  • Le début de saison de chauffe est le premier jour, d’août, de septembre ou d’octobre, pour lequel simultanément la température maximum Tm n’a pas atteint 18°C et 2 DJ au moins ont été relevés sur la journée.
  • La fin de la saison de chauffe est le jour de mai ou juin à partir duquel simultanément la température maximum Tm est supérieure à 18°C et 2 DJ au plus ont été relevés sur la journée;

On notera que cela explique certaines différences trouvées entre tableaux de degrés-jours : certains sont basés sur les données strictes de l’IRM, d’autres sont basées sur les valeurs de l’ATIC où « l’été n’est pas comptabilisé ».


Degrés-jours « équivalents »

En toute rigueur, le calcul des degrés-jours repose sur le calcul des apports solaires propres à chaque bâtiment. Ainsi, un bâtiment fortement vitré bénéficiera d’un apport solaire hivernal important et ses besoins de chauffage diminueront d’autant.

De plus, un bâtiment bien isolé verra sa chaudière coupée plus tôt puisque les mêmes apports des équipements intérieurs (l’éclairage par exemple) feront monter plus vite la température intérieure.

La figure ci-dessous permet de visualiser la réalité :

  • La température extérieure moyenne décrit la courbe sinusoïdale jaune et présente son minimum en hiver.
  • La contribution des apports solaires permet de déterminer la courbe rouge, dite des « températures sans chauffage » SC : c’est le lieu des températures moyennes atteintes à l’intérieur sans apport de chauffage. La courbe rouge est au-dessus de la courbe jaune : les températures intérieures sont supérieures aux températures extérieures par l’action des gains solaires.
  • L’horizontale verte représente la température de confort (ici, par simplification 18 °C).
  • La droite horizontale bleue détermine le lieu des « températures de non-chauffage » NC, c’est-à-dire la température au-delà de laquelle il n’est plus nécessaire de chauffer, car le supplément de température permettant d’atteindre la droite des températures de confort est fourni par les gains internes (supposés constants).

La surface rectangulaire rouge représente donc les degrés-jours équivalents du mois de novembre (10,5°C x 30 jours = 315 DJ).

La surface hachurée comprise entre la courbe sans chauffage et la droite de non-chauffage représente les degrés-jours du bâtiment considérés sur la période de chauffage, encore appelés « degrés-jours équivalents ».

Ce calcul, qui fournit précisément les besoins du bâtiment est assez complexe, notamment parce qu’il suppose une évaluation de l’ombrage des bâtiments voisins sur les façades, parce qu’il intègre la notion d’inertie dans la récupération des apports solaires, etc…

La méthode de calcul détaillée est reprise dans la NIT 155 (Note d’Information Technique du CSTC).

Grandeurs caractéristiques des ventilateurs

Grandeurs caractéristiques des ventilateurs


Diamètre nominal

 La plupart des ventilateurs ne sont pas construits à partir de dimensions arbitraires. Celles-ci sont normalisées, ce qui permet leur interchangeabilité et les comparaisons de prix.

Le diamètre nominal d’un ventilateur est le diamètre de la section de raccordement placée à l’aspiration dans le cas d’un raccordement direct à un conduit. Lorsque le ventilateur est équipé différemment (par ex.: présence d’un pavillon à l’aspiration), on se réfère au ventilateur équivalent en raccordement direct.

Diamètres nominaux en mm

63

71

80

90

100

112

125

140

160

180

200

224

250

280

315

355

400

450

550

560

630

710

800

900

1 000

1 120

1 250

1 400

1 600

1 800

2 000


Courbes caractéristiques

Les performances des ventilateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants.

On retrouve dans les courbes caractéristiques :

  • la hauteur manométrique totale que peut fournir un ventilateur en fonction du débit (ou point de fonctionnement),
  • la vitesse du ventilateur pour chaque point de fonctionnement,
  • le rendement du ventilateur pour chaque point de fonctionnement,
  • la pression dynamique à la sortie du ventilateur,
  • la puissance absorbée à l’arbre du moteur.

Courbes caractéristiques d’un ventilateur centrifuge à aubes inclinées vers l’arrière.

Pour fournir un débit de 8 000 m³/h, le ventilateur délivre une pression dynamique de 45 Pa.

Pour un réseau ayant, avec ce débit une perte de charge de 955 PA, la hauteur manométrique
du ventilateur est de 1 000 PA Pour obtenir ce point de fonctionnement le ventilateur
doit tourner à 1 950 tr/min.
Pour ce point de fonctionnement, son rendement sera de 81 %
et la puissance à l’arbre sera proche de 2,8 kW.

Certaines courbes caractéristiques reprennent de façon semblable la puissance acoustique émise par le ventilateur pour chaque point de fonctionnement.

De même, si l’angle de calage des aubes du ventilateur (ventilateur hélicoïde) peut varier ou si le ventilateur est équipé d’un aubage de prérotation, on retrouvera sur les courbes caractéristiques les différentes performances du ventilateur en fonction du réglage choisi.

On peut également signaler que l’imprécision des mesures des caractéristiques en laboratoire a conduit à éditer des classes de tolérance permettant de se faire une idée de la qualité de la documentation technique fournie par le fabricant.

Classe de tolérance

0

1

2

3

Débit d’air

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Pression

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Puissance absorbée

+ 2 %

+ 3 %

+ 8 %

+ 16 %

Rendement

– 1 %

– 2 %

– 5 %

Puissance acoustique

+ 3 dB

+ 3 dB

+ 4 dB

+ 6 dB


Sens de rotation et position de l’enveloppe

C’est la situation de la manchette de refoulement qui permet de différencier la position de l’enveloppe (0, 90, 180 ou 270 degrés avec parfois des angles intermédiaires comme 45, 135, 270 ou 315 degrés).

Quant au sens de rotation d’une roue, il se détermine comme suit : l’observateur se place face au ventilateur du côté du moteur (ou du manchon d’accouplement ou de la poulie) et regarde dans le prolongement de l’axe de rotation du ventilateur. Si l’observateur voit alors le ventilateur tourner dans le sens des aiguilles d’une montre, le ventilateur est dit tourner « à droite » ou dans le « sens direct » ; s’il le voit tourner dans le sens inverse des aiguilles d’une montre, le ventilateur est dit tourner « à gauche » ou dans le « sens inverse ».


Règles de similitude

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné.

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume (m³/h)

n = vitesse de rotation (tr/min)

p = gain de pression (Pa)

P= puissance sur l’arbre (kW)

p/ p= (n1 / n2)² = (q1 / q2

Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Variation du diamètre de l’ouïe d’aspiration pour un ventilateur tournant à vitesse constante

V/ V= (d/ d2

Légende :

d = diamètre de l’ouïe d’aspiration (mm)

p/ p= (d/ d2

Pw1 / Pw2 = (d1 / d2)5

Eclairage naturel et ses variations

Eclairage naturel et ses variations

La lumière naturelle n’est ni fixe, ni toujours égale dans sa qualité et son intensité.


L’influence du type de ciel

La lumière naturelle traduit les fluctuations de l’état du ciel. Elle est composée de la lumière directe du soleil et de la lumière diffuse du ciel. Les stratégies à mettre en place pour accroître la luminosité intérieure d’un édifice doivent tenir compte de cette différence.

La lumière solaire directe dispense un flux considérable qui s’avère facile à capter et à diriger. Elle présente une dynamique intéressante et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement et ne provoque pas de surchauffe mais elle peut être considérée comme insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes.

Les résultats des simulations présentés ci-dessous mettent en évidence l’influence du type de ciel sur la quantité de lumière qui peut être captée par un local, le 15 mars à 9 heures universelles, pour une ouverture orientée au sud. Le ciel couvert fournit un éclairage parfaitement symétrique par rapport à l’axe du local, ce qui est dû au fait que la distribution des luminances de la voûte céleste d’un ciel couvert est symétrique par rapport au zénith. Ce n’est pas le cas d’un ciel clair. Ainsi, la répartition lumineuse d’un local éclairé naturellement par un ciel serein est très souvent fortement asymétrique. Les simulations réalisées pour un local orienté vers le sud sous un ciel clair et sous un ciel clair avec soleil, le 15 mars à 9 heures, présentent des niveaux d’éclairement nettement plus importants du côté ouest du local.

Par ciel couvert, les niveaux d’éclairement dans le module simulé varient d’environ 1 300 lx, à 50 cm de la fenêtre, à 70 lx au fond du local.

Graphe résultat simulation ciel couvert.

Par ciel clair, ces valeurs d’éclairement augmentent jusqu’à 4 300 lx près de la fenêtre et 300 à 400 lx au fond du local.

Graphe résultat simulation ciel clair.

La présence du soleil dans un ciel clair permet au rayonnement solaire direct d’entrer dans un local. Ainsi, dans la simulation d’un ciel clair avec soleil, le rayonnement solaire direct trace une zone extrêmement lumineuse sur le plan de travail, ce qui porte l’éclairement du côté ouest, à proximité de l’ouverture, à près de 20 000 lx. Dans ce dernier cas, l’éclairement au fond du local vaut environ 500 lx. La lumière solaire disponible diminue donc fortement lorsque le ciel se couvre.

Graphe résultat simulation ciel clair avec soleil.


L’influence du moment de l’année

Pour des conditions de ciel clair avec soleil, le 15 juin à 13 heures universelles, le niveau d’éclairement simulé dans notre cas de base atteint 55 000 lx à proximité de la fenêtre. Mais ces valeurs d’éclairement très élevées ne concernent qu’une bande étroite le long de la façade, ce qui est lié à la hauteur du soleil qui atteint 62° le 15 juin à 13 heures.

Graphe résultat simulation 15 juin.

Par contre, le 15 décembre, l’éclairement est compris entre 14 000 et 11 000 lx sur plus de la moitié du local. Au fond de l’espace, les valeurs atteintes sont de 750 lx le 15 juin et 1 600 lx le 15 décembre.

Graphe résultat simulation 15 décembre.

De l’été à l’hiver, le rayonnement solaire direct pénètre plus en profondeur dans le local mais le niveau d’éclairement à proximité de la fenêtre diminue progressivement.


L’influence de l’heure

Par ciel clair avec soleil, la répartition lumineuse varie fortement d’une heure à l’autre et d’un point à l’autre du local. La lumière disponible augmente jusqu’à la mi-journée, puis diminue.

Pour la journée du 15 décembre, par exemple, les valeurs d’éclairement obtenues à 9 huniv. sont comprises entre 2 600 lx près de la fenêtre et 400 lx au fond du local; tandis qu’à 13 huniv. , l’éclairement vaut 11 000 lx sur plus de la moitié du local et 1 600 lx au fond.

Le rayonnement solaire direct induit une tache de lumière qui évolue, au cours de la journée, depuis le mur ouest du local vers le mur est.

Graphe résultat simulation 9 heures.

Graphe résultat simulation 11 heures.

Graphe résultat simulation 13 heures.

Graphe résultat simulation 15 heures.

Graphe résultat simulation 17 heures.


L’influence de l’orientation de l’ouverture

L’organisation spatiale d’un bâtiment devrait toujours être pensée en fonction du moment d’occupation des locaux, de l’activité qui s’y déroule et de la course du soleil.

   

Il est préférable de placer les fenêtres de telle façon que le soleil puisse pénétrer à l’intérieur d’un local au moment où il est le plus utilisé. Ainsi, les locaux essentiellement occupés le matin devraient, dans la mesure du possible, être orientés à l’est, ceux occupés dans le courant de la journée, au sud et ceux où l’on se tient en soirée, à l’ouest. Pour une habitation domestique, on choisira, par exemple, une orientation est pour la cuisine, tandis qu’une orientation ouest convient davantage à un salon. Les locaux de service ainsi que les pièces de travail nécessitant une lumière constante et homogène sont de préférence localisés au nord.

L’apport de lumière naturelle est maximum sur la façade sud en hiver et en entre-saison. Par contre, en été, le rayonnement solaire est plus important à l’est pendant la matinée et à l’ouest durant l’après-midi.

Les ouvertures orientées au sud offrent donc la meilleure situation puisqu’elles captent un maximum de rayons solaires en hiver et durant l’entre-saison et qu’en été, il est plus facile de se protéger du soleil au sud puisqu’il est plus haut dans le ciel. La façade sud apparaît donc comme l’orientation privilégiée pour capter la lumière naturelle.

Lorsque le ciel est couvert, le rayonnement lumineux est diffusé dans toutes les directions. Les baies vitrées verticales captent donc la lumière de manière similaire, indépendamment de leur orientation. Par contre, lorsque le ciel est clair, l’orientation de la baie vitrée influence directement la quantité de lumière captée. Ainsi, une baie vitrée perpendiculaire aux rayons solaires captera beaucoup plus de lumière que les autres orientations.

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Pendant l’été, elles peuvent devenir une source d’éblouissement, difficile à contrôler car le soleil est bas. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, ce qui est préférable pour certaines activités comme un atelier de peinture, par exemple.

Les pièces orientées à l’est profitent du soleil le matin mais le rayonnement solaire est alors difficile à maîtriser car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin.

Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest assure une insolation directe en soirée. Il est très intéressant d’orienter à l’ouest les locaux où l’on souhaite un éclairage doux et chaleureux. Toutefois, il y a un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important.

De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler et d’un ensoleillement maximal en hiver, ce qui est souvent l’idéal.

En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans la maison tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.


L’influence de l’inclinaison de l’ouverture

La surface à prendre en compte pour étudier la lumière disponible est le plan dans lequel s’inscrivent les limites de la fenêtre. Ainsi, la photo ci-dessous correspond à une ouverture horizontale, même si les vitrages sont obliques.

Pour capter le maximum de rayonnement solaire direct, une ouverture doit être la plus perpendiculaire possible aux rayons du soleil. En revanche, par ciel couvert, les performances d’une fenêtre sont avant tout liées à la portion de ciel visible depuis l’ouverture. Ainsi, une ouverture zénithale horizontale couvre une partie de ciel plus importante qu’une fenêtre verticale et apporte donc une plus grande part de lumière naturelle diffuse dans le local qu’elle éclaire. De même, une fenêtre oblique tournée vers le ciel offre déjà un flux lumineux diffus plus important que la fenêtre verticale.

Les fenêtres de façade et les ouvertures zénithales ont un comportement radicalement divergent en ce qui concerne la sélection des pénétrations solaires.

Les ouvertures latérales ne voient qu’une partie du ciel. Par ciel couvert, ces ouvertures verticales ont donc des performances lumineuses nettement plus faibles que les ouvertures horizontales. En outre, la lumière pénètre latéralement dans les locaux, ce qui peut créer des situations de contre-jour ou d’éblouissement à proximité des fenêtres.

Cependant, les fenêtres latérales en façade sud transmettent un maximum de rayons solaires en hiver, ce qui favorise l’utilisation des gains solaires, tout en limitant les pénétrations estivales et les surchauffes qu’elles induisent.

Schéma fenêtres latérales en façade sud- 01.Schéma fenêtres latérales en façade sud- 02.
Schéma fenêtres latérales en façade sud- 03.

Les ouvertures zénithales s’ouvrent sur la totalité de la voûte céleste; elles induisent donc une large pénétration de lumière diffuse. La distribution lumineuse obtenue par une ouverture horizontale est aussi beaucoup plus homogène que celle produite par une fenêtre verticale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement.

Par contre, par ciel serein, les ouvertures zénithales captent mal les rayons solaires d’hiver alors qu’elles laissent largement pénétrer le soleil d’été, ce qui implique un mauvais comportement thermique.

Schéma ouvertures zénithales - 01. Schéma ouvertures zénithales - 02.
Schéma ouvertures zénithales - 03.

Le graphique donné ci-après présente les valeurs d’éclairement par ciel couvert d’un local comprenant, pour seule ouverture, une fenêtre zénithale horizontale de 1,5 m² de surface placée au centre du plafond, le 15 décembre à 13 heures universelles. Cette fenêtre zénithale donne de très bons résultats puisqu’elle procure un éclairage assez uniforme de l’espace, alors que la surface vitrée est faible. Le désavantage majeur d’une ouverture horizontale réside dans son mauvais comportement par rapport aux gains solaires, qui sont plus élevés en été qu’en hiver.

Graphe résultat simulation ciel couvert.


L’influence de l’environnement

Chaque lieu spécifique développe sa propre identité vis-à-vis de sa région et de son climat général. Le côté est d’une montagne offre de beaux levers de soleil et sa disparition rapide dans la soirée ; le versant ouest montre de superbes couchers mais un soleil qui se lève tard ; le creux de la vallée reçoit une période d’ensoleillement direct plus courte que le sommet de la montagne. La topographie, la végétation, la nature du sol et l’urbanisme influencent entre autres les données météorologiques d’un lieu: chaque site est caractérisé par un microclimat. Dès lors, travailler l’architecture d’un bâtiment en faisant abstraction de son environnement paraît impensable.

La lumière disponible dépend de l’environnement direct du bâtiment par le jeu de différents paramètres : le relief du terrain, les constructions voisines, le coefficient de réflexion du sol, la végétation,…. Ces éléments ne doivent pas être négligés; la présence d’un gratte-ciel, d’un lac ou d’un arbre peut radicalement transformer la lumière d’un espace.

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain peut provoquer de l’ombre sur un bâtiment ou au contraire favoriser son ensoleillement. L’éclairement d’un site en pente dépend de la géométrie solaire ainsi que de l’orientation et de l’inclinaison du terrain. Les pentes sud jouissent d’une meilleure insolation que les terrains plats. Il faut prendre en compte les caractéristiques naturelles du site et tirer profit du profil du terrain, que l’on pourra au besoin remanier localement.

On appelle « masque solaire » tout corps empêchant le rayonnement solaire d’atteindre une surface que l’on désire ensoleiller. En ville, en hiver, il est parfois difficile de capter quelques rayons solaires à cause des bâtiments voisins qui leur font écran.

La quantité d’énergie solaire reçue en un endroit dépend souvent de l’ombrage des bâtiments avoisinants. En Belgique, en hiver, le soleil est bas sur l’horizon. Tous les masques de l’environnement, immeubles ou grands arbres, qui interceptent le soleil pendant cette période gêneront grandement l’utilisation de la lumière naturelle.

Les simulations ci-dessous présentent la diminution du niveau d’éclairement intérieur de notre local suite à l’ajout d’un masque urbain formé par un bâtiment de 30 m de long et de 15 m de haut, placé parallèlement au local simulé, à 18 m de la fenêtre. Cet obstacle correspond à un angle horizontal d’obstruction de 40° et à un angle vertical d’obstruction de 37° depuis le milieu de la fenêtre. La quantité de lumière intérieure est fortement réduite à cause de cette construction: sous ciel couvert, le 15 décembre à 13 huniv., l’éclairement n’est plus que de 80 lx à 2 m de la fenêtre pour le local ombragé par le bâtiment alors que, sans ce masque urbain, il y a environ 200 lx.

Graphe résultat simulation sans bâtiment.

Graphe résultat simulation avec bâtiment.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Pour profiter au maximum de la lumière naturelle, il importe de ne pas négliger le facteur de réflexion des surfaces extérieures environnant le bâtiment. En effet, des surfaces claires et réfléchissantes augmentent la quantité de lumière qui peut pénétrer dans le bâtiment.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Les graphes ci-dessous montrent la variation de la lumière naturelle dans un bâtiment en fonction du coefficient de réflexion du sol qui entoure le bâtiment, le 15 juin à 13 heures universelles sous ciel couvert. Trois matériaux différents ont été simulés : la terre (r = 0,22), qui correspond au facteur de réflexion utilisé pour le sol extérieur de l’ensemble des simulations de ce chapitre, le béton neuf (r = 0,35) et la neige (r = 0,9). Le local est d’autant mieux éclairé que le coefficient de réflexion du sol extérieur est élevé.

Graphe résultat simulation sol extérieur en terre.

Graphe résultat simulation sol extérieur en béton.

Graphe résultat simulation sol extérieur couvert de neige.

L’emploi de matériaux réfléchissants peut également influencer l’exposition effective d’un bâtiment. Un édifice orienté au nord et doté de larges vitrages clairs pour tirer parti de la lumière naturelle peut se trouver dans une situation sud si on construit en face de lui un bâtiment équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement. A l’évidence, les conditions de confort du premier bâtiment sont profondément modifiées par la construction du second.

Des éléments liés au bâtiment lui-même, tels que des murs de refends, des surplombs, des light shelves,….peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La mise en place d’auvents ou de surplombs fixes destinés à réduire les problèmes d’éblouissement et de surchauffe pénalisera bien sûr la quantité de lumière captée par le bâtiment. En général, il est souhaitable en Belgique que les angles d’obstruction ne dépassent pas 45° pour l’angle horizontal et 25° pour l’angle vertical.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Annexe : les paramètres de simulation

Les simulations présentées ci-dessus proviennent du logiciel SUPERLITE, programme d’éclairage naturel faisant partie du progiciel ADELINE.

Elles sont toutes réalisées à partir d’un module de base de 7,2 m de profondeur, 4,8 m de largeur et 3 m de hauteur, éclairé par une fenêtre latérale de 4,58 m de large et de 1,13 m de haut, centrée horizontalement. Le plan de travail et le rebord inférieur de l’ouverture sont situés à 0,75 m du sol. La fenêtre couvre une aire de 5,2 m², ce qui correspond à 15 % de la superficie du plancher de ce local.

Schéma paramètres de simulation.

Les simulations tiennent compte d’un double vitrage, dont le coefficient de transmission lumineuse est de 78 %. Cette vitre est placée en retrait de 0,15 m par rapport au plan de la façade. Le module simulé est situé en site parfaitement dégagé, sans élément d’ombrage. Les coefficients de réflexion des parois intérieures valent 15 % pour le sol, 45 % pour les murs et 70 % pour le plafond.

Les données météorologiques utilisées pour les calculs sont celles d’Uccle (Bruxelles) : 50,8° de latitude (nord), – 4,4° de longitude (est) et 100 m d’altitude. Le moment de la journée simulé est toujours précisé en fonction des heures universelles. Chaque fois qu’un paramètre de ce module de base a été modifié dans une simulation, le changement effectué est clairement précisé.

Confort acoustique

Confort acoustique


Les courbes de Noise Rating (NR)

Pour imposer un niveau de confort, la première idée consiste à imposer un niveau de bruit maximal, un seuil en décibel à ne pas dépasser.

Mais la sensibilité de l’oreille humaine est variable suivant la fréquence : pour notre oreille, 60 dB à 1 000 Hz est plus dérangeant que 60 dB à 250 Hz (la sensibilité est optimum entre 2 et 5 kHz).

Pour déterminer les différents critères du confort acoustique d’un local, on s’est dès lors basé sur l’allure générale des courbes de niveau d’isosonie de l’oreille.

L’Organisation Internationale de Normalisation (ISO) a proposé plusieurs courbes qui correspondent toutes à un certain degré de confort acoustique (ou de gêne) : courbes d’évaluation du bruit, ou courbes NR (Noise Rating). Grâce à ces courbes, il est possible de déterminer au moyen d’un seul chiffre le niveau de pression acoustique maximum autorisé dans chaque bande d’octave : par exemple, l’indice NR 40.

Pour obtenir le degré de nuisance d’un bruit, il suffit de tracer le spectre de ce bruit par bandes d’octave sur le réseau de courbes NR et de prendre l’indice de la courbe NR de rang le plus élevé atteint par le spectre. On verra alors immédiatement sur quelles fréquences il faudra porter l’attention afin de diminuer la gêne.

Le bruit dont on repère le spectre ci-dessus est de niveau NR 66.

On retrouve parfois dans les catalogues de fournisseur de matériel de ventilation la notion de « NC », tout à fait semblable à « NR ». Ces deux grandeurs sont reliées par la relation :

NC ≈ NR – 2 dB

Un niveau de confort acoustique NR 35 équivaut donc à un niveau de confort NC 33.

À titre d’information, la courbe NR 30 passe par la pression acoustique de 30 dB à une fréquence de 1 000 Hz, tandis que la courbe NC 30 passe par la pression acoustique de 30 dB à une fréquence de 2 000 Hz.


Des critères de confort

Ces courbes NR permettent de proposer des critères de confort acoustique, du type :

NR 20 Conditions excellentes d’écoute,
salles de concert, studios d’enregistrement
NR 25 Très bonnes conditions d’écoute,
auditoires, théâtres, églises, salles de conférence
NR 20 – 30 Condition de séjour, de repos, de sommeil,
maisons d’habitation, hôtels, appartements
NR 30 – 35 Bonnes conditions d’écoute,
bureaux de direction, salles de classe, bibliothèques
NR 35 – 40 Conditions d’écoute normales,
grands bureaux, restaurants calmes, commerces
NR 40 – 45 Conditions d’écoute modérées
laboratoires, restaurants, bureaux de dessin
NR 45 – 55 Conditions de travail acceptables avec un minimum de compréhension de la parole
NR 50 – 70 Usines, atelier

La précision du niveau NR permet de quantifier les exigences acoustiques au niveau des cahiers des charges.

Si, par exemple, on trouve dans un cahier des charges que l’installation de climatisation ne doit pas dépasser NR 35, cela veut dire que le spectre du bruit de la climatisation ne peut, dans aucune bande d’octaves, dépasser les valeurs admises par le spectre limite NR 35.

En général, un faible pourcentage de personnes est dérangé lorsque le bruit émis par une source isolée dépasse de 5 dB le bruit de fond. Si ce dépassement est de 10 dB, l’ensemble des personnes en ressent l’inconvénient.

La mesure du niveau NR d’un local peut s’effectuer grâce à un sonomètre, en mesurant le spectre sonore.


Les niveaux de l’ambiance sonore résultant des activités extérieures

Selon le contexte urbanistique, c’est à dire selon qu’il s’agisse d’une zone rurale, d’une zone de séjour récréatif, d’une zone résidentielle, etc… et selon le moment de la journée, un certain niveau de bruit est habituellement rencontré :

Valeurs indicatives de niveau sonore mesurée à l’air libre [dB (A)] (zone d’activités extérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif, à l’exception des zones reprises aux points 2, 3, et 8. 40 35 30
2. Zones résidentielle, zones rurales et zones de loisirs situées à moins de 500 m d’une zone industrielle non citée au point 3 ou d’une zone d’équipements collectifs ou d’utilité publique. 50 45 45
3. Zones résidentielles, zones rurales, zones de séjour récréatif à moins de 500 m d’une zone d’activités artisanales, d’une zone de PME, d’une zone de services ou d’une zone d’exploitation pendant la période d’activité. 50 45 40
4. Zones résidentielles, excepté celles reprises au point 2 et 3. 45 40 35
5. Zones industrielles, zones de services, zones d’équipements collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 60 55 55
6. Zones de loisirs, à l’exception de celles reprises au point 2, et zones de séjour récréatif. 50 45 40
7. Autres zones à l’exception des zones tampons, domaines militaires et zones auxquelles s’appliquent des valeurs indicatives fixées par décret particulier. 45 40 35
8. Zones tampons. 55 50 50

Valeurs indicatives de niveau de l’ambiance sonore mesurée à l’intérieur [dB(A)](zone d’activités intérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif. 30 25 25
2. Zones industrielles, zones de services, zones d’équipement collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 33 28 28
3. Zones résidentielles et autres zones, à l’exception de celles citées aux points 1 et 2. 33 28 28

« Tableau des valeurs indicatives de niveau de l’ambiance sonore résultant des activités ».

Niveau d’isolation thermique : niveau K

Niveau d'isolation thermique : niveau K


La méthode de calcul

Les 3 Régions du pays imposent un niveau d’isolation thermique global des bâtiments minimum pour les constructions nouvelles ou rénovations lourdes.

Voici en résumé les principes de ce calcul. Pour obtenir tous les détails réglementaires de la méthode, on consultera utilement  l’annexe VII de la réglementation relative à la P.E.B.

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Étape 1 : délimiter le volume protégé V

Le volume protégé V d’une construction est constitué par l’ensemble des locaux chauffés (directement ou non).

Délimiter le volume protégé revient à séparer ces locaux d’autres locaux non chauffés. En général, c’est la couche isolante qui détermine ce volume. Un grenier qui sert de chambre fait donc partie du volume protégé, même s’il n’y a pas de radiateur installé.

Dans le premier cas, la cave et le garage ne sont pas chauffés; dans le deuxième cas, il s’agit de deux locaux utilisés et chauffés. En toute logique, on souhaite que ce soit l’ensemble de la frontière de ce volume chauffé qui réponde à un minimum de qualité thermique.

Étape 2 : repérer la superficie de déperdition thermique At

La superficie de déperdition At est la somme de toutes les superficies de toutes les parois qui séparent le volume protégé :

  • de l’ambiance extérieure (1),
  • du sol (2),
  • des espaces voisins qui n’appartiennent pas à un volume protégé (3).

Remarque : les parois mitoyennes ne sont donc pas comptabilisées (puisque le delta de température est considéré comme nul ou négligeable).

Étape 3 : calculer le coefficient de transfert thermique par transmission du bâtiment Ht

HT = HD+Hg+HU    [W/K]

 où :

  • HD = coefficient de transfert thermique par transmission à travers les parois directement en contact avec l’extérieur [W/K] ;
  • Hg= coefficient de transfert thermique par transmission à travers les parois en contact avec le sol [W/K];
  • HU=coefficient de transfert thermique par transmission à travers les parois en contact avec des espaces non-chauffés [W/K];

Chacun de ces coefficients est calculé, pour chaque paroi, de manière générique par la formule suivante :

 où :

  • α : coefficient de pondération tenant compte de l’environnement de la paroi [0<α<1 (environnement extérieur)]La valeur de ce coefficient de pondération « a » a pour but de diminuer les déperditions des parois qui ne sont pas directement en contact avec la température extérieure. Ainsi, en toute logique, on considérera des déperditions différentes selon qu’un même mur soit en contact avec le sol, un espace non chauffé ou l’environnement extérieur.
  • Ai : surface de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [m²];
  • Ui : valeur U de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [W/m²K];
  • lk : longueur du pont thermique linéaire k présent determinée avec les dimensions extérieures [m];
  • k : coefficient de transmission thermique linéique du pont thermique linéaire k [W/mK];
  • l : coefficient de transmission thermique ponctuel du pont thermique ponctuel l [W/K].

Étape 4 : déterminer le coefficient de transfert de chaleur moyen du bâtiment « Um »

Um=Ht/At [W/m²K]

Le coefficient Um est donc obtenu par le rapport entre le coefficient de transfert thermique total (Ht) et la surface de déperditions du volume protégé (At). Cette valeur nous donne une idée de la déperdition énergétique moyenne par m² de surface déperditive.

Étape 5 : déterminer la compacité volumique du bâtiment V/At

La compacité volumique est le rapport entre le volume protégé V et la superficie de déperditions At du bâtiment.

C=V/At [m]

Plus grande est la compacité, plus petite est la perte d’énergie par m³ chauffé. La réglementation sera dès lors moins sévère pour des bâtiments avec grande compacité (ex : bloc d’appartements).

À noter que l’on peut en déduire une réflexion sur le plan de la composition architecturale : l’habitation « 4 façades » entourée d’un jardin n’est pas une bonne solution sur le plan environnemental (déperditions par m² élevées…).

Étape 6 : déterminer le niveau K du bâtiment

La réglementation définit conventionnellement le niveau K par la relation :

K= 100 Um/Um,réf

Compacité Um,réf
V/At < 1 m Um,réf = 1
1 m < V/At < 4 m Um,réf = (C+2) / 3
4 m < V/At Um,réf = 2

Le niveau K est donc directement fonction de la compacité volumique V/At et du coefficient moyen de transmission thermique Um.

 Exemple.

Si le Umoyen de l’enveloppe (= Um) est de 0,6 et que la compacité est de 0,9 m , le niveau « K » du bâtiment est « K60 ».
Mais un même Umoyen pour un bâtiment de compacité volumique 5 (immeuble d’appartements) entraîne une valeur « K30 ».
Et si la compacité volumique est de 2, K = (300 x 0,6) / (2 + 2) = 45, soit un bâtiment déclaré « K45 ».

Il est alors possible de comparer ce niveau à celui exigé par la Réglementation :

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Remarques

  • Comme ce logiciel vous le montre, à partir du « K », il est possible d’établir un bilan énergétique très simplifié du bâtiment.
  • Un logiciel beaucoup plus complet Le logiciel PEB est accessible


Exemple chiffré

Voici les données de ce bâtiment très simplifié :

Mur extérieur avec 5 cm laine min.
U= 0,55 [W/m²K] .

Toiture avec 6 cm PS.
U= 0,48 [W/m²K].

Plancher avec 3 cm PS.
U= 0,82 [W/m²K] sur terre-plein
U= 0,73 [W/m²K] sur garage.

Porte extérieure : Ud = 3,5 [W/m²K]
Châssis bois + Double Vitrage : Uw = 2,69 [W/m²K].

Calculs

Pour accéder un exemple du logiciel de calcul du K d’un bâtiment.

Confort thermique : Les classes de climats intérieurs

Confort thermique : Les classes de climats intérieurs


Qu’entend-t-on par classe de climat intérieur ?

Pour évaluer les risques de condensation dans les matériaux ou à la surface de ceux-ci, il est nécessaire de connaître les conditions de climat intérieur qui sont présumées exister dans les locaux limités par les parois.
En fonction des valeurs moyennes annuelles de température et d’humidité relative de l’air intérieur des bâtiments, le CSTC dans ses publications distingue différentes classes de climat intérieur en fonction de la valeur annuelle moyenne de pression de vapeur d’eau pi à l’intérieur du bâtiment.


Quelles sont les classes de climat intérieur?

En fonction des pressions de vapeur moyennes annuelles (pi), le tableau suivant (extrait de la NIT 183 du CSTC) indique la classe de climat intérieur du local situé sous la toiture.

Définition du bâtiment Exemples pi Classe
Bâtiment avec une production de vapeur nulle ou faible.
  • lieux de stockage pour marchandises sèches
  • églises
  • salles de sport d’utilisation modérée
1 100 < p< 1 165 I
Bâtiment bien ventilé avec une production de vapeur limitée.
  • habitations de grande dimension
  • écoles
  • magasins
  • bureaux non climatisés
  • unités de soins hospitaliers
1 165 < pi < 1 370 II
Bâtiment d’utilisation intense.
  • habitations sociales
  • flats
  • maisons de soins
  • bâtiments faiblement climatisés (HR < 60 %)
1 370 < pi < 1 500 III
Bâtiment avec une production de vapeur élevée.
  • piscines
  • locaux industriels humides
  • blanchisseries
  • bâtiments fortement climatisés (HR > 60 %)
1 500 < pi < 3 000 IV

Inertie thermique

Inertie thermique

Les matériaux lourds de la construction tels que béton, brique, pierre, etc. ont une grande capacité à stocker de la chaleur. Le rayonnement solaire irradiant une paroi de brique ou de béton est, en partie, absorbé par celui-ci, transformé en chaleur et accumulé en son sein.
Cette paroi peut aussi prendre de la chaleur à de l’air plus chaud qu’elle.
La chaleur sera restituée dès que la température de l’air environnant est plus basse que celle de la surface du matériau (par convection) ou/et dès que la température de surface d »objets avoisinants descend en-dessous de celle de la paroi en question (par rayonnement).
L’inertie thermique peut simplement être définie comme la capacité d’un matériau à stocker de la chaleur et à la restituer petit à petit. Cette caractéristique est très importante pour garantir un bon confort notamment en été, c’est-à-dire pour éviter les surchauffes.

Cette capacité permet de limiter les effets d’une variation « rapide » de la température extérieure sur le climat intérieur par un déphasage entre la température extérieure et la température de surface intérieure des murs et par amortissement de l’amplitude de cette variation. Un déphasage suffisant permettra par exemple que la chaleur extérieure « n’arrive » qu’en fin de journée dans l’habitat, période où il est plus facile de le rafraîchir grâce à une simple ouverture des fenêtres.

L’inertie thermique d’un matériau est évaluée à l’aide des deux paramètres suivants :

  • la diffusivité : α = λ / (ρ * c) [m²/s]
  • l’effusivité : E = √ (λ * ρ * c) [ J.K-1.m-2.s-1/2]

où :

  • ρ la masse volumique du matériau en [kg.m-3]
  • c la capacité thermique massique du matériau en [J.kg-1.K-1]

Physiquement, la diffusivité thermique détermine la vitesse avec laquelle la température d’un matériau va évoluer en fonction des sollicitations thermiques extérieures.

L’effusivité d’un matériau est sa capacité à échanger de l’énergie thermique (L’énergie thermique est l’énergie cinétique d’un objet, qui est due à une agitation désordonnée de ses molécules et de…) avec son environnement (L’environnement est tout ce qui nous entoure. C’est l’ensemble des éléments naturels et artificiels au sein duquel se…). Lorsqu’on marche sur du sable chaud, on ressent une sensation de brûlure. Le sable impose sa température à notre corps, de manière plus importante que notre corps impose sa température au sable, car il possède une plus grande effusivité que le pied.

Pour garantir le confort d’été (éviter les surchauffes) on essaiera d’utiliser un matériau possédant les caractéristiques suivantes :
  • une faible diffusivité, pour que l’échange d’énergie thermique entre le climat extérieur et le climat intérieur se fasse le plus lentement possible (inertie en transmission).
  • une forte effusivité thermique pour que le mur stocke au maximum la fraîcheur dans les éléments en contact avec l’intérieur du bâtiment (inertie par absorption).

Exemple de l’évolution des températures intérieures lors d’une journée d’été dans un bâtiment à forte inertie et dans un bâtiment à faible inertie.

Vent

Vent


Le vent en Belgique

Le vent est un déplacement d’air, essentiellement horizontal, d’une zone de haute pression (masse d’air froid) vers une zone de basse pression (masse d’air chaud). Les différences de température entre les masses d’air résultent de l’action du soleil. Le régime des vents en un lieu est représenté par une rose des vents, qui exprime la distribution statistique des vents suivant leur direction. Par définition, la direction d’un vent correspond à son origine.

C’ est un facteur climatique important dans la détermination des besoins en énergie d’un bâtiment. Il influence le taux d’infiltration d’air du bâtiment, ainsi que les échanges de chaleur par convection à la surface de l’enveloppe des bâtiments peu isolés.

Par exemple, si à un certain moment de la journée l’intensité du vent augmente et que sa direction passe à l’ouest, le ciel se couvrira de nuages et le taux d’infiltration d’air du bâtiment augmente. Ainsi, s’il fait froid, les déperditions thermiques et donc les besoins en énergie de chauffage des locaux augmentent.

Cela suppose de connaître d’une part, la fréquence et la vitesse moyenne du vent dans toutes les directions et d’autre part, pour toutes directions confondues, la fréquence des différentes plages d’intensité du vent.

La direction et la vitesse du vent caractérisent celui-ci. La direction du vent en un lieu est donnée par l’orientation d’où il souffle; la vitesse du vent est exprimée en km/h.

Les graphes et tableaux ci-dessous donnent, pour chaque direction du vent, la fréquence en % du temps et la vitesse moyenne, le 15 des mois de mars, juin, septembre et décembre, à Uccle.

Direction

Fréquence
% temps

Vitesse
km/h
N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
4,2
4,6
7,7
6,6
4,6
2,9
3,3
5,6
7,9
8,4
11,0
9,7
7,7
5,3
4,2
3,6
17,6
17,1
15,6
13,6
12,9
16,6
14,0
16,9
19,8
21,3
22,6
22,3
17,5
16,5
14,7
14,8

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
6,2
5,8
7,0
5,4
4,3
2,4
2,5
2,8
4,2
5,3
10,0
9,6
9,2
7,1
8,1
6,6
13,5
13,5
12,4
11,1
9,7
8,5
9,1
10,9
12,3
13,4
15,0
14,4
12,4
11,6
11,1
12,0

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
4,2
4,4
6,4
5,9
6,0
3,3
4,3
5,2
5,9
6,7
9,9
9,8
9,0
5,2
4,2
3,7
13,4
11,0
12,0
11,6
10,3
8,8
10,0
11,3
12,1
13,6
13,7
12,6
12,1
11,7
10,3
11,1

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
1,3
1,2
4,5
5,4
4,0
3,8
3,4
6,3
10,5
12,8
14,2
12,0
8,8
4,4
3,0
1,7
15,4
17,0
15,6
13,9
11,5
6,3
15,9
17,9
20,2
20,5
22,0
20,5
19,0
18,9
16,7
14,0

Par exemple, la fréquence et la vitesse moyenne du vent est de :

  • 9,7 % et 22,3 km/h pour la direction OSO le 15 mars,
  • 6,4 % et 12 km/h pour la direction NE le 15 septembre,
  • 14,2 % et 22 km/h pour la direction SO le 15 décembre.

Afin de tenir compte de l’intensité du vent à considérer dans les calculs de déperditions thermiques des bâtiments, le tableau ci-dessous donne les fréquences du vent correspondant aux plages de vitesse de 10 en 10 km/h, toutes directions confondues, à Uccle.

Vitesse

Fréquence en % du temps

km/h J F M A M J J A S O N D
0 – 9 27,7 30,7 30,5 31,3 40,8 45,0 49,9 46,4 50,3 43,8 36,8 29,7
10 – 19 33,3 34,1 36,0 38,1 41,1 41 37,9 38,4 37,6 35,2 34,7 32,5
20 – 29 24,0 20,9 20,1 21,8 14,9 11,5 10,2 12,2 10,2 11,5 18,6 22,8
30 – 39 10,0 9,5 0,9 6,7 2,8 2,1 1,7 2,5 1,4 4,1 6,7 10,2
40 – 49 3,6 3,4 3,3 1,8 0,4 0,4 0,2 0,4 0,3 1,2 2,6 3,6
> 50 1,3 1,3 1,1 0,2 0 0 0 0 0 0,2 0,4 1,2

Dans les stations météorologiques les relevés de vent sont effectués à une hauteur standard de 10 m au-dessus d’un terrain plat et découvert. La direction du vent est déterminée par une girouette, et sa vitesse par un anémomètre.

À ce jour, il n’existe pas de relation mathématique établie permettant de déterminer la vitesse et la direction du vent en un lieu et à un moment donnés. C’est ce qui explique la difficulté de prévoir le temps, même à moyen terme! Ceci étant, il est possible de déterminer qualitativement les variations locales du vent.

Le vent en un lieu est dépendant du type d’environnement et des obstacles rencontrés.

> En guise de conclusion

Les vents dominants en Belgique soufflent du sud-ouest, mais aux changements de saisons la fréquence du vent est tout aussi importante du nord-est. Il y a très peu de vent d’orientation nord-ouest ou sud-est.

Les vents du nord-est sont polaires, donc froids et secs, tandis que la direction sud-ouest est celle des alizés chauds. Lorsqu’ils proviennent plutôt du sud ils sont secs, tandis que de l’ouest ils amènent la pluie.

À l’exception de la région côtière, pendant plus de 60 % du temps, la vitesse du vent est inférieure à 20 km/h. Le long de la mer, la vitesse du vent est 70 % plus élevée que dans le reste du pays.


Influence de l’environnement sur le vent

Schéma influence de l’environnement sur le vent.

L’environnement a une grande influence sur la vitesse et la direction du vent.

Puisque celui-ci influence de façon importante le taux d’infiltration d’air du bâtiment et donc la détermination des besoins en énergie du bâtiment, il est essentiel de connaître l’environnement dans lequel le bâtiment va être construit.

La figure ci-dessus donne les variations de la vitesse du vent selon l’altitude et la nature du sol

  • Calcul du facteur de pond. à appliquer sur le taux d’infiltration en fonction de l’environnement dans lequel on se trouve
  • Analyse des paramètres agissant sur le vent et sa vitesse

Calcul du facteur de pondération à appliquer sur le taux d’infiltration en fonction de l’environnement dans lequel on se trouve (méthode utilisée dans Opti)

On distingue 4 classes :

> classe 1 :  bord de mer (–> 2 km de la digue).
> classe 2 :  zone rurale avec bâtiments ou arbres isolés.
> classe 3 :  zone urbanisée, industrielle ou forestière.
> classe 4 : ville (zone de construction d’au moins 10 m de haut sur au moins le quart de la surface).

–> norme NBN B03-002 « actions du vent sur les constructions »
Pour calculer la vitesse du vent à une hauteur bien précise, il faut appliquer la formule

V = Vref λ ln (Z/Zo)

 où,

  • Vref  = vitesse à une hauteur de 10 m
  • Z = hauteur pour laquelle la vitesse est recherchée
  • λ et Zo ont des valeurs différentes en fonction de la classe de la zone.
  Classe λ Zo

1

2

3

4

0.166

0.202

0.234

0.209

0.005 0.07 0.30 1

Or, la vitesse en hiver à Uccle est de 4.7 m/sec à 10 m de hauteur et la hauteur moyenne d’une habitation individuelle = 5 m.

Donc la vitesse du vent à une hauteur de 5 m est de

  • dans une zone de classe 2 :

V = 4.7 x 0.202 ln (5/0,07) = 4.05 m/sec

  • dans une zone de classe 1 :

 V = 4.7 x 0.166 ln (5/0,005) = 5.389 m/sec

  • dans une zone de classe 3 :

V = 4.7 x 0.234 ln (5/0,3) = 3.09 m/sec

  • dans une zone de classe 4 :

V = 4.7 x 0.209 ln 5/1 = 1.58 m/sec

Dans les recherches effectuées par l’AIVC, on retrouve des graphes donnant, en fonction du degré d’étanchéité de l’habitation, le taux d’infiltration en fonction de la vitesse du vent.

Pour une hauteur moyenne de 5 m (c’est-à-dire pour une habitation individuelle)

en zone II, si pour

V = 4.05m/sec, τ = 0.30 vol/h
alors en zone I, V = 5.39m/sec, τ = 0.35 vol/h
en zone III, V = 3.09m/sec, τ = 0.25 vol/h
en zone IV, V = 1.58m/sec, τ = 0.2 vol/h

en zone II, si pour

V = 4.05m/sec, τ= 0.45 vol/h
alors en zone I, V = 5.39m/sec, τ = 0.55 vol/h
en zone III, V = 3.09m/sec, τ = 0.40 vol/h
en zone IV, V = 1.58m/sec, τ = 0.35 vol/h

en zone II, si pour

V = 4.05m/sec, τ = 0.95 vol/h
alors en zone I, V = 5.39m/sec, τ = 1.1 vol/h
en zone III, V = 3.09m/sec, τ = 0.80 vol/h
en zone IV, V = 1.58m/sec, τ = 0.65 vol/h

Donc, le facteur de pondération à appliquer sur le taux d’infiltration en fonction de la classe de la zone sera :

> Si maison étanche, c’est-à-dire tinf < 0.4 vol/h

classe 1 : INF = INF x (0.35/0.30)
classe 2 : INF = INF
classe 3 : INF = INF x (0.25/0.3)
classe 4 : INF = INF x (0.2/0.3)

> Si maison moyennement étanche, c’est-B-dire 0.4 < tinf < 0.8 vol/h

classe 1 : INF = INF x (0.55/0.45)
classe 2 : INF = INF
classe 3 : INF = INF x (0.4/0.45)
classe 4 : INF = INF x (0.35/0.45)

> Si maison non étanche, c’est-à-dire tinf > 0.8 vol/h

classe 1 : INF = INF x (1.1 /0.95)
classe 2 : INF = INF
classe 3 : INF = INF x (0.8/0.95)
classe 4 : INF = INF x (0.65/0.95)

Analyse des paramètres agissant sur le vent et sa vitesse

Les gradients de température principalement créés par l’ensoleillement sont responsables des mouvements d’air. Ils engendrent l’ascension de masses d’air chaud et un appel d’air froid. Divers types d’environnement sont propices à ces phénomènes :

  • les étendues d’eau,
  • les versants de collines,
  • les vallées
  • les villes.

Les étendues d’eau

Les masses d’eau étant plus chaudes que l’atmosphère en hiver et plus fraîches en été, les courants d’air créés par le gradient thermique s’inversent au cours de l’année. Lors des brusques variations de température (nuits fraîches par exemple) les courants d’air peuvent aussi s’inverser au cours d’une même journée.

Les versants de collines

Sur les versants de collines, le soleil favorise un gradient de température et donc des courants d’air durant la journée. De nuit, le gradient s’estompe et puis s’inverse légèrement, de telle sorte que l’air circule dans le sens opposé.

Les longues vallées

Dans les longues vallées, le phénomène expliqué ci-dessus tend à créer un mouvement d’air longitudinal d’autant plus puissant que la vallée est longue et que le gradient de température est élevé. Le dessin ci-contre illustre la complexité des mouvements d’air.

Les villes

La température des villes étant supérieure à celle des campagnes, on y constate un mouvement d’air similaire à celui créé par les masses d’eau. L’appel d’air se dirige vers les villes. De même, en ville, les grands espaces dégagés permettent la création de courants d’air.

Les obstacles constituent diverses obstructions et provoquent des modifications de la vitesse et de la direction du vent. Lorsque le vent rencontre un mur, par exemple, il est obligé de le contourner. La face d’un objet exposée au vent subit une surpression tandis que la face opposée est soumise à une dépression.

De manière générale, le vent étant freiné par les obstacles, lorsque la densité et la taille de ceux-ci sont importants (en ville par exemple), la vitesse du vent est moindre qu’en sites dégagés tels que les champs et les étendues d’eau.

La topographie

La topographie ne constitue pas à proprement parler un obstacle mais elle engendre éventuellement des modifications par rapport aux données générales relatives au vent.

Ces changements s’effectuent à moyenne ou grande échelle. Le relief a pour effet de protéger certains sites mais aussi d’en surexposer d’autres. Par ailleurs, il peut modifier les vents dominants sur des grandes étendues. Ci-contre, deux schémas illustrent le flux de vent rencontrant une colline et une dépression.

Les obstacles au vent peuvent prendre des formes très variées : les constructions forment des écrans permanents tandis que la végétation peut présenter de nombreuses variations de taille (croissance) et d’opacité (saisons).

Certains de ces écrans amovibles ou non peuvent également être utilisés à volonté afin de protéger les espaces extérieurs.

Outre la protection qu’ils offrent, la proximité d’écrans peut occasionner des effets secondaires tels que courants d’air et turbulences.

L’efficacité d’un écran est régie par ses dimensions et sa perméabilité.

La perméabilité de l’écran importe également. Ainsi, les écrans denses provoquent une forte réduction de la vitesse du vent sur une faible profondeur tandis que les écrans perméables réduisent la vitesse du vent dans une moindre mesure mais sur une profondeur plus importante.

La profondeur de la zone protégée est proportionnelle à la hauteur de l’écran : sa taille sera maximale lorsque l’écran aura une longueur équivalente à 11 à 12 fois sa hauteur.

Les plantations à feuilles caduques offrent une meilleure protection estivale qu’hivernale. Leur effet est négligeable durant l’hiver.

Source – Logiciel OPTI Bureaux – Architecture et Climat – juin 2000

Hydraulique

Hydraulique


A quoi sert un circulateur ? Notion de perte de charge

Pour que de l’eau avance dans une conduite, il faut qu’elle soit soumise à une différence de pression.

On peut dire que la pression plus forte au point A « pousse » l’eau vers la pression plus faible au point B.

Le déplacement de l’eau va s’accompagner de frottements qui engendre une perte de pression. On peut dire que la chute de pression entre les points A et B correspond aux frottements du fluide sur les parois de la canalisation. Elle est appelée la « perte de charge » du point A au point B.

Dans un circuit fermé, l’eau circule de A vers B parce que la pression au refoulement de la pompe est supérieure à la pression à l’aspiration.

PA – PB = perte de charge du réseau entre A et B = hauteur manométrique du circulateur.

Le gain de pression ainsi fourni par le circulateur est appelé sa « hauteur manométrique« . Cette hauteur manométrique du circulateur ne peut que correspondre à la perte de charge entre A et B.


Répartition du débit entre plusieurs circuits – Notion d’équilibrage

Le débit fourni par le circulateur doit se répartir entre 3 circuits identiques (dont les débits nécessaires sont les mêmes). On imagine également pour le calcul que la perte de charge dans chaque tronçon (AC, CD, DE, FG, GH et HB) est de 1 mCE (ou 0,1 bar) (dans un dimensionnement de réseau, on choisit une perte de charge constante par m de tuyau).

Si au point A, la pression est de 2,6 bar, elle sera de 1,9 bar au point B, pour que l’eau se mette en mouvement avec le débit voulu.

Si l’eau circule de A à F, c’est qu’il règne une différence de pression entre ces 2 points de 0,4 bar. Si l’eau circule de D à G, c’est grâce à une différence de pression de 0,3 bar.

Voici une première incohérence : dans le radiateur 1, la perte de charge est de 0,1 bar, ce qui lui donne son débit correct, mais elle est de 0,3 bar dans le radiateur 2. Il y a donc plus de débit dans le radiateur 2 que dans le radiateur 1, alors que les 2 radiateurs sont identiques. Le circuit est déséquilibré et il y aura surchauffe dans le local 2 ou manque de chaleur dans le local 1.

Il faut donc ramener la chute de pression dans le radiateur 2 à 0,1 bar pour que celui-ci délivre la même puissance que le radiateur 1. Cela s’effectue au moyen d’un robinet d’équilibrage sur lequel on créera une perte de charge de 0,2 bars.

Une situation semblable se pose pour le radiateur 3 pour lequel le robinet d’équilibrage devra créer une perte de charge de 0,4 bar.

Ce réseau est ainsi correctementéquilibré et un débit identique passe dans chaque radiateur.


Courbe caractéristique du réseau de distribution

La résistance du réseau de distribution dépend d’une part de sa configuration (longueur et forme des conduits, changements de direction, obstacles comme les vannes, les corps de chauffe, les filtres, …) et d’autre part de la vitesse de l’eau qui y circule. En effet, la résistance, ou autrement dit les pertes de charge, représente le frottement de l’eau dans les conduits. Ce dernier augmente avec la vitesse de l’eau.

Pour chaque type de circuit, on peut ainsi tracer une courbe qui représente la perte de charge en fonction du débit d’air, image de la vitesse.


Point de fonctionnement

Si l’on branche un circulateur sur un circuit de distribution, il stabilisera son débit à une valeur pour laquelle la pression qu’il fournit équivaut à la résistance du circuit. Ce point est le seul point de fonctionnement possible. Il correspond à l’intersection de la courbe caractéristique du circulateur et du circuit. Il définit la hauteur manométrique et le débit fournis par le circulateur lorsque, fonctionnant à une vitesse donnée, il est raccordé au circuit considéré.


Règles de similitude

Variation des grandeurs caractéristiques d’un circulateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume [m³/h]

n = vitesse de rotation [tr/min]

p = gain de pression [mCE ou bar]

P= puissance sur l’arbre [kW]

p/ p= (n1 / n2)² = (q1 / q2
Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Courbe des températures cumulées et visualisation des performances d’un récupérateur

Pour illustrer l’importance des gains énergétiques, il est utile de pouvoir visualiser l’évolution des températures tout au long de l’année. C’est l’intégration de cette évolution des températures qui donne la courbe des fréquences cumulées degrés-heures (D°h), image des besoins en chauffage du bâtiment.

Les degrés-heures représentent la somme cumulée des écarts entre la température extérieure et une température de référence, à chaque heure de la saison de chauffe.

Par exemple pour Uccle et une température de 20°C, c’est l’aire entre l’isotherme 20°C et la courbe de fréquence cumulée des températures extérieures soit 89 248 degrés-heures (Dh).

Courbes représentant la fréquence d’occurrence des températures extérieures, comparée à la température de consigne intérieure.

Le graphe ci-après représente le fonctionnement d’un récupérateur dont le rendement est de 70 %, placé sur de l’air pulsé à 22°C.

Courbe de températures cumulées
illustrant l’énergie économisée par la présence d’un récupérateur
(T° sortie récupérateur = T° ext + ε x (T° int – T° ext), par exemple : 19° = 12° + 0,7 x (22° – 12°)).

legionnelle - eau chaude sanitaire

Légionellose

legionnelle - eau chaude sanitaire

La « legionella pneumophila » : sa vie, sa mort

Il s’agit d’une bactérie. Sa transmission se réalise par inhalation d’aérosols (gouttelettes de 1 à 5 microns) et contamination des poumons. On pourra donc être contaminé en prenant une douche mais pas en buvant un verre d’eau, puisque la bactérie ne survit pas dans l’estomac !

Les pathologies

Dans moins de 5 % des cas, elle provoque une pneumonie avec un taux de mortalité de 10 à 20 %, mais dans 90 % des cas, on parlera d’une grippe, ce qui est plus bénin.

En Belgique, en 1999, 195 cas ont été rapportés, dont 2 cas majeurs : 5 morts parmi plus de 100 personnes hospitalisées après une visite à la foire de Kapellen (contamination par les émanations d’un bain à bulles) et 1 mort parmi les 7 personnes contaminées par le réseau d’eau chaude sanitaire d’un hôtel en Ardennes.

Croissance et température

Au départ, il y a une bactérie par m³ qui entre dans le bâtiment par le réseau d’eau de ville.

La croissance de la bactérie est nulle sous 20°C (état latent). La croissance a lieu entre 25 et 45°C, avec un optimum entre 32 et 42°C : à cette température, leur nombre double toutes les 3 à 4 heures ! On considère que pour de l’eau maintenue entre 25 et 45°C, la contamination est sans risque durant les 2 premiers jours, de risque faible entre 2 jours et une semaine, de risque élevé au delà d’une semaine.

On notera que l’on ne détecte pas de légionelles pour T°eau >= 58°C en permanence (Journal of Hospital Infection, Vol. 37, Issue 1, p 7-17).

L’unité de mesure est le CFU/l = le nombre d’unités formant colonies par litre d’eau (de l’anglais Colony Forming Units par litre).

Destruction

Théoriquement à 50°C, 90 % des bactéries présentes meurent dans les 2 à 6 heures. A 60°C, 90 % des bactéries présentent meurent dans les 5 minutes. A 80°C, 90 % des bactéries meurent dans les 30 secondes. Du moins, dans les conditions de laboratoire (= en suspension dans l’eau).

Mais en réalité, elles peuvent exceptionnellement résister jusqu’à 80°C. En effet, elles créent des colonies dans les amibes, plus résistantes à la chaleur. Et les installations d’eau chaude sanitaire sont tapissées d’un dépôt visqueux, le biofilm, composé de micro-organismes, dont les amibes… Au sens strict, un choc thermique n’est donc totalement efficace qu’à partir de 80°C.

Les désinfectants quant à eux ne sont jamais efficaces à 100 %.

Enfin, le temps de réinfection d’un système sain est inconnu. Les mesures de prévention sont donc cruciales.


Légionelle et équipements techniques

Les équipements responsables

Sont considérés comme des équipements à risque : les installations d’eau chaude sanitaire (via les douches), les tours de refroidissement des installations de climatisation (via la pulvérisation de microgoutelettes d’eau), les bains à remous et jacuzzis, …

Toutes les zones où l’eau à tendance à stagner sont critiques : zone inférieure des grands ballons de préparation (surtout si pas d’isolation du fond), bras morts des installations de distribution, …

Les systèmes d’humidification du conditionnement d’air (« bacs laveurs« ) ne sont par contre pas concernés car leur température est trop basse (10 à 15°C).

Si les chauffe-eau électriques domestiques sont parfois contaminés, ce sont les grandes installations qui sont généralement les plus sensibles (étude CSTC : 40 % des grandes installations, de type immeubles à appartements, piscines, homes, hôpitaux,…). Le problème est beaucoup moins fréquent en domestique (une étude hollandaise a montré que 6 % des installations étaient contaminées)…

Les réservoirs à basse température

Certains systèmes sont particulièrement concernés : pompe à chaleur et chauffe-eau solaire puisque la performance de ces systèmes sous-entend de travailler à basse température.

Il faut sans doute privilégier les installations avec doubles réservoirs en série, le premier assurant un préchauffage de l’eau, le deuxième assurant la montée à la température de 65°C minimum. Mais il faut que l’eau reste dans ce deuxième ballon un temps suffisant. Il ne faudrait pas qu’en période de soutirage de pointe, le post-chauffage de l’eau soit trop bref et que de l’eau contaminée soit envoyée dans le réseau.

Question (à laquelle nous n’avons pas de réponse) : que se passe-t-il si l’eau préchauffée est envoyée dans un préparateur instantané ? Le temps de chauffage dans le préparateur est-il suffisant pour tuer les légionelles ? … Il faut probablement post-chauffer à une température de 70°C ou 80°C pour éviter tout risque. Ou alors contrôler très régulièrement la teneur en légionelle du ballon de préchauffage.

L’influence de la corrosion des tuyauteries

La bactérie croît en présence de nutriments : fer, calcium, carbone (AOC), manganèse, magnésium, …

Elle se loge tout particulièrement dans certains « habitats » :

  • dépôts de boues, de calcaire, de produits de corrosion,
  • biofilm (micro-organismes) sur la face interne des réservoirs et tuyauteries,
  • eau stagnante.

On en déduit qu’un réseau de tuyauterie d’acier rouillé devient une installation « à risque » (la sortie « d’eau brune » au robinet après un arrêt de l’installation est un signe de corrosion de l’acier galvanisé).


Les recommandations du CSTC pour l’eau chaude sanitaire

Les principes à poursuivre sont les suivants :

  • Eviter la stagnation (bras morts des réseaux).
  • Garder en continu les systèmes à une T° > 55°C.
  • Eliminer les zones tièdes dans les ballons de stockage.

Voici les recommandations du CSTC :

  • L’eau chaude doit être produite à une température de 60°C; on évitera qu’elle reste durablement dans le chauffe-eau à une température moindre.
  • L’eau doit être maintenue à 55°C au moins en tout point du réseau principal.
  • Dans un système de distribution avec recirculation, la température de retour ne peut jamais être inférieure à 55°C. Par ailleurs, la chute de température entre le point de départ et le point de retour à l’appareil de production d’eau chaude ne peut dépasser les 5°C : si l’eau quitte l’appareil de production à 60°C, la température de retour devra être de 55°C au moins.
  • Il est interdit de laisser stagner de l’eau chaude ou de l’eau froide : les bras morts (y compris les vases d’expansion sanitaires, par exemple) ou peu utilisés sont donc à éviter.
  • Les installations doivent être entretenues régulièrement; à cet effet, les appareils de production d’eau chaude seront dotés des ouvertures nécessaires.
  • Les branchements « morts » sur le réseau de distribution ne pourront dépasser 15 m et avoir un volume d’eau supérieur à 3 litres((Lutte contre le développement des légionelles dans les installations sanitaires neuves – Meilleurs techniques disponibles – décembre 2021 » du CSTS/Buildwise  (voir P15) )).
  • Le fond des ballons doit être correctement isolé. Si nécessaire, un dispositif de recyclage interne du ballon doit être organisé (réinjection dans le bas du ballon de l’eau chaude extraite en partie supérieure). À défaut, une purge régulière de l’eau stagnante du fond peut être organisée.

Une remontée périodique de la température ?

Pour limiter la consommation énergétique tout en évitant la contamination, il pourrait être question d’appliquer des augmentations temporaires et périodiques de la température. Certains fabricants de matériels de régulation proposent par exemple des régulateurs dont la fonction anti-légionelle prévoit une montée en température à 70° ou 80°C une fois par semaine.

Peut-on pour autant abaisser la température de production ?

Les dernières études du CSTC((B. Bleys, O. Gerin, K. Dinne,THE RISK OF LEGIONELLA DEVELOPMENT IN SANITARY INSTALLATIONS, Rehva 2018 Conference)) sur le sujet montrent que :
– partant d’une température de production de 45°C, une remontée hebdomadaire d’une heure à 60°C ne permet pas de maintenir le développement des bactéries sous 1.000 kve/l.
– partant d’une température de production de 45°C, une remontée hebdomadaire d’une heure à 65°C n’a donné des résultats positifs que moyennant un rinçage simultané d’une demi-heure de tous les points de puisage du circuit pendant la remontée. Ce rinçage est très gourmand en eau et en énergie, et requiert potentiellement une puissance de chauffe supérieure aux capacités de l’installation.

Ces résultats ont été obtenus sur une installation de production d’eau chaude sanitaire réelle mais en conditions favorables (dimensionnement adéquat, absence de bras morts, usage régulier de tous les points de puisage,…). Il est raisonnable de croire qu’ils sont plus favorables que ce qui peut être observé dans des installations anciennes ou moins bien conçues.

Les études continuent pour déterminer les températures minimales adéquates pour garantir l’efficacité de ces remontées périodiques de température dans des scénarios d’abaissemetn des temépratures de production. En attendant, la prudence demande de respecter une température de production suffisamment élevées (départ > 60°C, retour > 55°C).


Traitements de désinfection

La désinfection thermique de choc (« heat and flush »)

Il s’agit d’un rinçage de chaque point d’eau avec de l’eau à une température de 60°C durant 30 minutes ou 70°C durant 4 minutes. C’est une technique relativement simple si l’eau peut être chauffée à température et si les pertes de chaleur dans les conduits restent limitées. Cela nécessite du personnel qualifié et demeure difficile à mettre en œuvre dans les homes et hôpitaux à cause du fonctionnement 24h/24 (risque de brûlure). Il n’est pas toujours techniquement possible d’y arriver : si tous les robinets sont ouverts, le débit risque d’être trop grand et la production ne pourra plus suivre. également, il y a lieu de vérifier au préalable si cela ne va pas entraîner de dégâts à l’évacuation (résistance limitée à la chaleur des tuyauteries d’évacuation …). Il reste à vérifier l’inexistence de bras morts dans le réseau.

Cette technique peut être automatisée dans certains types de bâtiment (piscines, complexes sportifs, douches au travail, …) : chaque soir le réseau est porté automatiquement à haute température, avec un rinçage par ouverture de robinets commandés à distance.

  1. Régulateur.
  2. Compteur.
  3. Soupape de sécurité.
  4. Clapet anti-retour.
  5. Robinet de douche normal.
  6. Robinet de désinfection actionné par la régulation.

À noter qu’un tel recours fréquent à une décontamination thermique de choc dans des installations en acier galvanisé augmente le risque de corrosion lorsque les températures sont nettement supérieures à 60°C.

On sera attentif au fait que la boucle de circulation soit correctement équilibrée (branches mal desservies…).

La désinfection chimique de choc

Il s’agit d’un rinçage avec un produit de désinfection : produit à base de chlore (hypochlorure de sodium, dioxyde de chlore, …). Il se fait avec une concentration élevée (de 30 à 50 mg de chlore libre/litre), pendant 12 à 24 heures à tous les points (ce qui nécessite un boucle de désinfection).

Cette méthode est efficace pour autant qu’elle soit réalisée de façon correcte, par un personnel expérimenté (attention à la contamination par le chlore !). Pendant la désinfection, l’installation est hors service, ce qui est difficile à réaliser dans les homes et hôpitaux. L’évacuation de l’eau chlorée demande une dilution avant la décharge (attention à l’impact sur les fosses septiques ou les centrales d’épuration).

L’ionisation Cuivre/Argent

Il s’agit cette fois d’un traitement chimique en continu. Des ions de cuivre (0,2 à 0,4 ppm) et d’argent (0,02 à 0,04 ppm) sont introduits dans l’eau par ionisation (en fonction du débit). Les ions positifs s’accrochent aux parties négativement chargées de la paroi cellulaire de la bactérie, ce qui entraîne sa mort.

Selon la littérature, ce traitement compte parmi les plus efficaces. Le traitement agit avec une certaine rémanence. Mais il n’est pas compatible avec l’acier galvanisé car Cu et Zinc forment un couple galvanique corrosif. Et l’utilisation régulière de tous les robinets reste requise.

Le dioxyde de chlore

Il s’agit d’un traitement chimique en continu à l’aide de ClO2, injecté dans l’eau avec un dosage fonction du débit. Mais un dosage « normal » ne permet pas de tuer toutes les légionelles présentes dans le biofilm. Un bon résultat n’est atteint … qu’avec un taux de concentration inadmissible (> 5mg/l) ! Le traitement ne présente pas de rémanence et provoque un risque de corrosion (qui peut être résolu par un traitement anti-corrosion approprié).

L’électrolyse

Il s’agit d’un traitement chimique en continu par l’hypochlorite (HClO – 0,1 à 0,3 ppm en chlore libre) par décomposition de l’eau par courant continu. L’avantage est de ne pas devoir ajouter de substances dans l’eau, sauf du sel NaCl. Cette technique est appliquée avec succès. Elle mise sur une tuyauterie en by-pass, avec désinfection surtout la nuit. Cette technique est cependant très coûteuse.

Le traitement UV

L’eau est soumise à des rayons ultraviolets d’une longueur d’onde de 254 nm, avec une dose de 160 J/m² minimum, souvent 400 J/m². Cette irradiation endommage l’ADN des bactéries qui ne se reproduit plus…

A nouveau, l’avantage est de ne pas devoir ajouter de produits chimiques dans l’eau. Mais il n’y a pas d’effet sur les micro-organismes piégés dans le biofilm situé en aval. L’eau doit être filtrée préalablement pour ne pas avoir de particules en suspension. Il est essentiel que les lampes restent propres (entretien régulier). D’une manière générale, le CSTC considère que l’UV ne se justifie que pour protéger une unité bien déterminée ou une zone restreinte de l’installation.


Les exigences réglementaires

Le règlement « piscines » en Wallonie (janvier 2003)

Les documents de référence sont les différents arrêtés du Gouvernement wallon du 13 juin 2013 (M.B. 12/07/13)((21 DECEMBRE 2006. – Arrêté du Gouvernement wallon modifiant l’arrêté du Gouvernement wallon du 4 juillet 2002 arrêtant la liste des projets soumis à étude d’incidences et des installations et activités classées et divers arrêtés du Gouvernement wallon déterminant les conditions sectorielles et intégrales)), ainsi que les exigences prsentes dans les permis d’environnement pour les installations de refroidissement par dispersion d’eau dans un flux d’air.

Quelques éléments sur cette réglementation « piscines » :

  • Pour les bassins de natation couverts, la température de production d’eau chaude devra être à 65 °C minimum.
  • Le mélange avec l’eau froide devra se faire le plus près possible de la distribution d’eau des douches.
  • Un contrôle deux fois par an dans l’eau d’un pommeau de douche devra vérifier que la concentration ne dépasse pas 1 000 CFU/l.

Un règlement « bâtiments publics » en Flandre (arrêté du Gouvernement flamand du 09 février 2007 – M.B. 04/05/07)

L’exploitant doit établir un « plan de gestion » de la légionelle : description de l’installation, analyse du risque et mesures de prévention.

Quels sont les seuils d’intervention ?

On distingue d’abord 2 niveaux de concentration en Legionella : le Lspp (tous les groupes) et le Lpn (seulement la Légionella pneumophila), d’application dans deux types d’installation :

Pour les systèmes d’eau froide et chaude

  • Si Lspp < limite de détection (environ 50 CFU/l) : pas d’actions
  • Si Lspp > limite de détection : peu de contamination –> vérifier si le système de préparation d’eau froide et chaude suit les recommandations en matière de température. Si oui, analyse tous les 3 mois, et si 4 x négatif, alors analyse 1 x par an. Si non, analyse tous les mois.
  • Si Lspp > 1 000 CFU/l : il y a contamination –> procéder à un nouvel échantillonnage et, si confirmation, à une désinfection de choc; dans les hôpitaux et les homes, surveillance des légionelloses.
  • Si Lspp > 10 000 CFU/l : il y a contamination importante –> fermeture de l’installation, désinfection de choc, analyse de de l’eau. Si Lspp reste > 1 000 CFU/l : fermeture et assainissement. Ensuite, analyse toutes les 2 semaines. Si 3 x de suite le résultat est négatif, contrôle tous les 3 mois. Si 4 x de suite l’analyse des 3 mois est négative, contrôle 1 x par an.

Pour les tours de refroidissement

On procède à l’analyse des Germes Totaux GT.

Si GT > 100 000 CFU/l ou si légionellose, alors analyse de la Legionella pneumophilia :

  • Si 1 000 < Lpn < 10 000 CFU/l, on procède à une nouvelle analyse et, en cas de confirmation, on analyse le risque.
  • Si Lpn > 10 000 CFU/l, on procède à un nettoyage complet et à une désinfection.

Condensation de surface

Condensation de surface

L’air intérieur ayant une température, une humidité relative et une pression donnée, peut arriver en contact avec une surface de température plus faible. Au contact, l’air se refroidit et la température qu’il atteint dans le voisinage de la surface peut se retrouver en dessous du point de rosée. Il apparaît alors de la condensation dite de surface (la pression de vapeur dans l’air atteint la pression de saturation).

Exemple de représentation sur le diagramme de l’air humide.

La figure ci-dessous montre l’évolution de l’état de cet air sur le diagramme de l’air humide : pour un air à 20 °C, 50 % d’HR et 1013 hPa, la condensation apparaît lorsque la température est réduite à 10 °C ou moins (à pression constante).

Dans les bâtiments, la condensation de surface apparaît d’abord sur les vitres, les châssis métalliques sans coupure thermique, les conduites d’eau froide, et sur les parties froides de l’enveloppe. Cette condensation  lorsqu’elle est localisée en un endroit précis dénonce la présence d’un pont thermique. Celle-ci peut de plus entrainer l’apparition de moisissures.

Pour empêcher la condensation de surface, il faut :

  1. Avoir une qualité suffisante de l’isolation de l’enveloppe de façon à ce que la température de la face intérieure de celle-ci ne descende pas en dessous de 17.5 °C.
  2. Diminuer par ventilation complémentaire l’humidité relative de l’air intérieur.
  3. Chauffer la face intérieure des parois froides.

Si ces mesures ne sont pas applicables ou insuffisantes, la seule façon de limiter les dégâts est de traiter la surface des parois pour empêcher la pénétration de l’eau de condensation par capillarité dans les parois, et de pouvoir recueillir et évacuer l’eau condensée.

Intermittence des cycles de stérilisation

Intermittence des cycles de stérilisation


Image de l’économie : la température intérieure

La consommation d’un stérilisateur est proportionnelle à la différence de température entre l’intérieur et l’extérieur des équipements sous pression de vapeur. Plus cette différence diminue, moins on consommera.

Graphiquement, on peut représenter la consommation de vapeur comme suit :

Images des déperditions sans intermittence et avec intermittence.

On voit donc que plus la température intérieure chute et plus le temps pendant lequel cette température est basse est important, plus l’économie d’énergie réalisée grâce à l’intermittence est importante.


Paramètres influençant l’économie par intermittence

Si l’installation est coupée pendant les intercycles, quelles seront les économies engendrées ? La figure ci-dessous résume les différents paramètres qui influencent le bilan thermique.

L’économie est fonction du degré d’isolation

Plus l’enveloppe extérieure est isolée moins le transfert de chaleur de la vapeur vers l’ambiance de la zone technique sera aisé. La température de la vapeur aura tendance à rester stable et les économies seront faibles.

L’économie est fonction de l’inertie du système

Imaginons un système très inerte : la température intérieure chutera peu durant la coupure d’intercycle car beaucoup de chaleur s’est accumulée dans l’acier inoxydable. Les économies seront faibles.

L’économie est fonction de la durée de coupure

Une coupure de nuit est beaucoup plus efficace qu’une coupure d’intercycle.

L’économie est fonction du sur-dimensionnement du générateur

Si l’installation est très puissante (générateur et double enveloppe de faible volume), la relance en fin d’intercycle pourra se faire en dernière minute et donc la température intérieure pourra descendre plus bas durant la coupure.


Température interne des équipements

Maintien d’une consigne de température au générateur

Le gain énergétique provient de la diminution des déperditions d’intercycle. Et donc, plus la température intérieure du système de stérilisation descendra, plus l’économie augmentera. Néanmoins, il ne faut pas descendre sous une température de 100°C (sauf pendant la nuit) afin de maintenir le système sous pression (aux alentours de 1 bar) et, par conséquent, de réduire l’alternance de régimes stables et transitoires qui nuit à la pérennité de l’installation (fatigue et stress du métal, risque de fuite aux connexions).

Coupure du générateur

Au début d’un intercycle, lorsque le générateur est coupé, la vapeur sous pression dans la double enveloppe (3 bar – 134 °C) se refroidit au contact des parois et des condensats se forment. La quantité de vapeur résiduelle diminuant dans un volume quasi constant, un vide s’installe. Des casse-vide sont donc nécessaires pour éviter de noyer les équipements par l’aspiration de l’eau du générateur. Cela se matérialise par l’entrée d’air ambiant (à 30 °C) qui contribue à refroidir d’avantage l’intérieur des équipements permettant de réduire les déperditions pendant l’intercycle.


Diffusivité et Effusivité des matériaux

En régime variable (dynamique), le comportement des matériaux accumulant et restituant la chaleur dépend, entre autres, de deux caractéristiques physiques liées à une combinaison de leur :

  • masse volumique ρ[kg/m³];
  • conductivité thermique λ [W/m.K];
  • chaleur massique c [kJ/kg.K]

Diffusivité thermique

La vitesse avec laquelle la température d’un matériau évolue est liée par la relation suivante :

a = λ / (ρ x c) [m²/s]

Plus sa valeur est grande, plus elle s’échauffe et se refroidit vite.

Effusivité thermique

La quantité de chaleur qu’il faut fournir au matériau pour élever sa température est liée par la relation suivante :

Eff = (λ x ρ x c)1/2 [J/m².K.s1/2]

Plus sa valeur est grande, plus il faudra de l’énergie pour parvenir à le réchauffer.

Quelques matériaux

Le tableau suivant donne quelques valeurs de diffusivité et d’effusivité pour différents matériaux :
Matériau ρ [kg/m³] a [10-7m²/s] Eff [J/m².K.s1/2]
Acier 7 800 148 11 700
laine minérale 30 13 36
Polystyrène extrudé
25 9 35
Le cas de l’acier est intéressant dans le sens où il possède à la fois une grande diffusivité a et une grande effusivité Eff :
  • À la réchauffe, il est capable de s’échauffer rapidement au contact de la vapeur (la température de la double enveloppe est vite à + 134 °C) et, par la même occasion, d’emmagasiner de l’énergie en condensant beaucoup de vapeur (la vapeur cède sa chaleur latente); il faut donc une quantité d’énergie importante pour réchauffer la double enveloppe mais cela se fait rapidement.
  • À l’inverse, lors de la coupure d’intercycle ou du soir, l’acier de la double enveloppe se comporterait, s’il n’y avait pas d’isolant extérieur, comme un gros réservoir d’énergie cédant sa chaleur rapidement à l’ambiance. La seule présence d’isolant ne fait que retarder le refroidissement de la double enveloppe.

Période de refroidissement et de réchauffe

Refroidissement

À l’instant t0 de fin de cycle, le couple vapeur-acier échange sa chaleur avec l’ambiance à travers l’isolant. Pour valoriser l’intermittence, c’est à ce moment que l’on décide de couper la source de chaleur du générateur. Il est difficile de dire quel sera le temps qu’il faudra au couple pour que sa température interne passe de 134 à 100 °C. La modélisation de ce temps devrait tenir compte :

  • de la variation d’enthalpie de la vapeur au court du temps;
  • de la chaleur massique de l’acier;
  • de l’importance de l’énergie interne de la vapeur (en fonction de sa masse) par rapport à celle stockée dans l’acier;

Dans l’exemple qui suit, on tente de simplifier le modèle :

Soit quelques données :

  • mdouble enveloppe  = 200 [kg];
  • Tde0 = 134 [°C];
  • cacier = 500 [J/kg.K]
  • h »vapeur à 3 bar 134°C  = 2 727 [kJ/kg];
  • déperditionsde = 2 100 [W] (ces déperditions tiennent compte de l’isolant autour de l’acier);
  • volume de la double enveloppe estimé à Vde = 0,047 [m³];
  • volume massique de la vapeur à 134[°C] v »134°C = 0,6 [m³/kg];
  • L’ambiance de la zone technique est à une température de l’ordre de Tamb0 = 28 [°C] et reste constante.

On considère que, suite à la coupure de la source de chaleur à l’instant t0, les déperditions vers l’ambiance de la zone technique entrainent le refroidissement de la masse de la double enveloppe et de la vapeur.

Comme représenté dans le graphe (s,T) suivant, la vapeur se refroidit à volume constant. Si on considère que l’on doit maintenir 100 [°C] dans la double enveloppe (réduire les contraintes thermiques et mécaniques), la vapeur est partiellement condensée après un certain temps et garde une enthalpie de l’ordre de 1 500 [kJ/kg]. Ce que nous ignorons, c’est après combien de temps elle sera dans cet état.

Si on compare l’enthalpie de la masse de vapeur présente dans la double enveloppe et l’énergie emmagasinée dans l’acier, on se rend compte que le problème se simplifie car l’acier a emmagasiné beaucoup plus d’énergie que la vapeur (dû à sa faible masse) :

L’énergie stockée dans l’acier est de l’ordre de :

Eacier =  cacier  x mdouble enveloppe  x  (Tde0 – Tamb0)  

500 [J/kg.K] x 200 [kg] x ( 134 [°C] – 28 [°C])

Eacier = 10 600 [kJ]

L’énergie de la vapeur est de l’ordre de :

Evapeur =  h »vapeur à 3 bar 134°C  x Vde / v »134°C

=

2 727 [kJ/kg] x 0,047 [m³] / 0,6 [m³/kg]

Evapeur = 213 [kJ]

Le rapport des énergies internes de la vapeur et de l’acier à l’instant t0 est de l’ordre de 50; ce qui signifie que l’état de refroidissement de la vapeur est dicté par la masse d’acier qui échange sa chaleur avec l’ambiance à travers l’isolant.

Ce refroidissement suit une loi exponentielle décroissante :

T(t) = Tamb + Δ T x e-t/τ

avec :

τ = mdouble enveloppe x  cacier /  (kS / Δ T)

(avec kS / Δ T =  déperditions de/ Δ T)

τ = 200 [kg] x 500 [J/kg.K] /  (2 100 [W] / 106 [°C])

τ = 5 048 [s]

ou τ = 84  [min]

La courbe suivante montre la décroissance de la température pendant la durée de l’intercycle :

Réchauffe

Il est intéressant de savoir quand il faut effectuer la relance avant un nouveau cycle. Cet intervalle de temps peut être évalué :

Soit les mêmes données :

  • Tde0 = 134 [°C];
  • mdouble enveloppe  = 200 [kg];
  • cacier = 500 [J/kg.K]
  • h »vapeur à 3 bar 134°C  = 2 727 [kJ/kg];
  • déperditionsde = 2 100 [W];
  • Puissance du générateur = 40 [kW];
  • volume de la double enveloppe estimé à Vde = 0,047 [m³];
  • volume massique de la vapeur à 134[°C] v »134°C = 0,6 [m³/kg];
  • L’ambiance de la zone technique est à une température de l’ordre de Tamb0 = 28 [°C] et reste constante.

La réchauffe en fin d’intercycle nécessite de fournir de l’énergie :

  • à la vapeur pour qu’elle atteigne à nouveau les 3 [bar] de pression.

Δh1 =  (h »vapeur à 3 bar 134°C – hvap_refroidie)  x Vde / v »134°C

(2 727 [kJ/kg] – 1 500 [kJ/kg]) x 0,047 [m³] / 0,6 [m³/kg]

Δh1 =  96 [kJ] 

  • à l’acier pour ramener sa température à 134 [°C] et assurer sa fonction de réchauffe de la chambre de stérilisation.

ΔE =  E acier à 134 °C  – Eacier à 100 °C = 10 600 [kJ] – 7 200 [kJ]

ΔE =  3 400  [kJ]

  • pour compenser les déperditions, soit 2 100 [W].

L’énergie doit être fournie par le générateur de 40 [kW] (valeur courante de puissance).

On en déduit que le temps de remontée en température dépend surtout du réchauffement de la double enveloppe :

T(t) = Tint + Δ T x (1-e-t/τ)

avec  :

  • Tint = 100 [°C];
  • Δ T =  34 [°C];
  • kS / Δ T =  (Pgénérateur – déperditionsde) /Δ T)

    kS / Δ T = (40 000 – 2 100) [W] / 34 [°C]) = 1 115 [W/K];

  • τ = mdouble enveloppe x  cacier /  (kS / Δ T) τ

    τ = 200 [kg] x 500 [J/kg.K] / 1 115 [W/K] = 90 [s]

La courbe suivante montre la croissance de la température à la fin de l’intercycle :

On voit que la réchauffe est très rapide et qu’il n’est pas nécessaire de trop anticiper avant le démarrage du second cycle.

Il serait intéressant, dans la pratique, de mesurer ces temps afin de se rendre compte de l’intérêt de couper le générateur de vapeur ou de maintenir la température d’intercycle légèrement au-dessus de 100 °C.

Oxydation des accessoires de toiture

Oxydation des accessoires de toiture

Les causes principales qui accélèrent l’oxydation des accessoires de toiture métalliques sont


La production d’acide par les membranes bitumineuses

Sous l’action des rayonnements UV, les bitumes produisent de l’acide. Cet acide peut être fortement concentré lorsque la quantité d’eau présente sur la toiture est faible (rosée matinale en zone rurale avec faible écoulement). Lorsque cet acide atteint les accessoires ou évacuations en métal, il provoque une corrosion rapide de ceux-ci.

Le contact entre le bitume et le métal ne pose pas de problème, c’est l’acide généré sur la surface bitumineuse qui en coulant sur le métal provoque sa corrosion.

Les causes de ce phénomène ne sont pas encore connues avec certitude, mais le processus semble être inversement proportionnel à la qualité de la protection UV de l’étanchéité.

Il convient donc pour éviter les dégâts de protéger efficacement la membrane d’étanchéité bitumineuse contre les rayonnements UV. Si la membrane n’est pas protégée parce que ce n’est pas nécessaire (membranes APP), il faut utiliser des accessoires avals en matières synthétiques ou, lorsqu’ils sont métalliques, protéger ceux-ci par à l’aide d’un enduit adapté entretenu régulièrement.


Les couples galvaniques

La combinaison de différents métaux peut engendrer un risque de corrosion du métal le moins noble du couple galvanique et ce, d’autant plus que les métaux du couple sont éloignés sur l’échelle des potentiels galvaniques.

Il convient donc d’éviter de mettre en contact direct deux métaux de potentiels galvaniques très différents ou d’utiliser un métal moins noble en aval d’un métal dont le potentiel galvanique est plus élevé.

En pratique on évitera de mettre en contact, le cuivre avec le zinc, l’acier, l’acier galvanisé ou l’aluminium, ou de le placer en amont de ceux-ci.

Le contact direct peut être évité en plaçant entre les deux métaux une couche de désolidarisation durable.


Les dépôts de matières organiques

La décomposition des matières organiques produit de l’acide.
Lorsque des dépôts de feuilles, branchages, algues ou mousses maintiennent une humidité acide permanente contre le métal des accessoires, celui-ci se corrode.

Un nettoyage régulier de la toiture, surtout s’il y a des arbres à proximité, s’avère utile.

Les zones de stagnation doivent être évitées à proximité des accessoires métalliques.


La pollution

En zone industrielle on constate une corrosion plus rapide des accessoires métalliques.
Elle est due aux fumées acides.

La corrosion est plus importante à proximité des cheminées.


Echelle des potentiels galvaniques de certains métaux utilisés dans le bâtiment

Métaux plus nobles Acier inoxydable
Brasure à l’argent
Cuivre
Plomb
Brasure plomb-étain
Fonte
Acier / Fer
Aluminium
Métaux moins nobles Zinc

Comportement thermique d’un local climatisé

Date : page réalisée sous l’hégémonie Dreamweaver

Auteur : les anciens

Mars 2009 : Thibaud

Notes :

  • antidote appliqué. Thibaud
  • Winmerge : ok – Sylvie
  • Mise en page [liens internes, tdm, en bref !, passage général sur la mise en page de la feuille] – Sylvie

 Pour comprendre l’évolution des températures dans un local climatisé, il est utile de se créer mentalement un modèle de fonctionnement thermique.

Simulation d’un local « aveugle »

Partons d’un exemple simple : un local sans fenêtre, chauffé en journée par des apports internes et refroidi par une ventilation d’air à 16°C.

Hypothèses

  • Le local fait 3,5 x 4 x 2,8  de hauteur, soit un volume de 39 m3.
  • Les apports sont fixés à 600 Watts de 8h00 à 18h00.
  • Une ventilation permanente (jour et nuit) apporte 150 m3 d’air à 16°C, soit un renouvellement horaire de 3,8 (ce qui est plutôt élevé pour un apport de ventilation mais faible pour un apport frigorifique de climatisation). Cela représente un refroidissement de 400 Watts si l’ambiance est à 24°C, ou de 200 Watts si l’ambiance est à 20°C.

Deux types de parois sont étudiées, afin de visualiser l’impact de l’inertie des parois sur la température intérieure.

Variante 1 : local de forte inertie

On considère un sol en béton, des murs en maçonnerie recouverts de plafonnage, un faux plafond en matériau isolant.

La température opérative est la moyenne entre la température de l’air et celle de la surface des parois. Elle correspond à la température ressentie par les occupants. De plus, on peut en déduire l’allure de la température de surface des parois. Ainsi, puisque la température opérative est 0,6°C plus froide que l’air lors de la montée en température, on en déduit que la température de surface des parois est 1,2°C plus froide.

Il est intéressant de visualiser l’allure de la T° de l’air : en période de refroidissement, elle tend à descendre vers les 16°C donnés par l’air neuf, mais cette descente est freinée par les parois qui sont chaudes et qui transfèrent de la chaleur vers l’ambiance. L’air « cale » à 1,2°C de la température moyenne des parois.
Une fois 8h00 du matin, l’équilibre s’inverse : les apports dépassent le refroidissement. Sans inertie, l’air monte brusquement en température jusqu’à ce que ce même écart de 1,2°C apparaisse entre air et paroi, la paroi refroidissant cette fois l’ambiance.
À noter qu’en supprimant le faux plafond et en laissant l’air en contact direct avec le béton, la température maximale atteinte par l’air serait de 23°C, contre 23,5°C ici.

Variante 2 : local de faible inertie

Dans le même volume, on considère cette fois un sol en béton recouvert par 0,5 cm de tapis, des parois légères de 8 cm d’isolant recouvertes de 1,5 cm plafonnage, un faux plafond en matériau isolant.

Les parois ne présentent presque plus de masse thermique. L’air est cette fois « plus libre » de monter ou descendre en fonction des variations de charge et entraîne avec lui les fines parois. La température maximale monte à 25°C, contre 23,5°C dans le cas précédent.

Quel modèle thermique équivalent ?

Pour représenter cette évolution des températures, on peut imaginer le modèle suivant très simplifié :

Les apports sont communiqués à l’air du local; celui-ci échange par convection vers la surface des parois; le cœur de la paroi voit sa température lentement évoluer.
Remarque : en pratique, une part des apports internes est donnée par rayonnement direct vers les parois.
On en déduit une évolution des températures suivantes :

       

Cela correspond assez bien à la réalité lorsque l’apport frigorifique est donné par l’air. Par contre, une climatisation par plafonds froids entraînerait un transfert direct du froid par rayonnement vers les parois et donc une meilleure stabilisation de la température de l’air.

Le cas d’un apport solaire supplémentaire

Les locaux climatisés sont souvent soumis à des apports internes importants par les vitrages. Dans ce cas, le soleil ne chauffe pas l’air, il chauffe d’abord les parois (essentiellement le sol) qui restituent ensuite cette chaleur vers l’air par convection et vers les autres parois par rayonnement.

L’impact de l’inertie des parois est dans ce cas encore amplifié : si la paroi « touchée » par le soleil est absorbante (couleur foncée) et de forte inertie (béton), elle va accumuler la chaleur sans monter en température, et donc limiter le transfert de chaleur par convection vers l’air.
La présence de tapis au sol des bureaux génère donc plus facilement une montée en température de l’air des bureaux ensoleillés… Le mouvement convectif est encouragé par la vitre dont la température monte à … 30°C … par absorption partielle du rayonnement solaire.

Conclusions

  • Les charges sont apportées au local, partiellement par rayonnement, partiellement par convection.
  • Dans tous les cas, l’inertie des parois permet une stabilisation de la température de l’air.
  • Un apport frigorifique par rayonnement (plafonds froids) permet une stabilisation de la température de l’air similaire à celle obtenue par une inertie plus forte.
  • A la limite, un refroidissement du plancher par une circulation d’eau froide dans le plancher permettrait une captation directe des apports solaires… mais le risque d’inconfort aux pieds des occupants est présent…

Economie réalisée grâce à l’intermittence du chauffage

Economie réalisée grâce à l'intermittence du chauffage


Image de l’économie : la température intérieure

La consommation d’une installation de chauffage est proportionnelle à la différence de température entre l’intérieur et l’extérieur. Plus cette différence diminue, moins on consommera.

Graphiquement, on peut représenter la consommation de chauffage comme suit :

Schéma consommation de chauffage - 01.

Schéma consommation de chauffage - 02.

Image de la consommation de chauffage sans intermittence et avec intermittence.

On voit donc que plus la température intérieure chute et plus le temps pendant lequel cette température est basse est important, plus l’économie d’énergie réalisée grâce à l’intermittence est importante.


Paramètres influençant l’économie

Si l’installation est coupée la nuit et le week-end, quelles seront les économies engendrées ? La figure ci-dessous résume les différents paramètres qui influencent le bilan thermique.

Schéma paramètres influençant l'économie.

L’économie est fonction du degré d’isolation

Plus le bâtiment est isolé, moins la chaleur emmagasinée s’échappera et plus la température intérieure restera stable lors de la coupure du chauffage. L’économie réalisée sera faible.

Au contraire, lorsque le chauffage est coupé dans un bâtiment peu isolé (des façades très vitrées, par exemple, avec des infiltrations d’air importantes)), la température intérieure chute rapidement. C’est dans ce genre de bâtiment « passoire » que le placement d’un régulateur-programmateur sera le plus rentable.

L’économie est fonction de l’inertie de bâtiment

Imaginons un local très lourd, très inerte (anciennes constructions massives) : la température intérieure chutera peu durant la coupure de nuit, car beaucoup de chaleur s’est accumulée dans les murs. Les économies seront faibles… . Par exemple, il ne sert à rien de placer un optimiseur dans un château fort.

Par contre, si le bâtiment est du type préfabriqué, fait de poutrelles et de cloisons légères : dès que le chauffage s’arrêtera, la température chutera. Dans ce cas, la consommation est pratiquement proportionnelle à l’horaire de chauffe. C’est l’exemple de la voiture qui monte rapidement en température dès l’apparition du soleil et qui se refroidit très vite aussi dès que l’on coupe le chauffage.

L’économie est fonction de la durée de coupure

Une coupure d’un week-end est beaucoup plus efficace qu’une coupure nocturne. La coupure sur le temps de midi est sans intérêt.

Économie d’énergie suite à un abaissement nocturne pour différents types de bâtiments en fonction de la durée de l’arrêt de chauffage. Le pourcentage d’économie se rapporte à un chauffage permanent.

  1. Bâtiments de construction légère
  2. Bâtiments de construction lourde

Par exemple, une interruption du chauffage de 12 heures génère 11 % d’économie dans un bâtiment de construction légère (faible inertie thermique). On gagne encore 5% si on coupe 2 heures de plus.


Source : Staefa Control.

L’économie est fonction du sur-dimensionnement de l’installation de chauffage

Si l’installation est très puissante (chaudière et radiateurs surdimensionnés), la relance du matin pourra se faire en dernière minute. Et donc la température intérieure de nuit pourra être plus faible.

Si l’installation est dimensionnée au plus juste, par les plus grands froids, il sera impossible de couper l’installation la nuit, sous peine de ne pouvoir assurer le confort au matin. Aucune économie ne sera possible.

L’économie est fonction du type d’installation de chauffage

Si le chauffage est assuré par un système à air chaud (chauffage très peu inerte), la mise en régime et l’arrêt du chauffage sont immédiats. Si l’installation est réalisée par un système de chauffage par le sol (chauffage très inerte), les temps de réponse seront forts longs et l’intermittence n’est guère envisageable …

Exemple

Exemple.

(Source : « Guide pour la pratique de l’Intermittence du chauffage dans le tertiaire à occupation discontinue », ADEME, 1989)

Trois bâtiments, respectivement de 500 (1 niveau), 2 000 (2 niveaux) et 4 000 m² (4 niveaux) sont chauffés 10 h par jour et 5 jours par semaine.

Le niveau de surpuissance de l’installation de chauffage est assez élevé puisqu’il atteint 2 fois les déperditions (calculées avec un taux de ventilation réduit).

Trois niveaux d’isolation ont été repris :

  • Peu isolé : simples vitrages, murs non isolés.
  • Très isolé : doubles vitrages, murs avec 8 cm d’isolant.
  • Bien isolé : niveau intermédiaire entre les 2 précédents.

Trois modes de coupure sont proposés :

Économie par rapport au fonctionnement continu

Mode de ralenti

Isolation

500 m²

2 000 m²

4 000 m²

Abaissement de température d’ eau

peu isolé 12,5 % 11,4 % 10,8 %
bien isolé 11,7 % 10,9 % 10,3 %
très isolé 10,2 % 9,5 % 8,3 %

Coupure (horloge)

faible inertie
(150 kg/m²)
peu isolé 37,7 % 31,9 % 29,5 %
bien isolé 33,8 % 29,6 % 26,6 %
très isolé 26,5 % 22,6 % 17,0 %
forte inertie
(400 kg/m²)
peu isolé 37,5 % 28,0 % 25,0 %
bien isolé 30,6 % 25,2 % 22,0 %
très isolé 21,9 % 18,2 % 13,7 %
 

Optimiseur

faible inertie
(150 kg/m²)
peu isolé 38,5 % 33,4 % 31,2 %
bien isolé 35,0 % 31,4 % 28,7 %
très isolé 28,6 % 25,1 % 20,1 %
forte inertie
(400 kg/m²)
peu isolé 38,2 % 31,2 % 28,6 %
bien isolé 33,4 % 28,7 % 25,8 %
très isolé 25,6 % 22,2 % 17,6 %

Température de consigne

Le gain énergétique provient de la diminution des déperditions nocturnes. Et donc, plus la température intérieure descendra, plus l’économie augmentera. Il ne faut pas descendre sous une température de 12°C, parce que :

  • Cette température correspond au point de rosée de l’ambiance et que des problèmes de condensation pourraient se poser.
  • Malgré la relance du lundi matin, la température des murs serait trop froide et engendrerait de l’inconfort pour les occupants.
  • Maintenir 12°C dans le local témoin (où se trouve la sonde de régulation), c’est maintenir l’ensemble du bâtiment hors gel.

Une consigne de 16°C durant la nuit (voire moins) et 14°C durant les week-ends et les périodes scolaires est donc recommandée.

Il faut en outre savoir que cette température de consigne ne sera que rarement atteinte (uniquement en plein hiver), ce du fait de l’inertie thermique du bâtiment qui ralentit la chute de température.

Rendement d’un système de ventilation

Rendement d'un système de ventilation


Rendement global

Le rendement global h d’une installation de ventilation peut être calculé comme suit :

h = q x p / P

Avec :

  • q = débit volumique en m³/s
  • p = perte de charge totale du système en Pa
  • P = puissance électrique absorbée en W

Le rendement d’un système complet de ventilation dépend du

Données

Exemples courants de rendement global de système de ventilation.

Rendement du moteur électrique

Les données de la plaque signalétique, correspondant à un fonctionnement en régime nominal, permettent de calculer le rendement d’un moteur asynchrone à la puissance nominale :

η = P / (1,73 x U x I x cos φ)

η = Rendement [-], P = Puissance [W], U = Tension [V],
I = Courant [A], cos φ= Facteur de puissance

Exemple.

À partir de la plaque signalétique ci-dessus :

η = 4 000 / (1,73 x 400 x 8,1 x 0,9) = 0,79

Les pertes au niveau des moteurs asynchrones sont constituées

  • des pertes par effet joule dans les bobinages parcourus par le courant au niveau du stator (pertes cuivre et pertes fer),
  • des pertes dans d’induit au niveau du rotor,
  • des pertes par frottement et ventilation au niveau du rotor.

Les rendements donnés par les fabricants tiennent compte de toutes ces pertes.

Le rendement d’un moteur électrique est fortement influencé par sa puissance nominale. Cela signifie que le rendement atteignable augmente avec la puissance nominale du moteur. Dans la pratique le rendement d’un moteur asynchrone se situe entre 58 % et 96 % en fonction de la taille du moteur.


Pour tous les moteurs, le rendement chute assez fort lorsqu’ils travaillent à charge partielle. Il faut donc se méfier des rendements maximums indiqués sans les rendements à charge partielle pour plusieurs points de fonctionnement différents.


Rendement de la transmission

La transmission de l’énergie du moteur au ventilateur se fait avec une certaine perte, principalement dans le cas d’une transmission par courroies, du fait du glissement de cette dernière sur les poulies.

Mode d’entraînement

Pertes

Moteur à entraînement direct (roue de ventilateur directement calée sur l’arbre du moteur) 2 à 5 %
Entraînement par accouplement 3 à 8 %
Transmission par courroies
Pmot < 7,5 kW : 10 %
7,5 kW < Pmot < 11 kW : 8 %
11 kW < Pmot < 22 kW : 6 %
22 kW < Pmot < 30 kW : 5 %
30 kW < Pmot < 55 kW : 4 %
55 kW < Pmot < 75 kW : 3 %
75 kW < Pmot < 100 kW : 2,5 %

Rendement du ventilateur

Le rendement d’un ventilateur provient des pertes par frottement au niveau des paliers, des pertes internes dues aux tourbillons créés dans le ventilateur et des pertes dues à l’espace compris entre la roue en mouvement et l’enveloppe.

Type de ventilateur Rendement
Centrifuge à aubes vers l’arrière 80 – 87 %
Centrifuge à aubes vers l’avant 57 – 73 %
Hélicoïde sans diffuseur et avec redresseur 50 – 88 %
Hélicoïde avec diffuseur et redresseur 60 – 89 %
Hélicoïde de paroi 35 – 50 %

À chaque point de fonctionnement correspond un rendement du ventilateur. Les points de fonctionnement d’égal rendement sont repris sur des courbes associées aux courbes caractéristiques des ventilateurs. Elles se retrouvent dans les catalogues des fournisseurs.

Il existe un lien entre le rendement et la puissance spécifique (PSFP) :

PSFP = P/qV [W.m-3.s] = Hm

où :

  • P = puissance absorbée au moteur du ventilateur [W]
  • qV = débit nominal à travers le ventilateur en [m³.s-1]
  • Hm est la hauteur manométrique [Pa]
  • η est le rendement nominal [-]

Distribution lumineuse d’un luminaire

Distribution lumineuse d'un luminaire

La forme du réflecteur et les positions de la lampe permettent d’obtenir différents modèles de distributions lumineuses :
  • distribution extensive : donne un éclairement uniforme, permet un espacement plus important des luminaires et accentue les contrastes au niveau du plan de travail,
  • distribution intensive : concentre le faisceau lumineux vers le bas. Ce mode d’éclairage est intéressant pour l’éclairage des travées de grande hauteur ou pour le travail sur écran,
  • distribution asymétrique : permet d’éclairer, par exemple, des surfaces verticales telles que des tableaux ou des murs.

Schéma distribution extensive, intensive et asymétrique.

Schéma diagramme polaire.

Dans les catalogues, la distribution lumineuse d’un luminaire est représentée par un diagramme polaire reprenant en trait continu la distribution perpendiculaire aux lampes et en pointillé la distribution dans l’axe des lampes.

Gradation du flux lumineux (dimming)

Gradation du flux lumineux (dimming)


Principe

Le principe du « dimmer » réside dans le contrôle électronique du niveau de tension d’alimentation du luminaire qui soit à basse (0…230 V) ou très basse tension (0 – 10 V du ballast par exemple).

En contrôlant le temps de déclenchement du « dimmer » avec le bouton gradateur, le niveau de tension de sortie varie.

Schéma principe du dimmer.


Application aux lampes à incandescence et halogène

Les dimmers

Photo dimmer.

Le contrôle du flux des lampes à incandescence et halogènes est relativement simple. Un simple « dimmer » 0-100 % (230 V) contrôle directement la tension  de la lampe ou indirectement la tension d’un transformateur intermédiaire entre l’alimentation 230 V et les sources halogènes de 12 V par exemple.

Les cellules de mesure de niveau d’éclairement

Qu’elles soient centralisées ou en local, les cellules de mesure du niveau d’éclairement permettent, en général, de gérer le flux lumineux d’une lampe, mais en 0-10 V, ce qui limite son champ d’application aux lampes fluorescentes équipées d’un ballast électronique « dimmable ».


Application aux lampes fluorescentes

Avec les lampes fluorescentes, on peut réaliser du « dimming » (variation continue du flux lumineux).

Une tension de 1 à 10 V DC (courant continu) vient alimenter un ballast électronique dimmable. Cette tension variable provient de la cellule de mesure du niveau d’éclairement ou d’un régulateur des systèmes intégrant les signaux de différents éléments de gestion de commande.


Système avec régulateur.

Le dimming a l’avantage d’éviter le surdimensionnement des installations, mais la consommation totale à faible flux lumineux sera plus importante vu que le ballast garde toujours sa consommation propre.

Dans la directive européenne 2000/55/CE on définit une classification énergétique des ballasts permettant de garantir l’optimisation de la consommation des ballasts électroniques dimmables.

Pour en savoir plus : La puissance absorbée par les lampes fluorescentes et leurs auxiliaires (ballast).


Application aux lampes fluo compactes

Le flux lumineux des lampes fluo compactes peut être contrôlé à condition qu’elles soient spécifiées »dimmables ». Le niveau de « dimming » est lié à la qualité du ballast.

Lampe à ballast intégré

La plage de « dimming » pour ce type de lampe est comprise entre 7 et 100 %.

Lampe à ballast séparé

Ce type de lampe, associée à un ballast électronique, offre des performances meilleures. On considère que la plage de régulation du flux lumineux se situe entre 3 et 100 %.


Application aux LED

L’alimentation d’une lampe LED est en courant continu. Vu que le réseau européen est en courant alternatif, un redresseur AC/DC est nécessaire pour alimenter les LED. Le contrôle du flux lumineux des LED est souvent réalisé grâce à un courant pulsé par modulation de largeur d’impulsion (PWM : Pulse Width Modulation).

Modulation de la largeur d’impulsion.

La modulation du flux lumineux s’effectuera plus en courant qu’en tension, car la LED est très sensible aux faibles variations de tension et le flux lumineux est presque proportionnel au courant.

Diagramme tension-courant dans le sens passant et bloquant de la diode.

(++) L’avantage d’une telle modulation réside dans la bonne conservation des propriétés colorimétriques de la LED.

(–) Le redresseur AC/DC ne donne pas un signal continu parfait. Une composante résiduelle ondulatoire persiste. Contrairement à la lampe à incandescence, la LED possède une très faible rémanence lorsqu’elle est soumise à un signal ondulatoire. Il en résulte un phénomène non négligeable de « papillotement » qui peut altérer le confort visuel.


Application aux lampes à décharge haute pression

Les ballasts électroniques dimmables pour lampes à décharge haute pression ont fait leur apparition sur le marché le 1er janvier 1999. Ce type de ballast permet, lors du dimming, les clignotements dû à la fréquence de 50 Hz et d’augmenter sensiblement la durée de vie de la lampe.

Un autre moyen d’obtenir un flux lumineux variable se fait par découpage de la sinusoïde de tension.
Ce découpage est obtenu par un « hacheur ». Il permet de faire varier le flux lumineux par palier.


Hachage de la sinusoïde de tension.

Ce découpage peut se réaliser avec les lampes à mercure haute pression et au sodium haute pression, mais pas avec les lampes aux halogénures métalliques qui risquent de changer de couleur.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Indices de protection d’un luminaire

Indices de protection d'un luminaire


Protection contre les solides et les liquides

Les luminaires sont classés en fonction du degré de protection contre la pénétration de poussières, de corps solides et d’humidité, conformément aux chiffres « IP » mentionnés dans la norme NBN C 20 – 001.

Le premier chiffre suivant l’inscription « IP » représente le degré de protection vis à vis des corps solides et des poussières. Le second chiffre représente le degré de protection vis à vis des liquides.

Degré de protection

Protection contre les corps solides

Degré de protection

Protection contre les liquides

IP1X

Protégé contre les corps solides supérieurs à 50 mm.

IPX1

Protégé contre les chutes verticales de gouttes d’eau.

IP2X

Protégé contre les corps solides supérieurs à 12 mm.

IPX2

Protégé contre les chutes d’eau pour une inclinaison maximale de 15°.

IP3X

Protégé contre les corps solides supérieurs à 2,5 mm.

IPX3

Protégé contre l’eau « en pluie ».

IP4X

Protégé contre les corps solides supérieurs à 1 mm.

IPX4

.

Protégé contre les projections d’eau.

IP5X

Protégé contre la poussière.

IPX5

Protégé contre les jets d’eau.

IP6X

Totalement protégé contre la poussière.

IPX6

Protégé contre les paquets de mer.

IPX7

Protégé contre les effets d’immersion.

Exemple.
Un luminaire classé IP20, est protégé contre les intrusions des corps solides de plus de 12 mm mais pas contre l’humidité. Un luminaire classé IP65 est protégé contre la poussière et contre les jets d’eau.

Remarque.
Concrètement, un indice IP2X signifie que l’on ne peut atteindre les parties électriques avec un doigt, un indice IP3X, avec un tournevis, un indice IP4x, avec une épingle à cheveux.


Protection contre les chocs

 Le degré de résistance au choc des luminaires est représenté par l’indice « IK » du luminaire. Cette classification remplace l’ancienne classification « IP » à 3 chiffres de type IPXXX.

IK00 pas de protection
IK01 0,15 Joule
IK02 0,2 J
IK03 0,35 J
IK04 0,5 J
IK05 0,7 J
IK06 1 J
IK07 2 J
IK08 5 J
IK09 10 J
IK10 20 J

Protection électrique

La classification électrique des luminaires est réalisée en fonction du type de protection offert contre les chocs électriques.

Classification

Exigences électriques

Conséquence d’un éventuel défaut d’isolement

Classe 0

Interdite en Belgique comme dans la majorité des pays européens.

Séparation des parties sous tension par une seule isolation, dite isolation principale.

En cas de défaut d’isolement, la protection de la personne touchant l’appareil repose sur l’environnement (par ex. sol isolant).

Classe I

Séparation des parties sous tension par une seule isolation, dite isolation principale.

Les parties métalliques accessibles sont reliées à une borne de terre.

Recommandés dans les locaux traditionnels.

En cas de défaut d’isolement, la protection de la personne qui touche l’appareil repose essentiellement sur la qualité du circuit de mise à terre et sur un disjoncteur différentiel…

Classe II

Une isolation supplémentaire ou renforcée est ajoutée à l’isolation principale.

Des matériaux à plus grande résistance d’isolement sont utilisés.

Recommandés dans les locaux humides ou lorsqu’on ne peut raccorder le luminaire à un conducteur de protection.

Du fait de la double isolation, un défaut d’isolement ne peut pas se produire et la personne qui touche l’appareil n’est pas en danger.

Classe III

L’alimentation est réalisée en très basse tension de sécurité ; le circuit est isolé du réseau et la tension est plus petite que 50 V.

En principe, cet appareil ne pose pas de risques électriques.


Protection incendie

Inflammabilité de la surface de montage

La norme CEI 60598-1 propose un marquage du luminaire en fonction de l’inflammabilité de la surface de montage et des possibilités de recouvrement. Ce marquage remplace l’ancien marquage constitué des symboles présentés dans la figure ci-dessous  (lettres F ou M dans un triangle sur pointe). Notez que bien qu’un nouveau marquage soit en place, ces symboles sont encore parfois rencontrés sur le marché.

LabelIP7.gif (1212 octets) M.GIF (350 octets)

La norme CEI 60598-1 propose de marquer uniquement les luminaires qui présentent des limitations d’application. Ainsi, les luminaires conçus pour être montés sur une surface normalement inflammable et qu’un matériau isolant thermique peut recouvrir sans risque d’incendie ne seront pas marqués. Par contre, les luminaires qui exigent des surfaces de montages non-inflammables ou qui ne peuvent être recouverts d’un matériau isolant thermique seront marqués selon le tableau ci-dessous. Un matériau est considéré comme normalement inflammable si sa température d’inflammation est d’au moins 200°C et s’il ne se déforme ni ne se ramollit à cette température.

Ce tableau est extrait des Dossiers du CSTC n°2/2009 Cahier n°15 page 5.

Symboles et limitations

 

Le luminaire ne peut être monté sur une surface normalement inflammable.

  Le luminaire n’a pas été conçu pour être recouvert par un matériau isolant thermique.
Le luminaire n’a pas été conçu pour être encastré dans une surface normalement inflammable.

Inflammabilité du luminaire

Le comportement au feu d’un luminaire peut être caractérisé par le résultat de l’essai au fil incandescent décrit dans la norme CEI 60.695-2-11. Ce test permet d’évaluer le comportement du luminaire vis-à-vis du feu et consiste à appliquer sur certaines parties du luminaire un fil incandescent chauffé à des températures définies (650°C, 850°C, 960°C…) et ce, pendant une certaine durée (5 secondes, 30 secondes…).
La table ci-dessous récapitule, en fonction de l’usage du matériel d’éclairage, les températures auxquelles le matériel doit résister.

Type d’usage

Parties du luminaire en contact avec des parties conductrices, ou les maintenant en position Enveloppes et couvercles ne maintenant pas en position de parties trans­portant le courant

 Matériel pour une utilisation sous surveillance

650 °C

650 °C
 Matériel pour une utilisation sans surveillance, mais dans des conditions moins sévères 750 °C 750 °C
Matériel pour une utilisation avec surveillance, mais dans des conditions plus sévères 750 °C 750 °C
Matériel pour un usage continu sans surveillance 850 °C 850 °C
Matériel pour un usage continu sans surveillance, mais dans des conditions plus sévères 960 °C 960 °C
Appareils fixes pour les installations électriques 750 °C 650 °C
Matériel destiné à être utilisé près du tableau principal de distribution d’un immeuble 960 °C 750 °C
Pour garantir un niveau minimal d’inflammation des parties susceptibles de contribuer à un risque de feu, et de propagation du feu par leur intermédiai­re, ces parties n’étant pas essayées autrement (pour éliminer les matériaux à combustion violente) 550 °C 550 °C

Ce tableau est extrait des Dossiers du CSTC n°2/2009 Cahier n°15 page 5.

Conductivité thermique d’un matériau

Conductivité thermique d'un matériau


Représentation physique

La conductivité thermique (λ) est une caractéristique propre à chaque matériau.
Elle indique la quantité de chaleur qui se propage par conduction thermique :

  • en 1 seconde,
  • à travers 1 m² d’un matériau,
  • épais d’un 1 m,
  • lorsque la différence de température entre les deux faces est de 1 K (1 K = 1 °C).

Schéma principe conductivité thermique.

> La conductivité thermique s’exprime en W/mK.

Plus la conductivité thermique est élevée, plus le matériau est conducteur de chaleur. Plus elle est faible, plus le produit est isolant.

Ce coefficient n’est valable que pour les matériaux homogènes. Il n’a pas de sens pour les matériaux hétérogènes au travers desquels la chaleur se propage en même temps par conduction, convection et rayonnement.

Le coefficient de conductivité thermique λ d’un matériau varie en fonction de la température et de l’humidité de celui-ci.
Les documentations technico commerciales des matériaux devront donc préciser avec la valeur du λ les conditions dans lesquelles cette valeur est obtenue (et utilisable!). On tâchera de s’approcher des valeurs normales d’utilisation (Température entre 10 °C et 20 °C).

Pratiquement on distinguera :

λi Conductivité thermique d’un matériau dans une paroi intérieure ou dans une paroi extérieure, à condition que le matériau soit protégé contre l’humidité due à la pluie ou à la condensation.
λe Conductivité thermique d’un matériau dans une paroi extérieure qui n’est pas protégé contre l’humidité due à la pluie ou à la condensation.

Remarque : λ est une caractéristique physique du matériau indépendant de sa forme.


Échelle de valeurs

Les coefficients de conductivité thermique des matériaux varient énormément en fonction de la nature de ceux-ci. (Valeurs par défaut extraites de l’annexe B1 de l’AGW du 15 mai 2014).

  • Les métaux : 35 (plomb) à 380 (cuivre) W/mK ;
  • Les pierres : 1.4 (pierre demi-fermes) à 3.5 (pierres lourdes) W/mK :
  • Les bétons lourds : 1.3 (non armé sec) à 2.2 (armé humide) W/mK ;
  • Les briques :  0.22 (léger sec) à 1.61 (lourd humide) W/mK ;
  • Le bois : 0.13 (résineux sec) à 0.20 (feuillu humide) W/mK ;
  • Les isolants : 0.035 (polyuréthane revêtu) à 0.090 (vermiculite expansée en panneau) W/mK.

Ainsi, :

  • le cuivre est plus de 10.000 fois plus conducteur de chaleur que le polyuréthane.
  • le polyuréthane conduit 100 fois moins la chaleur que la pierre lourde !

 


Valeurs reconnues pour les matériaux de construction

La valeur déclarée

La valeur déclarée λD d’un matériau de construction est généralement fournie par son fabricant. Cette valeur est certifiée sur base d’un agrément technique (ATG, CE, ETA, ETZ, …). Elle est obtenue dans des conditions de référence données de température et d’humidité (d’après les principes donnés dans la EN ISO 10456).

Les valeurs de calcul

À partir de cette valeur λD, il est possible de déduire les valeurs de calcul de la conductivité thermique λU,i et λU,e. Ces valeurs sont en fait recalculées pour des conditions spécifiques à l’utilisation du matériau (interne ou externe). Il existe un site officiel qui indique, pour les trois régions belges, les valeurs λU,i et λU,e de certains matériaux qui peuvent directement être utilisées pour le calcul des performances thermiques des parois suivant la réglementation PEB : www.epbd.be

Les valeurs de calcul par défaut

Des valeurs de calcul  λU,i et λU,e par défaut peuvent toujours être utilisées lorsque le matériau ne possède pas de valeur λD certifiée ou n’est connu que par sa nature. Ces valeurs sont reprises dans divers tableaux de la réglementation.

Casse thermique

Casse thermique

Ce phénomène concerne essentiellement les vitrages absorbants et éventuellement les vitrages réfléchissants dont la température peut augmenter plus fort que celle des vitrages clairs.

Le verre en chauffant aura tendance à se dilater comme n’importe quel autre corps.
Cependant, pris dans la feuillure du châssis, les bords du vitrage se réchaufferont plus lentement et se dilateront donc moins.

Cette différence de dilatation peut induire des contraintes internes dans le vitrage et occasionner sa rupture : c’est ce que l’on appelle la casse thermique.

Une casse thermique se reconnaît généralement par le fait que les fissures démarrent perpendiculairement au bord du vitrage.

On dit qu’il y a risque de casse thermique lorsque les conditions d’utilisation ou de mise en œuvre du vitrage peuvent entraîner des différences de température supérieures à 30°C.

Lorsqu’un tel risque se présente, il est conseillé d’utiliser des verres trempés, dont la résistance aux chocs thermiques est quatre à cinq fois plus grande que celle du verre ordinaire. Ils peuvent en effet résister à un différentiel de température de 200°C.

Cependant d’autres précautions peuvent être prises pour éviter les chocs thermiques :

  • Éviter les ombres portées sur le vitrage.
  • Utiliser des châssis à coupure thermique isolés de la maçonnerie.
  • Permettre à l’air de circuler entre les stores intérieurs ou extérieurs et le vitrage.
  • On veillera à ne pas placer les bouches de chauffage ou de conditionnement d’air trop près du vitrage et ne pas diriger le flux d’air vers celui-ci.

Apports solaires et effet de serre

Apports solaires et effet de serre

Tout corps transmet de la chaleur par rayonnement au monde qui l’entoure. La longueur d’onde du rayonnement ainsi émis dépend de la température du corps.

Le rayonnement solaire (température du soleil voisine de 6 000°C) est principalement composé de longueurs d’onde courtes, tandis que le rayonnement émis par les corps terrestres (température courante voisine de 20°C) est plutôt à grandes longueurs d’onde.

Schéma principe effet de serre.

L’effet de serre provient de la transparence sélective du verre en fonction de la longueur d’onde du rayonnement. Un vitrage sera transparent pour le rayonnement solaire mais opaque pour le rayonnement en provenance des matériaux du bâtiment.

Ainsi, les rayons du soleil traversent les parois vitrées et échauffent les parois intérieures et les objets du bâtiment. Ces derniers réémettent alors la chaleur accumulée. Leur longueur d’onde étant dénaturée, ces rayons ne peuvent retraverser les parois par lesquelles ils se sont introduits. C’est alors l’escalade des degrés !