Electricité [Calculs]

Electricité [Calculs]

Installations électriques de base

  • La simulation de la consommation électrique d’un bâtiment (xls) Fichier à dézipper.
    Ce tableur estime la consommation électrique annuelle, la pointe quart horaire et la facture électrique annuelle en tarif horo-saisonnier d’un bâtiment existant ou neuf. Il ne s’applique actuellement qu’aux immeubles de bureaux et éventuellement à des écoles.
  • Le dimensionnement des câbles d’alimentation d’un bâtiment (xls) Fichier à dézipper.
    Ce tableur a pour but d’évaluer l’intérêt énergétique et économique de démultiplier les câbles d’alimentation électrique entre le transformateur et le tableau basse tension. Ayant choisi la dimension du câble suivant les méthodes de dimensionnement traditionnelles, vous pouvez comparer la solution du câble unique avec deux autres combinaisons de câbles multiples (de même section).

Énergies renouvelables

Eclairage [Calculs]

Eclairage [Calculs]

Les outils de vérification du dimensionnement

Les calculs de rentabilité

Les outils de maintenance

Eau chaude sanitaire [Calculs]

Eau chaude sanitaire [Calculs]

Les calculs liés à l’utilisation

Les interventions techniques

 Les installations solaires thermiques

  • Le logiciel de préfaisabilité : Quick-scan (xls) Fichier à dézipper.
    Cet outil, développé par la Wallonie et la Région de Bruxelles-Capitale, permet de prédimensionner un grand système solaire thermique. Son mode d’emploi est disponible en ligne.

Ventilation [Calculs]

Ventilation [Calculs]


Air intérieur – réduction des risques liés au Coronavirus

  • Outil d’aide à la réduction des risques liés au Coronovirus (xls)
    Cet outil est lié au rapport ‘Schools for Health’ sur les stratégies de réduction des risques liés au COVID19 dans les écoles et ne devrait pas être utilisé sans. Il est développé pour soutenir les efforts visant à compléter la ventilation par de l’air extérieur avec des techniques éprouvées de purification d’air par filtration. La traduction de cet outil est faite par prof Geoffrey van Moeseke, UCLouvain, en mars 2021. Sa publication dans Energie+ est faite avec l’accord des auteurs.

Paramètres de calcul et dimensionnement

  • L’équilibrage d’une installation aéraulique-type (xls)
    Ce tableur offre une modélisation d’une installation aéraulique type destinée à illustrer la théorie de l’équilibrage aéraulique. Il doit être utilisé en parallèle à la lecture de la page « Améliorer le réseau de distribution d’air » qui décrit son mode d’emploi. L’objectif   En agissant sur les ouvertures de vannes, il faut obtenir les débits souhaités en adaptant les débits réels supposément constatés dans une installation existante. Une version résolue est disponible pour vérification.
  • Le calcul acoustique d’une installation type
    Cette page présente un exemple de calcul acoustique d’une installation de ventilation mécanique. Le calcul détaillé des puissances sonores et des atténuations créées par chaque composant d’une installation dépasse cependant la portée de cet outil. Celui-ci se contente de reprendre ici les résultats d’un calcul développé dans le document très complet « Protection acoustique dans les installations du bâtiment » – Office fédéral des questions conjoncturelles, 3000 Berne, 1989.

Calcul des consommations liées à la ventilation hygiénique

  • L’évaluation des consommations liées à la ventilation (xls)
    Un tableur permettant de réaliser le bilan énergétique global d’une installation de ventilation, en intégrant la consommation des ventilateurs et le préchauffage de l’air neuf. Ce tableur inclut des données climatiques pour Uccle et St-Hubert. Il est possible de tester l’impact de certaines améliorations : diminuer le temps de fonctionnement journalier, améliorer le rendement du ventilateur, diminuer de façon fixe le débit d’air neuf, gérer le taux d’air neuf au moyen de sondes CO2, couper la ventilation local par local en fonction d’une détection de présence.

Calcul des économies liées à la ventilation intensive (free cooling) :

  • Estimer l’intérêt du free cooling mécanique diurne (fichier xls)
    Ce programme permet de comparer, pour une même charge thermique à évacuer, la consommation électrique des ventilateurs nécessaires au free cooling diurne mécanique et la consommation électrique d’un ventilo-convecteur (production frigorifique, ventilateur du ventilo, pompe de circulation d’eau froide).

Cas particulier – les écoles :

Humidification et déshumidification [Calculs]

Humidification et déshumidification [Calculs]

Données physiques

Équipements de gestion de l’humidité

Climatisation [Calculs]

Climatisation [Calculs]

Chauffage [Calculs]

Chauffage [Calculs]

Outils dédiés aux équipements de production de chaleur

  • Vérifier le dimensionnement d’une chaudière (fichier xls)  
    Ce tableur vous permet d’estimer la puissance nécessaire d’une chaudière connaissant le volume chauffé et la surface déperditive (= surface des parois entourant le volume chauffé (façades, toit, sol)) et en estimant le degré d’isolation du bâtiment. Cet outil n’est utilisable qu’à titre indicatif et ne peut pas servir de dimensionnement de la chaudière. Afin d’aller plus loin dans votre démarche, vous trouverez ci-dessous un outil permettant une évaluation approchée du niveau K, complétée de quelques informations relatives aux systèmes de ventilation et à l’étanchéité à l’air, pour faire un premier bilan énergétique : Niveau d’isolation thermique global et premier bilan énergétique (fichier xls)
  • Dimensionner une chaudière (xls) Fichier à dézipper.
    Ce tableur vous permet de dimensionner une chaudière selon les normes de dimensionnement. Le nombre de variables nécessaires pour l’utilisation de cet outil est plus élevé que pour l’outil de vérification de dimensionnement ci-dessus.
  • Analyser une attestation de chaudière (xls)  Fichier à dézipper. 
    Ce tableur, créé par le facilitateur URE wallon, permet la vérification et l’analyse de l’attestation de la chaudière. En particulier, il permet d’obtenir les valeurs de références pour les paramètres clés d’une attestation de chauffage.

  • Comparer les combustibles (xls)
    Ce tableur, créé par le facilitateur URE wallon, permet de comparer le coût des différents combustibles, en uniformisant les unités pour permettre une comparaison à contenu énergétique équivalent.

Outils dédiés aux équipements de distribution de chaleur

  • Exemple de dimensionnement d’un vase d’expansion à pression variable
    Une page décrivant la méthode de dimensionnement des vases d’expansion fermé à pression variable. Pour les vases d’expansion à pression constante que l’on peut retrouver dans les très grosses installations, nous renvoyons le lecteur intéressé au rapport technique du CSTC (n°1 – 1992) ou au document « Méthode de calcul pour vases d’expansion dans des installations de chauffage et de refroidissement central » du SAPC de la régie des bâtiments.

Outils dédiés aux émetteurs de chaleur

Outils dédiés aux équipements de régulation

Bilan carbone et environnemental [Calculs]

Bilan thermique [Calculs]

Outils généraux

Outils dédiés à des applications particulières

  • Confrontation d’alternatives au niveau d’un local (xls)
    Bilan comparatif établissant l’impact de l’orientation, l’inertie, le niveau de gains internes, le type de vitrage, la surface vitrée et la présence de store sur les besoins nets d’énergie et les puissances requises pour un local de bureau type.
  • Etablir le bilan carbone dans une école (lien externe)
    Cet outil et le document qui l’accompagne, a pour objectif de vous guider pas à pas dans la réalisation du bilan carbone de votre établissement scolaire à l’aide du calculateur fourni par COREN asbl. Le document joint décrit en détail l’utilisation de l’outil et vous présente des pistes pédagogiques et des propositions d’actions environnementales afin de donner tout son sens à la réalisation du bilan carbone. L’outil a pu être réalisé dans le cadre des missions d’intérêt public confiées par la Wallonie à COREN asbl et grâce au soutien de l’Agence Wallonne de l’Air et du Climat.

    Vous avez également la possibilité de bénéficier d’un accompagnement direct de COREN asbl pour réaliser ce bilan ou pour mener un projet environnemental de plus grande envergure. Pour cela, contactez-nous via info@coren.be ou au 02/640.53.23.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Enveloppe du bâtiment [Calculs]

Enveloppe du bâtiment [Calculs]

  • Le coefficient de transmission thermique d’une parois (fichier xls)
    Calculer le coefficient de transmission thermique « U » d’une paroi, en W/m²K, selon la méthode de calcul de l’annexe VII de la méthode PER (PEB wallonne), basée principalement sur la norme NBN EN ISO 6946:2008. Ce fichier est également disponible en version dynamique avec une base de donnée séparée. La version dynamique de l’outil intègre une mise à jour plus fréquente des données (exemple le lambda λ des différents matériaux). Pour les utiliser, les outils Excel doivent être téléchargés dans le même fichier sur votre PC ou MAC.  

Outils indicatifs pour une prise de décision rapide

Rénovation de l’éclairage de deux locaux d’un bâtiment de bureaux du CSTC

Rénovation de l'éclairage de deux locaux d’un bâtiment de bureaux du CSTC

Étude de cas réalisée par le Centre Scientifique et Technique de la Construction (CSTC)


Introduction

L’objectif de la rénovation présentée ici était d’étudier l’état de l’art des solutions LEDs existantes en 2014. Deux locaux ont été rénovés avec, comme objectifs, une réduction de la consommation d’énergie d’éclairage mais aussi une augmentation du confort visuel général.

Les deux locaux rénovés se trouvent dans le bâtiment de bureaux du CSTC situé, Lozenberg 7 à 1932 Sint-Stevens-Woluwe (Zaventem). Le hall d’entrée a été rénové en « uplamping », c’est à dire que seules les lampes ont été changées alors que le hall de réception a été rénové plus profondément, puisque les luminaires et les dalles de faux-plafond ont été remplacés.


Hall d’entrée

Le hall d’entrée fait 4,55 m sur 9,95 m et a une hauteur sous plafond de 2,7 m. Il n’y a pas de fenêtre mais la double porte est entièrement vitrée et apporte un peu de lumière naturelle. Le plafond est composé de profilés en aluminium gris foncés. Les murs sont peints en blanc et le sol est recouvert de carrelages émaillés clairs.

 

Hall d’entrée 1

Initialement, le hall d’entrée était éclairé par 24 spots halogènes intégrés au plafond (voir figure ci-dessous), disposés de manière irrégulière. Un mélange de lampes avait été fait ; la majorité des lampes avaient les caractéristiques suivantes :

Caractéristique des lampes avant rénovation
Diamètre

50 mm

Tension 12 V
Puissance 50 W
Intensité lumineuse maximale 2000 cd
Température de couleur 3000 K
Indice de rendu de couleurs 97
Angle d’ouverture 36°

La position des lampes n’était pas modifiable, à moins de démonter entièrement le faux-plafond, ce qui n’était pas la volonté de l’exploitant du bâtiment. Les lampes étaient commandées manuellement au moyen d’un interrupteur on/off placé sur le mur.

  Spot halogènes encastrés

Rénovation

Les lampes choisies pour remplacer les spots halogènes sont des lampes LEDs de deux puissances et d’angles d’ouverture différents. Pour l’éclairage général (20 lampes), le type de lampe LED a été choisi de manière à ce que son flux soit équivalent au flux fourni par la lampe halogène de 50W qu’elle remplace. L’angle d’ouverture a été choisi le plus large possible, c’est-à-dire égal à 36°.

Devant l’ascenseur (4 lampes), les lampes ont une puissance plus petite (flux équivalent à celui d’une lampe halogène de 35W) et un angle d’ouverture plus petit (24°).

Caractéristique des deux lampes LED utilisées en rénovation
Lampes devant l’ascenseur autres
Diamètre

54 mm

54 mm
Tension 12 V 12 V
Puissance 7 W 10 W
Intensité lumineuse maximale 2200 cd 1560 cd
Température de couleur 3000 K 3000K
Indice de rendu de couleurs 80 80
Angle d’ouverture 24° 36°
Diagramme polaire

Éclairements

Les mesures d’éclairement ont été prises ponctuellement à une hauteur de 85 cm du sol. Comme les lampes de type « spot » ne fournissent pas un éclairement uniforme, une prise de mesures d’éclairement suivant une grille aurait nécessité pour être représentative, un maillage très serré.

Les valeurs observées montrent que les niveaux d’éclairement ponctuels atteints après « uplamping » sont d’un ordre de grandeur identique à celui obtenu avant « uplamping ».

Éclairements mesurés (lux)
Avant « Uplamping » Après « Uplamping »

Apparence visuelle, distribution des luminances dans le champ visuel et éblouissement

Vues intérieures et luminances mesurées
Avant « Uplamping » Après « Uplamping »

Luminance maximum : 291 000 cd/m²

UGR = 15,9

Luminance maximum : 28 600 cd/m²

UGR = 14,7

On remarque que sur le sol, les contrastes sont plus marqués avec les lampes LED alors que c’est l’inverse sur les murs. Ces ‘taches de lumière’ ont été jugées inconfortables par les occupants.

La luminance maximum atteinte est plus importante avec les lampes halogènes. L’indice d’éblouissement (UGR) est également plus grand avant « uplamping ». Notons cependant que les normes européenne sont respectées dans les deux cas (UGR<22). Par contre, le niveau de luminance maximal atteint avant « uplamping » est très haut et traduit un éblouissement certain. Les valeurs communément acceptées pour un éblouissement direct sont de 2500 à 3000 cd/m2.  Et donc, si on suit ces valeurs, même l’éclairage LED peut induire un éblouissement direct si on regarde les lampes.

Calcul du temps de retour sur l’investissement

Le tableau ci-dessous donne le calcul précis réalisé pour évaluer le temps de retour sur investissement de la rénovation. On observe que ce temps de retour est d’un an et 6 mois, ce qui est très court.

Avant « Uplamping » Après « Uplamping » Économie

Énergie

Nombre d’heure de service

2 280 h/an 2 280 h/an

Puissance installée

1×50 + aux = 55 W

1×10 + aux = 15 W

1×7 + aux = 12 W

Nombre de pièces

24

20

4

Puissance totale

1,32 kW 0,348 kW 74%
Consommation 3 010kWh/an 793 kWh/an 2 216 kWh/an
Émissions de CO2 0,900 tonne/an 0,237 tonne/an 0,663 tonne/an

Consommation

512 €/an 135 €/an 377 €/an
Coûts de maintenance

Durée de vie de la lampe

5 000 h

30 000 h

40 000 h

Prix de la lampe*

2,01 €/pce

20,71 €/pce

18,34 €/pce

Prix annuel de l’installation

22,00 €

31,48 €

4,18 €

Coût de la main-d’œuvre

10′ x 25 €/h = 4,17 €/pce 10′ x 25 €/h = 4,17 €/pce

Coût total annuel de la main-d’œuvre

45,60 €

6,34 €

0,95 €

Coût annuel de la maintenance 68 € 43 € 25 €/an

Investissement

Coût de démontage

0 €/pce
Coût d’achat

20,71 €/pce

18,34 €/pce

Coût d’installation

10′ x 25 €/h = 4,17 €/pce

Coût d’investissement

587,64 €

Temps de retour

1 an et 7 mois
* Prix en août 2014

Hypothèses : 0.299 kg CO2 / kWh et coût de l’énergie 0,17€/kWh

Tous les prix sont HTVA


Hall de réception

Le hall de réception mesure 6,45 m de long sur 6,8 m de large. Sa hauteur sous plafond est de 2,7 m. Cet espace dessert cinq salles de réunion et est connecté à un couloir qui conduit aux autres locaux situés au rez-de-chaussée. Il n’y a aucune fenêtre donnant sur ce hall.

Le faux-plafond est constitué de dalles de faux-plafond de couleur blanche. Les murs sont peints en blanc et le tapis est gris foncé.

 

Hall de réception et spot Halogène

Le hall de réception est éclairé par 37 spots halogènes de 110 mm de diamètre total, contenant des lampes de 50 mm de diamètre, et  commandés par un interrupteur on/off.

Caractéristique des lampes avant rénovation

Diamètre

50 mm

Tension 12 V
Puissance 50 W
Intensité lumineuse maximale 2000 cd
Température de couleur 3000 K
Indice de rendu de couleurs 97
Angle d’ouverture 36°

La structure du faux-plafond permettait de modifier le nombre et la disposition des luminaires.

Rénovation

Après une étude par simulation ainsi que des essais sur site, deux types de luminaire ont été sélectionnés. Afin d’améliorer l’uniformité et l’effet d’éblouissement que les luminaires de type downlight peuvent générer, le nombre de luminaires installés a été augmenté mais leur flux lumineux a été gradué pour fournir les niveaux d’éclairement souhaités. Les luminaires ont été disposés selon le plan ci-dessous :

Plan de positionnement des luminaires après rénovation ( O Downlight de 24 W et o spot de 12,7 W)

Caractéristique des luminaires LED installés
Luminaires
Downlight
Spot
Diamètre

216 mm

85 mm
Illustration
Puissance 24 W 12,7 W
Flux lumineux 2 230 lm 655 lm
UGR 21,4 15,5
Efficacité lumineuse 93 lm/W 52 lm/W
Diagramme polaire

   

Hall de réception après rénovation

Éclairements

Les mesures d’éclairement de la situation initiale ont été prises ponctuellement à une hauteur de 85 cm du sol.  L’éclairement final a été mesuré selon une grille de 13 x 12 points.

Positionnement des luminaires et cartographie des éclairements

Situation initiale

Après rénovation – éclairage à 100%

Après rénovation – éclairage à 60%

Nous notons que les valeurs d’éclairement sont hautes mais que l’uniformité ne respecte pas strictement la norme européenne qui demande 0.6 minimum.

Une gradation du flux lumineux des luminaires à 60% permet un éclairement moyen de 535 lx, tout en gardant une uniformité de 0.45 (ce qui ne correspond pas à la valeur demandée par la norme). Nous verrons, en analysant les luminances et l’éblouissement que le fait de graduer les lampes permet de respecter la norme en terme d’indice d’éblouissement, qui n’est pas atteint pour un éclairage à 100%.

Éclairements réalisés

Après rénovation – éclairage à 100%

Après rénovation – éclairage à 60%

minimum sur le plan de travail : Emin

375 lux 240 lux

maximum sur le plan de travail : Emax

1357 lux 1165 lux

moyen sur le plan de travail : Emoy

803 lux 535 lux
Uniformité : Uo 0,47 0,45

Apparence visuelle, distribution des luminances dans le champ visuel et éblouissement

Luminances et UGR mesurées
Vue intérieure

Éclairage à 100%

Éclairage à 60%
Luminance maximum

180 000 cd/m²

90 000 cd/m²

UGR – vue 1 22,1 19,7
UGR – vue 2 21 18,3
UGR – vue 3 23,6 21

Plan de positionnement des luminaires et points de vue des mesures UGR

Calcul du temps de retour sur l’investissement

Le tableau ci-dessous donne le calcul précis réalisé pour évaluer le temps de retour sur investissement de la rénovation. On observe que ce temps de retour est de 9 ans et 4 mois, ce qui est beaucoup plus long que le temps de retour calculé lors du « uplamping », bien que l’économie d’énergie est un peu plus importante dans ce dernier cas (83 % pour 74 % dans le cas du « uplamping »).

Ceci est principalement dû au coût d’investissement qui est de plus de 10 fois le coût d’investissement nécessaire pour le « uplamping ». Néanmoins, l’économie d’énergie n’est qu’un des différents objectifs visés par cette intervention. L’amélioration du confort visuel  entre autres, a été en majorité, fortement apprécié par les occupants.

Avant « Uplamping » Après « Uplamping » Économie

Énergie

Nombre d’heure de service

2 280 h/an 2 280 h/an

Puissance installée

1×50 + aux = 55 W

1×13 = 13 W

0,6×24 = 14,4 W

Nombre de pièces

37

10

15

Puissance totale

2,04 kW 0,346 kW 83%
Consommation 4 640kWh/an 789 kWh/an 3 851 kWh/an
Émissions de CO2 1,39 tonne/an 0,24 tonne/an 1,15 tonne/an

Consommation

789 €/an 134 €/an 655 €/an
Coûts de maintenance

Durée de vie de la lampe

5 000 h

30 000 h

50 000 h

Prix de la lampe*

2,01 €/pce

75 €/pce

95 €/pce

Prix annuel de l’installation

34,00 €

57,00 €

133,00 €

Coût de la main-d’œuvre

10′ x 25 €/h = 4,17 €/pce 15′ x 25 €/h = 6,25 €/pce

Coût total annuel de la main-d’œuvre

70 €

5 €

4 €

Coût annuel de la maintenance 104 € 199 € – 95 €/an

Investissement

Coût de démontage

16 x 25€/h = 400 €
Coût d’achat 4 776 €

Coût d’installation

40h x 25 €/h = 1 000 €

Coût d’investissement

6 176 €

Temps de retour

11 ans
* Prix en août 2014

Hypothèses : 0.299 kg CO2 / kWh et coût de l’énergie 0,17€/kWh

Tous les prix sont HTVA

Choisir un système de déshumidification

Choisir un système de déshumidification


Préalable : le besoin de déshumidification

En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilo d’air, ce qui, pour des températures de l’ordre de 25° correspond à 70% d’humidité relative.

 

Température et humidité extérieure pour un mois de juillet moyen à Uccle.

Un tel niveau est confortable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques.

Trois cas de figure vont néanmoins justifier l’installation d’un système de deshumidification.

Le respect d’une consigne stricte

Théoriquement, un inconfort thermique lié à une trop grande humidité n’apparaît pas à moins de 70% d’humidité relative. Des exigences plus strictes peuvent cependant être énoncées par l’occupant, par exemple en référence à la norme NBN EN 15251. Tout comme pour l’humidification, des spécifications rigides dans un cahier des charges tel que « maintien des locaux à 21°C et 50 % HR » vont entraîner des gaspillages énergétiques. Au minimum, des seuils minimum et maximum doivent être exprimés, et pourquoi pas des périodes de dépassement autorisées (5… 10% du temps).

Quelque soit le niveau maximal d’humidité toléré, celui-ci ne pourra pas être maintenu à tout moment à l’intérieur d’un bâtiment sans recours à une installation de deshumidification. Il suffit en effet d’une météo orageuse pour que le niveau d’humidité de l’air extérieur devienne inconfortable.

L’acceptabilité de dépassements ponctuels du seuil d’humidité est comparable à l’acceptabilité de températures élevées dans un bâtiment. Elle dépendra de la capacité d’action de l’occupant (créer un courant d’air?… les moyens d’action contre une humidité trop élevée sont limités), de sa compréhension de l’origine de l’inconfort et de sa durée prévisible (« Ca va tomber ce soir! »), etc.

Enfin, il faut garder à l’esprit que la mesure dans la reprise d’air est souvent faussée, par l’échauffement de l’air au niveau des luminaires, notamment. Il n’est donc technologiquement pas simple de garantir un strict respect d’une consigne d’humidité.

La production d’humidité à l’intérieur

La présence d’occupants et de certaines activités dans un bâtiment dégagent de l’humidité : on parle de 70 à 100 gr d’eau par heure et par personne pour un travailleur de bureau. Cette humidité est diluée dans l’air neuf, et représente en conséquence une charge non négligeable de 1.9 à 2.8 gr d’eau par kilo d’air, sur base d’un débit d’air neuf de 30 m³/(h.personne).

Ajouté à l’humidité extérieure estivale, cette charge justifie le système de déshumidification. Existe-t-il une alternative? Oui : si le bâtiment est conçu pour fonctionner selon un mode « free cooling » lors des journées d’été, le taux d’air neuf sera beaucoup plus important, typiquement plus de 100 m³/(h.personne) dans le cas d’une ventilation naturelle. La charge d’humidité liée à l’occupation représente dès lors moins de 1 gr d’eau par kilo d’air, et les périodes de temps où cette charge, ajoutée à l’humidité extérieure, provoque un inconfort est limité.

Le risque de condensations surfaciques

Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, il peut être nécessaire de contrôler le taux d’humidité de l’ambiance. Ces systèmes sont normalement conçus pour limiter le risque de condensation : ils sont alimentés avec une température d’eau la plus élevée possible, de façon à être au-dessus du point de rosée de l’ambiance.

Par exemple, avec un régime de température d’eau de 17°-20° dans un plafond rayonnant, un simple refroidissement de l’air à 16° est suffisant pour éviter les condensations. La température de rosée est donnée dans le tableau ci-dessous pour différentes combinaisons de température et d’humidité:

Température de l’ambiance Humidité relative de l’ambiance Température de rosée
21 50 10,19
60 12,95
70 15,33
23 50 12,03
60 14,82
70 17,24
25 50 13,86
60 16,70
70 19,15

La déshumidification concrètement

En pratique, la déshumidification d’une ambiance se fait par pulsion d’un air « asséchant », c’est à dire dont l’humidité absolue est inférieure à celle de l’ambiance. Pour produire cet air relativement sec, le principe couramment utilisé est la condensation : mis en contact avec une batterie d’eau glacée dans une centrale de traitement d’air, l’air se refroidit au-delà de son point de rosée et l’humidité excédentaire condense. Mais l’air sec obtenu est trop froid pour être amené tel quel dans un local. Il provoquerait un courant d’air inconfortable, voir une condensation malvenue de l’air du local à la sortie de la bouche du pulsion. Une postchauffe est donc généralement prévue au moyen d’une batterie alimentée en eau chaude ou d’une résistance électrique.

C’est le principe expliqué sur le diagramme de l’air humide ci-dessous :

  • On dispose au départ d’un air extérieur à 28°C et 17 greau/kgair (70.7%HR – point E) dont la température de rosée est de 22°C.
  • Le passage par la batterie d’eau glacée amène à 10.5°C et 8 greau/kgair (100%HR – point X). L’air a perdu environ 9 greau/kgair.
  • La postchauffe ramène à une température de soufflage confortable de 16°C pour 8 greau/kgair (70%HR – 36kJ/kg – point S).
  • Les conditions d’ambiance qui seront créées grâce à la pulsion de cet air dépendent du débit, de la production d’humidité par l’occupation, etc. Si l’on se base sur un dégagement intérieur dilué dans l’air neuf de 3 greau/kgair on arrive à 8+3=11 greau/kgair, ce qui, à 25°C, correspond à une humidité relative d’un peu plus de 50%.

Puisque la déshumidification se fait par condensation de l’humidité de l’air sur une batterie de refroidissement, la plupart des systèmes de production de froid traditionnels peuvent être utilisés. La seule condition est de disposer d’une batterie d’eau glacée, pour pouvoir amener l’air à une température suffisamment basse.

Oui mais… dans les pages sur la climatisation, il est dit qu’il faut choisir des systèmes de refroidissement à haute température, pour mieux valoriser la fraîcheur de l’environnement. Alors quoi ?

Il y a là en effet un conflit. L’expression d’un besoin de déshumidifier peut disqualifier des techniques intéressantes pour le refroidissement telles que les systèmes de geocooling ou de refroidissement adiabatiques. Ces techniques sont-elles donc à l’arrivé moins intéressantes qu’escompté? Pas nécessairement, car:

  • Le système de production de froid qui assure la déshumidification de l’air et celui qui est chargé du contrôle de la température des locaux ne sont pas forcément les mêmes. Les systèmes d’air conditionné des années 70 et 80, dans lesquelles des grands débits d’air froid assuraient le contrôle simultané de la température et de l’humidité n’ont plus autant la cote aujourd’hui. Le contrôle thermique des locaux se fait de plus en plus par boucle d’eau et plafonds rayonnants ou poutres froides, tandis que le traitement de l’humidité reste assuré par la pulsion de l’air hygiénique. Si les distributions sont différentes, les modes de production pourraient l’être aussi.

 

Combinaison d’un top cooling alimenté par une machine frigorifique à compression et de plafond rayonnants alimentés par un geocooling.

  • Le besoin de contrôle de l’humidité en été n’est sans doute pas aussi impérieux que celui de contrôle de température. Si l’approche de la conception du bâtiment et des systèmes est de limiter la consommation d’énergie en été par un contrôle des charges thermiques et un système de refroidissement à « haute température », peut-être n’est-il pas nécessaire de déshumidifier? Des inconforts ponctuels peuvent parfois être acceptés par les occupants. En outre, des températures intérieures légèrement plus élevées modifient sensiblement l’humidité relative : par exemple, pour une même humidité absolue de 13 greau/kgair, tolérer un glissement de température de 24 vers 26°C fait passer l’humidité relative de 70% à un petit peu plus de 60%.

Et puis, il existe une alternative à la déshumidification par batterie d’eau glacée : la roue dessicante, qui permet de refroidir et déshumidifier l’air pulsé au moyen… d’une source de chaleur. C’est donc une piste intéressante lorsque le bâtiment n’est pas équipé d’une machine de refroidissement traditionnelle.

 

Eléments d’une roue dessicante.

Enfin, pour la postchauffe, la question n’est pas différente de celle du choix d’une batterie de préchauffage de l’air neuf.


La consommation énergétique de la déshumidification

Le calcul de la consommation d’énergie pour la déshumidification est fonction de la chaleur de vaporisation de l’eau (0,694 Wh/gramme) et de la somme des écarts entre l’humidité extérieure et l’humidité de l’ambiance.

Puisque la déshumidification va systématiquement de pair avec le refroidissement, il est utile de s’intéresser au coût du mètre cube d’air traité en été. Celui-ci est de l’ordre de 55 kJ/md’air, en ce compris la postchauffe, pour un point de soufflage à 16°C et 70%HR. S’il n’avait pas été nécessaire d’abaisser la température sensiblement plus bas que le point de soufflage à des fins de déshumidification, pour de réaliser une post chauffe, le coût énergétique n’aurait été que de 35 kJ/m³. On le voit, le traitement de l’humidité augmente considérablement le coût du traitement de l’air.

Pour réaliser vos propres bilans annuels, des outils de calcul des grammes-heure de déshumidification sont disponibles.

Enfin, une étude de cas détaillée de la consommation d’énergie liée à la déshumidification dans une salle d’opération montre le potentiel de réduction de cette consommation par le choix des consignes : une consigne flottante offre près de 80% d’économie par rapport à une consigne fixe. 

Prix de l’énergie

Détail du prix de l'électricité


Les catégories de consommateurs

Les tarifs sur l’électricité se découpent en différentes catégories en fonction de la consommation annuelle du client. Pour harmoniser le recueil des données entre les pays de l’Union Européenne, Eurostat a définit des clients types d’électricité en deux grandes classes, avec plusieurs sous-catégories : domestique (D) et industriel (I).

Classification électricité Eurostat  Minimum

 

Maximum

 

Consommation type (dont de nuit)

 

Habitation standard

 

Domestique

[kWh/an]

DA < 1 000 600 (-) 50 m² 2 chambres et cuisine
DB 1 000 < 2 500 1 200 (-) 70 m² 3 chambres et cuisine
DC 2 500 < 5 000 3 500 (1 300) 90 m² 4 chambres et cuisine
DD 5 000 < 15 000 7 500 (2 500) 100 m² 4-5 chambres et cuisine
DE 15 000
Industriel

[MWh/an]

IA < 20
IB 20 < 500
IC 500 < 2 000
ID 2 000 < 20 000
IE 20 000 < 70 000
IF 70 000 <150 000
IG 150 000

En Wallonie, des clients types sont également définis suivant le type de raccordement électrique.

Catégorie de client suivant le type de raccordement

 

Catégorie Connection

 

TRANS MT direct à la cabine de transformation haute vers moyenne tension
MT 1 à 26 kV
TRANS BT direct à la cabine de transformation moyenne vers basse tension
BT sans mesure de pointe enregistrement de la consommation en kWh
BT avec mesure de pointe enregistrement de la puissance prélevée en kVA et de la consommation en kWh

Pour finir, en plus du type de client, le tarif appliqué différera suivant le type d’alimentation (≥ 100 kVA ou < 100 kVA), une consommation résidentielle ou professionnelle, propre ou pour des tiers et suivant le type de compteur installé : relevé quart-horaire (AMR), mensuel (MMR) ou annuel (YMR).

Les composantes du coût de l’électricité

Le prix de l’électricité final en c€/kWh est une addition de plusieurs tarifs que l’on peut classer en trois grandes parties : le prix de l’énergie fournie, les coûts du réseau et les taxes imposées.

Schéma explicatif facture.

Prix de l’énergie

Le prix de l’électricité est déterminé par le fournisseur. La production d’électricité est libéralisée, au contraire du transport et de la distribution qui sont régulés par la CREG et la CWaPE. On retrouve sur le marché plus d’une dizaine de fournisseurs proposant chacun leurs différents tarifs et packages. Eurostat relève les prix moyens en Europe par semestre. Energie Commune réalise également un tel suivi pour la Belgique.

Coûts de transport et de distribution

Les tarifs de transport et de distribution restent réglementés et ne sont donc pas négociables. Ces tarifs diffèrent d’un lieu à l’autre notamment parce qu’il est moins coûteux de délivrer du courant dans une grande ville … qu’au fond des Ardennes ! Mais ils sont identiques pour un point de fourniture donné, quel que soit le fournisseur.  Les tarifs applicables au transport et à la distribution de l’électricité et du gaz sont approuvés par la CREG (Commission de Régulation de l’Électricité et du Gaz), le régulateur fédéral

Voir également le site de la Cwape.

Taxes imposées

Ce sont les taxes imposées par les autorités fédérales et wallonnes.

Voir également le site de la CREG.

Comprendre les termes de la facture basse tension

Relevé des compteurs

Un relevé est organisé annuellement (parfois bisannuellement). Pour chaque compteur (jour et nuit), la consommation en kWh sera établie sur base de la différence des index. Mais cette différence est parfois un sous – multiple de la consommation réelle.

Par exemple, dans la facture ci-dessous, le relevé est multiplié par 20 pour obtenir la consommation réelle.

Comprendre les termes de la facture basse tension

Consommations de jour et de nuit

Un compteur bihoraire distingue les consommations de jour de celles de nuit et leur applique un prix différent.

La période de nuit dure 9 h 00, généralement de 22 h 00 à 7 h 00, mais cet horaire est laissé au choix du distributeur. Il est donc utile de se renseigner auprès de celui-ci afin de connaître les horaires de sa région.

Pour les équipements programmés par horloge, on débutera l’enclenchement des appareils à minuit.  Cela permettra d’avoir une plage de sécurité par rapport à l’horaire de chacun des distributeurs et par rapport au passage de l’heure d’hiver à l’heure d’été.

Redevance

La redevance appliquée par le distributeur part de la logique d’une rétribution pour la mise à disposition de puissance électrique (en kVA). L’ampleur de cette puissance disponible est déterminée sur base du calibre de la protection installée chez le client, fixée de commun accord entre le client et le distributeur. Autrement dit, si l’ampérage garanti est trop élevé, chaque mois la facture sera inutilement majorée. Mais si l’ampérage est trop petit le disjoncteur sautera !

Cette redevance est simple dans son principe mais son montant est difficile à retrouver à l’euro cent près. En effet, la formule comprend un paramètre NE* dont la valeur varie de mois en mois. La valeur annuelle intègre les 12 valeurs mensuelles. De plus, la formule de calcul évolue parfois sur un an.

Cotisation

Cotisation sur la consommation d’énergie destinée au fond pour l’équilibre de la Sécurité Sociale.

Surcharge fond social

Surcharge par kWh pour aider les plus démunis.

Redevance pour occupation du domaine public

Redevance reversée aux communes pour occupation de leur domaine par le réseau électrique.

Redevance de raccordement au réseau

Cette redevance est destinée à alimenter le “Fond Énergie” de la Région Wallonne de manière à couvrir les primes URE, le financement d’actions de sensibilisation à la maîtrise de la demande énergétique,le financement de la CWaPE (Commission Wallonne Pour l’Énergie), …

Redevance CREG 2002

Recouvrement des frais de fonctionnement de la Commission de Régulation de l’Électricité et du GAZ (CREG) au niveau fédéral.

Cotisation fédérale

Financement de la Commission de Régulation de l’Électricité et du GAZ (CREG), de la dénucléarisation de certaines tranches du site de Mol-Dessel et de la politique fédérale de réduction des émissions de gaz à effet de serre.

Facture intermédiaire

Si le relevé est annuel, le montant total est néanmoins étalé en 12, 6, ou 4 factures : 11, 5, ou 3 factures intermédiaires provisionnelles établies sur base de la consommation de l’année précédente et de l’évolution des prix, et une facture finale qui ajuste le tir en fonction de la consommation effective.

Comprendre les termes de la facture haute tension

HT

Livraison en Haute Tension (vous disposez de votre propre cabine de transformation) ou en “assimilé Haute Tension” (un câble raccorde directement l’installation à la cabine du distributeur).

Détails facture : Livraison haute tension.

Adresse du lieu de fourniture

Adresse de consommation.

Détails facture : Adresse lieu de fourniture.

Adresse  à expédition

Adresse du lieu d’envoi de la facture.

Puissance maximum

Il s’agit de la puissance maximale relevée par le compteur durant le mois facturé, exprimée en kW (kiloWatts). Cette puissance n’est pas la pointe instantanée (celle entraînée par le démarrage d’un ascenseur, par exemple) mais bien la pointe maximum enregistrée durant un quart d’heure du mois. En quelque sorte, c’est le maximum de l’énergie demandée durant 1/4 d’heure du mois, divisée par le temps d’un 1/4 d’heure.
C’est la pointe ¼ horaire.

Détails facture : Puissance heures pleines.

Heures pleines – HP

15 heures en journée, du lundi au vendredi (sauf jours fériés légaux), de 7 à 22 h généralement (horaire variable suivant les Gestionnaires de Réseau de Distribution).

  • soit, 43 % du temps,
  • soit, 3 765 h/an.
  • Détails facture : Consom heures pleines.

Heures creuses – HC

Nuits (de 22 h à 7 h) + WE et jours fériés légaux (du vendredi 22 h au lundi 7 h) généralement (horaire variable suivant les Gestionnaires de Réseau de Distribution),

  • soit, 57 % du temps,
  • soit 4 995 h/an.

Détails facture : Consom heures creuses.

Inductif

C’est le relevé de la puissance réactive inductive(ou selfique) demandée par l’installation. Elle est essentiellement générée par les inductances de l’installation : bobinages des moteurs et ballasts des lampes fluorescentes. On distingue l’inductif HP, consommée en Heures Pleines et l’inductif HC, consommée en Heures Creuses.

Détails facture : Inductif.

Capacitif

C’est le relevé de la puissance réactive capacitive demandée par l’installation. Elle est essentiellement générée par les condensateurs. Généralement, ceux-ci sont placés afin de compenser le mauvais cos phi de l’installation. On parle de condensateurs de compensation.

Détails facture : Capacitif.

Redevance fixe

Contribution du consommateur à la mise à disposition de puissance électrique.

Contribution énergie renouvelable

Contribution du consommateur à la couverture, par les services publics, d’une partie de la fourniture d’électricité par des certificats “d’électricité verte”.

Distribution et transmission

Les tarifs applicables au transport et à la distribution de l’électricité sont approuvés par la CREG (Commission de Régulation de l’Électricité et du Gaz) et constituent le “timbre poste”

Contributions fédérales

Contribution à la surcharge sur l’électricité empruntant le réseau de transport (70 kV), au financement du démantèlement des réacteurs nucléaires expérimentaux BP1 et BP2, de la CREG (Commission de Régulation de l’Électricité et du Gaz), …

Contributions régionales

Contribution au financement de la CWaPE (Commission Wallonne pour l’Énergie) principalement.

Paramètres du mois de consommation

  • NE = paramètre d’indexation qui traduit l’évolution du coût salarial de référence du secteur Agoria et du coût de certains matériaux.
  • NC = paramètre d’indexation représentatif de l’évolution du coût moyen des combustibles (fossiles et nucléaires).

Ils sont publiés tous les mois au Moniteur belge, ainsi que dans les communiqués de la Fédération des Entreprises de Belgique (F.E.B.).

Détails facture : Paramètres.

Constante appliquée à la différence des relevés

La constante est le facteur de multiplication qui est appliqué à la différence entre les relevés des compteurs.

Son origine provient du fait que le compteur ne mesure pas le courant total utilisé, mais un pourcentage de celui-ci via un transformateur d’intensité (T.I.) La valeur mesurée doit donc être ultérieurement “amplifiée” via un coefficient, appelé constante.

D’une manière générale, la constante tient compte du rapport des transformateurs de courant et de tension et de la constante propre du compteur.

Remarques.

  • Il est utile de vérifier la valeur de la constante indiquée sur la facture … à la réalité. Un électricien pourra vérifier le “facteur d’amplification” donné par le transformateur d’intensité. Bien que rare, une erreur de lecture ou de transcription a pu se produire … avec un impact multiplicateur sur la facture !
  • Il arrive que le produit de la constante par la différence des relevés ne donne pas exactement le nombre indiqué. Cela provient du fait que le relevé est effectué du côté basse tension du transformateur. Le compteur ne mesure donc pas les pertes de celui-ci. Le distributeur a alors le choix entre majorer le montant de la facture, ou, comme c’est le cas généralement, majorer les valeurs de consommation utilisées pour calculer ce montant. Dans ce cas, les pertes sont estimées en fonction des caractéristiques du transformateur et de sa durée de fonctionnement mensuel : 
    • Les pertes “cuivre” du transformateur sont additionnées à la consommation active (en kWh).
    • Les pertes “fer” du transformateur sont additionnées à la consommation réactive (en kVARh).
    • Si nécessaire, ces consommations seront réparties pour 43 % en Heures Pleines et 57 % en Heures Creuses.

Prix maximum ou prix plafond

Si le diagramme de charge est très “pointu” (la cuisine collective qui “tire” à midi, par exemple), le coût de la pointe de puissance sera très important dans le coût final du kWh !

Le Gestionnaire du Réseau de Distribution et parfois le fournisseur a dès lors prévu une valeur “plafond” qui limite le prix moyen du kWh en Heures Pleines.

En pratique, il calcule le prix moyen du kWh HP :

(coût de la puissance max + coût des kWh HP) / (nbre de kWh HP)

Si cette valeur est supérieure au prix “plafond”, la différence est restituée sous le terme : “EN VOTRE FAVEUR”

Remarque : on notera que c’est l’ensemble du coût de la pointe qui est reporté sur les kWh en Heures Pleines.

Attention aux fournisseurs qui n’appliquent pas cette clause dans leur contrat !!! Les écoles avec réfectoire peuvent souvent bénéficier de cette mesure : peu de consommation en journée et une pointe élevée pour les frites de midi !

En cliquant ici, vous pouvez étudier si vous présentez une pointe de puissance trop élevée.

Majoration pour consommation réactive

Il s’agit d’une pénalité appliquée parce que votre consommation d’énergie réactive est trop importante. C’est un terme qui est lié à la consommation des moteurs électriques et des tubes fluorescents (seulement si avec anciens ballasts électromagnétiques). Ceci est confirmé par le cos phi (case inférieure gauche) < à 0,9 et par la tangente phi > 0,484. Ce supplément est pénalisé par le Gestionnaire du Réseau de Distribution à 15 €/MVARh.

Exemple. Supposons une consommation d’énergie active de 100 000 kWh par an. Si la consommation d’énergie réactive est inférieure à 48,4 %, soit 48 400 kVARh, on ne comptabilise aucune consommation réactive. Si la consommation en énergie réactive est supérieure à 48 %, par exemple 80 000 kVARh, la surconsommation, c’est-à-dire 31 600 kVARh, est comptabilisée à 31,6 x 15 =  474 €.

Le placement de condensateurs de compensation pour réduire la consommation d’énergie réactive est une opération très rentable grâce à la suppression de la pénalité : l’investissement est rentabilisé en 6 mois généralement, maximum 1 an.

Remarque : si un “prix moyen” est indiqué sur la facture, il intègre la pénalité pour consommation réactive. 

Pertes du transformateur

La consommation d’électricité fournie en Haute Tension (HT) peut être mesurée de deux façons :

  • Soit aux bornes “haute tension” du transformateur (comptage HT au primaire). Dans ce cas, aucune majoration n’est appliquée aux consommations car les pertes de transformation se produisent en aval du système de comptage.
  • Soit aux bornes “basse tension” du transformateur (comptage BT au secondaire). Des majorations sont alors appliquées pour tenir compte des pertes fer et des pertes cuivre du transformateur.

Remarque : jusqu’au 01/09/99, des installations ont été raccordées directement à la cabine du distributeur (câble spécial basse tension avec pertes réduites, paiement d’une quote-part dans la cabine du distributeur). Dans ce cas, les majorations destinées à couvrir les pertes de transformation sont également d’application.

La prise en compte de ces pertes dans la facture peut se faire suivant deux méthodes.

  1. Les pertes sont estimées sur base de la puissance mise à disposition.
    Les “pertes fer” résultent des caractéristiques du transformateur, communiquées par le constructeur, et de la durée mensuelle de fonctionnement de l’appareil qui est soit mesurée par un compteur horaire, soit convenue. Lorsque les valeurs des pertes fer ne sont pas disponibles, les valeurs de la norme en fonction de laquelle le transformateur a été construit serviront de base à l’estimation des pertes fer.Les pertes cuivresont, à défaut d’indication de compteurs I2h, calculées de façon forfaitaire, sur la base d’un taux de 0,5 %.
    L’impact de ces pertes est intégré dans le calcul du nombre de kWh et de kVARh consommés (c’est ce qui fait qu’en multipliant la différence d’index par la constante, on ne trouve pas exactement les montants indiqués !)
  2. La facture mensuelle est majorée d’un pourcentage qui varie en fonction de l’utilisation mensuelle globale U (h/mois) de la puissance maximum

1 < U < 60 h/mois ==> (40,0 – 0,500 U) %
61 < U < 200 h/mois ==> (13,2 – 0,053 U) %
201 < U < 400 h/mois ==> (4,2 – 0,008 U) %
U > 400 h/mois ==> 1%

Cos phi – Tg phi

Ce sont des indicateurs de l’importance de la consommation d’énergie réactive.

Cos phi > 0.9 ? Tangente phi < 0,484 ? —- OK !

Cos phi < 0.9 ? Tangente phi > 0,484 ? —- Une majoration pour consommation réactive vous est appliquée.

Il est alors possible de réduire la consommation d’énergie réactive et de réaliser des économies tarifaires !

Coefficient d’utilisation

Ce coefficient d’utilisation est donné par le rapport entre les kWh consommés et les kW maximum appelés. Ce coefficient s’exprime donc en heures. Il est utile pour rapidement visualiser la “bonne utilisation” de la puissance mise à disposition : plus ce nombre est élevé et plus l’utilisateur présente un profil “lisse”, sans pointe momentanée. Pour plus de détails, on consultera “repérer une puissance quart-horaire anormale.

Organiser la ventilation

Organiser la ventilation

Organiser la ventilation

Une ventilation hygiénique de base est nécessaire pour assurer la bonne qualité de l’air des bâtiments et garantir la santé des occupants. Pour évacuer efficacement les polluants (CO2, fumée de tabac, humidité, …) présents dans l’air intérieur, il faut assurer un renouvellement de l’air du local suffisant. Ce renouvellement de l’air recommandé ne pourra se faire que :

Concevoir

Pour concevoir la ventilation.

Créer un déplacement de l’air

L’air intérieur peut se renouveler naturellement (infiltration, ventilation naturelle,…) ou mécaniquement (via un ventilateur). Dans les deux cas, la ventilation des locaux n’est possible que grâce à un moteur (naturel ou mécanique) de déplacement d’air :

Favoriser un moteur naturel

Les masses d’air se déplace naturellement dû à des différences de pressions ou de températures : l’air se déplace de la haute pression vers la basse pression, l’air chaud, plus léger, s’élève et l’air froid, plus lourd, descend. Ces déplacements naturels de masse d’air peuvent être utiliser au sein d’un bâtiment pour organiser le renouvellement de son air.

  • Soit un tirage par cheminée verticale. L’air extérieur entre par des ouvertures en façade, se réchauffe au contact de l’air intérieur, monte naturellement et est évacuer grâce à une cheminée ou un conduit vertical. À noter que ceci peut créer des contraintes de conception suite aux critères de protection incendie qui exigent eux de compartimenter les étages, ce qui implique soit que les transferts d’air entre étages soit obturables automatiquement (portes coupe-feu à fermeture automatique, si on utilise la cage d’escalier comme conduit d’extraction intensive, clapets coupe-feu), soit que chaque étage dispose de sa propre évacuation vers la toiture.. En rénovation également, cette solution demande des aménagements importants de la structure du bâtiment (perçage de chaque plancher, …).

En façade Sud, l’effet de tirage thermique des cheminées est renforcé
par des blocs de verre chauffés au soleil.

  • Soit un tirage par ventilation transversale, d’une façade à l’autre. Suite à la différence de pression (due au vent ou à l’ensoleillement) entre deux façades du bâtiment, l’air extérieur entre dans le bâtiment par une en surpression, se réchauffe au contact de l’air intérieur et est aspirer à l’extérieur sur une façade en dépression. Toutefois, l’ouverture des portes intérieures peut créer des problèmes acoustiques et des courants d’air inconfortables. Des ouvertures par grilles ou impostes au-dessus des portes sont aussi possibles.

L’air se déplace principalement grâce aux pressions
et dépressions exercées sur les façades par le vent.

Ici, à côté de chaque fenêtre du couloir, un panneau de bois peut être ouvert pour créer une circulation d’air transversale (vues intérieures et extérieures du bâtiment).

  • Soit un une combinaison des deux : dans chaque local, des fenêtres (une en partie haute et une en partie basse) munies de grilles peuvent s’ouvrir, en fonction de l’écart entre la température intérieure et extérieure. Un refroidissement naturel de chaque local est possible, sans extraction par une cheminée commune. Mais les débits de refroidissement restent limités.

L’air chaud migrant vers l’extérieur en partie haute des ouvertures
et l’air frais pénétrant en partie basse (débits d’air limités par cette méthode).

 

Ouverture des fenêtres en partie inférieure et supérieure, pour favoriser une circulation d’air dans le local (les colorations jaunes et oranges ne sont dues qu’au reflet des stores du bâtiment en face…).

Concevoir

Pour choisir les amenées d’air naturelles.

Concevoir

Pour choisir l’emplacement des rejets d’air extérieurs.

Mettre en place un moteur mécanique

Le renouvellement de l’air intérieur peut aussi être « forcé ». Quand les moteurs naturels sont trop faible pour assurer les débits voulus, il devient nécessaire de placer un ou des ventilateur(s) : on parle alors de déplacement motorisé de l’air. Mettre l’air en déplacement via un ventilateur permet de gérer le temps, la durée et l’intensité de la ventilation et des débits d’air voulus.

Ventilateur centrifuge

Concevoir

Pour choisir un ventilateur.

Favoriser le déplacement de l’air

Une fois que l’air est mis en mouvement, il faut lui permettre de circuler au sein du bâtiment afin de balayer les différents locaux et d’assurer dans chacun d’entre eux le juste renouvellement de l’air. À noter que les principes de transferts d’air d’un local à un autre vont se différencier suivant le type de programme (bureaux, hôpitaux, salles de sports, …).

De manière générale, il convient de transférer l’air des locaux secs vers les locaux humides ou encore des locaux les moins pollués au locaux les plus pollués. Pour ce faire des ouvertures de transferts (portes ouvertes, fentes sous les portes, grilles murales ou dans les portes, impostes, conduits …) doivent être prévues et disponible d’un local à un autre.

           

Transfert d’air au travers d’une porte ou par détalonnage.

Concevoir

Pour choisir les ouvertures de transferts.

Réguler ce déplacement d’air

Finalement, si l’air est mis en mouvement et son déplacement s’effectue correctement, il devient très utile de pouvoir agir sur les débits afin d’assurer les renouvellements d’air recommandés par les normes.

En pratique, il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.

Gérer

Pour réguler les débits d’air dans le systèmes.

Concevoir

Pour choisir le mode de gestion des débits.

Gérer

Pour réguler les débits d’air dans le systèmes.

Ventilation hybride

© Architecture et climat 2023.

Une alternance entre soit la ventilation naturelle, soit la ventilation mécanique :

  1. Ventilation naturelle
  2. Ventilation mécanique (double flux ici)

Principe

On parle de ventilation hybride, ou de ventilation naturelle hybride, lorsque au sein d’un même bâtiment un système de ventilation naturelle et un système de ventilation mécanique sont disponibles et combinés. Il s’agit donc de favoriser et d’optimiser l’utilisation des forces motrices naturelles par une assistance mécanique à basse pression (ΔP ≤ 50 Pa).

Généralement un système de gestion intelligente sur base d’une horloge, d’une sonde (température extérieure, CO2, humidité, …) ou de capteurs permet le passage d’un mode à l’autre au moment voulu afin de procurer le renouvellement d’air nécessaire à une bonne qualité de l’air intérieur.

Plus précisément on distingue trois types de ventilation hybride :

  • La ventilation naturelle assistée : des ventilateurs basse pression se mettent en marche lorsque les forces motrices naturelles (vent et tirage thermique) ne sont plus suffisantes pour permettre la circulation de l’air et les débits requis.
  • La ventilation mécanique assistée : qui correspond en réalité à un système de ventilation mécanique comportant des ventilateurs basse pression.
  • Une alternance entre la ventilation naturelle et mécanique : ce qui suppose que les deux systèmes sont totalement dissociés et que lorsque l’un fonctionne l’autre est à l’arrêt et inversement (voir illustration ci-dessus).


Avantages

La ventilation hybride permet d’utiliser au maximum les forces motrices de la nature pour la circulation de l’air et donc de réduire au minimum les consommations électriques des ventilateurs et auxiliaires associés.

Elle couple à la fois les avantages de la ventilation naturelle et mécanique :

  • Les éléments de ventilation naturelle demandent généralement très peu d’entretien et ne comprennent pas de ventilateurs bruyants.
  • La ventilation hybride est simple, et peu coûteuse à l’exploitation.
  • Elle demande peu de place utile dans les locaux techniques.
  • Les débits d’air extraits sont en partie contrôlés.

Inconvénients

La ventilation hybride semble un bon compromis entre la ventilation naturelle très économe en énergie et la ventilation mécanique qui permet de s’assurer les débits d’air recommandés. Toutefois, la ventilation hybride reste liée aux phénomènes naturels de mouvement de l’air, la qualité de l’air risque de ne pas être garantie dans tous les locaux. Le renouvellement d’air peut être fortement perturbé par le vent, par l’ouverture de fenêtres, … Il est donc nécessaire de trouver le juste milieu entre débits recommandés et économies d’énergie d’où l’importance de sa régulation !

En outre, comme pour la ventilation simple flux (extraction mécanique) :

  • L’air neuf n’est pas filtré et les grilles d’amenée d’air peuvent laisser filtrer les bruits extérieurs, ce qui peut être délicat en site urbain ou fortement pollué.
  • Les grilles d’ouvertures peuvent engendrer un inconfort, par exemple en plein hiver, sauf si la grille d’ouverture est placée à une hauteur supérieure à 1,80 m par rapport au sol ou derrière un corps de chauffe.

  • Les ouvertures entre locaux, favorisent le passage de bruits pouvant être très gênants. Un traitement acoustique des grilles doit alors être prévu. Mais en pratique, la présence d’absorbeur acoustique dans une ouverture augmente son épaisseur et sous-entend généralement que la grille doit être placée dans l’épaisseur du mur (et non dans le vitrage ou dans la porte).
  • Enfin, les ouvertures dans les façades ne sont pas toujours du goût des architectes !

Régulation

Par définition, la ventilation hybride suppose au minimum d’une régulation intelligente pour le passage d’un mode à un autre.

Mais, il est également plus qu’utile d’adapter le fonctionnement du ventilateur basse pression en période de ventilation mécanique pour s’approcher au plus proche des débits recommandés et donc de réduire la consommation d’électricité.

Finalement en mode naturelle, il existe plusieurs possibilités de réguler la ventilation hybride : bouches réglables, grilles hygroréglables, grilles commandées électriquement par exemple en fonction d’un horaire.

Techniques de régulation

Techniques de régulation


Pourquoi réguler les débits de ventilation ?

Il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité. La régulation de la ventilation hygiénique a un réelle intérêt puisqu’elle permet de s’approcher au mieux des débits recommandés et necessaires en fonction de l’activité du local ou du bâtiment.

Elle permet :

  • de favoriser le confort des occupants grâce à une bonne qualité de l’air;
  • de s’assurer la salubrité du local et plus largement du bâtiment;
  • et de réaliser des économies d’énergie substantielles en limitant les débits et donc les consommations électriques.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.


Aucune régulation

Si aucune régulation n’est mise en place cela signifie que le système de ventilation hygiénique fonction constamment aux débits de conception maximum soit pour couvrir le débit minimum exigé par les normes. Cependant durant certaines période le local ou le bâtiment est en partie voir totalement inutilisé, c’est le cas de la nuit ou du weekend, les débits pourraient être adaptés ce qui permettrait des économies d’énergie importantes !

Cette stratégie de régulation n’est pas recommandées et doit être proscrite !


La régulation manuelle

Une gestion manuelle des débits de ventilation peut se faire de deux manières : soit en agissant directement sur le ventilateur et en variant sa vitesse soit en modifiant l’ouverture des amenées et évacuations d’air naturelles.

Pour les ouvertures naturelles

Les débits d’air sont régulés par la modification de l’ouverture des grilles soit par la modification de la section de passage d’air.

Les grilles d’amenées et d’évacuation d’air peuvent être réglées manuellement depuis une position complètement fermée jusqu’à une position complètement ouverte. Les positions intermédiaires doivent au minimum est au nombre de 3 mais peuvent aller jusqu’à un réglage en continu.

Pour les systèmes mécaniques

Dans ce cas-ci, un commutateur permet d’agir directement sur la vitesse du ventilateur, soit de moduler le débit à la base du système au sein du groupe de ventilation.
Trois positions minimales sont présentes:

  • fermé : position éteinte ou avec un débit minimale pour assurer une ventilation de base même en période d’inoccupation
  • vitesse moyenne : position intermédiaire pour une activité limitée.
  • vitesse maximale : position correspondante aux normes pour les périodes de grandes activités ou de forte pollution.

Les débits correspondant devront être correctement définis et le système correctement dimensionné pour garantir un fonctionnement correct.

La régulation manuelle est tributaire du comportement des occupants. Ce type de stratégie de régulation est interdit par les normes et législations dans les immeubles non-résidentiels !


La régulation par horloge

Cette stratégie de régulation permet d’automatiser le changement des positions du systèmes de ventilation et donc les débits en fonction d’un horaire, par exemple heure par heure. une horloge est placée sur le circuit électrique de la ventilation et est programmée afin d’adapter les débits de ventilation selon les temps d’activité supposés. Elle permet donc de faire la différence entre la nuit et de la journée, la semaine et du weekend et les différentes intensités d’activité en période d’utilisation du local.

Fonctionnement continu à grande vitesse.

Fonctionnement intermittent avec horloge.

Son principal désavantage est de fonctionner suivant un horaire d’activité supposé qui peut parfois être très éloigné de l’utilisation réelle du bâtiment.

Certains systèmes de régulation permettent de passer en manuelle pour pouvoir faire face à des cas de pollutions ou d’activité exceptionnel ou non prévu dans le schéma de base d’activité du bâtiment. Après un certain temps défini, le système se replace en régulation automatique.


La régulation par l’occupation

Une régulation par l’occupation permet d’activer le système de ventilation en tout ou rien suivant l’occupation ou non du local, mais sans différencier le nombre de personnes présentes !

Un détecteur de mouvement, de présence/absence ou un détecteur infrarouge peut être utilisé. L’enclenchement de la ventilation peut également être assujettit par l’interrupteur des luminaires.


La régulation par sonde ou capteur

La ventilation hygiénique doit permettre une bonne qualité de l’air des espaces intérieurs en évacuant les polluants présents dans l’air et en alimentant le local en air frais. C’est pourquoi il est utile de réguler les débits en fonction d’un ou plusieurs polluants. Le choix de la sonde ou du capteur se fait donc en fonction de l’utilisation du local :

  • Les détecteurs infrarouges permettent de réguler les débits en fonction de l’occupation du local.
  • Les sondes CO2 permettent de rendre compte de l’activité humaine.
  • Les sondes COV rendent compte de la pollution de l’air.
  • Les capteurs d’humidité sont particulièrement adapter dans les espaces humides où une trop grande quantité d’humidité doit être évacuée.
  • La sonde de température peut également être utilisée et régule les débits en fonction de la température intérieur du local ou de la température de l’air extrait, cela peut être le cas dans les cuisines collectives par exemple.
  • De nombreux capteurs sont possibles et permettent de réguler les débits de ventilation.
  • Une combinaison de plusieurs types de sondes ou un multi-capteur (CO2, température et humidité, principalement) au sein d’un bâtiment ou d’un même local permet de caractériser au mieux l’activité et la pollution et donc d’assurer un renouvellement suffisant de l’air pour garantir le confort.

Ce type de régulation permet d’adapter directement les débits en fonction de l’activité du local, on parle de ventilation à la demande. Cette stratégie de gestion permet de faire coïncider au mieux les débits réels aux débits prescrits et donc de ventiler efficacement énergétiquement.

Réduction des débits de ventilation à l’aide d’une régulation à la demande.

Détecteur de mouvement et de présence/absence [Ventilation]

Détecteur de mouvement et de présence/absence [Ventilation]


Utilisation

Les détecteurs de présence, associés ou pas à des boutons poussoirs, permettent d’aider les gestionnaires de bâtiments dans leur « quête » à l’économie d’énergie. Ces dernières années, leur domaine d’applications s’est considérablement étendu. En effet, outre la commande de la ventilation, ils sont actuellement utilisés pour la commande d’automatismes tels que :

  • la gestion de l’éclairage intérieur et extérieur ;
  • la régulation des installations de chauffage et de climatisation ;
  • le déclenchement de l’alarme, puisque ce même principe est utilisé pour la détection d’intrusion ;
  • jusqu’au déclenchement de la chasse des toilettes, … pour utiliser l’eau de ville à bon escient, bien sûr,… et non pour enregistrer la fréquence et la durée des utilisateurs !

À noter, toutefois, qu’un détecteur a sa consommation propre. S’il est de bonne qualité, cette consommation est réduite (< 1W).

Ce type de détecteur est peu pratique pour la gestion de la ventilation hygiénique puisqu’elle ne permet de régler que en tout ou rien ou suivant 2 positions prédéfinies, par exemple ventilation de base et ventilation maximale en occupation du local. Ils ne permettent pas d’adapter la régulation aux nombres de personnes présentes dans la pièce !


Principe de fonctionnement

Dans le jargon des professionnels, un détecteur de mouvements se différencie d’un détecteur de présence par sa grande sensibilité.

Différentes technologies existent sur le marché. La technologie à infrarouge (IR) est la plus répandue. Cependant, quelques applications de gestion, comme dans les sanitaires par exemple, font appel aux technologies ultrasoniques (US), combinées IR et US ou encore sonore.

En général, l’électronique des détecteurs permet de développer des logiques de gestion en détection de présence ou d’absence. En d’autres termes :

  • Pour une gestion de présence, le détecteur peut travailler seul. Dès qu’une personne entre dans la zone de détection, la ventilation est allumé sur une position/vitesse définie. Ce principe est applicable dans les locaux où les détections sont fréquentes, mais de courte durée.
  • Pour une gestion d’absence, le détecteur doit être combiné avec un système de commande volontaire (type bouton-poussoir). Une personne entrant dans un local peut choisir d’allumer ou pas la ventilation en fonction de son ressenti de la qualité de l’air : ce qui n’est pas du tout pratique ! Si elle choisit d’allumer, le détecteur ne coupera ou diminuera la ventilation qu’après un délai réglable d’absence de la personne. Ce principe permet, en général, de responsabiliser les occupant.
  • Ces détecteurs permettent en réalité  d’imaginer toute sorte de fonctionnement.

Technologies des détecteurs

Détecteur  à infrarouge (IR)

Schéma détecteur  à infrarouge.

Ils détectent le mouvement du corps humain par la mesure du rayonnement infrarouge (= chaleur) émis par le corps humain.

Ils sont dits « passifs » car ils n’émettent aucune radiation, contrairement aux détecteurs à infrarouge actif de type « barrière ». Ils mesurent le rayonnement infrarouge émis par les surfaces chaudes.

Ils fournissent une indication de changement d’occupation d’un lieu : absence ou présence. Ils ne permettent pas de connaître le taux d’occupation d’un local ou le nombre d’occupants.

Photo détecteur  à infrarouge.

Plus précisément, les détecteurs de mouvement à infrarouge comportent un certain nombre de facettes sensibles. Leur rayon d’action est ainsi découpé en une série de segments. C’est le passage d’un corps (et donc de chaleur) du rayon de vision d’une facette vers celui d’une autre facette qui permet de détecter le mouvement.

La sensibilité d’un détecteur dépend donc du nombre de segments sensibles. Par exemple, un détecteur dont le rayon de détection est découpé en peu de segments risque de ne pas détecter une personne se dirigeant vers lui.

Pour certains modèles perfectionnés, cette sensibilité est réglable. Le réglage sera différent selon le type de local : dans un bureau où les mouvements sont parfois minimes (travail sur ordinateur, par exemple) on le réglera sur une forte sensibilité, tandis que dans un local sujet à des courants d’air, on le réglera sur une sensibilité plus faible.

La limite d’utilisation des détecteurs IR réside dans son incapacité à effectuer une détection au travers d’une paroi par exemple. C’est le cas dans les sanitaires ou les bureaux paysagers aménagés avec des cloisons antibruit ou des armoires hautes.

Détecteurs ultrasoniques (US)

Schéma détecteurs ultrasoniques.

Les détecteurs US sont de type émetteur/récepteur et fonctionne sur le principe de l’effet Doppler. Toute onde ultrasonique (32 kHz à 45 kHz) émise par le détecteur qui rencontre un objet sur son parcours, « rebondit » en direction inverse avec une fréquence différente. Le détecteur est capable de mesurer l’écart de fréquence et de générer ainsi un signal de présence. Les détecteurs US ont une portée limitée mais peuvent détecter des mouvements mineurs et ce même autour de certains obstacles.

Détecteurs à double technologie

Schéma détecteurs à double technologie.

Les détecteurs de présence à infrarouges risquent de ne pas détecter les mouvements légers. Par contre des détecteurs à ultrasons peuvent être trop sensibles et risquent de déclencher l’allumage de l’éclairage lors du passage « d’une mouche ». Pour éviter cet inconvénient tout en gardant une sensibilité importante, certains détecteurs, appelés « détecteurs à double technologie » combinent ultrasons et infrarouge.
Cette combinaison permet d’augmenter la fiabilité des détecteurs et élimine les détections indésirables.

Détecteurs sonores

Comme son nom l’indique les détecteurs sonores réagissent au bruit. Cette technologie pourra être utilisée dans les sanitaires par exemple. Pratiquement, on n’utilisera qu’un seul détecteur de ce type dans les communs des sanitaires sans être obligé d’en placer un dans chaque WC. Le moindre bruit émis au travers des parois des WC permettrait de pouvoir prolonger la lecture de son journal en toute quiétude (« pour les amateurs de sieste au WC, dorénavant s’abstenir ! »).

Détecteurs « intelligents »

Ce type de détecteur à double technologie enregistre pendant plusieurs mois le mode d’occupation du local et adapte automatiquement sa sensibilité.


Caractéristiques générales des détecteurs infrarouges (IR)

Un détecteur placé sur une paroi verticale est caractérisé par :

  • un angle de détection horizontal,
  • une portée latérale,
  • une portée frontale.

Un détecteur placé au plafond est caractérisé par :

  • un rayon d’action de 360°,
  • un diamètre de détection maximal (ou couverture maximale (en m²)) pour une hauteur maximale.

Lorsqu’on diminue la hauteur d’installation, la zone de couverture diminue, mais la sensibilité augmente.
Par contre, au-delà de la hauteur maximale, la sensibilité n’est plus suffisante.

Attention : le détecteur ne traverse aucune cloison, pas même en verre !

Si plusieurs détecteurs sont placés dans un même lieu, il est intéressant de prendre un modèle de détecteur avec un mécanisme « maître » (ou « master ») et un ou plusieurs avec mécanisme « esclave » (ou « slave »). Un détecteur avec mécanisme « maître » est plus cher, mais les mécanismes « esclave » sont beaucoup moins chers, ce qui rend l’ensemble intéressant économiquement.

Y a-t-il des différences entre détecteurs pour la gestion de l’éclairage et détecteurs pour la gestion de la ventilation ?

Les sondes utilisées dans un but de gestion de l’éclairage ne possèdent pas de temporisation à l’enclenchement/déclenchement. Le détecteur possède une temporisation après le dernier mouvement. Pour certains modèles, cette temporisation est réglable  (de 5 secondes à 5 minutes par exemple). La temporisation peut aller jusqu’à 30′ pour les modèles perfectionnés.

De plus, elles intègrent souvent un détecteur de luminosité : en général, le détecteur comporte un interrupteur crépusculaire dont le seuil de luminosité peut être réglé (de 5 à 1 000 lux par exemple).

En éclairage, il existe deux types de mécanismes :

  • Un mécanisme avec triac qui ne permet de commander que des lampes à incandescence ou halogène 230 V.
  • Un mécanisme avec relais qui permet de commander également des lampes fluorescentes.

Si les sondes destinées à la régulation de la ventilation sont d’un principe identique, elles intègrent par contre des temporisations à l’enclenchement et au déclenchement nécessaires pour éviter des sollicitations trop fréquentes du système de ventilation.

Ces temporisations sont généralement réglables de quelques minutes à une dizaine de minutes.

À noter qu’il existe des bouches de soufflage qui intègrent une sonde de présence directement :

Photo bouches de soufflage avec détecteur.


Emplacement

L’espace couvert par un détecteur détermine l’emplacement des détecteurs.

Les détecteurs doivent être placés de manière à couvrir tout l’espace à détecter.

Le choix de l’emplacement du détecteur a une grande importance sur son bon fonctionnement. Il ne faut pas que le détecteur soit influencé par un mouvement en-dehors de la zone commandée (ouverture de porte, …).

Sonde d’humidité

Sonde d'humidité


Domaine d’application

Il s’agit d’une sonde permettant de mesurer l’humidité relative ou absolue et, donc, de réguler la ventilation en fonction de l’humidité de l’air.

Elle est particulièrement adaptée dans les locaux humides (sanitaires, cuisines, …) là où l’air est extrait.


Fonctionnement

Les sondes d’humidité utilisées en ventilation et climatisation sont des hygromètres permettant la mesure continue de l’humidité de l’air de la pièce, au contraire des psychomètres qui sont utilisés pour une mesure instantanée.

Il existe plusieurs technologies d’hygromètres électroniques :

à cellule hygroscopique pour la mesure de l’humidité absolue

Le plus connu est l’hygromètre à cellule hygroscopique au chlorure de lithium. Le chlorure de lithium est une solution saline (LiCl). Ses propriétés hygroscopiques lui font absorber constamment de la vapeur d’eau contenue dans l’air.

L’appareil comprend deux électrodes entourant une couche de fibre de verre imbibée de LiCl Le tout est monté sur un capteur de température.

Lorsque les électrodes sont sous tension, le courant circulant au travers du tissu imbibé de LiCl produit de la chaleur qui évapore une partie de l’eau. Par évaporation, la résistance électrique du tissu augmente (la conductivité du tissu diminue), la puissance calorifique diminue, donc aussi la température sur la sonde intérieure. Une température d’équilibre s’établit finalement sur la sonde.

Cette température est utilisée pour mesurer la pression partielle de vapeur d’eau de l’air et de là le niveau d’humidité absolue de l’air.

Cette technique réclame un entretien important, la solution de chlorure de lithium devant être régénérée régulièrement.

à variation de capacité pour la mesure de l’humidité relative

Les hygromètres électroniques à cellule capacitive sont basés sur la modification de la valeur d’un condensateur en fonction de l’humidité. Plus précisément, c’est le diélectrique du condensateur qui est sensible à l’humidité relative de l’air ambiant.

La variation de la capacité (et donc de son impédance) entraîne une variation d’un signal de tension.

L’appareil est fiable et ne demande un étalonnage que tous les 2 ans. La précision est de 3 %. Le temps de réponse est court (de l’ordre de la dizaine de secondes). Et la plage de mesure est large. Que demander de plus ?!

Si, ils ont un petit défaut : être sensible aux polluants chimiques ! On sera dès lors attentif à ne pas les nettoyer avec des solvants organiques (chlore,…).

Leur durée de vie est estimée à une dizaine d’années.


Plage de mesure et fiabilité

Les hygrostats utilisés en climatisation sont des régulateurs tout ou rien, utilisant des hygromètres électroniques à cellule hygroscopique (mesure de ) ou à cellule capacitive (mesure de l’humidité relative). Le différentiel enclenchement – déclenchement est de l’ordre de 3 à 5 % d’humidité relative.

De la précision de la mesure d’humidité dépend la qualité de la régulation et le montant de la facture énergétique, puisque l’influence du taux d’humidité sur la consommation de l’installation est non négligeable ! À ce titre, on privilégiera les sondes à mesure continue par rapport aux sondes à dépassement de seuil (basées sur l’allongement d’un fil synthétique), dont l’hystérésis peut être important (près de 15 %).


Emplacement

Il est préférable de choisir une sonde à placer en conduit aéraulique et de l’installer dans le conduit de reprise d’air. Ainsi, la mesure est plus représentative de l’humidité de l’air moyenne du local et la sonde est moins soumise aux perturbations locales et à l’empoussièrement.

Quelques recommandations pour une mesure de qualité en conduit :

  • Une distance minimale entre l’humidificateur et la sonde, d’une part pour s’assurer que toutes les gouttelettes sont bien évaporées (les gouttelettes ne sont pas prises en considération dans la mesure !), mais d’autre part parce que ces gouttelettes mènent à la destruction de la sonde, tout particulièrement celles au chlorure de lithium. On se renseignera auprès du constructeur.
  • Une distance minimale entre les batteries chaudes ou froides et la sonde : même si, faute de place, il n’est pas toujours facile de respecter la distance théorique, il y a lieu d’éloigner les sondes des batteries pour éviter l’effet de stratification (l’air humide a tendance à s’élever). Distance théorique minimale = 5 à 10 D, où D est . De plus, on placera les sondes à mi-hauteur du conduit aéraulique, et au centre de l’écoulement.
  • Une protection de l’élément sensible, soit par une grille si air propre, soit par un filtre en métal fritté si air avec poussières.
  • Une ouverture dans la gaine, à proximité de la sonde, pour pouvoir faire périodiquement une mesure de contrôle avec un appareil indépendant de l’indication de la sonde de régulation.
  • Une mesure dans la gaine de reprise située, si possible, en aval du ventilateur d’extraction si un risque de stratification de l’humidité est présent.
  • Un câble de raccordement électrique de la sonde suffisamment long pour permettre un entretien aisé.

Dans le cas où la sonde est placée dans le local, on sera attentif à

  • les éloigner des portes et fenêtres (pour éviter l’influence de l’air extérieur),
  • éviter les coins (mauvaise circulation de l’air).

Pour effectuer une mesure correcte, il faut que l’air soit en contact réel avec le capteur : il faut donc garantir un libre écoulement vers l’organe de mesure. Toutes les précautions de placement applicables aux sondes de température sont valables ici (température et humidité sont parfois dans le même boîtier). Elles ne devront pas être situées à proximité des climatiseurs, par exemple.


Output

Les sondes délivrent généralement un signal analogique standard : 0-10 V ou 4 – 20 mA. Elles sont alimentées par une tension continue de l’ordre de 24 V.


Maintenance

Principales mesures d’entretien

  • Dépoussiérage de l’élément sensible au pinceau doux, si l’air est chargé en poussières.
  • Remplacement des filtres en métal fritté.
  • Pas de nettoyage des sondes à capacité par un solvant organique, du type chloré par exemple.
  • Régénération des sondes à chlorure de lithium, par l’utilisateur.
  • Étalonnage des éléments sensibles tous les ans (ou tous les deux ans si la sensibilité à la variation de la consigne est faible). Un tel étalonnage peut être fait facilement grâce à l’existence de cartouches contenant des solutions salines. L’humidité relative au-dessus de la solution est pratiquement indépendante de la température.

Exemple.

Solution de chlorure de sodium (76 % HR), ou de carbonate de potassium (44 % HR).

Il est donc facile de recalibrer l’appareil (consulter le fournisseur pour connaître les solutions salines adéquates, certaines étant agressives pour les éléments sensibles)

Une autre possibilité d’étalonnage consiste à comparer la mesure à celle d’un autre appareil plus précis (de la l’intérêt de prévoir une petite ouverture dans la gaine, à proximité de la sonde).

Combiner la ventilation aux besoins hygrothermiques

Combiner la ventilation aux besoins hygrothermiques

Lorsqu’un système de ventilation avec pulsion et extraction mécanique est choisit, il est possible de compléter la centrale de traitement d’air d’élément de pré-traitement thermique. Dans certains cas, il peut être pertinent de l’utiliser pour assurer tout ou partie des besoins thermiques des locaux.

Différentes questions se posent donc :


Faut-il préchauffer l’air neuf en hiver ?

Il est évident que l’amenée d’air à basse température dans un local peut provoquer, dans certains cas, des situations inconfortables. Quelque soit la température de l’air, des recommandations existent pour limiter ce risque, telles que placer les grilles à plus de 1,8 m de haut et au-dessus des émetteurs de chaleur.

Dans les cas où le débit d’air neuf demandé est relativement bas, ces recommandations peuvent suffire à éviter les inconforts assez bas, même dans le cas d’une ventilation avec amenée d’air naturelle. Au contraire, dans les locaux à forte densité d’occupation (salle de réunion, de séminaire, …), l’importance des débits d’air neuf demandés risque de provoquer un certain inconfort thermique lorsque la température extérieure est basse.

Ainsi, dans tous les cas, pour éviter la sensation de courant d’air froid, l’idéal est de pouvoir amener l’air neuf à une température minimum (12 .. 16°C, température à régler en fonction des apports de chaleur gratuits) avant son arrivée dans le local. Dans le cas d’une pulsion mécanique, le préchauffage de l’air neuf a également pour but d’éviter de faire circuler de l’air trop froid dans les conduits, ce qui peut provoquer des condensations.

Différentes solutions existent pour réaliser le préchauffage de l’air. La solution évidente pour réaliser cet échauffement est le recours à un récupérateur de chaleur. Attention toutefois à choisir un mode de gestion du dégivrage du récupérateur qui permette de maintenir une température de pulsion suffisamment élevée à tout moment.  Un puits canadien peut également être envisagé pour préchauffer l’air neuf, mais la température atteinte ne sera pas aussi élevée qu’avec un récupérateur de chaleur. En dernier recours, le chauffage de l’air neuf pourra se faire avec une batterie de chauffage.

Concevoir

 Pour choisir le mode de préchauffage

Faut-il « neutraliser » l’air neuf ?

Lorsque le système de pulsion d’air neuf n’est pas intégré à la climatisation au travers d’une solution « tout air« , il est parfois conseillé de prétraiter l’air neuf. À défaut, il risque de créer de l’inconfort (courants d’air) menant parfois à l’obturation des bouches d’amenée d’air par les occupants.

Le développement des récupérateurs de chaleur limite ce risque, mais certaines pratique ont la vie dure. Qu’en est-il donc de cette pratique de « neutralisation de l’air neuf », qui consiste à s’assurer que l’air soit amené au local dans des conditions similaires à celles visées dans le local lui-même. Autrement dit, si vous souhaitez chauffer à 21°C, l’air sera amené à 21°C, à charge pour le radiateur de compenser les pertes par les parois.

Tout l’enjeu consiste à combiner le contrôle de la température des locaux et le contrôle de la température de l’air neuf hygiénique de manière à :

  • ne pas créer de courants d’air (on considère souvent qu’une température de 16°C minimum est nécessaire);
  • ne pas « casser l’énergie », c’est-à-dire ne pas chauffer l’air neuf et refroidir simultanément le local avec le ventilo-convecteur, ou inversement.

A priori, on pourrait penser que la température de pulsion de l’air neuf doit être « neutre » dans le bilan thermique du local et ne pas interférer avec la régulation des ventilos. On rencontre ainsi souvent une pulsion proche des 21°C toute l’année.

Effectivement, au niveau du bilan thermique du local le bilan est neutre, puisqu’il n’apporte ni chaud, ni froid.

En réalité, ce choix implique souvent qu’en mi-saison de l’énergie soit « cassée ». en effet, dans les immeubles de bureaux isolés, à partir d’une température extérieure de 12 à 14°C, il y a beaucoup de chances que le bâtiment soit en régime « refroidissement ». on va dès lors chauffer l’air neuf de 14 à 21°C, et simultanément évacuer l’énergie excédentaire du local avec le ventilo-convecteur. Cela représente une consommation énergétique importante comme le montre l’étude d’un bâtiment type. Il aurait mieux valu pulser directement cet air à 14°C dans le local.

Mais 14°C est une température de pulsion qui risque d’être trop faible et de créer de l’inconfort pour les occupants ?

Essayons dès lors de définir la régulation la plus adéquate :

On peut imaginer qu’en plein hiver, on pulse de l’air à 21°C et qu’à partir d’une température extérieure de 14°C, par exemple, la consigne de température de pulsion de l’air soit abaissée à 16°C.

Remarquons que dans la pratique, le basculement comprend un hystérésis de manière à stabiliser le fonctionnement des équipements au changement de saison. Par exemple, l’installation passe du chaud au froid à 14°, et du froid au chaud à 12°.

Toute la difficulté consiste pour le gestionnaire du bâtiment à définir le plus précisément possible la température extérieure de basculement entre le régime « été » et le régime « hiver ». En effet si celle-ci est trop élevée (par exemple, 18°C), une période de « casse d’énergie » subsiste puisque l’on chauffe l’air de ventilation pour le refroidir ensuite avec les ventilo-convecteurs.

Le problème est compliqué par le fait que tous les locaux ne sont pas soumis aux mêmes conditions d’équilibre.

Pour réduire ce risque, on peut dès lors imaginer de maintenir une température de pulsion minimum durant toute l’année. Choisissons une température de pulsion minimale de 16°C dans les locaux : si la température extérieure est inférieure à cette valeur, on préchauffe l’air et on le prérefroidit dans le cas contraire.

C’est une stratégie de régulation que l’on peut d’office utiliser dans les locaux que l’on refroidit toute l’année comme les zones intérieures d’un bâtiment (zones nullement influencées par les conditions atmosphériques).

Mais cette solution risque de créer de l’inconfort si les bouches de distribution ne sont pas prévues à haute induction.

Remarque : jusqu’à présent, on a toujours parlé en terme de température d’air neuf dans le local. Étant donné que l’air s’échauffe d’environ 1°C lors de son passage dans les conduits, on peut dire que fixer une consigne de température de 16°C sur l’air neuf équivaut à maintenir une température de 15°C à la sortie du groupe de traitement d’air.

Reste une difficulté : dans le local inoccupé dont l’occupant a arrêté le ventilo en quittant le local, c’est le débit d’air de ventilation qui va assurer la température de base durant son absence. Et au retour de l’occupant, le local sera fort froid… Cela ne paraît cependant pas remettre en question le principe d’une pulsion à 16°C car l’occupant a le loisir de remettre son local en température très rapidement dès son retour grâce à l’absence d’inertie du ventilo-convecteur (transfert rapide par l’air) et à la possibilité de positionner le ventilo en grande vitesse. Et si l’occupant n’apprécie pas la petite période d’inconfort qui en résulte, il y a beaucoup de chances qu’il ne soit pas du genre à arrêter son ventilo en quittant le local !

De plus, en période de relance, avant l’arrivée des occupants, la régulation centrale peut faire fonctionner le bâtiment en circuit fermé, sans apport d’air neuf.

Conclusions 

En l’absence de préchauffe de l’air par récupération de chaleur, il n’y a pas de solution idéale à ce problème. Il faut chercher une réponse pour un bâtiment donné, sur base de ses températures d’équilibre. Notez que le récupérateur de chaleur peut lui aussi provoquer une surconsommation d’énergie en mi-saison, s’il n’est pas équipé d’un bypass qui permet de ne pas réchauffer l’air lorsque le local est de demande de froid.

Il est clair que de prévoir des est une garantie de pouvoir pulser l’air à basse température sans créer de courants d’air, et donc de ne pas détruire de l’énergie.

L’impact énergétique est énorme. Dans un bâtiment-type de bureau,

nous avons simulé 2 situations :

  • Une pulsion d’air neuf à une température permanente de 21°C en hiver et de 16°C lorsque la température extérieure dépasse 16°C : référence 100
  • une pulsion à une température permanente de 16°C, été comme hiver :
    • – 37 % sur la consommation du traitement d’air,
    • + 19 % de consommation de chauffage des locaux,
    • – 13 % sur la consommation de froid des locaux,
    • et finalement – 10 % sur la consommation totale du bâtiment.

Qui ne serait pas tenté de diminuer de 10 % la consommation d’un bâtiment rien qu’en réglant la consigne de l’air neuf ?

Un compromis peut consister à pulser suivant une consigne qui suit une relation linéaire entre les deux points suivants : par – 10°C extérieurs, pulsion à 23°C et par + 30°C extérieurs, pulsion à 16°C.

Cette solution génère une économie de 2 % par rapport à la référence 100 du bâtiment-type.

En tous cas, ne pas adopter une pulsion constante de 21°C toute l’année ! nous ne l’avons pas chiffrée, mais la surconsommation en été doit être très importante.


La ventilation est-elle suffisante pour vaincre les surchauffes ?

Dans les anciens immeubles de bureaux, non isolés, la ventilation hygiénique permettait de résoudre en partie les problèmes de surchauffe, avec une période d’inconfort limitée à quelques jours.

L’isolation des bâtiments n’a pas augmenté la puissance nécessaire au refroidissement mais la période d’inconfort « estival » commence plus tôt dans la saison. Ceci est renforcé par :

  • l’augmentation des charges internes par l’équipement électrique des bureaux,
  • la tendance actuelle des architectes d’accroître sensiblement le pourcentage de vitrage de la façade, et donc les apports solaires peu désirables,
  • la diminution de l’inertie des parois (cloisons légères mobiles, tapis au sol, faux plafond avec absorbeur acoustique),
  • une attente accrue de confort et de productivité du personnel.

Dans certaines situations et pour autant que l’on accepte quelques journées d’inconfort, il est cependant possible d’éviter une installation de conditionnement d’air

  • En choisissant les équipements les moins énergivores.
  • En utilisant des protections solaires et des vitrages performants.
  • En exploitant au maximum le pouvoir refroidissant de l’air extérieur lorsque celui-ci à une température inférieure à la température intérieure. On parlera alors de free cooling, soit naturel, soit mécanique.

Il est important de réaliser que les débits d’air mis en jeu par la ventilation hygiénique (de l’ordre de 0.5 à 1 renouvellement horaire) et ceux impliqués par une stratégie de free cooling (à partir de 4 renouvellements horaires) ne sont pas du même ordre. On parle d’ailleurs souvent, pour le free cooling, de ventilation intensive.

Débits différents signifie a priori techniques et équipements différents. Ainsi, une ventilation intensive naturelle ne se basera pas sur des aérateurs et une cheminée telle qu’utilisée pour la ventilation hygiénique, mais bien sur l’ouverture de fenêtres en différents endroits du bâtiment. Une ventilation intensive mécanique par contre pourrait utiliser le même réseau de conduits que la ventilation hygiénique, pour autant que celui-ci soit dimensionné sur base de l’usage le plus contraignant (le débit intensif donc) et permette une régulation à la baisse lorsque cette capacité n’est pas pleinement nécessaire.

Concevoir

Pour examiner en détail l’intérêt du free cooling comme alternative à la climatisation

Concevoir

Pour en savoir plus sur les techniques de refroidissement par ventilation intensive

Études de cas

Un confort d’été correct est obtenu dans le bâtiment Probe du CSTC grâce à un free cooling nocturne. Pour plus de détails sur ce bâtiment

Faut-il humidifier ou déshumidifier l’air de ventilation ?

En hiver, sans humidification de l’air neuf, l’humidité intérieure flirte rapidement avec les limites de confort thermique.

Ceci n’est pas lié au type de ventilation (naturel ou mécanique). Pourquoi ? Parce que, en l’absence de traitement d’air, l’humidité absolue de l’air pulsé n’est pas modifiée par son passage dans un aérateur ou un réseau de ventilation. Dans les deux cas, cette humidité sera celle de l’air extérieur, qui est basse en hiver (maximum 4 gr d’eau par kilo d’air à 0°C, soit en-dessous des 6 gr qui correspondent à 40% d’humidité pour 20°C).  Le caractère asséchant de la ventilation est par contre lié au rapport entre le débit d’air neuf et le taux d’émission de vapeur dans l’ambiance, lié à l’occupation. En pratique, au plus le débit par personne sera élevé, au plus l’effet asséchant de l’air neuf sera important.

L’humidification de l’air neuf est un poste particulièrement énergivore. Il est dès lors peut-être utile de se demander si une humidification est toujours nécessaire, sachant qu’elle n’est pratiquement possible qu’en association avec un système de ventilation double flux.

Ce n’est d’ailleurs que si la pulsion de l’air est mécanique que le RGPT impose le respect d’une humidité ambiante minimum de 40%. Dans le cas d’une ventilation simple flux, le RGPT dit simplement qui si c’est possible technologiquement, un dispositif d’humidification permettant d’atteindre une humidité de 40% doit être mis en œuvre.

Évaluer

 Pour estimer la consommation liée à l’humidification de l’air neuf.
Prenons un exemple.

La température extérieure est de 0°C pour une humidité relative de 85 % (1) (conditions couramment rencontrées chez nous) :

  • Si cet air est introduit dans un bureau individuel chauffée à 20°C, à raison de 30 m³/h.pers, on peut lire sur le diagramme de l’air humide que son humidité relative chutera à 23 % (2), ce qui est trop sec pour garantir le confort thermique. Si on y rajoute l’humidité produite par un occupant, à savoir environ 50 gr d’eau par h, l’humidité relative montera jusqu’à 33 % (3), soit à la limite des conditions de confort.
  • Par contre, si la chambre est chauffée à 24°C, comme c’est souvent le cas dans les hôpitaux, on atteindra plutôt au final une humidité relative d’environ 25%, ce qui est insuffisant.

Une humidification de l’air apparaît donc nécessaire pour garantir le confort durant les périodes les plus critiques de l’année (en hiver). Étant donné que les périodes durant lesquelles il existe un risque de voir chuter l’humidité intérieure en dessous du seuil de confort sont généralement courtes, il est recommandé d’asservir le fonctionnement de l’humidificateur à la température extérieure. Sous notre climat, on peut par exemple souvent l’arrêter lorsque la température extérieure dépasse 5°C.

Notons qu’humidifier l’air implique aussi automatiquement de le préchauffer, sinon le point de saturation est atteint directement.

Concevoir

Pour choisir le mode d’humidification.

Et en été, qu’en est-il? En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilogramme d’air, ce qui, pour des températures de l’ordre de 25°C correspond à 70% d’humidité relative. Un tel niveau est acceptable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques. Mais…

  • Cela arrive malgré tout par temps orageux. Faut-il que, ces jours là, les systèmes de ventilation soient à même de ne pas répercuter cet inconfort à l’intérieur? C’est au maître d’ouvrage de se positionner. La question se pose de la même façon pour les vagues de chaleur et le risque d’une élévation de température. Quel est le prix du confort absolu ?
  • Si à l’humidité extérieure s’ajoute un dégagement d’humidité importante à l’intérieur, cela ne nous mène-t-il pas au-delà du confort? Oui, à moins de diluer cet apport intérieur d’humidité par un taux de ventilation très élevé, tel que le permet une ventilation intensive;
  • Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, ne faut-il pas garantir un contrôle de l’humidité? Oui, bien sûr, pour éviter les dégâts liés à ces condensations.

Les situations où une déshumidification est à prévoir sont donc plus nombreuses que ne le laisse supposer une simple analyse climatique. En pratique, la déshumidification ira souvent de pair avec le recours à un refroidissement actif.

Concevoir

Pour en savoir plus sur la deshumidification

Gérer

Pour en savoir plus sur la régulation de la deshumidification

Utiliser la ventilation comme émetteur thermique ?

Dans les anciens immeubles de bureaux non isolés, la puissance nécessaire au chauffage est telle que le débit de ventilation hygiénique est insuffisant si on veut assurer avec celui-ci un chauffage aéraulique. La séparation des fonctions « ventilation hygiénique » et « chauffage » s’impose d’autant plus que le bâtiment est peu isolé et que les apports internes de chaleur (machines, éclairage, …) sont faibles.

Dans ces vieux bâtiments, si on veut combiner ventilation et chauffage, un recyclage partiel de l’air doit être organisé pour augmenter les débits pulsés, ce qui surdimensionne les équipements de ventilation.

Par contre, dans les bâtiments de bureaux plus modernes, bien isolés, fortement équipés (ordinateur, imprimante personnelle), la puissance de chauffage nécessaire se réduit fortement, et avec elle, les débits d’air nécessaires pour un chauffage aéraulique. Dans ce cas, il peut être logique d’envisager la combinaison du chauffage et de la ventilation. Il n’y a plus alors d’autres sources de chauffage. C’est la logique qui prévaut souvent dans les bâtiments conçus selon le « standard passif ».

En généralisant, ce raisonnement, on pourrait envisager d’assurer également le refroidissement par la pulsion d’air neuf refroidit dans la centrale de traitement d’air.  On parlera alors de refroidissement « tout air« . Technologiquement, cela ne pose pas de problème. Mais il faut garder à l’esprit que les puissances qu’un local demande en refroidissement sont souvent plus importante qu’en chauffage. Pour un bureau, on sera souvent entre 50 et 100 W/m² de charge de refroidissement à compenser, une valeur peu influencée par l’amélioration actuelle des enveloppes. De telles puissances impliquent un surdimensionnement important du réseau de ventilation, comme le montre l’exemple ci-dessous. Une piste intéressante dans certains cas est celle du « top cooling« , où la capacité de refroidissement du réseau de ventilation hygiénique est utilisée sans surdimensionnement, en appoint d’un autre mode de refroidissement, ou comme « aide » pour franchir les périodes de canicule dans des locaux non climatisés.

Exemple.

La puissance thermique disponible sur une pulsion d’air ce calcule en multipliant le débit par la chaleur massique (0,34 [W/(m³/h)K]) et le delta de température entre l’air pulsé et l’ambiance. Considérons un local de bureau typique de 20m² occupé par deux personnes, pour lequel les règles de dimensionnement de la ventilation hygiénique recommandent 60 m³/h (RGPT). 

La température maximale de pulsion est souvent fixée à 35°C dans une ambiance à 20°C, et la température minimale à 16°C dans une ambiance à 25°C. Quelles sont les puissances disponible en fonction d’un facteur de surdimensionnement de la ventilation ?

Puissance disponible grâce à de la pulsion d’air neuf dans un local de bureau type
Débit Puissance de chauffage Puissance de refroidissement
hygiénique: 60 m³/h 15 [W/m²] 9 [W/m²]
hygiénique x 2 : 120 m³/h 31 [W/m²] 18 [W/m²]
hygiénique  x 5: 300 m³/h 77[W/m²] 46 [W/m²]

On voit que pour un bâtiment non isolé, il faut multiplier le débit d’air hygiénique par 5 si on veut atteinte l’ordre de grandeur des puissances de chauffage. Les 15W/m² disponibles « de base » devraient par contre être suffisant dans un bâtiment « passif ». Les puissances disponibles en refroidissement ne sont alors que tout juste capable de compenser la puissance des luminaires, ou celle des ordinateurs. En aucun cas les charges liées à l’ensoleillement… 

Notons au passage que lorsqu’on fait un chauffage par la ventilation,  il faut prévoir la possibilité de travailler en tout air recyclé pour optimaliser la relance matinale du système de chauffage aéraulique. L’apport d’air neuf n’étant enclenché qu’à l’arrivée des occupants.

Choisir un système de ventilation centralisé ou décentralisé

Choisir un système de ventilation centralisé ou décentralisé

Différents critères interviennent dans ce choix:


Les possibilités d’implantation

La facilité (ou difficulté) d’implantation d’un système de ventilation dépend d’abord de son type : les systèmes proposés se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturels ou simple flux par extraction mécanique sont les plus faciles à implanter. Ils ne demandent aucun gainage de pulsion, celui d’extraction étant quant à lui généralement beaucoup plus court et facile à implanter. Le système naturelle demande cependant que cette extraction soit faite par des conduits verticaux respectant certaines prescriptions quant à leur tracé et leur débouché en toiture. Ce système peut donc être plus difficile à mettre en œuvre que l’extraction mécanique. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage. Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.

Quel que soit le mode de ventilation, l’implantation peut être facilitée si le système de ventilation se décompose en différents systèmes indépendants desservant chacun une partie du bâtiment. Ce découpage peut se faire sur base:

  • d’une logique spatiale : différentes ailes du bâtiments pourraient avoir chacune leur propre système. Dans ce cas, la séparation des systèmes permet de limiter la longueur des conduites, l’encombrement dans le bâtiment et les pertes de charges.
  • d’une logique d’occupation : des espaces présentant des profils d’occupation très différents peuvent justifier un réseau de ventilation spécifique, par exemple des salles de réunion regroupées dans un bâtiment de bureau, ou un amphithéâtre dans une école. Dans ce cas, la séparation des systèmes permet de faciliter la gestion des débits d’air : apporter exactement la bonne quantité d’air au bon endroit, au bon moment.

À l’extrême, chaque local pourrait disposer de son propre système de ventilation. Certains dispositifs de ventilation permettent d’ailleurs une pulsion et extraction mécanique avec récupération de chaleur par local.

Décentraliser peut donc dans certains cas limiter l’encombrement du réseau au sein du bâtiment. Par contre, cela implique de multiplier les groupes de ventilation qui prennent eux-aussi une place conséquente.


L’isolation acoustique entre locaux

Certaines activités de bureaux demandent une certaine confidencialité (bureau d’avocats, cabinet de médecin, …) qu’il peut être difficile d’atteindre du fait des ouvertures permanentes pratiquées pour le transfert de l’air. La question de l’isolation acoustique se pose aussi de façon pressante dans les bâtiments scolaires.

La conception d’un système de ventilation décentralisé pour ces locaux élimine le transfert d’air et la faiblesse acoustique liée au passage de l’air dans le bâtiment. Cette solution peut cependant générer une autre nuisance acoustique du fait de la présence des ventilateurs dans (ou à proximité) de ces locaux.

L’autre piste, est l’utilisation d’un réseau de ventilation centralisé, mais équipé de grilles de transfert acoustiques. Celles-ci, plus larges, se placent plus aisément dans les murs que dans les portes. Elles génèrent malheureusement plus de pertes de charge qu’une grille traditionnelle, avec un impact sur le consommation électrique des ventilateurs.

Ouverturetransfert2.gif (1351 octets)Ouverturetransfert3.gif (1519 octets)

Ouvertures de transfert acoustiques.


La protection incendie

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Cela signifie que les ouvertures de transfert prévues entre les bureaux où l’air neuf est amené et les couloirs par lesquels l’air transite vers les sanitaires doivent avoir la même résistance au feu. Cela est possible grâce à des grilles de transfert coupe-feu. Pour ce qui est du détalonnage des portes, cela peut prêter à discussion.

Plus globalement, la traversée d’une paroi, quelle qu’elle soit, par un conduit d’air ne peut pas amoindrir la résistance au feu de cette paroi : « La traversée par des conduites de fluides ou d’électricité et les joints de dilatation d’un élément de construction ne peuvent altérer le degré de résistance au feu exigé pour cet élément.  » (AR du 7 juillet 1994).

Des résistances au feu minimales sont imposées aux séparations entre compartiments incendie. Un compartiment à une superficie de maximum 2 500 m² et est limité à un étage. Les parois séparant les compartiments doivent être « Rf  min 1 h » (en fonction de la hauteur du bâtiment). Ceci implique notamment que tout transfert d’air entre deux étages est soit interdit (pas de pulsion à un étage et d’extraction à un autre), soit obturable automatiquement (porte coupe-feu automatique, clapet coupe-feu).

Cette règle s’applique donc également aux parois des trémies dans lesquelles se trouvent les conduits de ventilation des réseaux mécaniques. Ces parois doivent présenter une RF de 1h à 2h selon la hauteur du bâtiment (cas des trémies continues sur la hauteur du bâtiment).

On comprends facilement qu’une réflexion sur une décentralisation des systèmes de ventilation qui soit cohérente avec le découpage du bâtiment en compartiments incendie peut limiter le recours à ce type d’équipements et dans certains cas permettre une économie d’investissement.

Enfin, notons que pour les bâtiments d’une hauteur comprise entre 25 et 50 m, il est imposé de maintenir les cages d’escalier en surpression en cas d’incendie. À cela vient s’ajouter le désenfumage obligatoire des couloirs par pulsion et extraction pour les bâtiments de plus de 50 m de haut. Ces deux exigences se réalisent par un système de ventilation tout à fait indépendant de la ventilation hygiénique et qui met en œuvre des débits nettement plus importants, de l’ordre de 10 renouvellements d’air par heure.


L’impact énergétique

Dans le cas où un bâtiment inclut des espaces dont les besoins d’air sont variables (des locaux de même nature mais gérés différemment, ou des locaux abritant des fonctions différentes), subdiviser un système de ventilation peut favoriser les économies d’énergie électrique au niveau des ventilateurs. Pourquoi ?

La puissance électrique absorbée par un ventilateur dépend du débit d’air à mettre en mouvement et de la perte de pression à compenser. Considérons un réseau de ventilation alimentant un alignement de classes. Imaginons que les classes à l’extrémité du réseau soient utilisées en soirée pour des activités extra-scolaires, tandis que celles situées au milieu ou au début du réseau n’ont plus besoin d’air après les heures de cours.

En soirée, une gestion intelligente du débit fermera un clapet ou registre de réglage à l’entrée des premières classes. En conséquence, la pression va monter dans le réseau et le ventilateur, s’il détecte cette montée en pression, pourra moduler sa vitesse. Néanmoins, il devra toujours compenser les pertes de charge générées par la totalisé du réseau pour alimenter la classe utilisée en soirée.

Si chaque classe disposait de son propre système de ventilation, ou si cette seule classe à usage particulier disposait de son propre système, le fonctionnement en mode « soirée » n’impliquerait que cet unique groupe de ventilation, qui n’aurait pas à vaincre les pertes de charge d’une réseau collectif. Dès lors, la puissance absorbée pourrait théoriquement être moindre : même débit dans les deux situations, mais pertes de charge réduite dans le cas décentralisé.

Cette réflexion de principe est bien évidemment dépendante des choix de dimensionnement qui seraient faits dans les alternatives centralisées et décentralisée, de la finesse du mode de gestion dans le cas centralisé, des pertes de charges propres aux groupes de ventilation et de l’impact de la réduction du débit d’air sur ces pertes de charges dans le scénario centralisé, etc.

Le bénéfice énergétique de la décentralisation n’est pas nécessairement évident. C’est cependant une piste qui mérite d’être calculée en détail par les bureaux d’étude, maintenant que les consommations des ventilateurs représentent une part non négligeable du calcul PEB.

Choisir un système de ventilation naturelle ou mécanique

 

© Architecture et climat 2023.

Ventilation naturelle.    

© Architecture et climat 2023.

Ventilation mécanique.

Différents critères interviennent dans ce choix:


La garantie de résultat

L’efficacité d’une ventilation est sa capacité à évacuer réellement les polluants des locaux. Pour cela, il faut avoir la garantie que l’air neuf balaye correctement les bureaux et soit évacué après son mélange avec l’air ambiant.

La solution idéale est, mécaniquement, de pulser l’air neuf et d’évacuer l’air vicié directement dans chaque local indépendamment. Cette solution de ventilation indépendante de chaque local est cependant onéreuse et est réservée aux salles à forte affluence (salle de réunion, auditorium, …).

Le système double flux avec pulsion dans les bureaux et extraction dans les sanitaires et/ou zones de circulation garantit au minimum une amenée d’air neuf réelle dans les bureaux et une évacuation des odeurs dans les sanitaires.

Les systèmes de ventilation naturelle ou simple flux, quant à eux, ne garantissent pas toujours un renouvellement d’air correct dans tous les bureaux.

Prenons l’exemple d’une ventilation simple flux avec une simple extraction mécanique dans les sanitaires et des grilles d’amenée d’air naturel dans les châssis des bureaux :

L’air est paresseux, il préférera toujours le chemin le plus facile pour se mouvoir. Ainsi, s’il doit choisir entre les grilles placées dans les châssis des bureaux et un hall d’entrée (ou une fenêtre, …) largement ouvert vers l’extérieur, il est plus que probable que l’air extrait par les sanitaires provienne de ce dernier, plutôt que des bureaux. Ceux-ci ne seront alors pas ventilés correctement.

Schéma trajet de l'air dans un bâtiment.

Ce phénomène est aggravé :

  • en présence de couloirs maintenus ouverts vers les cages d’escalier ou hall d’entrée,
  • en présence de fenêtres et portes ouvertes dans certains bureaux,
  • en l’absence de moyens de transfert d’air au niveau des portes (grilles, détalonnage des portes).

En outre, dans des immeubles de bureaux, le compartimentage variable (location à des sociétés différentes) peut rendre encore plus difficile la coordination entre les entrées d’air et les évacuations.

De plus, les flux d’air véhiculés par les systèmes naturels ou simple flux sont dépendants des conditions atmosphériques (répartition du vent, des températures sur les façades) et donc difficilement contrôlables. Il est par exemple, possible que le flux d’air s’inverse dans une grille autoréglable si celle-ci est disposée sur une façade à l’abri des vents dominants (c’est-à-dire sur une façade en dépression). en effet, ce type de grille permet de limiter l’ouverture d’entrée d’air si elle est soumise à la pression du vent. Par contre, elle n’empêche pas un reflux d’air si elle est à l’abri du vent.

Le système de ventilation ne fonctionnera correctement que si le bâtiment est relativement étanche à l’air.

Dans son article « La ventilation et l’infiltration dans les bâtiments : la situation en Belgique » (1986), le CSTC, recommande d’améliorer l’étanchéité du bâtiment avant d’installer un système de ventilation contrôlée pour un taux de renouvellement de l’air à 50 Pa (n50) inférieur à 5/h. Les recommandations actuelles d’étanchéité à l’air des construction sont cependant plus ambitieuses encore.

Évaluer

Pour évaluer l’étanchéité du bâtiment, cliquez ici !

L’ambiance extérieure

Si l’ambiance extérieure est particulièrement polluée et/ou bruyante (site urbain, industriel, route fort fréquentée, parking avec heures de pointe), les amenées d’air neuf doivent obligatoirement comporter des filtres et une isolation acoustique.

Notons que les locaux les plus sensibles au niveau de la pollution des routes sont les locaux situés à moins de 10 m du sol.

Les amenées d’air naturelles, même équipées de systèmes d’insonorisation laissent cependant filtrer les bruits extérieurs et surtout les poussières. Des recherches sont cependant menées pour améliorer les qualités acoustiques, de filtration et d’automatisation des entrées d’air naturelles. À terme, elles devraient conduire au développement sur le marché de produits permettant une protection contre la pollution extérieure et une régulation semblable à celle possible en ventilation double flux.

Dans les sites urbains fort fréquentés et/ou pour certains locaux demandant une pureté de l’air plus importante (salles d’ordinateur, hôpitaux, …), une pulsion mécanique, équipée de filtres s’impose donc, la prise d’air extérieure devant être disposée dans l’endroit le moins exposé (à l’arrière du bâtiment ou en toiture).

Concevoir

Pour choisir l’emplacement de la prise d’air neuf, cliquez ici !

Les possibilités d’implantation

Les différents systèmes de ventilation se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturelle ou simple flux par extraction mécanique sont les plus faciles à implanter.

Ils ne demandent que peu de gainage. Un système naturel se limite à  la création de conduits verticaux d’évacuation dans les locaux humides. Pour fonctionner efficacement, ceux-ci doivent cependant respecter certaines prescriptions quant à leur tracé et leur débouché en toiture, que l’on trouvera dans la norme (résidentielle) NBN D50-001. Ce système peut donc être plus difficile à mettre en œuvre qu’un système mécanique simple flux par extraction. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage, et parfois, à des fins d’équilibrage aéraulique, une reprise d’air qui ne se limite pas aux locaux sanitaires et prends la forme d’un second réseau de conduites.

Rappelons que dans le cas d’une pulsion mécanique, un principe de balayage peut être mis en place. L’air alimentant un local peut provenir d’un autre local, pour autant qu’il n’y ait une gradation dans la qualité de l’air: un local ne peut pas être alimenté par de l’air provenant d’un espace plus pollué que lui (voir à ce sujet la norme ISO « ventilation dans les bâtiments non-résidentiels » ). Dans les espaces résidentiels, cette possibilité est explicitement prévue par la norme NBN D50-001, qui autorise que l’air alimentant les salles de séjour provienne des chambres, des locaux d’étude et de loisir, des couloirs, des cages d’escalier, des halls. Ceci a l’avantage de diminuer les débits totaux d’air neuf à injecter dans le bâtiment et de préchauffer l’air avant son entrée dans les locaux de séjour. Dans les chambres et les locaux d’étude et de loisir, seul l’air extérieur est autorisé.

Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.


La consommation énergétique et les coûts

Il faut comparer les performances que l’on espère obtenir, l’investissement à consentir et les coûts d’exploitation du système.

Au niveau de l’investissement, plus la mécanisation est importante (du simple flux avec extraction sanitaire au double flux avec pulsion et extraction dans chaque local), plus l’investissement est important. Il en est de même pour les frais d’exploitation (consommation des ventilateurs, maintenance des réseaux). Les frais de chauffage de l’air neuf sont, quant à eux les mêmes, si on considère que tous les systèmes permettent d’assurer des débits équivalents corrects. si ce n’est qu’une ventilation double flux est généralement pourvue d’une récupération de chaleur sur l’air extrait qui modifie sensiblement le bilan énergétique et financier.

Pour situer la surconsommation électrique d’un système de ventilation entièrement mécanique par rapport à un système de ventilation entièrement naturel, on peut citer les chiffres de consommation des ventilateurs couramment rencontrés dans la littérature : pour un système de ventilation double flux, la puissance électrique absorbée par les ventilateurs dans leurs conditions nominales de fonctionnement est de l’ordre de :

2 * 0,14 (installation performante : SFP1) à 0,35 W (installation médiocre : SFP3) par m³/h d’air transporté

dont une partie se retrouvera sous forme de chaleur dans l’air pulsé.
Vous pouvez estimer la différence de consommation entre les différents principes de ventilation :

Calculs

Pour estimer la différence de consommation entre les différents types de ventilation, cliquez ici !

Par exemple, pour assurer un apport d’air neuf de 6 000 m³/h pendant 2 500 h/an, un système de ventilation mécanique double flux consommera en électricité environ :

2* (0,14 [W] .. 0,35 [W]) x 6 000 [m³/h] x 2 500 [h/an] = 4200 .. 10500 [kWh/an]

Par contre, le système double flux permet une meilleure maîtrise des débits, donc des déperditions de chaleur par ventilation. Les consommations peuvent en outre être réduites si on utilise un récupérateur de chaleur. Cette récupération de chaleur est énergétiquement très intéressante puisqu’elle permet de récupérer de 50% à 90% de l’énergie rejetée avec l’air extrait.

Le système double flux permet également une gestion automatique des débits de ventilation local par local en agissant directement au niveau des bouches de pulsion, par exemple en fonction de l’occupation des bureaux individuels. Ce niveau d’automatisation au  niveau de chaque local est théoriquement possible en ventilation naturelle et simple flux si l’on utilise comme amenée d’air des fenêtres robotisées liées à des sondes de présence ou de CO2. Mais ce type de systèmes est très peu utilisé à l’heure actuelle.

Notons également que des installations pilotes de ventilation naturelle avec récupération de chaleur ont été réalisées dans le cas du projet de recherche « NatVent » (pour plus de détail : NatVent, Overcoming barriers to natural, CD-Rom, P.Wouters, J.Demeester, CSTC, 02/655 77 11).


L’esthétique

Les grilles d’amenée d’air naturelles doivent s’intégrer dans l’esthétique des façades et demandent un travail de recherche lors de la conception. Les prises et évacuations extérieures des systèmes mécaniques peuvent souvent être disposées à des endroits moins visibles.

Photo grilles d'amenée d'air naturelles.

Amenée d’air naturelle disposée discrètement au dessus du châssis, contre la battée.

Choisir le système de ventilation : critères généraux

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur ;
  2. le mobilier et matériel de bureau ;
  3. les produits et matériaux de construction ;
  4. la ventilation ;
  5. le comportement des usagers.

Les normes recommandent une ventilation de base permanente ayant pour but d’évacuer les odeurs, l’humidité et les éventuelles substances nocives. Pour ce faire, différents systèmes de ventilation existent.


Aperçu des normes

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779 (Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation).  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

De plus, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par WC ou urinoir ou 15m²/h par m² de surface si le nombre de WC n’est pas connu lors du dimensionnement.

Pour les hôpitaux, selon la norme NF S90-351, dans les zones à risques 1, c’est-à-dire concrètement sans risque d’aérobiocontamination (hospitalisation sans risque d’infection, certaines consultations, radiologie, ergothérapie, …), la ventilation se traite, en principe, sans exigence particulière en terme de filtration et de pression.

Dans les autres locaux (médico-techniques par exemple), la ventilation est organisée dans le même local où l’on retrouve à la fois des bouches de pulsion et d’extraction.


Typologie des systèmes de ventilation

Différentes dénominations sont utilisées pour caractériser des systèmes de ventilation.

Relativement au flux d’air, on distingue ventilation hygiénique et intensive sur base du débit:

  • Ventilation hygiénique, ou « de base » : il s’agit de la ventilation minimale nécessaire pour garantir une qualité de l’air suffisante, pour réduire la concentration des odeurs et de l’humidité. Elle requiert des débits d’air limités, appliqués de manière permanente. Ordre de grandeur : <1 renouvellement horaire de l’air.
  • Ventilation intensive : ventilation temporaire à grand débit (ordre de grandeur : >4 renouvellements horaires de l’air) nécessaire uniquement dans des circonstances plus ou moins exceptionnelles, comme lors d’activités générant une production élevée de substances nocives ou d’humidité (travaux de peinture, de nettoyage, certains loisirs,…), lors de chaleur persistante ou d’ensoleillement intensif qui provoque une surchauffe, ou lors d’une occupation extraordinaire, par exemple une fête, un nombre de fumeurs élevé, …

On distingue également infiltrations et ventilation sur base du caractère volontaire ou fortuit du mouvement d’air :

  • Infiltration : mouvement d’air involontaire et incontrôlé au travers des faiblesses de l’enveloppe d’un bâtiment
  • Ventilation : mouvement d’air volontaire et partiellement ou totalement contrôlé au travers de dispositifs spécifiques

Dans le logement, la norme NBN D50-001 parle de systèmes A, B, C ou D selon que l’amenée et/ou l’évacuation d’air est naturelle ou mécanique. Bien qu’exclusivement réservée aux logement, ces appellations sont parfois généralisées aux systèmes mis en œuvre dans les bâtiments tertiaires. Nous parlerons ici plus largement de :

Les ventilations double flux peuvent ou non intégrer une récupération de chaleur sur l’air extrait.

Enfin, on parlera de ventilation hybride lorsqu’elle recours aux principe de la ventilation naturelle mais prévoit ponctuellement le support de ventilateurs et d’éléments réseaux de ventilation mécanique. Typiquement, il s’agit d’une ventilation naturelle dans laquelle un ventilateur d’appoint vient renforcer le tirage lorsque les forces naturelles font défaut.

Le premier choix à réaliser est donc, pour faire simple, entre une ventilation naturelle ou mécanique simple ou double flux. en conception neuve ou rénovation, c’est très souvent une ventilation mécanique qui sera choisie. Se posent alors deux autres questions :

  • faut-il créer un réseau de ventilation unique desservant tout le bâtiment (système de ventilation centralisé) ou distinguer les équipements de chaque local ou groupe de locaux (système de ventilation décentralisé) ?
  • A-t-on intérêt à utiliser ce système de ventilation pour traiter l’air neuf et/ou climatiser le local?

Concevoir

Pour départager les ventilation naturelles et mécaniques, cliquez ici !

Concevoir

Pour départager les systèmes de ventilation centralisés ou décentralisés, cliquez ici!

Concevoir

Pour examiner l’intérêt d’une combinaison de la ventilation avec le traitement thermique des locaux, cliquez ici

Repérer les fuites de fluides frigorigènes

Repérer les fuites de fluides frigorigènes

Les fluides frigorigènes ont un impact non négligeable sur l’environnement. Les réglementations outre le fait d’interdire l’utilisation de certains fluides imposent le contrôle de l’étanchéité des installations.

Pour le repérage des fuites, on retrouve principalement deux méthodes :

  • la méthode directe ;
  • la méthode indirecte.

Méthode directe

Détecteur de fuite.

Détecteur de fuite R22, R134A… Cette méthode consiste en l’utilisation d’un détecteur de fuite manuel placé devant chaque source potentielle de fuite. Dans les installations existantes, une fuite est souvent difficile à détecter :

  • En détente directe (le fluide frigorigène alimente directement les évaporateurs des meubles frigorifiques, des chambres froides, des ateliers de boucherie, …), les conduites passent régulièrement dans des faux-plafonds, des gaines techniques, … difficiles d’accès.
  • Pour les installations à boucle secondaire par fluide caloporteur (le fluide frigorigène alimente les évaporateurs « utiles » via un fluide caloporteur comme l’eau glycolée, le CO2, …), les fuites potentielles sont circonscrites au local technique; ce qui en soi, simplifie la détection d’une fuite éventuelle.

L’idéal est de faire appel dans n’importe quel cas à des frigoristes spécialisés.

Méthode indirecte

Cette méthode se base sur une estimation des pertes relatives annuelles. Elle peut être mise en œuvre par le maître d’ouvrage ou par la société de maintenance sur base de relevés effectués sur le circuit frigorifique par du personnel qualifié (prise de pression, monitoring permanent, …).

En fonction des impositions réglementaires, il est nécessaire, suivant la charge frigorifique, de comptabiliser les relevés intermédiaires imposés.

Fluides frigorigènes [Chauffage – PAC]

Fluides frigorigènes [Chauffage - PAC]


L’impact environnemental

Depuis quelques décennies, l’impact des fluides frigorigènes sur l’environnement est devenu un enjeu majeur. En effet, de par la présence de fuites au niveau du circuit frigorifique, la responsabilité de ces fluides dans la destruction de la couche d’ozone et l’augmentation de l’effet de serre n’est plus à démontrer.

Trou d’ozone au pôle sud.

Que ce soit en conception, en rénovation ou même en maintenance, les fuites de fluides sont donc à éviter. Elles dépendent essentiellement de la qualité :

  • du choix et de la mise en œuvre des équipements (soudures et connexions des conduites de distribution par exemple);
  • de l’optimisation du cycle frigorifique;
  • de la maintenance;

En France, en 1997, une étude a montré que le taux de fuites annuelles pouvait atteindre 30 % de la quantité totale en poids (ou en masse) de fluides frigorigènes présent dans les installations frigorifiques des grandes surfaces (Réf.: Zéro fuite – Limitation des émissions de fluides frigorigènes, D. Clodic, Pyc Éditions, 1997).

Depuis lors, les réglementations se sont attaquées à ces problèmes :

  • Suite au protocole de Montréal (1987) les fluides frigorigènes CFC (chlorofluorocarbures, principaux responsables de la destruction de la couche d’ozone) ont été définitivement abandonnés et remplacés progressivement par les HCFC.
  • Les réglementations européennes 2037/2000, 842/2006 et 517/2014 ont notamment imposé :
    •  l’interdiction d’utilisation des HCFC à fort impact sur l’effet de serre (GWP ou global Warming Potential);
    • le remplacement progressif des HFC à haut GWP;
    • le confinement des installations frigorifiques permettant de réduire la quantité de fluide frigorigène;
    • des contrôles réguliers d’étanchéité des installations;
    •  …

Indices d’impact

Pour établir l’impact des fluides frigorigènes sur la couche d’ozone et l’effet de serre, trois indices principaux ont été définis :

  • ODP : Ozone Depletion Potential;
  • GWP : Global Warning Potential;
  • TEWI : Total Equivalent Warning Impact.

ODP (Ozone Depletion Potential)

C’est un indice qui caractérise la participation de la molécule à l’appauvrissement de la couche d’ozone. On calcule la valeur de cet indice par rapport à une molécule de référence, à savoir soit R11 ou R12 qui ont un ODP = 1.

GWP (Global Warning Potential)

C’est un indice qui caractérise la participation de la molécule à l’effet de serre. On calcul la valeur de cet indice par rapport à une molécule de référence, à savoir le CO2, et pour des durées bien déterminées (20, 100, 500 ans). Le CO2 à un GWP = 1.

TEWI (Total Equivalent Warning Impact)

Le TEWI est un concept permettant de valoriser le réchauffement planétaire (global warming) durant la vie opérationnelle d’un système de réfrigération par exemple, utilisant un fluide frigorigène déterminé en tenant compte de l’effet direct dû aux émissions de fluide frigorigène et à l’effet indirect dû à l’énergie requise pour faire fonctionner le système.

À titre indicatif, il est donné par la formule :

TEWI = (GWP x L x n) + (GWP x m[1-C]) + n x E x β

Où :

  • GWP : global warming potential;
  • L : émissions annuelles de fluide en kg;
  • n : durée de vie du système en années;
  • m : charge en fluide frigorigène en kg;
  • C : facteur de récupération / recyclage compris entre 0 et 1;
  • E : consommation annuelle d’énergie en kWh;
  • β : émission de CO2 en kg / kWh.

Voici, pour chaque fluide frigorigène, le Ozone Depletion Potential (potentiel de destruction de la couche d’ozone) et le Global Warming Potential (potentiel de participation au réchauffement climatique) sur 100 ans :

ODP GWP100
R717 Amoniac 0 0
R744 CO2 0 1
R290 Propane 0 20
R32 HFC, fluide pur 0 675
R134a HFC, fluide pur 0 1 430
R407C HFC, mélange 0 1 800
R22 HCFC 0,05 1 810
R410A HFC, mélange 0 2 100
R427A HFC, mélange 0 2 100
R417A HFC, mélange 0 2 300
R422D HFC, mélange 0 2 700
R125 HFC, fluide pur 0 3 500
R404A HFC, mélange 0 3 900
R12 CFC 0,82 10 900

Source : 4ème rapport de l’IPCC (Intergovernmental Panel on Climate Change).


Les fluides frigorigènes fluorés

Fluides frigorigènes fluorés

Les fluides frigorigènes fluorés sont en grande partie responsables de la destruction de la couche d’ozone et contribuent à augmenter l’effet de serre. Les interactions entre les deux phénomènes sont réelles mais d’une grande complexité.

On en distingue plusieurs types :

  • CFC;
  • HCFC;
  • HFC.

CFC (chlorofluorocarbures) (interdits de production depuis janvier 1995)

Ce sont des molécules composées de carbone, de chlore et de fluor. Elles sont stables; ce qui leur permet d’atteindre la stratosphère sans trop de problèmes. À ce stade, en se transformant elles contribuent à la destruction de la couche d’ozone.

R-11 Groupes centrifuges « basse pression ».
R-12 Essentiellement froid domestique et climatisation automobile, mais aussi dans les groupes refroidisseurs d’eau centrifuges.
R-13 Rares utilisations en froid très basse température.
R-14 Rares utilisations en froid très basse température.
R-113 Abandonné avant son interdiction.
R-114 Pompes à chaleur et climatisation de sous-marin.
R-115 Fluide pas utilisé seul, mais dans le R-502, mélange azéotropique très utilisé en froid commercial basse température.

HCFC (hydrochlorofluorocarbures) (utilisation interdite au Ier Janvier 2015)

Ce sont des molécules composées de carbone, de chlore, de fluor et d’hydrogène. Elles sont moins stables que les CFC et détruisent l’ozone dans une moindre mesure. Elles sont appelées substances de transition.

R-22 Fluide frigorigène le plus souvent utilisé, aussi bien en froid industriel qu’en climatisation.
R-123 Remplace le R-11 dans les groupes centrifuges.
R-124 Essentiellement utilisé dans certains mélanges.

HFC (hydrofluorocarbures) (utilisation réduite progressivement jusqu’en 2030)

Ce sont des molécules composées de carbone, de fluor et d’hydrogène. Elles ne contiennent pas de chlore et donc ne participent pas à la destruction de la couche d’ozone. Par contre, les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans élevé.

R-134a

(Solkane)

Fluide frigorigène qui a remplacé le R-12 en froid domestique et en climatisation automobile.

En application « chauffage », il présente l’avantage de faire fonctionner les pompes à chaleur à haute température (généralement jusqu’à 65 °C) et à relativement basse pression. Son utilisation est compatible avec une production d’eau chaude pour radiateurs en lieu et place d’une chaudière.

C’est également un composant majeur de la plupart des mélanges de remplacement.

R-125 N’est jamais utilisé pur en raison de sa pression critique trop faible (66°C). Il entre dans la composition de nombreux mélanges compte tenu de son pouvoir « extincteur ».
R-32,
R-152a
R-143a
Inflammables et donc utilisés uniquement en mélange avec d’autres composants qui « neutralisent » leur inflammabilité.

Mélange de fluides frigorigènes

On peut les classer en fonction du type de composants fluorés qu’ils contiennent.
Ils se distinguent également par le fait que certains mélanges sont :

  • Zéotropes : au cours d’un changement d’état (condensation, évaporation), leur température varie.
  • Azéotropes : ils se comportent comme des corps purs, sans variation de température lors du changement d’état.

Il va de soi que les frigoristes apprécient cette propriété d’azéotropie pour le fonctionnement de la machine frigorifique.

Le R407C (R134a : 52 % + R125 : 25 % + R32 : 23 %)

Le R407C est un fluide non azéotrope (il est composé de plusieurs fluides) afin d’obtenir sa température de changement d’état.

Ce fluide frigorigène présente les particularités suivantes :

  • Il est ininflammable.
  • Lors des changements de phase, la température « glisse » d’environ 5 K car les températures d’évaporation et de condensation des fluides frigorigènes qui le constituent sont différentes. Ceci rend les réglages plus difficiles et impose des échangeurs à contre-courant pour tirer le meilleur parti de ce fluide.
  • En cas de micro-fuite, le composé ayant les molécules les plus volatiles s’échappe préférentiellement. Il en résulte un fluide frigorigène déséquilibré. Il est dès lors nécessaire de vider entièrement l’installation avant de la recharger, le gaz retiré étant recyclé.
  • Les pressions sont moindres avec ce fluide frigorigène.
  • Il est moins performant que le R410A …
Le R410A (R32 : 50 % + R125 : 50 %)

Le R410A présente de meilleures qualités thermodynamiques que le R407C et le R22. D’autre part, l’étanchéité des installations est plus élevée avec le R410A, les pertes de pression sont donc faibles et les vitesses de fonctionnement peuvent être élevées. Les composants sont dès lors plus compacts.

Le R410A est cependant toxique ! De plus, il se comporte comme un réfrigérant mono-moléculaire lorsqu’il change de phase : le passage d’un état à un autre se produit à température quasiment constante (le glissement de température est négligeable). On ne doit donc pas vider complètement l’installation avant de la recharger.Pour terminer, les pressions de fonctionnement sont 60 % plus élevées que dans le cas du R22. Ceci limite donc son utilisation aux températures de condensation moyennes : maximum 45 °C.

Le R404A (R143a : 52 % + R125 : 44 % + R134a : 4 %)

Le R404A présente des caractéristiques communes avec le R410A (il se comporte aussi comme un fluide quasi-azéotropique) mais sa pression de fonctionnement est plus basse. Sa particularité est de ne pas beaucoup s’échauffer pendant la compression. La température des vapeurs surchauffées en sortie de compresseur reste donc modérée, ce qui convient parfaitement à la mise en œuvre des PAC fluide/fluide.


Les fluides à bas « effet de serre »

Ils sont considérés comme moins inquiétants pour l’environnement, car à la fois sans action sur l’ozone stratosphérique et d’un faible impact sur l’effet de serre.

Ils présentent tous des inconvénients, soit au niveau sécurité, soit au niveau thermodynamique.

L’ammoniac (NH3) ou R-717

L’ammoniac présente de nombreux avantages en tant que fluide frigorigène :

  • Impact environnemental nul (ODP et GWP100 nuls);
  • très bon coefficient de transfert de chaleur;
  • efficacité énergétique élevée (au moins aussi bonne que le R22, meilleure dans certaines conditions);
  • le gaz ammoniac est plus léger que l’air;
  • faibles pertes de charge;
  • fuites aisément détectables;
  • faible prix de revient et faibles frais d’entretien des installations;
  • très difficilement inflammable, limite d’explosion élevée et petits champs d’explosion;
  • chimiquement stable;
  • aisément absorbable dans l’eau;
  • pas très sensible à l’humidité dans le circuit;
  • naturel donc biodégradable;
  • grâce à sa haute température critique, il permet de réaliser des températures de condensation très élevées et de concevoir des PAC à haute température.

Les COP obtenus avec ce fluide frigorigène peuvent être équivalents à ceux obtenus avec des HFC.

L’ammoniac est par contre toxique (mais pas cumulativement dans le temps) et irritable. Il peut être explosif dans des cas exceptionnels (les limites inférieure et supérieure d’inflammabilité doivent être très proches l’une de l’autre). Il sera également explosif dans des locaux non aérés où il se crée un mélange d’air, d’azote et d’ammoniac. Les locaux doivent donc absolument être ventilés et le passage de l’air doit également être totalement libre. De plus, le NH3 corrode facilement le cuivre et ses alliages ainsi que le zinc. Les installateurs sont donc obligés d’utiliser de l’acier. Pour terminer, l’ammoniac n’étant pas miscible et soluble dans les huiles minérales, il faut prévoir un séparateur d’huile après le compresseur.

Les installations à l’ammoniac l’utilisent liquide et sa quantité est réduite : la quantité de gaz perdu par fuites est donc faible.

Il est à l’heure actuelle principalement utilisé dans le froid industriel.

Les hydrocarbures (HC) comme R-290 R-600a

Il s’agit essentiellement du propane (R-290), du butane (R-600) et de l’isobutane (R-600a).

Ces fluides organiques présentent de bonnes propriétés thermodynamiques, mais sont dangereux par leur inflammabilité. Le monde du froid s’est toujours méfié de ces fluides, même s’ils sont réapparus récemment dans des réfrigérateurs et des mousses isolantes. Leur utilisation future paraît peu probable en climatisation, vu le coût de la mise en sécurité aussi bien mécanique qu’électrique. En PAC, on l’utilise donc dans des quantités les plus faibles possible (maximum 3 kg pour les applications résidentielles), de préférence à l’extérieur des bâtiments.

Le dioxyde de carbone (CO2) ou R-744

Fluide inorganique, non toxique, non inflammable, mais moins performant au niveau thermodynamique. Son usage implique des pressions élevées et des compresseurs spéciaux.

Il possède cependant de bonnes qualités en application PAC pour le chauffage ou l’eau chaude sanitaire. Il est peu coûteux, et sa récupération et son recyclage sont simples à mettre en œuvre.

Actuellement, les spécialistes s’y intéressent à nouveau de par :

  • son faible impact sur l’environnement (ODP = 0, GWP = 1);
  • son faible volume massique entraînant des installations à faible volume (fuites réduites);

Il a la particularité de posséder une température critique basse à 31 °C  pour une pression de 73,6 bar.

À noter que l’utilisation de ce type de réfrigérant entraîne aussi des contraintes non négligeables telles que la nécessité de travailler :

  • à des pressions élevées (80 voire plus de 100 bar);
  • en transcritique qui demande une maîtrise de la condensation en phase gazeuse (gaz cooler);

L’eau (H2O)

Fluide inorganique, bien entendu sans toxicité. Même si sa grande enthalpie de vaporisation est intéressante, il ne se prête pas à la production de froid sous 0°C. Il est peu adapté au cycle à compression et ses applications sont rares.

Synthèse

Frigorigène Fluide naturel ODP3 GWP (100ans) valeurs IPCC 3 GWP (100ans) valeurs WMO 4 Temp. critique (°C) Pression critique (MPa) Inflammabilité Toxicité Coût relatif Puissance volumétrique
R290

(HC) CH3CH2CH3

Oui 0 20 20 96,7 4,25 Oui Non 0,3 1,4
R717 (Ammoniac NH3) Oui 0 <1 <1 132,3 11,27 Oui Oui 0,2 1,6
R 744 (CO2) Oui 0 1 1 31,1 7,38 Non Non 0,1 8,4
R718 (H2O) Oui 0 0

Caractéristiques environnementales des fluides frigorigènes naturels.


Nomenclature

Les fluides frigorigènes sont soumis à une nomenclature qui se veut internationale. L’ASHRAE, une des plus utilisées, désigne les fluides frigorigènes par la lettre R associée à 2,3 ou 4 chiffre + une lettre (R134a par exemple).

Le tableau ci-dessous montre la méthode de désignation des fluides réfrigérants :

R-WXYZ§

Nomenclature

Appellation courante

R12

R134a

R1270

Appellation pour la détermination de la formule

R-0012

R-0134a

R-1270

CFC

W = Nombre d’insaturation

Carbone = Carbone (C=C)

C=C (double liaison)

0

0

1

X = nombre de Carbone -1

nombre d’atomes de Carbone C = X + 1

1

2

3

Y = nombre de Hydrogène +1

nombre d’atomes d’Hydrogène H = Y – 1

0

2

6

Z = nombre de Fluor

nombre d’atomes de Fluor F = Z

2

4

0

R401A

nombre d’atomes de Chlore Cl*

2

0

0

Formule chimique

C Cl2F2

C2H2F4

CH3 CH=CH2

Si § = A-E => symétrie

Si § = a-b => asymétrie (avec a moins asymétrique que b)

symétrie de la molécule

symétrique

asymétrique

symétrique

Calcul du nombre d’atomes de chlore : Pour les molécules saturées (w = 0), Le nombre d’atomes de chlore s’obtient à partir de la formule suivante : Cl = 2.(C = 1) – H – F.

Comparer les performances des fluides frigorigènes

Comparer les performances des fluides frigorigènes


Principes

Les différents fluides frigorigènes ne sont pas égaux devant le froid. Certains ont une meilleure efficacité frigorifique que d’autres; c’est pourquoi il est important d’évaluer leurs différences.

Coefficient de performance instantané COP

Cycle frigorifique classique.

L’effet frigorifique ou COP est défini par la relation suivante :

COP = Puissance frigorifique / Puissance électrique absorbée

Où :

  • Puissance frigorifique : puissance utile à l’évaporateur [kWf];
  • Puissance électrique absorbée : puissance électrique par le compresseur [kWe].

Production frigorifique spécifique

Le type de fluide frigorigène influence le COP. La recherche d’un fluide frigorigène à forte production frigorifique par volume de gaz aspiré au niveau du compresseur est primordiale. Un fluide frigorigène est d’autant plus performant que sa chaleur latente d’ébullition (ou d’évaporation) à l’évaporateur et un faible volume spécifique des vapeurs à l’aspiration.

La production par m³ de fluide aspiré sous forme de gaz au compresseur est donnée par la relation suivante :

Production frigorifique spécifique = Chaleur latente d’ébullition / Volume spécifique des vapeurs à l’aspiration

[kJ/m³]

Où :

  • La chaleur latente d’ébullition est exprimée en kJ/kg ;
  • Et le volume spécifique des vapeurs en m³/kg.

Cette production frigorique par m³ de gaz aspiré est donc inversement proportionnelle à la cylindrée des compresseurs et donc de leurs coûts. Il en résulte que les quantités de fluides frigorigènes, pour une même puissance frigorifique, peuvent être plus importantes d’un type à l’autre de fluide.


Comparaison

L’exercice consiste à comparer plusieurs fluides frigorigènes entre eux afin de déterminer leur production frigorifique spécifique et leur COP.

Pour ce faire, on se propose d’étudier, à travers d’un exemple et succinctement, les fluides suivants :

  • Le R22 ou fluide pur HCFC encore présent dans beaucoup d’installations existantes à faible ODP (ODP = 0,055) mais à GWP important (GWP = 1700) ;
  • Le R404A ou mélange de HCFC majoritairement utilisé dans les nouvelles installations de froid commercial sans impact sur la couche d’ozone (ODP = 0) mais à GWP important (GWP = 3260) ;
  • Le R507 ou autre mélange de HFC utilisé régulièrement dans les nouvelles installations.

Hypothèses :

  • Puissance frigorifique utile nécessaire : Pfrigorifique = 100 kW;
  • Température de condensation = 40°C;
  • Température d’évaporation ou d’ébullition -10°C;
  • Sous-refroidissement = 5°C;
  • Surchauffe = 5°C;
  • rendement du compresseur ηcomp = 0,85;
  • rendement du moteur électrique ηmoteur_élec = 0,85;
  • pas de pertes de charge ni d’échange thermique au niveau des conduites;

Cycle théorique :

R22

En fonction des hypothèses prises, on peut établir le graphique suivant qui permet de déterminer les valeurs :

  • d’enthalpie au niveau de l’évaporateur : soit Δhévaporateur = 405 – 244 = 161 kJ/kg;
  • énergie théorique de compression : soit Δhcompression = 443 – 405 = 38 kJ/kg;
  • de volume massique à l’aspiration : soit Vmassique_aspiration = 0,067 m³/kg.

Calculs :

  • Pour une puissance frigorifique demandée de 100 kW, le débit massique de R22 est de :

débitmassique = Pfr / hévaporateur [kg/s]

débitmassique = 100 [kJ/kg] / 161 [kW] = 0,62 kg/s ou 2 236 kg/h

  • Le volume réel à aspirer par le compresseur est de :

Volumeréel = débitmassique * volumemassique_aspiration

Volumeréel  = 0,62  [kg/s] / 0,067  [m³/kg] = 0,04 m³/s

soit en une heure un volume aspiré au niveau du compresseur de 0,04 x 3 600 = 150 m³/h

  • Le rendement volumétrique du compresseur est de :

ηVolume = 1 – (0,05 x τ)

Où :

τ  = HP / BP (en pression absolue)

ηVolume  = 1 – (0,05 x HP / BP)

ηVolume  = 1 – (0,05 x 15,3 / 3,55) = 0,78

  • Le débit théorique nécessaire est de :

Débitcompresseur = Volumeréel / ηVolume

Débitcompresseur = 150 / 0,78

Débitcompresseur = 190 m³/h

  • La puissance électrique du moteur du compresseur est de :

Pelectr_absorbée = débitmassiqueΔhcompression x (1 /  ( ηcomp x ηmoteur_elec x ηVolume))

Pelectr_absorbée = 0,62 x 38 x (1 / (0,85 x 0,85 x 0,785))

Pelectr_absorbée = 41 kW

  • Enfin, la performance énergétique (ou effet frigorifique) de la machine est de :

COP = Pfrigorifique / Pelectr_absorbée

COP = 100 / 41 = 2,4

R404A

Comme pour le R22, avec les mêmes hypothèses, on effectue les calculs amenant à déterminer le COP de l’installation. Le tout est consigné dans le tableau de synthèse ci-dessous.

R507

Comme pour le R22, avec les mêmes hypothèses, on effectue les calculs amenant à déterminer le COP de l’installation. Le tout est consigné dans le tableau de synthèse ci-dessous.

Synthèse

Pour les 3 fluides étudiés ci-dessus, on établit un tableau synthétique qui nous permet une comparaison des principales caractéristiques et performances des fluides réfrigérants :

Caractéristiques et performances des fluides frigorigènes

R22

R404A

R507

Haute pression [bar]

15

18,2

18,8

Basse pression [bar]

3,6

4,3

4,5

Taux de compression (τ = HP / BP)

4,3

4,2

4,2

Rendement volumétrique ηVolume

0,78

0,79

0,79

Température de fin de compression [°C]

70

50

53

Volume spécifique à l’aspiration du compresseur [m³/kg]

0,067

0,048

0,046

Débit massique du fluide réfrigérant [kg/s]

0,62

0,85

0,88

Volume réellement aspiré [m³/s]

0,04

0,04

0,04

Volume théorique [m³/h]

191

185,3

185,5

Puissance électrique [kW]

41

39

50

COP

2,4

2,6

2

Diminution des performances

– 8 %

– 23 %

Conclusion

Les fluides frigorigènes étudiés présentent beaucoup de similitudes. On voit néanmoins que le COP du R404A est meilleur; ce qui signifie que dans des conditions idéales et identiques (en régime permanent et stable par exemple), pour une période de temps identique, la consommation d’une machine :

  • au R22 est 8 % plus élevée;
  • au R507 est 23 % plus élevée.

Caractéristiques thermiques des sols

Caractéristiques thermiques des sols

Type de roche

Conductivité thermique
λ (W/mK)

Capacité thermique volumétrique
ρC (MJ/m³K)

min

valeur typique

max

Roches magmatiques

Basalte

1.3

1.7

2.3

2.3 – 2.6

Diorite

2.0

2.6

2.9

2.9

Gabbro

1.7

1.9

2.5

2.6

Granit

2.1

3.4

4.1

2.1 – 3.0

Péridotite

3.8

4.0

5.3

2.7

Rhyolithe

3.1

3.3

3.4

2.1

Roches métamorphiques

Gneiss

1.9

2.9

4.0

1.8 – 2.4

Marbre

1.3

2.1

3.1

2.0

Métaquartzite

env. 5.8

2.1

Mécaschistes

1.5

2.0

3.1

2.2

Schistes argileux

1.5

2.1

2.1

2.2 – 2.5

Roches sédimentaires

Calcaire

2.5

2.8

4.0

2.1 – 2.4

Marne

1.5

2.1

3.5

2.2 – 2.3

Quartzite

3.6

6.0

6.6

2.1 – 2.2

Sel

5.3

5.4

6.4

1.2

Grès

1.3

2.3

5.1

1.6 – 2.8

Roches argileuses limoneuses

1.1

2.2

3.5

2.1 – 2.4

Roches non consolidées

Gravier sec

0.4

0.4

0.5

1.4 – 1.6

Gravier saturé d’eau

env. 1.8

env. 2.4

Moraine

1.0

2.0

2.5

1.5 – 2.5

Sable sec

0.3

0.4

0.8

1.3 – 1.6

Sable saturé d’eau

1.7

2.4

5.0

2.2 – 2.9

Argile/limon sec

0.4

0.5

1.0

1.5 – 1.6

Argile/limon saturé d’eau

0.9

1.7

2.3

1.6 – 3.4

Tourbe

0.2

0.4

0.7

0.5 – 3.8

Autres substances

Bentonite

0.5

0.6

0.8

env. 3.9

Béton

0.9

1.6

2.0

env. 1.8

Glace (-10°C)

2.32

1.87

Plastique (PE)

0.39

Air (0-20°C, sec)

0.02

0.0012

Acier

60

3.12

Eau (+10°C)

0.58

4.19

Choisir le CO2 comme fluide réfrigérant ou caloporteur

Image par défaut pour la partie Concevoir

Le grand retour du CO2 ?

Le CO2 (R 744) revient à la charge ses derniers temps comme fluide frigorigène. Autrefois remplacé par les CFC, HCFC, HFC, il doit son retour :

  • À son faible impact sur l’environnement (ODP = 0, GWP = 1) par rapport aux autres fluides frigorigènes utilisés actuellement (jusqu’à 3 800 fois moins d’impact sur l’environnement que les HFC).
  • À  l’avancée des technologies dans le domaine de la réfrigération et de la climatisation. En effet, le problème du confinement des gaz sous haute pression semble partiellement résolu grâce, et c’est paradoxal, à la maîtrise de la climatisation dans les véhicules avec la nécessité de trouver :
    • un fluide réfrigérant propre;
    • un faible volume massique permettant des installations compactes (faible poids des équipements et volume réduit de fluide frigorigène);

Les avantages et inconvénients de l’utilisation du CO2 comme fluide frigorigène sont les suivants :

Avantages

Inconvénients

  • pas d’action sur l’ozone (ODP = 0);
  • peu d’impact direct sur l’effet de serre (GWP = 1) sachant par exemple que le R404A a un GWP de 3 800;
  • fluide naturel et largement disponible;
  • ininflammable (utilisation comme gaz dans les extincteurs);
  • non corrosif, compatible avec tous les matériaux;
  • non toxique;
  • alimentaire (notamment nos voisins hollandais l’utilise dans la conservation des repas dans les hôpitaux);
  • production frigorifique volumétrique élevée, permettant à l’heure actuelle des compresseurs de faible cylindrée et des circuits à faible quantité de fluide;
  • miscible à l’huile des compresseurs;
  • peu descendre jusqu’à -54°C;
  • taux de compression faible par rapport aux autres réfrigérants (COP intéressant);
  • il forme des acides avec l’eau et du carbonate d’ammonium (corrosif) avec l’ammoniac;
  • les pressions de service sont très importantes (80, 100 bar voire plus);
  • les équipements des circuits et de sécurité, dus à la pression, doivent être performants (coûts importants);
  • la mise en œuvre de tels circuits n’est pas encore bien maîtrisée;
  • à la mise en route, la déshydratation des circuits doit être encore plus poussée.
  • en cas d’arrêt prolongé, des dégazages à l’atmosphère doivent être opérés, nécessitant une recharge ultérieure;


Utilisation du CO2 comme fluide frigorigène : Cas pratique

Actuellement, un supermarché GB à Aywaille teste un système de réfrigération-chauffage combiné où :

  • les sources froides sont :
    • les meubles frigorifiques;
    • échangeur air/CO2 (« évaporateur de toiture);
    • échangeur eau nappe souterraine/CO2;
  • et les sources chaudes sont :
    • échangeur CO2/air (« gaz cooler »de toiture);
    • les circuits à basse température tels que le chauffage au sol, la centrale de traitement d’air et les rideaux d’air;
    • les circuits à haute température pour l’eau chaude sanitaire.

L’intérêt de ce système est de combiner des besoins :

  • de froid au niveau des meubles frigorifiques. En effet, le nombre impressionnant de meubles frigorifiques ouverts et fermés pour ce type de supermarché nécessite une puissance frigorifique de 300 kW (positif) et 40 kW (négatif);
  • de chaud classiques d’une puissance de l’ordre de 540 kW.

avec une seule machine, à savoir une pompe à chaleur.

Les résultats du monitoring ne sont pas encore connus mais devraient permettre d’y voir plus clair sur une technologie qui a le vent en poupe.


Comparaison  CO2 – R134a  

À titre d’exemple, on compare les performances théoriques de deux fluides réfrigérants comme le CO2 et le R134a.

Les hypothèses de travail sont les suivantes :

  • la phase de refroidissement du CO2 est dans la zone « transcritique » (refroidissement au dessus du point critique : 31°C, 73,6 bar);
  • la température d’évaporation est de -10°C dans les deux cas (application classique de froid positif);
  • la température de condensation pour le R134a est de 30°C (la température ou pression de condensation est flottante en fonction du climat externe);
  • la température de fin de refroidissement pour le « gaz cooler » est de 30°C aussi.

Dans le diagramme (log p, h), on superpose les deux cycles frigorifiques :

Les avantages et inconvénients du cycle CO2 au niveau thermodynamique sont :

Avantages

Inconvénients

  • L’efficacité énergétique en production de froid est relativement bonne si on maîtrise la phase de refroidissement (au « gaz cooler ») au niveau de la température. Pour une température de condensation flottante atteignant les 30°C, l’EFF du compresseur est de l’ordre de h1/h2 = 3,8;
  • Les températures à l’entrée du « gaz cooler » ou  d’un échangeur quelconque, peuvent atteindre des valeurs de l’ordre de 80°C, ce qui est intéressant pour des applications classiques de chauffage par pompe à chaleur;
  • L’efficacité énergétique en production de chaleur peut être très bonne dans la mesure où l’installation puisse tenir des pressions importantes (de l’ordre de 90 bar), ce qui représente quand même une prouesse technologique, mais accessible actuellement. Le COP pourrait atteindre des valeurs de h3/h2= 5;
  • Que ce soit en chaud comme en froid, les valeurs de EFF et COP restent en dessous des valeurs obtenues pour le R134A dans les mêmes conditions, soit une EFF h4/h5 de 5 et un COP h6/h5 de 6.

Les avantages et inconvénients du cycle R134a au niveau thermodynamique sont :

Avantages

Inconvénients

  • pour une installation bien régulée (détendeur électronique, variateur de vitesse des compresseurs, …, les performances des compresseurs tant en chaud qu’en froid sont meilleures que celles pour le cycle CO2 (COP = 6, EFF = 5).
  • Les températures de condensation sont plus faibles que celle du cycle CO2. Ce qui signifie que ce type de fluide ne peut être utilité pour des applications de chauffage haute température combiné au froid alimentaire.


Intérêt du CO2 ?

L’intérêt de l’utilisation du CO2 comme fluide réfrigérant, est avant tout lié à un choix par rapport à l’environnement. En effet, on pointera principalement :

  • le faible impact sur la couche d’ozone et l’effet de serre de part sa composition:
  • la plus faible quantité de fluide utilisé de part son volume massique faible (en cas de fuite, la quantité rejetée est faible);
  • la disponibilité de ce fluide dans la nature (piège à CO2 réalisable);

De plus, dans le cas où l’on considère qu’il faut combiner le besoin de chaleur à haute température (80-90°C) avec celui de froid et ce afin d’éviter de choisir une chaudière et un groupe de réfrigération pour la partie froid alimentaire, une installation de pompe à chaleur au CO2 peut être intéressante.

Toutefois en conception, pour autant que :

  • l’enveloppe soit bien isolée;
  • la ventilation hygiénique soit régulée en fonction de l’occupation;
  • les entrées soit bien étudiées afin de réduire les pertes énergétiques aux accès (courant d’air par exemple);
  • la quantité de meubles frigorifiques dans les commerces ouverts soit limitée;

Il n’y a pas de raison valable d’investir dans une installation coûteuse telle que celle au CO2 car la nécessité d’atteindre des températures d’eau chaude de 80-90°C n’est plus nécessaire. Autant alors investir dans une pompe à chaleur classique dont le condenseur fonctionne à des températures avoisinant les 45°C.


Conclusion

L’utilisation du CO2 comme fluide frigorigène est probablement une piste à suivre de très près.

Il est important, en conception, avant de choisir le réfrigérant qui va naturellement conditionner tout le choix des équipements, de déterminer si le projet s’inscrit dans une démarche énergétique et durable globale. Auquel cas, il faut limiter au maximum :

  • Les déperditions de l’enveloppe par l’isolation thermique des parois, la limitation des pertes par ventilation et infiltration, …
  • Les apports internes positifs ou négatifs tels que l’éclairage intensif, les meubles frigorifiques ouverts, …, par le choix  de luminaires performants, de meubles frigorifiques fermés, apport de lumière naturelle contrôlé (sheds par exemple), …
  • Les apports externes tels que les apports solaires par l’orientation du bâtiment, les ombrages, …

En fonction de l’objectif fixé au niveau de l’esquisse du bâtiment, lors du projet on pourra déterminer l’intérêt ou pas d’investir dans un fluide réfrigérant tel que le CO2.

Projet ECOFFICE

Projet ECOFFICE


Description du bâtiment

Situé dans le parc industriel de Nivelles Nord, cet immeuble de 3 500 m² appelé « Écoffice » s’inscrit dans un projet de recherche soutenu par la Région wallonne et visant à optimaliser les techniques de construction.

L’objectif de ce projet de recherche est la réalisation d’un projet pilote de bâtiment tertiaire passif dont le coût de la construction ne dépasserait pas celui de bureaux normaux.
Le projet est certifié « maison passive » et « Breeam ».


Stratégie énergétique et technique

Une description complète du projet est donnée sur le site www.ecoffice-building.be. Les principales mesures sont une isolation et étanchéité thermique conforme au standard maison passive : Umur = 0.17 W/m²K, triples vitrages Ug = 0.6 W/m²K etc. L’inertie thermique est valorisée par le choix de faux plafonds partiels sous forme d’ilots. Des protections solaires extérieures automatisées de type lamelles permettent le compromis entre lumière naturelle et protection face aux surchauffes. Notons également une installation d’éclairage artificiel particulièrement performante, puisqu’elle respecte les normes d’éclairement avec une puissance moyenne installée de seulement 6 W/m² dans les open spaces et 8 W/m² dans les bureaux individuels.

Au niveau des techniques, les choix principaux sont un découplage du chauffage et de la ventilation mécanique, un découplage des réseaux de ventilation des espaces de bureau et de réunion et un surdimensionnement des réseaux de ventilation hygiénique pour permettre le rafraichissement. Plus en détail :

  • Le chauffage des 3 500 m² est assuré par une chaudière gaz à condensation de 100 kW alimentant des convecteurs en façade et une batterie de chauffe pour l’air neuf. Une courbe de chauffe règle la température de départ de la chaudière et des différents circuits par étage et demi plateau. Des vannes thermostatiques permettent l’adaptation locale. L’objectif est d’amener une neutralisation de l’air pulsé et un réglage fin par les convecteurs locaux.
  • La ventilation hygiénique est assurée par un réseau mécanique équilibré avec récupération de chaleur sensible et latente par une roue hygroscopique. Un bypass est prévu si le bâtiment n’est pas en demande de chaleur. Une batterie de préchauffage participe au chauffage. La reprise d’air se fait au travers du faux plafond, utilisé comme plénum pour limiter les pertes de charge.
  • Deux réseaux de ventilation sont prévus, l’un pour les espaces du bureau, l’autre pour ceux de réunion. Ce découplage facilite la gestion des débits et régule la température en fonction d’horaire et de besoins spécifiques à des différents locaux. Les deux réseaux sont surdimensionnés par rapport aux stricts besoins hygiéniques : d’un facteur 2 pour les bureaux et 4 dans les salles de réunion. Ce surdimensionnement permet une augmentation des débits d’air et le rafraîchissement en été, et un fonctionnement à faible perte de charge, et donc faible consommation d’énergie, en hiver, grâce à une régulation à pression.
  • Une machine frigorifique à compression alimente des batteries de refroidissement au niveau des groupes de pulsion. En été, la gestion privilégie la modulation de la température de pulsion d’air sur l’augmentation du débit, pour éviter la surconsommation des ventilateurs.

Évaluation par les occupants

Comme tout bâtiment, Écoffice subit une période de rodage dans les premiers mois d’utilisation. Les principales plaintes des occupants concernaient :

  • l’ergonomie des éléments de contrôle des stores et luminaires ;
  • des plaintes locales de courant d’air venant du réseau de ventilation, liées au dysfonctionnement d’une boite VAV ;
  • une impression d’air confiné le matin, liée à un horaire d’enclenchement trop tardif de la ventilation hygiénique ;
  • une impression de trop grande chaleur en été, non pas du fait d’une surchauffe due au soleil ou aux gains internes, mais à l’arrivée des occupants le matin, du fait d’une absence de free cooling la nuit. L’installation de ventilation ne remplissait pas son rôle de décharge nocturne de la chaleur, pour des raisons de zones mortes trop réduites et d’empiètement de différentes consignes au niveau de la régulation.

Globalement, les premiers mois montrent que la volonté de conserver des techniques simples, mais optimisées a entraîné une complication des aspects liés à la gestion. Trop de consignes, de courbes glissantes, de règles parallèles ont rendu la compréhension du comportement réel du bâtiment complexe, et les ajustements délicats. Une fois ces ajustements réalisés par contre, le bâtiment présentant un comportement proche des attentes des concepteurs, tant pour la consommation d’énergie que pour le confort thermique.


Monitorings

Les performances sont publiées sur le site du projet  www.ecoffice-building.be.

A la fin de l’année 2014 les relevés pour la période du 01 avril 2013 au 30 septembre 2014 ont été comparés avec les résultats des modèles de calcul ENERGY PLUS, PHPP et PEB.

  • En ce qui concerne les besoins nets de chaleur, l’écart entre la réalité constatée (corrigée en fonction des degrés-jours) et le modèle théorique PHPP n’est que de 5 %.
  • Les consommations d’eau chaude sont faibles et constantes en toutes saisons. Elles représentent 3.5 % des demandes totales de chaleur.
  • La différence entre la demande des différents postes et la quantité de chaleur fournie par la chaudière est de 9 %. Cette quantité représente les pertes de distribution.
  • La plus grande partie (87%) de la chaleur dédiée au chauffage des locaux est amenée au niveau des convecteurs, le solde au niveau des groupes de pulsion. La demande de chaleur est linéairement corrélée aux degrés-jours.

    Demande en énergie des différents postes

  • La consommation des ventilateurs est conforme aux hypothèses faites lors de la construction du modèle ENERGY PLUS. La ventilation des bureaux augmente en été à cause du fonctionnement « free cooling ». La consommation électrique augmente entre 2013 et 2014. Cette dérive est probablement due à un encrassement des filtres compensé par une augmentation de la vitesse des ventilateurs. Entre avril 2013 et mars 2014 (12 mois) la consommation totale a été de 3.65 kWh/m²an contre une consommation attendue de 3 kWh/m²an.
  • La consommation électrique liée à l’éclairage artificiel est de 9 kWh/m²an. Elle suit un profil saisonnier cohérent avec les simulations. La distribution est stable entre les circuits. La consommation est influencée par une occupation incomplète du bâtiment et par des variations dans la durée d’utilisation (weekend).
  • Les températures mesurées aux bouches de reprise sont conformes aux attentes sauf dans certains locaux pour les températures moyennes glissantes extérieures les plus basses. Dans ces locaux on constate une tendance vers des températures trop basses en hiver. Aucun dépassement à la hausse n’a été constaté au-delà de la zone de confort I. Cela n’exclut pas la possibilité d’inconforts locaux.

Intervenants

Ce projet a associé différents partenaires disposant chacun de connaissances et de compétences spécifiques. Le projet Écoffice implique la mise en commun de l’expertise de chacun de ces intervenants. Les différents partenaires du projet sont :

  • Thomas & Piron S.A.
  • Bureau d’architecture A2M sprl
  • Centre Scientifique et Technique de la Construction
  • Architecture & Climat de l’Université catholique de Louvain
  • Cofely Services S.A., groupe Suez
  • Holcim (Belgique) S.A.

Grandes familles de systèmes de refroidissement

Grandes familles de systèmes de refroidissement


Présentation des grandes familles

Souvent on distingue 3 grandes familles de systèmes de climatisation en fonction du mode de transport de l’énergie frigorifique. Le rafraîchissement des locaux peut se faire :

  1. Par l’intermédiaire d’un réseau d’air,
  2. par l’intermédiaire d’un réseau d’eau froide ou d’eau glacée,
  3. par contact direct entre l’air à refroidir et l’évaporateur de la machine frigorifique (« détente directe »).

Famille 1 : les installations centralisées « tout air »

Puisque de l’air hygiénique doit de toute façon être apporté aux occupants, la première idée consiste à profiter du réseau de distribution d’air pour fournir la chaleur ou le froid demandés par les locaux.

Mais pour un bureau le débit d’air hygiénique entraîne un renouvellement du volume d’air du local :

Exemple.

1 personne demande 30 m³/h d’apport d’air neuf. Il occupe 10 m², sur une hauteur de 3 m, soit 30 m³. Le ratio « débit/volume occupé » est de 1 [1/h].

Par contre le transport de la chaleur et du froid entraîne des débits d’air nettement plus importants : on atteint des débits correspondant à 4 … 10 renouvellements du local, chaque heure, …

Exemple.

Les apports internes et les apports solaires génèrent une puissance de 100 W/m². Pour les 10 m² de l’occupant, cela crée un besoin frigorifique de 1 000 W. Supposons que l’ambiance est à 24 °C et l’air frais apporté à 14 °C, l’écart de soufflage sera de 24 – 14 = 10 K.
Le débit nécessaire sera de : 1 000 W / (0,34 Wh/m³.K x 10 K) = 294 m³/h
C’est un débit d’air 10 x plus élevé que le débit hygiénique !

Le réseau d’air devient alors fort encombrant !

Aussi, la consommation électrique des ventilateurs peut devenir très élevée : dans les anciennes installations (installées il y a 30 ans), le coût de l’énergie électrique des ventilateurs peut atteindre 50 % du coût total de l’énergie consommée par le conditionnement d’air de tout l’immeuble !

De plus, en « tout air neuf », le coût de fonctionnement de l’installation est très élevé puisque le chauffage est assuré, en plein hiver, par de l’air extérieur qu’il faut réchauffer à grands frais.

Exemple.

Pour apporter 1,5 kW de chaleur au local, un apport de 3,5 kW est demandé au caisson de traitement d’air : 2 kW pour porter l’air de 6° à 22 °C, puis 1,5 kW pour l’amener à 40 °C.

La température de 6 °C correspond à la température moyenne de l’air extérieur.

Pour diminuer les coûts d’exploitation d’une installation « tout air », une bonne partie de cet air doit être recyclé.

Exemple.

60 m³/h sont conservés pour l’apport d’air hygiénique et 210 m³/h extraits des bureaux à 22 °C sont recyclés. La puissance de chauffe redescend à 1,9 kW :

Cette solution est plus économique, mais on reproche alors au système les risques de contamination que peut entraîner ce recyclage, … qui mélange l’air provenant de tous les locaux !

Pour limiter les coûts énergétiques sans risque de contamination, on place alors un récupérateur de chaleur sur l’air extrait.

Exemple.

Autrefois à la mode à toutes les sauces, on réserve généralement les centrales « tout air » aux locaux où les besoins en air neuf sont très importants, c’est à dire des locaux à grande densité d’occupation : des salles de réunion, des salles de conférences, … Un autre cas de figure est celui des bâtiments où les besoins de refroidissement sont faibles et bien maitrisés (par des superficies vitrées réduites, des protections solaires extérieures,…)

Dans ces cas, le débit de ventilation hygiénique se rapproche du débit thermique nécessaire …

De plus, la technique du « débit d’air variable » permet aujourd’hui de limiter le coût du transport de l’air et surtout d’adapter le débit en fonction des besoins de chaud ou de froid nécessaire.

Gros avantage du « tout air » sur le plan énergétique : pour les locaux qui doivent être refroidis en mi-saison et éventuellement même en hiver, de l’air frais extérieur gratuit est disponible. On parle alors de « free cooling mécanique ».

Famille  2 : les installations décentralisées « sur boucles d’eau »

Ici, les fonctions sont séparées :

  • L’air neuf hygiénique est traité en centrale, puis apporté dans les locaux au moyen d’un réseau de conduits.
  • La chaleur et le froid sont apportés vers des unités de traitement terminales situées dans les locaux, via une boucle d’eau chaude et une boucle d’eau froide ou d’eau glacée.

Comme unités terminales, on retrouve les ventilo-convecteurs, les pompes à chaleur sur boucle d’eau, les plafonds rafraîchissants, …
Trois problèmes sont résolus

  1. Seul de l’air neuf est véhiculé, limitant ainsi le risque hygiénique lié au recyclage partiel de l’air vicié (en quelque sorte, il s’agit d’une ventilation « double flux », améliorée par un traitement central en température et humidité).
  2. L’encombrement est limité puisque l’eau transporte de la chaleur (ou du froid) avec 3 000 fois moins de volume que l’air. De simples tuyauteries suffisent. En rénovation de bâtiments, on évite ainsi le percement des parois pour insérer des gainages d’air de grandes dimensions…
  3. Le transport de la puissance frigorifique ou calorifique se fait par l’eau, au moyen d’une pompe dont la consommation sera nettement moins consommatrice que le ventilateur correspondant au système « tout air ».

Cette séparation entre la ventilation et l’apport thermique au local est de plus un gage de bonne régulation.

Le mode de régulation de la température peut se faire local par local et est très accessible à l’utilisateur, ce qui est un confort apprécié. Une liaison par bus de communication des différentes unités terminales est possible, ce qui permet une régulation et une gestion globale de qualité par la GTC (Gestion Technique Centralisée).

Famille 3 : les appareils travaillant en « détente directe »

On retrouve dans cette famille les climatiseurs, armoires de climatisation, roof-top,… mais ces appareils ne peuvent résoudre qu’un problème de climatisation limité à un ou quelques locaux : la climatisation d’une salle informatique, d’une cafétéria, d’un hall d’atelier, … par exemple. On les retrouve dans des bâtiments qui ne sont pas munis de production centrale de froid, dans des ajouts de locaux ou dans les cas où il faut assurer en secours du froid pour une fonction vitale (ex : central téléphonique).

La consommation spécifique de ces appareils est plus élevée que dans une unité terminale d’une installation centralisée (ventilo-convecteurs, par exemple), suite au fait qu’ils travaillent avec une température d’évaporation très basse, entraînant une consommation parasite par déshumidification exagérée de l’air. Par contre, ils ne demandent pas le maintien de réseaux d’eau froide durant tout l’été et la mi-saison, ce qui est appréciable.

Un seul type de système peut climatiser l’ensemble d’un immeuble de bureaux, c’est le système dit « à Débit Réfrigérant Variable » (ou DRV). Il est souvent connu par les appellations VRV ou VRF, selon les constructeurs. Sa particularité est de véhiculer du fluide frigorigène dans les différents locaux et d’alimenter directement des échangeurs situés en allège ou en faux plafond. Suivant les besoins du local, l’échangeur peut fonctionner en mode froid (il est l’évaporateur de la machine frigorifique) ou en mode chaud (il est le condenseur de celle-ci). À noter le faible encombrement qu’il entraîne, puisqu’aucune chaufferie n’est ici nécessaire.

Il n’utilise aucun fluide intermédiaire (air ou eau). De là, le terme d’appareil à « détente directe » : l’échangeur « froid » est parcouru directement par le fluide frigorigène. Cette caractéristique est performante au niveau énergétique puisque le coût du transport de l’énergie frigorifique est évité. De plus, les systèmes à fluide réfrigérant variable permettent de récupérer la chaleur entre les zones chaudes et les zones froides du bâtiment.

Comme dans les systèmes air-eau, le mode de régulation de la température se fait local par local et est très accessible à l’utilisateur (généralement une télécommande).

Le problème du traitement de l’air hygiénique subsiste : il n’existe pas de chaudière ou de groupe frigorifique disponibles en centrale pour préparer l’air hygiénique. Des solutions décentralisées sont possibles avec un moindre confort.

Concevoir

Pour plus de détails, on peut consulter le choix d’un système à débit de réfrigérant variable.

Les solutions les plus courantes

La solution « standard » : le ventilo-convecteur

Photo ventilo-convecteur.

  • Partons du système le plus utilisé pour un immeuble de bureaux : le ventilo-convecteur sur une boucle d’eau froide et une boucle d’eau chaude (système appelé « ventilo-4 tubes »).Il a pour avantages :
    • une très grande souplesse de réaction face aux variations de charges,
    • un faible encombrement,
    • une possibilité d’accepter des charges différentes d’un local par rapport à un autre,
    • une séparation entre l’apport d’air frais hygiénique et l’apport thermique, ce qui supprime tout recyclage de l’air hors du local,
    • un prix d’investissement limité grâce à un équipement fabriqué en grande série.On sera attentif à la qualité lors de sélection du matériel et lors de la réalisation de la distribution d’air neuf (confort thermique et acoustique).
  • Si le bâtiment est très homogène dans ses besoins (« quand c’est l’hiver, c’est l’hiver pour tous les locaux ») on se contentera d’un « système à 2 tubes », moins coûteux : un seul réseau de tuyauterie véhicule alternativement de l’eau chaude en hiver et de l’eau froide en été. Mais cette solution devient de plus en plus difficile à appliquer : l’enveloppe du bâtiment étant de mieux en mieux isolée, certains locaux plus chargés en apports internes seront demandeurs de froid, même en hiver.
  • En rénovation, pour vaincre des charges d’équipements devenues inconfortables, on peut greffer une installation 2 tubes froids (« Hydrosplit »), sur la production de chauffage existante.

Le plafond froid

Photo plafond froid.

  • La technique des plafonds froids apporte un confort thermique et acoustique inégalé (moyennant un éventuel supplément de prix) : le froid est apporté par rayonnement au-dessus de la tête des occupants et aucun ventilateur ne vient perturber l’ambiance. Mais la puissance de refroidissement des plafonds est limitée. Cette technique ne s’appliquera dès lors qu’avec des bâtiments dont la conception limite les apports solaires : bâtiments avec ombre portée, stores extérieurs, stores intérieurs combinés à des vitrages performants,…
  • Le plafond froid sera d’ailleurs facilement intégré lors de la rénovation d’un bâtiment existant dont les charges sont légères et qui dispose déjà d’une installation de chauffage.
  • On pourra utiliser des poutres froides complémentaires si la puissance frigorifique souhaitée n’est pas atteinte, mais au détriment du confort aéraulique comme souvent dans les solutions dynamiques (risque de courants d’air froid).
  • Reste le problème de l’apport de chaleur en hiver. En construction nouvelle, si le bâtiment est bien isolé, la demande de chaleur en hiver est limitée.
    Il est envisageable d’apporter cette chaleur :

    • soit en alimentant en eau chaude les plafonds situés près des façades (près des baies vitrées),
    • soit via un circuit de radiateurs complémentaire,
    • soit grâce à des batteries terminales placées sur le conduit de ventilation hygiénique (si le débit de celui-ci est suffisant).

La solution spécifique pour les locaux à forte occupation : la centrale « tout air » à débit variable (VAV)

Photo centrale "tout air" à débit variable (VAV).

Le problème se pose tout autrement si une présence humaine nombreuse est prévue. Alors que l’on prévoit 12 m² par personne dans un bureau individuel ou 8 m²/pers dans un bureau paysager, ce ratio descend à 2 à 4 m²/pers dans une salle de réunion, voire 1 à 2 m²/pers dans une salle de conférence. Puisque chaque personne nécessite 30 m³/h, un réseau d’air neuf important sera nécessaire. On pense dès lors à profiter de ce réseau pour apporter les calories et frigories requises.
Un bilan s’impose :

  • Si le bâtiment présente des besoins limités (bien isolé du froid extérieur et bien protégé des apports solaires), le débit d’air hygiénique élevé pourra apporter les besoins thermiques. On parle d’un système « tout air ».
Exemple.
Soit un local de réunion assez dense : 2 m²/pers.
Réalisons le bilan des apports :
éclairage : 12 W/m²
personnes : 80 W pour 2 m² = 40 W/m²
total : 52 W/m²
Réalisons le bilan du refroidissement par le débit d’air hygiénique : débit : 30 m³/h/pers pour 2 m² = 15 m³/h/m²
puissance de refroidissement : 15 m³/h/m² x 0,34 Wh/m³K x 8 K = 41 W/m²
On voit qu’en poussant un peu le débit d’air, on peut facilement vaincre les 52 W/m² de chaleur.
  • Dans le cas où le local est soumis à des apports solaires supplémentaires, les débits nécessaires pour les besoins thermiques dépasseront de loin le débit d’air hygiénique, l’encombrement sera très important, un recyclage de l’air devra être organisé… Le système « tout air » devient inadapté.

Vu le coût d’exploitation du transport par air (coût de fonctionnement des ventilateurs), un système d’adaptation du débit d’air aux besoins réels sera prévu (système VAV, Volume d’Air Variable). Le débit maximal ne sera pulsé que dans les situations extrêmes. Mais ce système est coûteux et la mise au point de sa régulation est plus délicate.

Un grand avantage pourtant de ce système « tout air » est de pouvoir profiter d’un refroidissement gratuit par de l’air extérieur en mi-saison (free cooling diurne).

Un outsider possible pour certains bâtiments : le DRV, Débit de Réfrigérant Variable

Photo DRV, Débit de Réfrigérant Variable.

Quelques réflexions peuvent se faire :

  • Le souci de modularité dans la construction des bâtiments nouveaux entraîne faux plafond, cloisons légères, … Cette caractéristique de construction sans inertie, alliée à la présence généralisée de moquette au sol, entraîne une très grande variabilité des besoins dans le temps : il faut réchauffer le bâtiment au matin, mais le fonctionnement de la bureautique et le premier rayon de soleil entraîne un besoin de refroidissement à midi !
  • Les bâtiments nouveaux sont parfois confrontés à des besoins simultanés de chaud et de froid :
    • exemple 1 : en hiver, chauffage des locaux en périphérie et refroidissement du cœur du bâtiment,
    • exemple 2 : en mi-saison, au matin, chauffage des locaux à l’Ouest et refroidissement des locaux à l’Est déjà soumis au rayonnement solaire,
    • exemple 3 : chauffage de l’air hygiénique et refroidissement des locaux.
      Il est dommage de voir simultanément des chaudières fonctionner, ne fut-ce que pour préchauffer l’air hygiénique, et des condenseurs évacuer dans l’air extérieur la chaleur excédentaire des locaux refroidis…
  • Pourquoi passer par un fluide intermédiaire (eau ou air) et ne pas travailler directement avec le fluide frigorigène qui peut apporter chaleur ou refroidissement par simple inversion du cycle ?

Par ailleurs, la technique du « fluide réfrigérant variable » semble performante pour des locaux dont les besoins sont très variables entre eux et dans le temps. Par exemple, en hiver, un échangeur dans le faux plafond devient évaporateur lorsqu’il est placé dans un local central et condenseur lorsqu’il est dans un local en façade. Et ce même échangeur bascule en évaporateur en été.

Reste le problème d’apport de l’air neuf hygiénique et le contrôle du taux d’humidité en hiver. Ce système ne le prévoit pas.
Il faut alors :

  • Soit prévoir un caisson de préparation de l’air indépendant, mais on ne dispose pas de source de chaleur puisque pas de chaudière…
  • Soit intégrer l’air neuf dans les échangeurs intérieurs et laisser à l’unité terminale le soin de préparer la température adéquate, mais on ne gère pas le problème de l’humidité de l’air des locaux.

Un avantage de ce type d’installation : c’est une solution « tout électrique », ce qui simplifie et accélère la construction. On veillera cependant à en limiter la puissance électrique (gestion de la pointe de puissance par délestage ou par stockage de froid la nuit).

Quel que soit le système choisi…

C’est très souvent la qualité du projet qui fait la différence :

  • dimensionnement correct (absence de courant d’air, limitation du bruit,…),
  • finesse de la régulation des équipements,
  • performance des moyens de gestion qui pilotent le tout.

Ce sont les 10 % de budget supplémentaire qui feront souvent la performance globale…

Choisir l’emplacement des émetteurs de refroidissement

Le confort lié à la distribution de l’air et de la chaleur

L’emplacement de l’unité intérieure conditionne fortement le confort des occupants. La difficulté est renforcée par le fait que le confort doit être assuré autant en mode « chauffage » qu’en mode « refroidissement ». Les mouvements de l’air dans les locaux sont conditionnés par la disposition des bouches de soufflage et de reprise par rapport à l’emplacement des occupants. Notons que certaines cassettes plafonnières régulent automatiquement la direction du flux suivant le mode fonctionnement chaud ou froid.

Le dimensionnement doit alors faire apparaître que la zone d’occupation du local n’est pas perturbée par le jet d’air.

La zone d’occupation du local est limitée dans les recommandations EUROVENT.

En pratique, la vitesse résiduelle du jet d’air dans la zone d’occupation devrait se situer entre 0,15 et 0,2 m/s. Si elle atteint 0,25 m/s, il y aura inconfort des occupants.

Disposition en allège

Si l’emplacement est en allège, la stratification de la température de l’air est limitée et le rayonnement froid du vitrage en hiver est diminué.

climatiser_local_35.gif (6397 octets)

Cette disposition impose qu’en mode « refroidissement », personne ne se trouve à proximité immédiate de la bouche de soufflage.

On rencontre deux cas de figure : soit l’échangeur est placé « complet » avec son habillage, soit il est « nu » et intégré dans un caisson en allège. La première solution apporte beaucoup de garanties de qualité, car le fabricant a testé son matériel et peut en garantir les performances. Mais l’architecte préfère de loin la deuxième formule, pour l’esthétique globale du local et pour la possibilité de dissimuler câbles et tuyauteries dans l’allège ! Les problèmes qui se posent alors sont liés à l’interface entre l’échangeur et la grille du caisson : des remous modifient les jets d’air et créent un inconfort acoustique. Il est donc important soit de remonter l’échangeur pour qu’il affleure la grille, soit de prévoir un manchon de raccord entre ventilo et grille.

De même, on évitera les tablettes, rideaux, … qui peuvent entraver une diffusion correcte de l’air.

Exemple de ventilo-convecteur en allège.

Disposition en faux plafond

Paradoxalement, c’est lorsque soufflage et reprise sont proches l’un de l’autre que le brassage de l’air du local est le meilleur. Mais cette distribution horizontale de l’air peut poser beaucoup de difficultés, surtout si l’on souhaite faire varier le débit d’air. Le choix de la grille sera déterminant. On adopte généralement des grilles linéaires ou des grilles à rouleaux dont on recherche l‘effet Coanda le long du plafond. Mais à faible vitesse, la veine d’air risque de se décoller du plafond et de faire retomber un air trop froid sur les occupants.

En faux plafond, il est sans doute préférable d’imposer une vitesse constante (en l’imposant à la régulation centrale). Ce qui n’est acoustiquement et énergétiquement pas optimal. Permettre à l’occupant de modifier la vitesse de distribution de l’air sous-entend de reporter la commande sur une paroi du local, ce qui est coûteux à l’investissement.

Certains appareils modifient le jet en fonction de la température de l’air soufflé.
À noter enfin que lorsque l’échangeur est placé en faux plafond, on aura tendance a insérer l’apport d’air neuf dans le plénum constitué par ce faux plafond. L’échangeur aspire un mélange d’air du local et d’air neuf. Or, l’air neuf devant être pulsé en permanence, il faudra toujours maintenir une vitesse minimale à l’échangeur.

Disposition en faux plafond avec gainages de distribution

C’est un appareil dont le raccordement est prévu via des gaines de distribution vers différentes grilles de pulsion. Cela améliore le confort (meilleure diffusion de l’air, diminution du bruit, …).

Mais les pertes de charge sont plus élevées et la consommation électrique du ventilateur augmente, tout particulièrement si les gaines de distribution d’air sont longues et terminées par des bouches linéaires.

Disposition au plafond, en apparent ou en imposte

Ce n’est pas idéal au niveau confort thermique. En mode « froid » et à basse vitesse, le jet risque de tomber et de provoquer une sensation d’inconfort désagréable. Ce risque est renforcé si la température de la boucle d’eau glacée est choisie très basse lors du dimensionnement (régime 7° – 12°C, par exemple, plutôt que 12° – 17°C). On peut diminuer cet effet, lors du dimensionnement de l’équipement, en calculant le ventilo sur base de la vitesse moyenne et en recherchant à valoriser à ce moment l‘effet Coanda.

Disposition en faux plancher

La distribution et l’émission peut également être disposée dans le faux plancher.

Disposition dans un local technique indépendant

Pour l’organisation de la maintenance, il peut être plus aisé de disposer toutes les unités terminales dans un local technique, et de les relier chacune à son local par une gaine spécifique.

On parle alors de Module de traitement d’air, qui peut être vu comme un ventilo-convecteur délocalisé.

Coupe à l’intérieur du module de traitement d’air.

En aval, ils sont alimentés en air neuf prétraité, en eau glacée et éventuellement en eau chaude.

En amont, ces caissons sont prolongés par des gaines pour alimenter les diffuseurs d’air dans les locaux (ces diffuseurs assurent aussi bien la pulsion que la reprise).

Le principe de fonctionnement est donc fort proche de celui des ventilo-convecteurs. Mais en plus, il apporte une flexibilité totale s’adaptant très bien aux bâtiments modulaires dont on voudrait pouvoir modifier les cloisons ultérieurement.

Le coût d’installation fort élevé entraîne le besoin d’une évaluation de la rentabilité de ce système sur le long terme.

Un module de traitement d’air traite un local.

Vue du local technique où sont rassemblés les MTA d’un étage, par exemple.


L’évacuation des condensats

La température d’évaporation (en mode froid) d’un système DRV ou d’un climatiseur est inférieure à la température de rosée de l’eau contenue dans l’air, il y a alors condensation sur les ailettes. Des condensats apparaissent également sur les échangeurs à eau glacée des ventilo-convecteurs ou poutres froides.

Ces condensats doivent être évacués. En fonction de l’emplacement de l’appareil, ceci pourra s’effectuer par écoulement naturel ou au moyen d’une pompe de relevage. Celle-ci, si elles ne sont pas intégrées dans la cassette peuvent engendrer du bruit. Dans la mesure du possible, il faut essayer de ne pas sacrifier le confort pour faciliter l’évacuation.

A priori, l’évacuation pour un appareil en plafond dispose de plus de pentes qu’en allège, mais la présence de poutres perpendiculaires au chemin probable d’évacuation peut rendre les choses plus difficiles…

Exemple du DRV : Les condensats sont extraits de l’air ambiant lors du fonctionnement de l’échangeur en mode « froid ». Ainsi, lorsque l’appareil détecte une humidité trop importante dans le local, il descend la température du fluide frigorigène sous le point de rosée de l’ambiance. La distance entre ailettes étant de 2 mm, le bypass factor est très faible. L’air du local condense et ressort à 95… 98 % d’humidité relative.

D’après un constructeur :

  • la consommation de l’appareil est de 85 % en chaleur sensible en mode refroidissement (et donc 15 % pour la déshumidification),
  • elle descend à 50 % en chaleur sensible lors d’un fonctionnement en mode déshumidification.

La technique de la température variable fait qu’il est possible de faire varier la proportion entre chaleur sensible et latente dans le traitement de l’air en mode froid.


La facilité de maintenance

Il ne faut pas non plus oublier que le ventilo doit s’intégrer dans l’esthétique générale du local et que sa facilité d’accès déterminera en partie son coût d’entretien et le coût du service après-vente.

Il est certain que les appareils en allège sont de ce point de vue nettement préférable à ceux en faux plafond.

On sera attentif à ce que les appareils en faux plafond disposent d’une ouverture prévue par le dessous (point surtout critique pour les appareils gainables). Certains appareils sont pourvus de filtres autonettoyants facilitant ainsi l’entretien.

Synthèse

Avantages

Configurations

 Inconvénients

  • distribution optimale de l’air,
  • bruit réduit,
  • faux plafond mis à profit,
  • multiplicité des combinaisons.

  • risque de court-circuit de l’air pulsé et repris,
  • difficulté de respecter le confort à vitesse réduite.

  • distribution optimale de l’air,
  • bruit réduit,
  • faux plafond mis à profit.

  • difficulté d’évacuation des condensats (nécessité d’une pente),
  • difficulté de respecter le confort à vitesse réduite.

  • fonctionnement correct en chauffage et refroidissement.

  • risque de court-circuit si vitesse de soufflage trop faible,
  • encombrement au sol,
  • difficulté d’évacuation des condensats (nécessité d’une pente).

  • fonctionnement correct en chauffage et refroidissement.

  • risque de court-circuit si vitesse de soufflage trop faible
  • esthétique
  • difficulté d’évacuation des condensats (nécessité d’une pente).

Pour en savoir plus :

Techniques

Le ventilo-convecteur

Techniques 

L’éjecto-convecteur

Techniques 

La poutre froide

Techniques 

Le climatiseur de local

Techniques 

Le système DRV

Système de refroidissement [Concevoir l’avant projet ]

Système de refroidissement


Stratégie de choix

Un système technique, notamment de refroidissement, ne devrait pas se choisir uniquement sur base de critères technologiques et économiques, même s’ils sont essentiels. Le choix doit intégrer toute la complexité du bâtiment, son programme, ses besoins énergétiques de chaud et de froid, son site, son occupation,…

Pour s’y retrouver, il est nécessaire de se donner une stratégie. Un exemple de stratégie de choix peut être d’identifier des groupes de critères jugés prioritaires sur base desquels faire une première sélection peut s’effectuer. Par exemple, dans une approche orientée vers la performance énergétique, on mettra en avant les critères liés :

  • Aux propriétés thermiques et constructives du projet :
    Quelle est l’inertie du bâtiment ? Quelles sont les puissances demandées et les besoins d’énergie en chaud et en froid, en fonction des charges internes et solaires, des performances de l’enveloppe ? Quels sont les débits d’air hygiéniques ? Quelle est la modularité envisagée (possibilité de modifier fréquemment les cloisons) ?
  • Aux ressources énergétiques disponibles sur le site :
    Dans notre climat, un bâtiment peut être rafraîchi la plus grande partie de l’été en ventilant naturellement le bâtiment par de l’air extérieur. Si le site est trop bruyant ou pollué, une ventilation mécanique adaptée utilisée en mode free cooling sera également efficace. L’air extérieur peut en outre être rafraichi par des aménagements paysagers (parcs, bassins) ou technologiques (humidification). Si l’air extérieur reste malgré tout chaud la journée, la température nocturne tombe suffisamment pour permettre de décharger la chaleur accumulée à l’intérieur. Si l’air extérieur n’est pas valorisable sur le site du projet, peut-être une ressource hydrique l’est-elle (sans aller jusqu’à solliciter la nappe phréatique, un étang par exemple constitue une masse d’eau fraiche impressionnante) ? La capacité thermique du sol peut également être sollicitée, si sa composition permet des forages à un coût raisonnable.
  • Au profil de l’occupant :
    Selon qu’il souhaite ou non avoir un rôle actif dans la conduite du bâtiment, les choix techniques ne seront pas les mêmes. Est-il disposé à ouvrir ses fenêtres en été ? Les choix dépendront également des profils d’occupation : sont-ils stables ou variables ? Enfin, les attentes de confort sont un critère majeur : les occupants exigent-ils une température constante réglable selon leurs envies, ou sont-ils prêts à accepter une évolution raisonnable, mais moins maîtrisée des conditions intérieures ?

Une fois que l’on s’est donné une liste de critères principaux, il faut faire l’inventaire des choix possibles, et s’orienter vers celui qui offre la meilleure performance énergétique. Cette première sélection doit ensuite être discutée sur base des autres critères : impact financier, contraintes d’entretien, risque de nuisance acoustique, etc.

Choisir une production de froid « alternative » (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)

Choisir une production de froid "alternative" (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)


Quand opter pour un freechilling ?

Le free-chilling consiste à refroidir l’eau glacée de l’installation frigorifique par « contact » avec l’air extérieur lorsque la température de celui-ci est suffisamment basse.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.
L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liées à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17 ° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12 ° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • Attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

 Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.

Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Quand opter pour un refroidissement adiabatique

Le refroidissement adiabatique permet de rafraîchir de l’air en centrale par humidification. Cet air humide et frais est ensuite utilisé directement dans l’ambiance ou indirectement par un échangeur de chaleur.

Ce système basé sur des équipements existants (groupe de ventilation, tour de refroidissement) apporte un rafraichissement naturel bienvenu lorsque des techniques plus « lourdes » (fenêtres motorisées, etc.) ne peuvent être mises en œuvre. Il peut également servir d’appoint à ces techniques passives lorsque celles-ci ne suffisent plus à assurer le confort.

Le refroidissement adiabatique a cependant une efficacité limitée à trois niveaux,

  • comme tout système de transfert thermique basé sur l’air, la faible capacité calorifique de l’air bride la puissance disponible. Des débits d’air importants sont nécessaires pour que le refroidissement soit réellement sensible.
  • La température minimale à laquelle l’air peut être abaissé est la température de bulbe humide, qui correspond à la saturation. Cette température est plus élevée que celle obtenue par une machine frigorifique « classique ».
  • Le système ne fonctionne que lorsque l’air que l’on souhaite humidifier est suffisamment sec que pour présenter un potentiel de rafraichissement intéressant. Si c’est de l’air intérieur, le refroidissement adiabatique sera plus pertinent dans des locaux faiblement occupés (moins de dégagement d’humidité dans l’ambiance). Si c’est de l’air extérieur, le système ne sera pas très efficace les jours chauds et humides.

La figure ci-dessous montre, heure par heure, les conditions climatiques d’Uccle, et la zone de conditions T° et Humidité favorable à un système évaporatif direct. A l’évidence, notre climat humide n’est pas le plus favorable pour cette technique.

Elle n’est pas pour autant à dédaigner complètement. Considérons par exemple un air extérieur à 22 °c et 60 % d’humidité relative, une condition qui n’a rien d’exceptionnel en été. Pour peu qu’il y ait un peu de soleil, beaucoup de bâtiments seront en demande de refroidissement. Par humidification, cet air peut être  abaissé jusqu’à environ 17 °C. Ce gain de 5 °C, sur un débit d’air hygiénique d’environ 3 m³/(hm²) dans des bureaux représente 5 W/m² de puissance frigorifique. C’est presque équivalent à la chaleur dégagée par les occupants (70 W/personne, 10 à 15 m²/personne). C’est peu, mais non négligeable.

Quand donc opter pour ce type de système ?

Dans notre climat, un refroidissement adiabatique direct est limité par l’humidité extérieure, et surtout d’une efficacité très variable en fonction de la météo.  On évitera donc de se fier uniquement sur eux pour traiter une ambiance. Par contre, sa simplicité fait qu’il trouvera presque toujours une place en complément de stratégies de refroidissement sur boucle d’eau.

Les systèmes indirects, basés sur l’humidification de l’air extrait, seront pertinents lorsque l’air extrait peut être fortement refroidi. Pour cela, il faut qu’il ne soit ni trop chaud, ni trop humide. La condition « pas trop chaud » fait penser à des locaux disposant déjà d’un système de refroidissement  par boucle d’eau. On est alors sur de plafonner à 24-25 °C. La condition « pas trop humide » se rencontre lorsque la surchauffe du local est liée à des gains solaires et internes sans dégagement d’humidité. Autrement dit dans les locaux dont l’occupation humaine est relativement limitée. Problème : dans ces cas-là, le débit d’air a tendance à l’être aussi, ce qui limite la puissance disponible. Faut-il surdimensionner le réseau de ventilation ? C’est un calcul économique à réaliser au cas par cas.

En conclusion, le refroidissement adiabatique apparait chez nous comme un appoint intéressant à d’autres systèmes plus que comme une technique autonome de refroidissement.

Et si on reformulait les objectifs de la conception des bâtiments de façon à atteindre un niveau de maîtrise des charges thermiques au point de rendre cet appoint suffisant ?

Techniques

Pour en savoir plus sur le refroidissement adiabatique, cliquez ici !

Concevoir

Pour en savoir plus sur la façon de valoriser la physique de l’air humide, cliquez ici !

Quand opter pour une climatisation solaire ?

La climatisation solaire est une technique basée sur l’utilisation de machines frigorifiques à ab/adsorption  ou de roues dessicantes. L’énergie solaire sert alors de source de chaleur pour régénérer le sorbant.

Dans le cas des machines frigorifiques à adsorbtion, la possibilité d’utiliser le soleil pour cet usage est limité par la demande d’une température d’eau minimale qui se situe entre 70 et 95°C en fonction du couple solvant-réfigérant. Dans les roues dessicante, cette température est également supérieure à 70°C. Pour atteindre cette température, l’emploi de capteurs performants est indispensable (sélectifs, sous vide, à faible concentration), ce qui induit un coût d’investissement assez important.

Il faut aussi tenir compte de ce que, en l’absence de soleil, si les besoins de froid sont toujours présents, une autre source de chaleur doit prendre le relais. L’intérêt de la machine frigorifique à absorption couplée avec des capteurs solaires doit donc être évalué sur base d’une moyenne annuelle, en tenant compte des heures d’ensoleillement exploitables. Cette évaluation dépend de nombreuses valeurs à estimer :

  • rendement de la chaudière ;
  • rendement de la machine frigorifique à absorption ou des différents échangeurs de la roue dessicante ;
  • proportion de la demande de froid qu’on peut produire avec l’énergie solaire (X) qui dépend du nombre d’heures d’ensoleillement exploitables ;
  • rendement moyen de la production électrique en centrale ;
  • COP de la machine frigorifique à compression.

Avec les hypothèses prises dans le schéma ci-dessus, le bilan au niveau de la consommation d’énergie primaire est favorable au système de refroidissement solaire si au moins 51 % de la demande de froid peut être satisfaite par l’énergie solaire. Pour évaluer la rentabilité économique du système, il faudrait tenir compte des prix de l’énergie et des coûts d’investissement.

Est-il envisageable d’atteindre ce ratio ? A priori non : dans notre climat peu ensoleillé, les surchauffes sont en grande partie liées aux dégagements intérieurs de chaleur. Encore plus si le bâtiment est équipé de protections solaires.

Faisons l’exercice inverse : pour que la climatisation solaire soit pertinente, il faudrait que :

  • Les locaux soient peu sujets à des gains internes : des grands espaces peu occupés.
  • Les locaux soient sujets à une surchauffe au moment où le soleil brille : donc des espaces qui présentent une faible inertie thermique.
  • Les locaux disposent d’une stratégie alternative lorsque cette surchauffe apparait pour un ensoleillement moyen (en mi-saison, quand la température dans le capteur ne sera pas suffisante) : locaux que l’on peut ventiler intensivement en été.

Cela pourrait nous faire penser à des espaces d’exposition, pour autant que l’éclairage artificiel n’y représente pas une charge trop importante, ou à des atriums. On le voit, la climatisation solaire doit, chez nous, être considérée comme un produit de ‘niche’, pour lequel une étude technico-économique détaillée est indispensable.

Techniques

Pour en savoir plus sur les machines frigorifiques à ad/absorption

Techniques

Pour en savoir plus sur les roues dessicantes

Quand opter pour un geocooling ?

Le geocooling est une technique de valorisation de la fraicheur du sol grâce à un réseau véhiculant un fluide caloporteur. En principe, le champ d’application du geocooling est large. Tout bâtiment qui présente un besoin de froid pourrait théoriquement en bénéficier, quitte à compléter cette source d’un appoint par une machine frigorifique plus traditionnelle.
Les limites d’utilisation du geocooling seront :

  • Réglementaires : les forages doivent faire l’objet d’une demande de permis unique en Région Wallonne, pour laquelle il faut fournir notamment une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère, la description des méthodes de forage et les équipements du puits avec coupe technique, un rapport technique sur la nature de la nappe aquifère éventuelle et un plan de situation des puits. Le sens de cette demande de permis est bien évidemment d’éviter tout risque de pollution d’une nappe aquifère, ce qui peut limiter le développement de cette technologie dans certaines zones sensibles.
  • Technologiques : Décharger d’année en année une quantité d’énergie dans le sol mène à son échauffement progressif. Il en découle une perte de performance liée à des moindres écarts de température entre le sol, la boucle d’eau et le bâtiment. On privilégiera donc le geocooling dans les situations où le sol est également utilisé comme source de chaleur en hiver (géothermie), t en particulier lorsque les besoins de chauffage et de refroidissement du bâtiment sont dans une certaine proportion. Puisqu’en géothermie l’énergie utile (la demande de chaud) = l’énergie extraite du sol + l’énergie consommée au compresseur de la pompe à chaleur, alors qu’en geocooling, l’énergie utile (la demande de froid) = l’énergie injectée dans le sol, on déduit que le geocooling sera particulièrement pertinent lorsque la demande de froid = la demande de chaud / (1-(1/COPpac)). Autrement dit, si on considère qu’une pompe à chaleur à un COP de l’ordre de 4, il faut que les besoins de froid soient environ 133 % des besoins de chaleur.

Schéma évolution de la température du sol sur 20 ans.

Simulation de la température d’un sol dont on retire du froid chaque été. Après 240 mois (20 ans), la température moyenne a grimpé de 3°C, rendant difficile la production d’eau froide à destination du système de climatisation du bâtiment.

  • Économiques : La pertinence économie qu’un geocooling dépend de la nature du sol et de l’équilibre entre besoins de chaleur et de froid. Pour ce qui est de la nature du sol, il est évident qu’un forage dans une roche demandera un investissement plus important qu’un forage dans du sable. Certains sols offrent également une plus grande diffusivité thermique, ce qui améliore leur rôle de tampon thermique. Un test de réponse thermique (TRT) permet de chiffrer la qualité d’un sol relativement à des applications thermiques. L’équilibre chaud-froid dans les proportions discutées au point précédent permet de limiter le recours à des technologies d’appoint (chaudière ou machine frigorifique à compression) pour valoriser au maximum l’investissement fait au niveau du forage.

Pour illustrer tout cela, voici un exemple de bilan réalisé pour un bâtiment de bureaux (source : MATRIciel sa). Il s’agit de la comparaison entre la géothermie/geocooling et des installations de production traditionnelles, pour plusieurs combinaisons d’enveloppe (coefficient de déperdition des murs de 0,2 à 0,4 W/m²K et facteur solaire des vitrages de 22 à 39 %). Certaines combinaisons ne sont pas possibles si on désire installer une géothermie, car elles entraînent un trop grand déséquilibre entre les besoins de chauffage et de refroidissement et donc une mauvaise dynamique du sol d’une saison à l’autre. Dans ces cas, la stabilité de la température du sol à long terme n’est pas garantie. Globalement, lorsqu’elle est possible, la valorisation du sol permet une division par 2 des émissions de CO2 et une économie d’un tiers de l’énergie primaire liée au chauffage et refroidissement. Mais, on constate que la combinaison qui minimise la consommation d’énergie primaire pour des techniques traditionnelles ne permettait pas, pour ce cas-là, d’opter pour le geocooling ! Même si cela peut paraître paradoxal, il est alors préférable d’aller un peu moins loin dans la réduction des besoins (de froid dans ce cas-ci) pour rendre possible l’investissement dans une technique qui minimisera l’impact global du bâtiment.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Techniques

Pour en savoir plus sur les techniques de geocooling, cliquez ici !

Influence du régime de température

Le régime de température d’un système de climatisation influence directement la quantité d’énergie produite en valorisant la fraicheur de l’environnement. À titre d’exemple, le tableau suivant reprend les gains énergétiques potentiels par free-chilling et par géocooling qui ont été simulés en fonction du régime de température, pour un bâtiment de bureaux nécessitant 302 MWh de besoin en froid.

  Géocooling
Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 33% 66% 75%

Free-chilling

Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 0.5% 8.6% 15.5%

Le géocooling consiste à refroidir directement l’eau avec le sol, la température du sol  doit donc être inférieure à la température de départ de l’eau. Dans cette exemple, le choix d’un régime 17-19 °C au lieu de 9 °C – 14 °C permet bénéficier de 2 fois plus d’énergie gratuite et d’ainsi couvrir 75 % des besoins en froid du bâtiment !

Pour un régime de température de 9 °C – 14 °C, l’utilisation d’énergie gratuite de l’air est quasi nulle (0.5 % de la consommation annuelle).  Dans cet exemple, l’augmentation du régime de température de 2 °C (17-19 au lieu de 15-17) permet d’utiliser 1.8 fois plus d’énergie gratuite.

En outre, un régime plus élevé diminue fortement le risque de condensation et peut permettre de se passer de la déshumidification de l’air. Il est dès lors possible d’utiliser des émetteurs de types plafond froid.

Géothermie et géocooling [Climatisation]

Géothermie et géocooling


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

graphe principe géothermie.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.


3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Analyser les besoins thermiques en fonction du climat

Évolution des besoins selon les saisons

Dès le stade de l’avant-projet, le profil thermique du bâtiment doit être évalué. Une analyse logique, intégrant les spécificités du programme (grand dégagement de chaleur intérieur ou non, large ouverture solaire ou non), permet déjà une première analyse. L’organigramme ci-dessous présente un canevas général pour aider à réaliser cet exercice : au départ des 3 saisons qui caractérisent notre climat, les priorités différentes de conception architecturale et technique sont mises en évidence.

  • En période de chauffe, soit lorsque la température en journée est inférieure au point d’équilibre du bâtiment et qu’il y a peu de soleil, il convient de minimiser à la fois le besoin et la consommation de chauffage. Minimiser le besoin fait appel aux techniques passives d’isolation, compacité, etc. et aux techniques actives de récupération de chaleur et de modulation des débits d’air. Minimiser la consommation passe par le choix d’émetteurs base température et de mode de production efficace.

 

  • En mi-saison, soit lorsque la température extérieure diurne est entre le point d’équilibre du bâtiment et la température de confort, lorsqu’il y a peu de soleil, il est prioritaire de valoriser les sources gratuites de chaleur : gains solaires, même limités, et gains internes. Le transfert d’énergie au sein du bâtiment, par les réseaux de ventilation ou VRV est alors pertinent. En période ensoleillée, c’est la maîtrise des charges solaires qui devient prédominante, pour limiter les surchauffes précoces : gestion des stores et free cooling.

 

  • En été, soit lorsque la température extérieure diurne atteint ou dépasse la température de confort, auquel cas l’ajout des charges internes et solaires crée un besoin de refroidissement, c’est la température nocturne qui deviendra le pivot de la stratégie. Si cette température est basse, la combinaison d’inertie thermique et de free cooling permet de retarder ou d’éviter le recours au refroidissement mécanique. Le dimensionnement et la gestion des réseaux de ventilation est centrale. Le choix de techniques de top cooling est également important. Si la température nocturne reste élevée (canicules), on peut partir de l’a priori qu’un refroidissement mécanique est nécessaire. On veillera alors à maximiser son efficacité, par le choix des températures d’émission et des modes de dissipation de la chaleur (géocooling par exemple).




Simulation numérique

Une fois une première analyse logique et qualitative réalisée, et après une première itération sur  l’architecture et les choix de techniques, une simulation numérique du comportement thermique du projet est à envisager. Les logiciels dits de STD (simulation thermique dynamique) les plus souvent utilisés en Wallonie sont EnergyPlus et Trnsys. Une telle simulation :

  • Fera apparaître les besoins de chaleur et de refroidissement du bâtiment.
  • Évaluera la part de simultanéité de besoins de chaud et de froid dans des locaux différents.
  • Informera de la valeur de la température extérieure au moment où la demande de refroidissement apparaît.
  •   …

Exemple de profil pour un immeuble de bureaux-type, avec locaux de réunion et salle de conférence (l’énergie frigorifique demandée alors que la température est inférieure à 10°C provient du local informatique) :

Cette analyse peut permettre :

  • De préciser les options de l’avant-projet.
  • De prendre en compte le fait qu’une zone demande un refroidissement alors que sa voisine demande du chauffage.
  • De quantifier l’énergie de refroidissement demandée alors que … c’est l’hiver dehors ! (possibilité de free-chilling).
  • D’orienter le choix du système de refroidissement (naturel ou mécanique, à Débit de Réfrigérant Variable,…).
  • De grouper des locaux avec des charges importantes.
Découvrez 3 exemples de bâtiment dont les besoins thermiques ont été intégrés dés l’avant-projet : école passive de Louvain-la-Neuve (premier bilan), école passive de Louvain-la-Neuve (proposition d’équipements), et le projet ECOFFICE.

Refroidissement adiabatique

Refroidissement adiabatique


Principe de base

Le principe est le suivant : si de l’air chaud et sec traverse un filet d’eau, il en provoque l’évaporation. La chaleur nécessaire à la vaporisation d’eau étant extraite de l’air. Celui-ci se refroidit.

Schéma principe de base.

Par exemple, de l’air à 20°C, 30 % HR traversant un nuage d’eau voit sa température atteindre 12°C en se chargeant d’humidité.

Le refroidissement adiabatique peut-être

  • direct : si l’air humidifié soit directement pulsé dans l’ambiance;
  • indirect : si de l’air pulsé ou un réseau d’eau est refroidi par échange avec l’air qui aura été humidifié.

Refroidissement indirect de l’air pulsé

Il existe des échangeurs à plaques dans lequel l’air vicié est refroidi par humidification. Un tel système permet d’exploiter le « pouvoir refroidissant » de l’humidification adiabatique, tout en évitant le problème de l’humidification de l’air neuf.

Photo d’une centrale de refroidissement adiabatique.

L’air vicié et l’air neuf passent dans un double échangeur à plaques. Dans l’échangeur, l’air vicié est humidifié. On combine donc deux phénomènes dans l’échangeur : le refroidissement adiabatique de l’air vicié et le refroidissement au contact avec l’air neuf. Remarquons les volets de by-pass (sur l’air neuf et l’air vicié) permettant une régulation de la puissance échangée.

Actuellement, nous manquons de données neutres pour juger des performances et de l’intérêt énergétique d’un tel équipement. Il semblerait que si l’humidification de l’air vicié est effectuée avant l’échangeur, le refroidissement complémentaire qui en résulte ne soit pas suffisant pour augmenter significativement l’énergie récupérée en période de climatisation. C’est apparemment l’intégration de l’humidificateur dans l’échangeur, qui augmenterait les performances du système. En effet, dans ce cas, l’eau s’évapore dans l’échangeur et refroidit aussi bien celui-ci que l’air vicié. Le fabricant de ce matériel annonce, dans les meilleures conditions, un refroidissement de l’air neuf de 10 °C.

En hiver, avec l’arrêt de l’humidification, on retrouve le fonctionnement d’un groupe « traditionnel » avec échangeur à plaques.


Refroidissement indirect d’un réseau d’eau

Il existe d’autres modes de refroidissement exploitant le principe de l’évaporation de l’eau, notamment associés à des machines frigorifiques avec possibilité de free chilling via aérorefroidisseur ou tour de refroidissement.

Schéma refroidissement indirect d’un réseau d’eau.

Photo d’un refroidisseur adiabatique.

Dans ce processus, quel que soit le mode d’humidification, le principe est toujours le même : les molécules d’eau passent progressivement à l’état de vapeur, provoquant ainsi par évaporation une diminution de la température d’air.

Son efficacité sera accrue si la surface de l’eau est grande, si le débit d’air à la surface de l’eau est important et si la température de l’air est élevée.

Enfin, il est indispensable d’assurer un contrôle et une maintenance très rigoureux des équipements, car :

  • les surfaces humides présentent un terrain favorable au développement des micro-organismes;
  • l’évaporation provoque des dépôts consécutifs à la cristallisation (sels minéraux, carbonates);
  • la ventilation de l’air favorise les dépôts de poussière.

Avantages et inconvénients

  • La solution simple permettant un refroidissement naturel en exploitant des équipements existants : groupe de ventilation, tour de refroidissement, …
  • Mais le pouvoir rafraîchissant est limité.
    • Le refroidissement de l’air est d’autant plus grand que le climat est chaud et sec (un tel système est donc inutile dans les régions où le climat est tropical, c’est-à-dire que l’air chaud est déjà chargé en humidité excessive. Chez nous, on se retrouve entre les deux …
    • Le refroidissement de l’eau ne sera lui possible que pour des températures extérieures typiques de la mi-saison, voire de nuit.
  • On parle donc bien de rafraîchissement et non de climatisation au sens de la fourniture d’une puissance de froid suffisante quels que soient les besoins.
  • Le dispositif ne peut être régulé avec précision, car il dépend de l’hygrométrie extérieure. Il est d’autant plus efficace que le climat est chaud et sec.
  • La consommation en eau non négligeable, nécessite qu’elle soit de bonne qualité pour éviter l’entartrage des tuyauteries, ainsi que les problèmes de légionelles. Pour éviter ce désagrément, un traitement d‘eau est nécessaire. Évidemment, l’utilisation de l’eau de pluie réduit l’impact sur la consommation en eau potable, mais nécessite la garantie du fabricant quant à la résistance de ses équipements.

Régulation

Les éléments qui constituent l’installation : filtres, surpresseur, pressostats de sécurité, pompe, électrovanne, rampes avec buses, échangeur, vannes de purge.

La régulation du refroidissement adiabatique repose principalement sur le contrôle des débits d’air et d’eau.

La régulation pour la ventilation d’air peut être de deux types :

Régulation par étage

Des étages de ventilation s’enclenchent les uns après les autres. Lorsque 100 % de la ventilation est en fonctionnement et que la température extérieure est supérieure à la valeur de consigne d’enclenchement de la brumisation haute pression, une électrovanne s’ouvre et un surpresseur se met en route.

Régulation par variations de fréquence

La variation de vitesse régulera jusqu’à ce que 100 % du débit de ventilation soit en fonctionnement (à 50 Hz l’électrovanne de la rampe s’ouvre et le système adiabatique fonctionne).

La régulation pour le débit d’eau projeté

Un brouillard d’eau efficace offre la plus grande surface d’échange possible avec l’air.
Cette surface d’échange est d’autant plus grande que le nombre de microgouttelettes pulvérisées est important. Pour obtenir un brouillard de qualité, l’eau est donc mise sous forte pression (100 bar) et accumule ainsi, une énergie importante. Le débit d’eau de brumisation est calculé précisément afin d’apporter à l’air la juste quantité d’eau.

 

Roue dessicante


Principe de fonctionnement

Les dispositifs à dessiccation (DEC : Desiccant Evaporative Cooling) sont des systèmes de déshydratation ou de refroidissement de l’air, utilisant de l’eau et une source de chaleur.

Ce procédé repose sur le principe physique suivant : l’évaporation de la vapeur d’eau dans l’air sec réduit la température et augmente l’humidité absolue de l’air.

La dessiccation exploite un double échange de frigories et d’humidité entre les flux d’air entrant (air de process) et sortant (air de régénération) d’un bâtiment. Cette circulation d’air est généralement assurée par une centrale de traitement d’air.

Schéma de fonctionnement d’une centrale d’air à roue dessicante.

Représentation de l’évolution de l’air dans un diagramme de l’air humide.

(1>2) L’air extérieur ou air pulsé (aussi appelé « air de process ») est aspiré au travers d’un filtre, puis traverse la « roue dessicante » ou « roue à dessiccation ». Cet échangeur rotatif contient un produit de sorption solide. Ce dernier absorbe la vapeur d’eau de l’air extérieur par adsorption. L’air extérieur est ainsi déshumidifié et en contreparti, voit sa température augmenter.

(2>3) L’air extérieur est alors refroidi par échange de chaleur avec l’air intérieur extrait ou simplement l’air extrait (aussi appelé « air de régénération »). Cet échange se fait au travers d’un échangeur de chaleur rotatif (non hygroscopique).

(6>7) Pour augmenter l’échange de chaleur et donc le refroidissement de l’air pulsé, on rafraîchit au préalable l’air extrait en l’humidifiant jusqu’à saturation. On abaisse ainsi le plus possible sa température, et on bénéficie au maximum du potentiel de refroidissement dans l’échangeur.

(7>8) en passant au travers de l’échangeur de chaleur, l’air extrait se voit donc réchauffé.

(8>9) Pour pouvoir fonctionner en continu, la roue dessicante doit être régénérée c’est-à-dire que l’humidité doit être évacuée du matériau adsorbant. Pour cela la portion de roue contenant l’humidité doit croiser le flux d’air extrait qui aura été préalablement réchauffé pour atteindre une température suffisante pour vaporiser les molécules d’eau retenues dans les pores de la roue.

(9>10) Enfin l’air chaud traverse et régénère la roue dessicante pour lui permettre de poursuivre le processus continu de déshumidification. Finalement, l’air rejeté, à l’aide d’un ventilateur, sort plus haute en température et plus chargé en humidité que l’air extérieur.

(3>5) L’air pulsé peut encore être arrosé d’eau au travers d’un humidificateur. L’eau va absorber les calories restantes dans l’air avant que celui-ci soit propulsé dans le bâtiment à refroidir par un ventilateur. Cette alternative permet de refroidir l’air pulsé mais pas de le déshumidifier. Pour ce faire, il est alors nécessaire de remplacer cet humidificateur par une batterie froide.

(4>5): Ce système est dit réversible, car il peut aussi bien être utilisé en refroidissement qu’en chauffage. En hiver, cela correspond à un mode de fonctionnement normal de réchauffement par système centralisé à air, en utilisant la roue de sorption comme récupérateur de chaleur, tout en complément des apports de la chaleur solaire. La présence d’une batterie chaude permet ainsi la régulation de température de chauffe en hiver.

Résumé du comportement de l’air illustré par le diagramme de l’air humide :

En théorie, dans le diagramme de l’air humide, l’évolution de l’air dans la roue dessicante se fait selon une courbe isenthalpique pour l’air soufflé et pour l’air repris (1>2 et 9>10).
Dans l’échangeur et dans le régénérateur (batterie chaude, apports solaires, …), les transferts de chaleur se font à humidité absolue constante (2>3, 7>8 et 8>9).
Entre l’air pulsé et l’air repris par la centrale de traitement, l’air subit les apports dus au local (personnes, lampes, ordinateurs, …) et voit sa température augmenter (5>6).
La combinaison de ces différentes évolutions permet d’obtenir un point de soufflage compatible avec le rafraîchissement du bâtiment.


Aspects technologiques

La roue à dessiccation – principe d’adsorption

La sorption est un phénomène physique qui consiste à fixer les molécules d’un élément à une surface généralement granulée et poreuse. Les matériaux dessicants attirent l’eau en formant à leur surface une zone à faible pression de vapeur.
La vapeur de l’air, ayant une pression plus élevée, se déplace de l’air vers la surface du matériau ce qui garantit une déshumidification de l’air.


Photo technologie roue dessicante rotative.


Schéma d’une roue à dessiccation avec section de purge
(séparation amont/aval).

La déshumidification s’effectue soit à travers un dispositif sur lequel est posé un matériau dessicant (on parle alors de « déshydratation en phase solide »), soit dans des échangeurs dans lesquels est pulvérisée une solution dessicante (« déshydratation en phase liquide »).

La sorption peut donc prendre place entre un gaz et un solide, auquel cas on parle d’adsorption, soit entre un gaz et un liquide, il s’agit dans ce cas du phénomène d’absorption. Raison pour laquelle les roues dessicantes sont appelées également des déshydrateurs à adsorption.

Photo d’un déshydrateur à adsorption  de la marque « Ventsys » fonctionnant selon le principe de la roue dessicante.

Actuellement les sorbants les plus utilisés sont le SiO2 (Silica-gel), LiCl (Chlorure de Lithium), Al2O3 (Alumine activée) et le LiBr (Bromure de Lithium).
Ces substances sont imprégnées sur une roue rotative en céramique à structure en nids d’abeilles.
Lorsque le matériau devient saturé, la roue continue à tourner lentement et la partie exempte d’humidité est régénérée par chauffage, au départ d’une source de chaleur disponible.

L’échangeur rotatif non hygroscopique

Un échangeur non hygroscopique est une roue à rotation lente, métallique à structure en nids d’abeilles à travers laquelle passent deux flux d’air de sens opposés produisant un échange sensible entre eux (humidité absolue constante).

L’avantage de ce type d’échangeur c’est qu’il a une perte de charge faible en comparaison de son efficacité, de plus il présente peu d’encombrement.

Pour éviter les fuites de l’air entre les sections de soufflage et de retour, il est préférable d’avoir une section de purge séparant les deux sections et d’avoir les ventilateurs en aval de l’échangeur.


Intérêts du procédé

  • L’intérêt environnemental de la roue dessicante se marque si la source de chaleur utilisée est de type renouvelable. Elle peut donc fonctionner avec des capteurs solaires thermiques (on parle alors de climatisation solaire), avec un réseau de chaleur urbain alimenté en permanence en été de manière renouvelable (biomasse, géothermie profonde (> 1 500 m), etc.), ou encore en valorisant des rejets thermiques de process industriel par exemple.
    L’utilisation de capteurs solaires comme source de chaleur possède comme principal avantage de pouvoir amener le plus de froid lorsqu’il fait le plus chaud. Ce système est d’autant plus intéressant que les apports solaires sont grands, et trouve donc en toute logique son intérêt en période estivale.
    Dans ces situations et afin de garantir une utilisation prolongée, par exemple lors des périodes non ensoleillées, il est également envisageable de stocker de la chaleur emmagasinée en journée dans des ballons tampons.
    Remarque : Afin d’assurer le bon fonctionnement du processus d’adsorption, il est nécessaire que la source de chaleur puisse fournir une température suffisante à la batterie de régénération. Cette température est d’environ 70 °C quand le climat extérieur est de 25 °C et 75 % HR.
    Remarque : une autre solution, conduisant à un coût d’investissement plus faible, utilise directement l’énergie solaire de régénération par le biais de capteurs à air (et non-circulation à eau), du fait que le réfrigérant est en contact direct avec l’atmosphère.

Schéma présentant le système à roue dessiccante couplé à une installation chauffage solaire.

  • L’utilisation d’eau comme fluide réfrigérant rend ces systèmes totalement inoffensifs pour l’environnement.
  • Les humidificateurs peuvent être alimentés via l’eau de pluie ou grâce à l’eau de ville. Dans ce dernier cas, il s’agit de consommation d’eau potable dont il convient d’évaluer l’ampleur économique et environnementale.
  • La compression du fluide caloporteur est thermique, avec absence de mouvements mécaniques, ce qui augmente leur durée de vie et réduit leur bruit. Cependant une maintenance soignée est obligatoire.
  • La qualité de l’air intérieur est améliorée par l’effet bactéricide des matériaux adsorbants.
  • Ce mode de climatisation ne suffit pas pour assurer une bonne rentabilité économique, en effet le coût d’investissement pour ce genre d’installation encombrante est souvent onéreux.  Le coût spécifique [€ /(m³/h)] des centrales de traitement d’air reste trop élevé pour de petits débits. Ces systèmes tout air neuf ne sont pas adaptés pour tous les bâtiments.

Remarque : le coût spécifique va de 8 €/(m³/h) pour une centrale de traitement de 20 000 m³/h jusqu’à 16 €/(m³/h) pour une centrale de traitement de 5 000 m³/h (coût brut source fournisseur). À titre de comparaison, le coût spécifique pour une centrale de traitement d’air à roue hygroscopique va de 3.5 €/(m³/h) pour une centrale de 20 000 m³/h jusqu’à 8 €/(m³/h) pour une centrale de 5 000 m³/h.

  • Dans le cas d’utilisation de panneaux solaires comme source de chaleur, la production frigorifique varie évidemment avec les apports solaires, le dispositif ne peut fonctionner qu’en journée. Il est cependant envisageable de stocker de la chaleur emmagasinée en journée dans des ballons tampons afin d’utiliser le dispositif pendant les périodes non ensoleillées. On ne dispose donc pas d’une véritable climatisation en ce sens que la puissance de froid peut ne pas être suffisante. On parle donc plutôt de « rafraîchissement ». Si l’on souhaite réellement disposer d’une puissance de froid suffisante quels que soient les besoins, il convient de surdimensionner le système de ventilation et de recourir à une source de chaleur d’appoint bien souvent fossile ou électrique. Dans ce cas, le bilan environnemental du système peut s’effondrer.
  • La complexité d’une installation réside dans la régulation des multiples circulations de fluides avec une source thermique peut-être variable et discontinue (apports solaires). Ainsi le bon fonctionnement du système peut s’avérer délicat à garantir sur la durée. Il faut optimiser le refroidissement et la régulation, éviter les pertes thermiques et les pertes de fluides, limiter la consommation électrique, éviter la surchauffe en période estivale, se protéger contre le gel.
  • Le système est peu performant dans les climats chauds et humides.
  • En hiver, il n’est pas possible de récupérer une grande part de l’énergie latente (humidité) telle que dans le cas d’un système à roue hygroscopique. Dès lors, le besoin d’énergie pour l’humidification est plus élevé.

Bilan énergétique

Évaluation statique de l’intérêt énergétique :
Comparaison entre un système de traitement d’air à roue hygroscopique et un système de traitement d’air à roue dessicante.

Exemple en hiver

  • Air repris à une température de 20°C et une humidité absolue de 6 g/kg
  • Air extérieur à une température de 5°C et une humidité absolue de 3 g/kg
  • Air pulsé après la roue à :
    • une température de 16.25°C et une humidité absolue de 5.25 g/kg dans le cas de la roue hygroscopique. Pour l’amener à 20°C et 6 g/kg, il faut donc l’équivalent de 5 kJ/kg d’énergie (chaud) et 0.75 g/kg d’air.
    • une température de 16.25°C et une humidité absolue de 3 g/kg dans le cas de la roue dessicante. Pour l’amener à 20°C et 6 g/kg, il faut donc l’équivalent de 11 kJ/kg d’énergie (chaud) et 3 g/kg d’air.

Pour un même mode de production d’énergie, le système à roue dessicante ne peut jamais être plus intéressant que le système à roue hygroscopique.  Il nécessite plus d’eau pour humidifier l’air et plus d’énergie pour compenser le rafraichissement dû à cet apport d’eau dans l’air.

Exemple en été

  • Air repris à une température de 25°C et une humidité absolue de 13 g/kg
  • Air extérieur à une température de 23°C et une humidité absolue de 15 g/kg
  • Pour une pulsion à une température de 16°C et une humidité absolue de 11 g/kg (point de pulsion de l’air dans le cas d’une climatisation par plafonds froids en régime 17-20°C), il faut :
    • l’équivalent de 17 kJ/kg d’énergie (froid) dans le cas de la roue hygroscopique.
    • l’équivalent de 32 kJ/kg d’énergie (chaud), 2 kJ/kg d’énergie (froid) et 11.5 g/kg d’air dans le cas de la roue dessicante.

Si on considère que l’énergie de refroidissement dans le cas de la roue hygroscopique est produite avec les caractéristiques suivantes :

  • 0.781 kWh d’énergie primaire / kWh d’énergie utile
  • 0.123 kg de CO² / kWh d’énergie utile
  • 0.043 € / kWh d’énergie utile

(facteurs de conversion : ESEER machine frigo de 3,2 ; 0,395 kg CO2/kWhélectrique ; 2,5 kWhprimaire/kWhélectrique ; 0,14€/kWhélectrique).

Il faut donc que l’énergie de régénération (chaud) dans le cas de la roue dessicante ait au minimum les caractéristiques suivantes pour être intéressante en été :

  • 0.36 kWh d’énergie primaire / kWh d’énergie utile
  • 0.058 kg de CO² / kWh d’énergie utile
  • 0.021 € / kWh d’énergie utile

On peut noter qu’un réseau urbain alimenté en biomasse répond à peine à ces critères,  sans compter qu’il faudrait en plus compenser les consommations supplémentaires en hiver et la consommation d’eau des humidificateurs !

De ce fait, si on la compare à un groupe de ventilation avec roue de  récupération hygroscopique, le bilan énergétique de la roue dessicante ne semble intéressant que dans très peu de cas où l’on peut considérer que la chaleur est entièrement d’origine renouvelable ou récupérée et l’eau de l’eau de pluie.
La performance d’une installation dessicante dépend :

  • De l’efficacité de l’échangeur rotatif : choix de la roue utilisée.
  • De la température de régénération : ce paramètre est utilisé afin de modifier la puissance froide délivrée par la centrale en mode desiccant cooling.
  • Des débits de ventilation : la variation du débit engendre une variation de la puissance froide, mais également une variation du rendement d’échange dans les roues. C’est pourquoi il est nécessaire d’utiliser le système dans la plage de débit pour lequel il est dimensionné.
  • De l’efficacité de l’humidificateur: sa modification permet de contrôler la température et l’humidité de l’air de soufflage. Cela peut être utile en cas d’humidité relative intérieure inconfortable.

Domaines d’utilisation

  • Les dispositifs à dessiccation apportent une solution bien adaptée dans les régions où les apports latents sont limités et sont particulièrement efficaces en climat assez sec.
    En effet, le seul problème provient des régions trop humides, où la roue n’est pas suffisante pour déshydrater l’air ambiant, car elle nécessite une température de régénération élevée, ce qui augmente la consommation du système en énergie primaire.
  • Les systèmes à dessiccation sont utilisés pour produire directement de l’air frais (déshumidification de l’air), et non pas pour refroidir l’eau de la boucle de refroidissement comme dans le cas des machines frigorifiques classiques. Une telle installation n’est donc pas envisageable pour rechercher de grands refroidissements. Ces dispositifs peuvent souffler de l’air à une température d’environ 10°C de moins que la température extérieure (suivant les débits d’air choisis).

Photo d’une installation DEC : desiccant evaporative cooling.

  • Ce procédé est plus spécialement applicable aux bâtiments neufs ou en réhabilitation lorsqu’une source thermique à faible coût est disponible pour régénérer l’adsorbant.
  • Enfin, les systèmes dessicants peuvent être valorisés dans les bâtiments ayant un objectif de bilan « Zéro énergie » dans lesquels une déshumidification de l’air est d’office nécessaire (utilisation de plafonds froids, d’îlots rayonnants). Pour ce faire, il est nécessaire de supprimer l’humidificateur adiabatique sur le chemin de l’air neuf.

Nouvelle technologie : les Lits dessicants liquide – (LDC : Liquid dessicant cooling)

Une technique développée, toute nouvelle sur le marché, utilise pour la dessiccation de l’air un sorbant liquide : une solution eau/bromure ou chlorure de lithium.
Par rapport à un système à dessiccation utilisant un sorbant solide, ce type de système présente plusieurs avantages :

  • un plus fort taux de déshumidification pour le même niveau de température;
  • une possibilité d’un haut niveau de stockage énergétique sous la forme de solution concentrée.

Ventilation intensive mécanique d’été

Date :juin 2014

Auteur : Geoffrey

Notes : mise en page – Sylvie

Ventilation intensive mécanique d’été


Principe

La ventilation intensive d’été, souvent appelée « free cooling » consiste à refroidir un bâtiment par ventilation en utilisant l’énergie gratuite de l’air extérieur lorsque celui-ci présente une température inférieure à la température intérieure :

  • En hiver, de l’air frais extérieur peut alimenter, en journée, les zones à rafraîchir sans nécessiter l’enclenchement des groupes frigorifiques.
  • En été, une ventilation nocturne peut décharger le bâtiment de la chaleur accumulée en journée

Selon le moment de la journée, on parle de free cooling de jour ou de nuit :

  • Le free cooling diurne consiste à surventiler les locaux avec de l’air extérieur plus frais que l’air intérieur. La capacité frigorifique de l’air extérieur étant faible, de grands débits d’air sont nécessaires.
  • Le free cooling nocturne consiste à rafraîchir les bâtiments la nuit grâce à de l’air extérieur. On parle de « décharge nocturne » du bâtiment puisqu’il évacue toute la chaleur excédentaire accumulée en journée.

On distingue une ventilation intensive naturelle ou mécanique, selon que le mouvement d’air soit généré par des forces naturelles (poussée d’Archimède ou force du vent) ou par un ventilateur.
Il faut également distinguer le débit d’air neuf hygiénique, du débit d’air de rafraîchissement d’un local :

  • La ventilation hygiénique ou permanente assure la qualité de l’air. Elle vise globalement les 30 m³/h d’air neuf nécessaires par personne (RGPT). Dans un bureau, cela entraîne un renouvellement horaire de 1 x par heure, puisque chaque occupant occupe +/- 10 m² au sol, et donc un volume de 30 m³.

Grille d’apport d’air hygiénique naturel … ou réseau d’air pulsé.

  • Le refroidissement naturel d’un local (ou free cooling) sous-entend un taux de renouvellement important de l’air du local. Dans des systèmes naturels (ouverture de fenêtre), on parle de 4/heure comme base de dimensionnement, 8 renouvellements/heure sont couramment rencontrés. Dans un système mécanique par contre on se limitera à environ 2 renouvellements horaire pour éviter un surdimensionnement exagéré des réseaux de distribution de l’air.


Un refroidissement gratuit ?

La conception d’un réseau de ventilation mécanique intensive n’est pas différente de celle d’un réseau de ventilation hygiénique mécanique (double flux) ou d’un système de climatisation « tout air« .

Souvent, c’est même un système de refroidissement « tout air » qui permettra d’organiser une ventilation intensive mécanique lorsque ce système est utilisé sans recyclage, récupération de chaleur ou traitement de l’air.

Cependant, vu l’importance des débits d’air à mettre en œuvre, le concepteur sera particulièrement attentif à limiter les pertes de charges du réseau, par un dimensionnement généreux des conduites, et la limitation des pertes de charges ponctuelles (filtres, groupes, organes divers). Le choix de l’efficacité énergétique du ventilateur sera également déterminant.

Oui mais… surdimensionner un réseau de ventilation mécanique, ce n’est pas un refroidissement gratuit, puisque la consommation électrique des ventilateurs est proportionnelle au débit : brasser plus d’air coute plus cher. En effet :

Consél = (qv / 3 600) x Δp x t / ηvent

où,

  • Consél = consommation énergétique du transport de l’air [Wh/an]
  • qv = débit d’air [m³/h]
  • 3 600 = 3 600 secondes par heure [s/h]
  • Δp = perte de charge (pulsion + extraction) [pa]
  • t = durée de fonctionnement [h/an]
  • ηvent = rendement total du système de ventilation (moyenne entre pulsion et extraction).

En fait, on peut obtenir un refroidissement gratuit si le coût du grand déplacement d’air en été est compensé par une réduction de ce coût en hiver. Cette réduction est possible grâce à la modulation du débit. En période de chauffe, seul le débit hygiénique est nécessaire, et non plus la pleine capacité de l’installation. Or, une réduction du débit dans un réseau donné entraîné une réduction proportionnellement plus importante des pertes de charges. Débit d’air et perte de charge sont en effet liés par une relation de type :

p1 / p2 = (n1 / n2)² = (q1 / q2

où,

  • q = débit volume (m³/h)
  • n = vitesse de rotation (tr/min)
  • p = gain de pression (Pa)

Faire une économie sur les ventilateurs en hiver n’est possible que si le réseau de ventilation est dimensionné sur les débit d’air « maximal » souhaité en free cooling, et non sur le débit hygiénique. Mettre en œuvre une ventilation intensive mécanique ‘URE’, ce n’est donc pas forcer un grand débit d’air en augmentant la vitesse au-delà des plages de fonctionnement ‘normales’.

Illustrons cela par un exemple : Soit un immeuble de bureaux de 5000m² demandant 10000 m³/h de ventilation hygiénique.

Scénario 1 : un réseau de ventilation dimensionné sur base des besoins hygiéniques présente une perte de charge globale de 900 Pa. Il fonctionne 12 h/jour, 5 jours par semaines, 52 semaines par an, soit 3 120 heures. Si le rendement du ventilateur est de 60 %, la consommation électrique sera :

Consél = (10 000 / 3 600) x 900 x 3 120 / 0.6 =13 000 kWh ou 2.6 kWh/m²

Scénario 2 : Le réseau est dimensionné pour pouvoir assurer le double du débit d’air hygiénique avec une perte de charge inchangée de 900 Pa. Il s’agit bien d’un surdimensionnement, et non du forçage d’un réseau de moindre capacité. Lorsqu’il ne fournit que l’air hygiénique (soit 50% de sa capacité), la perte de charge est réduite à 50%^2=25% de sa valeur nominale, soit 225 Pa. En supposant que, sur les 3120 heures de fonctionnement, le groupe fonctionne X heures en mode hygiénique est 3120-X heures en mode « free cooling », la consommation d’électricité totale sur l’année sera :

Consél = (10 000 / 3 600) x 225 x X / 0.6 +(20 000 / 3 600) x 900 x (3 120-X) / 0.6

Consél = 650 kW implique que X=1 783 heures

Dans cet exemple, le dédoublement de la capacité du réseau de ventilation pour un même niveau de perte de charge permet de libérer 3120-1783=1337 heures sur l’année de free cooling réellement gratuit.

En fait, le pourcentage du temps où le free cooling est gratuit dépend uniquement du facteur de surdimensionnement entre le débit hygiénique et le débit de conception du réseau de ventilation :

Dans cette figure, le % temps FC est la fraction maximale du temps d’utilisation qui peut être utilisé en mode free cooling sans induire de surconsommation d’électricité. Le ratio de surventilation est alors le rapport entre la quantité totale d’air pulsé sur l’année et la quantité correspondant au seul débit hygiénique.

Il n’est cependant pas toujours possible de surdimensionner un réseau de ventilation. On peut alors être tenté de forcer le débit, en augmentant la vitesse dans le réseau. Il s’en suit une augmentation de la consommation du ventilateur, qui peut être comparée au coût d’une installation de refroidissement traditionnelle.

Reprenons notre exemple avec le scénario 1 :

Dans ce bâtiment, extraire un kWh avec une machine frigorifique d’une efficacité EER de 3 aurait coûté :

Consomachine frigo= 1/3 = 0.33 kWhelec = 333 Wh

Dans ce réseau, brasser de l’air au débit hygiénique nous coûte

Puisél = (1 / 3 600) x 900 x 1 / 0.6 =0.41 W/m³/h

Doubler le débit d’air dans ce réseau fait passer les pertes de charges de 900 Pa à 3 600. Le coût du kWh pulsé dans ces conditions est de

Puisél = (1 / 3 600) x 3 600 x 1 / 0.6 =1.67 W/m3/h

Or, extraire 1 kWh thermique dans un bâtiment à 25°C nécessite au minimum, si l’air extérieur est à 15 °C :

Débit = 1 000 Wh / [0.34 (Wh/m³K) * (25 °C-15 °C)] = 294 m³ d’air

On voit clairement que la surventilation par forçage du débit est, dans ce cas-ci, moins intéressante que le recours à une machine frigorifique, puisqu’il nous coutera au minimum 294 m³*1.67 W/(m³/h) = 490 Wh, là où la machine frigorifique ne demanderait que 333 Wh.

Réglementation

Pour en savoir plus sur la performance énergétique des ventilateurs, norme :  EN13779  sur la ventilation des bâtiments non résidentiels.


Pertes de charge du réseau

La ventilation intensive implique de grands débit d’air. Lorsqu’elle est mécanique, on prévoira souvent entre 1.5 et 3 renouvellements horaires. Pas plus pour limiter les surdimensionnements. Or, la consommation électrique du ventilateur doit rester sous contrôle. Ces deux exigences ne peuvent se combiner que dans des réseaux à  « basse pression ».

Puissance absorbée, débit et rendement du ventilateur sont liés par l’expression :

P [W] = qV [m³/s] * Hm

où :

  • P = puissance absorbée au moteur du ventilateur [W]
  • qV = débit nominal à travers le ventilateur en [m³.s-1]
  • Hm est la hauteur manométrique [Pa]
  • η est le rendement nominal [-]

Théorie

Pour en savoir plus, le rendement d’un système de ventilation

En considérant un rendement moyen du ventilateur de l’ordre de 60%, on peut se donner une perte de charge maximale des réseaux de ventilation :

EN13779  :

Catégorie Puissance spécifique en W/m³.s Perte de charge maximale
SFP 1 < 500 < 300 Pa
SFP 2 500 – 750 300 – 450 Pa
SFP 3 750 – 1 250 450 – 750 Pa
SFP 4 1 250 – 2 000 750 – 1 200 Pa
SFP 5 > 2 000 > 1 200 Pa

Par exemples, la recherche d’une consommation spécifique inférieure à 1 200 W/(m3/s) implique des pertes de charge inférieures à :

Hm/η  < P / qV [W.m-3.s] < 1 200

Hm  < 1 200 * 0.6 = 720 Pa

C’est là une valeur raisonnablement facile à respecter… mais mieux vaut vérifier quand même !

Norme NBN EN 15251:2007 : Critères d’ambiance intérieure

Norme NBN EN 15251:2007 : Critères d'ambiance intérieure


Généralités

Constatant que la qualité des ambiances est liée à la santé et à la productivité des occupants, et que proposer des performances énergétiques non liées à des critères relatifs à l’ambiance intérieure est dénué de sens, cette norme spécifie la manière dont les critères de conception peuvent être établis et utilisés pour le dimensionnement des systèmes. Elle propose des données d’entrée pour les méthodes de calcul énergétique des bâtiments et pour l’évaluation à long terme de l’ambiance intérieure, ainsi que les paramètres de l’ambiance intérieure utiles pour le contrôle et l’affichage, comme le recommande la Directive Performance Energétique des Bâtiments.

Cette norme s’applique aux bâtiments non industriels pour lesquels les critères d’ambiance intérieure sont déterminés par l’occupation humaine et dont l’ambiance intérieure n’est pas notablement influencée par une production ou par des procédés. La norme est ainsi applicable aux types de bâtiments suivants : maisons individuelles, immeubles d’habitation, bureaux, bâtiments d’enseignement, hôpitaux, hôtels et restaurants, installations sportives, bâtiments de service pour le commerce de gros et de détail. Elle spécifie la manière dont les différentes catégories de critères d’ambiance intérieure peuvent être utilisées, mais n’impose pas les critères à utiliser. Ceci relève de spécifications nationales ou contractuelles. La norme se contente de définir des catégories selon la logique ci-dessous :

Catégorie Explication
I Niveau élevé attendu qui est recommandé pour les espaces occupés par des personnes très sensibles et fragiles avec des exigences spécifiques comme des personnes handicapées, malades, de très jeunes enfants et des personnes âgées.
II Niveau normal attendu qu’il convient d’utiliser pour les bâtiments neufs et les rénovations.
III Niveau modéré acceptable attendu qui peut être utilisé dans les bâtiments existants.
IV Valeurs en dehors des critères des catégories ci-dessus. Il convient que cette catégorie soit acceptée seulement pour une partie restreinte de l’année.

Cette norme ne prend pas en compte les critères relatifs aux facteurs d’inconfort locaux comme les courants d’air, l’asymétrie de la température de rayonnement, les gradients verticaux de température d’air et les températures de surface au sol. Pour des détails sur ces éléments, voir notamment la norme NBN EN ISO 7730.

Les liens de cette norme avec les autres normes relevant de la directive européenne sur la Performance énergétique des Bâtiments sont décrits dans l’organigramme ci-dessous.


Dimensionnement des systèmes de chauffage et de climatisation

Pour les valeurs de base de calcul des ambiances thermiques, la norme distingue les bâtiments chauffés et rafraîchis des bâtiments non climatisés.

Pour les bâtiments chauffés et rafraîchis, elle recommande l’utilisation des indicateurs de confort PMV-PPD définis par l’EN ISO 7730, et propose dans le tableau A2 leur traduction en objectifs de température opérative pour des conditions d’activité, d’habillement, d’humidité et de vitesse d’air type.

Exemples de températures intérieures de base recommandées pour la conception des bâtiments et des systèmes de chauffage, de ventilation et de climatisation
Type de bâtiment ou d’espace Catégorie Température opérative °C
Minimum pour le
chauffage (saison hivernale), ~ 1,0 clo
Maximum pour le
rafraîchissement
(saison estivale), ~ 0,5 clo

Bâtiments d’habitation : pièces de séjour (chambres, séjour, cuisine,
etc.)
Sédentaire ∼ 1,2 met
I 21 25,5
II 20 26
III 18 27
Bâtiments d’habitation : autres espaces (rangements, circulations,
etc.)
Station debout – marche ∼ 1,6 met
I 18
II 16
III 14
Bureau individuel (fermé ou ouvert), salle de réunion, auditorium, cafétéria/restaurant, salle de classe)
Sédentaire ∼ 1,2 met
I 21 25,5
II 20 26
III 19 27
École maternelle
Station debout – marche ∼ 1,4 met
I 19 24,5
II 17,5 25,5
III 16,5 26
Grand magasin
Station debout – marche ∼ 1,6 met
I 17,5 24
II 16 25
III 15 26

Pour les bâtiments non climatisés, la norme précise que les valeurs de dimensionnement de chauffage sont inchangées, mais que celles de refroidissement (inutiles vu l’absence de climatisation…) doivent être utilisées pour déterminer les périodes d’inconfort dans le bâtiment. La norme permet pour cela soit l’utilisation des valeurs déduites de l’approche PMV-PPD, soit l’utilisation d’autres valeurs de température opérative (qu’elle décrit en annexe A2) tenant compte d’une modification des attentes de confort (théorie du confort adaptatif) en fonction d’une température extérieure de référence. Cette température de référence est définie comme θrm= (1 – ) θed-1 + rm-1, avec θed-1 la température extérieure journalière moyenne la veille et θrm la température moyenne glissante du jour.


Qualité de l’air intérieur

Dans les bâtiments non résidentiels, la norme précise que les débits de ventilation exigés pour la qualité de l’air sont les mêmes en toute saison. Ils dépendent de l’occupation, des activités à l’intérieur (p. ex. tabagisme, cuisine, nettoyage, lavage …), des procédés (tels la photocopie dans les bureaux, les expériences de chimie dans les écoles, etc.) et des émissions générées par les matériaux du bâtiment ainsi que par l’ameublement. En Wallonie, les débits à prévoir par local selon son affectation, sa surface et son occupation sont précisés dans la réglementation PEB.

Dans les bâtiments résidentiels, elle précise que les débits de ventilation requis doivent être spécifiés sous forme de taux horaire global de renouvellement d’air, et/ou de débits d’air neuf extérieurs et/ou d’air extrait exigé (salles de bains, toilettes et cuisines) ou doivent être donnés sous forme d’un taux global requis de renouvellement d’air. En Belgique, la norme D50-001 a opté pour une formulation sous forme de débits d’air neuf minimums par local selon son affectation.

La norme indique en annexe B2 des valeurs de base à utiliser en l’absence de réglementation locale (ici, régionale). Vu l’existence des réglementations PEB, ces valeurs n’ont pas lieu d’être considérées en Wallonie.

En outre, l’annexe C propose des valeurs seuils d’émissions permettant d’identifier des « matériaux peu polluants » ou « très peu polluants ». Un bâtiment est peu polluant si la majorité des matériaux sont peu polluants. Un bâtiment est très peu polluant si tous les matériaux sont très peu polluants et s’il n’y a jamais eu de fumeur et que fumer est interdit.

Seuil « peu polluant » Seuil « très peu polluant »
Émission des composés organiques volatiles (TVOC) < 0,2 mg/m²h < 0,1 mg/m²h
Émission de formaldéhyde inférieure < 0,05 mg/m²h < 0,02 mg/m²h
Émission d’ammoniaque inférieure < 0,03 mg/m²h < 0,01 mg/m²h
Émission de composés cancérogènes (IARC) < 0,005 mg/m²h < 0,002 mg/m²h
Matériau inodore insatisfaction due à l’odeur inférieure à 15 % insatisfaction due à l’odeur inférieure à 10 %

L’humidité

La norme précise que, sauf cas particulier (musées, monuments historiques, églises), une humidification ou déshumidification de l’air n’est généralement pas nécessaire pour assurer le confort, mais précise que des taux d’humidité durablement élevés ou très bas peuvent provoquer gênes et dégâts. Le traitement de l’humidité peut également avoir un impact énergétique important.

La norme pose donc que l’humidification ou la déshumidification de l’air des locaux n’est généralement pas exigée, mais si on y a recours il convient d’éviter toute humidification et déshumidification excessive. Dès lors, elle propose des valeurs de référence en annexe B3.

Critères recommandés pour l’humidité en présence de dispositifs d’humidification ou de déshumidification
Type de bâtiment/espace Catégorie Humidité relative de
conception pour la
déshumidification, en %
Humidité relative de
conception pour l’humidification, en %
Espaces dans lesquels les critères d’humidité sont liés à l’occupation humaine. Des espaces particuliers
(musées, églises etc.) peuvent nécessiter d’autres limites.
I 50 30
II 60 25
III 70 20
IV > 70 < 20

L’éclairage

La norme se limite à faire référence à la l’EN 12464-1 et à la l’EN 12193 qui définissent les éclairements requis selon les tâches et à la norme EN 15193 pour ce qui concerne la pénétration de lumière naturelle.


Le bruit

La norme propose des valeurs de référence applicables lorsqu’il n’y a pas de norme nationale. Or, une telle norme existe en Belgique : la NBN S 01-401. Les valeurs proposées par la EN 15251 ne sont donc pas d’application.


Paramètres pour le calcul énergétique

La norme précise que les valeurs précisées en dimensionnement des systèmes de chauffage, de refroidissement et de traitement de l’humidité doivent également être utilisées pour les calculs énergétiques sur base saisonnière ou mensuelle. Pour les calculs dynamiques (horaires) par contre, c’est une valeur cible qui doit être visée, à savoir le point médian de plages de valeurs, mais en considérant une possibilité de fluctuation des conditions intérieures  du fait de l’algorithme de régulation.

Plages de température pour le calcul horaire de l’énergie de chauffage et de rafraîchissement dans trois catégories d’ambiance intérieure
Type de bâtiment ou d’espace Catégorie Plage de température pour le chauffage, °C Vêture ∼ 1,0 clo Plage de température
pour le rafraîchissement, °C Vêture ∼ 0,5 clo
Bâtiments d’habitation, pièces de séjour (chambres, séjours, etc.)
Activité sédentaire ~1,2 met
I 21,0 – 25,0 23,5 – 25,5
II 20,0 – 25,0 23,0 – 26,0
III 18,0 – 25,0 22,0 – 27,0
Bâtiments d’habitations, autres locaux (cuisines, rangements, etc.)
Station debout, marche ~1,5 met
I 18,0 – 25,0
II 16,0 – 25,0
III 14,0 – 25,0
Bureaux et locaux à activité similaire
(bureaux individuels ou paysagés, salles de réunion, auditoriums, cafétérias, restaurants, salles de classe)
Activité sédentaire ~1,2 met
I 21,0 – 23,0 23,5 – 25,5
II 20,0 – 24,0 23,0 – 26,0
III 19,0 – 25,0 22,0 – 27,0
Écoles maternelles
Station debout, marche ~1,4 met
I 19,0 – 21,0 22,5 – 24,5
II 17,5 – 22,5 21,5 – 25,5
III 16,5 – 23,5 21,0 – 26,0
Grands magasins
Station debout, marche ~1,6 met
I 17,5 – 20,5 22,0 – 24,0
II 16,0 – 22,0 21,0 – 25,0
III 15,0 – 23,0 20,0 – 26,0

Un dépassement de ces plages peut être autorisé. En cas de dépassement de la température vers le haut, la surchauffe doit être estimée sur base d’une des méthodes proposées  en annexe 8.

Pour le calcul énergétique, la ventilation doit être supposée en fonctionnement à son débit de dimensionnement pendant la période d’occupation, sauf système à débit d’air variable. En dehors de ces périodes, l’annexe B4 précise que dans les locaux non résidentiels un débit d’air neuf équivalent à 2 volumes d’air de l’espace ventilé doit être fourni dans l’espace avant l’occupation de celui-ci (par exemple, si le débit de ventilation est de 2 vol/h, la ventilation démarre une heure avant l’occupation). Les infiltrations peuvent être calculées comme faisant partie de cette ventilation. Une ventilation continue à faible débit peut également être choisie, sur base d’au minimum 0,1 à 0,2 l/(s.m²) dans les locaux non résidentiels et 0,05 à 0,1 l/(s.m²) dans les logements.

Même logique pour l’éclairage, où les valeurs de dimensionnement sont à considérer, ainsi que la possibilité de combinaison entre éclairage naturel et artificiel. La norme attire l’attention sur l’inconfort de type éblouissement qui peut avoir une influence sur l’emploi des contrôles automatiques et des protections solaires.


Évaluation et classification de l’ambiance intérieure

La norme précise qu’une ambiance intérieure peut être évaluée sur base d’indicateurs liés à la conception, sur des mesures ou sur des calculs.

Les indicateurs liés à la conception sont les valeurs précisées plus  haut ayant trait à la thermique d’hiver et d’été, à la qualité de l’air, à l’humidité, à l’éclairage et à l’acoustique.

Les indicateurs calculés sur base de simulations doivent m’être conformément aux normes prEN 15265 et prEN 15255. Quatre méthodes d’évaluation sont décrites :

  • Indicateurs simples : Le bâtiment satisfait les critères d’une catégorie donnée si des pièces représentatives de 95 % du volume du bâtiment satisfont les critères de la catégorie retenue.
  • Critères horaires : cette méthode décrite en annexe F cherche à évaluer le nombre d’heures effectif ou en % de temps pendant lequel le critère est respecté ou non.
  • Critère des degrés-heures : cette méthode, décrite en annexe F, permet d’évaluer le dépassement des limites de température hautes ou basses en saison chaude ou froide. Ce calcul cherche à pondérer la durée du dépassement de la plage cible par l’ampleur wf (°C) de ce dépassement. En pratique, chaque heure de dépassement est multipliée par l’écart en degré entre la condition observée et la limite de la plage de valeur acceptable.
  • Critère de confort thermique global (PMV pondéré) : cette méthode, décrite en annexe F, reprend le principe de la méthode des degrés-jours, sauf qu’ici les heures comptabilisées sont celles mettant en évidence un dépassement des plages de confort exprimées en PMV. Le facteur de pondération wf (PPD) est ici égal au rapport entre le PPD constaté et le PPD limite correspondant à la plage de confort.
Exemples de facteurs de pondération basés sur la différence de température ou sur le PPD pour des bâtiments climatisés (en chaud ou froid) pour une plage de confort de 23 à 26 °C, correspondant à un travail sédentaire (1,2 met) et à des vêtements d’été légers (0,5 clo).
Température °C PPD % Facteurs de pondération
wf (°C) wf (PPD)
Froid 20 47 3 4,7
21 31 2 3,1
22 19 1 1,9
Neutre 23 10 0 0
24 < 10 0 0
25 < 10 0 0
26 10 0 0
Chaud 27 19 1 1,9
28 31 2 3,1
29 47 3 4,7

Les indicateurs mesurés évaluent des écarts par rapport aux critères choisis, sous forme par exemple d’un nombre acceptable d’heures en dehors des critères basés sur une évaluation annuelle (100 à 150 h). En l’absence de critères nationaux, l’annexe G propose des valeurs d’écarts admissibles. Les mesures doivent être réalisées dans des pièces représentatives, dans différentes zones et orientations, avec des charges différentes, pendant des périodes d’utilisation représentatives. Les points de mesure d’ambiance thermique et les instruments de mesure doivent être conformes à l’EN ISO 7726 (EN 12599). Pour l’éclairement, la procédure de vérification décrite à l’Article 6 de l’EN 12464-1:2002 doit être suivie. La section 9 de la norme complète ces exigences en précisant des conditions de mesurage plus détaillées.

Exemples d’écarts correspondant à 3 % et 5 % du temps
3 %/5 % d’une
période
Journalière
minutes
Hebdomadaire
heures
Mensuelle
heures
Annuelle
heures
Heures de travail 15/24 1/2 5/9 61/108
Heures totales 43/72 5/9 22/36 259/432

La réaction subjective directe des occupants peut également être utilisée pour l’évaluation globale de l’ambiance intérieure. Des évaluations quotidiennes, hebdomadaires et mensuelles sous forme de questionnaires peuvent être utilisées pour l’acceptation générale de l’ambiance intérieure, la sensation thermique, la qualité de l’air perçue. Des méthodes recommandées et des questionnaires sont donnés à l’Annexe H pour l’enregistrement des réactions subjectives.

évaluations sous forme de questionnaires.

La norme précise enfin que l’information relative à l’ambiance intérieure du bâtiment doit être incluse dans le certificat énergétique du bâtiment (Article 7 de la DPEB) pour permettre l’évaluation de la performance totale du bâtiment. En raison des nombreux paramètres et de la connaissance insuffisante sur les influences des paramètres de l’ambiance intérieure qui interagissent, il est recommandé de réaliser une classification globale basée sur l’ambiance thermique uniquement et sur la qualité de l’air intérieur. il est recommandé qu’une « empreinte » résumant le confort soit donnée séparément pour des conditions thermiques et pour des conditions de qualité d’air intérieur. Ceci peut être présenté sous la forme de pourcentage de temps (températures, débits de ventilation ou concentrations de CO2) pendant lequel l’ambiance intérieure se situe dans les différentes catégories (I, II, II et IV). Des exemples sont donnés à l’Annexe I.

Choisir un système de ventilation intensive (free cooling)

Choisir un système de ventilation intensive (free cooling)

Ventilation intensive mécanique ou naturelle ?

On peut envisager un système de ventilation intensive entièrement mécanique. La consommation électrique des ventilateurs risque cependant de compenser l’économie réaliser sur la machine frigorifique. Sans parler de l’encombrement des conduites. Ce type de système est équivalent à une climatisation « tout air » de type VAV qui valoriserait au maximum l’air extérieur non traité.

Concevoir

Pour plus d’infos techniques sur la conception des systèmes VAV

Selon les situations, les ventilations mécaniques et naturelles présentent chacune des avantages et/ou des inconvénients :

Coût d’investissement

Le free cooling, de jour comme de nuit, nécessite des débits de ventilation relativement importants. L’ installation de ventilation doit donc être dimensionnée pour gérer ces débits (conduits, ventilateurs, bouches, ….).

Si le bâtiment est déjà équipé d’un système de climatisation tout air ou si les débits de ventilation hygiénique sont importants (du fait de l’occupation, dans des salles de conférence, des auditoires, par exemple), un réseau mécanique ne représente peut-être pas un surcoût.

Par contre, lorsque la ventilation hygiénique est limitée, la possibilité d’organiser un free cooling mécanique entraîne un surdimensionnement, donc un surcoût important de l’installation.

Dans le cas d’une ventilation naturelle, si la réalisation d’un réseau de ventilation mécanique important est évitée, l’investissement pour organiser une ventilation naturelle n’est néanmoins pas nul. Des éléments particuliers doivent être prévus pour amener l’air dans le bâtiment sans risque d’effraction (grilles, fenêtres automatisées,…), éventuellement pour lui permettre de circuler (grilles de transfert, portes coupe-feu,…) et pour l’extraire (grilles d’extraction, cheminées,…).

Coût de fonctionnement

En ventilation naturelle, le transport de l’air s’effectue naturellement grâce aux différences de pression et/ou de température de l’air autour du bâtiment. Dans les systèmes de ventilation par effet de cheminée, un ventilateur d’extraction est parfois installé pour pourvoir au transport de l’air dans de mauvaises conditions climatiques. Pratiquement, ces ventilateurs sont peu ou pas utilisés.

En ventilation mécanique, le fonctionnement des ventilateurs pour le transport de l’air nécessite une énergie électrique non négligeable.

Par exemple, une étude réalisée sur un bâtiment du Sud de la France montre que la consommation des ventilateurs actionnés la nuit était similaire à la consommation des groupes frigorifiques en relance au matin en absence de free cooling (ceux-ci bénéficiant de l’efficacité frigorifique qui produit 2 à 3 kWh de froid pour 1 kWh au compresseur…).

Confort

En free cooling diurne naturel, l’amenée d’air frais directement dans les locaux peut se révéler inconfortable. Des solutions peuvent néanmoins être trouvées pour éviter cet inconfort, comme le montrent les trois exemples suivants réalisés dans des bâtiments anglais.

Exemples.

Dans le centre administratif de l’entreprise Powergen, l’air, en hiver, est introduit par les fenêtres hautes, et guidé, grâce à la forme particulière du plafond vers le centre du bâtiment. Le mélange de l’air frais extérieur avec l’air ambiant se fait donc sans inconfort.

Photo centre administratif de l'entreprise Powergen.

Dans le bâtiment environnemental du BRE, l’air de ventilation des bureaux paysagers parcourt des conduits intégrés dans le plafond, à température ambiante, avant de pénétrer le local au niveau du plafond. Il est donc légèrement réchauffé.

Powergen, schéma explicatif.

Powergen, schéma explicatif.

Enfin, dans le Queen’s building de l’Université De Monfort, l’air extérieur est introduit dans les auditoires au travers d’un absorbant acoustique et d’une batterie de préchauffe.

À cela s’ajoute le risque de sous-refroidissement du local et donc d’inconfort le matin, à l’arrivée des occupants, si les amenées d’air ne sont pas automatisées et refermées au cours de la nuit, quand le bâtiment est suffisamment refroidi.

En ventilation mécanique, lorsque l’on souhaite bénéficier de la fraîcheur de l’air extérieur, mais que celui-ci est trop froid pour être pulsé tel quel, il serait paradoxal de recourir à une batterie de chauffe. Une récupération de chaleur sur l’air extrait est alors tout indiquée. Éventuellement, un recyclage partiel de l’air extrait peut être envisagé.


Un ventilateur en renfort du tirage naturel : vers des systèmes hybrides ?

Pour renforcer le tirage lorsqu’il est trop faible ou pour limiter l’encombrement des cheminées de tirage naturel, il est possible d’organiser une pulsion forcée d’air frais extérieur : un extracteur est placé sur le sommet de la cheminée. Ici également, la température intérieure va fluctuer entre 21 et 25°C durant la journée, puisque le bâtiment stocke son froid la nuit et se réchauffe le jour. Mais au moins une garantie est donnée sur la réelle circulation de l’air.

Schéma de fonctionnement de la ventilation hybride dans les classes (École Tanga).


Disposer d’une masse thermique accessible

Le but de la ventilation nocturne est de refroidir la masse thermique du bâtiment durant la nuit et de diminuer ainsi les surchauffes en journée.

Ce sont les matériaux lourds de construction (béton, carrelage, …) qui constituent la principale masse thermique d’un bâtiment. En journée, ceux-ci absorbent les apports instantanés de chaleur (ensoleillement, …). Cette chaleur est restituée ensuite avec un décalage temporel, ce qui atténue fortement les hausses de température diurne dans le bâtiment. On parle d’inertie thermique du bâtiment. Prenons l’exemple d’une voiture. Celle-ci n’a aucune masse thermique. Dès que le soleil luit, la température intérieure monte très vite. À l’inverse, dès que le soleil disparaît, la température intérieure chute.

Évolution dans le temps de l’apport de chaleur dû à l’ensoleillement dans un local
avec ou sans inertie thermique : comparaison entre la chaleur instantanée transmise au travers du vitrage et la chaleur restituée au local.

Le but de la ventilation nocturne est de décharger au maximum, durant la nuit, la chaleur accumulée dans les matériaux du bâtiment et de permettre une forte absorption de chaleur durant la journée.
Pour que ce phénomène d’accumulation / restitution de chaleur soit possible, il faut :

  • D’une part, favoriser l’utilisation de matériaux de construction lourds pour assurer l’accumulation.
  • D’autre part, garantir le contact entre ceux-ci et l’air frais de ventilation pour évacuer la chaleur accumulée.

À défaut de quoi, on ne refroidirait que l’air ambiant du bâtiment, qui se réchaufferait au premier rayon de soleil (comme cela se passe dans une voiture …). Concrètement :

  • Au niveau du sol, le carrelage est préférable à la moquette, au plancher ou au faux plancher qui isolent par rapport à la masse du sol. …). Le passage des réseaux hydrauliques, électriques,informatiques… s’en trouve contrarié.
  • Au niveau des murs, des murs intérieurs en maçonnerie lourde absorbent nettement plus de chaleur que les cloisons légères. Mais des cloisons lourdes peuvent aller à l’encontre de la flexibilité souhaitée par un promoteur immobilier par exemple.
  • Au niveau des plafonds, l’emploi de faux plafonds est déconseillé.

La surface d’absorption manquante au plafond peut être fournie par les portes absorbantes acoustiques des armoires.

Exemple.

Les bureaux du bâtiment environnemental du BRE, par exemple, ne présentent pas de faux plafonds. La surface du plafond a même été augmentée artificiellement en lui donnant une forme sinusoïdale. L’énergie thermique stockée par le plafond est ainsi augmentée.

Phot des plafonds du bâtiment environnemental du BRE.

Cependant, les faux plafonds offrent d’importants avantages (coût par rapport à la finition d’un plafond « lourd », intégration des installations techniques, …) et permettent notamment d’améliorer l’acoustique des locaux. Un compromis peut être trouvé entre la fonctionnalité du faux plafond et la perte de masse thermique qu’il engendre. Il s’agit de plafonds semi-fermés comportant des ouvertures qui assurent un contact entre l’air intérieur et la structure du bâtiment.

Faux plafonds semi-ouverts permettant la circulation de l’air de ventilation.

Dans le centre administratif de l’entreprise Powergen en Angleterre, une autre solution a été utilisée pour assurer le confort acoustique : les « ailes » des éléments techniques suspendus (regroupant luminaires, détecteurs incendies, etc.) sont des absorbants acoustiques. La forme elliptique des creux du plafond focalise les ondes sonores vers ces absorbants.

Théories

Pour plus d’informations sur l’évolution thermique d’un local type sans inertie, cliquez ici !


Gérer la fluctuation inévitable de la température intérieure

Choisir un rafraichissement par ventilation intensive sans appoint d’une machine frigorifique implique inévitablement des fluctuations de température dans le bâtiment.

En été, le bâtiment est un réservoir « tampon », qui est « vidé de sa chaleur » la nuit jusqu’à atteindre 21°C, et dont la température augmente progressivement en journée jusqu’à 25°C. S’il fait plus de 25°C à l’extérieur, l’occupant doit vivre dans son local sans ouvrir la fenêtre, et se baser sur le « capital froid » emmagasiné durant la nuit.

En outre, il ne faut pas sous-refroidir le bâtiment, pour ne pas créer d’inconfort lors de l’arrivée des occupants, le matin. Une régulation automatique du free cooling s’impose si les utilisateurs ne peuvent assurer la gestion manuelle.

Dans tous les cas, les fluctuations de température doivent rester dans les plages de confort tolérées par le maître d’ouvrage. Or, dans un bâtiment se basant sur un système de reoifridissement par ventilation, l’approche du confort n’est pas la même que dans un bâtiment climatisé. La norme NBN EN 15251 donne à ce titre des indications utiles.

Pour en savoir plus :

Théories

Le confort thermique.

Réglementations 

La norme NBN EN 15251.

Comparer le chauffage simple et la climatisation

Comparer le chauffage simple et la climatisation
Il est possible de comparer, pour un bâtiment donné, la consommation et le niveau de confort générés par différents niveaux d’équipements. Nous reprenons ci-dessous un extrait d’un vaste travail de simulation réalisé par l’ISSO aux Pays-Bas (les conditions de climat extérieur sont donc relativement comparables à ceux de nos régions).

Voici les hypothèses de travail :

La simulation porte sur un bureau de 4,1 m de façade sur 5,2 m de profondeur et 2,7 m de hauteur. Les consignes sont de 22°C en hiver et 24°C en été. L’inertie des parois est moyenne (sol en béton, pas de faux plafond, cloisons intérieures légères, soit 59 kg/m²). Les apports internes correspondent à l’éclairage et la présence d’une personne et de son PC par zone de 12 m² (35 W/m²). Le pourcentage de vitrage par rapport à la façade est de 50 %. Les murs extérieurs sont équipés de 8 cm d’isolant. Le bureau simulé est entouré d’autres bureaux dont les consignes sont similaires (pas d’échange avec les bureaux voisins). Des stores extérieurs limitent les apports solaires à 20 % de leur valeur lorsque ceux-ci dépassent 300 W/m². Le taux de renouvellement d’air est de 3/h pour les systèmes 2 et 4, et 4/h pour le système 3. Les pertes de charge du circuit de ventilation sont de 1 600 Pa. Un échangeur de chaleur est placé sur l’air de ventilation et son rendement est estimé à 75 %. Le coût de l’humidification est intégré.

Dans ce cas, en intégrant les rendements de production des équipements, les consommations annuelles sont [en kWh/m²] :

SUD EST OUEST NORD
1 Radiateurs + ventilation naturelle Chauffage : 78
Transport : 1
Inconfort : 370 h
Chauffage : 81
Transport : 1
Inconfort : 400 h
Chauffage : 81
Transport : 1
Inconfort : 450 h
Chauffage : 83
Transport : 1
Inconfort : 310 h
2 Radiateurs + ventilation mécanique double flux Chauffage : 58
Transport : 22
Inconfort : 260 h
Chauffage : 59
Transport : 22
Inconfort : 280 h
Chauffage : 60
Transport : 22
Inconfort : 310 h
Chauffage : 61
Transport : 22
Inconfort : 230 h
3 Radiateurs + ventilation mécanique double flux + rafraîchissement* + free cooling de nuit** Chauffage : 70
Refroidissement : 7
Transport : 30
Inconfort : 25 h
Chauffage : 72
Refroidissement : 7
Transport : 31
Inconfort : 45 h
Chauffage : 73
Refroidissement : 7
Transport : 31
Inconfort : 60 h
Chauffage : 74
Refroidissement : 7
Transport : 30
Inconfort :  20 h
4 Conditionnement d’air
(installation 4 tubes avec éjecto-convecteurs)
Chauffage : 83
Refroidissement : 14
Transport : 29
Inconfort : 0 h
Chauffage : 83
Refroidissement : 13
Transport : 29
Inconfort : 0 h
Chauffage : 83
Refroidissement : 14
Transport : 29
Inconfort : 0 h
Chauffage : 83
Refroidissement : 11
Transport : 29
Inconfort : 0 h

*Par « rafraîchissement » en été, on entend ici une pulsion d’air « rafraîchit » correspondant à 4 renouvellements horaires :

  • refroidit à une température de 18 [°C], lorsque la température extérieure est < 23 [°C]
  • refroidit à une température de (T°ext – 5°), lorsque la température extérieure est > 23 [°C]

**Par « free cooling de nuit », on entend ici une pulsion d’air extérieur de ventilation correspondant à 4 renouvellements horaires, si T°ext < T°int  et si T°int > 20 [°C].

La rubrique « transport » représente l’énergie des circulateurs et ventilateurs.

Par « inconfort », on entend le nombre d’heures durant la période de travail où le PMV (Vote Moyen Prédictif) des occupants serait > 0,5. Autrement dit, le nombre d’heures où l’on peut s’attendre à des plaintes du personnel… On considère que si ce nombre d’heures est inférieur à 100 heures par an, il s’agit d’une gêne temporaire tout à fait acceptable. Au-delà de 200 h/an, des mesures de refroidissement sont nécessaires pour garder un climat intérieur correct.

Les kWh de refroidissement sont ceux demandés au compresseur. Ils intègrent donc le COP de la machine frigorifique. Les besoins de froid du bâtiment seraient plus élevés.

Pour transcrire ceci en coût, on peut adopter les hypothèses suivantes

  • le kWh thermique (chauffage) revient à 6,22 c€, sur base d’un prix du fuel de 0,622 €/litre.
  • le kWh électrique (froid et transport) revient à 16 c€, puisque l’installation fonctionne en journée, 10 h sur 24, uniquement durant les jours ouvrables (251 jours par an)

Le tableau devient [en €/m² ] :

SUD EST OUEST NORD
1 Radiateurs + ventilation naturelle Chauffage : 4,85
Transport : 0,16
Inconfort : 370 h
Chauffage : 5,04
Transport : 0,16
Inconfort : 400 h
Chauffage : 5,04
Transport : 0,16
Inconfort : 450 h
Chauffage : 5,16
Transport : 0,16
Inconfort : 310 h
2 Radiateurs + ventilation mécanique double flux Chauffage : 3,61
Transport : 3,52
Inconfort : 260 h
Chauffage : 3,67
Transport : 3,52
Inconfort : 280 h
Chauffage : 3,73
Transport : 3,52
Inconfort : 310 h
Chauffage : 3,79
Transport : 3,52
Inconfort : 230 h
3 Radiateurs + ventilation mécanique double flux + rafraîchissement* + free cooling de nuit** Chauffage : 4,35
Refroidissement : 1,12
Transport : 4,80
Inconfort : 25 h
Chauffage : 4,48
Refroidissement : 1,12
Transport : 4,80
Inconfort : 45 h
Chauffage : 4,54
Refroidissement : 1,12
Transport : 4,80
Inconfort : 60 h
Chauffage : 4,60
Refroidissement : 1,12
Transport : 4,80
Inconfort :  20 h
4 Conditionnement d’air
(installation 4 tubes avec éjecto-convecteurs)
Chauffage : 5,16
Refroidissement : 2,24
Transport : 4,64
Inconfort : 0 h
Chauffage : 5,16
Refroidissement : 2,08
Transport : 4,64
Inconfort : 0 h
Chauffage : 5,16
Refroidissement : 2,24
Transport : 4,64
Inconfort : 0 h
Chauffage : 5,16
Refroidissement : 1,76
Transport : 4,64
Inconfort : 0 h

Si les coûts sont à présent globalisés et ramenés à une échelle de 100 pour la situation 1 (radiateurs et ventilation naturelle) :

SUD EST OUEST NORD
1 Radiateurs + ventilation naturelle Coût : 100
Inconfort : 370 h/an
Coût : 104
Inconfort : 400 h/an
Coût : 104
Inconfort : 450 h/an
Coût : 105
Inconfort : 310 h/an
2 Radiateurs + ventilation mécanique double flux Coût : 146
Inconfort : 260 h/an
Coût : 144
Inconfort : 280 h/an
Coût : 145
Inconfort : 310 h/an
Coût : 146
Inconfort : 230  h/an
3 Radiateurs + ventilation mécanique double flux + rafraîchissement* + free cooling de nuit** Coût : 205
Inconfort : 25 h/an
Coût : 208
Inconfort : 45 h/an
Coût : 209
Inconfort : 60 h/an
Coût : 210
Inconfort :  20 h/an
4 Conditionnement d’air
(installation 4 tubes avec éjecto-convecteurs)
Coût : 240
Inconfort : 0 h/an
Coût : 237
Inconfort : 0 h/an
Coût : 240
Inconfort : 0 h/an
Coût : 231
Inconfort : 0 h/an

Analyse des résultats

Dans les hypothèses prises pour la simulation, le coût d’exploitation global généré par le système de conditionnement d’air est évalué à 6,5 €/m²/an. Il est 4 fois plus onéreux que le système par simples radiateurs, mais ce dernier n’est plus acceptable dans un bureau aux standards de construction actuels, si des mesures particulières de limitation des charges ne sont pas prises.

Le coût du transport de l’air de ventilation et de climatisation est également un poste majeur dans le bilan financier. Mais les hypothèses de dimensionnement choisies par l’équipe de recherche sont particulièrement défavorables au transport (taux de renouvellement d’air élevé et pertes de charge du réseau élevées) et favorables au bilan thermique (échangeur de chaleur sur l’air extrait pour préchauffer l’air de ventilation en hiver, et stores pour limiter les apports solaires d’été). Il n’empêche que le coût du transport est un poste à ne pas négliger et que le choix du système de climatisation sera déterminant à ce niveau.

Dans d’autres simulations de cette étude, il apparaît que seuls les bâtiments dont la charge interne est limitée à 20 W/m² (ce qui correspond à une situation d’absence d’équipement bureautique), peuvent encore se passer d’un système de refroidissement. C’est le cas du secteur domestique, mais pas du secteur des bureaux…

Concevoir

 Alors … la climatisation des bureaux, un mal nécessaire ?

Confort au sens large

Date :

  • janvier 2014

Auteur :

  • Geoffrey.

Notes :

  • 29-01-2014 : 1er passage de mise en page [liens internes, tdm, rapide passage général sur la mise en page de la feuille] – Sylvie

Antidote :

  • Oui

Confort au sens large

Le confort est défini comme « un état de satisfaction vis-à-vis de l’environnement perçu ».


Multiples dimensions du confort

La satisfaction vis-à-vis de l’environnement fait appel à toutes les dimensions physiques des ambiances, mais également à des aspects comportementaux et psychologiques.

Au niveau physique, ou physiologique, on distingue les conforts respiratoires, thermiques, acoustiques et visuels. Ces aspects sont généralement assez bien connus et de nombreuses normes définissent des seuils minimums et/ou maximums pour les grandeurs physiques concernées (éclairement, température, puissance acoustique, etc.). à noter que ces grandeurs ne sont pas nécessairement absolues : elles peuvent varier dans le temps. Ainsi, les plages de confort thermiques ne sont pas les mêmes en été et en hiver, du fait notamment d’adaptation physiologique (modification du rythme cardiaque et de la capacité de sudation).

Au niveau comportemental, c’est la capacité d’action de l’occupant dans le bâtiment qui est mise en évidence. Car les conditions intérieures et les attentes sont variables dans le temps : on accueillera plus favorablement un courant d’air en été qu’en mi-saison. Il est donc important que l’occupant ait une capacité d’action sur les organes de contrôle des systèmes du bâtiment, sur son activité et sur son habillement.

Au niveau psychologique, c’est surtout l’implication de l’occupant qui est mise en avant lorsque l’on parle d’énergie. Il ne suffit pas qu’il ait la capacité de contrôler son environnement si ces besoins physiologiques le demandent, il faut qu’il ait conscience de cette capacité. L’implication fait donc intervenir la compréhension du fonctionnement du bâtiment, la capacité d’anticiper les conséquences de ses actions sur l’ambiance et une compréhension du lien entre ses actions et leur impact énergétique. Par exemple, une personne avec une conscience environnementale élevée acceptera plus facilement une température relativement basse, si elle sait qu’elle contribue par-là à des économies d’énergie fossile.

Ces trois dimensions, physiologiques, comportementales et psychologiques sont fortement liées, comme le montre l’organigramme ci-dessous.

Notons pour mémoire qu’il existe encore d’autres dimensions à la sensation de bien-être dans un bâtiment, tels que le confort d’usage (est-ce que le bâtiment permet de déployer adéquatement l’activité pour laquelle il est conçu ?), le sentiment esthétique, un sentiment positif ou négatif lié à la nouveauté d’un bâtiment ou à la familiarité que l’on a avec, etc.


Dynamique du confort

La combinaison des différentes dimensions du confort (physiologique, comportementale, psychologique) implique que le bien-être dans un bâtiment n’est pas une notion facile à décrire. Ce bien-être non seulement sera différent pour chacun, mais également variable dans le temps, selon son âge, son sexe, son état de santé, et même son humeur.

Les premières approches scientifiques du confort, au milieu du XXe siècle, se sont focalisées sur les aspects physiologiques, en écartant volontairement tous les aspects comportementaux et psychologiques. Les chercheurs soumettaient des volontaires à des conditions contrôlées dans des chambres climatiques, sans leur permettre d’interaction avec l’ambiance, ni prendre en compte leur satisfaction globale. Cette pratique a permis d’avance rapidement dans l’étude de la dimension physiologique du confort, et d’établir, sur base de statistiques, des valeurs de référence à la base de la plupart des normes de confort utilisées aujourd’hui dans les bâtiments. On pense notamment aux indicateurs pmv (predicted mean vote) et ppd (percentage of people dissatisfied).

Mais cette méthode d’étude, que l’on peut dire statique, est par définition incapable d’intégrer les dimensions dynamiques du confort telles que les adaptations comportementales, la variabilité des états psychologiques, et même certaines adaptations physiologiques. On pense en particulier à :

  1. L’adaptation comportementale : toutes les modifications conscientes ou inconscientes du comportement en réaction à une situation ressentie : modification de l’habillement, de la position, absorption de boissons chaudes ou froides, déplacement vers un autre endroit. Entre aussi en ligne de compte les adaptations technologiques (ouverture ou  fermeture de fenêtres, l’enclenchement d’un chauffage) et culturelles : modification d’horaires, codes vestimentaires, etc.
  2. L’anticipation : Avoir une capacité de prévoir quelques heures à l’avance des conditions d’ambiance à venir permet de s’y préparer et rend plus tolérant si ces conditions échappent aux plages de confort.
  3. L’adaptation physiologique : après quelques jour d’exposition à une ambiance froide, la température de la peau et le niveau métabolique s’adaptent. En été, c’est la capacité de sudation et la vitesse du cœur qui se modifie.
  4. Adaptation psychologique : il a été démontré par les psychologues que lorsque l’on a ou croit avoir le contrôle sur la source de l’inconfort, celui-ci est mieux vécu. À l’inverse, en l’absence de capacité de contrôle, on est généralement très peu tolérant face à des écarts de confort. En d’autres mots, ce que l’on fait nous-même peut être imparfait, mais lorsque l’on nous promet un service, on s’attend à ce qu’il soit irréprochable.

C’est pourquoi les chercheurs ont, dans les années 1990 et au début des années 2000, développé une autre méthode d’évaluation du confort dans les bâtiments. Il s’agit désormais d’enquêtes de terrain, d’interviews des occupants dans leur bâtiment, avec en parallèle un monitoring des conditions physiques de l’ambiance.

The statistical dependence of indoor thermal neutralities on climate.

Dépendant entre la température « neutre » intérieure exprimée par les occupants et les températures extérieures selon que le bâtiment soit  chauffé et refroidi ou laissé sans contrôle climatique. Figure redessinée sur base de Gail S. Brager et Richard J. de Dear, Thermal adaptation in the built environment : a literature review, Energy and Buildings Volume 27, Issue 1, February 1998, Pages 83–96.

La principale découverte de cette approche, illustrée par la figure ci-dessus, est que, pour certains bâtiments, ceux qui s’apparentaient le plus aux chambres climatiques utilisées lors des premières recherches (façades hermétiques, peut de liberté laissée aux occupants de contrôler leur ambiance, codes vestimentaires stricts, etc.), les références de confort établies précédemment étaient valides. Elles reflétaient effectivement les plages de satisfaction des occupants. Mais pour d’autres bâtiments, ceux qui se basaient sur une ventilation naturelle, valorisaient la participation active des occupants au maintien du confort et leur laissaient une marge d’adaptation de leur activité ou habillement, les plages de confort théoriques se sont révélées trop étroites, si pas erronées. Toutes les enquêtes confirmaient le même fait : les plages de confort sont, dans une certaine mesure, dépendantes de la capacité d’adaptation des habitants. D’où l’idée de définir, pour ces bâtiments, des nouvelles plages de confort dites adaptatives. C’est l’objet notamment de la norme EN15251.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Exemple de rénovation d’éclairage d’une salle omnisports

Exemple de rénovation d'éclairage d'une salle omnisports


Avant rénovation

Photo avant rénovation. 

 

Commande manuelle des luminaires.

  • Puissance installée : 45 luminaires 3 x 58 W = 9,4 kW.
  • Niveau d’éclairement moyen : 350 lux (norme 300-500 lux) (uniquement éclairage artificiel).
  • Puissance spécifique : 3,7 W/m²/100 lux.
  • Consommation : 32 760 kWh/an.
  • Équipements : Les luminaires à réflecteur martelé sont protégés par une corbeille en acier. Ils sont équipés de ballasts magnétiques, et de lampes industrielles.
  • Gestion : Il n’y a pas de gestion de l’éclairage en fonction de la présence ou en fonction de la lumière du jour entrante.
  • Coûts : Le cout global (investissement et fonctionnement) pourrait être amélioré en mettant des luminaires équipés de ballasts électroniques dimmables en combinaison avec un système de gestion automatisée. Une étude aide à dimensionner correctement l’installation d’éclairage.

Après rénovation

Photo après rénovation -01. Photo après rénovation -02.

  • Puissance installée : 45 luminaires 4 x 35 W = 6,93 kW.
  • Niveau d’éclairement moyen : 500 lux (norme 300 – 500 lux).
  • Puissance spécifique : 1,8 W/m²/100 lux.
  • Consommation : 18 000 kWh/an soit 45 % d’économie d’énergie.
    (le temps de retour est estimé à 11 ans, mais le confort visuel beaucoup après rénovation est plus élevé !).
  • Gestion : Gestion manuelle en fonction de l’activité :
    100 lux pour le nettoyage de la salle
    300 lux niveau de training
    500 lux niveau de compétition
    ON/OFF manuel.

NB. : il existe des systèmes d’éclairage dimmables : gradation en fonction de la lumière du jour.
(Ici le client a souhaité un système simple et avec sensibilisation de l’utilisateur – il y  a de plus un surveillant).

Système de gestion.

Source : audit réalisé par I. Van Steenbergen.

Exemple d’audit éclairage d’une école

Exemple d'audit éclairage d'une école


Introduction

Nous reprenons ici les résultats d’un audit des installations d’éclairage d’une école primaire et d’une école maternelle. L’objectif principal de cet audit est d’évaluer le potentiel d’économie d’énergie propre à une rénovation de l’installation d’éclairage existante. Ces préoccupations énergétiques ne peuvent cependant en aucun cas occulter le but primordial de l’éclairage qui s’exprime en termes de confort visuel.

Les relevés des niveaux d’éclairement ont été réalisés lors de notre visite sur site au moyen d’un luxmètre digital étalonné. Les locaux ont été mesurés en journée (en déduisant l’éclairage du jour).

L’ensemble des calculs et simulations a été effectué au moyen du logiciel DIALUX.


Présentation des bâtiments

Bâtiment A – École primaire

Plan bâtiment A - école primaire.

Bâtiment B – École primaire

Plan bâtiment B - école primaire.

Bâtiment M – École maternelle

Plan bâtiment M – École maternelle


Rappel : économie d’énergie en éclairage

Les 3 fondements de l’économie d’énergie en éclairage sont :

  • Éteindre ou dimmer l’éclairage quand on n’en a pas besoin (de façon intelligente ; favorisez la lumière du jour !)

Concevoir

Pour en savoir plus sur la gestion efficace de l’éclairage.
  • Dimensionnement et planification adéquats (confort visuel, exploitation, concept, normes,…)

Mais ne perdons pas de vue le confort visuel !

Une installation d’éclairage de haut confort visuel tient compte de :

  • un niveau d’éclairement correct, en conformité avec la norme EN 12 464-1.
  • une bonne maîtrise de la luminance en fonction de l’application (pour éviter les problèmes d’éblouissement éventuels).

Analyse de la situation actuelle

Les lampes et les luminaires

Les lampes fluorescentes

Nous répertorions sur le site des luminaires de type et de qualité diverses équipés de lampes à fluorescence d’âge et de qualité variés.

La majorité des lampes fluorescentes est de bonne qualité (type HR de teinte 840).

Mais dans quelques vieux luminaires se trouvent encore des lampes de type « industriel » (teinte 133, 640…). Ces lampes étaient bon marché à l’achat, mais sont de mauvaise qualité.
Les lampes industrielles subissent une rapide dépréciation de leur flux lumineux.
Un autre défaut majeur est leur pauvre rendu des couleurs (IRC 65).

Évolution du flux lumineux dans le temps.

Les luminaires sont équipés de ballasts magnétiques et de starters.

Les luminaires

1. Bâtiment A– École primaire

photos éclairage école primaire - bât. A. photos éclairage école primaire - bât. A. photos éclairage école primaire - bât. A.

Dans les classes – réflecteur blanc T8 2 x 36 W – lampes nues, remarquez la teinte différente des lampes.
Dans le couloir – luminaire IP à coiffe perlée, ces luminaires ont un faible rendement.

2. Bâtiment B – École primaire

photos éclairage école primaire - bât. B. photos éclairage école primaire - bât. B. photos éclairage école primaire - bât. B.

Dans les classes – luminaires à grille T8 2 x 58 W (quelques 2 x 36 W), remarquez la teinte différente des lampes.
Dans le couloir – luminaire à grille (en mauvais état).

3. Bâtiment M – École maternelle

photos éclairage école maternelle - bât. M.

Des luminaires à plexi opalin, ces luminaires ont un faible rendement.

Niveaux d’éclairement et confort visuel

La norme NBN EN 12464-1 « Éclairage des lieux de travail » recommande un niveau d’éclairement de :

  • Couloirs et circulation : 100 à 150 lux ;
  • Salle de gym : 300 (éventuellement 500 lux en cas de compétition sport) ;
  • Classe : 300 lux (tableau 500 lux) – bonne uniformité et contrastes faibles.

La norme recommande également de limiter l’éblouissement.

Voici les résultats de nos mesures de niveau d’éclairement (mesures ponctuelles en déduisant la lumière du jour) :

1.    Bâtiment A – École primaire

  • Classes : 350 lux
  • Couloir : 30 à 180 lux

2.    Bâtiment B – École primaire

  • Classes : 520 lux (surdimensionné)
  • Bureau de direction : 680 lux (surdimensionné)
  • Salle de réunion : 580 lux

3.    Bâtiment M – École maternelle

  • Classes : 240 lux
  • Salle polyvalente : 285 lux
  • Réfectoire : 310 lux

Les niveaux d’éclairement sont presque conformes aux recommandations de la norme.

Puissance spécifique

La puissance spécifique, exprimée en W/m²/100 lux est un indicateur utilisé pour juger l’efficacité énergétique d’une installation d’éclairage.

La puissance installée après travaux ne peut dépasser :

  • entre 3 W/m² par 100 lux dans un couloir bas et large (min 30 m x 2 m x 2,8 m) et 8,5 W/m² par 100 lux dans un couloir haut et étroit (min. 30 m x 1 m x 3,5 m),
  • 2,5 W/m² par 100 lux dans les bureaux, les halls industriels et autres locaux.

Une tolérance pour des locaux de grandes hauteurs étant acceptable.
Des plafonds et des murs clairs aident à diminuer la puissance spécifique.

Les puissances spécifiques calculées varient entre 2,53 et 6,82 W/m²/100 lux.
(Voir tableau URE Situation actuelle en annexe).

Nous concluons d’après les valeurs calculées que l’installation d’éclairage devrait être améliorée.

La gestion de l’éclairage

Nous estimons le nombre d’heures d’allumage des lampes à 1 500 h/an (sauf quelques locaux spécifiques : dortoir, tableaux, salle de réunion, cuisine…: 1 000 h ou 500 h – Voir tableau URE).

Il n’existe pas de système de gestion automatisée de l’éclairage.
Les classes ont min. 2 circuits d’allumage (côté fenêtres, côté couloir, tableau).

Les mesures réalisées sur place montrent un apport important de lumière naturelle dans plusieurs locaux (par des fenêtres et par des lanterneaux).

Grandes fenêtres dans l’école primaire et lanterneaux dans l’école maternelle.

Une économie énergétique peut être obtenue par la gestion automatisée de l’éclairage en fonction de la présence et/ou en fonction de l’apport de la lumière du jour.


Détail pour la rénovation de locaux type

Attention! Cet exemple d’audit date de 2013, les solutions proposées ne sont plus d’actualité!

École primaire – Classe type

Photo école primaire - Classe type.

  • Classe type – Situation actuelle
  • Luminaires 2 x 36 W ballasts magnétiques
  • Niveau d’éclairement correct : 350 lux
  • Éclairage du tableau insuffisant
  • 2,78 W/m²/100 lux.

Proposition
Enlèvement et évacuation des vieux luminaires.
Placement de luminaires à grille pour l’éclairage général des classes de l’école primaire (6 dans l’exemple présenté ici) :

 

  • Équipés de ballast électronique dimmable et de lampe T5 ECO (1 x 32 – 35 W).
  • Rendement élevé, flux large (batwing).
  • ENEC.
  • 2 circuits de commande à maintenir.
  • Luminaires dimmables côté fenêtres.

Option : éclairage du tableau par 2 luminaires à flux asymétrique pour l’éclairage des tableaux. Équipés de ballast électronique et de lampe 1 x 55 – 58 W T8 ECO.

⇒ Résultat des simulations : 337 lux    1,22 W/m²/100 lux

Implantation des luminaires.

Économie d’énergie possible > 70 %.

***

École maternelle – Classe type

Photo école maternelle - Classe type.

  • Classe type – Situation actuelle
  • Luminaires 2 x 58 W ballasts magnétiques
  • Niveau d’éclairement : 240 lux
  • 6,82 W/m²/100 lux

Proposition
Enlèvement et évacuation des vieux luminaires.
Placement de luminaires à plexi pour éviter un regard direct dans les lampes (pour l’école maternelle).

 

  • Rendement élevé (> 85 %).
  • Équipés de ballast électronique et de lampe T5 ECO (1 x 45 – 49 W).
  • 2 circuits de commande à maintenir.
  • Luminaires dimmables au dortoir !

⇒ Résultat : 307 lux    2,21 W/m²/100 lux

Implantation des luminaires.

Économie d’énergie possible > 60 %.

***

Réfectoire

Photo réfectoire.

  • Réfectoire – Situation actuelle
  • Luminaires 1 x 36 W ballasts magnétiques
  • Niveau d’éclairement : 310 lux
  • 5,09 W/m²/100 lux.

Proposition
Enlèvement et évacuation des vieux luminaires.
Placement de 8 luminaires à plexi pour éviter un regard direct des lampes.

  • Rendement élevé (> 85 %) !
  • Équipé de ballast électronique et de lampe T5 ECO (1 x 45 – 49 W).
  • Luminaires dimmables en fonction de la lumière du jour.

⇒ Résultat : 275 lux    2,29 W/m²/100 lux

 

Implantation des luminaires.

Économie d’énergie possible > 70 %.

***

Salle polyvalente

Photo salle polyvalente.

  • Salle polyvalente – Situation actuelle
  • Luminaires 2 x 58 W ballasts magnétiques
  • Niveau d’éclairement : 285 lux
  • 4,04 W/m²/100 lux

Proposition
Enlèvement et évacuation des 12 vieux luminaires.
Placement de 6 luminaires renforcés pour salle de gym équipée de ballast électronique et de 4 x 45 W T5 ECO (4 x 45 – 49 W) (éventuellement dimmable).

  • Résistance aux chocs de ballons (Conforme DIN 57710 Teil 13/VDE 0710 Teil 15/05.81)
  • Rendement élevé (> 70 %).
  • ENEC
  • 2 circuits de commande ou luminaires dimmables

⇒ Résultat : 359 lux    2,32 W/m²/100 lux

Implantation des luminaire.

Économie d’énergie possible > 25 %.


Résultats

Sur base de cet avant-projet et les calculs effectués, l’économie d’énergie moyenne en éclairage entre 37 et 77 % dans le cas d’une rénovation de l’éclairage comme décrit dans ce rapport. La nouvelle installation d’éclairage est des plus en conformité avec la norme européenne traitant de l’Éclairage des lieux de travail intérieurs. (EN 12464-1) et limite tout risque d’éblouissement causé par des luminances trop élevées.

Situation actuelle

  • Puissance installée de l’éclairage : 32,41 kW
  • Consommation électrique de l’éclairage : 44.373 kWh/an

Après rénovation de l’éclairage

  • Puissance installée de l’éclairage : 14,4 kW
  • Consommation électrique de l’éclairage : 16.071 kWh/an

Résultat

  • Économie en puissance installée : 18,01 kW
  • = économie de 55 %
  • Économie en consommation électrique/an : 28.302 kWh/an
  • = économie de 64 %

Source : audit réalisé par I. Van Steenbergen.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Binning des LEDs

Binning des LEDs

Lors de la conception d’une lampe et d’un luminaire LED, les différentes unités LED sont prises parmi un lot. Les unités LED d’un même lot peuvent avoir des caractéristiques différentes en termes d’intensité et de couleur. Pour assurer une production de luminaire de mêmes caractéristiques photométriques et de température de couleur, les constructeurs ont mis au point le « binning ».
Le binning est caractérisé par le tri en fonction de critères spécifiques :

  • Tri selon la couleur ;
  • Tri selon le flux lumineux ;
  • Tri selon la tension directe.

Pour un « bin » de couleur déterminée, une qualité de lumière constante est garantie.

Température de couleur corrélée (Correlated Color Temperature : CCT)

Le CCT permet de qualifier une source lumineuse émettant de la lumière blanche comme chaude, neutre ou froide. Comme référence, le CCT se base sur l’émission de couleur du corps noir qui passe par différentes couleurs lorsqu’il est chauffé : du rouge (le plus froid) au bleu (le plus chaud).

Schéma températures de couleurs spécifiques ANSI.

Des températures de couleurs spécifiques ANSI ont été établies par rapport à des variations de couleurs autour de 8 valeurs de référence de CCT, à savoir :

ANSI C78.377A CCT Standard
CCT nominal (K) Variation du CCT (K)
2 700 2 725 + 145
3 000 3 045 + 175
3 500 3 465 + 245
4 000 3 985 + 275
4 500 4 503 + 243
5 000 5 028 + 283
5 700 5 665 + 355
6 500 6 530 + 510

Ellipses de MacAdam

Au-delà de la qualification d’une source comme étant chaude, neutre ou froide (CCT), il est très important pour les fabricants de LED de définir une variation maximale de température de couleur par rapport à une température cible caractérisant un luminaire LED. Cette précaution permet d’éviter de se retrouver dans un même espace avec une série de luminaires émettant une lumière différente.

Pour y arriver, les fabricants se servent des ellipses de MacAdam représentant un contour à l’intérieur duquel la variation des couleurs devient plus ou moins perceptible par l’œil.

% de population qui perçoit une différence.

L’échelle des ellipses de MacAdam est définie par une succession de SDMN (standard deviation of color matching) ou les dispersions  de couleurs :

  • À l’intérieur de l’ellipse 1 SDMC (« tep »), ne sont pas visibles ;
  • Entre les ellipses 2 et 4 SDMC sont légèrement visibles ;
  • Au-delà de l’ellipse, 5 SDMC sont franchement visibles.

Les huit températures de couleur (CCT) définies par ANSI ont, quant à elles, une dispersion de couleurs définies par des « boîtes » entourant l’ellipse 7 SDMC.

D’après ANSI, un lot de puce LED est considéré comme ayant la même température de couleur selon leur appartenance à l’ellipse 4 SDMC.

Types d’isolants : généralités

Types d'isolants : généralités

Un matériau est généralement considéré comme « isolant » lorsque son coefficient de conductivité thermique à l’état sec est inférieur ou égal à 0.07 W/mK.


Les grandes catégories d’isolants

Les isolants synthétiques

On regroupe sous ce nom les isolants tels que les mousses de polyuréthane et de polystyrène. Ces matériaux sont très défavorables. Issus de la chimie du chlore et du pétrole, ils sont produits à partir de matières non renouvelables et selon des procédés énergivores.

Ces isolants contiennent des substances qui appauvrissent la couche d’ozone (comme les HCFC) et libèrent des gaz toxiques et mortels en cas d’incendie. Des substituts aux CFC commencent à être utilisés et on a recours lors de la fabrication à de plus en plus de matériaux recyclés.

Dans cette catégorie, la mousse phénolique semble faire exception. Ces très bonnes caractéristiques thermiques associées à son caractère renouvelable, au faible rejet de polluant au long de sa durée de vie la rendent plus intéressante que les autres isolants synthétiques. Mais ce matériau récent ne possède pas encore réellement de filière de distribution et le retour pratique sur son utilisation et sa mise en œuvre est encore réduite.

Pour en savoir plus sur les isolants synthétiques : cliquez ici !

Les laines minérales

Ces isolants sont issus de matériaux abondants (roches volcaniques et sable) et présents en Europe. Ils sont souvent composés de matériaux recyclés. Tant que la teneur en liant reste inférieure à 5%, leur élimination se fait par mise en décharge comme matériaux inertes ou par recyclage complet (laine de roche). Leur procédé de fabrication est toutefois également très énergivore.

Pour en savoir plus sur les laines minérales.

Les isolants biosourcés

Ces isolants combinent généralement un matériau issu de sources renouvelables (végétaux, cellulose recyclée), et un mode de production peu énergivore.

Remarquons que la matière première est parfois peu abondante, ou disponible uniquement dans certaines régions (ex. liège).

En général, l’élimination des isolants « écologiques » peut se faire sans danger par compostage. Mais cela dépend du mode de fabrication. Par exemple, les isolants à base de chanvre ou de lin contiennent souvent du polyester.

Pour en savoir plus sur les isolants biosourcés.


Les formes d’isolant

Selon leur nature, les matériaux isolants présentent différentes formes, raideurs et résistances à la compression :

Formes Matériaux
Matelas semi-rigide ou souple : La laine de roche, la laine de verre, les fibres traitées organiques (chanvre, …) ou animales (laine, ….) …
Panneaux rigides : La mousse de polyuréthane, de polystyrène expansé ou extrudé, le verre cellulaire, les panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …), le liège …
Les flocons ou granulés : Les granulés de perlite ou de vermiculite, les granulés de polystyrène expansé, les granulés de liège, les flocons de laine minérale insufflés, les flocons de papier recyclé …

Les matériaux composites

Il existe des matériaux composites qui sont constitués de plaques juxtaposées de matériaux différents, isolants ou non.

Ces panneaux combinent les propriétés des matériaux qui les composent : résistance à la compression, imperméabilité à la vapeur, qualités thermiques, comportement au feu, comportement à l’humidité, aspect fini, etc.
Exemples :

Panneaux sandwiches autoportants avec ou sans armature de renforcement.

Panneaux de mousse PUR avec lestage ou surface circulable en béton.

Panneau complexe.

Panneaux complexes comprenant une couche d’isolant collé à une plaque de plâtre enrobé de carton avec interposition éventuelle d’un pare-vapeur entre le plâtre et l’isolant. L’isolant peut être de la mousse de polystyrène expansé ou extrudé, de la mousse de polyuréthanne, de la laine minérale.

Les isolants à pente intégrée

Les mousses synthétiques, le verre cellulaire, la laine de roche existent sous forme de panneaux dont les faces ne sont pas parallèles et forment un système permettant de faire varier l’épaisseur de l’isolant de façon continue. Des panneaux à double pente et des pièces spéciales de noues et d’arêtes sont en général également disponibles.

Isolant à pente intégrée sur une
toiture plate avant pose de l’étanchéité.

Grâce à ce système, il est possible de créer ou d’augmenter la pente de la couverture.

Les fabricants disposent généralement de services qui étudient la toiture et fournissent un plan de pose des isolants à pente intégrée.

Avantages

La réalisation ou la correction de la pente ne nécessite qu’une seule opération.

La charge sur le support est plus faible que s’il est fait usage d’un autre matériau pour réaliser la pente.

Inconvénients

L’épaisseur n’étant pas constante, l’isolation de la toiture plate le sera également. L’isolation devant être suffisante partout, une épaisseur suffisante d’isolant doit être prévue au point bas de la pente.

Pour former les pentes, une quantité importante d’isolant est donc nécessaire avec une conséquence sur le coût. À cela s’ajoutent les coûts liés aux difficultés de fabrication et d’études.


Quel isolant pour quel usage ?

Le tableau suivant présente une partie des choix envisageables pour isoler un bâtiment. Cette liste n’est bien entendue pas exhaustive. La colonne « choix traditionnel » montre ce qui est traditionnellement réalisé. Les deux autres colonnes, montre vers quelles solutions il faut se tourner lorsque l’on veut se rapprocher d’une démarche d’éco-construction.

Choix traditionnel

Choix plus écologique

Choix plus écologique

+

++

Dalle de sol

Polyuréthane

Polystyrène

Laine de roche haute densité

Verre cellulaire.

Argile expansé.

Double mur extérieur

Polyuréthane

Polystyrène

Laine minérale

Laine végétale et animale.

Chaux-chanvre (ossature bois).

Flocons de cellulose (ossature bois).

Toiture à versants

Laine minérale

Laine végétale et animale.

Chaux-chanvre (ossature bois).

Flocons de cellulose (ossature bois).

Toiture plate

Polyuréthane

Polystyrène

Laine minérale

Verre cellulaire.

Argile expansée.

Flocons de cellulose (ossature bois).

Tableau présentant les différentes solutions techniques d’isolation envisagées classiquement.


Caractéristiques principales des différents matériaux isolants

TYPE

Matériau

Masse

Conduct. therm.λi

Perm. à la vapeur µ moyen

Résist. à la compr.

Réact.
au feu

Kg/m³

W/mK

kg/cm²

 Minéral

MW

  Laine de roche

150 à 175

0.045

1.5

0.7 à 1.3 (*)

+

GW

 Laine de verre

13 à 60

0.045

1.5

0.2 (*)

+

CG

 Verre cellulaire

120 à 135

0.055

infini

7 à 16 (**)

+

EPB

 Perlite expansée

170

0.060

5 à 10

3,5 (*)

+

 Synthétique

PUR

 Polyuréthane

30

0.035

100

1.2 (*)

PIR

Polyisocyanurate

30

0.035

50

1.2 (*)

+

PF

Mousse phénolique

40

0.045***

80

1.2 (*)

+

EPS

 Polystyrène expansé

15 à 40

0.045

20 à 150

0.7 à 3.5 (*)

XPS

 Polystyrène extrudé

32 à 45

0.040

225

3 à 7 (*)

 Végétal

ICB

 Liège

100 à 120

0.050

12 à 28

+

Produits minces réfléchissants

PMR

 Multicouche composé de feuilles d’aluminium, mousses plastiques, polyéthylène, …

+ 70

0.050

12 à 28

+

(*) à 10 % de déformation (valeur moyenne)
(**) à la rupture
(***) pour les plaques en mousse résolique à cellules fermées revêtues, cette valeur est ramenée à 0,03 W/(mxK).

Remarques.

  • Les valeurs de λi sont tirées de l’annexe VII de la PEB. Elles correspondent à des matériaux non certifiés. Ces valeurs sont pessimistes.
  • Des valeurs plus favorables peuvent être considérées lorsque le matériau est connu quant à sa nature et certifié. Ces valeurs sont également données dans la NBN B 62-002/A1.
  • Lorsque les matériaux sont connus quant à leur nature, leur nom de marque et leur type et qu’ils sont certifiés, on considère leλi donné dans leurs certificats BENOR, ATG ou documents équivalents. Ces valeurs peuvent être beaucoup plus favorables que les précédentes, comme le montre le graphique ci-dessous.

Conductivité thermique maximale et minimale des isolants fournies par les spécifications techniques européennes de l’EOTA (European Organisation for Technical Approvals), les déclarations volontaires de qualité ATG (Agréments Techniques de l’UBAtc – Union Belge pour l’agrément technique dans la construction) ou les certificats Keymark du CEN (Comité Européen de Normalisation), quels que soient l’application et les autres facteurs d’influence éventuels.

Données

Pour connaitre les valeurs conductivité thermique d’autres matériaux : cliquez ici !


Coût des différents types d’isolant

Les coûts repris ci-dessous sont indicatifs des matériaux que l’on peut trouver facilement en Belgique en 2008. Il s’agit de tarifs moyens annoncés par quelques fournisseurs. En effet, les prix varient en fonction des quantités achetées.

Coût Unité Épaisseur

Polystyrène extrudé

7 à 25 € /m² hTVA 40 à 120 mm

Polystyrène expansé

5 à 15 € /m² hTVA 40 à 120 mm

Polyuréthane

6.5 à 27.5 € /m² hTVA 40 à 120 mm

Laine de verre

5 à 18 € /m² hTVA 40 à 180 mm

Laine de roche

5 à 18 € /m² hTVA 40 à 180 mm

Verre cellulaire

25 à 35 € /m² hTVA 40 à 60 mm

Perlite expansée pure

0.1 à 0.2 € /l hTVA /

Vermiculite expansée pure

0.1 à 0.2 € /l hTVA /

Argile expansé

7 à 12 € /m² hTVA 10 mm

Panneaux fibre de bois

7 à 24 € /m² hTVA 30 à 100 mm

Cellulose en vrac

0.13 € /l hTVA /

Laine de cellulose en vrac

0.25 € /l hTVA /

Laine de cellulose en panneaux

7 à 25 € /m² hTVA 40 à 160 mm

Liège en vrac

0.2 € /m² hTVA /

Liège en panneaux

5 à 12 € /kg hTVA 20 à 80 mm

Liège en rouleaux

5 à 15 € /m² hTVA 2 à 6 mm

Laine de chanvre

5 à 30 € /m² hTVA 5 à 200 mm

Feutre de jute

4.5 € /m² hTVA /

Laine de mouton

0.7 à 1.2 € /kg hTVA /


Impact sur la santé

L’impact des isolants sur la santé est encore difficilement estimable. En effet, si l’effet d’un composé est aujourd’hui connu, l’effet de la combinaison de produits toxiques est plus compliqué à analyser.  De plus pour déterminer les impacts des polluants, il y a toujours lieu de prendre en compte simultanément les trois paramètres suivants :

  • temps d’exposition
  • intensité de la pollution
  • sensibilité de la personne

En ce qui concerne les isolants synthétiques, ils dégagent tout au long de leur durée de vie des produits gazeux dangereux, mais comme ils ne sont pas en contact direct avec l’ambiance, on estime que leur impact est limité. Une chose reste sûre, ils ont le défaut de dégager des fumées très toxiques en cas d’incendie !

Les isolants fibreux ne posent pas non plus de problème une fois qu’ils ont été posés. Mais il faudra être très vigilant lors de leur mise en place, car leur structure fibreuse peut dans certains cas provoquer des problèmes pulmonaires suite à l’inhalation de particules fines. Cela dépendra du type de fibre et leur bio-persistance.  Ils ont le grand avantage d’être peu ou non combustible de par leur nature et leur structure, ou suite à un traitement au sel de bore.

Isolants minéraux

Isolants minéraux

On distingue généralement les laines minérales des isolants minéraux  à proprement dits.


Les laines d’origine minérale

La laine de roche (MW)

Photo laine de roche (MW).Photo laine de roche, détail.

Les fibres de la laine de roche sont obtenues par la fonte de la roche diabase. Elles sont liées à l’aide de résines synthétiques polymérisées pour former des rouleaux et des panneaux. Ceux-ci peuvent présenter différentes rigidités et finitions de surface. La laine de roche a une composition non uniforme (parties infibrées).

La laine de roche est totalement perméable à la vapeur d’eau, mais est non hygroscopique. Elle est non capillaire (n’absorbe pas l’eau). Elle est totalement perméable à l’air. Elle se caractérise par une bonne stabilité thermique, un bon comportement au feu. Elle est fort compressible et résiste mal au délaminage.

Les panneaux de laine de roche destinés aux toitures plates seront de densité importante (ρ= 150 à 175 kg/m³) et de fabrication particulière (sens des fibres) pour garantir une rigidité suffisante, et une résistance suffisante au délaminage. Ces panneaux sont surfacés de voile de verre et/ou de bitume.

La laine de verre (GW)

Photo laine de verre (GW).    Photo laine de verre, détail.

Les fibres de la laine de verre sont obtenues par la fonte de verre et de sable quartzeux. Elles sont traitées par un produit hydrofuge. Elles sont liées à l’aide d’un produit thermodurcissant pour former des rouleaux et des panneaux. Ceux-ci peuvent présenter différentes rigidités et finitions de surface. La laine de verre a une composition uniforme.

Tout comme la laine de roche, la laine de verre est totalement perméable à la vapeur d’eau, mais est non hygroscopique. Elle est non capillaire (n’absorbe pas l’eau). Elle est totalement perméable à l’air. Elle se caractérise par une bonne stabilité thermique, un comportement au feu légèrement moins bon que la laine de roche.

La laine de verre n’est plus utilisée pour les toitures plates à cause de sa faible résistance au délaminage et à la compression.


Les isolants minéraux

Le verre cellulaire (CG)

Photo verre cellulaire (CG).   Photo verre cellulaire, détail.

Le verre cellulaire est une mousse de verre obtenue par expansion de celui-ci lorsqu’il est en fusion. Les cellules ainsi formées contiennent un gaz inerte.

Son procédé de fabrication conduit à la production d’un isolant léger à cellules fermées. Le verre cellulaire est ainsi est complètement étanche à la vapeur d’eau, à l’eau et à l’air. Il se caractérise par une bonne stabilité thermique et un bon comportement au feu. Bien qu’incompressible, ce matériau est relativement fragile et nécessite un support régulier et rigide lorsqu’il est soumis à des contraintes mécaniques.

Disponible en panneaux ou en gros granulés, son seul défaut, en plus de son coût élevé, est d’être produit par des procédés de fabrication très énergivore.

La perlite expansée (EPB)

Photo perlite expansée (EPB).

La perlite expansée est obtenue à partir de pierre volcanique rhyolitique concassée et expansée à une température de +/- 900°C.

La perlite expansée est mélangée à des fibres cellulosiques et à un liant bitumineux pour former des panneaux mais peut aussi être utilisée en vrac.

La perlite expansée se caractérise par une grande résistance à la compression et au poinçonnement, un bon comportement au feu et une résistance limitée au pelage. Elle ne résiste pas à une humidification prolongée.

La vermiculite

Photo vermiculite.
Granule de vermiculite grossi.
(doc. Agroverm).

La vermiculite est produite à partir de mica expansé. Elle est disponible sous forme de granulés ou de panneaux. Comme la perlite, ce matériau peut être déversé en vrac ou être incorporé dans les mortiers, bétons allégés, enduits isolants et dans les blocs de constructions.

L’argile expansée

Elle est vendue en vrac, en panneaux ou incorporée dans des bétons allégés, des blocs de construction préfabriqués.

L’argile expansée présente un excellent classement au feu et offre une bonne résistance à l’humidité.

Photo argile expansée. 

Granules d’argile expansée et Granule d’argile expansée grossie et coupée (doc. TBF).

Gestion et commandes manuelles

Gestion et commandes manuelles


Les interrupteurs

Les interrupteurs constituent les organes de commande les plus simples dans une gestion d’occupation. Leur caractéristique principale est qu’ils restent en l’état ON ou OFF s’ils ne sont pas actionnés par l’occupant. Le changement d’état nécessite l’intervention de l’occupant.

L’occupant allume ou pas l’éclairage en fonction de sa sensibilité personnelle et des conditions d’ambiance du local dans lequel il se trouve. L’acte d’allumer ou d’éteindre est volontaire, ce qui devrait responsabiliser les occupants.

Différentes études ont montré que la responsabilisation de l’occupant est plus liée à l’allumage des luminaires quand il rentre dans un local qu’à leur extinction quand il le quitte. Leur perspective de perdurer dans une installation moderne qui tient compte de la gestion énergétique des consommations d’éclairage ne repose que sur la démarche volontaire d’éteindre les luminaires quand on quitte son boulot.

Schéma principe boutons interrupteurs.

Schéma principe boutons interrupteurs.

Dans les bâtiments tertiaires, on voit tout de suite la limite des interrupteurs si les occupants sont peu ou pas responsables.

On retrouve différents types d’interrupteur suivant la configuration du local : les interrupteurs simples et 2 directions existent toujours sur le marché.


Les boutons poussoir

Les boutons poussoirs, contrairement aux interrupteurs, n’ont qu’un seul état au repos : soit ON, soit OFF suivant leur type. Ils ne servent, par une simple impulsion, qu’à changer l’état d’un équipement intermédiaire de commande des luminaires comme, par exemple, les télérupteurs, les relais, les entrées digitales des automates (DI : Digital Input), …

Cette caractéristique leur permet aussi de pouvoir être couplés avec une détection d’occupation automatique.

L’idée est de combiner :

  • un allumage volontaire de l’éclairage à l’entrée de l’occupant dans son local ;
  • et une extinction manuelle ou automatique du même éclairage par détection d’absence lorsque l’occupant quitte son local (possibilité de temporisation).

Schéma principe boutons poussoir.


Les gradateurs ou « dimmer »

L’idée du contrôle du flux lumineux  est d’adapter la luminance ou, de manière plus pratique, le niveau d’éclairement du luminaire en fonction du besoin réel de « lux » dans un local. En effet, lorsque le local considéré bénéficie d’un appoint en éclairage naturel conséquent, par exemple, ou bien lorsque l’on souhaite projeter une présentation dans une salle de réunion, le maintien d’un flux lumineux à 100 %, d’une part, peut devenir une source d’inconfort visuel et, d’autre part, source de consommations énergétiques inutiles.

Schéma principe gradateurs ou "dimmer".

Grâce aux « dimmers », la tension d’alimentation peut-être réglée de 0 à 100 % en 230 V par exemple. La technique du contrôle manuel fait appel à la bonne volonté des occupants et nécessite une bonne dose de patience sachant que le climat de notre chère Belgique est très changeant, ce qui limite sérieusement son utilisation dans le contrôle du flux lumineux en fonction de la lumière naturelle de plusieurs luminaires. Il sera donc principalement utilisé dans les locaux où plusieurs tâches nécessitant des niveaux d’éclairement différents sont réalisées (salle de réunion et projection par exemple).

Variateurs de lumière (ou « dimmer »).

Techniques

 Pour en savoir plus sur les possibilités de gestion en fonction de l’apport en éclairage naturel.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Gérer la ventilation des cabines et des gaines d’ascenseur

Gérer la ventilation des cabines et des gaines d’ascenseur


Niveau de ventilation à prévoir

Les cabines d’ascenseurs doivent garantir un apport d’air frais aux utilisateurs. Le seul moyen d’amener l’air hygiénique dans la cabine est de ventiler la gaine d’ascenseur. Les débits d’air sont difficiles à maîtriser sachant que les portes palières ne sont pas étanches, que l’effet cheminée est présent, que les déplacements de la cabine des ascenseurs circulant à une vitesse > 2 m/s perturbent l’aéraulique de la gaine… La seule chose qui soit certaine, c’est l’existence de déperditions thermiques, non négligeables, dues à cette ventilation hygiénique.

La ventilation, considérée comme hygiénique, est propre au volume occupé par les ascenseurs et ses locaux annexes, et ne doit pas servir à la ventilation des autres volumes. Pour assurer cette ventilation, la norme suggère de prévoir des orifices de ventilation pour la cabine, pour la gaine et pour le local des machines.

Cabine d’ascenseur

La directive ascenseurs 95/16/CE exige ceci : « Les cabines doivent être conçues et construites pour assurer une aération suffisante aux passagers, même en cas d’arrêt prolongé. » Annexe 1 chapitre 4.7).

Pour les cabines d’ascenseurs, les normes NBN EN 81-1 et 2 prévoient des orifices de ventilation équivalant à 1 % de la surface horizontale de la cabine (ventilation haute et basse).
Les interstices au niveau des portes de la cabine peuvent entrer, à concurrence de moitié, dans la surface de ventilation recommandée. Cette ventilation hygiénique ne doit pas nuire non plus au confort des utilisateurs dans la cabine sous forme de courant d’air, de différence de pression acoustique et/ou de bruit.

Gaine d’ascenseur

En ce qui concerne les gaines d’ascenseur, la norme NBN EN 81-1 recommande d’aménager en partie haute de la gaine des orifices de ventilation d’une surface minimale de 1 % de la section horizontale de la gaine.

La réglementation nationale en matière d’incendie est complémentaire et différencie deux cas pour la ventilation de la gaine :

  1. Si le compartiment ascenseur est doté d’une salle des machines, la section des orifices de ventilation est équivalente à 1 % de la surface horizontale de la gaine.
  2. Par contre, s’il n’y a pas de salle des machines (système « gearless« , par exemple), la section des orifices devient équivalente à 4 % de la surface horizontale de la gaine.

Les gaines d’ascenseur sont en général ventilées de manière naturelle. Par contre, les ascenseurs à gaines extérieures bénéficient d’une ventilation renforcée. En effet, ce sont souvent des ascenseurs panoramiques entièrement vitrés qui nécessitent, en été, d’être ventilés efficacement afin d’éviter les surchauffes (attention à la la consommation électrique des ventilateurs !).

Local des machines

En ce qui concerne la ventilation des salles des machines, elles doivent être ventilées convenablement afin que le moteur, l’appareillage ainsi que le câblage électrique, etc. soient aussi raisonnablement que possible à l’abri des poussières, des vapeurs nuisibles et de l’humidité.

Qu’elle soit au-dessus ou en-dessous de la gaine d’ascenseur, la motorisation constitue un apport interne de chaleur non négligeable.

Sur base des données d’un constructeur, le tableau ci-dessous donne une idée des déperditions de différents types de motorisation :

Type de motorisation Déperditions calorifiques [kW]
Hydraulique

4,5

Traction classique

3

Gearless + variateur de vitesse

1

Pour éviter la surchauffe dans la salle des machines, les apports internes doivent être évacués soit par la ventilation naturelle créée dans la gaine d’ascenseur et la salle des machines, soit par des extracteurs mécaniques. L’extraction forcée des apports internes vers l’extérieur constitue une perte thermique non-négligeable.

Exemple

Soit une salle des machines dont les dimensions sont de l’ordre de 15 [m²] au sol x 3 [m] de hauteur et équipée de 3 motorisations à traction pour des ascenseurs aux caractéristiques suivantes :

  • 630 kg,
  • 3 [kW] de déperditions thermiques.

En outre, on suppose que :

  • La température dans la gaine est en moyenne à 20 °C tout au long de l’année (la gaine est dans le volume chauffé) ;
  • La température de la salle des machines ne peut pas dépasser 27 °C (bon fonctionnement de l’électronique de régulation).
  • La capacité thermique volumique de l’air ρ c = 0,34 [Wh/m³K].

On calcule de manière simplifiée le débit qv nécessaire d’extraction pour maintenir la température de la salle des machines à 27 °C.

Soit :

qv [m³/h] = apports internes [W] / (0,34 [Wh/m³.K] x Δ t [K])

qv = 3 x 3 000 / (0,34 x (27 – 20))

qv  = 3 780 [m³/h]

ouverture d'une nouvelle fenêtre ! Suisse énergie a montré que, pour une configuration moyenne d’ascenseur, le débit de ventilation naturelle pouvait être évalué à 600 [m³/h].

En supposant que les configurations soient semblables, pour 3 ascenseurs identiques, on a 3 x 600 [m³/h] = 1 800 [m³/h] de ventilation naturelle vers le haut; ce qui signifie que le débit naturel n’est pas suffisant pour évacuer les calories produites par les apports des moteurs et qu’il faudra par moment faire appel à une ventilation mécanique (extracteur).


Contrôler le débit de ventilation de la gaine

Comme le montre une étude faite par ouverture d'une nouvelle fenêtre !Suisse énergie (mise en évidence des débits de ventilation dans les gaines d’ascenseur), le débit de ventilation d’une cage d’ascenseur de 12 [m] de haut d’un bâtiment de 4 étages, équipée de grilles de ventilation haute et basse de 1 225 [cm²] chacune, et dont les températures externes et internes étaient respectivement de 6 et 20 [°C], avoisinait les 600 [m³/h]; ce qui n’est pas négligeable. Toutefois, il est difficile d’évaluer les débits réels sachant que dans le projet :

  • l’orifice d’ouverture dans le pied de gaine d’ascenseur ne sera pas prévu,
  • les fuites au niveau des portes palières seront incontrôlables.

Évaluer

Pour en savoir plus sur l’estimation des débits de ventilation dans les gaines d’ascenseur.

Néanmoins,  ces pertes peuvent être considérablement réduites en contrôlant le débit d’extraction naturelle au sommet de la gaine.

Pour ce faire, depuis septembre 2012, la législation belge (par l’Arrêté royal du 21 septembre 2012) reconnait une solution qui consiste à munir l’ouverture de ventilation de clapets motorisés gérés intelligemment.  Ceux-ci s’ouvrent automatiquement en cas :

  • de besoin de ventilation (lorsque les occupants utilisent l’ascenseur) ;
  • d’incendie ;
  • de défaillance de la source d’énergie.

Ils sont généralement aussi asservis à un thermostat d’ambiance pour réguler la température dans la gaine (et ce, notamment, afin de garantir le bon fonctionnement des dispositifs de commande et de régulation des ascenseurs (à voir avec le constructeur au niveau des températures de commande)). Une ouverture manuelle doit de plus être prévue pour le service d’incendie.

Il faudra de plus tenir compte :

  • des prescriptions en matière d’incendie (clapet coupe-feu) ;
  • des risques de condensation par le placement d’un calorifugeage au niveau des volets ;
  • des contraintes d’étanchéité à l’air à garantir (clapet étanche à l’air en position fermée).

Codes flux [éclairage]

Codes flux [éclairage]

 

Les codes flux représentent l’image de la distribution lumineuse d’un luminaire.  Ils caractérisent le flux lumineux pour des angles solides matérialisés dans des cônes centrés sur l’axe principal du luminaire et d’angles d’ouverture α spécifiques.

Angles définissant les codes flux.

Les principaux codes flux sont :

  • FC1, FC2, FC3, FC4 et F pour les angles solides de π/2, π, ¾ π, 2 π et 4 π. Cela correspond aux angles  α de 41,4°, 60°, 75,5°, 90° et 180° respectivement ;
  • FC4, le flux lumineux émis dans l’angle solide 2 π ou l’ensemble du flux lumineux émis vers le bas ;
  • F, le flux lumineux émis dans l’angle solide 4 π ou le flux lumineux total émis par le luminaire ;
  • PHIS, le flux lumineux total issu de l’ensemble des lampes du luminaire.

Diagramme polaire.

Angles Correspondance des angles
Angle du cône 41, 4 ° 60° 75,5° 90° 180°
Angle solide ω /2 ¾ 2 4

 Codes flux CIE.

Exemple

Luminaire à
éclairage direct

Luminaire à
éclairage mixte direct

Données photométriques
Lumen [lm] Lumen [lm]
FC 1 2 535 FC 1 1 733
FC 2 3 730 FC 2 2 292
FC 3 3 755 FC 3 2 305
FC 4 3 760 FC 4 2 309
F 3 760 F 3 870
PHIS 5 000 PHIS 4 300
Code flux CIE
N 1 FC 1 / FC 4 0,67 N 1 FC 1 / FC 4 0,75
N 2 FC 2 / FC 4 0,99 N 2 FC 2 / FC 4 0,99
N 3 FC 3 / FC 4 1,00 N 3 FC 3 / FC 4 1,00
N 4  FC 4 / F 1,00 N 4 FC 4 / F 0,60
N 5 F / PHIS 0,75 N 5 N 5 0,90

 Remarques
Les données N2, N4 et N5 sont les données à introduire dans le logiciel PEB :

  • N2 représente la composante intensive du flux lumineux ;
  • N4 représente la composante directe du flux lumineux.

N5 représente le rapport entre le flux lumineux total F émis par le luminaire et le flux lumineux émis par toutes les lampes du luminaire, soit l’image du rendement du luminaire.

  • le flux lumineux émis vers le bas (FC 4 = 3 760 lm) est identique au flux lumineux total émis par le luminaire (F = 3 760 lm), ce qui est logique pour un luminaire à éclairage direct ;
  • N 5 = 75 %.
  • le flux lumineux total émis par le luminaire (F = 3 870 lm) est supérieur au flux lumineux émis vers le bas (FC 4 = 2 309 lm) ;
  • N 5 = 90 %.

Réduire les apports de chaleur dus à l’éclairage

Réduire les apports de chaleur dus à l'éclairage

L’entièreté de l’énergie électrique consommée par l’éclairage artificiel est dissipée sous forme de chaleur dans l’ambiance intérieure, par rayonnement, convection ou conduction. De plus, dans les bâtiments thermiquement performants, les lampes qui émettent beaucoup d’infrarouge (IR), indépendamment des surconsommations électriques qu’elles engendrent, participent souvent aux risques de surchauffe.

Calculs

Pour établir le bilan thermique d’un local et évaluer l’impact de l’éclairage sur la surchauffe.


La puissance installée

La puissance calorifique dégagée par l’éclairage équivaut à la puissance des lampes installées. Pour les lampes fluorescentes, il faudra également tenir compte des pertes des ballasts qui varient de 10 à 20 % de la puissance de la lampe.

Schéma puissance installée.


Le type de lampe

Toute l’énergie consommée par les lampes est transformée en chaleur par :

  • conduction (« par les solides »),
  • convection (« par les gaz, les liquides »),
  • rayonnement (lumière et autres radiations, infrarouge en particulier).

En fonction de la famille de lampes considérée, la répartition de ces divers apports sera différente. Il est essentiel de tenir compte de cette répartition pour éviter des élévations de température trop importantes.

Deux caractéristiques permettent de choisir correctement le type de lampe à utiliser :

  • le rendement des lampes : fraction de la quantité d’énergie transformée en lumière. Augmenté l’efficacité du système permet de limiter la puissance installée, et donc les apports de chaleurs.
  • la composition du spectre d’émission : on choisira des lampes dont le spectre comporte une faible proportion d’énergie thermique infrarouge par rapport à la fraction utile d’énergie lumineuse.

Pour éviter un apport calorifique trop important, on réalisera le système d’éclairage à partir de  tubes fluorescents.

Lampes à incandescence

Ces lampes émettent un rayonnement infrarouge important (de l’ordre de 75 % de la puissance de la lampe). Comme les infrarouges et les rayons lumineux se réfléchissent en même temps, les lampes à réflecteur et les projecteurs intensifs vont provoquer des élévations de température très importantes dans l’axe du faisceau.

Les lampes à rayonnement dirigé dites à « faisceau froid » ou dichroïque » limitent le rayonnement infrarouge direct. Le miroir de ces lampes conçu pour réfléchir la lumière, est transparent pour les radiations infrarouges indésirables. Lorsque l’on utilise ce genre de lampe, il faut s’assurer que le luminaire utilisé est susceptible de les recevoir car, sans précaution, elles provoquent un échauffement supplémentaire de la douille, du câblage et de la partie arrière du luminaire.

Le dégagement de rayonnement infrarouge de ce type de lampe en fait une source lumineuse peu efficace et justifie son retrait progressif du marché.

Lampes fluorescentes et lampes à décharge (haute pression)

Ces lampes émettent une très faible proportion de rayons infrarouges courts. Par contre, les tubes à décharge des halogénures métalliques et des sodiums haute pression émettent une quantité importante d’infrarouge moyen. En ce qui concerne les lampes fluorescentes, on ne fera attention qu’aux niveaux d’éclairement très élevés qui sont les seuls à produire un effet thermique direct perceptible.

Si l’effet calorifique du rayonnement de ces lampes est relativement faible, la transformation en chaleur de l’énergie électrique consommée (lampe et ballast)  ne doit pas être sous-estimée. L’élévation de la température des parois du luminaire vont transformer celui-ci en émetteur d’infrarouges longs susceptibles d’influencer la distribution thermique du local et/ou du meuble frigorifique.

LED

Les LED ne génèrent pas ou peu de rayonnement infrarouge (IR) ou ultraviolet (UV) dans le flux lumineux. Il est clair qu’elles génèrent de la chaleur, mais plutôt vers l’arrière de la lampe LED, ce qui facilite l’extraction. De ce fait, elles sont très intéressantes dans les musées ou dans les magasins de denrées alimentaires où des températures basses sont nécessaires.

Schéma chaleur dégagée par les LED.

Bilan énergétique de quelques lampes

Le tableau suivant donne les bilans énergétiques de quelques types de lampes.

Bilans énergétiques de quelques lampes (d’après C. Meyer et H. Nienhuis)

Type de lampe

Conduction et convection [%]

Rayonnement [%]

Rayonnement lumineux [%]

Puissance à installer par 100 lm [W]

UV

IR

Incandescentes 100 W

15

75

10

10

Fluorescentes rectilignes

71.5

0.5

(1)

28

1.4

Fluorescente compactes

80

0.5

(1)

19.5

1.8

Halogénures métalliques

50

1.5

24.5

24

1.3

Sodium haute pression

44

25

31

1

(1) Dans le cas de lampes fluorescentes dont la surface développée est importante, on pourrait séparer le rayonnement infrarouge (long). Pour les lampes fluocompactes cette distinction est inutile.

Exemple.

Par exemple si 2500 lm doivent être fournis, les bilans énergétiques des différentes installations deviennent :

Type de lampe

Conduction et convection [W]

Rayonnement [W]

Rayonnement lumineux [W]

UV

IR

Incandescentes 100 W

37.5

187.5

25

Fluorescentes rectilignes

25.025

0.
175

(1)

9.8

Fluorescente compactes

36

0.225

(1)

8.775

Halogénures métalliques

16.25

0.487

7.962

7.8

Sodium haute pression

12.1

6.875

8.525

(1) Dans le cas de lampes fluorescentes dont la surface développée est importante, on pourrait séparer le rayonnement infrarouge (long). Pour les lampes fluocompactes cette distinction est inutile.

Cet exemple montre bien l’intérêt d’utiliser des lampes à décharge. Leur faible coût d’achat, leur longue durée de vie, leur bon indice de rendu des couleurs font des lampes fluorescentes le choix le plus adapté.


Influence de l’inertie du local

Schéma influence de l'inertie du local.

L’inertie thermique du local permettra d’accumuler une partie de la chaleur instantanée dégagée par les luminaires. Cet impact est cependant faible (environ 10 % de réduction pour un local à forte inertie) et se fera principalement ressentir pour les lampes à incandescence (90 % de leur chaleur est dissipée par rayonnement).


Influence du type de plafond

Schéma influence du type de plafond - 01.

Des hauteurs sous plafond importantes diminuent également l’impact des luminaires grâce à la stratification des températures dans le local (l’air chaud s’accumule en dehors de la zone d’activité). Ce phénomène se fait principalement ressentir (jusqu’à 20 % de réduction) pour les lampes fluorescentes (60 % de leur chaleur est dissipée par convection) et lorsqu’une extraction d’air est organisée en plafond.

Schéma influence du type de plafond - 02.

Un phénomène semblable se fait ressentir lorsque les luminaires sont encastrés dans des faux plafonds servant de plénum de reprise pour la ventilation. Une partie de la chaleur émise est alors évacuée avant qu’elle puisse contribuer à la surchauffe du local.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Choisir la gestion et la commande

Critères de choix

Au niveau énergétique, un projet de conception ou de rénovation importante de l’éclairage doit tenir compte :

  • De la sensibilisation à l’URE et de l’ergonomie ;
  • Du profil d’occupation des locaux et de l’évolution possible de ce profil au cours du temps ;
  • De l’apport de lumière naturelle ;
  • De la performance thermique de l’enveloppe du bâtiment et de lier le confort visuel au confort thermique ;
  • De la taille du ou des bâtiments constituant le parc immobilier. ;

Quels que soient les critères de choix du système,  sa configuration de base ne change pas. On a toujours besoin :

  • De câble d’alimentation ;
  • De luminaires ;
  • D’organes d’allumage et d’extinction des luminaires ;
  • D’organes de gestion.

Le développement de l’électronique et l’apparition de « l’immotique » dans les bâtiments tertiaires a permis de repenser la gestion des systèmes d’éclairage en tenant compte, à confort visuel optimal,  de l’énergie. L’acceptation de l’immotique par les occupants des locaux est souvent délicate sachant qu’en général, ils sont d’une part réfractaires au changement et d’autre part ils n’ont plus nécessairement la maîtrise du système.

Un système d’éclairage performant tenant compte de l’occupation et de la lumière naturelle permet de réduire sensiblement les consommations électriques. C’est d’autant plus vrai dans la conception de bâtiment à basse voire très basse énergie, car la part de consommation énergétique que prend l’éclairage devient très importante.


Sensibilité à l’URE et ergonomie

Sensibilité

La sensibilisation à l’URE (Utilisation Rationnelle de l’Énergie) et l’ergonomie influencent particulièrement le choix de la gestion de l’éclairage. Lorsque les occupants des locaux ont la « fibre énergétique », la gestion de l’éclairage peut être simple par le choix d’une gestion manuelle classique.

Elle est envisageable dans des espaces privés. Par contre, pour une gestion dans des espaces privés locatifs ou publics, on fera appel à de l’équipement automatique. En effet, dans ce type d’espace, il règne en général un esprit de déresponsabilisation des occupants qui sont « de passage ».

Exemple

Le choix d’une gestion de l’éclairage par un interrupteur à deux allumages pour réaliser un zonage dans un local de taille importante ne devrait pas poser un gros problème.

Ergonomie

Malgré une sensibilité avérée des occupants d’espace, l’ergonomie représente un facteur limitatif  au choix d’une gestion simple.

Exemple

« On connait tous l’inconvénient de gérer un groupe de  luminaires proche de la fenêtre par une gestion de type interrupteur simple. Notre cher climat en Belgique n’épargne pas notre patience ! ».

Lorsque le soleil joue à « cache-cache » avec la couche nuageuse, les variations de niveau d’éclairement voudraient que l’occupant éteigne et rallume les luminaires du côté de la fenêtre pour réduire la facture énergétique. Le gestionnaire risque de devoir dépenser les économies générées au profit des « psy d’entreprise ».

Arbitrage

Mise en garde : « un système de gestion automatique de l’éclairage ne fonctionne que s’il est parfaitement accepté par les occupants. L’imagination de ceux-ci est incroyable quand il s’agit de contrarier un système automatique ! Celui-ci doit donc être soit imperceptible, soit compris et accepté par les occupants ».

On conseille souvent de ne pas pousser trop loin la recherche d’économies au détriment de la liberté des utilisateurs et de la simplicité de la gestion. Dans les locaux de bureau, par exemple, les occupants doivent pouvoir allumer ou éteindre un luminaire, faire varier la puissance émise par un luminaire ou personnaliser leur ambiance de travail. Des solutions existent comme les dérogations manuelles sous forme de télécommande IR (Infrarouge) ou RF (Radio Fréquence).

Ainsi, dans les grands bureaux, il faut dans la mesure du possible donner la possibilité aux occupants de gérer l’éclairage au niveau de leur propre espace de travail.

L’utilisateur pourra être sensibilisé :

  • à la non-utilisation de l’éclairage artificiel général si l’éclairage naturel est suffisant,
  • à extinction de l’éclairage d’un local lorsqu’il quitte celui-ci.

Des exemples de gestions manuelles et automatiques

Exemple 1 : local à occupation brève et variable

Dans des locaux de type privés comme des locaux d’archives, techniques, …, une gestion manuelle  comme un interrupteur simple avec témoin lumineux est la solution. A l’inverse, les locaux comme les sanitaires et WC privés ou public seront équipés d’une détection de présence (avec éventuellement détection sonore) dans le blochet près de la porte.


Gestion manuelle.


Gestion automatique.

Calculs

Pour avoir une idée de la rentabilité d’un tel changement.!
Exemple 2 : local à occupation prolongée et à apport de lumière naturelle

Lorsque les occupants sont sensibilisés, on pourrait envisager un interrupteur à 2 allumages pour allumer/éteindre distinctement la rangée de luminaires côté fenêtre de celle côté couloir. Ceci dit, pour des variations importantes et aléatoires de l’éclairage naturel, une gestion semi-automatique par allumage volontaire à partir d’un bouton-poussoir et extinction par détection d’absence  sera préférée. À noter que la tête de détection intègre une sonde de luminosité.

Attention : s’il s’agit de lampes fluorescentes, il faudra équiper les luminaires de ballasts électroniques dimmables. S’il s’agit de LEDS, il faut prévoir des drivers dimmables.


Gestion manuelle par interrupteur à 2 allumages.

 
Gestion semi-automatique.

Calculs 

Pour avoir une idée de la rentabilité d’un tel changement.
Exemple 3 : locaux à occupation intermittente programmée

Dans les couloirs occupés de jour comme de nuit (couloir d’hospitalisation par exemple), pour les motivés par l’énergie, le placement d’une gestion manuelle comme un inverseur est une solution.

Si l’on veut s’orienter vers une gestion automatique, le placement d’une horloge centrale dans le tableau divisionnaire peut être envisagé.


Commande centrale manuelle (inverseur).


Gestion automatique du basculement de l’éclairage jour/nuit par horloge.


Taille et proportions des locaux

La taille et la proportion d’un local influencent aussi le choix de la gestion de l’éclairage. Dans les locaux de grande taille, le zonage est l’approche énergétique par excellence. En effet, il est avantageux de créer des zones bien distinctes dans :

  • Les salles de  sport de manière à ne pas éclairer les aires de jeux non occupées ;
  • Les couloirs afin d’éviter de l’éclairer sur toute sa longueur lorsqu’un occupant sort, par exemple de son bureau pour aller dans le bureau voisin sans traverser tout le couloir ;
  •  …
Exemple de zonage pour une salle de sport

Dans une salle omnisports, il est inutile d’éclairer toute la salle alors qu’un seul terrain est occupé. Il est important de prévoir un zonage, c’est-à-dire une commande séparée pour les différents terrains de la salle.

Les lignes de jeux s’entremêlent.

   

Il existe donc plusieurs manières de regrouper les luminaires qui seront commandés en une seule fois. On analysera donc chaque cas, en tenant compte de :

  • l’emplacement des lignes de jeux,
  • la fréquence d’occupation des différents terrains,
  • la possibilité d’emplacement des différentes commandes.

Voici un exemple possible de zonage :


Profils d’occupation

Les profils d’occupation des bâtiments tertiaires et de leurs locaux sont assez différents suivant l’usage (bureaux, sanitaires, classes, chambres d’hôpital, …). Le choix de la gestion de l’occupation varie surtout en fonction de la sensibilité des occupants à l’énergie, des coûts du système d’éclairage, …

Il existe sur le marché une multitude d’équipements pour gérer l’occupation des locaux. On pointera principalement :

Le choix entre ces différents équipements de gestion d’occupation est complexe. Indépendamment de la sensibilité des occupants à la gestion responsable de l’éclairage par rapport à l’énergie, ce choix doit s’opérer en fonction des fréquences d’occupation des locaux.

Voici quelques exemples de locaux que l’on rencontre régulièrement dans les bâtiments tertiaires (liste non exhaustive) :

Dans les locaux à temps d’occupation important

D’emblée, on ne conçoit pas qu’un local à temps d’occupation important soit sans baie vitrée.

L’occupation des bureaux, classes de cours, … peut-être avantageusement gérée par des boutons poussoirs d’allumage volontaire des luminaires et des détecteurs d’absence lorsqu’après un certain temps les locaux ne sont plus occupés. Cette gestion est très efficace et responsabilise souvent les occupants. En effet, en entrant dans le local, l’occupant juge si le niveau d’éclairement est  suffisant ou pas pour travailler. S’il le juge insuffisant, il peut donner une impulsion au bouton-poussoir qui allume les luminaires. Les boutons poussoirs modernes sont équipés d’un module électronique qui permet :

  • D’allumer par une première impulsion brève ;
  • D’éteindre par une nouvelle impulsion brève ;
  • A chaque impulsion prolongée, de dimmer vers plus ou moins de flux lumineux.

Dans les locaux à temps d’occupation court

Fréquentation importante : les circulations, …

Le passage fréquent, mais court en temps des locaux de circulation (couloirs, escaliers, local photocopieuse, sanitaire, …)  pourrait être géré par des simples détecteurs de mouvement. Cette technique permet de choisir des luminaires avec le détecteur de mouvement incorporé ce qui réduit fortement les longueurs des câbles d’alimentation  230 V et de commande  basse tension. La gestion de type « ancienne génération » par boutons-poussoirs et minuteries est toujours valable, mais nécessite de grandes longueurs de câbles. Au prix du kg de cuivre, le surcoût de l’électronique de gestion peut se justifier pleinement en faveur des nouvelles technologies. A remarquer que dans les circulations, le choix d’un luminaire supportant de nombreux allumages et extinctions sera primordial. On pense de plus en plus aux luminaires LED qui, théoriquement, supportent un « nombre infini » de commandes.

De plus en plus de sanitaires sont avantageusement équipés de détecteurs de mouvement et sonores. Ce type d’équipement permet de ne placer qu’un seul détecteur dans le sanitaire commun. Dans les WC, le simple fait de générer du bruit (peu importante la « source sonore »), réactive le détecteur qui évite à l’occupant du WC d’être plongé dans le noir avec toutes sortes de conséquences désagréables.

Fréquentation faible : locaux techniques, …

On pense aux locaux techniques, aux archives, aux « kots à balais », … Dans ce type de local, les interrupteurs classiques avec témoins d’allumage feront généralement « l’affaire ».


Apport d’éclairage naturel

Une gestion du flux lumineux en fonction de l’apport en éclairage naturel peut s’appliquer aux locaux éclairés naturellement lorsque le temps d’occupation journalière est important. En effet, lorsque les locaux sont utilisés de façon intermittente ou peu vitrés, le temps de valorisation de l’éclairage naturel se réduit, la rentabilité des systèmes de variation du flux lumineux aussi.

Parmi les systèmes de gestion existants, il faut privilégier ceux qui modifient les caractéristiques de flux lumineux de façon imperceptible pour les occupants, c’est-à-dire le dimming en fonction d’un capteur intérieur.

Cependant, n’excluons pas trop vite la bonne volonté des occupants en prévoyant un double allumage qui différencie la commande des luminaires côté fenêtre et côté intérieur.

Allumage différencié

Simplement, un des interrupteurs commande le luminaire côté fenêtre et l’autre le luminaire côté couloir. Ce système est basique et nécessite une certaine sensibilité à l’énergie des occupants. Dans notre chère Belgique, par temps d’alternance de nuage et de soleil, on comprend la limite de ce type de gestion.

Gestion par sonde de luminosité

À ce stade, le choix peut se porter sur des solutions simples, mais locales ou des solutions plus complexes et centrales (plus coûteuses aussi, c’est vrai !).

On pointera principalement le choix entre les sondes de luminosité intégrées :

  • au luminaire même ;
  • à la tête de détection de présence.

Dans le cas de la sonde de luminosité intégrée à la tête de détection de présence, le « dimming » du niveau d’éclairage des luminaires pourra être local ou central.

Dans le cas de l’usage de sonde de luminosité, il faudra prévoir un système d’horloge ou de détecteur pour éviter que la lumière reste allumée. (Si les lampes sont dimmées, l’occupant risque d’oublier d’éteindre en quittant le local (surtout en été)).

Gestion locale

La gestion locale gère directement les luminaires à partir d’un détecteur d’absence/présence équipé d’une sonde de luminosité par exemple.

Gestion centrale

La gestion centrale gère les luminaires par des modules 0-10V ou DALI (module sur rail DIN dans le tableau divisionnaire) via un bus de communication de type KNX.

 

En fonction des équipements de gestion de l’éclairage naturel, la flexibilité de reconversion des locaux est plus ou moins grande. Il est clair que le choix d’une gestion au travers d’un bus de communication offre plus de liberté d’adaptation de l’éclairage en cas de changement d’affectation des locaux.

Cette réflexion est tout à fait gratuite, mais c’est à voir au cas par cas !

Rentabilité d’un dimming

La rentabilité du système choisi dépendra de plusieurs facteurs décrits ci-dessous :

Orientation et environnement des locaux

Dimensions du local
l x L
Surface de fenêtres
Orientation Économie
Zone fenêtre Zone centrale Moyenne
3,6 x 5,4 6 NO 33 % 18 % 26 %
5,5 x 5,5 12 S et O 36 % 33 % 34 %
4,0 x 5,5 4 O 29 % 22 % 26 %
3,0 x 3,6 2,4 E 30 % 8 % 19 %
3,6 x 5,4 3,3 O 29 % 16 % 22 %
3,6 x 5,0 4,5 O 41 % 19 % 30 %

Identique au cas précédent, mais utilisateurs différent.

43 % 31 % 37 %

Mesures réelles de l’économie apportée par un dimming individuel des luminaires  par rapport à un fonctionnement à pleine puissance avec des ballasts électroniques non dimmables (fourniture de 500 lux sur le plan de travail), source : TNO.

L’environnement extérieur des façades influence fortement la rentabilité. Par exemple, si une façade est masquée par un autre bâtiment (rue étroite), les apports en éclairage naturel dans les premiers étages risquent d’être trop faibles pour justifier une gestion automatique, mais suffisante pour les étages supérieurs.

D’une manière générale une économie de 30 % est un chiffre que l’on peut considérer comme raisonnable pour le dimming complet d’un bureau.

Puissance totale gérée par une unité de commande

Le coût du système de gestion dépend en partie du coût de l’unité de commande (capteur, interface). Plus celui-ci est élevé, plus la puissance électrique totale commandée par un système devra être importante pour assurer une rentabilité suffisante.

Exemple.

Dans le cas d’une gestion indépendante de chaque luminaire, plus la puissance des lampes commandées par un ballast est faible, plus le coût d’investissement est important par rapport à l’économie escomptée : gérer une lampe de 36 W avec 1 ballast coûtera environ 3,25 € par watt commandé, tandis que gérer deux lampes de 58 W avec 1 ballast coûtera environ 1 € par watt.

De la présence d’une climatisation

La diminution de la puissance de l’éclairage en fonction de l’apparition du soleil permet de diminuer les coûts éventuels d’une climatisation ou de limiter les surchauffes.

Calculs

Pour estimer la rentabilité d’un système de gestion en fonction de votre situation.

Performance thermique du bâtiment

Mais que vient faire la performance thermique dans une histoire qui concerne l’éclairage ?
Tout simplement parce que dans un bâtiment performance thermiquement (à basse ou très basse énergie), la gestion de l’apport en éclairage naturel va de pair avec la gestion de la surchauffe au travers des baies vitrées par des stores. En effet, un savant compromis est nécessaire entre :

  • D’une part, le besoin de maximiser les apports de lumière naturelle afin d’optimiser le confort visuel et de réduire la facture énergétique d’électricité ;

 

  • D’autre part, la nécessité de maîtriser les apports solaires sources de surchauffe dans un bâtiment performant. Notons que le risque de surchauffe est intimement et principalement lié à l’orientation des baies vitrées.

Gestion de store

La gestion des stores et du niveau d’éclairement doivent donc être maîtrisés de concert. Pour y parvenir, le choix d’un système centralisé simplifie fortement cette gestion.
Un mode de gestion intéressant des stores est repris ci-dessous :

  • Gestion de la position des stores au travers du bus KNX en fonction des paramètres donnés par la station météo.

 

  • Le bouton-poussoir « store » de dérogation manuelle permet à l’occupant de garder la maîtrise de la position du store.

 

  • Le détecteur d’absence permet de « rendre la main » au système de gestion automatique lorsque l’occupant s’absente pour un temps donné.

Gestion HVAC

Gestion de la ventilation

Dans les bâtiments performants, le besoin d’échange de paramètres de commande ou de régulation entre les systèmes d’éclairage et HVAC (Heating Ventilation Air Conditioning)  est nécessaire.

La détection de présence dans une salle de réunion peut faire évoluer le taux de renouvellement d’air de zéro à 100 % (ON/OFF ou modulant) par la gestion de l’ouverture d’une boîte VAV. Pour ne pas démultiplier le nombre d’équipements de détection de présence, l’auteur de projet pourra rationaliser son choix de détecteur de présence. C’est d’autant plus vrai que les détecteurs de présence modernes offrent les fonctions suivantes :

  • Canal de commande en présence ou absence ainsi que du niveau d’éclairement des luminaires ;
  • Canal de commande en présence ou absence d’équipement HVAC.

Gestion des températures

Une sonde de température peut être couplée avec le bus KNX lorsque le bâtiment est inoccupé afin de gérer le store :

  • Abaissement du store en cas de canicule lorsque les températures intérieure et extérieure dépassent une certaine valeur ;
  • Relèvement du store en cas de grand froid et d’ensoleillement important ; ce qui permet de valoriser les apports solaires lorsque la température interne est en dessous de sa consigne.

Gestion du store en cas de canicule.

Gestion du store en cas d’apports solaires nécessaires importants.


Taille des bâtiments ou importance du parc immobilier

La taille du ou des bâtiments, la présence de plusieurs bâtiments sur un site, … influencera nécessairement le besoin de centralisation ou pas des gestions d’éclairage. On comprend aisément qu’un gestionnaire technique d’un parc important de bâtiments ait un besoin de supervision au travers d’une gestion technique centralisée (GTC). Ce genre d’installation passe impérativement par la mise en place d’un bus de communication.

Pour des bâtiments de petite taille, la centralisation n’est pas une fin en soi. On peut très bien avoir des systèmes d’éclairage performants énergétiquement parlant sans « sophistiquer » le système d’éclairage.
Voyons les deux configurations d’un système d’éclairage :

Système local

Dans les bâtiments de petite taille, envisager une GTC (gestion technique centralisée) n’est pas vraiment nécessaire.

Des solutions de gestion de l’éclairage et des stores (ou même HVAC) peuvent être envisagées avec un certain degré « d’immotisation » tout en restant dans la simplicité. Dans cette configuration, la gestion locale de l’éclairage est propre à chaque local. Dans un bâtiment simple, de petite taille et ne nécessitant pas beaucoup de souplesse d’aménagement des espaces, une gestion sophistiquée n’est pas nécessaire. De plus, la mise en place de ce type de gestion est relativement peu coûteuse.

Un bémol cependant (« eh oui, on ne peut pas gagner sur tous les fronts ! ») réside dans le manque de flexibilité de cette configuration. En effet, lorsque les espaces doivent être transformés (changement d’activité, d’usage, …), il est inévitable que l’installation d’éclairage doive être partiellement ou entièrement recâblée.

Système central

Dans des bâtiments plus complexes, plus grands ou encore dans des parcs immobiliers importants, le gestionnaire aura à disposition toute une palette de centralisation de la gestion de l’éclairage à l’échelle :

  • d’un étage d’immeuble ;
  • du bâtiment ;
  • d’un parc immobilier.

La gestion centrale nécessite à coup sûr de passer par un ou plusieurs de bus de communication avec, par exemple, les protocoles suivants:

  • DALI spécifiquement pour l’éclairage ;
  • KNX pour l’éclairage et /ou  le HVAC ;
  • TCP/IP pour la supervision.

La supervision ou GTC (gestion technique centralisée), permettra d’avoir une vue d’ensemble  de tous les paramètres de gestion de l’éclairage et, par la même occasion des autres systèmes (HVAC ou autres).

« Alors cerise sur le gâteau ou outil indispensable ? »

Ces systèmes sont naturellement plus onéreux que les systèmes locaux et donc l’incidence budgétaire sera étudiée au cas par cas. Cependant, une configuration centralisée, avec une vision énergétique par rapport au profil d’occupation, permet de réduire de manière importante les coûts de maintenance des locaux ainsi que les coûts de transformation (on ne doit pas systématiquement recâbler la gestion puisque le bus de communication est modulable) et, par après, d’adapter facilement la gestion suivant le nouveau profil d’occupation.


Organigramme de gestion

Voici un organigramme d’aide dans le choix de la gestion et de la commande de l’éclairage intérieur. Ces systèmes peuvent être intégrés dans une gestion centralisée, qui par son coût de câblage ne peut être envisagée que dans des bâtiments neufs ou des rénovations de grande ampleur.

1 Exemple : bureau paysager, classe, salle de réunion avec cloison amovible, salle de sport à plusieurs plateaux, … avec fenêtres orientées au nord

MINIMUM Zonage :

  • 1 zone = rangée de luminaires proches de la fenêtre,
  • 1 zone = autres rangées de luminaires,
  • 1 zone = éclairage point particulier (tableau de classe ou de salle de réunion, « table de réunion », …)
MINIMUM Interrupteur manuel on/off pour chaque zone.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.

Il s’avérera peu rentable dans le seul cas d’occupants « disciplinés » éteignant systématiquement les lampes en fin de journée. Cette gestion nécessite que les boutons poussoirs et les détecteurs « se parlent ». Elle peut être locale (l’intelligence est dans la tête de détection) ou centrale (régulateur dans un tableau divisionnaire ou GTC centrale pour les grands bâtiments tertiaires).

CONSEILLE La gestion en fonction de l’éclairage naturel se fera au moyen d’une ou plusieurs sondes de luminosité agissant sur un ou plusieurs ballasts électroniques dimmables (0-10V ou DALI). La ou les sondes de luminosité seront intégrées dans le ou les luminaires ou encore dans la ou les têtes de détection d’absence/présence

2 Exemple : bureau paysager, classe, salle de réunion avec cloison amovible, salle de sport à plusieurs plateaux, … avec autres orientations que les fenêtres au nord

MINIMUM Zonage :

  • 1 zone = rangée de luminaires proches de la fenêtre,
  • 1 zone = autres rangées de luminaires,
  • 1 zone = éclairage point particulier (tableau de classe ou de salle de réunion, « table de réunion », …)
MINIMUM Interrupteur manuel on/off pour chaque zone.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.
CONSEILLE La gestion en fonction de l’éclairage naturel se fera au moyen d’une ou plusieurs sondes de luminosité agissant sur un ou plusieurs ballasts électroniques dimmables (0-10V ou DALI). La ou les sondes de luminosité seront intégrées dans le ou les luminaires ou encore dans la ou les têtes de détection d’absence/présence.

3 Exemple : salle de réunion à cloison amovible et salle de sport sans fenêtre

MINIMUM Zonage : autant de zone qu’il y a d’espaces ou de plateaux distincts identifiables.
MINIMUM Interrupteur manuel on/off pour chaque zone.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.

4 Exemple : locaux techniques, archives, …

MINIMUM Zonage : autant de zone qu’il y a d’espaces ou de plateaux distincts identifiables.
MINIMUM Interrupteur manuel on/off pour chaque zone.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.

5 Exemple : Couloir, cage d’escalier, … avec baie vitrée

MINIMUM Zonage :

  • Par une ou plusieurs portions de couloir ;
  • Par un ou deux étages.
MINIMUM Boutons poussoirs commandant  un télérupteur de tableau avec minuterie d’extinction par zone
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.

Alternative 1 :

  • Détecteur de mouvement  par étage pour les escaliers qui commande les luminaires de palier et des demi-étages directement supérieur et inférieur au palier considéré ;
  • Détecteur de mouvement par zone de couloir qui ne commande que les luminaires proches de sa couverture.

Alternative 2 :

  • détecteur de mouvement intégré au luminaire. « D’expérience, c’est une très bonne solution ! ».
CONSEILLE La gestion en fonction de l’éclairage naturel se fera au moyen d’une ou plusieurs sondes de luminosité agissant sur un ou plusieurs ballasts électroniques dimmables (0-10V ou DALI). La ou les sondes de luminosité seront intégrées dans le ou les luminaires ou encore dans une ou des têtes de détection de présence.

6 Exemple : Couloir, cage d’escalier, … sans baie vitrée

MINIMUM Zonage :

  • Par une ou plusieurs portions de couloir ;
  • Par un ou deux étages.
MINIMUM Boutons poussoirs commandant  un télérupteur de tableau avec minuterie d’extinction par zone.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence par zone avec délai réglable.

Alternative 1 :

  • Détecteur de mouvement  par étage pour les escaliers qui commande les luminaires de palier et des demi-étages directement supérieur et inférieur au palier considéré ;
  • Détecteur de mouvement par zone de couloir qui ne commande que les luminaires proches de sa couverture.

Alternative 2 :

  • détecteur de mouvement intégré au luminaire. « D’expérience, c’est une très bonne solution ! ».

7 Exemple : bureau individuel, petite classe, salle de réunion, salle de sport à un seul plateau, … avec fenêtres orientées au nord

MINIMUM Interrupteur manuel on/off.
CONSEILLE Il sera intéressant de prévoir une gestion :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence avec délai réglable.
CONSEILLE La gestion en fonction de l’éclairage naturel se fera au moyen d’une ou plusieurs sondes de luminosité agissant sur un ou plusieurs ballasts électroniques dimmables (0-10V ou DALI). La ou les sondes de luminosité seront intégrées dans le ou les luminaires ou encore dans la ou les têtes de détection d’absence/présence.

8 Exemple : bureau individuel, classe, salle de réunion, salle de sport à un seul plateau, … avec autres orientations que les fenêtres au nord

MINIMUM Interrupteur manuel on/off.
CONSEILLE Il sera intéressant de prévoir une gestion :

  • Bouton poussoir d’allumage/extinction volontaire des luminaires par zone ;
  • Un détecteur d’absence avec délai réglable.
CONSEILLE La gestion en fonction de l’éclairage naturel se fera au moyen d’une sonde de luminosité agissant sur un ou plusieurs ballasts électroniques dimmables(0-10V ou DALI). La sonde de luminosité sera intégrée dans un des luminaires et sera maître pour la gestion des autres luminaires. Ou encore, elle intégrera la tête de détection d’absence/présence.

9 Exemple : locaux techniques, archives, …

MINIMUM Interrupteur manuel on/off.

10 Exemple : sanitaire et WC

MINIMUM Interrupteur manuel on/off.
CONSEILLE Il sera intéressant de prévoir une gestion par zone de type :

  • Un détecteur de mouvement et éventuellement sonore avec délai réglable.

Définir les objectifs à atteindre en rénovation [Eclairage]

En rénovation, les contraintes sont plus importantes (l’accès à la lumière naturelle et le câblage,…) sont par exemple déterminés).

Selon ces contraintes, les moyens donnés (rénovation partielle ou complète) et les objectifs fixés (diminuer les consommations, diminuer les coûts d’entretien ou améliorer le confort lumineux), on tentera au maximum de se rapprocher des objectifs de performance en conception neuve.

Des exemples de commande et gestion pour les classes

Des exemples de commande et gestion pour les classes


Les classes à aménagement fixe

Les classes sont généralement caractérisées par un taux élevé d’éclairage naturel. Il est donc très rare que l’éclairage artificiel doive, à lui seul, assurer l’éclairage d’un espace.

La commande de l’éclairage général d’une salle de classe peut ainsi s’effectuer par zones. Le plus logique est de piloter les lignes de luminaires parallèles aux baies vitrées de manière à pouvoir éteindre la plus proche de la lumière du jour quand la luminosité extérieure le permet.


Les classes à aménagement variable

Dans une classe à aménagement variable, la mise à disposition de plusieurs allumages permet une grande souplesse d’utilisation du local. Dans le cas d’une classe maternelle, par exemple, le zonage peut être fait selon les différentes « régions » de la classe, en créant différentes ambiances : le coin « lecture », le coin « sieste », le coin découverte, le coin bricolage, … Néanmoins, il risque d’être difficile à réaliser si l’implantation même des « coins » est sujette à modifications fréquentes…


Les salles de projection

Le zonage de l’éclairage en fonction des différentes activités est primordial. Il faudra pouvoir régler le niveau d’éclairement en fonction des différents moyens de projection utilisés, soit par l’utilisation de ballasts électroniques HF dimmables (c’est-à-dire permettant un réglage en continu du flux lumineux des lampes), soit par l’emploi de veilleuses commandées séparément. Dans le cas de grands auditoires, cette commande sera placée à proximité de l’orateur.


Le tableau

L’éclairage du tableau doit pouvoir être commandé séparément. En effet, il est très fréquent que l’éclairement dû à la lumière naturelle soit suffisant sur les tables et insuffisant sur le tableau. La consommation de l’éclairage du tableau est suffisamment faible pour qu’il puisse rester allumé pendant une grande partie des heures de cours.

Le bureau du professeur

Pendant le passage de diapositives, un éclairage situé dans le voisinage du bureau de l’enseignant lui permet d’être vu pendant sa présentation et de compulser ses notes. Ceci nécessite une commande séparée pour l’éclairage du bureau du professeur.

En résumé, pour les classes à aménagement fixe

Proposition de commande de l’éclairage pour une salle de classe, à deux portes d’entrée, utilisée le jour et le soir :

Schéma classes à aménagement fixe.

L’interrupteur commandant les rangées de luminaires les plus éloignées des fenêtres doit être mis en évidence, par exemple en étant de couleur rouge. Cela incitera les utilisateurs à d’abord allumer les deux rangées côté couloir, avant d’allumer éventuellement la rangée proche des fenêtres.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Salles de sport

Salles de sport


Qualité de l’éclairage naturel

La qualité de l’éclairage naturel dans un hall de sports réside dans son aptitude à éclairer les surfaces de jeux le plus longtemps possible sans risque d’éblouissement et de surchauffe.

Spécifiquement dans les halls sportifs, il est intéressant d’exploiter la lumière zénithale de par la disponibilité de grandes surfaces peu encombrées par rapport aux façades.

En éclairage naturel zénithal, l’orientation a toute son importance. Par exemple, l’orientation au nord permet de bénéficier d’un éclairage « diffus » très important et constant sous nos latitudes. L’avantage de l’orientation au nord des baies vitrées réside aussi dans l’absence d’éblouissement direct du rayonnement solaire.


Étude en éclairage naturel

Lors de la conception d’un hall de sports, une attention toute particulière doit être apportée à la quantité et à la qualité de lumière du jour apportée aux plateaux sportifs.

À partir de la modélisation d’un hall de sports classique, l’influence de la proportion d’ouvertures en toiture et de l’orientation du bâtiment sur l’éclairage naturel du plateau sportif principal a été évaluée. Cette évaluation a été validée par une simulation dynamique d’éclairage naturel (réalisée à l’aide du logiciel Daysim).

Hypothèses

Lanterneau

L’éclairage naturel est réalisé via une ouverture zénithale située au faîte de la toiture. Cette ouverture consiste en un lanterneau en polycarbonate opalin à triple parois de 32 x 4 m (soit 128 m² de base) orienté le long de l’axe NNE-SSO (244° de décalage par rapport au nord).

Photo lanterneau 01.   Photo lanterneau 02.Photo lanterneau 03.

Ouverture zénithale classique : hall de sport de Grez-Doiceau.

Aucune baie vitrée n’est placée dans les parois verticales de la salle, à l’exception de la surface vitrée communiquant avec la cafétéria en partie supérieure des gradins.

Plateaux de sports

Les caractéristiques des plateaux sportifs sont les suivantes :

  • Dimensions principales de la pièce : 44,66 x 26,70 m
  • Hauteur du faîte de toiture : 12,73 m
  • Surface de calcul : 40 x 20 m (aire de jeu)
  • Aucun masque solaire lointain
  • Horaire d’occupation : de 9 à 23 h
  • Niveau d’éclairement souhaité : 300 lux
  • Transmission lumineuse du lanterneau opalin : 36 %
  • Facteurs de réflexion des parois :
    • Plafond : 60%
    • Murs : 70 % (sauf mur d’escalade : 52 %)
    • Sol (résine de polyuréthane coulée) : 50 %

Variables

Taille de l’ouverture

4 tailles de lanterneau zénithal sont simulées :

⇒ Très petit lanterneau

Proportion d’ouvertures en toiture : 6 %.

⇒ Petit lanterneau

Proportion d’ouvertures en toiture : 10 %.

⇒ Grand lanterneau

Proportion d’ouvertures en toiture : 17 %.

⇒ Très grand lanterneau

Proportion d’ouvertures en toiture : 23 %.

Orientation du bâtiment

8 décalages par rapport au nord sont simulés dynamiquement, de 0 à 360°, par pas de 45°. En effet, le lanterneau n’étant pas centré sur l’aire de jeu (voir image ci-dessous), on ne peut pas considérer qu’un décalage de 45° par rapport au nord donnera les mêmes résultats qu’un décalage de 225°.

Vue en plan du bâtiment décalé de 45° par rapport au nord. La surface de calcul est représentée en bleu.

Analyse des résultats

Les résultats sont évalués sur base d’une comparaison du facteur, de l’autonomie et de l’éclairement utile de lumière du jour.

Proportion d’ouvertures en toiture

Exemple de simulation pour une ouverture équivalent à 6 % de la surface de toiture :

⇒ Facteur lumière du jour

⇒ Autonomie lumière du jour – 300 lux (9h00 à 23h00).

⇒ Autonomie en lumière du jour – 100 < % < 2 000 lux (09h00 à 23h00)

Analyse des résultats

FLJ
(Facteur de Lumière du jour)*

DA
(Autonomie en Lumière du Jour)*

UDI
(Autonomie en lumière du jour utile)*

FLJ > 2 %

DA > 40 %

UDI > 50 %

(*)

  • FLJ moyen considéré comme bon si 3 % < FLJ > 5 %
  • DA moyen considérée comme bon si DA > 50 %
  • UDI moyen considérée comme bon si UDI > 50 %

À la lecture des résultats (voir graphique ci-dessous), on peut remarquer que, pour une même orientation du bâtiment :

  • Plus la proportion d’ouvertures en toiture augmente, plus le facteur de lumière du jour > 2 % augmente. Celui-ci tend cependant vers le maximum (100 %) à partir de 10 % d’ouvertures en toiture.
  • Plus la proportion d’ouvertures en toiture augmente, plus l’autonomie de lumière du jour maximum augmente. Cela signifie également que la consommation en éclairage artificiel diminue lorsqu’on augmente la proportion d’ouvertures.
  • L’éclairement de lumière du jour utile (de 100 à 2 000 lux) est maximal aux alentours de 10 % d’ouvertures en toiture.

Influence de la proportion d’ouvertures en toiture sur l’éclairage naturel du plateau sportif.

Augmenter de façon exagérée la proportion d’ouvertures en toiture n’est donc pas à conseiller, du point de vue de l’éclairage naturel, car ceci peut mener à un éclairement trop important qui augmentera le risque d’éblouissement pour les sportifs ; il faut trouver un juste équilibre entre l’éclairage naturel utile et la réduction des besoins en éclairage artificiel. Dans l’étude de cas qui nous concerne, cet optimum semble se situer aux environs de 10 % d’ouvertures en toiture.

Orientation du bâtiment

Les simulations dynamiques (voir graphique ci-dessous) montrent que, pour une même configuration des ouvertures, l’orientation du bâtiment a une grande influence sur l’éclairement de jour utile et sur l’autonomie de lumière du jour, et donc également sur les consommations en éclairage artificiel. Ces deux valeurs réagissent cependant de manière antinomique à la variation de l’orientation du bâtiment. Une fois de plus, du point de vue de l’éclairage naturel, il faut trouver un optimum entre un éclairement de lumière du jour réellement utile pour les activités sportives qui devront se dérouler sur le plateau et une autonomie de lumière du jour la plus élevée possible.

Influence de l’orientation du bâtiment sur l’éclairage naturel du plateau sportif (via un lanterneau zénithal décentré).

Les conclusions ci-dessus ne prennent en compte que les aspects liés à l’éclairage, mais il ne faut surtout pas oublier que les ouvertures pratiquées dans l’enveloppe du bâtiment sont également source de déperditions thermiques et de surchauffes estivales.

Il convient donc également de simuler le comportement thermique du plateau sportif en fonction de la proportion d’ouvertures en toiture et de l’orientation du bâtiment afin de savoir si l’optimum en termes d’éclairage correspond à l’optimum en termes thermiques.


Analyse thermique dynamique

Pour rappel, les simulations dynamiques en éclairage naturel donnent une idée du confort visuel et des consommations énergétiques en éclairage artificiel.

Des simulations thermiques dynamiques sont souvent nécessaires afin de vérifier que les options prises suite aux simulations dynamiques en éclairage naturel ne vont pas à l’encontre du bilan énergétique global qui associera les consommations électriques  en éclairage artificiel aux consommations dues au chauffage et éventuellement au refroidissement du bâtiment étudié.

Hypothèses

Outre les hypothèses prises lors des simulations en éclairage naturel (horaire d’occupation, orientation de base du bâtiment, volumétrie, …), les hypothèses suivantes sont prises :

  • la température de consigne en période d’occupation est de 17 °C ;
  • Un profil d’occupation classique de salle de sport (apports internes) ;

  • La ventilation est double flux avec récupération de chaleur ;

Variables

Au cours des différentes simulations, on fait varier :

  • tout comme dans les simulations en éclairage naturel, la surface du lanterneau et l’orientation du bâtiment ;
  • le type de vitrage ;
  • la performance de l’enveloppe du bâtiment :
U parois [W/(m².K)]

Type de paroi

Réglementaire Basse énergie Très basse énergie

Mur

Mur contre terre

Sol

Toiture

Vitrage

Lanterneau

0,5

0,9

0,9

0,3

1,1

1,3

0,25

0,25

0,25

0,2

1,1

1,1

0,15

0,15

0,15

0,15

0,7

0,7

Analyse des résultats

Surface de lanterneau

On remarque sur les graphiques ci-dessus que la consommation d’électricité pour l’éclairage artificiel du plateau sportif diminue fortement lorsque la proportion d’ouvertures en toiture varie de 0 à 5 %, puis décroit ensuite lentement au-delà de 5 %.

La consommation de chauffage, quant à elle, augmente de manière constante avec la proportion d’ouvertures tandis que la consommation de refroidissement ne commence à devenir significative qu’au-delà de 20 % d’ouvertures.

En mettant ces résultats en concordance avec les simulations d’éclairage naturel, on peut trouver un optimum commun aux deux simulations aux alentours de 10 % d’ouvertures en toiture. Cette valeur est, bien entendu, propre à l’étude de cas qui nous occupe ici ; il faut seulement retenir qu’il est important, lors de la conception des ouvertures, de prendre en compte les aspects thermiques en parallèle avec les aspects visuels.

Orientation du bâtiment

Le graphique ci-dessous montre que les besoins énergétiques de chauffage sont minimisés lorsque les locaux à température de consigne élevée (tels que les vestiaires) et avec de grandes ouvertures destinées à capter les apports solaires (tels que la cafétéria) sont orientés plein sud. Les besoins énergétiques de refroidissement étant faibles dans le cas des halls de sports, l’impact de l’orientation du bâtiment sur ceux-ci est très peu perceptible.

De plus, le modèle de simulation intégrant un lanterneau zénithal comme seule ouverture dans l’enveloppe extérieure du plateau sportif, l’orientation de celui-ci n’a quasiment aucun impact sur les besoins énergétiques du hall de sports.

En comparant ces résultats avec ceux des simulations d’éclairage naturel, on aperçoit que l’orientation préférentielle de notre modèle en termes thermiques est également celle qui apporte le plus grand éclairement de lumière du jour utile (de 100 à 2 000 lux) pour le plateau sportif.

Ceci constitue un argument supplémentaire en faveur de l’orientation nord-sud pour le hall de sports, avec les vestiaires et la cafétéria au sud et le plateau sportif au nord, malgré le fait que l’autonomie de lumière du jour soit minimale pour le plateau sportif lorsque le bâtiment est orienté de cette manière.

Type de vitrage

Le type de vitrage influence également les besoins en chauffage et en froid.

Dans le modèle considéré, un vitrage clair en toiture donnera plus d’apports solaires, mais risquera d’induire de la surchauffe, contrairement à un vitrage opalin.


Alternative d’éclairage naturel

D’autres configurations existent pour éclairer naturellement le plateau sportif modélisé. Deux sont proposées ci-dessous et sont ensuite comparées avec modèle initial (éclairé par un lanterneau zénithal opalin orienté NNE-SSO).

Configuration

Éclairage bilatéral nord et sud

Caractéristiques :

  • orientation : faîte dans l’axe est-ouest
  • transmission lumineuse du vitrage : 78 %
  • ouverture au nord : 44,66 x 1,79 m (80 m²)
  • ouverture au sud : 44,66 x 0,56 m (25 m²)

Éclairage bilatéral nord et sud

Caractéristiques :

  • transmission lumineuse du vitrage : 78 %
  • ouvertures au nord : 2 x 44,66 x 1,1 m (100 m²)
  • hauteur sous plafond : 8,6 m

Synthèse

Modèle 1

Éclairage zénithal opalin NNE-SSO

Modèle 2

Éclairage bilatéral nord et sud

Modèle 3

Éclairage par sheds au nord

FLJ > 2 %

Éclairement de lumière du jour utile
  • 31 % (100-2000 lx)
  • 27 % (> 2000 lx)
  • 38 % (100-2 000 lx)
  • 17 % (> 2 000 lx)
  • 55 % (100-2 000 lx)
  • 3 % (> 2 000 lx)
Autonomie de lumière du jour min-max
  • 30 à 60 %
  • 27 à 60 %
  • 33 à 56 %
Consommation d’éclairage avec et sans dimming
  • 39,3 MWh (sans dimming)
  • 35,0 MWh (avec dimming en fonction de l’apport en éclairage naturel)
  • 41,1 MWh (sans dimming)
  • 36,3 MWh (avec dimming en fonction de l’apport en éclairage naturel)
  • 40,6 MWh (sans dimming)
  • 35,1 MWh (avec dimming en fonction de l’apport en éclairage naturel)
Avantages
  • Très efficace par ciel couvert
  • Consommation d’éclairage artificiel plus faible (avec ou sans dimming)
  • Facilité d’entretien des vitrages
  • Consommation de chauffage plus faible grâce aux apports solaires
  • Consommations énergétiques cumulées (chaud, froid, éclairage) plus faibles
  • Éclairage naturel uniforme et constant sur l’aire de jeu
  • Aucun risque d’éblouissement des joueurs
  • Bon niveau d’éclairement de lumière du jour utile (de 100 à 2 000 lux)
Inconvénients
  • Aucune vue vers l’extérieur (à cause du polycarbonate opalin)
  • Dysfonctionnement thermique important tout au long de l’année (avec risque de surchauffe).
  • Risque d’éblouissement pour les sports tels que le badminton ou le volley-ball
  • Moins bon éclairement de lumière du jour utile (de 100 à 2 000 lux)
  • Faible facteur de lumière du jour
  • Risque d’éblouissement en l’absence de protections solaires
  • Consommation de chauffage plus élevée car apports solaires inexistants
  • Coût de construction plus élevé

Quantification en éclairage artificiel

Partant du principe que le confort lumineux doit être assuré en présence ou pas d’éclairage naturel, un complément d’éclairage artificiel est nécessaire. Normativement, le dimensionnement de l’éclairage artificiel s’effectue sans les apports de lumière naturelle. La démarche énergétique d’un système d’éclairage artificiel réside donc dans sa capacité à moduler la puissance installée en fonction de l’éclairage naturel. En effet, pour autant qu’il n’y ait pas d’éblouissement, meilleure l’autonomie en lumière du jour sera, moins fort sera le poids des consommations d’éclairage artificiel pour donner le complément de confort nécessaire.

Dans le cas de l’atelier considéré, le choix du type d’éclairage artificiel et surtout du type de luminaire, passe par une étude de type Dialux  permettant de comparer des luminaires entre eux.

Efficacité de l’installation d’éclairage

La salle est éclairée artificiellement au moyen de 4 rangées de 10 plafonniers industriels Zumtobel Copa A-B 1/400W HIT/HST E40 VVG KSP IP65 équipés d’une lampe de 400 W aux iodures métalliques à brûleur quartz. Ces luminaires peuvent également être équipés de lampes à vapeur de sodium haute pression.

Simulation Dialux

La simulation Dialux (logiciel gratuit) permet d’évaluer principalement le niveau d’éclairement moyen, l’uniformité de l’éclairement et l’efficacité énergétique (en W/m²).

Paramètres de simulation

  • Hauteur du point d’éclairage du 1er champ de luminaires: 7,28 m
  • Hauteur du point d’éclairage du 2e champ de luminaires : 8,98 m
  • Facteur d’entretien : 0,85
  • Surface de calcul :
    • Taille : 42 x 22 m (centrée sur le plateau sportif de 40 x 20 m)
    • Trame : 128 x 64 points

Position de la surface de calcul.

Résultats

En fonction du nombre de luminaires, de leurs caractéristiques lumineuses, de leur disposition au dessus des aires de jeux, …, les niveaux d’éclairement sont calculés dans Dialux.

Plan d’implantation des luminaires.

Courbes isolux.

Analyse des résultats

Niveau d’éclairement

Le niveau d’éclairement moyen calculé est de 876 lux (soit 745 lux après dépréciation). Ce niveau d’éclairement correspond au niveau moyen recommandé pour des compétitions nationales et internationales (750 lux). Il aurait pu être dimensionné entre 500 et 600 lux (après dépréciation) dans le cas bien précis de cette salle de compétition moyenne.

Uniformité d’éclairement et absence d’ombres

L’uniformité d’éclairement (Emin/Emoy) calculée est de 0,66. Une valeur supérieure ou égale à 0,7 aurait été préférable pour les compétitions (amateurs ou professionnelles).

Risque d’éblouissement

L’UGR maximum calculé dans les 2 directions du terrain est de 26. Cette valeur est peu représentative pour ce type de salle. En effet, étant donné qu’il s’agit d’un terrain omnisports, l’emplacement idéal et l’orientation des luminaires pour empêcher l’éblouissement par la vue des sources lumineuses sont impossibles.

Qualité de la lumière

Les lampes utilisées (aux iodures métalliques) ont des températures de couleur froides (3 200 à 5 600 K) qui s’équilibrent avec la lumière du jour lorsque l’éclairage artificiel est utilisé parallèlement à celle-ci. Elles ont également un bon indice de rendu des couleurs (65 à 90) qui permettra de bien distinguer les différentes lignes de jeux, à la fois pour les niveaux amateur et professionnel.

Couleur des lignes de jeux

Les tracés de jeu sont très contrastés par rapport au sol. Ceci facilite la perception visuelle (qu’aucun éclairage ne pourrait suppléer).

Efficacité énergétique

Rendement des équipements

Avec une puissance spécifique calculée de 2,73 W/m²/100 lux (20,33 W/m²), l’éclairage installé est performant (< 3 W/m²/100 lux) d’un point de vue énergétique. Ceci est principalement dû à l’utilisation de lampes aux iodures métalliques et de ballasts électroniques.

Qualité des parois

Les parois verticales de la salle sont réalisées en blocs de béton peints avec une couleur claire à l’exception des murs de la réserve de matériel sportif qui sont, quant à aux, peints avec une couleur plus foncée. L’uniformité d’éclairement pourrait éventuellement être améliorée si on les repeignait avec une couleur claire.

  

Gestion de la commande

La commande d’éclairage de cette salle est séparée en 2 zones mal réparties :

  • Zone 1 : 8 luminaires dans les 4 coins ;
  • Zone 2 : les 32 luminaires restant.

Il serait préférable de pouvoir commander l’allumage séparé des 3 à 5 aires de jeux (basket-ball, volley-ball et badminton) situées transversalement par rapport à l’aire de jeux principale (football en salle et handball) de manière à éviter que tous les terrains soient éclairés alors qu’un seul est occupé. Il serait également utile de pouvoir adapter le niveau d’éclairement des terrains au sport pratiqué, au niveau de jeu (loisir ou compétition) et à l’apport de lumière naturelle.

Façades des bureaux


Qualité de l’éclairage naturel

Confort lumineux

Dans une démarche de construction ou de rénovation durable, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel doit être donc considéré comme un complément à la lumière naturelle.

En confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement. Cependant, l’éblouissement peut être assez facilement traité par un store interne.

Efficacité énergétique

D’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture électrique d’éclairage artificiel sera d’autant plus réduite que l’éclairage naturel exploité. De plus, en améliorant la qualité énergétique de l’enveloppe, que ce soit en conception ou en amélioration, les consommations énergétiques d’éclairage deviennent prépondérantes.

À titre d’exemple, les clefs de répartition énergétique pour un ancien bâtiment « passoire » et un nouveau bâtiment très performant  sont les suivantes :

Dans ce type de bâtiment « passoire », les consommations de chauffage et l’éclairage sont prédominants dans le sens où les parois sont très déperditives et l’installation d’éclairage peu performante.

Un bâtiment très performant et bien étudié au niveau de l’enveloppe limite ses dépenses énergétiques tant en chauffage qu’en refroidissement. Si l’installation électrique n’est pas performante (comme le montre cet exemple), les consommations d’éclairage en énergie primaire deviennent prépondérantes.

En absolu, on peut apprécier l’effort réaliser sur les consommations en énergie primaire. On réduit effectivement par 3 ces consommations primaires.

On se retrouve devant le défi, surtout pour le tertiaire, d’optimiser les consommations énergétiques d’éclairage en maximisant les apports gratuits d’éclairage naturel.

Attention cependant que dans bien des projets de conception ou de rénovation de bâtiments tertiaires, des trop grandes ouvertures génèrent des risques de surchauffe en été et des déperditions plus importantes en hiver. Le gestionnaire du bâtiment risque d’avoir la mauvaise surprise de payer une facture énergétique plus importante de climatisation en été et de chauffage en hiver. Cependant, les performances thermiques des vitrages actuels et le choix d’une bonne stratégie de protection solaire limitent l’impact respectivement des déperditions et des surchauffes sur le bilan énergétique global. Il en résulte que la consommation énergétique principale risque bien de devenir l’éclairage artificiel.

Critères

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Exemple d’analyse en autonomie en lumière du jour.

  1. Vitrage clair
  2. Vitrage sélectif
  3. Auvent
  4. Lamelles
  5. Ombre reportée

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année et disponibles sous forme de bases de données type « météonorm » par exemple.


Influence de la modulation de façade

L’étude de cette influence porte sur un projet de conception d’un ensemble de plateaux de bureaux dans un immeuble tour. Une série de simulation dynamique en éclairage naturel (ECOTECH et DAYSIM) sont réalisées afin de mettre en évidence l’influence :

  • De la taille de la fenêtre ;
  • Du type de trumeaux ;
  • Du type de vitrage ;
  • Du type de cloisonnement interne ;
  • De l’épaisseur des trumeaux ;
  • De la hauteur des linteaux.

L’objectif des simulations est de réaliser un arbitrage entre différentes configurations de module de bureau. À chaque étape d’optimisation, l’arbitrage élimine les moins bonnes solutions.

Pour un bureau paysager ?

La modulation des façades influence la pénétration de la lumière naturelle dans l’espace de travail. C’est ce qu’on se propose d’étudier ici.

Base : taille de baie vitrée ⇒ deux fenêtres de 90 x 237 cm. Transmission lumineuse du vitrage TL = 50 %

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

1 < FLJ < 2 % Éloigné de la fenêtre DA < 20 %
3 % < FLJ < 5 % Proche de la fenêtre 50 % < DA

Les bureaux côté intérieur devront bénéficier régulièrement d’un système d’éclairage artificiel.

1re amélioration : taille de baie vitrée ⇒ une fenêtre de 180 x 237 cm et trumeau

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

1 < FLJ < 2 % Éloigné de la fenêtre 20 % < DA < 50 %
3 % < FLJ < 5 % Proche de la fenêtre 50 % < DA

Pour une même surface vitrée, une large fenêtre permet de laisser entrer plus facilement la lumière naturelle qu’une fenêtre étroite.

2e amélioration : trumeau de forme trapézoïdale

Tout en conservant la taille de la baie vitrée de 180 x 237 cm pour laquelle la pénétration de la lumière est la meilleure, on remplace un trumeau de section rectangulaire  par un trumeau de section trapézoïdale.

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

1 < FLJ < 3 % Éloigné de la fenêtre 30 % < DA < 50 %
3 % < FLJ < 5 % Proche de la fenêtre 50 % < DA

Les trumeaux trapézoïdaux améliorent légèrement la couverture des besoins d’éclairage par de l’éclairage artificiel. Cependant, on comprend aisément que la mise en œuvre de tel trumeaux risque de poser des problèmes.

3e amélioration : vitrage avec une transmission lumineuse de TL = 60 %

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

2,5 % < FLJ < 3 % Éloigné de la fenêtre 40 % < DA < 50 %
5 % < FLJ Proche de la fenêtre 50 % < DA

La configuration des modules de façade devient optimale. Cependant, pour les bureaux le long de la fenêtre, le risque d’éblouissement croît.

Que faut-il retenir ?

En conception, dans la modulation de façade, l’optimum de la couverture d’éclairage par la lumière naturelle (gratuite) passe par le choix d’une ouverture large pour les baies vitrées avec un vitrage de transmission lumineuse élevée. En rénovation, c’est du cas par cas ! Attention, cependant, que la limite d’ouverture à outrance des baies vitrées risque de provoquer de l’inconfort visuel (éblouissement) et thermique (surchauffe). Pour cette raison, l’étude doit souvent être complétée par des simulations thermiques dynamiques.

Pour un bureau individuel ?

La modulation des cloisons internes va aussi modifier le niveau d’exploitation de la lumière naturelle. Ici, un seul module de bureau est modélisé. Seule la position des parois varie. Pour ce type de configuration, les vitrages ont une transmission lumineuse TL de 50 %.

Base : taille de baie vitrée ⇒ deux fenêtres de 90 x 237 cm. Transmission lumineuse du vitrage TL = 50 %

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

0 < FLJ < 1,2 % Éloigné de la fenêtre DA < 20 %
FLJ < 3 % Proche de la fenêtre DA <  50 %

Le cloisonnement des plateaux de bureaux ne favorise pas l’entrée de la lumière dans le local individuel. Même la lumière naturelle n’apprécie pas l’individualisme !

1er amélioration : taille de baie vitrée ⇒ une fenêtre de 180 x 237 cm

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

1 < FLJ < 1,5 % Éloigné de la fenêtre DA < 20 %
3 % < FLJ Proche de la fenêtre 50 % < DA

Une ouverture plus large permet de bénéficier une qualité de lumière acceptable pour les plans de travail situé côté fenêtre.

Alternative : taille de baie vitrée ⇒ une fenêtre de 180 x 237 cm avec un positionnement des cloisons internes

Analyse des résultats
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

0 < FLJ < 1,2% Éloigné de la fenêtre DA < 20 %
FLJ < 3 % Proche de la fenêtre DA <  50 %

Le cloisonnement désaxé du trumeau (centrée avec l’axe du châssis) n’est pas vraiment une bonne idée. En rénovation, par exemple, ce type d’aménagement de cloison se rencontre souvent. À éviter si possible !

Que faut-il retenir ?

Le cloisonnement des plateaux de bureaux au sens large du terme en bureaux individuel est, dans la mesure du possible, à éviter. On comprend bien que ce soit régulièrement impossible à envisager. Cependant, une ambiance chaleureuse de travail dans un paysager permet souvent d’optimiser le niveau de pénétration de la lumière naturelle.


Influence de l’épaisseur des trumeaux

L’épaisseur plus ou moins variable des trumeaux (ou l’épaisseur de la façade) crée un ombrage fluctuant. Cette influence est décrite ci-dessous pour des épaisseurs variant de 70 à 40 cm.

Épaisseur des trumeaux : 70 cm – Facteur de lumière du jour et Autonomie en lumière du jour

Épaisseur des trumeaux : 60 cm – Facteur de lumière du jour et Autonomie en lumière du jour

Épaisseur des trumeaux : 50 cm – Facteur de lumière du jour et Autonomie en lumière du jour

Épaisseur des trumeaux : 40 cm – Facteur de lumière du jour et Autonomie en lumière du jour

Analyse des résultats
Épaisseur des trumeaux de 70 cm
FLJ (Facteur de Lumière du jour) > 3 %

Position du bureau

DA (Autonomie en Lumière du Jour)

FLJ < 3 % Éloigné de la fenêtre DA < 50 %
  3 % < FLJ < 6 % Proche de la fenêtre 50 % < DA

Épaisseur des trumeaux de 60 cm.

FLJ < 3 % Éloigné de la fenêtre DA < 50 %
  3 % < FLJ < 6 % Proche de la fenêtre 50 % < DA

Épaisseur des trumeaux de 50 cm

FLJ < 3 % Éloigné de la fenêtre DA < 50 %
  3 % < FLJ < 6 % Proche de la fenêtre 50 % < DA

Épaisseur des trumeaux de 40 cm

FLJ < 3 % Éloigné de la fenêtre DA < 50 %
  6 %< FLJ Proche de la fenêtre 50 % < DA

Que faut-il retenir ?

Attention toutefois à l’épaisseur trop faible des trumeaux qui risque d’occasionner un risque d’éblouissement. Dans la construction ou la rénovation basse énergie, les épaisseurs des parois ont tendance à augmenter ; ce qui a pour conséquence de réduire la pénétration de la lumière dans les espaces mais de réduire les risques de surchauffe. Décidément, la Belgique est vraiment la championne du compromis !


Influence de l’orientation de la baie vitrée

Indépendamment du traitement, une façade sud a un éclairement plus élevé qu’une façade nord.
Au premier abord, il apparaitrait logique d’augmenter la surface vitrée au nord, pour compenser un éclairement plus faible. La lumière du nord est aussi plus faible, mais moins éblouissante et plus facile à contrôler.
Pour les orientations sud, est et ouest l’éblouissement et le risque de surchauffe nécessite de placer des stores qui baissés limiteront le niveau d’éclairement. À ce stade, de nouveau, tout est une question de compromis !

Autonomie en lumière de jour pour une orientation nord.

Pour une orientation nord, l’autonomie en lumière du jour est suffisante pour les espaces bureaux à proximité de la baie vitrée. Mais on voit tout de suite la limite de pénétration de la lumière naturelle à savoir : la mi-profondeur du local étudié.

Autonomie en lumière du jour pour une orientation sud.

Pour une orientation sud, la pénétration de la lumière naturelle est importante. On pourrait pratiquement équiper les espaces de bureaux sur toute la profondeur du local.

Intérêt du store pour une orientation sud.

Que faut-il retenir ?

  • Une orientation nord donne moins de lumière naturelle, mais plus stable dans le temps et absente d’éblouissement.
  • Une orientation sud donne beaucoup de lumière au risque même de générer des éblouissements. Un store est souvent nécessaire pour réduire ce risque. L’influence de la gestion du store se fait ressentir de manière significative pour les baies vitrées orientées au sud. Un bon compromis entre un apport de lumière naturelle réduit (orientation nord) et un éblouissement régulier (orientation sud sans store) est l’équipement des baies vitrées de stores automatiques. De plus, les stores en automatique ont l’avantage de traiter aussi les surchauffes en été.

Hypothèses de simulation

Les hypothèses prises pour réaliser les simulations sont les suivantes :

  • L’orientation de la façade est nord ;
  • Coefficients de réflexion considérés pour les parois internes :
    • Plafond : 70 %
    • Murs intérieurs : 50 %
    • Ébrasements : 50 %
    • Sol : 30 %
  • Les façades extérieures sont assimilées à des parois uniformes mates. Trois type de murs sont considérés dont les coefficients de réflexions sont :
    • Mur clair : 50 %
    • Mur moyen : 30 %
    • Mur foncé : 20 %
  • Disposition des zones de travail : les zones de travail mesurent 4 x 80 cm x 180 cm et sont situées à 80 cm de la face extérieure de la façade.
  • Surface nette éclairante = 2 x 2,37 x 0,90 = 4,266 m² par travée de 2,7 m
  • Surface nette façade intérieure = 2,735 x 2,70 = 7,385 m² par travée
  • Surface nette éclairante / surface nette façade intérieure = 58 % ;
  • (surface nette éclairante/surface nette façade intérieure) x transmission lumineuse du vitrage = 28,9 %.

Luminaires « downlight »

Downlight à LED

Downlight à fluocompacte.


Types de lampes adaptées

Lampe fluocompacte 4 broches.

Module LED.

Initialement, les luminaires « downlights » ont été développés  pour accueillir des lampes fluocompactes à broches de puissance réduite.  Actuellement, une alternative plus économique est le downlight à LED. Le luminaire complet est prévu uniquement pour y intégrer un module LED (éventuellement remplaçable).


Maitrise de la luminance

D’un point de vue de l’éblouissement direct ou indirect via les écrans d’ordinateurs, tout comme les luminaires pour les tubes fluorescents, les luminaires « downlight » suivent la norme EN 12464-1. Il existe des downlights équipés d’une optique spéciale (forme adaptée du réflecteur) pour limiter les luminances. Mais il existe également des grilles pour limiter les luminances (UGR < 19) des downlights.

Les downlights performants ont une luminance moyenne faible pour des angles ϒ supérieurs à leur angle de défilement (voir illustration ci-après). Ils sont caractérisés par des optiques en aluminium.

Pour les luminaires éclairant des postes de travail avec équipement de visualisation, la norme EN 12464-1 spécifie que pour des angles d’élévation supérieurs ou égales à 65°, la luminance moyenne des luminaires ne doit pas dépasser les valeurs reprises dans le tableau suivant et ce en fonction de la luminance moyenne propre des écrans concernés :

État de luminance élevé de l’écran Écran à haute luminance
L > 200 cd.m-2
Écran à luminance moyenne
L ≤ 200 cd.m-2
Cas A

(polarité positive et exigences normales concernant la couleur et le détail des informations affichées, comme pour les écrans utilisés dans les bureaux, pour l’éducation, etc.)

≤ 3 000 cd/m² ≤ 1 500 cd/m²
Cas B

(polarité négative et/ou exigences plus élevées concernant la couleur et le détail des  informations affichées, comme pour les écrans utilisés pour le contrôle des couleurs en conception assistée par ordinateur etc.)

≤ 1 500 cd/m² ≤ 1 000 cd/m²

 

Exemple.

Ce luminaire basse luminance répond à norme EN 12464-1 car la luminance est inférieure à 200 Cd/m² pour des angles d’élévation > 65° quel que soit le plan considéré.

L’angle de défilement dans l’axe longitudinal et l’axe transversal est de 60°.

Drivers LED


Généralités

L’équipement permettant l’alimentation de la LED est appelé couramment un « driver » de LED. L’alimentation s’effectue en courant continu dans le sens passant. La stabilité de l’alimentation de la LED dépend de la qualité du redresseur AC/DC et du filtre « lisseur » de tension. Suivant la qualité de ce dernier, la fluctuation du flux lumineux (papillotement) peut être source d’inconfort visuel sachant que la LED n’a qu’une très faible rémanence et, par conséquent, n’agit pas comme moyen de lissage supplémentaire.

« Driver » de LED.


Critère de qualité

Jusqu’il y a peu, on sous-estimait l’importance de l’alimentation par rapport à la source LED. Pourtant, les exigences principales par rapport à une bonne alimentation sont sévères :

  • La durée de vie doit être au moins la même que celle de la LED.
  • Le rendement de conversion AC/DC de l’alimentation doit être supérieur à 85 %  pour garantir une bonne efficacité énergétique (en lm/W) de l’ensemble LED/driver.
  • Le facteur de puissance (cos φ) doit être le plus proche possible de 1 et la distorsion (harmoniques) la plus faible possible de manière à réduire les pertes.
  • Les perturbations électromagnétiques émises doivent être faibles.

Mode de pilotage

Pilotage en courant continu DC

Le mode de pilotage des alimentations peut être de différents types :

  • pilotage en tension ;
  • pilotage en courant.

Relation courant-tension dans une LED.

Le pilotage en courant est souvent préféré au pilotage en tension pour les simples raisons :

  • Comme le montre la figure ci-dessus, une petite variation de la tension aux bornes de la LED peut entrainer une variation importante du courant qui traverse sa jonction avec un risque de détérioration accru.
  • Le flux lumineux est proportionnel au courant de jonction.
  • Les coordonnées chromatiques des LEDs blanches peuvent varier en fonction du courant d’alimentation.

Un pilotage en tension de plusieurs LED en parallèle (courant différent dans chaque LED) peut aussi entrainer des différences de courant entre chaque LED qui sont sensées donner la même lumière.

Influence du courant sur la chromatique.

Pilotage en PWM

Le pilotage en PWM (Pulse Width Modulation) est souvent utilisé dans le domaine de l’éclairage sachant que les LEDs sont très peu sensibles à ce type de modulation. L’avantage également est que ce pilotage permet de réaliser un dimming comme le montre la figure suivante.

Modulation du courant en fonction de la modulation de la largeur d’impulsion.


Influence du « dimming »

Efficacité de la LED

Lorsque le luminaire LED est « dimmé » par son alimentation, une variation de l’efficacité et du facteur de puissance (cos φ) de l’alimentation apparait.

Couleur de la LED

En fonction du niveau de courant, une dérive du spectre des LEDs est observé et différent suivant le mode de pilotage et le type de technologie des LEDs blanches, à savoir :

  • LED bleu + phosphore ;
  • RGB (3 LED’s Red-Green-Blue).

Sur base du graphique ci-dessus, on peut retirer les grandes lignes suivantes :

  • Une variation du courant d’alimentation provoque une plus grande dérive spectrale de la technologie RGB que celle au phosphore.
  • Le pilotage PWM, par rapport au pilotage continu (DC), permet de modifier facilement le flux de la LED sans trop changer ses coordonnées chromatiques.

Le contrôle simultané du niveau de rouge et de vert pour la technologie RGB en mode de pilotage DC paraît délicat et coûteux.


Alimentation intégrée ou déportée ?

Dans la mesure du possible, on préfèrera une alimentation déportée pour éviter d’influencer l’alimentation par la chaleur dégagée par la ou les LED(s) du luminaire. Cette configuration déportée devra tenir compte de l’adaptation :

  • De la puissance de l’alimentation en fonction de la puissance de LED nécessaire ;
  • De la valeur de courant à lui appliquer ;
  • Ainsi que de la longueur de câble entre l’alimentation et la LED.

Dans le cas d’alimentation intégrée ou embarquée dans le luminaire, l’alimentation sera soumise par conduction, ou même par convection, à l’échauffement des LEDs. Il y a lieu d’en tenir compte.

Exemple :

Photo ampoule LED.

Le type de lampe développé ci-contre dispose de 3 dissipateurs thermiques radiaux (un tous les 120°). L’alimentation se trouve entre le culot et l’ampoule. Entre 2 dissipateurs, une ou plusieurs LEDs sont placées. La raison d’être des dissipateurs au niveau de la partie « éclairante » de la lampe s’explique par la nécessité d’évacuer la chaleur vers le bas plutôt que vers le haut sachant que l’alimentation se trouve au-dessus de la source lumineuse lorsque la lampe est « tête en bas ».

Performance énergétique des bâtiments – Exigences énergétiques pour l’éclairage Norme NBN EN 15193 :2008

Performance énergétique des bâtiments – Exigences énergétiques pour l’éclairage Norme NBN EN 15193 :2008


Table des matières

AVANT-PROPOS

INTRODUCTION

  1. Domaine d’application
  2. Références normatives
  3. Termes et définitions
  4. Calcul de l’énergie utilisée pour l’éclairage
  5. Mesures
  6. Calcul de l’énergie d’éclairage dans les bâtiments
  7. Référentiel des exigences d’éclairage
  8. Conception et pratique en matière d’éclairage

ANNEXE A (informative) : mesures du circuit d’éclairage

ANNEXE B (informative) : méthode de mesurage de la puissance totale des luminaires et de la puissance auxiliaire associée

ANNEXE C (informative) : détermination du facteur de dépendance de la lumière du jour

ANNEXE D (informative) : détermination du facteur de dépendance de l’occupation

ANNEXE E (informative) : détermination du facteur d’éclairement constant

ANNEXE F (informative) : valeurs de référence et critères de conception de l’éclairage

ANNEXE G (informative) : valeurs par défaut

ANNEXE H (informative) : autres considérations

ANNEXE I (informative) : liste des symboles


Introduction

Dans le respect de la norme NBN EN 12464-1, l’objectif de la norme 15193 est d’établir des conventions et de donner un mode opératoire pour estimer les exigences énergétiques vis-à-vis de l’éclairage des bâtiments et de déterminer un indicateur numérique de la performance énergétique des bâtiments.


Énergie totale utilisée pour l’éclairage pendant une période donnée (méthode détaillée)

Calcul de l’énergie totale

Pour une pièce ou une zone déterminée, le calcul de l’énergie totale utilisée pour l’éclairage s’effectue de la manière suivante :

Wt = WL,t + WP,t [kWh]

WL,t = Σ{(Pn x Fc) x [(tD x Fo x FD) + (tN x Fo)]} / 1 000 [kWh]

WP,t = Σ{{(Ppc x [ty – (tD + tN)]} + (Pem x tem)} / 1 000 [kWh]

Où :

  • Wt = l’énergie totale estimée requise pendant une période donnée ;
  • WL,t  = l’énergie nécessaire pour les besoins d’éclairage ;
  • WP,t = l’énergie nécessaire pour les auxiliaires (énergie de régulation, de charge des luminaires de secours, …).

Et :

  • Pn = la puissance des luminaires repris dans la pièce ou la zone considérée [W];
  • Fc = le facteur d’éclairement constant lorsqu’une régulation de l’éclairement constant gère la puissance totale installée ;
  • tD = le temps d’utilisation en période jour [h] ;
  • Fo = le facteur de dépendance de l’occupation ;
  • FD = le facteur de dépendance de la lumière du jour disponible en interne ;
  • tN  = le temps d’utilisation en l’absence de lumière du jour  [h];
  • Ppc = la puissance totale des auxiliaires des systèmes de régulation dans les luminaires lorsque les lampes ne fonctionnent pas [W] ;
  • ty = durée d’une année standard  [h];
  • Pem = la puissance totale de charge des luminaires de secours [W] ;
  • tem = temps de charge de l’éclairage de secours.

Facteur de dépendance de la lumière du jour FD,ng

Pour une pièce ou une zone définie, le facteur de dépendance de la lumière du jour est donné par la relation suivante :

FD,n = 1 – (FD,S,n x FD,C,n)

FD,mois = 1 – (FDS x FDC x CDS)

Où :

  • FD,S,n = facteur d’accès à la lumière du jour ;
  • FD,C,n = facteur de  régulation en fonction de la lumière du jour ;
  • CDS = facteur de distribution mensuelle

Lorsqu’une zone est aveugle, le facteur de dépendance de la lumière du jour est de 1.

La méthodologie pour déterminer le facteur FD,n comprend 5 étapes :

  1. La segmentation du bâtiment à étudier en zone avec et sans accès à la lumière du jour ⇒ géométrie de la zone de calcul ;
  2. La détermination de l’influence des paramètres de la zone tant interne qu’externe (géométrie, modulation de façade, ombre reportée, …) ⇒ facteur de lumière du jour FLJ  ;
  3. La prévision du potentiel d’économie d’énergie en fonction du climat local, du niveau d’éclairement à maintenir, … ⇒ facteur d’accès à la lumière du jour FD,S,n ;
  4. La détermination de l’exploitation de la lumière du jour en fonction du type de régulation envisagé ⇒ facteur de  régulation en fonction de la lumière du jour FD,C,n ;
  5. La conversion de la valeur annuelle FD,n en valeurs mensuelles.

Facteur de dépendance de l’occupation Fo

Ce facteur est surtout lié :

  • au type de système d’allumage/extinction ;
  • à l’utilisation de la zone considérée (salle de réunion, couloir, bureau fermé ou paysager, …) ;
  • à la surface couverte par un système d’allumage/extinction ;
  •     …

Facteur d’éclairement constant FC

Dans toutes les installations d’éclairage, le niveau d’éclairement après un certain temps diminue par rapport celui obtenu lors de la mise en service. Il est donc impératif de tenir du facteur de maintenance. C’est ce dernier qui conditionne le facteur d’éclairement constant FC.


Énergie annuelle utilisée pour l’éclairage (méthode rapide)

L’énergie totale annuelle consommée à l’échelle du bâtiment :

W = WL + WP [kWh/an]

Où :

  • WL  = l’énergie annuelle nécessaire pour les besoins d’éclairage ;
  • WP = l’énergie annuelle nécessaire pour les auxiliaires (énergie de régulation, de charge des luminaires de secours, …).

Indicateur numérique de l’énergie d’éclairage (LENI)

C’est en fait la consommation spécifique de l’éclairage ramenée au m².

LENI = W / A [kWh/(m² x an)]

Où A est la surface plancher du bâtiment [m²].

Ou encore :

LENI = {Fc × PN/1 000 ×[(tD × FD × FO) +(tN × FO)]} + 1 + {5/ty × [ty – (tD+ tN)]} [kWh/(m² • an)]

Valeurs de consommation spécifique LENI courantes

Des valeurs de référence et critères de conception de l’éclairage sont repris dans le tableau suivant permettant d’appréhender des ordres de grandeur par défaut nécessaire au calcul des consommations spécifiques des luminaires.

Valeur LENI de référence

ECL sans système de régulation à éclairement constant ECL avec système de régulation à éclairement constant
PN tD tN Fc Fo FD LENI LENI LENI LENI
Classe de qualité Puissance auxiliaire de secours Pem [kWh/(m².an)] Puissance auxiliaire de secours Ppc [kWh/(m².an)] W/m² h h ECL sans rec ECL avec rec Man Auto Man Auto Valeur limite [kWh/(m².an)]
Bureau * 1 5 15 2 250 250 1 0,9 1 0,9 1 0,9 42,1 35,3 38,3 32,2
** 1 5 20 2 250 250 1 0,9 1 0,9 1 0,9 54,6 45,5 49,6 41,4
*** 1 5 25 2 250 250 1 0,9 1 0,9 1 0,9 67,1 55,8 60,8 50,6
Établissement d’enseignement * 1 5 15 1 800 200 1 0,9 1 0,9 1 0,8 34,9 27 31,9 24,8
** 1 5 20 1 800 200 1 0,9 1 0,9 1 0,8 44,9 34,4 40,9 31,4
*** 1 5 25 1 800 200 1 0,9 1 0,9 1 0,8 54,9 41,8 49,9 38,1
Établissement sanitaire * 1 5 15 3 000 200 1 0,9 0,9 0,8 1 0,8 70,6 55,9 63,9 50,7
** 1 5 25 3 000 200 1 0,9 0,9 0,8 1 0,8 115,6 91,1 104,4 82,3
*** 1 5 35 3 000 200 1 0,9 0,9 0,8 1 0,8 160,6 126,3 144,9 114
Hôtellerie * 1 5 10 3 000 200 1 0,9 0,7 0,7 1 1 38,1 38,1 34,6 34,6
** 5 20 3 3 000 1 0,9 0,7 0,7 1 1 72,1 72,1 65,1 65,1
*** 1 5 30 3 000 200 1 0,9 0,7 0,7 1 1 108,1 108,1 97,6 97,6
Restauration * 1 5 10 1 250 125 1 0,9 1 1 1 29,6 27,1
** 1 5 25 1 250 125 0,9 1 1 1 67,1 60,8
*** 1 5 35 1 250 125 1 0,9 1 1 1 92,1 83,3
Salle de sport * 1 5 10 2 000 200 1 0,9 1 1 1 0,9 43,7 41,7 39,7 37,9
** 1 5 20 2 000 200 1 0,9 1 1 1 0,9 83,7 79,7 75,7 72,1
*** 1 5 30 2 000 200 1 0,9 1 1 1 0,9 123,7 117,7 111,7 106,3
Commerce de détail * 1 5 15 3000 200 1 0,9 1 1 1 78,1 70,6
** 1 5 25 3000 200 1 0,9 1 1 1 128,1 115,6
*** 1 5 35 3000 200 1 0,9 1 1 1 178,1 160,6
Usine * 1 5 10 2500 150 1 0,9 1 1 1 0,9 43,7 41,2 39,7 37,5
** 1 5 20 2500 150 1 0,9 1 1 1 0,9 83,7 78,7 75,7 71,2
*** 1 5 30 2500 150 1 0,9 1 1 1 0,9 123,7 116,2 111,7 105.0

Il va de soi que la conception, l’installation, ou encore la rénovation d’un système d’éclairage doit se conformer aux normes EN 12464-.

  • * conformité de base aux exigences ;
  • ** bonne conformité aux exigences ;
  • *** totale conformité aux exigences.

Les critères de conception et de rénovation de l’éclairage sont mentionnés dans le tableau ci-dessous.

Où :

  • PN = la puissance surfacique installée de l’éclairage du bâtiment [W/m²] ;
  • rec = le système de régulation à éclairement constant ;
  • Manu = un système d’éclairage à régulation manuelle ;
  • Auto = un système d’Éclairage à régulation automatique.

Classes de qualité

Classe de critères de conception et rénovation des éclairages
* ** ***

Éclairement à maintenir sur les plans de travail horizontaux (Em horizontal)

Contrôle approprié de l’éblouissement (UGR)

Évitement des effets de scintillation et des effets stroboscopiques

Contrôle approprié de l’éblouissement par réflexion

Amélioration du rendu des couleurs

Évitement des ombres accentuées ou d’une lumière trop diffuse

Répartition appropriée de l’éclairement dans la pièce (Evertical)

Prise en compte particulière de la communication dans l’éclairage des visages (Ecylindrique)

Prise en compte particulière des questions relatives à la santé (°)

  • ◙ doit être conforme aux valeurs prescrites de la norme NBN EN 12464-1 
  • (°) concernant la santé, un éclairement beaucoup plus élevé et donc une valeur de la puissance surfacique (W/m²) plus élevée.

Classes d’efficacité énergétique des lampes

Classes d'efficacité énergétique des lampes

Fig. 1 Pictogramme lié à la labellisation des lampes.

Ce règlement s’applique dès le 1er septembre 2013 aux lampes électriques telles que les lampes à filament , les lampes fluocompactes, les lampes à décharges à haute intensité et les lampes (et modules) LED (de plus de 30 lumens).

La réglementation définit les classes d’efficacité énergétique des lampes en fonction d’un critère de rendement. Ces classes (au nombre de 7) sont dénommées de A++ à E, la classe A++ ayant la meilleure efficacité énergétique. Les classes sont définies par un rapport entre une puissance absorbée par la lampe (et corrigée de la totalité des pertes de l’appareillage de commande) et une puissance de référence, nommée indice d’efficacité énergétique IEE. Les limites sont définies comme suit :

Classe d’efficacité énergétique Lampes non dirigées Lampes dirigées
A++ (le plus efficace) IEE ≤ 0.11 IEE ≤ 0.13
A+ 0.11 < IEE ≤0.17 0.13 < IEE ≤0.18
A 0.17 < IEE ≤0.24 0.18< IEE ≤0.40
B 0.24 < IEE ≤0.60 0.40 < IEE ≤0.95
C 0.60 < IEE ≤0.80 0.95 < IEE ≤1.20
D 0.80 < IEE ≤0.95 1.20 < IEE ≤1.75
E (le moins efficace) 0.95 < IEE 1.75 < IEE

Le règlement n°874/2012 doit être appliqué en parallèle aux règlements n°244/2009, n°859/2009, n°245/2009, n°347/2010 et n°1194/2012 qui concernent les exigences d’écoconception des lampes et des équipements correspondants.

⇒ Pour en savoir plus : ouverture d'une nouvelle fenêtre ! http://eur-lex.europa.eu

Trouver une norme ?

Trouver une norme ?


Le site internet du Bureau de Normalisation (ouverture d'une nouvelle fenêtre ! w ww.nbn.be) propose un moteur de recherche qui permet d’identifier toutes les normes relatives à un domaine en particulier. Celui-ci est ouverture d'une nouvelle fenêtre !disponible ici.

De même, sur ce site vous trouverez toutes les informations nécessaires pour la commande et la consultation de normes.

Caractéristiques des lampes LED

Caractéristiques des lampes LED

Puissances (W) Puissance driver (W) Puissance totale (W) Flux lumineux
(lm)
Efficacité lumineuse
(ballast non compris) (lm/W)
IRC T° de couleur
(K)
Durée vie utile/Durée vie moyenne (h)
Forme standard (type remplacement incandescente)
3 0,6 3,6 136 45 80-90 2 700-3 000 15 000-30 000
5 0,9 5,9 250 50
8 1,6 9,6 470 59
10 2 12 650 65
12 2,4 14,4 810 68
14,5 5,9 17,4 1 055 73

Techniques

Pour en savoir plus sur les LEDs et leur fonctionnement, cliquez-ici !

Caractéristiques des lampes au sodium basse pression

Caractéristiques des lampes au sodium basse pression

Puissances (W) Puissance ballast (W) Puissance totale (W) Flux lumineux
(lm)
Efficacité lumineuse
(ballast non compris) (lm/W)
IRC T° de couleur
(K)
Durée vie utile/Durée vie moyenne (h)
35 9,2 44,2 4 700 134 1 800 12 000
à
18 000
55 19 74 8 000 145
90 21 111 13 600 151
135 22,5 157,5 22 600 167
180 32 212 32 000 178

Caractéristiques des lampes au mercure haute pression

Caractéristiques des lampes au mercure haute pression

Puissances (W) Puissance ballast (W) Puissance totale (W) Flux lumineux
(lm)
Efficacité lumineuse
(ballast non compris) (lm/W)
IRC T° de couleur
(K)
Durée vie utile (h) Durée vie moyenne (h)
50 8 58 2 000 40 de
37
à
60
de
3 400
à
4 300
8 000
à
12 000
15 000
à
24 000
80 10 90 4 000 50
125 14 139 6 000 54
250 18 268 14 000 56
400 20 420 24 000 60
700 26 726 40 000 57
1 000 40 1 040 60 000 60

Caractéristiques des lampes au sodium haute pression

Caractéristiques des lampes au sodium haute pression

Puissances (W) Puissance ballast (W) Puissance totale (W) Flux lumineux
(lm)
Efficacité lumineuse
(ballast non compris) (lm/W)
Efficacité lumineuse (ballast compris) (lm/W) IRC T° de couleur
(K)
Durée vie utile (h) Durée vie moyenne (h)

Sodium standard

70 11 81 6 600 94 81 25 2 000 16 000 25 000
100 14 114 10 500 105 92
150 16 166 16 500 110 99
250 26 276 32 000 128 115
400 29 429 55 000 138 128

Sodium « confort » ou « de luxe »

150 16 166 13 000 86 78 65 2 150 13 000 25 000
250 26 276 23 000 92 83
400 29 429 38 000 95 89

Sodium « blanche »

35 6 41 1 300 37 31 83 2 500 13 000 25 000
50 11 61 2 300 46 37,7
100 15 115 5 000 48 41,7

Caractéristiques des lampes aux halogénures métalliques

Caractéristiques des lampes aux halogénures métalliques

Puissances (W) Puissance lampe (W) Puissance ballast (W) Flux lumineux
(lm)

Efficacité lumineuse
(ballast non compris) (lm/W)

Efficacité lumineuse (ballast compris) (lm/W)

IRC

T° de couleur
(K)

Durée vie utile (h)

Durée vie moyenne (h)

Standard (tube à décharge en quartz)

70

78 10,5 6 500 83 72

80

 

4 000

 

6 000
à
12 000
18 000

 

 

150

150 19 13 500

90

80  85

 

250

246 19,5 21 500

86

85 85 +/- 4 600

 

400 438 23 42 000 105 99
1 000 1 000 48 97 000 97 93  

 

2 000 2 000 96 20 5000 103 98

A brûleur céramique

20 1 700 85

+/- 85

 

3 000 6 000 10 000

35

39 8 3 440

89

74 3 000

 

70 73 13 6 800 97 82  3 000
ou
4 200
150 147 17 14 000 95 87 3 000
ou
4 200

Caractéristiques des lampes à induction

Caractéristiques des lampes à induction

Puissance du système (W) Flux lumineux
(lm)

Efficacité lumineuse
(lm/W)

IRC

T° de couleur
(K)

Durée vie (h)
(20 % de mortalité, 30 % de chute de flux)

 55

3 500 65

 80

2 700
3 000
4 000
60 000

 85

6 000

70

 80

165 12 000 70 80

Caractéristiques des lampes fluocompactes

Caractéristiques des lampes fluocompactes

Puissances (W) Flux lumineux
(lm)

Efficacité lumineuse
(ballast non compris) (lm/W)

IRC

T°de couleur
(K)

Durée vie utile (h)

Durée vie moyenne (h)

Lampe à culot à visser (1) (remplacement d’une lampe à incandescence) avec ballast conventionnel.

9

350 39 80 2 700  

 

15 000

 

13

550

42

18

850

47

25 1 200 48

Lampe à culot à visser (1) (remplacement d’une lampe à incandescence) avec ballast électronique.

5

240

48

80 2 700

 

20 000
7 400 57
11 640 58
15 900 60
20 1 260 63
23 1 600 70

Lampe à culot à broches (2) (2 ou 4).

5 250 50 80 à 90

 

2 700
3 0003 500
4 0006 500
6 000
10 000
(ballast électronique).
8 000
14 000
(ballast électronique).22 000 pour la version longue durée.
7 400 57
9 600 67
11 900 82
18 1 200 67
26 1 800 69
32 2 400 75
36 2 900 81
40 3 500 88
55 4 800 87

Caractéristiques des tubes fluorescents

Caractéristiques des tubes fluorescents

Puissances (W) Flux lumineux
(lm)

Efficacité lumineuse
(ballast non compris) (lm/W)

IRC

T°de couleur
(K)

Durée vie utile (h)

Durée vie moyenne (h)

Ø 26 mm ou T8, classe 1B, à 25°C

18

1 350

75

80 à 90

2 700
3 000
4 000
6 5001
16 000 avec ballast électronique préchauffage

(42 000 pour la version longue durée)

20 000 avec ballast électronique préchauffage

(50 000 pour la version longue durée)

36 3 350 93
58 5 200 90

Ø 26 mm ou T8, classe 2, à 25°C

18 1 100 64 60 à 80 2 900
4 000
5 000 14 000
36 2 600 83
58 4 125 83

Ø 16 mm ou T5, classe 1B HE, à 35°C

14 1 250 96 85 2 700
3 000
3 500
4 000
5 000
6 5001
19 000

(30 000 pour la version longue durée)

24 000

(45 000 pour la version longue durée)

21 1 920 100
28 2 600 104
35 3 300 104

Ø 16 mm ou T5, classe 1B HO, à 35°C

24 1 750 89 85 2 700
3 000
3 500
4 000
5 000, 6 5001
19 000

(30 000 pour la version longue durée)

24 000

(45 000 pour la version longue durée)

39 3 100 92
49 4 300 99
54 4 450 93
80 6 550 88

 1 Le flux lumineux  (et donc l’efficacité lumineuse) est légèrement plus faible pour une T° de couleur de 6 500 K.

Caractéristiques des lampes halogènes

Caractéristiques des lampes halogènes

Puissances (W) Flux lumineux
(lm)

Efficacité lumineuse
(lm/W)

IRC

T°de couleur
(K)

Durée vie moyenne (h)

Lampe halogène « tension du réseau » (finition claire).

40

490 12

100

3 000

2 000

60

820

14

120

2 250

19

160

3 100

19

400

9 000

23

1 000 22 000 22
2 000 44 000 22

Lampe halogène ECO « tension du réseau » (finition claire).

40 590 15 100 2 800 2 000
60 980 16
120 2 300 19
160 3 300 21

Caractéristiques des lampes à incandescence

Date :

  • page créée le 25/02/2013

Auteur :

  • Didier Darimont – relecture Olivier D.

Caractéristiques des lampes à incandescence

Pour les « fans » des lampes à incandescence, voici les caractéristiques des survivantes que l’on pourrait retrouver dans des stocks « clandestins ». En effet, malgré leur retrait du commerce européen, certains restaurateurs, par exemple, ont constitué des réserves (dignes de celles des écureuils) afin de garantir à leur client la même ambiance lumineuse ! Le débat est lancé !

Puissances (W) Flux lumineux
(lm)

Efficacité lumineuse
(lm/W)

IRC

T° de couleur
(K)

Durée vie moyenne (h)

 25

220 8,8

100

2 700

1 000

 40

415

10,4

 60

710

11,8

 75

935

12,5

 100

1 300

13

Rendement des luminaires

Rendement des luminaires


Classe de luminaire

Rendement inférieur (vers le bas)

Rendement total

min.

max.

min.

max.

Tube nu, avec réflecteur.

76

97

Luminaire à grilles, direct.

44

93

Luminaire mixte, sans distinction de réflecteurs ou d’optiques.

8

71

75

81

Luminaire à optique synthétique à structure prismatique.

35

84

Luminaire à optique opale.

29

75

Luminaire basse luminance.

60

84

Downlight.

24

92

Projecteur, 8 à 60 ° d’ouverture.

40

97

Armatures intérieures.

66

97

Cas particulier : LED

Les fabricants de luminaires LED, parlent directement en efficacité finale, c’est-à-dire qu’il donne la quantité finale de lumen par Watt sortant du luminaire LED. Cette efficacité prend également en compte la consommation du driver.

Remarque : L’efficacité « système lampe et luminaire » (autre que LED)  se trouve en prenant en compte l’efficacité de la lampe, la consommation de son ballast et le rendement du luminaire dans lequel il se trouve. À titre d’exemple, calculons l’efficacité finale un T8 36 w dans un luminaire d’un rendement de 93 %.
Soit un T8 – 36 W – 3 200 lm – consommation du ballast 1,5 W dans un luminaire de 93 %, son efficacité finale sera de  79 lm/W.

Schéma rendement d'un luminaire LED.

3 200 / (36 + 1.5) × 0,93 = 79 lm/W

Nombre d’heure de fonctionnement par usage

Nombre d'heure de fonctionnement par usage

Le tableau suivant indique, dans le cadre d’activités typiques, le nombre d’heures de fonctionnement de l’installation d’éclairage :

Types de bâtiment Heures de fonctionnement annuel par défaut
tD tN tO

Bureaux

2 250 250 2 500

Établissement scolaire

1 800 200 2 000

Établissement sanitaire

3 000 2 000 5 000

Hôtellerie

3 000 2 000 5 000

Restaurant

1 250 1 250 2 500

Établissement sportif

2 000 2 000 4 000

Commerces

3 000 2 000 5 000

Industrie

2 500 1 500 4 000

tD : temps d’utilisation à la lumière du jour.
tN : temps d’utilisation en l’absence de lumière du jour.
tO : temps de fonctionnement annuel en fonction de l’usage du bâtiment.

Choisir les luminaires – tableau récapitulatif

Lampes de bureau

Lampes de bureau

Luminaire mobile avec lampe fluo compacte ou led de faible puissance.

Pour l’éclairage local des postes de travail.

Projecteurs

Projecteurs

Luminaire orientable avec lampe halogène, fluo compacte, led ou à décharge.

Pour l’éclairage d’accentuation (musée, commerce, etc.)

Downlights

Downlights

Avec réflecteur en aluminium.

Pour l’éclairage décoratif, l’éclairage des espaces restreints ou l’illumination de cavités. Éviter les réflecteurs blancs.

Downlights Avec réflecteur en aluminium et diffuseur translucide. Idem que précédent mais avec besoin de limitation de l’éblouissement direct. À éviter au maximum et privilégier la version sans diffuseur.

Cloches

Cloches

Avec réflecteur en métal ou prismatique et avec ou sans diffuseur translucide ou verre de protection.

Pour l’éclairage des espaces à grande hauteur sous-plafond (commerces, etc.). Éviter au maximum les réflecteurs transparents et les diffuseurs translucides.

Plafonds lumineux

Plafonds lumineux

Avec diffuseur translucide.

Pour l’éclairage des locaux avec un besoin de limitation de l’éblouissement direct (soins de santés, etc.). L’usage à but uniquement décoratif est à éviter (bureau, etc.)

Luminaires sur pied

Luminaires sur pied

Luminaire d’appoint.

À utiliser comme appoint pour fournir localement l’intensité lumineuse demandée, mais à éviter si la composante indirecte et/ou la puissance sont trop élevées.

Appliques murales

Appliques murales

Appliques murales

Généralement avec diffuseur translucide.

Pour éclairage décoratif.

Réglettes et luminaires industriels

Réglettes et luminaires industriels

Tube nu.

Uniquement pour les pièces de service, peu utilisé, sans exigence de protection contre l’éblouissement.

Réglettes et luminaires industriels Avec réflecteur industriel de préférence miroité (éviter les réflecteurs peints). Pour l’éclairage général, hauteur sous plafond de 5m, avec ou sans ventelles en fonction des besoins en protection contre l’éblouissement direct.

Luminaires linéaires encastrés, plafonniers et suspensions

Luminaires linéaires encastrés Avec diffuseur translucide (ou prismatique). A éviter au maximum. Pour usage décoratif et un besoin de limitation de l’éblouissement direct.

plafonniers

Diffuseur translucide et réflecteur.

A éviter au maximum. Pour usage décoratif et un besoin de limitation de l’éblouissement direct.

Ventelles plates

Ventelles plates crantées.

Ventelles plates ou crantées en aluminium.

Pour l’éclairage général et limitation de l’éblouissement direct. Les ventelles blanches sont à éviter.

Ventelles paraboliques

Ventelles paraboliques en aluminium.

Pour l’éclairage général, avec présence d’écrans de visualisation et travail de haute précision.

Ventelles paraboliques avec fermeture en verre.

Ventelles paraboliques en aluminium et fermeture en verre.

Pour les salles blanches et travail de haute précision.

Luminaires étanches

Tube fluorescent nu

Tube fluorescent nu.

Uniquement pour les pièces de service humides, peu utilisées, sans exigence de protection contre l’éblouissement.

Réflecteur industriel miroité

Réflecteur industriel miroité.

Pour l’éclairage général des locaux humides ou poussiéreux, hauteur sous plafond de 4 à 5 m, avec ou sans ventelles en fonction du besoin de protection contre l’éblouissement direct. Les réflecteurs peints sont à éviter.

Vasque transparente,

Vasque transparente, structurée ou prismatique.

Pour l’éclairage général des locaux humides ou poussiéreux avec nécessité de résistance aux chocs extérieurs ou internes (bris de lampe).

Luminaires résistant aux chocs

Luminaire avec grille de protection en acier.

Luminaire à ventelles paraboliques en aluminium et grille de protection en acier.

Pour l’éclairage des salles de sport. Éviter les réflecteurs peints.

Photo, gestion de l'éclairage

Améliorer la commande et la gestion [Eclairage]

Photo, gestion de l'éclairage

Zonage et sensibilisation des utilisateurs

Mise en garde : un système de gestion de l’éclairage ne fonctionne que s’il est parfaitement accepté par les occupants. L’imagination de ceux-ci est incroyable quand il s’agit de contrarier un système automatique ! Celui-ci doit donc être soit imperceptible, soit compris et accepté par les occupants. C’est d’autant plus vrai en rénovation puisqu’il y a un  historique.<

On conseille souvent de ne pas pousser trop loin la recherche d’économies au détriment de la liberté des utilisateurs et de la simplicité du système. Dans les locaux de bureau, par exemple, les occupants doivent pouvoir allumer ou éteindre un luminaire, faire varier la puissance émise par un luminaire ou personnaliser leur ambiance de travail.

Dans un premier temps, on peut influencer ces comportements par l’information et la motivation de l’utilisateur, sans modifier le mode de commande de l’installation.

Dans ce cas, la collaboration des utilisateurs sera d’autant plus facile que ceux-ci disposent de commandes personnelles et ergonomiques. Ceci implique un zonage des commandes, et, par exemple, le rapatriement des commandes vers la table de travail ou l’utilisation de télécommandes à infrarouge.

Ou de télécommande sans fil et sans pile.
Ainsi, dans les grands bureaux, il faut dans la mesure du possible donner la possibilité aux occupants de gérer l’éclairage au niveau de leur propre zone de travail.
L’utilisateur pourra être sensibilisé :

  • A la non-utilisation de l’éclairage artificiel général si l’éclairage naturel est suffisant.
  • À l’extinction de l’éclairage d’un local lorsqu’il quitte celui-ci.

Temps minimum d’absence avant coupure

Dans un local équipé d’un éclairage fluorescent à ballast électromagnétique ou électronique sans préchauffage, il est préférable d’éteindre si l’inoccupation excède 15 à 30 minutes. Éteindre pour des absences plus courtes n’est pas économiquement rentable à cause de la diminution de la durée de vie des lampes avec l’augmentation du nombre d’allumages. Dans tous les autres cas (lampes incandescentes, fluorescentes avec ballast électronique à préchauffage, LEDS), une extinction est recommandée quelle que soit la durée de l’absence.

Note : souvent une installation d’éclairage à LED reste allumée inutilement car on pense que les LEDS ne consomment rien… un des avantages des LEDS est l’allumage et l’extinction immédiat et sans problèmes donc profitons de cet avantage pour encore économiser plus d’énergie !

Zonage

Exemple de zonage pour une salle de sport :

Dans une salle omnisports, il est inutile d’éclairer toute la salle alors qu’un seul terrain est occupé. Il est important de prévoir un zonage, c’est-à-dire une commande séparée pour les différents terrains de la salle.

Les lignes de jeux s’entremêlent.

   

Il existe donc plusieurs manières de regrouper les luminaires qui seront commandés en une seule fois.

On analysera donc chaque cas, en tenant compte de :

  • l’emplacement des lignes de jeux,
  • la fréquence d’occupation des différents terrains,
  • la possibilité d’emplacement des différentes commandes.

Voici un exemple possible de zonage :


Gestion horaire

Si l’horaire de travail est fixe, une horloge peut commander l’éclairage en tout ou rien par zone ou pour l’ensemble du bâtiment.

Dans les grands bureaux, les occupants se sentent moins concernés par la gestion de l’éclairage général. Ceci justifie une coupure générale en fonction d’un horaire.

Dans les petits bureaux, l’occupant est plus conscient de son rôle. Les systèmes automatiques auront donc moins d’impact. On peut alors préconiser des systèmes qui poussent l’utilisateur à prendre la décision d’allumer ou d’éteindre la lumière à plusieurs moments de la journée, par exemple par une extinction automatique suivant un horaire.

Attention, la coupure automatique de l’ensemble de l’éclairage est dangereuse si elle plonge tout le bâtiment dans le noir alors que des personnes sont encore présentes. Une solution peut être une extinction graduelle par groupes de luminaires avec possibilité de relance.

L’horaire peut intégrer le passage à un éclairage réduit pour les tâches d’entretien, par exemple la coupure de 2/3 des appareils.

Études de cas

Gestion de l’éclairage des Moulins de Beez.

Gestion en fonction de la présence

   

Dans certains cas, il est plus rentable d’investir dans un détecteur de présence que dans la rénovation de l’appareil d’éclairage. Ceci permet d’éviter un investissement important et de réaliser immédiatement des économies substantielles.

La détection de présence est recommandée dans les locaux où la présence de personnes est occasionnelle, comme par exemple dans les salles de réunion, dans les locaux d’archives d’archives (si un rayonnage n’implique pas un trop grand nombre de détecteurs) ou encore dans certains couloirs, …

a href= »https://www.energieplus-lesite.be/index.php?id=19073″>Pour estimer la rentabilité d’un détecteur de présence.(XLS)

Dans les couloirs et les escaliers, la détection de présence peut être remplacée par une simple minuterie.

L’utilisation de ces systèmes implique une certaine prudence dans les locaux où les mouvements des occupants sont faibles comme les bureaux. Les détecteurs peu sensibles risquent de ne pas détecter les mouvements légers engendrés par le travail sur ordinateur ou la lecture.

La rentabilité d’un détecteur de présence dépend :

  • Du temps de coupure supplémentaire par rapport au fonctionnement normal.
  • De la puissance électrique gérée par un détecteur.
  • De la présence de ballasts électromagnétiques. Ceux-ci impliquent une forte diminution de la durée de vie des lampes avec le nombre d’allumages. Ceci peut être évité avec des ballasts électroniques. Voir Le remplacement des ballasts.
  • Du coût du kWh : comme pour la gestion en fonction de l’éclairage naturel, l’énergie économisée grâce au détecteur n’est pas facturée au prix pratiqué pendant les heures pleines, mais risque de se rapprocher de celui des heures creuses.

Mise en garde

Toute gestion qui prévoit des séquences d’allumage/extinction en fonction de la présence n’est pas recommandée avec des lampes à décharge. En effet, après extinction des lampes, celles-ci nécessitent un certain temps avant de se refroidir. Si on essaie de la rallumer, le ballast va envoyer une tension élevée aux électrodes de la lampe. Cette tension ne suffira pas à allumer la lampe tant que celle-ci est chaude. Cette répétition va cependant user la lampe et diminuer sa durée de vie.

Les lampes à décharge haute pression doivent être utilisées avec des cycles de 8 à 12 h. Avec des cycles plus courts, la durée de vie des lampes diminue fortement. Pour des cycles de 3 heures, par exemple, la durée de vie des lampes chute à 50 %.

Avec des lampes à décharge haute pression, la gestion en fonction de la présence des occupants ne consiste pas à allumer l’installation en cas de présence et à l’éteindre en cas d’absence, mais à faire varier le flux lumineux d’un niveau bas en cas d’absence vers un niveau élevé en cas de présence.


Gestion en fonction de la lumière du jour

Une économie énergétique très importante peut être obtenue par la gestion automatisée de l’éclairage en fonction de l’éclairage naturel, accompagnée ou non d’une gestion en fonction de la présence dans certains locaux/zones.

Si les mesures réalisées sur le site montrent un apport important de lumière naturelle dans quelques locaux, il sera utile de jouer sur des capteurs de luminosités pour commander les lampes (on/off par des cellules crépusculaire ou dimmable en fonction de l’éclairage du jour).

Nous préférons des ballasts électroniques dimmables à une commande ON/OFF pour des raisons de confort visuel.

Pour la gradation en fonction de la lumière du jour, plusieurs systèmes sont disponibles sur le marché (par lampe, par groupe de lampes, extinction complet ou non, par local ou programmable par bâtiment entier (p.ex. avec des ballasts programmables DALI (Digital Adressable Lighting Interface…)).

Concevoir

la fenêtre comme capteur de lumière naturelle.

Gestion sans fil

Lorsque l’on veut améliorer la gestion des luminaires de manière approfondie, un frein à l’initiative réside dans la peur de devoir recâbler une partie ou l’ensemble de l’installation.

A l’heure actuelle, nombreuses sont les techniques issues de la domotique qui permettent de travailler en rénovation de gestion sans fil (ou à peu près). Il est vrai que ce genre de techniques reste coûteux à l’investissement et qu’il est toujours  nécessaire de bien analyser la rentabilité.

Il existe sur le marché des dizaines, voire plus, de techniques de commande et de gestion sans fil. À titre d’exemple, voici une manière de rénover le système de gestion de l’éclairage. Attention toutefois, que le changement de technologie de gestion de l’éclairage passe souvent par le remplacement complet du luminaire.

Avant

  • Les ballasts sont de type électromagnétique ;
  • Un interrupteur simple commande les deux luminaires.

Après

  • Les luminaires sont remplacés. Ils sont équipés d’un ballast électronique dimmable ;
  • L’interrupteur est « ponté ». on peut le remplacer par un cache de propreté ;
  • Le local est équipé d’un détecteur de présence /absence avec sonde de luminosité incorporée. On récupère l’alimentation 230 V des luminaires pour alimenter le détecteur et les luminaires ;
  • Une télécommande IR permet de gérer le détecteur. Quant au détecteur il peut piloter les luminaires en fonction de la présence/absence et de la lumière naturelle dans le local.

Ombres

Ombres


En fonction de sa direction, la lumière peut provoquer l’apparition d’ombres marquées qui risquent de perturber le travail effectué.

  

Lorsque la lumière provient du côté droit pour les droitiers et du côté gauche pour les gauchers.

Lorsque la lumière est dirigée dans le dos des occupants.

À l’inverse, une lumière non directionnelle, telle qu’on peut la créer avec un éclairage artificiel purement indirect, rendra difficile la perception des reliefs et peut rendre, par exemple, les visages désagréables à regarder.

Avec un éclairage directionnel et avec un éclairage diffus.

Une pénétration latérale de la lumière naturelle satisfait généralement à la perception tridimensionnelle du relief des objets et de leur couleur, grâce à sa directionnalité et à sa composition spectrale. Le cas est idéal mais le niveau d’éclairement diminue dès qu’on s’éloigne des fenêtres.

  • Composition correcte des ombres permettant une bonne perception des détails : combinaison d’éclairage direct et diffus.
  • Absence d’ombre effaçant tout relief : éclairage diffus.
  • Ombres dures pouvant modifier l’aspect des objets et donc représenter une source de danger : éclairage directionnel.

Eblouissement

Eblouissement


Généralités

L’éblouissement est dû à la présence, dans le champ de vision, de luminances excessives (sources lumineuses intenses) ou de contrastes de luminance excessifs dans l’espace ou dans le temps.

Suivant l’origine de l’éblouissement, on peut distinguer :

L’éblouissement direct produit par un objet lumineux (lampe, fenêtre, …) situé dans la même direction que l’objet regardé ou dans une direction voisine.

L’éblouissement par réflexion produit par des réflexions d’objets lumineux sur des surfaces brillantes (anciens écrans d’ordinateur, plan de travail, tableau …).

En éblouissement direct, on peut donc distinguer 2 types d’éblouissement :

  • D’une part, « l’éblouissement d’inconfort«  résulte de la vue en permanence de sources lumineuses de luminances relativement élevées. Cet éblouissement peut créer de l’inconfort sans pour autant empêcher la vue de certains objets ou détails.
  • D’autre part, « l’éblouissement invalidant«  est provoqué par la vue d’une luminance très élevée pendant un temps très court. Celui-ci peut, juste après l’éblouissement, empêcher la vision de certains objets sans pour autant créer de l’inconfort.

Le premier type d’éblouissement se rencontrera dans des locaux où l’axe du regard est toujours relativement proche de l’horizontale. C’est le cas dans les classes ou bureaux par exemple. Le deuxième cas se présente dans les salles de sport, par exemple, car l’axe de vision d’un sportif est constamment changeant et que celui-ci regarde vers le haut pour suivre les balles en hauteur.


En éclairage naturel

En éclairage naturel, l’éblouissement peut être provoqué par la vue directe du soleil, par une luminance excessive du ciel vu par les fenêtres, ou par des parois réfléchissant trop fortement le rayonnement solaire et provoquant des contrastes trop élevés par rapport aux surfaces voisines. Il est intéressant de noter qu’une plus grande ouverture à la lumière naturelle cause moins d’éblouissement qu’une petite car elle augmente le niveau d’adaptation des yeux et diminue le contraste de luminance.

Deux métriques sont couramment utilisées pour décrire l’éblouissement à la lumière naturelle : le Daylight Glare Probability (DGP) et le Daylight Glare Index (DGI).


En éclairage artificiel

En éclairage artificiel, l’éblouissement peut être provoqué par la vue directe d’une lampe ou par sa réflexion sur les parois polies des luminaires, sur les surfaces du local ou sur des objets.

L’éblouissement direct provoqué par un luminaire est d’autant plus fort pour une position donnée de l’observateur que :

  • la luminance du luminaire est élevée,
  • le fond sur lequel elle se détache est sombre,
  • l’angle compris entre la direction considérée et la verticale est important ; pratiquement, en dessous de 45° par rapport à la verticale, l’éblouissement devient négligeable,
  • le nombre de luminaires dans le champ visuel est important.

La position des luminaires et la répartition de la lumière qu’ils émettent sont donc fondamentales. D’autant que le degré de tolérance à l’éblouissement venant d’un luminaire (source lumineuse de petite taille) est plus faible que celui venant d’une fenêtre (source lumineuse de grande taille).

Température de couleur [Théories]

Température de couleur


La couleur de la lumière artificielle a une action directe sur la sensation de confort de l’ambiance lumineuse d’un espace. Elle n’influence cependant pas les performances visuelles.
Pour la qualifier, on définit la température de couleur (exprimée en Kelvins (K)). On parlera généralement de teinte chaude (température de couleur < 3 000 K) ou froide (température de couleur > 3 000 K). Plus une couleur est chaude visuellement, plus sa température thermique (en degré Kelvin) est donc faible.

Une lumière de couleur « chaude » est composée majoritairement de radiations rouges et oranges. C’est le cas des lampes à incandescence normales.

Les tubes fluorescents standards génèrent une lumière « froide » composée principalement de radiations vertes, violettes et bleues.

Ci-dessous, on illustre la variation de la sensation de confort de l’ambiance lumineuse d’un local en fonction de la température de couleur des tubes fluorescents choisis et ce pour un même niveau d’éclairement.

  • Éclairement de 300 lux lumière chaude.
  • Éclairement de 300 lux lumière froide.

De plus, les couleurs chaudes (rouge, orange) des objets sont plus agréables lorsqu’elles sont éclairées par une lumière chaude plutôt que par une lumière froide, mais par contre la lumière chaude tend à noircir les couleurs froides (bleu, violet). Ceci se manifeste particulièrement bien dans l’éclairage à incandescence classique.

Les radiations colorées émises par les objets et l’environnement peuvent aussi produire certains effets psycho-physiologiques sur le système nerveux. C’est ainsi que les couleurs de grandes longueurs d’onde (rouge, orange) ont un effet stimulant tandis que celles de courtes longueurs d’onde (bleu, violet) ont un effet calmant. Les couleurs intermédiaires (jaune, vert) ont, de même que le blanc, un effet tonique et favorable à la concentration. Les couleurs foncées et le gris ont par contre une action déprimante.

Enfin les couleurs peuvent contribuer dans une large mesure à modifier la dimension apparente des surfaces et des volumes. Les couleurs chaudes seront de préférence utilisées dans des locaux de dimensions exagérées tandis que les couleurs froides seront choisies pour les locaux de dimensions réduites.

Quelques températures de couleur sont reprises dans le tableau suivant :

 Tableau différentes températures de couleur.

Autonomie en lumière du jour

Autonomie en lumière du jour


Autonomie en lumière du jour

Le DA (Daylight Autonomy) est défini comme étant le pourcentage des heures occupées par an, où le niveau minimum d’éclairement requis peut être assuré par la seule lumière naturelle. Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 50-60 % (pour un horaire de 8h00 à 18h00).

Une autonomie en lumière du jour de 60 % pour un lieu de travail occupé en semaine de 8 h à 18 h. et un éclairement minimum de 500 lux implique que l’occupant est en principe capable de travailler 60 % de l’année uniquement avec de l’éclairage naturel.

En première approximation, ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Deux types d’autonomie en éclairage naturel doivent être distingués : l’autonomie statique et l’autonomie dynamique.
L’autonomie statique est basée sur l’évaluation du facteur de lumière du jour au point considéré et tient donc compte des conditions de ciel couvert. Elle ne considère ni le ciel clair ni intermédiaire, pas plus que les protections solaires.
Au contraire, l’autonomie dynamique en éclairage naturel est basée sur la prédiction de l’éclairement au point considéré, à chaque pas de temps (horaire ou inférieure) pour l’année entière. L’éclairement est donc prédit à partir d’un fichier météo.

Une majeur partie du contenu de cette page provient du rapport « Energy audit et inspection procedures » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet des méthodes d’audit et procédure d’inspection peut être téléchargé ici en français.


Autonomie diffuse en éclairage naturel

Cette métrique traduit le facteur lumière du jour en une estimation du pourcentage de temps durant lequel le niveau d’éclairement requis sera atteint grâce à la lumière naturelle. L’autonomie diffuse en éclairage naturel est basée sur des données météo horaires.

Un des avantages de cette métrique est qu’elle permet d’estimer les consommations annuelles d’éclairage électrique. Par exemple, si l’autonomie diffuse moyenne est de 64 %, le pourcentage de temps durant lequel les lampes seront allumées peut être estimé à 36%, des heures d’occupation.

Le DDA est hautement dépendant de l’orientation du local et de la localisation du bâtiment (la latitude est un facteur majeur). Comme elle est basée sur le niveau d’éclairement requis, l’autonomie diffuse en éclairage naturel est également liée à la fonction du local.

Cette métrique ne prend pas en compte la contribution du soleil. Cependant, comme beaucoup d’études ont montré que l’utilisation d’une protection solaire est assez imprévisible, il semble acceptable de compter sur l’éclairement diffus pour estimer avec un taux de confiance raisonnable, la contribution de l’éclairage naturel à l’éclairement intérieur. De plus, dans beaucoup de cas, quand le soleil frappe la façade, des systèmes d’ombrage appropriés sont déployés de manière à bloquer la pénétration du rayonnement solaire direct sans obscurcir la pièce et donc sans résulter en un allumage des lampes.


Autonomie dynamique en éclairage naturel

L’autonomie dynamique en éclairage naturel est basée sur la prédiction de l’éclairement au point considéré, à chaque pas de temps (horaire ou inférieure) pour l’année entière. L’éclairement est donc prédit à partir d’un fichier météo.

La notion d’autonomie dynamique en éclairage naturel est complétée par des modèles qui prédisent, pour chaque pas de temps, le statut du système de contrôle des protections solaires. Cette notion est appelée autonomie dynamique « effective » en éclairage naturel.

L’utilisation de l’autonomie dynamique est récente. Par conséquent, les valeurs cibles définies par les auteurs doivent être étudiée en profondeur est adaptées de manière à considérer le climat du site.

Par exemple, les critères de Rogers définissent que :

  • les espaces qui atteignent une autonomie dynamique comprise 40% et 60% sur plus de 60% de leur surface obtiennent un crédit de base ;
  • les espaces qui atteignent une autonomie dynamique comprise 60% et 80% sur plus de 60% de leur surface obtiennent un crédit additionnel ;
  • les espaces qui atteignent une autonomie dynamique de plus de 80% sur plus de 60% de leur surface obtiennent deux crédits additionnels.

Une autre cible peut être d’atteindre la moitié de l’autonomie d’un point extérieur non ombré, ayant le même profil d’occupation que le bâtiment étudié, pour la même localisation (Critère de Reinhart & Walkenhorst). Un espace est donc considéré comme éclairé naturellement s’il reçoit suffisamment de lumière naturelle durant au moins la moitié du temps durant laquelle le point extérieur obtient assez de lumière.

L’autonomie dynamique en éclairage naturel est basée sur le climat, elle est donc supposée être une des métriques les plus précises pour évaluer la disponibilité d’éclairage naturel dans un bâtiment. Cependant le calcul de cette valeur à plusieurs limites :

  • Le résultat obtenu pour une année entière est agrégé en une simple valeur, les informations temporelles sur l’évolution de la disponibilité de la lumière naturelle sont perdues. Toutefois, une manière de bénéficier de toute la puissance des métriques dynamiques basées sur le climat est de les représenter par des graphiques de type « carte temporelle » :

    Schéma informations temporelles sur l’évolution de la disponibilité de la lumière.

    Exemple de carte temporelle. ( Source: J. Mardaljevic)

  • La simulation est supposée modéliser le comportement humain de gestion des stores, ce qui implique une grande incertitude des résultats. Les simulations horaires sont cependant conformes à la réalité si le local est équipé de gestion automatique des protections solaires.
  • Les objectifs sont dépendants du climat, de l’occupation et du type de bâtiment et devraient être fixés pour chaque pays. Toutefois, cette métrique est intéressante pour faire des comparaisons entre diverses options de design.

Autonomie dynamique continue

L’autonomie dynamique continue est une métrique dérivée de l’autonomie dynamique. Cette métrique met en évidence la contribution bénéfique de la lumière naturelle, même à bas niveau. Elle modélise en quelque sorte l’autonomie qu’on obtiendrait dans un local équipé d’un système de gradation de l’éclairage électrique.

Comme pour l’autonomie dynamique, il n’existe actuellement pas de valeurs cibles. Ces valeurs devraient en principe dépendre du climat, de l’occupation et du type de bâtiment et devrait probablement être définies par pays.

Cependant, comparer la valeur de l’autonomie continue devrait permettre aux concepteurs de choisir parmi différentes options de configuration.

Autonomie dynamique maximale

L’autonomie maximale en éclairage naturel est définie comme le pourcentage d’heures d’occupations durant lesquelles du soleil direct entre dans le bâtiment ou que des niveaux excessif d’éclairage naturel sont atteints.

Le niveau maximum est fixé en fonction des objectifs établis pour le calcul de l’autonomie dynamique. Il vaut 10 fois cette valeur (c’est-à-dire que si l’objectif d’éclairement pour l’autonomie dynamique est de 300 lux, le niveau maximum acceptable sera de 3 000 lux). Cette manière de fixer la valeur maximum est la faiblesse de cette métrique car elle est intuitive, plutôt que basée sur des résultats expérimentaux.

Cependant, l’usage de l’autonomie maximale de manière à évaluer des situations critiques, quand trop de lumière naturelle pénètre dans le bâtiment, donne une première idée de l’endroit du local où de tels problèmes pourraient apparaître.

Autonomie dynamique spatiale

De manière à évaluer la qualité d’un espace éclairé naturellement, l’Illuminating Engineering Society (IES) a défini l’autonomie spatiale en éclairage naturel sDA. Cette métrique décrit la possibilité qu’un local profite de suffisamment de lumière naturelle, sur base d’une année.

L’autonomie spatiale en éclairage naturel est définie comme le pourcentage de la surface de travail qui atteint un niveau d’éclairement naturel minimum, pour une fraction donnée des heures d’utilisation du bâtiment, pour une année, c.-à-d., qui rencontre une certaine autonomie en éclairage naturel.

Les seuils recommandés sont 300 lux et 50 % des heures d’opération, de 8h00 à 18h00 (heure locale en tenant compte du changement d’heure d’été) et le sDA est donné en pourcents. Ainsi l’autonomie spatiale est calculée comme ceci :

sDA (300 lx, 50 %) =  (surface analysée avec un éclairement ≥ 300lx pour au moins 50% des heures d’utilisation) / (surface totale d’analyse) * 100

Selon IES, les valeurs cibles pour l’autonomie spatiale sont :

  • sDA (300 lx, 50 %) ≥ 55 % : valeur suffisante d’éclairage naturel ;
  • sDA (300 lx, 50 %) ≥ 75 % : valeur préférée d’éclairage naturel.

L’autonomie spatiale en éclairage naturel s’appuie sur des calculs basés sur des données climatiques. Elle tient donc en compte la contribution du ciel et du soleil ainsi que les systèmes d’ombrage dynamiques. Cependant, le sDA ne fournit aucune information sur un éventuel inconfort visuel. Celui-ci pourrait être évalué par le calcul de l’éblouissement annuel.


Useful Daylight Illuminance

L’UDI (Useful Daylight Illuminance) est le pourcentage des heures occupées par an où l’éclairement assuré par la seule lumière naturelle est compris entre 500 lx et 2 500 lx.

Cette valeur intègre le manque en lumière naturelle, mais également le risque de niveau d’éclairement trop élevé qui peut être associé à un inconfort des occupants et des apports solaires trop élevés.

À la place de fixer une valeur cible d’éclairement, l’UDI mesure la fréquence, sur un an, d’une gamme de niveaux d’éclairement atteints.

Quatre catégories sont définies.

  • un « UDI trop faible » caractérise un éclairement naturel insuffisant de moins de 100 lx ;
  • un « UDI supplémentaire » caractérise éclairement naturel entre 100 et 500 lux généralement suffisant mais qui peut être complété par de la lumière électrique ;
  • un « UDI autonome » caractérise un éclairement naturel entre 500 et 2 000  à 2 500 lux permettant d’être autonome vis-à-vis de l’éclairage électrique ;
  • un « UDI excédent » caractérise un éclairement naturel plus élevé que 2 000  à 2 500 lux entrainant un inconfort.

Ces limites peuvent être discutées en fonction de l’activité réalisée dans le local et de l’occupation. Ainsi, une autre considération est de définir les heures de l’année qui doivent être prises en compte.

Ce nombre peut être défini par les heures d’occupation du bâtiment ou par les heures d’éclairement naturel durant l’année.

Il n’existe actuellement pas de cible définie qui permettrait de certifier que si l’UDI est atteint sur une certaine superficie du local, le local est bien éclairé. En effet, les objectifs dépendent fortement du climat, de l’orientation, de l’application (travail sur pc, sur papier, dessin, …).

Cependant, l’UDI reste une métrique utile permettant de mettre en évidence les zones sur-éclairées (pour lesquelles un ombrage serait nécessaire) et sous-éclairées et permettant de comparer différentes configurations d’un bâtiment.


Lien avec l’éclairage artificiel : les courbes CIE

Plus le facteur de lumière du jour et l’autonomie en lumière du jour sont élevés, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Ainsi les courbes CIE donnent une indication de la disponibilité d’éclairement extérieur diffus uniquement selon la latitude ; l’orientation et le rayonnement direct ne sont toutefois pas pris en compte.

La figure suivante présente ces courbes liant latitude et éclairement extérieur  :

Pourcentage d’heures entre 9h00 et 17h00 où le niveau d’éclairement est disponible ou dépassé. (source : CIE – Commission Internationale de l’Éclairage).

Par exemple, pour un bâtiment de bureau situé à Uccle (50,8° Latitude Nord), dont l’éclairement total doit valoir 500 lux. Supposons qu’on mesure un facteur de lumière du jour de 6 % en un point. La valeur d’éclairement extérieur nécessaire pour atteindre 500 lux vaut donc 8 333 lux (= 500/0.06).

Si on trace une ligne horizontale à 8 333 lux, celle-ci rencontre la ligne verticale correspondant à la latitude au point A. Ce point est situé sur une courbe (non dessinée) qui correspond environ à 73 %.

Ce qui veut dire qu’un point du local ayant un facteur de lumière du jour de 6 % disposera de 500 lux pendant 73 % du temps de travail, en moyenne sur l’année.

Notons que cet abaque est relativement pessimiste puisqu’elle ne tient compte que d’un ciel couvert. On peut dire qu’elle convient assez bien pour des ouvertures orientées au Nord. Elle n’est pas très satisfaisante… mais l’analyse détaillée (dynamique) requiert des outils bien plus avancés qui restent pour l’instant au niveau de la recherche !

Lumière : généralités

Lumière : généralités


La lumière naturelle

Onde et particule

Lorsqu’on parle de lumière, on considère qu’elle est à la fois une particule élémentaire (photon) et une onde électromagnétique.

L’onde électromagnétique est caractérisée par :

  • Une amplitude ;
  • Une longueur d’onde (ou fréquence) ;
  • Une vitesse de propagation.

La relation suivant unit la longueur d’onde et la vitesse de propagation :

λ = C / F

où :

  • λ : longueur d’onde en nanomètre ;
  • C : est la vitesse en m.s-1 ;
  • F : fréquence en Hz.

Pour une vitesse de la lumière de 299,792,458 m.s-1 et une longueur d’onde de 380 nm (bleu) la fréquence de propagation est de :

F = 299,792,458 / 450 x 10-9 = 780 THz

À titre comparatif, le tableau suivant donne une idée des longueurs d’onde de différents types de rayonnement :

Longueur d’onde (dans le vide) Domaine Fréquence Commentaire
Plus de 10 m radio inférieure à 30 MHz
de 1 mm à 30 cm micro-onde (Wifi, téléphones portables, radar, etc.) de 1 GHz à 300 GHz incluse dans les ondes radio
de 780 nm à 500 µm infrarouge norme NF/en 1836
de 380 nm à 780 nm lumière visible de 350 THz à 750 THz rouge (620-780 nm)
orange (592-620 nm)
jaune (578-592 nm)
vert (500-578 nm)
bleu (446-500 nm)
violet (380-446 nm)
de 10 nm à 380 nm ultraviolet de 750 THz à 30 PHz
de 10-11 m à 10-8 m rayon X de 30 PHz à 30 EHz
< à 5 x 10-12 m Rayon γ (gamma) supérieure à 30 EHz

Remarque : le spectre de la lumière naturelle est changeant suivant l’état du ciel : en fonction de la présence ou pas de nuage, leur densité, leur forme, … le spectre lumineux évolue.

Spectre lumière naturelle.


Lumière blanche artificielle

En éclairage artificiel, on tente toujours de se rapprocher de la lumière naturelle qui est, par définition, une lumière blanche. C’est indispensable de s’en rapprocher pour une question principalement de confort visuel. On imagine difficilement pour des occupants de bâtiments tertiaires de travailler dans une ambiance de couleur jaune comme c’est le cas, par exemple, chez certains fabricants de téléviseur.

Spectre lampe à incandescence.

Lampe à incandescence : bon exemple de lumière blanche.

La lumière blanche artificielle qui se rapproche le plus de la lumière naturelle est donnée par la lampe à incandescence. Indépendamment des considérations énergétiques (cette lampe est amenée à disparaître à terme), la lampe à incandescence reste, sans conteste, la source de référence par rapport à la qualité visuelle d’une lampe artificielle.


Diagramme de chromaticité

Toutes les couleurs du spectre visible peuvent être représentées dans un diagramme de chromaticité de la Commission Internationale de l’Éclairage (CIE).

Diagramme de chromaticité

Quelques paramètres caractéristiques :

  • La courbe du fer à cheval représente les couleurs pures (teintes) de tout le spectre visible depuis le rouge (λ= 700 nm) jusqu’au violet (λ= 420 nm) ;
  • Le segment de droite qui joint les extrémités du fer à cheval représente les pourpres ;
  • le point de coordonnées (x=1/3 ;y = 1/3) est le blanc ;
  • la température de couleur pour le blanc est de 6 000 K ;
  • Le centre du fer à cheval focalise les différentes couleurs blanches. L’arc de cercle gradué de 10 000 à 1 500 K représente les températures de couleur qui caractérisent les différences sources lumineuses entre elles par rapport à la lumière blanche.

Confort visuel

Confort visuel

Source : Cette rubrique est basée sur la brochure « Le confort visuel et la normalisation (Normes & Règlements) » éditée par le CSTC en 2003.


La lumière

La perception de la lumière est un des sens les plus importants de l’Homme. Grâce à cette perception, nous pouvons appréhender facilement l’espace qui nous entoure et nous mouvoir aisément dedans. L’œil, jouant le rôle d’interface avec l’environnement est sensible non seulement aux caractéristiques de la lumière, mais aussi au niveau de ses variations et de sa répartition. L’œil est indubitablement une merveille de « technologie naturelle » capable de s’adapter aux conditions extrêmes qui règne sur notre planète, mais, naturellement, a ses limites au niveau adaptation et accommodation ; ce qui consiste les limites du confort visuel.


Le confort visuel

À l’instar du confort thermique, le confort visuel est, non seulement une notion, objective faisant appel à des paramètres quantifiables et mesurables, mais aussi à une part de subjectivité liée à un état de bien-être visuel dans un environnement défini.
Le confort visuel dépend à la fois :

Paramètres physiques

La luminance, l’éclairement, l’éblouissement et les contrastes sont les plus perceptibles par l’Homme et les représentatifs du confort visuel. À ces paramètres, on associe des valeurs qui garantissent le bon déroulement d’une tâche sans fatigue ni risque d’accident :

  • L’éclairement (en lux) est une valeur relativement facile à mesurer (luxmètre) ;
  • La luminance (en candela.m² ou cd/m²), plus représentative de la perception réelle de l’œil, mais demande du matériel sophistiqué (luminancemètre);
  • L’éblouissement (en UGR) qui constitue le paramètre le plus gênant dans la réalisation d’une tâche. Il se mesure avec un luminancemètre visant une direction bien spécifique. Il reste à préciser que l’éblouissement peut être direct ou indirect ;

Les contrastes, quant à eux, sont responsables d’un manque de distinction de deux zones ou éléments différents.

Théories

 Ppour connaitre les caractéristiques de base du confort visuel.

Caractéristiques propres à l’environnement

La volumétrie d’un local et les propriétés des parois influencent la qualité de la répartition du flux lumineux.  Elles constituent l’environnement immédiat ou éloigné. Le flux lumineux au niveau d’une tâche résulte de la superposition de la lumière naturelle issue d’une ouverture dans une paroi externe verticale ou/et horizontale et la lumière artificielle.

Au niveau de la composante naturelle, on distingue :

  • La composante directe issue sans réflexion du soleil ou du ciel de manière générale (réflexion du rayonnement solaire sur la couche nuageuse ) ;
  • La composante indirecte réfléchie par des éléments externes comme une surface vitrée d’un immeuble voisin ;
  • La composante indirecte interne issue de la réflexion des deux composantes externes sur les parois internes.

Schéma composante naturelle.

Au niveau de la composante artificielle d’un luminaire, on distingue aussi :

  • La composante directe depuis le luminaire sur le plan de travail ;
  • Et la composante indirecte résultant des réflexions multiples sur les parois internes du local considéré.

Schéma composante artificielle.

Les paramètres influençant le niveau d’éclairement de la tâche est directement liée aux paramètres influençant l’éclairage naturel et artificiel :

  • La contribution des composantes externes dépendra de la taille, de la forme, de l’orientation,  du positionnement de l’ouverture dans la façade, des caractéristiques du vitrage, de la présence ou pas d’une protection solaire et des coefficients de réflexion des parois ;
  • Les propriétés des luminaires, leur localisation et leur orientation

Caractéristiques propres à la tâche à accomplir

Pratiquement chaque tâche nécessite un niveau d’éclairement différent. On distinguera les tâches de précision, les tâches liées à un objet en mouvement, …  À noter que plus les contrastes sont faibles plus le niveau d’éclairement doit être important. Mais jusqu’à un certain point ! En effet, un sur éclairement d’une tâche devient aussi inconfortable.

L’éclairage artificiel devra fournir une lumière de qualité en termes de rendu de couleur (Ra) de manière à se rapprocher le plus possible de la lumière naturelle (Ra a un indice 100 pour la lumière naturelle).

Facteurs physiologiques

Nous ne sommes pas égaux devant le confort visuel. Les couleurs ne sont pas perçues de la même manière d’un individu à l’autre. Aussi, les capacités visuelles sont fonction de l’âge des personnes : dans une maison de retraite, par exemple, une lumière plus blanche (Rendu de couleur élevé) permettra plus facilement d’assurer le confort visuel des personnes âgées.

Facteurs psychologiques

Le besoin de lumière se fait souvent ressentir dans les pays scandinaves par exemple. Consciemment ou inconsciemment, les peuplades du nord compensent souvent le manque de lumière et l’uniformité de l’environnement (neige uniforme partout) par des couleurs vives au niveau des maisons.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Température de couleur [Données]

Température de couleur


À ce niveau, les normes laissent généralement le libre choix de la température de couleur.

Cependant, en pratique et d’une manière générale sont préférées :

  • Les teintes chaudes (3 000 K)  pour l’éclairage des locaux de séjour, endroits de détente,…
  • Les teintes intermédiaires (4 000 K) sont recommandées dans la plupart des travaux techniques.
  • Les teintes froides (5 000 K) pour des éclairements élevés là où les performances visuelles sont importantes.

Des recommandations plus précises sont parfois renseignées ? :

Général

Type de local Température de couleur (K)
Classes entre 2 000 et 5 000 K blanc chaud à
blanc neutre
Salles de réunion entre 2 000 et 3 500 K blanc chaud
Ateliers entre 3 500 et 5 000 K blanc neutre
Ateliers graphiques supérieur à 3 500 K
(et de préférence > à 5 000 K)
lumière du jour froide

Usage médical

Type d’application Température de couleur
Dentisterie 4 000 à 5 600 K
Dermatologie 4 000 à 5 600 K
Chambres 3 000 K
Salles de garde 3 000 K
Consultations 3 000 à 4 000 K
Endoscopie 3 000 à 4 000 K
Ophtalmologie 3 000 à 4 000 K
Radiologie 3 000 à 4 000 K
Salles d’opération 4 000 K
Bloc opératoire 4 000 K
Laboratoire 3 000 à 5 000 K
Couloirs et escaliers 3 000 K
3 000 à 4 000 K

Lampes et luminaires LED

Lampes et luminaires LED


Terminologie

Puce (ou chip) LED

Puce (ou chip) LED

La puce LED est le composant semi-conducteur intégré dans une capsule appropriée permettant une connexion électrique ou un assemblage simplifié. Les puces LED peuvent être combinées entre elles sur un circuit imprimé.

Lampe LED

Lampe LED.

La lampe LED est un système complet conçu de manière à permettre le remplacement aisé des technologies traditionnelles moins efficaces (retrofit). Ces lampes reprennent pour cela les formes et les culots normalisés des lampes traditionnelles.

Module LED

Module LED.

Le module LED est constitué d’une ou plusieurs puces LED montées avec d’éventuels composants optiques, électriques ou thermiques (généralement externes).

Luminaire LED

Luminaire LED.
Luminaire encastré.

Luminaire LED.
Luminaire plafonnier.

Le luminaire LED est un système complet composé de puces LED, de lampe(s) à LEDs ou encore de module(s) LED, comprenant l’électronique, l’enveloppe, le câblage, etc. Il peut éventuellement être conçu pour recevoir des modules remplaçables.


Conception d’une lampe ou d’un luminaire LED

La plupart des constructeurs de lampes ou de luminaires sérieux ne font que concevoir les lampes ou les luminaires en se fournissant en unités LED chez les électroniciens. Afin d’assurer une homogénéité dans l’application, le choix des LEDs utilisés se fait suite à une sélection (appelée binning) en fonction de critères spécifiques de couleur, flux lumineux et tension.

Pour répondre aux attentes des marchés, les objectifs des constructeurs sont principalement :

  • de fournir un éventail de lampes et de luminaires avec un large panel de photométries différentes ;
  • d’obtenir une esthétique attrayante ;
  • d’optimiser les performances énergétiques (lm/W) ;
  • d’allonger la durée de vie (heures de fonctionnement);
  •   …

Des études sur la thermique sont impératives de manière à bien « drainer » la chaleur en dehors de la lampe ou du luminaire. Ces études influencent bien entendu la conception de la lampe ou du luminaire.


 Caractéristiques générales

Durée de vie des lampes et luminaires LED

Même si aujourd’hui une source LED (chip) seule peut atteindre une durée de vie de 50 000 h, cet objectif n’est pas encore atteint pour les applications intérieures (lampes et luminaires). Selon une étude du U.S. Department of Energy (Energy Savings Potential of Solid State Lighting in General Illumination Applications. 2012), on peut raisonnablement prévoir  l’évolution suivante dans le futur :

Évolution prévue de la durée de vie des applications LED.

Efficacité lumineuse des lampes et luminaires LED

L’efficacité lumineuse des lampes et luminaires à LEDs est bien différente de l’efficacité lumineuse annoncée pour les puces LED.
En effet, cette dernière est évaluée en test éclair et pour une température de jonction de 25°C (soit une température très basse par rapport à la température à laquelle la jonction est soumise en conditions d’utilisation réelle).

En réalité, l’efficacité lumineuse d’un luminaire LED est d’environ 20 % à 30 % plus faible que la valeur annoncée pour la chip LED.
Voici deux exemples :

Grâce à ces exemples, on se rend compte que l’efficacité lumineuse réelle des lampes et luminaires à LEDs est pour le moment équivalente à celle des lampes fluorescente :

Selon l’étude du U.S. Department of Energy, l’évolution des LEDs devrait permettre d’atteindre 200 lm/W vers 2020-2025.  De quoi alors surpasser tous les autres types de sources lumineuses !

Évolution prévue de l’efficacité lumineuse des applications LED.

Rendu des couleurs et température de couleurs

Avec les lampes et luminaires à LEDs, on peut obtenir un indice de rendu de couleur entre 60 et 98. De plus, il est possible, avec certains types de LED, de moduler la température de couleur de manière continue.


Aspect thermique

Malgré que le rayonnement lumineux de la LED ne génère pas d’infrarouge (et donc pas de chaleur dans le sens du flux lumineux), la dissipation de la chaleur de la jonction est un des problèmes majeurs des lampes et des luminaires à LEDs. En effet, entre  50 % et 70 % de la consommation d’une LED est transformée directement en chaleur qui doit être absolument évacuée sous peine de réduire l’efficacité lumineuse et la durée de vie.

Comparatif thermique entre une LED et une lampe à incandescence.

Des études de dissipation thermique, pour chaque modèle sont donc nécessaires pour pouvoir concevoir une lampe ou un luminaire à LEDs avec  son dissipateur de chaleur intégré.

Cas des lampes

La complexité de l’évacuation de la chaleur générée par les unités LED composant la lampe s’accentue vu la nécessité d’éviter le « drainage » de la chaleur vers l’arrière de la lampe. En effet, le risque est d’accumuler la chaleur de jonction au niveau de l’alimentation intégrée dans le culot. On dit que la lampe LED « claque » non pas par une surchauffe des unités LED mais plutôt de l’alimentation. D’où la nécessité d’évacuer la chaleur par l’avant de la lampe.

Exemple d’étude thermique d’une lampe LED.

Cas des luminaires

Dans le cas des luminaires, le problème de la surchauffe de l’alimentation peut être éliminé vu la possibilité de la déporter hors du luminaire. Il reste aux constructeurs à bien concevoir le dissipateur en fonction d’un luminaire prévu pour être monté en saillie ou encastré.

Étude thermique (source ETAP).


Aspect optique

De par sa taille réduite, l’association de puces LED, de lentille, de diffuseurs et de réflecteurs permet d’obtenir à peu près toutes les distributions lumineuses possibles.

Cependant, à cause de cette petite taille combinée à une puissance lumineuse en constante augmentation, la luminance de la source devient très importante et peut atteindre des valeurs de 10 à 100 millions de Cd/m². Les fabricants prévoient donc des systèmes optiques comme les lentilles, les réflecteurs ou/et des diffuseurs pour éviter l’exposition directe du regard et le risque d’éblouissement.

Type de lampe Luminance (Cd/m²)
Fluo linéaire – T8 14 000
Fluo linéaire – T5 15 000 – 33 000
Fluo compact 50 000
LED nue 100 000 000
Soleil 1 000 000 00
Suivant l’application, on peut obtenir les résultats suivants :

Des lentilles seules, par exemple, permettent de réduire la luminance de crête :

Des réflecteurs combinés avec un diffuseur permettent d’obtenir une lumière douce :

Sources LED

Sources LED

N.B. : cette page reprend uniquement la description du fonctionnement et des caractéristiques de la puce LED. Pour en savoir plus sur son application sous forme de lampe ou de luminaire.


Comment fonctionne une LED ?

Schéma description LED.

Une LED (Light Emitting Diode) est une diode électroluminescente qui émet de la lumière lorsqu’elle est parcourue par un courant continu dans le sens passant.

Schéma description LED - 02. Schéma description LED - 03.

Comme le montre la figure suivante, la quantité de lumière générée par la LED est  proportionnelle à l’intensité du courant qui la traverse.

Couleur des LEDs

Schéma couleur des LEDs.

La LED émet une lumière quasi monochromatique. Sa couleur dépend des caractéristiques des matériaux utilisés durant la production (composition des semi-conducteurs et de leur dopage, température de jonction, …). Il est ainsi possible de balayer toutes les couleurs du spectre visible.

En éclairage artificiel d’intérieur, on cherche cependant essentiellement à se rapprocher de la couleur de la lumière naturelle, à savoir la lumière blanche. Pour obtenir une lumière blanche, il est nécessaire de combiner plusieurs sources lumineuses de composantes. Ainsi, la couleur blanche peut être produite soit par mélange additif de LED rouges, vertes et bleues, soit par conversion d’un LED bleu au moyen de poudre phosphorescente, selon le même principe utilisé dans les tubes fluorescents. Ce dernier principe est généralement utilisé en éclairage intérieur.

Les LEDs pour l’éclairage

Avant de devenir incontournables dans le domaine de l’éclairage, les LEDs doivent encore relever plusieurs défis non négligeables en termes :


Caractéristiques générales

Il importe de bien distinguer la performance (et son potentiel d’évolution) d’une puce LED par rapport à celle d’une lampe LED et à celle d’un luminaire LED.

Si les performances (efficacité lumineuse, durée de vie, etc.) des puces LED sont intéressantes pour évaluer le potentiel intrinsèque de la technologie, elles sont inutiles pour comparer la technologie de l’éclairage LED par rapport aux autres technologies disponibles (notamment les lampes fluorescentes).

Sous différents aspects, la LED est très prometteuse sachant que ses performances énergétiques, sa durée de vie, … s’améliorent de jour en jour.

Techniques

Pour en savoir plus sur les applications LED (lampes et luminaires) et leurs performances.

Durée de vie d’un « chip » LED

La durée de vie des puces LED avoisine théoriquement les 50 000 heures, durée pendant laquelle le flux lumineux reste au-dessus de 70 % du flux initial.

Schéma durée de vie d'un "chip" LED.

Cependant, cette durée dépend de plusieurs paramètres comme le courant qui la traverse et, donc indirectement de la température. Les 50 000 heures sont atteignables pour autant que la température de jonction ne dépasse pas 80-85 °C.

L’absence de « pièce fragile » comme le filament de nombreuses lampes, permet d’augurer une durée de vie plus importante. Par contre, comme tout composant électronique, la chip LED est sensible aux influences électromagnétiques. Pour ne pas raccourcir sa durée de vie, il est important que les constructeurs prévoient une bonne connexion à la terre.

Ces valeurs élevées doivent être vues comme une démonstration du potentiel élevé de la technologie LED.

Efficacité lumineuse des chip LED

L’efficacité lumineuse (lm/W) représente un des critères essentiels d’une source lumineuse. Certains fabricants annoncent une efficacité lumineuse de l’ordre de 100 lm/W sous forme commerciale et de 200 lm/W en laboratoire. Le maximum théorique serait de 230 lm/W (pour une température de jonction de 25°C).
De même que pour la durée de vie, ces valeurs élevées doivent être vues comme une démonstration du potentiel élevé de la technologie LED.

La température de jonction influence aussi le flux lumineux de la puce LED et donc son efficacité lumineuse. C’est principalement pour cette raison que les LEDs conviennent particulièrement bien pour les applications à basse température (surgélation, réfrigération, …) sachant que le flux lumineux augmente avec l’abaissement de la température de jonction. De plus, pour les basses températures, la durée de vie augmente.

Flux lumineux de démarrage

Contrairement à la plupart des lampes fluorescentes qui mettent un certain temps à atteindre leur flux lumineux optimal, les LEDs l’atteignent  quasi instantanément. De plus, elles peuvent être commutées ON/OFF à chaud sans altération de leur durée de vie. Ce n’est pas le cas pour les lampes à décharge par exemple.

La gradation du flux lumineux

La gradation du flux lumineux des LEDs s’opère sur une large plage (presque 0 % à 100 %). Les pertes par gradation sont sensiblement les mêmes que pour les lampes fluorescentes équipées d’un ballast électronique performant.

Schéma gradation du flux lumineux.

À 0 % de flux lumineux, la consommation résiduelle est de l’ordre de 10-15 % de la puissance nominale.

Rayonnement IR et UV

Les LEDs ne génèrent pas ou peu de rayonnement infrarouge (IR) ou ultraviolet (UV) dans le flux lumineux. Il est clair qu’elles génèrent de la chaleur, mais en grande partie de manière convective et non radiative. Autrement dit, la chaleur n’est pas émise dans le sens du flux lumineux. De par ces propriétés, les lampes LED sont intéressantes dans le cas d’application comme pour l’éclairage des œuvres d’art, des denrées alimentaires, des vêtements, …

Par contre l’élimination de la chaleur reste un problème majeur pour toutes les applications LED. Pour en savoir plus, cliquez ici !


Métier de la LED

Dans le monde de la conception LED apparaissent deux métiers : les concepteurs de puces LED et les  concepteurs de luminaires ou lampes LEDs. Les premiers sont plutôt issus de l’industrie électronique, les seconds de la conception en éclairage (lampe ou luminaire). Dans ce domaine, à l’heure actuelle, il convient de prendre un certain recul par rapport à la tendance qu’ont les électroniciens à s’improviser professionnel de l’éclairage.

Techniques

pour en savoir plus sur les lampes et luminaires à LEDs.

Données

Pour connaitre les valeurs caractéristiques des lampes LED.

Données

Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Ecole passive de Louvain-La-Neuve, proposition d’équipements

Ecole passive de Louvain-La-Neuve, proposition d'équipements

Après avoir tiré les premiers enseignements du monitoring, tentons ci-dessous de faire des propositions pour équiper un nouveau projet éventuel.


Une volonté de simplifier les installations techniques et leur régulation

Les possibilités des techniques de régulation numériques actuelles sont fabuleuses. Elles peuvent entraîner le bureau d’études à sophistiquer la régulation (par ex : une gestion de l’éclairage et des stores liée à la luminosité extérieure et combinée à une lecture de la température intérieure des locaux). Les fabricants de matériel font leur travail de marketing pour vendre ces solutions en présentant un rendu final idéal (écran de visualisation des installations), mais en pratique l’école ne disposera pas du budget pour financer la réalisation de ces écrans et devra se contenter d’un accès à une liste de paramètres, incompréhensible à un non-technicien… de la marque !

Très généralement, aucun mode d’emploi simple de l’installation et de sa régulation accessible à un non-technicien n’est réalisé.

Enfin, cette sophistication va à l’encontre de l’évolution de la demande réelle du bâtiment très isolé. Par exemple, à l’école passive de Louvain-La-Neuve, 3 niveaux de température de consigne ont été imaginé :

  • Consigne de nuit et de weekend (14°C),
  • Consigne de jour d’un local occupé (20°C),
  • Consigne de jour d’un local non-occupé (18°C).

Un détecteur de présence, mis en place dans chaque classe, va permettre d’optimiser la consigne.

Cette idée d’affiner la température en fonction de la présence effective des élèves paraît intéressante, mais dans la pratique, la forte inertie et la forte isolation font que la température baisse au plus de 1 degré par 24 heures… Le gain de consommation liée à cette triple consigne est donc très faible.

Cherchons au contraire… une installation technique « passive » !


Chaudière à condensation, radiateurs … mais plus de vanne à 3 voies !

  • Le chauffage est individualisé, local par local.
  • Les émetteurs sont des radiateurs à eau chaude, technologie maîtrisée par tous.
  • Ils sont commandés par une régulation terminale :
    • vannes thermostatiques ordinaires (classes, locaux administratifs, bibliothèque,…) pour un réglage de température individualisé,
    • vannes thermostatiques « institutionnelles », c-à-d dont le réglage de température est réalisé par le technicien et non par l’occupant  (couloirs, ou locaux des écoles secondaires techniques et professionnelles…) pour mieux gérer le côté impersonnel des locaux partagés,
    • vanne motorisée pour commander plusieurs radiateurs alimentés par une même tuyauterie et dont les besoins thermiques sont similaires, si on craint les dégradations par les occupants. Cette vanne est insérée dans la tuyauterie en question et est commandée par un thermostat d’ambiance avec horloge hebdomadaire.
  • La chaudière est à condensation. Elle peut fonctionner à débit nul. Idéalement, elle est alimentée au gaz, à brûleur modulant. Une seule chaudière est suffisante, son rendement sera excellent puisque réalisé sur base d’une petite flamme sous un grand échangeur. Les pannes sont aujourd’hui trop rares que pour justifier le coût du dédoublement de la chaudière.
  • Le régulateur de chaudière permet :
    • une régulation climatique de la température d’eau sur base de la température extérieure.
    • l’arrêt complet de la chaudière la nuit, le week-end, durant les vacances scolaires, et lorsque la température extérieure dépasse une certaine valeur (par exemple 15 °C).
    • un régime de ralenti pour les périodes de nettoyage en dehors des heures scolaires, basé sur un abaissement de la courbe de chauffe.
    • une sécurité hors-gel : la chaudière est enclenchée si la température extérieure est inférieure à – 2 °C.
  • La production d’eau chaude sanitaire est indépendante et décentralisée, de préférence à production instantanée pour limiter tout stockage d’eau chaude. La température est limitée à 45 °C.
  • La distribution hydraulique est découpée en zones d’usages différents dans le temps : salle de sports, classes, locaux administratifs, réfectoire, … Chaque zone possède son circuit propre.
  • Chaque circuit est équipé d’un circulateur à vitesse variable et programmable. Des clapets anti-retour sur chaque départ secondaire empêchent une circulation parasite inverse lors de l’arrêt d’un circulateur ;
  • Il n’y a pas de vannes mélangeuses au départ des circuits. La température de départ est uniquement réalisée à la chaudière sur base de la température extérieure. Un circuit Sud reçoit donc la même eau qu’un circuit Nord, mais les vannes thermostatiques suppriment le débit si le local est chauffé par le soleil ou l’occupant.
  • Chaque circulateur de zone est géré par un programmateur avec les fonctions suivantes :
    • une horloge annuelle qui tient compte de l’heure d’hiver/d’été, des années bissextiles, etc. ; Ceci permettra d’introduire d’avance les jours de congé par l’utilisateur et/ou l’exploitant ; Les périodes d’occupation avec les inversions devront être librement programmables pour les différents jours de la semaine et les jours de congé ;
    • une dérogation manuelle temporisée (pour éviter les simples commutateurs qui restent systématiquement en position manuelle) ;
    • le dégommage automatique du circulateur en période d’arrêt.
    • une sécurité hors-gel pour la zone qu’il commande : le circulateur s’enclenche si la température descend sous les …8 °C… dans le local témoin.
      Le local témoin est le local jugé le plus froid de la zone, sans influence de la présence d’élèves (local de direction au Nord, bibliothèque, … ).

  • À noter qu’une fonction d’optimisation (permettant un démarrage et un arrêt optimal basé sur l’information d’une sonde d’ambiance intérieure) ne sera pas installé; dans un bâtiment passif, l’économie générée est très faible par rapport à l’augmentation de la complexité de l’installation. D’autant que dans une école, un local témoin fidèle des besoins n’existe pas…
  • En reprenant l’installation type donnée dans le schéma en tête de ce chapitre sur le chauffage, la logique de la régulation hors gel et dérogation 2 heures est développée dans le schéma ci-dessous :

KM1  et KM2 sont des relais pilotant les circulateurs des zones Nord et Sud de l’installation ci-dessous. Sans modifier la régulation existante, toute l’installation peut être interrompue par coupure des circulateurs et de la chaudière.

La sécurité hors-gel est double : sur la température des locaux et la température extérieure.

Et la programmation d’un décalage d’1/4 d’heure entre les démarrages des 2 circulateurs réduira le risque de condensation en chaudière puisque toute l’eau froide n’arrivera pas en même temps !


Une ventilation double flux avec récupération de chaleur

Schéma ventilation double flux avec récupération de chaleur.

  • Une ventilation double flux assure la pulsion et l’extraction d’air.
  • Un récupérateur de chaleur permet de récupérer plus de 80 % de la chaleur de l’air extrait pour préchauffer l’air pulsé.
  • Un puits canadien ne sera pas nécessairement installé. Son intérêt énergétique supplémentaire est faible lorsqu’il est mis en série avec un récupérateur de chaleur. Sa grande qualité est de pré-refroidir l’air pulsé en période de canicule. Mais si le refroidissement de nuit fonctionne bien, on peut se passer de cet équipement. Il apporte de plus un risque hygiénique pour le futur difficilement évaluable…
  • Si l’usage des locaux est jugé très variable (laboratoire de sciences, par exemple), il peut être décidé de mettre un clapet sur l’arrivée d’air, commandé par un détecteur de présence. Mais le surcoût et la maintenance justifient-t-ils cet investissement supplémentaire ? Pas sûr…

Un refroidissement direct des classes la nuit, par ouverture de la façade

  • Le refroidissement est assuré par l’ouverture de vasistas dans les classes durant la nuit. L’avantage est que l’air frais arrive directement dans les locaux, sans être préchauffé par le puits canadien éventuel, par le ventilateur, par les gaines de distribution dans les couloirs, …

 Schéma refroidissement direct des classes la nuit, par ouverture de la façade.

  • Différents scénarios peuvent être imaginés :
    • Ouverture manuelle lorsque l’enseignant quitte la classe
    • Ouverture motorisée des vasistas en fonction d’une sonde de T° intérieure et de T° extérieure
    • Ceci avec ou sans ouverture des portes du couloir (ventilation transversale)
    • Extraction motorisée pour renforcer les débits qui doivent largement dépasser les 4 renouvellements horaires nocturnes.
  • Si l’on souhaite minimiser encore la consommation électrique, on peut imaginer une extraction naturelle par un point haut de l’école (tirage naturel par effet de cheminée). Mais c’est alors une forte contrainte architecturale…

Une production d’eau chaude sanitaire, décentralisée et instantanée

  • Les besoins d’eau chaude sanitaire dans une école sont faibles et très intermittents (salle de sport). Ils seront décentralisés et produits, de préférence, par un ou plusieurs préparateurs instantanés à une température de 45 °C.
  • Les préparateurs d’eau chaude électriques installés sous éviers ou dans les couloirs seront programmés et réglés sur 40 °C.

Serions-nous arrivés ainsi à une installation simple, sans régulateur complexe ? À des équipements passifs pour une école passive ? La vérité sort de la rencontre des idées… nous serions heureux de connaître la vôtre !

Isoler un plancher inférieur sur sol par le bas

Isoler un plancher inférieur sur sol par le bas


Choix du système

> Le choix du système d’isolation par l’extérieur se fait en fonction des critères suivants :

  • les performances énergétiques ;
  • le prix.

Les différentes possibilités d’isolation à l’intérieur de la structure

Le freine-vapeur devra être mis en œuvre si nécessaire (à évaluer en fonction de la composition du plancher : nature et épaisseur des couches). Il est cependant toujours conseillé pour garantir l’étanchéité à l’air du plancher.

img.

Un freine vapeur est toujours conseillé pour assurer l’étanchéité à l’air.

Les performances énergétiques

Il faut profiter de tout l’espace disponible pour y introduire l’épaisseur maximale possible d’isolant. Le coût de la main-d’œuvre est identique. Seule la quantité d’isolant augmente.

La structure en bois ne pouvant être supprimée, la transmission thermique est plus importante à l’endroit de celle-ci. Il en est tenu compte dans l’évaluation du coefficient de transmission thermique (équivalent) du plancher. Malgré cela, à cause de l’épaisseur importante généralement disponible pour l’isolant, des performances élevées peuvent être atteintes.

Le prix

« Le nerf de la guerre…! »

La fourniture et la pose de l’isolant lui-même sont peu couteuses par rapport aux autres parties du plancher.

Isoler entre les éléments de structure d’un plancher inférieur [Concevoir]

Isoler entre les éléments de structure d’un plancher inférieur [Concevoir]


Choix du système

> Le choix du système d’isolation par l’extérieur se fait en fonction des critères suivants :

  • les performances énergétiques ;
  • le prix.

Les différentes possibilités d’isolation à l’intérieur de la structure

Le freine-vapeur devra être mis en œuvre si nécessaire (à évaluer en fonction de la composition du plancher : nature et épaisseur des couches). Il est cependant toujours conseillé pour garantir l’étanchéité à l’air du plancher.

Un freine vapeur est toujours conseillé pour assurer l’étanchéité à l’air.

Les performances énergétiques

Il faut profiter de tout l’espace disponible pour y introduire l’épaisseur maximale possible d’isolant. Le coût de la main-d’œuvre est identique. Seule la quantité d’isolant augmente.

La structure en bois ne pouvant être supprimée, la transmission thermique est plus importante à l’endroit de celle-ci. Il en est tenu compte dans l’évaluation du coefficient de transmission thermique (équivalent) du plancher. Malgré cela, à cause de l’épaisseur importante généralement disponible pour l’isolant, des performances élevées peuvent être atteintes.

Le prix

« Le nerf de la guerre…! »
La fourniture et la pose de l’isolant lui-même sont peu coûteuses par rapport aux autres parties du plancher.


Choix de l’isolant

Type d’isolant

L’isolant est placé dans les espaces laissés libres par la structure. Ces espaces sont généralement de dimensions et formes irrégulières. L’isolant doit donc être suffisamment souple pour épouser ces irrégularités. On utilisera donc des matelas isolants en laine minérale ou en matériaux naturels ou, si c’est possible (cavités bien fermées dans le bas), les mêmes matériaux déposés en vrac ou insufflés.

La migration de vapeur à travers le plancher devra être régulées par la pose, du côté intérieur d’un freine-vapeur étanche à l’air adapté à la finition extérieure et au type d’isolant posé (hygroscopique ou non).

Épaisseur de l’isolant

Les épaisseurs d’isolant sont déterminées en fonction de l’espace disponible. Idéalement, celui-ci doit être totalement rempli.

Conseils de mise en œuvre

> On évitera toute cavité dans l’isolant afin de ne pas créer de zones froides, des courants internes de convection ou d’aggraver les fuites d’air en cas de défectuosité du freine-vapeur. Les panneaux isolants doivent donc être posés de manière parfaitement jointive et appliqués contre les éléments de structure et les faces.

Isoler un plancher inférieur par le haut [Concevoir]

Isoler un plancher inférieur par le haut [Concevoir]


Choix du système

> Le choix du système d’isolation par l’intérieur se fait en fonction des critères suivant :

  • les performances à atteindre
  • l’esthétique recherchée
  • les performances énergétiques
  • le prix

Les performances à atteindre

L’étanchéité à l’air du plancher doit être assurée. Cela ne pose pas de gros problème lorsque le support est en béton coulé sur place. Il suffit dans ce cas de traiter les raccords de la dalle du plancher avec les murs périphériques. Par contre, lorsqu’il s’agit d’un plancher léger à ossature et éléments assemblés une couche spéciale d’étanchéité à l’air doit être prévue. Elle fait en même temps office de pare-vapeur et doit être posée entre l’isolant et la plaque circulable.

L’esthétique recherchée

Toutes sortes de finitions de sol sont possibles. Elles peuvent être lourdes (chape + finition) ou légères (panneau fin ou planches + finition éventuelle).

La raideur de l’isolant devra être adaptée au type de finition. Des joints de mouvement devront être prévus dans la finition pour éviter la rupture de celle-ci.

Si l’isolant est trop souple et ne résiste pas à l’écrasement, des lambourdes seront placées pour porter la plaque circulable.

Les performances énergétiques

Lorsque le plancher est posé sur sol, l’isolation peut éventuellement se limiter à la zone périphérique, le long des façades. (La résistance mécanique de la chape flottante devra être vérifiée en rive d’isolant).

Parfois l’espace disponible pour poser l’isolant est limité. Dans ce cas, l’isolant devra être le plus performant possible pour atteindre les valeurs souhaitées (λ le plus petit possible). Des isolants moins performants seront choisis lorsque la place disponible est suffisante et que d’autres de leurs caractéristiques sont intéressantes (étanchéité à l’eau, étanchéité à la vapeur, résistance à la compression, prix, caractère écologique, …).

Le prix

« Le nerf de la guerre…! »

Le coût de la finition dépendra des choix esthétiques et des performances attendues (résistance mécanique, résistance à l’eau, aspect, facilité d’entretien, …).


Choix de l’isolant

Type d’isolant

Les isolants mis en œuvre devront être adaptés aux contraintes spécifiques au projet (résistance à la compression, résistance à l’eau, …).

Lorsque le support est irrégulier, la pose d’un isolant en matelas souples ou projeté sur place est préférable pour épouser les défauts. Si l’isolant est rigide, il est nécessaire de régler le support avant de poser l’isolant.

Épaisseur de l’isolant

Les épaisseurs d’isolant sont calculées à partir des performances à atteindre.

Conseils de mise en œuvre

> Les panneaux isolants doivent être posés de manière parfaitement jointive et appliqués contre le plancher afin d’éviter les interruptions dans la couche isolante (= pont thermique).

> Il faut protéger et manipuler les panneaux isolants avec précautions pour éviter les écrasements, les déchirures, l’eau, la boue.


Détails d’exécution

L’isolation par le haut d’un plancher existant sera interrompue à chaque mur. À cet endroit il y a un risque de pont thermique. L’interposition d’un élément isolant entre le mur et la dalle est possible si le bâtiment n’est pas trop lourd.

Isoler un plancher inférieur par le bas [Concevoir]

Isoler un plancher inférieur par le bas [Concevoir]


Choix du système

> Le choix du système d’isolation par l’extérieur se fait en fonction des critères suivants :

  • les performances à atteindre ;
  • l’esthétique recherchée ;
  • les performances énergétiques ;
  • le prix.

Les performances à atteindre

Généralement la face extérieure des planchers est protégée de la pluie. On sera cependant attentif lorsque la plancher situé au-dessus de l’ambiance extérieure est raccordé au bas d’une façade. À cet endroit, un système doit être mis en œuvre pour éviter que les eaux de ruissellement atteignent le plafond (casse-goutte).

Schéma performances à atteindre.

L’esthétique recherchée

Lorsque la face inférieure du plancher n’est pas visible, il est inutile de revêtir l’isolant d’une finition.

Lorsque le plancher se trouve au-dessus de l’ambiance extérieure, il sera recouvert d’une finition en harmonie avec l’aspect extérieur du bâtiment et qui résiste aux agressions extérieures mécaniques et atmosphériques.

Lorsque le plancher est en même temps le plafond d’un espace adjacent non chauffé ou d’une cave, l’isolant pourra, soit rester apparent si les panneaux sont suffisamment rigides, soit être revêtu d’une finition pour environnement intérieur (planchettes, panneau, plaques de plâtre, enduit, …).

Les performances énergétiques

L’enduit isolant est difficile à mettre en œuvre au plafond et nécessite des épaisseurs excessives pour atteindre le coefficient de transmission thermique U réglementaire.

Les systèmes avec panneaux rigides peuvent être continus s’ils ne sont pas recouverts d’une finition.

Un système avec structure (finition inférieure supportée par une structure) présente une isolation discontinue et donc moins efficace pour une même épaisseur d’isolant.

Une structure métallique est déconseillée, car elle engendre des ponts thermiques.

Le prix

« Le nerf de la guerre…! »

Si l’isolant reste apparent, le coût des travaux dépendra principalement de la difficulté d’accès à la face inférieure du plancher (vide sanitaire de hauteur réduite).

Lorsque l’isolant est revêtu par une finition extérieure, le choix de cette finition (structure portante comprise) influencera fortement le coût des travaux.

Si on souhaite rendre les nœuds constructifs (appuis) conformes aux critères de la réglementation PEB en prolongeant de chemin de moindre résistance thermique, le coût des travaux annexe peut être considérable surtout si les appuis sont nombreux.


Choix de l’isolant

Type d’isolant

L’isolant est placé directement contre le plancher. Si l’isolant est souple, il épouse parfaitement la forme de son support même si celui-ci est un peu irrégulier. Si l’isolant est rigide, il est nécessaire de régler le support avant de poser l’isolant.

Un isolant perméable à l’air (laine minérale, par exemple) ne peut être choisi que si le support auquel il est fixé est lui-même étanche à l’air (plancher en béton, …).

Les produits minces réfléchissants (PMR), dont l’efficacité est beaucoup moins élevée que celle annoncée par les fabricants, sont à proscrire dans une isolation par l’extérieur puisqu’ils constituent un film pare-vapeur placé « du côté froid » du plancher, susceptible de provoquer une forte condensation sur la face interne (entre le plancher et l’isolant).

Épaisseur de l’isolant

Les épaisseurs  d’isolant sont calculées à partir des performances à atteindre..

Conseils de mise en œuvre

>Les panneaux isolants doivent être posés de manière parfaitement jointive et appliqués contre le plancher afin d’éviter les interruptions dans la couche isolante (= pont thermique) et les courants de convection.

Courants de convection.

Remarque : le risque de courants de convection est encore plus important lorsqu’il y a une lame d’air ventilée entre l’isolant et le parement extérieur.

> Il faut protéger et manipuler les panneaux isolants avec précautions pour éviter les écrasements, les déchirures, l’eau, la boue.


Choix de la finition

Cette finition ne sera généralement appliquée que lorsque la face inférieure du plancher est visible (environnement extérieur, cave ou espace adjacent non chauffé. Elle présentera les caractéristiques suivantes :

  • perméable à la vapeur d’eau pour éviter la condensation interstitielle ;
  • bonne résistance mécanique surtout en cas d’agression possible ;
  • aspect esthétique adapté ;

Détails d’exécution

L’isolation d’un plancher par le bas sera interrompue à chaque appui du plancher. À cet endroit il y a un risque de pont thermique. L’interposition d’un élément isolant entre le mur d’appui et la dalle est possible si le bâtiment n’est pas trop lourd.

Blocs isolants sous la dalle au dessus des murs de fondation.

Si cela n’est pas le cas, il est toutefois possible de prolonger à certains endroits le chemin que doit parcourir la chaleur pour sortir du volume protégé. Cette intervention reste généralement visible, mais est esthétiquement acceptable dans les caves, garages, locaux secondaires et vides sanitaires.

Allongement du chemin de moindre résistance thermique

Schéma allongement du chemin de moindre résistance thermique.

Concevoir le mur à ossature bois

Concevoir le mur à ossature bois


Choix de la finition extérieure

Les prescriptions d’urbanisme imposent l’intégration des nouveaux bâtiments aux immeubles existants. Souvent l’usage d’un parement en brique apparente est exigé. Dans ce cas le parement est placé devant le mur à ossature comme il le serait devant un mur porteur du mur creux. Un vide légèrement ventilé est ménagé entre le parement et la paroi légère.

Parement en briques devant le mur à ossature bois.

Le parement n’exprime pas le caractère léger du bâtiment, ce qui pourrait être considéré comme regrettable. De plus, la masse du parement qui serait utile pour limiter la surchauffe de l’espace intérieur est inaccessible à partir de celui-ci. Le parement fait uniquement office de protection contre la pluie.
Il peut être remplacé par un bardage en bois, en ardoises, en métal, … Le creux est fortement ventilé. La coulisse peut être partiellement remplie par un isolant supplémentaire qui renforce ainsi l’isolation de la paroi.

Bardage en bois devant un mur à ossature bois.

Un enduit extérieur décoratif étanche à l’eau et perméable à la vapeur d’eau peut également être appliqué directement sur cet isolant supplémentaire (à la place du bardage ou du parement). L’isolant et l’enduit doivent faire partie d’un même système d’isolation thermique extérieure développé, testé et homologué par un même fabricant.

Finition extérieure en cimentage

  1. Cimentage.
  2. Armature du cimentage.
  3. Isolant.
  4. Panneau extérieur de la structure bois.
  5. Isolant thermique dans la structure bois.
  6. Freine-vapeur + étanchéité à l’air.
  7. Vide technique avec ou sans isolant.
  8. Structure en bois.

Choix de la structure

La structure est généralement réalisée à l’aide de montants et de traverses en bois massif de section rectangulaire. L’essence choisie sera suffisamment durable pour cet emploi ou traité préventivement pour éviter toute attaque de champignons ou d’insectes.

Les sections auront au moins 14 cm de hauteur. Cette hauteur peut être plus importante de manière à ménager ainsi un espace plus épais pour placer l’isolant thermique et augmenter ainsi les performances. La stabilité de la paroi est aussi améliorée.

Afin de minimiser les transmissions thermiques, des poutres en I peuvent être utilisées pour les montants. Elle permet de diminuer les ponts thermiques induits par les montants et par conséquent d’augmenter la résistance thermique de la cloison.

Poutres « I » préfabriquées en bois.


Quel freine-vapeur ?

Du côté chaud de l’isolant, une couche freine vapeur est toujours nécessaire, ne fut-ce que pour assurer l’étanchéité à l’air de la paroi, essentielle pour assurer l’isolation thermique et éviter les problèmes de condensation interstitielle.

Des panneaux en OSB ou multiplex sont généralement placés de part et d’autre de la structure pour assurer le contreventement des parois. Ils constituent ainsi les caissons dans lesquels sera posé l’isolant éventuellement en vrac. Le panneau intérieur peut faire office de freine-vapeur à condition que sa perméabilité à la vapeur soit connue et que les joints entre les panneaux soient soigneusement rendus étanches à l’aide de bandes adhésives ou de mastic.

Panneaux intérieurs faisant office de freine-vapeur et étanchéité à l’air.

Si la paroi n’est pas pourvue de panneau intérieur, le contrôle de la diffusion de vapeur et de l’étanchéité à l’air sera réalisé à l’aide de membranes spécialement destinées à cette fonction. Leur perméabilité à la vapeur d’eau est, dans certains cas, variable en fonction de conditions hygrothermiques. Certaines peuvent servir de couche de confinement pour les isolants à insuffler.

Membrane freine-vapeur et étanchéité à l’air.

Le niveau de perméabilité à la vapeur des panneaux et des membranes devra être déterminé suite à des calculs réalisés par un bureau spécialisé de préférence à l’aide d’un logiciel de simulation dynamique. Ce logiciel calcule le transfert de chaleur et d’humidité dans la paroi en fonction de la température et du taux d’humidité intérieure, des conditions climatiques, de l’évaporation, de l’absorption, ainsi que de la perméabilité et de la capillarité des matériaux.


Quel pare-pluie ?

Lorsqu’il y a un creux ventilé entre la finition extérieure (bardage, parement, …) et  la paroi,  une couche de protection de l’isolant contre les infiltrations accidentelle est posée du côté froid de l’isolant. Elle doit être le plus perméable possible à la vapeur d’eau.

Des panneaux en OSB ou multiplex sont généralement placés de part et d’autre de la structure pour assurer le contreventement des parois. Ils constituent ainsi les caissons dans lesquels sera posé l’isolant éventuellement en vrac. Le panneau extérieur peut faire office de pare-pluie.

Panneaux faisant office de pare-pluie.

Si la paroi n’est pas pourvue de panneaux extérieurs de contreventement, des panneaux bitumés légers en fibre de bois ou des membranes souples très robustes, imperméables à l’eau et très perméables à la vapeur d’eau peuvent être utilisées et servir de pare-pluie et, en même temps, de couche de confinement pour les isolants à insuffler.

Pare-pluie souple.


Quel type d’isolant ?

L’isolant posé dans la structure doit pouvoir s’adapter facilement à la forme de celle-ci et être suffisamment raide pour ne pas se tasser sous son propre poids.

L’isolant sera donc idéalement :

soit, constitué de panneaux semi-rigides de fibres minérales ou organiques placés avant la pose d’une des faces  de la paroi ;

Isolant en matelas.

soit insufflé dans la paroi déjà munie de ses deux faces de coffrage (pare-pluie et pare-vapeur).

Isolant en vrac.

L’eau étant un très bon conducteur de chaleur, il faut éviter que l’isolant ne s’humidifie. La migration de vapeur et l’étanchéité à l’eau devront être correctement maîtrisées.

L’épaisseur d’isolant dépendra du type d’isolant choisi, de sa configuration dans la paroi et des performances thermiques à atteindre.


Le remplissage de l’espace technique intérieur par de l’isolant ?

L’espace technique ménagé entre le freine-vapeur et la finition intérieure peut être rempli d’isolant sans provoquer un risque de condensation interstitielle car l’épaisseur de cet espace est relativement réduite par rapport à celle de la structure isolée. De cette manière on augmente à peu de frais les performances thermiques du mur surtout si l’espace technique est relativement épais à cause de l’encombrement des installations prévues.

Remplissage du vide technique par de l’isolant

  1. Finition intérieure.
  2. Vide technique isolé.
  3. Freine-vapeur et étanchéité à l’air.
  4. Ossature bois avec isolant

Isolation à l’intérieur de la structure

Isolation à l'intérieur de la structure

Cette technique, délicate par la résolution des risques de condensation et ponts thermiques, consiste au placement d’isolation entre les éléments de structure.

Pompes à chaleur gaz

Pompes à chaleur gaz


PAC à moteur gaz

Principe

La pompe à chaleur à moteur gaz (GHP : Gas engine Heat Pump) s’apparente fort à la pompe à chaleur électrique traditionnelle. Les seules différences résident au niveau :

  • Du système d’entrainement du compresseur : le moteur électrique accouplé mécaniquement au compresseur est remplacé par un moteur à combustion à gaz.
  • De l’exploitation de la chaleur générée par le système d’entrainement :
    • Le moteur électrique a très peu de pertes (η de l’ordre de = 98 %). En d’autres termes, l’énergie électrique, au rendement près, est transformée totalement en énergie mécanique pour le compresseur.
    • Le moteur à gaz, quant à lui, a un rendement mécanique médiocre (45-50 %). Le solde de l’énergie de combustion du gaz est de la chaleur. L’intérêt de la pompe à chaleur à moteur à gaz réside dans la récupération de la chaleur de combustion.

Schéma de principe : PAC à moteur gaz.

Technologie

PAC à moteur gaz (source : Sanyo).

Moteur gaz

Moteur gaz (source : Aisin Toyota).

La technologie des pompes à chaleur à moteur gaz est développée depuis plusieurs décennies. Le moteur gaz est un moteur thermique à faible taux de compression de type volumétrique (cycle de Miller). Le gaz utilisé est soit le gaz naturel ou le LPG. Certains moteurs utilisent le propane. Comme le montre la figure ci-contre, ce fabricant propose un moteur 4 temps accouplé mécaniquement à des compresseurs au moyen d’une ou plusieurs courroies. La particularité de ce moteur est la récupération de la chaleur de combustion du gaz résiduelle au niveau du circuit de refroidissement. Un échangeur, placé au niveau du condenseur du circuit frigorifique permet le refroidissement du moteur et, par conséquent, la récupération de chaleur de combustion du moteur en supplément de celle échangée par le circuit frigorifique.

Circuit frigorifique

Les fabricants de PAC à moteur gaz proposent plusieurs configurations de circuit frigorifique. On retrouve généralement :

  • Le groupe VRV réversible à détente directe à 2 tubes permettant de travailler en mode « change-over » ou 3 tubes en mode « récupérateur d’énergie ».
  • la PAC à condenseur à eau. En général, c’est la même machine de base que l’unité externe des groupes VRV. Un condenseur à eau est directement branché sur le circuit frigorifique.

 (Source : Aisin Toyota).

Les compresseurs sont généralement des « scrolls ».  L’avantage de la pompe à chaleur à moteur gaz réside dans le fait que les compresseurs sont entrainés par un moteur à vitesse variable et, par conséquent, peuvent moduler le débit de fluide frigorigène (R410A par exemple).


PAC gaz à absorption

Principe

Tout part de la succession, dans un cycle fermé :

  • De l’absorption d’ammoniac (NH3) gazeux en présence d’eau pour donner une solution d’ammoniaque concentré (NH4OH). Elle s’accompagne de la libération d’une grande quantité de chaleur à température élevée.
  • Et de la désorption de cette même solution d’ammoniaque (NH4OH) qui permet la libération d’ammoniac (NH3) gazeux. La désorption demande de la chaleur.

À ce stade, rien de différencie ce système thermodynamique d’une chaudière gaz à eau chaude. Au lieu de chauffer de l’eau pure en circuit fermé, on chauffe une solution d’ammoniaque (NH4OH).

L’ingéniosité du principe vient de l’utilisation de l’ammoniac (NH3) dans un cycle frigorifique secondaire qui permettra de « pomper » la chaleur d’une source froide (au niveau de l’évaporateur) pour la restituer au niveau de la source chaude (condenseur) : cette chaleur est gratuite !

En combinant la libération de chaleur lors de l’absorption et la chaleur de condensation, le bilan énergétique est nettement positif !

Technologie

Schéma de principe (source Théma).

Générateur (ou déconcentrateur)

Au niveau du générateur, le brûleur chauffe la solution d’ammoniaque (NH4OH) de manière à libérer de l’ammoniac gazeux (NH3) à haute température. En partie haute du générateur, l’ammoniac est injecté dans le circuit principal de la PAC vers le condenseur. Il va de soi que la solution d’ammoniaque se déconcentre. En continuant de chauffer la solution sans rien changer, la production d’ammoniac gazeux risque de s’arrêter d’elle-même. Pour cette raison, il est nécessaire de régénérer (ou concentrer) la solution d’ammoniaque pauvre. C’est l’absorbeur qui s’en charge !

Absorbeur (ou concentrateur)

Dans l’absorbeur, la solution pauvre issue du générateur est projetée en fines gouttelettes sur l’ammoniac gazeux provenant de l’évaporateur de la machine thermodynamique. Il s’en suit un enrichissement de la solution d’ammoniaque avec, en prime, un dégagement de chaleur important (réaction exothermique). La solution d’ammoniaque riche régénérée peut être renvoyée au niveau du générateur. Le cycle de la PAC gaz est fermé !

Sans rien changé, l’efficacité énergétique de la PAC gaz serait vraiment médiocre ! L’ingéniosité du système réside dans la récupération au condenseur de la chaleur d’absorption. Concrètement, la solution riche d’ammoniaque passera par le condenseur de manière à céder sa chaleur à la source chaude.

Condenseur

Le condenseur de la PAC gaz à absorption est de conception un peu particulière. En réalité, c’est un double condenseur :

  • Un premier échangeur branché sur le circuit thermodynamique principal permet à l’ammoniac (NH3) gazeux de condenser et donc de céder sa chaleur à la source chaude (système de chauffage).
  • Un second échangeur raccordé au circuit secondaire permet à la phase liquide/gaz d’ammoniaque de céder, elle aussi, sa chaleur d’absorption.

Évaporateur

L’évaporateur de la PAC gaz à absorption est un évaporateur classique comme celui utilisé dans les PAC électriques.

Échangeurs secondaires

La chaleur d’absorption étant libérée à haute température, elle ne peut être, qu’en partie, transmise à la source chaude en demande de températures plus modestes. Pour cette raison, d’autres échangeurs placés en aval du condenseur permettront de successivement récupérer la chaleur d’absorption (intérêt de ces échangeurs).

Disponibilité sur le marché

Environnement

Parler du CO2 mais aussi de l’impact d’une fuite de NH3 dans l’air.


PAC gaz à adsorption

Principe

Le principe de fonctionnement de la pompe à chaleur à adsorption s’appuie sur les caractéristiques de la zéolithe, une céramique microporeuse très stable et non polluante. Cette zéolithe est capable de dégager de la chaleur lorsqu’elle adsorbe de l’eau (réaction exothermique lors du passage de la forme déshydratée à la forme hydratée). Lorsqu’elle est saturée, un brûleur à gaz évacue l’eau (désorption). L’emploi de la zéolithe permet de favoriser l’utilisation de l’énergie solaire même à basse température pour le chauffage, sachant que la réaction exothermique d’adsorption peut atteindre 85 °C avec de l’eau à 4 °C.

  • Phase d’adsorption : dans la partie basse de la pompe à chaleur, l’eau présente dans un réservoir sous vide est chauffée. Cette eau, même à basse température, se transforme  en vapeur et migre vers le haut du réservoir. La microporosité de la zéolithe permet de piéger une grande quantité de vapeur (adsorption). La chaleur d’adsorption est utilisée  au niveau de la source chaude (comme un plancher chauffant par exemple) ;
  • Phase de désorption : lorsque la zéolithe saturée d’eau, le minéral est chauffé. L’eau retenue dans la zéolithe est alors libérée sous forme de vapeur (désorption). Cette vapeur coule vers la partie inférieure de la pompe à chaleur, se condense à nouveau et libère de la chaleur. Une récupération de cette chaleur est mise en place. Le système peut redémarrer dans un nouveau cycle d’adsorption.

L’adsorption et la désorption sont des réactions physiques qui n’altèrent pas la structure de la zéolithe. L’alternance adsorption/désorption est alternative, mais peut fonctionner indéfiniment.

     

Phase de désorption puis d’adsorption (Source : www.gaz-naturel.ch).

Technologie

Le système est  conçu sur la base d’une chaudière à condensation, associée à un module à zéolithe sous vide comprenant des billes de céramique microporeuse, de l’eau et les composants hydrauliques.

A l’heure actuelle, certains constructeurs ont un programme de développe des PAC gaz à adsorption pour le résidentiel (maximum 10 kW). L’adsorbant utilisé est la zéolite (Une zéolithe, ou zéolite est un minéral microporeux appartenant au groupe des silicates).

Les sources froides peuvent, comme pour les pompes à chaleur classiques :

  • L’air ;
  • L’eau ;
  • La géothermie …

Comme le montrent les figures ci-dessus, la source froide de la pompe à chaleur à adsorption peut être aussi des panneaux solaires thermiques. Les efficacités saisonnières sont à préciser par le constructeur et à vérifier par des études neutres et en situation réelle. Sur papier, ce système paraît très intéressant sachant qu’on pourrait attendre des …


Point de comparaison des PAC’s

Principe et technologie

Bien que la machine gaz à absorption/adsorption semble assez différente de la machine frigorifique traditionnelle, le principe de base de fonctionnement reste le même :

  • circulation d’un fluide réfrigérant ;
  • évaporation du fluide avec production de froid ;
  • compression du fluide demandant un apport d’énergie ;
  • condensation du fluide avec production de chaleur.

La différence réside dans le moyen de comprimer le fluide :

  • mécanique dans le cas d’une machine électrique ou à moteur à gaz ;
  • thermochimique/thermophysique dans le cas de la machine à absorption/adsorption.

Le type d’énergie nécessaire à cette compression :

  • électrique dans le cas d’une PAC électrique ;
  • calorifique dans le cas d’une PAC gaz à absorption.

PAC électrique

Principe de la PAC électrique.

La pompe à chaleur électrique utilise le travail de compression du compresseur pour faire passer la chaleur gratuite disponible à basse température au niveau de l’évaporateur (source froide : l’air extérieur, l’eau d’une rivière ou d’une nappe phréatique, …) à une température plus élevée au niveau du condenseur (source chaude : l’air intérieur, l’eau chaude d’un chauffage à basse température comme le chauffage au sol, l’ECS, …). Le transfert de la chaleur est effectué grâce un fluide frigorigène via le compresseur. A la chaleur gratuite tirée de la source de froid est ajouté le travail de compression, cette énergie étant fournie par le moteur électrique du compresseur.

PAC à moteur gaz

Principe de la PAC à moteur gaz.

Toute chose restant égale, seul le moteur électrique accouplé mécaniquement au compresseur est remplacé par un moteur à combustion gaz.

PAC gaz à absorption

Principe de la PAC gaz à absorption.

Sur le même principe que la pompe à chaleur électrique, le transfert de la chaleur gratuite de la source froide à basse température vers la source chaude à température plus élevée, est assuré  grâce à un fluide frigorigène via, non pas un compresseur, mais un générateur de chaleur au gaz. C’est à ce stade que l’analogie s’arrête et que les deux systèmes diffèrent complètement.

Efficacité énergétique

Principe de comparaison

Une pompe à chaleur est énergétiquement efficace si elle demande peu d’énergie pour fournir une puissance calorifique donnée. Pour pouvoir assurer un point de comparaison énergétique entre les différents types de pompe, il est nécessaire, par rapport à leur production de chaleur, de considérer les consommations « primaires » d’énergie. C’est le cas surtout pour l’électricité ! En effet, l’électricité consommée au niveau de la pompe à chaleur est une énergie finale qui ne tient pas compte :

  • du rendement moyen des centrales électriques en Belgique ;
  • des pertes en lignes du réseau électrique.

L’énergie primaire à considérer est :

  • Le gaz disponible au niveau de la conduite d’alimentation du bâtiment. Les kWhPCI sont utilisés pour tenir compte d’une éventuelle phase de condensation (ηPCI > 100 %).
  • L’électricité disponible au niveau du câble d’alimentation du bâtiment multipliée 2.5. Ce coefficient a été adopté par la ouverture d'une nouvelle fenêtre ! CWaPE (Commission Wallonne Pour L’Énergie) se base sur un rendement moyen de 40 % pour les centrales électriques en Europe. En d’autres termes, un 1 kWh consommé au niveau de la pompe à chaleur, 2.5 kWh ont été consommés au niveau de la centrale électrique. Dans le cas de la PAC électrique, la performance se calcule par le rapport :

    Technologie

COP = Énergie utile (chaleur) / Énergie consommée (électricité)

Cependant, pour comparer des pommes entre elles par rapport à une PAC gaz à absorption par exemple, l’énergie primaire consommée pour produire de l’électricité nécessaire à alimenter le moteur électrique, doit être considérée. On parle alors de rapport d’énergie primaire REP défini comme suit :

REP (PER) = Énergie utile / (Énergie consommée / η centrale électrique)

La valeur intéressante pour les gestionnaires de bâtiments est la valeur du COPA ou ACOP, … (vive l’Europe !) qui exprime l’efficacité  annuelle mesurée en tenant compte de toutes les consommations de la machine par rapport à l’énergie qu’elle fournit. La performance annuelle est naturellement liée à l’efficacité instantanée au cours du temps qui, elle, peut varier en fonction de différents paramètres :

  • de la température de la source froide ;
  • de la température de la source chaude ;
  • du taux de charge de la pompe à chaleur.

PAC électrique

Dans le cas de la pompe à chaleur électrique dont le COP = 3, 1 kWh d’énergie électrique finale consommé, fournit à la distribution d’un système de chauffage 3 kWh. C’est bon pour la poche du consommateur (performance finale de 300 %) ! Mais en termes d’énergie primaire, seulement 3/2.5 soit 1.2 kWh est restitué à la source chaude (performance primaire de 120 %) ; ce qui reste meilleur que la performance d’une chaudière à condensation très efficace quand même (ηPCI = 108 %).

Bilan énergétique  (source : Thema).

La performance de la PAC électrique est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Forte Réduction des consommations de + 3 % par augmentation de 1 °C
Température de la source chaude Forte Réduction des consommations de + 3 % réduction de 1 °C
Taux de charge Moyenne En général, une PAC électrique travaillant à charge partielle réduit les consommations

Comme le montre le tableau précédent, la PAC électrique est très sensible aux types de source chaude et de source froide. On privilégiera le fonctionnement de la PAC à charge partielle par la réduction de la vitesse du compresseur (technique INVERTER).

PAC à moteur gaz

Bilan énergétique (source Théma).

Bilan énergétique et performance (Source : Aisin Toyota).

La PAC gaz à absorption a une efficacité énergétique définie comme suit :

COP = Énergie utile (chaleur) / Énergie consommée (consommation de gaz)

Comme le montre le graphique précédent, le constructeur annonce qu’en pointe (taux de charge faible) pour 1 kWh d’énergie primaire fourni (gaz), une pompe à chaleur à moteur à gaz restitue donc 1,43 kWh maximum, ce qui en fait un système de chauffage hautement intéressant par rapport à l’environnement.
La performance de la PAC à moteur gaz est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Faible
Température de la source chaude Moyenne
Taux de charge Forte 30 à 40 % d’influence

La modulation de puissance est très importante pour augmenter la performance de la PAC à moteur gaz. Sur un moteur à combustion, comme celui qui équipe ce type de PAC, la modulation de puissance ne pose aucun problème. Elle est donc principalement influencée par le dimensionnement en fonction des besoins de chaleur.

PAC gaz à absorption

Bilan énergétique  (source : Thema).

Certains constructeurs annoncent des performances de l’ordre de 150 %.

Tout comme la PAC à moteur gaz, la performance de la PAC gaz à absorption est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Faible
Température de la source chaude Moyenne
Taux de charge Forte

Comparatif des PAC gaz

Une étude très intéressante de l’IGU (International Gas Union : « Gas Heat Pumps, the renewable heating system for the future ? ») a montré qu’en moyenne, la performance des PAC gaz, toutes parques confondues, était plutôt aux alentours des 116 % avec une valeur à 120 % en cas de configuration de la PAC gaz avec des panneaux solaires thermiques.

Performance moyenne.

PAC électrique, PAC gaz même combat ?

Tout dépend des conditions de fonctionnement (taux de charge, températures des sources chaudes et froides, …) et des consommations des auxiliaires du niveau de dégivrage). Dans la littérature, on s’accorde à dire, qu’effectivement, pour les PAC électriques et gaz c’est le même combat !

Intérêt de la géothermie ?

Par contre, comme le montre la figure ci-dessus, les PAC gaz peuvent fortement se démarquer des PAC électriques au niveau du dimensionnement de la source froide. On voit tout de suite que l’évaporateur peut être de dimension plus faible :

  • Si la source froide est l’air externe, la taille de l’évaporateur et des ventilateurs sera plus faible d’où réduction de l’investissement pour la partie évaporateur. Il s’ensuit que les consommations des auxiliaires seront aussi réduites.
  • Si la source froide est l’eau, et plus spécifiquement, la géothermie, le dimensionnement du système de géothermie est presque divisé par 3.

Surtout dans le domaine de la conception et de l’exploitation de la géothermie qui, en règle générale, passe à la trappe pour une question d’investissement (grande quantité de sondes géothermiques, profondeur importante, …), l’association d’une PAC gaz avec une géothermie est très intéressante.

Évaluer l’association cogen et chaudière condensation


Intérêt énergétique, environnemental et financier

Y a-t-il un intérêt énergétique, environnemental et financier à associer une cogénération avec une chaudière à condensation ?

Dans ce qui suit, on tente d’y répondre par l’exploitation du logiciel d’étude de pertinence de cogénération de la Région Wallonne CogenSim.

Simulation

En partant du principe qu’une cogénération est dimensionnée pour produire la base du profil des besoins de chaleur, le solde étant fourni par une chaudière, plus cette chaudière sera performante, plus importante sera la réduction des consommations énergétiques pour fournir ce solde.

Une manière d’y arriver est de simuler une cogénération associée à une chaudière dont le rendement saisonnier évolue de 80 à 99 %.

Exemple

Les besoins de chaleur et d’électricité d’un bâtiment tertiaire sont représentés par les profils de chaleur suivants. Un exemple de profil de besoins est donné dans CogenSim.On constate que :

  • la puissance maximale correspondant au dimensionnement est de 1 000 kW, soit 100 % de taux de charge ;
  • le besoin de chaleur résiduelle en été est de l’ordre de 200 kW. Ce besoin résiduel est de l’ordre de grandeur d’un besoin d’ECS ;
  • le profil électrique montre que le bâtiment est occupé 7 jours sur 7 avec une réduction d’activité le weekend.

Besoin de chaleur.

Besoin d’électricité.

La monotone de chaleur permet de mieux visualiser la fréquence des puissances de chauffe nécessaires sur une année :

Monotone de chaleur.

Les hypothèses de simulation sont nombreuses. L’objectif dans cet exemple étant de ne pas vous assommer de chiffres, les principales sont reprises ci-dessous :

  • Vecteur énergétique : gaz.
  • Type de régulation :
    • l’injection d’électricité sur le réseau est autorisée ;
    • le rejet de chaleur est interdit.
  • Les certificats verts sont garantis par la RW au prix de 65 €.
  • Les prix de l’électricité avant cogénération : 150 €/MWh.
  • Les prix de l’électricité après cogénération : 157 €/MWh.
  • La vente d’électricité : 40 €/MWh.
  • Les prix du combustible avant cogénération : 60 €/MWh.
  • Les prix du combustible après cogénération : 32.8 €/MWh.
  • Le taux de charge minimum de la cogénération : on considère en général qu’une cogénération ne peut moduler sa puissance qu’entre 60 et 100 %.
  • Le taux de charge minimum et maximum : 40 et 60 %.
  • La capacité du ballon tampon : 10 000 litres.

 

Simulation

CogenSim a sélectionné une cogénération d’une puissance de 200 kWélectrique et 297 kWthermique. Les caractéristiques principales de la machine sont détaillées dans le tableau suivant :

Combustible
Puissance nominale électrique (hors auxiliaires électriques) 200 kW
Puissance appelée par les auxiliaires électriques 4 kW
Puissance nominale thermique 297 kW
Rendement électrique à charge nominale 35 %
Rendement électrique à mi-charge 31 %
Rendement thermique à charge nominale 52 %
Rendement moyen électrique 34 %
Rendement moyen chaleur 52 %
Rendement moyen de fonctionnement 86 %

Pour différentes valeurs de rendement (80, 85, 90 et 100 %), le bilan énergétique donne :

Bilan énergétique
Rendement de la chaudière associée 80 % 85 % 90 % 100 %

Sans cogénération

Énergie électrique consommée 4,956,554 4,956,554 4,956,554 4,956,554 kWhélectrique/an
Besoins thermiques nets 3,521,490 3,521,490 3,521,490 3,521,490 kWhth/an
Combustible consommé 4,401,862 4,142,929 3,912,766 3,521,842 kWhcombustible/an
Énergie électrique primaire consommée 12,391,385 12,391,385 12,391,385 12,391,385 kWhcombustible/an
Énergie primaire totale sans cogénération 16,793,247 16,534,314 16,304,151 15,913,227 kWhcombustible/an

Avec cogénération

Énergie primaire consommée par la cogénération 3,984,400 3,984,400 3,984,400 3,984,400 kWhcombustible/an
Chaleur utile produite par la cogénération 2,076,437 2,076,437 2,076,437 2,076,437 kWhth/an
Économie combustible correspondante pour la chaufferie 2,595,546 2,442,867 2,307,152 2,076,644 kWhcombustible/an
Chaleur utile encore à produire par la chaufferie 1,448,450 1,448,450 1,448,450 1,448,450 kWhth/an
Consommation correspondante par la chaufferie 1,810,562 1,704,059 1,609,389 1,448,595 kWhcombustible/an
Énergie électrique produite par la cogénération 1,358,704 1,358,704 1,358,704 1,358,704 kWhélectrique/an
dont énergie électrique revendue au réseau 110 110 110 110 kWhélectrique/an
dont énergie électrique auto-consommée 1,358,594 1,358,594 1,358,594 1,358,594 kWhélectrique/an
Énergie électrique consommée au niveau du réseau 3,597,960 3,597,960 3,597,960 3,597,960 kWhcombustible/an
Énergie primaire totale avec cogénération 14,789,863 14,683,360 14,588,690 14,427,896 kWhélectrique/an
Taux d’économie de CO2 12 % 11 % 11 % 9 %

Sur base des résultats obtenus et dans ce cas précis, on peut « tirer » les informations suivantes :

> Le bilan énergétique théorique est favorable à l’association d’une chaudière, quelle qu’elle soit, à une cogénération.

> Lorsqu’on tend vers le rendement d’une chaudière à condensation, les consommations en énergie primaire diminuent. En effet, le besoin thermique résiduel pris en charge par la chaudière génèrera une consommation d’autant plus faible que meilleur sera le rendement de la chaudière.

 

Quant au bilan économique, il est présenté dans le tableau suivant :

Bilan financier

Sans cogénération

Coûts 80 % 85 % 90 % 100 %
Montant facture électricité 743,483 743,483 743,483 743,483 €/an
Montant facture combustible 264,111 248 575 234, 65 21,310 €/an
Montant facture énergie globale 1,007,594 992,058 978,249 954,730 €/an

Avec cogénération

Coûts
Montant facture électricité 566,678 566,678 566,678 566,678 €/an
Montant facture combustible 347,443 341,068 335,401 325,776 €/an
Montant entretien pour la cogénération 22,328 22,328 22,328 22,328 €/an
Montant facture énergie globale 936,451 930,075 924,408 914,783 €/an
Gain
Rente de l’électricité injectée 4 4 4 4 €/an
Économie annuelle sans C.V. 71,144 77,519 83,186 92,811 €/an
Taux d’économie en CO2 32 % 32 % 32 % 32 %
Certificats verts 28 306 28 306 28 306 28 306 €/an
Économie annuelle avec C.V. 99,451 105,826 111,493 121,118 €/an
Investissement
Cogénérateur complet (hors installation) 197,181 197,181 197,181 197,181
Groupe cogénération & stockage de chaleur 205,772 205,772 205,772 205,772
Aide à l’investissement 1 % 1 % 1 % 1 %
Facteur de surinvestissement 50 % 50 % 50 % 50 %
Groupe cogénération NET 305,572 305,572 305,572 305,572
Chaudière 33,333 33,333 33,333 50,000
Temps de Retour Simple (TRS) 3.4 3.2 3.0 2.9 Années

L’analyse du bilan financier montre que l’augmentation du rendement de la chaudière permet d’améliorer la rentabilité financière de l’ensemble de l’installation.

Remarque
Attention qu’il existe deux taux d’économie en CO2. On les appellera librement le taux d’économie en CO2 énergétique et le taux d’économie en CO2 lié au calcul des certificats verts (production verte d’électricité) :

> Le taux d’économie en CO2 énergétique (énergie primaire) est exprimé par la formule suivante :

tCO2 énergétique    Eref + Q  –  F /  Eref  + Q %

Où,

  • Eref = émissions d’une centrale électrique de référence (kg CO2/an). Si la centrale de référence est une TGV (turbine gaz vapeur), le rendement de la CWaPE est de 55 %. Par conséquent, Eref = 456 kg CO2/MWh ;
  • Q  = émissions d’une chaudière de référence (kg CO2/an) ;
  • F = émissions de la cogénération (kg CO2/an).

> Le taux d’économie en CO2 (calcul CV) est exprimé par la formule suivante :

tCO2 énergétique    Eref + Q  –  F / Eref   %

Où,

  • Eref = émissions d’une centrale électrique de référence (kg CO2/MWh électrique.
  • Q  = émissions d’une chaudière de référence (kg CO2/ MWh électrique).
  • F = émissions de la cogénération (kg CO2/ MWh électrique).

Choisir le type de toiture

Actuellement, les toitures plates sont aussi fiables que les toitures inclinées. Le choix se fera donc sur base des exigences architecturales de fonctionnalité et d’esthétique.

 

Dans le cas des toitures inclinées il faut choisir, soit d’isoler les versants, soit d’isoler le plancher des combles.

Isolation dans le versant de toiture.

Isolation dans le plancher des combles.

Résoudre les noeuds constructifs – isolation dans l’épaisseur de la paroi

Résoudre les noeuds constructifs - isolation dans l’épaisseur de la paroi 


Ossatures légères

Les éléments de fixation et de structure répartis sur toute la surface de ces parois ne sont pas des nœuds constructifs mais sont pris en compte dans le calcul du coefficient de transmission thermique U de la paroi elle-même. Ils ne doivent généralement pas être traités.

Exemple.

Plancher léger inférieur.

Murs creux

Dans les bâtiments anciens, la coulisse est souvent interrompue. Ces interruptions constituent des ponts thermiques qui ne peuvent pas être supprimés.

Exemples.

Appui de plancher.

Seuil de fenêtre.

Retour de baie.

Dans ce cas, il est souhaitable de ne pas insuffler l’isolant dans la coulisse. Il est préférable d’isoler par l’extérieur.

Résoudre les noeuds constructifs – isolation par l’extérieur

C’est le cas le plus facile à résoudre. En effet, il est généralement possible d’assurer la continuité de l’isolant sans rencontrer d’obstacles provoquant l’interruption de celui-ci.

Les principales difficultés seront localisées au droit des balcons et des fondations. Il n’est généralement pas possible, à coût raisonnable, de démonter le nœud constructif et d’insérer une couche isolante. La seule solution alors possible est d’allonger le chemin de moindre résistance thermique en emballant l’élément qui ne peut pas être coupé.

Les nœuds constructifs entre les fenêtres et les façades (appuis de fenêtre, linteaux, piédroits) nécessitent parfois des petites adaptations.

Résoudre les noeuds constructifs - isolation par l'extérieur


Raccord entre le pied de façade et un plancher sur vide sanitaire accessible (ou cave)

Lorsque le vide sanitaire (ou la cave) est accessible, le plancher sera isolé par l’extérieur, c.-à-d.. par le dessous. L’isolant est collé ou fixé mécaniquement.
En rénovation, la continuité entre l’isolant du mur et celle du plancher n’est pas réalisable. Il faut donc neutraliser le pont thermique en augmentant la longueur des chemins dont la résistance thermique est plus faible.

La résistance thermique du chemin ‘B’ est beaucoup plus faible que celle des chemins ‘A’ et ‘C’.

De par sa longueur, la résistance thermique du chemin ‘B’ au travers des matériaux non isolants tels que maçonneries, dalles de plancher, etc. devient aussi importante que celle des chemins ‘A’ et ‘C’.

Dans les terrains humides, le panneau isolant doit être protégé par une membrane drainante. Un drain doit être placé au bas de cette membrane pour récolter et évacuer les eaux.
Si le vide sanitaire est en contact direct avec l’air extérieur, il faut, pour les mêmes raisons que ci-dessus, prolonger l’isolant sous la dalle, sur l’intérieur du mur de fondation.

  1. Mur existant.
  2. Plancher lourd existant avec isolant appliqué sur sa face inférieure.
  3. Vide sanitaire accessible (ou cave) en contact direct avec l’air extérieur.
  4. Isolation par l’extérieur du mur de façade (cas de panneaux isolants revêtus d’un enduit).
  5. Isolant thermique résistant à l’humidité (XPS, par exemple) fixé au mur enterré pour neutraliser le pont thermique au pied de façade.
  6. Panneaux de protection mécanique résistant à l’humidité.
  7. Retour d’isolation pour neutraliser le pont thermique entre l’intérieur du bâtiment et le vide sanitaire.

Raccord entre le pied de façade et un plancher sur terre plein (isolé par l’intérieur)

Comme dans le cas précédent la continuité entre l’isolant du mur et celle du plancher n’est pas réalisable. Il faut donc neutraliser le pont thermique en prolongeant l’isolant du pied de façade en dessous du niveau du plancher.

Dans les terrains humides, le panneau isolant doit être protégé par une membrane drainante. Un drain doit être placé au bas de cette membrane pour récolter et évacuer les eaux.

  1. Mur existant.
  2. Plancher isolé sur sol.
  3. Isolation par l’extérieur du mur de façade.
  4. Isolant thermique (XPS) fixé au mur enterré pour neutraliser le pont thermique au pied de façade.
  5. Membrane drainante.
  6. Panneau de protection mécanique résistant à l’humidité.
  7. Drain et empierrement protégé à l’aide d’un géotextile.

Raccord avec une toiture chaude côté rive

Techniques

Si vous voulez savoir comment réaliser une toiture chaude ?

  1. Pièce de bois fixée à la maçonnerie.
  2. Bande d’étanchéité de raccord. Celle-ci est placée de manière à favoriser l’écoulement de l’eau vers la partie couvrante (intérieure) de la toiture.
  3. Profilé de rive avec écarteur = casse-goutte fixé à la pièce de bois.

Raccord avec une toiture chaude côté gouttière pendante

Techniques

Si vous voulez savoir comment réaliser une toiture chaude ?

  1. Mur de façade
  2. Panneaux isolants
  3. Armature de la couche d’enrobage
  4. enduit de finition
  5. Profil d’nterruption
  6. Pièces de bois (échelle)
  7. isolant existant
  8. Planche de rive
  9. Crochets
  10. Gouttière
  11. Larmier rigide
  • Isolation du mur par l’extérieur : placer les panneaux isolants (2) sur le mur de façade existant (1), le profilé d’interruption (5) fixé à la maçonnerie, l’armature et la couche d’enrobage (3) et enfin l’enduit de finition (4).
  • Poser des pièces de bois (6) là où doivent venir les crochets de la gouttière. Elles sont placées de manière à ce que la planche de rive posée ultérieurement fasse casse-goutte. Leur épaisseur est inférieure à celle de l’isolant de manière à éviter les stagnations d’eaux.
  • Création de la toiture chaude à partir du support existant (7) : l’étanchéité existante est conservée pour servir de pare-vapeur. L’isolant thermique est posé; il est prolongé entre les pièces de bois qui vont servir de support aux crochets de la gouttière. Une nouvelle étanchéité est posée sur l’isolant.
  • La planche de rive (8) est fixée sur les pièces de bois.
  • Les crochets (9) + la gouttière (10) sont placés.
  • La membrane d’étanchéité est posée. Le larmier rigide (11) assure la continuité de l’étanchéité entre la membrane et la gouttière.

Raccord avec une toiture chaude côté rive avec acrotère

Techniques

Si vous voulez savoir comment réaliser une toiture chaude ?

  1. Maçonnerie pour surélever l’acrotère.
  2. Isolation du mur par l’extérieur (cas de panneaux isolants revêtus d’un enduit : isolant collé au support, armature et couche d’enrobage, enduit de finition.).
  3. Profilé d’interruption fixé dans la maçonnerie.
  4. Création d’une toiture chaude sur support existant : l’étanchéité existante est conservée comme pare-vapeur, isolant, nouvelle étanchéité, lestage éventuel.
  5. Chanfrein.
  6. L’isolation de l’acrotère assure la continuité de l’isolation.
  7. Bande d’étanchéité de raccord. Celle-ci est placée de manière à favoriser l’écoulement de l’eau vers la partie couvrante (intérieure) de la toiture.
  8. Profilé de rive avec écarteur = casse-goutte fixé à la maçonnerie.

Bruxelles Environnement a édité une vidéo illustrative de la mise en œuvre correcte de l’isolation d’un acrotère :

    Isolation : Isolation correcte de l’acrotère [Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].


Raccord avec le versant de toiture isolé entre les chevrons

 Améliorer

Si vous voulez savoir comment isoler le versant de la toiture existante ?

  1. Chevron ou fermette.
  2. Voligeage éventuel.
  3. Sous-toiture étanche à l’eau.
  4. Contre-latte.
  5. Lattes.
  6. Éléments de couverture.
  7. Planche de pied. Sa face supérieure doit se trouver dans le même plan que le bord supérieur des chevrons ou fermes.
  8. Planche de rive.
  9. Gouttière pendante.
  10. Peigne (protection de la latte de pied contre la pluie et contre la pénétration d’oiseaux ou d’insectes).
  11. Isolation de la toiture.
  12. Pare-vapeur.
  13. Plafond.
  14. Moulure décorative.
  15. Mur plein.
  16. Finition intérieure des murs.
  17. Isolation du mur par l’extérieur.
  18. Sous-enduit + armature + enduit de finition.

Raccord avec le versant de toiture isolé au-dessus des chevrons (toiture « Sarking »)

Améliorer

Si vous voulez savoir comment isoler le versant de la toiture existante ?

  1. Cale de bois pour empêcher le glissement des panneaux isolants.
  2. Panneaux isolants rigides au-dessus des chevrons ou des fermettes (Toiture « Sarking »).
  3. Contre-lattes.
  4. Bavette insérée partiellement dans le panneau isolant pour que les eaux infiltrées s’écoulent dans la gouttière.
  5. Mur isolé par l’extérieur (cas de panneaux isolants revêtus d’un enduit : isolant collé au support, armature et couche d’enrobage. Enduit de finition.)
  6. Profilé d’interruption fixé mécaniquement à la maçonnerie.
  7. Isolant de remplissage pour assurer le continuité de la couche isolante entre la toiture et le mur.

La baie de fenêtre

Seuil et linteau – cas du panneau isolant revêtu d’un enduit

  1. Mur existant + enduit intérieur.
  2. Arrêt d’enduit + mastic.
  3. Panneau isolant collé.
  4. Armature et mortier d’enrobage.
  5. Enduit de finition.
  6. Armature d’angle.
  7. Retour d’isolation au niveau du linteau (panneau collé revêtu des mêmes couches que le reste du mur existant).
  8. Seuil en tôle pliée.
  9. Retour d’isolation au niveau du seuil.

Retour d’isolation au niveau du seuil – étapes :

  • Le seuil en pierre existant est démonté.
  • Un support de forme adéquate pour laisser de la place à l’isolant sous le châssis (une poutrelle en acier en « U » par exemple) est placé sous le châssis pour le soutenir.
  • Une couche isolante (isolant compressible) est placée sous le châssis jusqu’au panneau isolant extérieur.
  • Un nouveau seuil plus fin (métallique par exemple) est placé en garantissant l’écoulement vers l’extérieur de l’eau évacuée par le châssis (le conduit de drainage doit se trouver en avant du « talon » du seuil).

Ébrasement de baie – cas du panneau isolant revêtu d’un enduit

      1. Mur existant + enduit intérieur.
      2. Arrêt d’enduit + mastic.
      3. Panneau isolant collé.
      4. Armature et mortier d’enrobage.
      5. Enduit de finition.
      6. Armature d’angle.
      7. Retour d’isolation au niveau de l’ébrasement (panneau collé revêtu des mêmes couches que le mur).

 Seuil et linteau – cas de l’isolant protégé par un bardage

      1. Retour d’isolation au niveau du linteau.
      2. Retour d’isolation au niveau du seuil de fenêtre.
      3. Retour au niveau de l’ébrasement de fenêtre.

Retour d’isolation au niveau du linteau et au niveau de l’ébrasement : des lattes sont fixées sur le linteau et sur l’ébrasement de fenêtre. L’isolant est posé entre les lattes. Le tout est recouvert d’une finition ( feuille métallique par exemple).

Retour d’isolation au niveau du seuil – étapes :

  1. Le seuil en pierre existant est démonté.
  2. Un support de forme adéquate pour laisser de la place à l’isolant sous le châssis (une poutrelle en acier en « U » par exemple) est placé sous le châssis pour le soutenir.
  3. Une couche isolante (isolant compressible) est placée sous le châssis jusqu’au panneau isolant extérieur.
  4. Un nouveau seuil plus fin (métallique par exemple) est placé en garantissant l’écoulement vers l’extérieur de l’eau évacuée par le châssis (le conduit de drainage doit se trouver en avant du « talon » du seuil).

Seuil et linteau – cas de la création d’un mur creux

      1. Mur existant + enduit intérieur.
      2. Isolant thermique (cas d’une coulisse intégralement remplie).
      3. Mur de parement neuf.
      4. Remplissage de l’espace qui était réservé au seuil d’origine par de la maçonnerie.
      5. Nouveau seuil de fenêtre.
      6. Isolant thermique assurant la continuité entre l’isolant du mur et le châssis.
      7. Support de fenêtre sans appui sur le seuil (patte en acier galvanisé fixée mécaniquement au mur porteur).
      8. Cornière.
      9. Linteau extérieur.
      10. Membrane d’étanchéité (avec bords latéraux relevés) et joints verticaux ouverts au-dessus du linteau afin d’évacuer l’eau infiltrée dans la coulisse.
      11. Nouvelle fenêtre.
      12. Joint d’étanchéité (Mastic).
      13. Mousse isolante injectée.
      14. Nouvelle tablette (bois par exemple).
      15. Joint d’étanchéité (fond de joint + mastic).
      16. Calfeutrement
      17. Nouvelle finition de l’encadrement intérieur.

Concevoir

Les principes à respecter sont les mêmes que ceux pour un seuil et un linteau d’un nouveau mur creux.

Lorsque les dimensions du dormant du châssis ne sont pas suffisantes pour revenir avec l’épaisseur des panneaux isolants sur les retours au niveau de l’ébrasement ou/et du linteau, il faut casser la maçonnerie.

Linteau – cas du panneau isolant revêtu d’un enduit

Ébrasement de baie – cas du panneau isolant revêtu d’un enduit

De même, si l’on souhaite conserver un seuil en pierre, il faut également casser la maçonnerie pour gagner de la place.
S’il n’est pas possible de casser la maçonnerie (linteau en béton, par exemple), il faut prévoir un châssis plus petit.

Remarque : de par son épaisseur, l’isolant posé à l’extérieur fait apparaître les châssis plus enfoncés dans la façade. De même, suivant la pose au niveau du linteau et du retour de baie, les dimensions du dormant du châssis peuvent paraître moins importantes.

Choisir le type de mur [concevoir l’isolation]

Chacune de ces techniques constructives présente des avantages et des inconvénients qui guideront le choix.


Le mur creux

Principe du mur creux.

Avantages

  • Le mur creux s’intègre généralement dans l’architecture traditionnelle de nos régions.
  • Il est efficace contre les infiltrations d’eau de pluie.
  • Son parement extérieur résiste bien aux agressions mécaniques.
  • Le mur porteur intérieur généralement massif (> 100 kg/m²) renforce l’inertie thermique du bâtiment diminuant ainsi les risques de surchauffe en été et permettant un stockage de chaleur en hiver.

Inconvénients

  • L’épaisseur de l’isolant est limitée par l’épaisseur disponible dans le creux du mur (en rénovation).
  • La stabilité des parements notamment au-dessus des grandes baies nécessite des appareillages qui sont sources potentielles de ponts thermiques et de coûts supplémentaires.

Techniques

Pour en savoir plus sur les caractéristiques du mur creux : cliquez ici  !

Concevoir

Pour en savoir plus sur la conception du mur creux : cliquez ici  !


Le mur plein non isolé

Principe du mur plein non isolé.

Ce type de mur ne sera généralement pas envisagé étant donné ses mauvaises performances thermiques. Même si le matériau utilisé est relativement isolant (béton cellulaire ou terre cuite allégée), les épaisseurs nécessaires pour atteindre ne fut-ce que les performances minimales exigées par la réglementation sont déjà très importantes (50 cm). Pour des performances plus ambitieuses, cette technique n’est pas adaptée.

Techniques

Pour en savoir plus sur les caractéristiques du mur plein : cliquez ici  !

Le mur isolé par l’extérieur

Principe du mur isolé par l’extérieur.

  1. Mur plein.
  2. Mortier de collage de l’isolant.
  3. Panneau d’isolation.
  4. Armature synthétique ou métallique + sous-couche de l’enduit.
  5. Enduit de finition.

Avantages

  • L’isolant est continu et enveloppe bien le bâtiment.
  • Des épaisseurs importantes sont possibles.
  • L’aspect extérieur peut être adapté aux exigences urbanistiques.
  • Le mur généralement massif (> 100 kg/m²) renforce l’inertie thermique du bâtiment diminuant ainsi les risques de surchauffe en été et permettant un stockage de chaleur en hiver.

Inconvénients

  • La face extérieure de la façade est relativement fragile aux agressions mécaniques.

Techniques

Pour en savoir plus sur les différents systèmes d’isolation par l’extérieur : cliquez ici  !

Concevoir

Pour en savoir plus sur la conception du mur isolé par l’extérieur cliquez ici  !

Le mur isolé par l’intérieur

Principe du mur mur isolé par l’intérieur.

Ce type de mur ne sera généralement pas envisagé pour une nouvelle construction à cause de la difficulté à gérer les ponts thermiques, le risque de condensation interstitielle dans la façade et l’affaiblissement de l’inertie thermique du bâtiment (défavorable pour la gestion des surchauffes estivales).


Le mur à ossature bois

Principe du mur à ossature bois.

Avantages

  • Le mur à ossature bois est fabriqué en atelier et sa pose sur chantier est très rapide.
  • L’espace disponible pour la pose de l’isolant est généralement important. La façade peut donc être très performante du point de vue thermique.
  • Son inertie thermique faible peut être un avantage pour les bâtiments à occupation occasionnelle (salles de fête, lieux de culte, …) car elle permet une mise à température rapide sans apport d’énergie excessif et stockage inutile de celle-ci.

Inconvénients

  • La faible inertie de la façade augmente les risques de surchauffe en été.
  • Certaines réglementations urbanistiques imposent des parements extérieurs en brique. Du point de vue constructif, ce parement lourd n’est pas nécessaire. Il est coûteux. Il trompe l’observateur sur la nature de la paroi. Une couche massive de matériau est placée  à l’extérieur de l’isolant alors qu’elle aurait éventuellement pu être utile à l’intérieur pour stabiliser la température.

Techniques

Pour en savoir plus sur les caractéristiques du mur à ossature : cliquez ici  !

Techniques

Pour en savoir plus sur l’isolation dans l’ossature : cliquez ici  !

Concevoir

Pour en savoir plus sur la conception du mur à ossature bois: cliquez ici  !

Le mur-rideau

Principe du mur-rideau.

Le mur-rideau est comparable à  une fenêtre de grande dimension avec d’éventuelles parties pleines (non transparentes). Les exigences thermiques réglementaires  ne sont pas sévères et peuvent généralement être respectées. Toutefois, si certains murs rideaux avec triples vitrages atteignent des performances intéressantes (U < 0.85 W/m²K), ces valeurs sont bien moins bonnes que celles obtenues par des murs traditionnels (U < 0.4 W/m²K). Il est donc préférable de n’opter pour les murs rideaux que lorsque de grandes surfaces vitrées sont nécessaires. Si ce n’est pas le cas, une façade légère en bois est plus indiquée si le choix d’une façade légère est fait.

Techniques

Pour en savoir plus sur les caractéristiques du mur rideau: cliquez ici  !

Concevoir

Pour en savoir plus sur la conception du mur rideau: cliquez ici  !

Déterminer les performances thermiques à atteindre [Concevoir]

Déterminer les performances thermiques à atteindre [Concevoir]


La réglementation

Outre un niveau de performance global à atteindre (Kglobal et E), la PEB en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique Umax des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si une paroi n’est pas directement touchée par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (K).


Les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U est requis pour les parois délimitant le volume protégé. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde-fou que la Région a voulu imposer aux constructeurs.

L’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

On peut aujourd’hui aller plus loin dans l’isolation des parois sans pour autant générer de grandes modifications dans la technique de construction. On peut aussi vouloir atteindre certains labels qui donnent parfois droit à des subsides. A titre d’exemple, pour une certification « passive » une isolation des parois approchant un U de 0.15 W/m²K est recommandée.

Elle permet de satisfaire de manière plus aisée l’exigence de niveau d’isolation globale (K).
Quelques considérations complémentaires :

  • Souvent c’est une logique de rentabilité financière qui détermine l’épaisseur d’isolant mis en place. Si une logique de rentabilité écologique était prise, la lutte contre le CO2 nous pousserait vers une isolation plus forte !
  • Le prix de l’énergie sur lequel on détermine la rentabilité varie sans cesse mais la tendance est clairement à la hausse. Cette évolution doit donc être prise en compte dans l’évolution de la rentabilité. Si le litre de fuel est un jour à 3 €, la rentabilité de l’isolation ne sera même plus discutée !
  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau percé. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau. En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Pourquoi une isolation moins poussée sur le sol ?

En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.

Pourquoi une isolation plus poussée en toiture que dans les murs ?

Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en œuvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.


Épaisseur d’isolant

L’épaisseur d’isolant (ei) peut être calculée par la formule :

1/U = Rsi + e11 + eii + e22 + Rse

ei = λi [1/U – (Rsi + e11 + e22 + Rse)]

avec,

  • λi : le coefficient de conductivité thermique de l’isolant (W/mK),
  • U : le coefficient de transmission thermique de la paroi à atteindre (W/m²K),
  • Rse et Rsi : les résistances thermiques d’échange entre le mur et les ambiances extérieure et intérieure. Ils valent respectivement 0,04 et 0,13 m²K/W,
  • e1/λ1, e22 : la résistance thermique des autres couches de matériaux (m²K/W).

Dans le tableau ci-dessous, vous trouverez les épaisseurs minimales d’isolant à ajouter sur la face interne ou externe du mur plein pour obtenir différents coefficients de transmission.

Hypothèses de calcul :

  • Les coefficients de conductivité thermique (λ en W/mK) ou les résistances thermiques (Ru en m²K/W) des maçonneries utilisées et des isolants sont ceux indiqués dans l’annexe VII de l’AGW du 17 avril 2008.
  • La maçonnerie est considérée comme sèche et le coefficient de conductivité thermique de celle-ci correspond à celui du matériau sec. En effet, on a considéré que le mur isolé par l’intérieur ou par l’extérieur avait été protégé contre les infiltrations d’eau, comme il se doit.
  • La face intérieure de la maçonnerie est recouverte d’un enduit à base de plâtre d’1 cm d’épaisseur.

Remarques.

  • Lorsqu’on utilise un isolant disposant d’un agrément technique (ATG), on peut se fier au coefficient de conductivité thermique certifié par celui-ci; celui-ci est , en général, plus faible que celui indiqué dans dans l’annexe VII de l’AGW du 17 avril  2008 et on peut ainsi diminuer l’épaisseur d’isolant, parfois de manière appréciable.
  • Les épaisseurs calculées doivent être augmentées de manière à obtenir des épaisseurs commerciales.
  • A épaisseur égale et pour autant que l’isolant soit correctement mis en œuvre, la présence d’une lame d’air moyennement ventilée entre l’isolant et sa protection (enduit ou bardage), permet de diminuer le coefficient de transmission thermique U de 2,5 à 5 %.
Composition du mur plein Masse volumique (kg/m³) λ(W/mK) ou Ru (m²K/W) Épaisseur du mur plein (cm) Coefficient de transmission thermique du mur plein sans isolant (W/m²K) Épaisseur de l’isolant (en cm) à ajouter pour obtenir Umax :
Umax (W/m²K) Nature de l’isolant
MW/EPS XPS PUR/PIR CG
Maçonnerie de briques ordinaires

 

1 000 à 2 100

 

0.72

 

19

 

2.22

 

0.60 5.47 4.86 4.25 6.69
0.40 9.22 8.20 7.17 11.27
0.30 12.97 11.53 10.09 15.85
0.15 27.97 24.86 21.76 34.19
29

 

1.69

 

0.60 4.84 4.31 3.77 5.92
0.40 8.59 7.64 6.68 10.50
0.30 12.34 10.97 9.60 15.09
0.15 27.34 24.3 21.26 33.41
39

 

1.37

 

0.60 4.22 3.75 3.28 5.16
0.40 7.97 7.08 6.20 9.74
0.30 11.72 10.42 9.12 14.32
0.15 26.72 23.75 20.78 32.65
Maçonnerie de moellons

 

2 200

 

1.40

 

29

 

2.54

 

0.60 5.73 5.09 4.45 7.00
0.40 9.48 8.42 7.37 11.58
0.30 13.23 11.76 10.29 16.16
0.15 28.23 25.09 21.96 34.5
39

 

2.15

 

0.60 5.40 4.80 4.20 6.60
0.40 9.15 8.14 7.12 11.19
0.30 12.90 11.47 10.04 15.77
0.15 27.91 24.81 21.71 34.11
Blocs creux de béton lourd

 

> 1 200

 

0.11

 

14

 

3.36

 

0.60 6.16 5.48 4.79 7.53
0.40 9.91 8.81 7.71 12.12
0.30 13.66 12.14 10.63 16.70
0.15 28.66 25.48 22.29 35.03
0.14

 

19

 

3.06

 

0.60 6.03 5.36 4.69 7.37
0.40 9.78 8.69 7.60 11.95
0.30 13.53 12.02 10.52 16.53
0.15 28.53 25.36 22.19 34.87
0.20

 

29

 

2.58

 

0.60 5.76 5.12 4.48 7.04
0.40 9.51 8.45 7.39 11.62
0.30 13.26 11.78 10.31 16.20
0.15 28.26 25.12 21.98 34.53
Blocs de béton mi-lourd

 

1 200 à 1 800

 

0.75

 

14

 

2.67

 

0.60 5.82 5.17 4.52 7.11
0.40 9.57 8.50 7.44 11.69
0.30 13.32 11.84 10.36 16.28
0.15 28.31 25.17 22.02 34.61
19

 

2.27

 

0.60 5.52 4.90 4.29 6.74
0.40 9.27 8.24 7.21 11.33
0.30 13.02 11.57 10.12 15.91
0.15 28.02 24.90 21.79 34.24
29

 

1.74

 

0.60 4.92 4.37 3.82 6.01
0.40 8.67 7.70 6.74 10.59
0.30 12.42 11.04 9.66 15.18
0.15 27.41 24.37 21.32 33.51
Blocs de béton moyen

 

900 à  1 200

 

0.40

 

14

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
19

 

1.51

 

0.60 4.52 4.02 3.52 5.52
0.40 8.27 7.35 6.43 10.11
0.30 12.02 10.68 9.35 14.69
0.15 27.02 24.02 21.02 33.02
29

 

1.10

 

0.60 3.39 3.02 2.64 4.15
0.40 7.14 6.35 5.56 8.73
0.30 10.89 9.68 8.47 13.32
0.15 25.91 23.03 20.15 31.67
Blocs de béton léger

 

600 à 900

 

0.30

 

14

 

1.53

 

0.60 4.56 4.05 3.54 5.57
0.40 8.31 7.38 6.46 10.15
0.30 12.06 10.72 9.38 14.74
0.15 27.06 24.05 21.05 33.07
19

 

1.22

 

0.60 3.81 3.38 2.96 4.65
0.40 7.56 6.72 5.88 9.24
0.30 11.31 10.05 8.79 13.82
0.15 26.31 23.39 20.46 32.16
29

 

0.87

 

0.60 2.31 2.05 1.79 2.82
0.40 6.06 5.38 4.71 7.40
0.30 9.81 8.72 7.63 11.99
0.15 24.83 22.07 19.31 30.34
Blocs creux de béton léger

 

< 1 200

 

0.30

 

14

 

2.05

 

0.60 5.31 4.72 4.13 6.49
0.40 9.06 8.05 7.04 11.07
0.30 12.81 11.38 9.96 15.65
0.15 27.8 24.72 21.63 33.98
0.35

 

19

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
0.45

 

29

 

1.57

 

0.60 4.63 4.12 3.60 5.66
0.40 8.38 7.45 6.52 10.25
0.30 12.13 10.78 9.44 14.83
0.15 27.13 24.12 21.10 33.16
Blocs de béton très léger

 

< 600

 

0.22

 

14

 

1.21

 

0.60 3.79 3.37 2.95 4.64
0.40 7.54 6.71 5.87 9.22
0.30 11.29 10.04 8.78 13.80
0.15 26.28 23.36 20.44 32.12
19

 

0.95

 

0.60 2.77 2.46 2.16 3.39
0.40 6.52 5.80 5.07 7.97
0.30 10.27 9.13 7.99 12.55
0.15 25.26 22.46 19.65 30.88
29

 

0.66

 

0.60 0.73 0.65 0.56 0.89
0.40 4.48 3.98 3.48 5.47
0.30 8.23 7.31 6.40 10.05
0.15 23.18 20.61 18.03 28.33
Blocs de béton cellulaire

 

< 500

 

0.18

 

15

 

0.98

 

0.60 2.91 2.58 2.26 3.55
0.40 6.66 5.92 5.18 8.14
0.30 10.41 9.25 8.09 12.72
0.15 25.41 22.59 19.76 31.05
20

 

0.77

 

0.60 1.66 1.47 1.29 2.03
0.40 5.41 4.81 4.21 6.61
0.30 9.16 8.14 7.12 11.19
0.15 24.16 21.47 18.79 29.52
30

 

0.54

 

0.60
0.40 2.91 2.58 2.26 3.55
0.30 6.66 5.92 5.18 8.14
0.15 21.67 19.26 16.85 26.48
Blocs de terre cuite lourds

 

1 600 à 2 100

 

0.90

 

14

 

2.92

 

0.60 5.96 5.30 4.63 7.28
0.40 9.71 8.63 7.55 11.86
0.30 13.46 11.96 10.47 16.45
0.15 28.46 25.3 22.13 34.78
19

 

2.51

 

0.60 5.71 5.07 4.44 6.98
0.40 9.46 8.41 7.36 11.56
0.30 13.21 11.74 10.27 16.14
0.15 28.21 25.07 21.94 34.48
29

 

1.96

 

0.60 5.21 4.63 4.05 6.36
0.40 8.96 7.96 6.97 10.95
0.30 12.71 11.30 9.88 15.53
0.15 27.70 24.63 21.55 33.86
Blocs de terre cuite perforés

 

1 000 à 1 600

 

0.54

 

14

 

2.24

 

0.60 5.49 4.88 4.27 6.71
0.40 9.24 8.21 7.19 11.29
0.30 12.99 11.55 10.10 15.88
0.15 27.99 24.88 21.77 34.21
19

 

1.86

 

0.60 5.07 4.51 3.95 6.20
0.40 8.82 7.84 6.86 10.79
0.30 12.57 11.18 9.78 15.37
0.15 27.58 24.52 21.45 33.71
29

 

1.38

 

0.60 4.24 3.77 3.30 5.18
0.40 7.99 7.10 6.22 9.77
0.30 11.74 10.44 9.13 14.35
0.15 26.74 23.77 20.80 32.68
Blocs de terre cuite perforés

 

700 à 1 000

 

0.27

 

14

 

1.42

 

0.60 4.32 3.84 3.36 5.29
0.40 8.07 7.18 6.28 9.87
0.30 11.82 10.51 9.20 14.45
0.15 26.83 23.85 20.87 32.79
19

 

1.12

 

0.60 3.49 3.10 2.72 4.27
0.40 7.24 6.44 5.63 8.85
0.30 10.99 9.77 8.55 13.43
0.15 25.98 23.10 20.21 31.76
29

 

0.79

 

0.60 1.82 1.62 1.42 2.23
0.40 5.57 4.95 4.34 6.81
0.30 9.32 8.29 7.25 11.40
0.15 24.30 21.60 18.90 29.70
Blocs silico-calcaire creux

 

1 200 à 1 700

 

0.60

 

14

 

2.38

 

0.60 5.61 4.98 4.36 6.85
0.40 9.36 8.32 7.28 11.44
0.30 13.11 11.65 10.19 16.02
0.15 28.11 24.99 21.86 34.36
19

 

1.98

 

0.60 5.23 4.65 4.07 6.40
0.40 8.98 7.98 6.99 10.98
0.30 12.73 11.32 9.90 15.56
0.15 27.73 24.65 21.57 33.89
29

 

1.49

 

0.60 4.48 3.98 3.49 5.48
0.40 8.23 7.32 6.40 10.06
0.30 11.98 10.65 9.32 14.65
0.15 26.98 23.98 20.98 32.98

Source : Isolation thermique des murs pleins réalisée par le CSTC à la demande de la DGTRE.

Il est également possible d’utiliser le fichier Excel pour calculer le U d’une paroi en contact avec l’extérieur.

Compter l’énergie thermique

Compter l'énergie thermique


Principe

La mesure de l’énergie calorique nécessite le placement :

  • D’un compteur de passage d’eau chaude de manière à mesurer le débit. Ce débitmètre peut être « invasif » (il s’insère dans le circuit hydraulique), ou « non invasif » (à ultrason) qui ne nécessite pas de coupure du circuit hydraulique.
  • De deux sondes de température (au niveau du départ et du retour de la production de chaleur).
  • D’un intégrateur avec une connexion éventuelle vers une gestion technique centralisée (GTC).

Le placement d’un compteur d’énergie dans une installation existante n’est pas toujours aisé pour diverses raisons :

  • D’une part, l’interruption du système de chauffage pour insérer un compteur de passage ne peut, dans certains cas, se réaliser qu’en dehors de la période de chauffe.

Principe de comptage (source : MeterBuy).

Calcul de l’énergie

Le comptage de chaleur et/ou du froid ou la détermination de l’énergie calorifique se base sur la formule suivante :

Énergie = Volume [m³] x (Taller – Tretour) [K] x K [kWh/(m³.K)]

Où :

  • K = coefficient d‘enthalpie (fonction de la température et de la pression du liquide caloporteur) (capacité thermique volumique).

Par exemple : pour une pression de 8 bars, une température d’eau de départ de tdépart = 70 °C et une température de retour de tretour = 30 °C le coefficient K est de 1.1566 kWh/(m³K)


Composants d’un système de comptage d’énergie thermique

Débimètre d’eau

Les compteurs peuvent être de type « mécanique ». Simplement, une hélice tourne lorsqu’il y a un débit de passage. On retrouve principalement des compteurs :

>  à hélice à axe horizontal ;

   

Hélice à axe horizontal.

> à hélice à axe vertical ;

  

Hélice à axe vertical.

Compteur à ultrason

  

Système ultrasonique.

Ce type de compteur fonctionne suivant le principe de la mesure aux ultrasons. Le débit est mesuré avec une très grande précision en comparant les temps de parcours des signaux à ultrasons dans le sens de l’écoulement et à contre-courant tout en tenant compte de la variabilité thermique. Pour les auditeurs (mesures ponctuelles), des compteurs de passage « non invasifs » permettent de mesurer les débits sans devoir « couper » les tuyaux. Néanmoins, ce genre d’appareil peut engendrer des erreurs de mesure assez importantes, si les sonotrodes sont mal couplées à la tuyauterie et/ou les caractéristiques de la tuyauterie sont inexactes (mauvais diamètre ou épaisseur de paroi, encrassement des parois internes, …).

Il est de plus, nécessaire de disposer, pour les compteurs ultrasoniques, de portion droite au niveau du circuit hydraulique sous peine de fausser l’acquisition du débit (perturbation de la mesure par des interférences dues aux coudes par exemple).

Schéma de compteurs ultrasoniques - bon.  Schéma de compteurs ultrasoniques - mauvais.

Sonde de température

Les sondes de température sont en général des PT100 ou PT500.

Calculateur-intégrateur (électronique de comptage)

Le calculateur-intégrateur de comptage permet, sur base des informations fournies par les débimètres (m³/h ou litre/s) et les sondes de température, de calculer les puissances (kW) et l’énergie thermiques (kWh).

Compteurs d’énergie thermique compacts

Des compteurs d’énergie compacts peuvent être utilisés afin d’assurer la répartition des charges dans un immeuble composé d’espaces locatifs de faible surface. Ces compteurs intègrent dans un même ensemble le débitmètre, les sondes de températures et le calculateur. Ils existent tant avec une technologie de mesure mécanique que par ultrasons.

Compteur statique à ultrasons.

Compteur compact.

Interfaçage avec une gestion technique centralisée

Ce type de compteur peut-être interfacé, via des réseaux de communication, à une Gestion Technique Centralisée (GTC) et ce afin d’exploiter les mesures à distance. L’interfaçage est réalisé suivant des protocoles connus comme :

  • M-Bus ;
  • Modbus ;
  • LON ;
  • BACnet ;

Norme et classes de précision

Les compteurs doivent impérativement répondre à la norme EN 1434-1 (classe de précision). Ils devront aussi avoir la conformité MID (Measuring Instruments Directive).
Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Régulation d’un ensemble chaudière/cogénérateur

Régulation d'un ensemble chaudière/cogénérateur


Régulation d’ensemble

Ordre de priorité

Monotone de chaleur.

Dans l’association d’une cogénération avec une ou plusieurs chaudières, l’objectif, comme on l’a déjà précisé, est que la cogénération fonctionne un maximum d’heures sur l’année. Elle devrait donc être « en tête » de cascade ! Attention toutefois qu’une cogénération ne peut, en général, moduler qu’entre 60 et 100 %  de son taux de charge thermique.

En supposant que l’étude donne un dimensionnement de la puissance du cogénérateur de l’ordre de 40 % de la puissance totale nécessaire au bâtiment, il ne pourra moduler qu’entre une valeur de 24 à 40 % de la puissance totale. Sous les 24 % de puissance, si la cogénération est mise en tête de cascade, elle va commencer à « pomper » avec pour effet d’accentuer son vieillissement prématuré, car elle ne supporte pas les séquences répétées marche/arrêt.

Zone 1

En réalité, pour un besoin inférieur à 24 % de la puissance totale, ce sont les autres chaudières qui doivent être en « tête » de cascade. Si la chaufferie est équipée d’une chaudière à condensation, pour autant qu’elle soit dans de bonnes conditions de condensation, c’est elle qui doit assurer le besoin de chaleur. Avec sa capacité à moduler de 10 % à 100 % de son taux de charge, avec un excellent rendement à faible charge, la chaudière à condensation est tout indiquée.

Zone 2

Dans la plage de 24 à 40 % de la puissance totale nécessaire, la cogénération doit fonctionner en priorité. Une régulation mal réglée peut être à l’origine de l’arrêt prolongé ou du « pompage » de la cogénération ; ce qui n’est pas le but recherché.

Zone 3

Pendant les périodes de grands froids, la cogénération ne sera pas suffisante pour assurer les besoins de chaleur du bâtiment considéré. Il sera nécessaire de lui adjoindre une chaudière afin de lui donner le « coup de pouce sauveur ». Cette opération est délicate en fonction du type de chaudière qui vient faire l’appoint. Un développement trop important de puissance de la part de la chaudière peut faire en sorte que la cogénération s’arrête voire pire qu’elle commence à « pomper » (marche/arrêt intempestifs à faible charge). Pour cette plage de fonctionnement, il sera nécessaire, si possible, de piloter les chaudières en puissance de manière à éviter de démarrer :

  • une chaudière classique avec brûleur à 2 allures en grande flamme ;
  • une chaudière plus récente avec brûleur modulant à 100 % de taux de charge.
Exemple

Situation avant :

  • un besoin thermique maximum de 600 kW ;
  • deux chaudières classiques HR de 300 kW chacune.

La configuration suivante est envisagée :

  • Une des deux chaudières est remplacée par une chaudière à condensation sans réduction de puissance par rapport à l’ancienne chaufferie. La chaudière à condensation peut moduler de 10 à 100 % de sa puissance nominale.
  • Une cogénération de 200 kW thermique équipée d’un ballon tampon est sélectionnée par l’étude de faisabilité. La cogénération peut moduler de 60 à 100 % de sa puissance thermique nominale.

Le graphique suivant donne un aperçu d’un type de régulation réalisable :

Cette régulation intelligente tente de maintenir les différents équipements de production de chaleur à leur meilleure efficacité énergétique optimale, à savoir :

  • De 0 à 24 % du besoin de chaleur : la chaudière à condensation module de 5 à 24 % du besoin total de chaleur (soit 10 à 48 % de son taux de charge). Dans cette plage, le rendement de la chaudière peut atteindre au mieux de l’ordre de 107 % sur PCI.
  • De 24 à 40 % du besoin de chaleur : la cogénération module de 60 à 100 % de son taux de charge.
  • De 40 à 90 % du besoin de chaleur : la cogénération est à 100 % de sa charge soit à son meilleur rendement (cogénération de qualité) et la chaudière à condensation module de 10 % à 100 % de son taux de charge.
  • De 90 à 100 % du besoin de chaleur : la cogénération et la chaudière à condensation restent à 100 % de leur taux de charge tandis que la chaudière existante donne le complément de chaleur pendant quelques heures par an, ce qui n’affecte que très peu le rendement saisonnier de l’ensemble des deux chaudières.

On notera ici toute l’importance du ballon tampon qui permet :

  • De réduire la puissance thermique de la cogénération.
  • D’éviter les cycles courts ou le pompage de la cogénération. De cette manière, on prolonge aussi la durée de vie de la cogénération sachant qu’elle est, non seulement liés au nombre d’heures de fonctionnement, mais aussi au nombre de démarrages.

Comment assurer la régulation d’ensemble ?

En réalité, la régulation ne doit pas être une « usine à gaz ».

Ce qui nous intéresse ici, sur base d’un ensemble d’équipements de production de chaleur, c’est de  « sélectionner le bon équipement au bon moment » en partant toujours de l’idée de choisir l’équipement qui donnera la meilleure performance énergétique à l’ensemble.

Voici un type de régulation d’ensemble qui pourrait être proposé.

Schéma de régulation ensemble chaudière(s)/cogénération.
Source Vadémécum : réussir l’intégration de l’hydraulique et de la régulation d’une cogénération dans une chaufferie, facilitateur cogénération 2014.

Chaque unité de production de chaleur ayant sa propre régulation interne, la complexité réelle de la régulation reste interne aux unités. Une régulation d’ensemble cohérente doit de plus être assurée de manière à ce que les équipements communiquent un minimum entre eux.

Il est donc nécessaire qu’un des régulateurs des chaudières puisse superviser le cogénérateur. Le superviseur peut par exemple être le régulateur d’une nouvelle chaudière à condensation.

Pour en savoir plus, le facilitateur Cogénération pour la Wallonie a publié un vadémécum « Réussir l’intégration de l’hydraulique et de la régulation d’une cogénération dans une chaufferie ». Il est disponible ici.

Techniques


Régulation interne de la cogénération

Le nombre d’heures de fonctionnement et le nombre de démarrages de la cogénération associée à un ballon tampon peut être influencé par la régulation :

  • du taux de charge du cogénérateur par rapport à sa puissance thermique nominale et au besoin de chaleur total ;
  • du taux de charge du ballon tampon.

Taux de charge du cogénérateur

La régulation interne du cogénérateur peut être réalisée selon le rapport entre le besoin instantané de chaleur (en kWth) et la puissance thermique nominale de la cogénération en dessous duquel la cogénération reste à l’arrêt. Pratiquement, cette régulation s’exprime par sa capacité à gérer la modulation de puissance de la cogénération. Une cogénération classique peut en général avoir une modulation de puissance entre 60 et 100 %.

Exemple

Soit :

  • une cogénération de 300 kW thermique ;
  • un rapport : besoin de chaleur/puissance nominale de la cogénération de 60 %.

A l’instant t, la cogénération est à l’arrêt. La cogénération redémarrera lorsque le besoin thermique sera de 300 x 0.6 = 180 kW.

Sur base de différentes simulations effectuées avec CogenSim, on peut montrer l’influence de ce type de régulation.

Les hypothèses sont les suivantes :

  • Les profils de chaleur et d’électricité sont ceux donnés par défaut dans CogenSim.
  • Plage de modulation de la cogénération : 100 à 60 %.
  • Le taux de charge maximum du ballon en dessous duquel la cogénération module dans sa plage de modulation : 60 %.
  • Le taux de charge minimum du ballon à partir duquel la cogénération redémarre : 40 %.

Dans les simulations on fait varier le rapport besoin thermique/puissance cogénérateur, soit 60 et 90.

Temps de fonctionnement (heures/an) Nombre de démarrages annuel
Taux de charge du cogénérateur (%) 0-39 40-49 50-59 60-69 70-79 80-89 90-99 100
Besoin/puissance cogénération
60% 1261 169 479 387 5714 21
90% 653 77 470 387 5709 1

 

On constate que :

  • Cette régulation permet de « grappiller » quelques heures de fonctionnement lorsqu’on dispose d’une cogénération qui peut démarrer à un taux de charge de 60 %.
  • Attention, cependant, que le nombre de démarrage augmente légèrement lorsqu’on passe de 90 à 60 %, ce qui sollicite le cogénérateur en accélérant son vieillissement.

Taux de charge du ballon

En dessous d’une certaine valeur de taux de charge maximum, la cogénération module en puissance. Plus ce taux de charge maximum est élevé, plus la cogénération commence à « pomper » (marche/ arrêt important). Ce qui nuit naturellement à longévité du cogénérateur.

Exemple

Les simulations sont de nouveau effectuées avec CogenSim.

Les hypothèses sont les suivantes :

  • La puissance thermique du cogénérateur : 300 kW thermiques.
  • La plage de modulation de la cogénération : 100 à 60 %.
  • Le rapport besoin de chaleur/puissance cogénérateur en dessous duquel la cogénération module en puissance : 60 %.
  • Le taux de charge minimum du ballon à partir duquel la cogénération redémarre : 40 %.

Dans les simulations on fait varier le taux de charge maximum du ballon en dessous duquel la cogénération module dans sa plage de modulation, soit 60 et 90 %.

Temps de fonctionnement (heures/an) Nombre de démarrages par an
Taux de charge du cogénérateur (%) 0-39 40-49 50-59 60-69 70-79 80-89 90-99 100
Taux de charge max du ballon à partir duquel la cogénération module (100 à 60 %)
60% 1261 169 479 387 5714 21
90% 789 117 464 338 6158 593

On constate que choisir un taux de charge maximum du ballon pas trop élevé (autour des 60 %) permet :

  • D’augmenter le nombre d’heures de fonctionnement du cogénérateur. En fait, la cogénération module beaucoup rapidement sa puissance par rapport aux besoins de chaleur au travers du ballon en « épousant » mieux le profil du besoin.
  • De réduire le nombre de démarrages de manière draconienne, ce qui allonge la durée de vie du cogénérateur.

Régulation individuelle des chaudières par rapport à la cogénération

Lorsqu’une ou plusieurs chaudières existantes sont en appoint de la cogénération, les régulations individuelles de chaque chaudière doivent être adaptées par rapport au cogénérateur. Souvent, on observera que lorsque le besoin de chaleur devient supérieur à la puissance thermique des cogénérateurs, on démarre une chaudière d’appoint sans modulation de puissance au niveau du brûleur. Le « boost » de puissance de la chaudière va tout de suite « affoler » la régulation du cogénérateur qui risque de s’arrêter rapidement. Il en résulte un risque non négligeable de « pompage » de la cogénération  altérant ainsi :

  • la rentabilité de la cogénération ;
  • la durée de vie de la cogénération tout en augmentant le risque de panne.

Immanquablement, la chaudière d’appoint devra démarrer, pour les anciens modèles en petite flamme et pour les modèles récents au minimum de la plage de modulation (à 10 % pour une chaudière à condensation par exemple).

Choisir une PAC en fonction de la performance de l’enveloppe

Choisir une PAC en fonction de la performance de l'enveloppe


Stratégie de chauffage et de refroidissement

Lorsque la performance de l’enveloppe d’un bâtiment augmente, pour une même surface nette ou un même volume de bâtiment, la quantité d’énergie nécessaire au chauffage devient faible.

« On peut passer d’une valeur de 200 kWh/m².an à 15 kWh/m².an lorsqu’on tend vers un bâtiment passif ! ».

Source : PMP (Plateforme Maison Passive).

De même, la puissance à mettre à disposition pour assurer les besoins de chaleur du bâtiment se voit réduite de manière significative.

« Les puissances mises en jeu pour combattre les déperditions au travers des parois et par ventilation et pour assurer la relance en cas d’intermittence (ou ralenti nocturne), passent de l’ordre de 70 W/m³ à 20 W/m³ voire moins encore ! ».

Le renforcement de l’isolation et de l’étanchéité d’un bâtiment interagit donc sur la puissance du système de chauffage. À première vue, pour autant que les fabricants de systèmes de chauffage  puissent proposer des équipements de faible puissance, il n’y a pas de restriction quant au choix de tel ou tel type de système de chauffage par rapport à la puissance.

Cependant, si le concepteur n’y prend pas garde, l’isolation d’un bâtiment n’engendre pas seulement que des réductions des besoins de chauffage. Il risque de générer aussi une augmentation des besoins de rafraichissement. D’un point de vue énergétique, si c’est le cas, il est primordial de produire du froid gratuitement ou à peu près !

La manière de produire le plus écologiquement du froid dans notre bonne Belgique est de faire appel au « free cooling » par ventilation naturelle. Ce n’est pas toujours possible !

En effet :

  • Le confort, dans certains cas, ne peut pas être assuré en permanence. On image difficilement qu’une chambre d’isolé dans un hôpital, de surcroit occupée la nuit, puisse être ventilée naturellement.
  • Certains maîtres d’ouvrage ne voient pas d’un bon œil de laisser des fenêtres ouvertes la nuit par souci de sécurité (même grillagée).
  • Les coûts d’une automatisation des systèmes d’ouvertures risquent d’être importants.
  • La régulation des systèmes d’ouverture n’est pas toujours évidente.

Le choix du « géocooling » comme moyen de refroidissement naturel s’impose donc. Cela tombe bien puisqu’avec le même système, on pourra produire du chaud par « géothermie » et du froid par « géocooling ». En effet, par le choix d’une pompe à chaleur géothermique eau/eau, réversible ou pas suivant le besoin de froid, on peut envisager la stratégie suivante :

  • En hiver,  la chaleur sera « pompée » du sol par la pompe à chaleur en travaillant en mode « chaud », le sol se refroidissant par la même occasion.
  • En été, le froid accumulé en hiver sera extrait du même sol soit par la pompe à chaleur travaillant en mode froid, soit par 2 pompes de circulation permettant de travailler de manière satisfaisante au niveau énergétique (c’est la seule consommation des pompes qui permet de refroidir le bâtiment).

Cependant, le choix de la géothermie, comme source froide pour des bâtiments à forte isolation, est dépendant aussi de l’équilibre entre les besoins de chaud et de froid de l’immeuble.
Un bâtiment en demande de chaleur :

  • Qui nécessite peu de besoins de froid sous forme de « géocooling », ne permettra pas de recharger le sol en chaleur en été. Il s’en suivra, dans certains cas, d’un appauvrissement de la capacité du sol à fournir de la chaleur. Dans certaines études (simulation PileSim), on remarque qu’après 15 à 20 ans, la température du sol reste très basse. Dans ces conditions, l’énergie du sol sera plus difficilement exploitable. Si c’est possible, le refroidissement pourra être pris en charge par un système de « free-cooling » de nuit sur l’air par exemple.
  • Équilibré par la même demande en refroidissement permettrait de pérenniser la source froide.

En pratique, un équilibre 50/50 entre les besoins de chaud et de froid permettra de garantir une géothermie optimale à long terme.


Influence sur le choix du type de source froide et son dimensionnement

Pour une même emprise au sol, un bâtiment tertiaire dont l’enveloppe est performante est moins gourmand en besoin de chauffage qu’un bâtiment de type « passoire ». Par conséquent, il « pompera » moins d’énergie à la source froide.

Source froide : l’air ou aérothermie

L’air est en quantité « infinie » autour du bâtiment ; ce qui signifie que l’influence du niveau d’isolation du bâtiment sur le choix de l’air comme source froide reste faible. Bien que ! Si on pousse le raisonnement à l’absurde, une concentration de bâtiments peu isolés dont le choix de leur système de chauffage se porterait sur une PAC air/eau par exemple, contribuerait à créer un micro climat plus froid qu’il ne serait si les bâtiments étaient peu isolés.

Donc, la performance de l’enveloppe du bâtiment influence l’air comme source froide, mais il faut pousser le raisonnement très loin !

Pour un bâtiment bien isolé, la taille de l’évaporateur pourra être plus petite. Attention toutefois que les évaporateurs sont une source de nuisance sonore dont il faudra tenir compte.

Source froide : le sol ou géothermie

Le sol est une ressource limitée en quantité et en temps. Pour des bâtiments peu « déperditifs », la géothermie peut être intéressante dans le sens où, pour une même empreinte au sol du bâtiment, plus celui-ci est isolé :

  • Moins il sera gourmand en puissance disponible et plus petite sera l’installation de géothermie.
  • Plus grande sera la disponibilité d’énergie dans le sol.

Influence de la performance du bâtiment sur la source froide géothermique.

L’augmentation de la performance de l’enveloppe d’un bâtiment permet de mieux exploiter un même volume de sol, c’est vrai ! Mais il est nécessaire de tenir compte comme décrit ci-avant de l’équilibre entre les besoins de chaleur et les besoins de refroidissement.

Une fois n’est pas coutume, c’est la source froide qui risque de conditionner le niveau d’isolation de l’enveloppe du bâtiment !

En effet :

  • Une enveloppe de bâtiment très performante entraine un déséquilibre entre les besoins Chaud/froid en faveur du besoin de froid : la source froide risque de se réchauffer au cours des années. Il s’ensuit une interrogation au niveau de l’écologique, de l’autorisation d’exploiter le sol, …
  • Une enveloppe de bâtiment peu performante inverse la tendance : la source froide se refroidit.

Il n’est donc pas dit, avec une technologie comme la géothermie, que le renforcement à outrance de la performance de l’enveloppe du bâtiment soit l’idéal. Comme tout est une question de compromis, dans ce cas particulier, on ne visera pas nécessairement le passif voire mieux. Mais c’est du cas par cas !

Un bureau d’étude spécialisé permettra, par simulation thermique dynamique, de trouver le réel équilibre pour optimiser l’exploitation de la géothermie. On en tiendra compte dès l’avant projet du bâtiment.

Source froide : l’eau ou hydrothermie

Tout comme le sol, l’eau comme source froide (hydrothermie) est une ressource limitée qui dépend, entre autres, du débit de renouvellement du volume d’eau pris comme source froide (plan d’eau, …). Le fait de rendre les bâtiments performants permettra de disposer d’une source froide de taille plus petite (le lac de Genval plutôt que l’Eau d’heure par exemple). Cependant, s’il existe un besoin de refroidissement du bâtiment, l’eau devra être en mesure d’absorber la chaleur extraite du bâtiment par le système de pompe à chaleur réversible. Ceci implique qu’en été :

  • le débit de renouvellement de la source froide soit suffisant ;
  • les réglementations en vigueur permettent un rejet de chaleur à température plus élevée que la température moyenne de la source froide.

Influence sur le choix du type de source chaude et son dimensionnement

Régime de température

Les émetteurs à eau

Pour une même volumétrie des locaux dans un bâtiment bien isolé, la puissance d’émission nécessaire sera plus faible. On pourra donc prévoir un régime de température plus faible, et par conséquent la performance énergétique de la PAC associée pourra être améliorée (de l’ordre de 3 % par °C de température de  gagné).

Exemple

On considère que la température de l’eau au niveau du condenseur se situe entre 35 et 45 °C pour – 8 °C extérieur dans le cas d’un bâtiment K45. Si on décide d’opter pour la conception d’un bâtiment plus performant (basse énergie ou passif), on pourrait avantageusement passer à des températures de condensation entre 25 et 30°C, soit un gain théorique de l’ordre de 30 % des consommations énergétiques.

Les émetteurs à air

Tout dépend du type d’émetteur :

  • En détente directe sur l’air hygiénique, les températures de condensation risque de devoir être aussi hautes que pour un bâtiment non isolé sachant que c’est de l’air externe que l’on réchauffe. Dans ce cas, le niveau de performance de l’enveloppe du bâtiment ne joue pas.
  • Pour des ventilo-convecteur à eau, cela revient au même que pour les radiateurs classiques : les températures de condensation seront sensiblement les mêmes (entre 25 et 30 °C par – 8 °C extérieur).

Inertie de l’émetteur

Dans un bâtiment dont l’enveloppe est performante, la faible inertie de l’émetteur est primordiale. En effet, en mi-saison, la surchauffe risque d’être dommageable si l’inertie de l’émetteur est importante. En effet, en cas de nuit froide, la dalle se chargera pour anticiper la journée qui suit. Malheureusement, le stockage de chaleur risque de ne servir à rien si les apports solaires pendant la journée sont élevés. La combinaison des apports solaires au travers des parois vitrées et des apports internes générés par la dalle de sol chauffante ne peuvent être évacués. Il s’ensuit une surchauffe importante des locaux.

Pour pallier à ce problème, on pense, par exemple, au plancher chauffant qui doit nécessairement être à faible inertie. L’émetteur dynamique à faible inertie, comme montré ci-dessous, permet de bien répondre aux besoins de réactivité d’un bâtiment performant. Tout dépendra naturellement du type de revêtement qui sera placé en finition au-dessus du plancher chauffant. Un matériau thermiquement isolant impliquera une augmentation de la température de l’eau de l’émetteur entrainant une dégradation de la performance de la pompe à chaleur. On rappelle qu’une augmentation de 1 °C de la température de condensation de la PAC entraine une dégradation de sa performance de l’ordre de 3 %.

Schéma principe du plancher chauffant.

Photo plancher chauffant.

Source Opal-système.


Influence sur le choix du type de compresseur

Les bâtiments qui présentent un niveau d’isolation important permettront le choix de pompe à chaleur de puissance raisonnable dans une gamme plus élargie. Au point que pour certains bâtiments tertiaires de petite taille, on pourrait même envisager d’étendre la gamme aux pompes à chaleur domestiques.

Quand on est en présence d’un bâtiment performant, le système de chauffage, quel qu’il soit, doit être très réactif à la relance et pouvoir moduler sur une plage de puissance large. On considère que la plage de variation de puissance des PAC (taux de charge) peut raisonnablement varier entre 30 et 100 %. L’idéal est donc de choisir des pompes à chaleur avec compresseur à vitesse variable (technologie INVERTER).

Concevoir une installation de cogénération avec une ou des chaudières à condensation

Concevoir une installation de cogénération avec une ou des chaudières à condensation


Besoins thermiques et électriques d’un bâtiment moderne

Besoins thermiques

La conception des bâtiments modernes n’a plus rien à voir avec nos chères constructions « passoires ». La venue de la PEB  bouleverse nos habitudes de constructions ; cela va dans le sens où les besoins thermiques diminuent fortement.

Les profils de chaleur évoluent aussi ! Il suffit d’analyser deux monotones de chaleur pour s’en convaincre. On se réfère à deux bâtiments de volume différent, mais ayant le même besoin de puissance de chauffe :

  • l’un, de grand volume est bien isolé et d’étanchéité correcte ;
  • l’autre de volume moyen est de type « passoire ».

Les monotones de chaleur sont représentées ci-dessous :

Schéma monotone de chaleur 01.

Bâtiment type passoire.

Bâtiment performant.

Le besoin de chaleur en puissance est représenté par la courbe et en énergie par l’aire sous la courbe. Les surfaces de couleur matérialisent le besoin de chaleur qui pourrait être pris en charge par une unité de cogénération. En comparant les deux aires de couleur, on se rend compte que :

  • Pour une même puissance de dimensionnement de cogénération, la prise en charge du besoin de chaleur par la cogénération dans un bâtiment énergétiquement performant est beaucoup plus faible.
  • Pour un même investissement, la production de chaleur et, par conséquent, d’électricité est moindre.

Il s’en suit qu’à puissance de cogénération égale, on observe une diminution de la rentabilité énergétique, environnementale et financière.
A méditer !

Comment déterminer les besoins de chaleur ?

Partir d’une feuille blanche pour envisager l’association d’une cogénération et de chaudières à condensation n’est pas nécessairement plus aisé qu’en rénovation. En effet, les profils de consommations de chaleur ne sont pas connus. Dès lors, il est impératif de déterminer ces profils de manière précise. Les simulations thermiques dynamiques peuvent aider le concepteur à établir ces besoins de chaleur en fonction :

  • des caractéristiques du bâtiment (volumétrie, orientation, composition des parois, inertie accessible, …) ;
  • des types et scénarios d’occupation (horaires, nombre de personnes, …) déterminant les consignes de température, les apports internes, … ;
  • du climat dans lequel le bâtiment se trouve (température, humidité, ensoleillement, vent, …) permettant d’évaluer les échanges thermiques du bâtiment avec l’extérieur, les apports solaires au travers des baies vitrées, …) ;
  •   …

Pour réaliser ce genre d’étude, il faut s’adresser à un bureau d’étude spécialisé qui établira un profil de besoins tel que celui exposé ci-après :

Profil de besoin de chaleur et de refroidissement en fonction de la température externe
(simulation type TRNSYS).

Profil annuel des besoins de chaleur et de refroidissement
(simulation type TRNSYS).

Comment déterminer les besoins d’électricité ?

Pour déterminer les besoins d’électricité, il existe des ratios relativement fiables. Une difficulté majeure dans l’établissement d’un profil de besoins électriques est d’imaginer les scénarios de commande et de régulation des équipements électriques. On donne comme exemple les variations des consommations électriques :

  • des luminaires en fonction de l’apport de lumière naturelle et d l’occupation ;
  • des ventilateurs de ventilation hygiéniques en fonction de la qualité de l’air ;
  • des ascenseurs en fonction du trafic ;
  • des process éventuels en fonction du « taux de charge » de la chaîne de production ;
  • des groupes de climatisations en fonction du climat et des apports internes ;
  •  …

Besoin d’électricité.

Profil de besoin électrique reconstitué à partir d’un scénario théorique.


Intérêt énergétique, environnemental et financier de l’association

Pour rappel, que ce soit en amélioration ou en conception, la cogénération est juste là pour produire un maximum d’énergie thermique et électrique locale sur base d’un profil de chaleur. L’appoint en chauffage, comme des chaudières à condensation, n’est là que pour :

  • prendre le relais en mi-saison lorsqu’on décide de ne pas faire fonctionner la cogénération ;
  • donner un « coup de pouce » en termes de puissance pendant les périodes froides ;
  • palier à une défectuosité de la cogénération.

Scénario de départ

Le gestionnaire d’un parc immobilier a décidé, pour son nouveau bâtiment de placer deux chaudières à condensation.

Mais aurait-il un intérêt à investir dans une cogénération ?

Avant de se lancer dans une entreprise de combinaison d’une cogénération avec une ou plusieurs chaudières à condensation, il est impératif de savoir s’il existe un intérêt énergétique, environnemental et financier réel à les associer. En d’autres termes :

> Vaut-il mieux se contenter :

  • de placer uniquement des chaudières à condensation  et d’optimiser l’installation tant au niveau hydraulique qu’au niveau de la régulation du système de chauffage, et ce dans le but d’optimiser uniquement le rendement saisonnier de la chaufferie ?
  • ou de continuer à « importer » de l’électricité à partir du réseau ?

> Ou faut-il viser directement l’association des chaudières avec un cogénérateur en considérant que sur site :

  • la cogénération consomme plus de combustible pour chauffer le bâtiment  et produire de l’électricité en local  ?
  • les chaudières consomment un solde de combustible lorsque la cogénération ne « tourne pas » ?
  • le réseau fournit le solde de besoin d’électricité ?

Dans ce qui suit on tente d’y répondre par l’exploitation du logiciel d’étude de pertinence de cogénération de la Région Wallonne CogenSim (version 3.11 ;  2011) :

Simulation

Le postula de départ est qu’une étude de faisabilité d’installation d’une cogénération a montré une rentabilité énergétique, environnementale et financière valable.

En partant du principe qu’une cogénération est dimensionnée pour produire la base d’un profil de besoin de chaleur, le solde étant fourni par une chaudière à condensation, plus cette chaudière sera performante, plus importante sera la réduction des consommations énergétiques pour fournir ce solde.

Une manière d’y arriver est de simuler une cogénération associée à une chaudière dont le rendement saisonnier évolue de 80 à 100 %.

Evaluer

Pour plus de renseignements sur le calcul de rentabilité de l’association d’une cogénération avec une ou plusieurs chaudières à condensation.

Il y a t-il un intérêt réel d’association ?

En préliminaire, il faut toutefois faire remarquer que le cas présenté ci-dessus est très favorable à l’investissement dans une cogénération. En effet, les profils des besoins de chaleur et d’électricité se complètent bien. Tous les projets ne sont pas toujours aussi heureux ! Par exemple, lorsque le besoin de chaleur est faible par rapport à la demande d’électricité, l’investissement dans une cogénération n’est pas toujours rentable. A voir donc au cas par cas !

Cogénération 

Pour plus de renseignements sur les cogénérateurs.

Niveau énergétique

En partant du principe, que pour les profils de chaleur et d’électricité établis pour le projet considéré, l’étude précise de faisabilité du placement d’une cogénération est envisageable énergétiquement, environnementalement et financièrement parlant, l’association d’une ou de plusieurs chaudières à condensation est un plus énergétique comme le montre le graphique suivant :

Évolution des consommations en énergie primaire.

Niveau environnemental

La réduction des émissions de gaz à effet de serre est liée aux consommations en énergie primaire. Dans le cas étudié dans la note de calcul, la réduction des émissions de CO2 est effective même pour une cogénération au gaz et sera d’autant meilleure que le rendement des chaudières d’appoint sera élevé. On privilégiera donc les chaudières à condensation. Le bilan environnemental sera naturellement influencé par le type de combustible utilisé par la cogénération. En effet, le nombre de certificats verts octroyés (CV) sera d’autant plus important que le combustible sera renouvelable (bois, huile végétale, …).

Niveau financier

Quant au bilan financier, il est en général lié aux éléments principaux suivants :

  • aux coûts imputés aux consommations des différents combustibles et aux frais de maintenance ;
  • à l’investissement :
    • dans l’installation de la cogénération et de la (des) chaudière(s) ;
    • dans la modification du circuit hydraulique primaire ;
    • dans l’adaptation de la régulation de la cascade cogénération/chaudière(s) ;
  • à l’octroi des primes et des certificats verts (CV) ;
  • à l’autoconsommation maximale de l’électricité produite par la cogénération (réduction de la facture électrique) ;
  • à la revente résiduelle d’électricité. Attention, qu’au global, il ne peut pas devenir producteur d’électricité.

Le bilan financier est très variable. La rentabilité de la cogénération provient du gain engendré sur la facture électrique et les CV. Le premier gain est très important d’où l’intérêt d’autoconsommer un maximum de l’électricité produite par la cogénération pour maximiser la rentabilité de l’installation.


Aspect hydraulique et de régulation

Condition de cohabitation

Ici, on part du principe que le bâtiment qui sera construit est un bâtiment énergétiquement performant répondant au moins aux exigences PEB.

Pour qu’une cogénération puisse cohabiter avec une ou plusieurs chaudières à condensation, il faut en même temps alimenter :

  • la chaudière à condensation avec un retour en chaufferie le plus froid possible (pour le gaz < 55 °C) ;
  • le cogénérateur avec un retour, dont la température, n’est pas inférieur à 60 °C mais pas supérieur à 70 °C. Même, la température d’eau de la plupart des moteurs n’excède pas plus de 65 °C.

C’est à ce niveau que les aspects de conception des circuits hydrauliques et de la régulation ainsi que la disposition des équipements, les uns par rapport aux autres, prennent toute leur importance.

On rappelle ici que la cogénération est en tête de cascade. Ce qui signifie que, si l’étude de faisabilité de la cogénération a été réalisée correctement, pendant 4 000-5 000 heures sur la saison de chauffe, elle doit fonctionner seule ou en parallèle avec la ou les chaudières.

Aspect hydraulique

Température de retour

On part du principe « qui peut le plus peut le moins » ; ce qui signifie qu’un retour froid des circuits secondaires peut être réchauffé et pas l’inverse !

C’est donc bien un retour le plus froid possible qui garantit une cohabitation harmonieuse de la cogénération et de la ou des chaudières à condensation !

Le retour froid en chaufferie est surtout conditionné par le mélange ou pas des retours des circuits secondaires dont les régimes de températures peuvent être totalement différents.

Ces régimes sont déterminés en fonction :

  • De la charge thermique par déperdition au travers des parois et par in/exfiltration ainsi que la charge thermique par ventilation hygiénique des différents locaux du bâtiment. Par exemple, pour un bâtiment dont la performance de l’enveloppe est élevée (isolation des parois, remplacement de châssis à  simple vitrage par des châssis à double vitrage à basse émissivité, placement de récupérateur de chaleur sur un système de ventilation à double flux, …), les régimes de températures pourraient être les suivants :
    • pour les circuits statiques, un régime 70-50 °C ;
    • pour les planchers chauffants, un régime 35-25 °C.
    • pour les batteries chaudes des systèmes de ventilation double flux avec récupérateur, un régime 45-35 °C.
  • De la présence ou pas d’un circuit d’ECS. On pourrait très bien envisager, pour une production d’ECS semi-instantanée, un régime 70-45 °C.

Configuration de collecteur

Suivant la température de retour des différents circuits secondaires, ceux-ci seront combinés ou pas au niveau du collecteur principal.

Un seul collecteur de retour (régime ECS : 70-45 °C).

     

Collecteur de retour haute et basse température (régime de température 70-60 °C).

Concevoir 

Pour plus de renseignements sur la conception correcte des circuits de distribution.

Techniques

Pour plus de renseignements sur les circuits hydrauliques associés à une chaudière à condensation.

Configuration des équipements de production

En conception, pour optimiser énergétiquement l’association d’un cogénérateur avec une ou plusieurs chaudières à condensation, le nombre de configurations hydrauliques des équipements de production est assez limité de par la complexité des projets.

La configuration hydraulique du circuit primaire est en général tributaire :

  • de la cohérence entre les régimes de températures des circuits secondaires ;
  • de l’évolution ou pas du nombre de circuits secondaires : le projet est-il prévu en plusieurs phases ou pas ?
  • et du type de chaudières disponibles sur le marché en fonction de la puissance. On envisagera, par exemple :
    • une chaudière à condensation avec un seul ou deux retours (échangeurs haute température et à condensation en série ou les deux échangeurs en parallèle) ;
    • une chaudière à grand ou faible volume d’eau ;
    • une chaudière nécessitant un débit minimum ou pas ;
    • une chaudière traditionnelle nécessitant un retour chaud (minimum de 60°C pour éviter la condensation dans l’échangeur).

Différentes configurations sont proposées par les fabricants. A quelques variantes près, elles se ressemblent. On considère ici, à titre d’exemple, trois associations caractéristiques de chaudières de différents types avec un cogénérateur. À noter que certains constructeurs de chaudières proposent maintenant des solutions complètes d’association de chaudières avec cogénérateur pilotée par une même régulation. En conception, il est intéressant d’opter pour une solution complète du même constructeur sachant qu’il est très important que la régulation porte sur l’ensemble de la chaufferie, y compris la cogénération.

Il est bien entendu que la règle de prudence est toujours d’application sachant que chaque projet est un cas particulier. Le responsable du projet fera toujours appel à un bureau d’étude spécialisé capable de maîtriser non seulement les techniques liées aux cogénérateurs, mais aussi celles faisant appel aux chaudières.

Exemple 1 : Deux chaudières à condensation et un cogénérateur à huile végétale

Schéma Deux chaudières à condensation et un cogénérateur à huile végétale.

Source : Sibelga.

Quelques explications :

Les circulateurs des circuits secondaires assurent la circulation du fluide caloporteur tant au primaire qu’au secondaire.

Le ballon tampon du cogénérateur est hydrauliquement en tête du retour. Vu que l’objectif premier est de maximiser le nombre d’heures de fonctionnement du cogénérateur, le ballon tampon est  le « fournisseur prioritaire » des besoins de chaleur.

Tant que la puissance du cogénérateur est suffisante, il est le seul producteur primaire de chaleur.

Une fois que le besoin de chaleur dépasse la puissance du cogénérateur, l’appoint est donné par la première chaudière à condensation. La vanne 3 voies permet l’irrigation du retour chaud tandis que la vanne 2 voies celle du retour froid. Ces deux vannes travaillent en tout ou rien et sont commandées par la régulation de la chaudière qui est en demande de production de chaleur.

Lorsque le besoin de chaleur devient très important, la seconde chaudière à condensation peut donner le solde de chaleur.

Exemple 2 : Une chaudière traditionnelle, une chaudière à condensation et un cogénérateur

Une chaudière traditionnelle, une chaudière à condensation et un cogénérateur

Source : Sibelga.

Quelques explications :

Les circulateurs des circuits secondaires assurent toujours la circulation du fluide caloporteur tant au primaire qu’au secondaire.

Le ballon tampon du cogénérateur est aussi hydrauliquement en tête de retour.

Tant que la puissance du cogénérateur est suffisante, il est le seul producteur primaire de chaleur.

Une fois que le besoin de chaleur dépasse la puissance du cogénérateur, l’appoint est donné par la chaudière à condensation. En fonction de l’ouverture des vannes de réglable 2 voies AK et 3 voies UV, l’appoint de la chaudière se répartit entre les échangeurs à haute et basse température de manière à favoriser au maximum la condensation.

Durant les périodes de grand froid, la chaudière traditionnelle peut aussi donner un « coup de pouce » par la modulation de la vanne 3 voies SK.

Exemple 3 : une chaudière à condensation à un seul retour et un cogénérateur

Schéma chaudière à condensation à un seul retour et un cogénérateur.

Source : Sibelga.

Quelques explications :

Les fabricants proposent de plus en plus des chaudières à condensation à un seul retour.

Dans ce cas-ci, lorsque la cogénération ne peut plus assurer les besoins de chaleur, la régulation centrale « libère » la chaudière à condensation en ouvrant la vanne 3 voies qui lui est associée. Cette vanne tout ou rien permet le passage du débit total dans la chaudière à condensation.

Aspect de régulation globale

Outre la régulation individuelle des équipements qui doit être optimale, la globalisation de la régulation tant au niveau de la cascade des chaudières que de la cogénération est primordiale. Dans des projets de conception, l’occasion est rêvée d’assurer cette globalisation, à savoir qu’il est nécessaire de considérer :

  • Les chaudières à condensation et le cogénérateur avec leur propre régulation « interne » .
  • La supervision d’ensemble de tous les équipements de manière à bien orchestrer l’ensemble de la cascade avec toujours comme objectif :
    • de privilégier le fonctionnement de la cogénération ;
    • de favoriser la condensation des chaudières lorsque celles-ci fonctionnent.

Pour bien réguler l’ensemble de l’association chaudières classiques/chaudières à condensation/cogénérateur, on considérera l’ordre de priorité suivant :

  • Chaudière à condensation pour les faibles besoins d’été par exemple. C’est intéressant de faire fonctionner la  chaudière à condensation à faible charge sachant que dans une plage de module de 10 à 50 % voire 60 %, ce type de chaudière est très performant au niveau énergétique (zone 1).
  • Cogénérateur un maximum de temps durant la saison de chauffe. Pendant cette période, il module entre 60 et 100 % de sa puissance thermique nominale. Suivant le profil de besoin, la quantité de démarrages du cogénérateur peut être limitée, « ce qui lui sauve la vie ! » (zone 2).
  • Cogénérateur travaillant à 100 % de son taux de charge et chaudière à condensation modulant de 10 à 100 %. À noter toutefois que pour quelques heures par an, la seconde chaudière peut donner un appoint (zone 3).

Techniques  

Pour plus de renseignements sur la régulation de l’association chaudières classiques/chaudière à condensation/ cogénérateur.