Optimiser le dégivrage des meubles frigorifiques

Optimiser le dégivrage des meubles frigorifiques


Les meubles frigorifiques fermés, mixtes ou ouverts négatifs

  

Meuble mixte négatif, meuble fermé négatif et meuble ouvert négatif à ventilation forcée.

Le dégivrage « forcé » par les moyens courants tels que les résistances chauffantes ou par injection de gaz chaud côté circuit frigorifique est un mal nécessaire pour les meubles frigorifiques fermés, mixtes ou ouverts négatifs. En général, ce sont les mêmes techniques de dégivrage que les chambres frigorifiques qui leur sont appliquées.

À l’heure actuelle, sur la plupart des meubles de ce type, les équipements de dégivrage sont prévus en standard sous forme de résistances électriques.

La technique, par injection de gaz chaud à l’évaporateur nécessite une installation plus complexe et, par conséquent plus coûteuse.

Paramètres de régulation du dégivrage « forcé »

Un fabricant de meubles frigorifiques renseigne les paramètres de réglage des meubles frigorifiques négatifs. On peut y retrouver des valeurs de réglage standards en fonction de la classe d’ambiance déterminée par ouverture d'une nouvelle fenêtre ! EUROVENT, à savoir généralement pour une classe d’ambiance 3 (25°C, 60 % HR) :

Paramètre Définition Optimum énergétique
T0 température d’évaporation [°C] la plus faible possible
N/24h le nombre de dégivrage par 24 heures [N/24 heures] le plus faible possible
Tter la température en fin de dégivrage [°C] la plus basse possible
td la durée de dégivrage [min] la plus faible possible
tegout le temps d’égouttage [min] le plus faible possible
tvent le temps de retard pour redémarrer les ventilateurs [min]

Il est bien entendu que tous ces paramètres doivent trouver leur optimum énergétique suivant le type d’application, d’ambiance des zones de vente avoisinantes, …, tout en conservant la qualité du froid alimentaire.

Pour différents modèles de meubles frigorifiques et pour une température d’évaporation T0 [°C],ces paramètres sont consignés dans le tableau ci-dessous.

Type de meuble négatif Référence Type de dégivrage T0[°C] N/24 [N/24 heures] Tter[°C] td[min] tegout[min] tvent[min]
Meuble mixte vertical 3L1 RVF3 électrique -35 1 5 40 10 5
Meuble vertical vitré 3L1 RVF4 électrique -35 1 15 30 10 5
gaz chaud 1 10 10 5 5
Meuble vertical vitré 3M1 RVF4 électrique -10 1 10 10 5 0
Meuble horizontal 3L1 IHF4 électrique et gaz chaud -35 2 5 45
Meuble horizontal 3L3 électrique -10 2 10 45
Source : Costan (Sabcobel)

Il est donc nécessaire de s’assurer que ces consignes soient respectées.

Pré-programmation des dégivrages

Lorsque le magasin est composé d’un nombre impressionnant de meubles linéaires (cas des super et hypermarchés), la programmation des temps de dégivrage doit être décalée dans le temps sachant que l’appel de puissance électrique des compresseurs, pour redescendre les températures des meubles à leur valeur nominale, peut être important. La possibilité de mettre en réseau les régulateurs individuels de chaque meuble avec un superviseur (GTC : Gestion Technique Centralisée), facilite la tâche des gestionnaires techniques des magasins.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsables des pointes quart-horaire excessives alourdissant la facture électrique.


Les meubles frigorifiques positifs

Meuble convection naturel positif (vitrine) et meuble ouvert vertical positif avec rideau d’air en convection forcée.

Pour les applications en froid positif, le « dégivrage naturel » suffit dans la plupart des cas.

À noter qu’en option il est toujours possible de placer des résistances de dégivrage, mais ce serait prêcher contre sa chapelle puisqu’il est possible de s’en passer. Il faut compter de l’ordre de 60 à 70 W/ml pour des résistances électriques simples.

Paramètres de régulation du dégivrage « naturel »

Le principal paramètre de ce type de dégivrage est la durée de dégivrage td [min]. Les fabricants par défaut programment des temps de dégivrage maximum de l’ordre de 40 à 45 minutes. Il est nécessaire de choisir une régulation qui permette de réduire les temps de dégivrage en fonction de la classe d’ambiance. Dans la réalité, c’est au cas par cas et suivant le climat interne que va dépendre le temps de dégivrage.

Dans l’absolu, le dégivrage « naturel » est intéressant puisque pendant cette phase :

  • la production de froid est interrompue;
  • il n’y a pas de consommation électrique de dégivrage proprement dite.

Pré-programmation des dégivrages

Le même type de programmation décalée que pour les meubles de froid négatif en centralisant toutes les demandes de dégivrage au niveau d’une gestion technique centralisée (GTC) est aussi possible pour les meubles frigorifiques positifs.

Source : Delhaize Mutsaart.

Ici, on visera l’interruption de ou d’une partie de la production de froid couplée avec :

  • l’arrêt des circulateurs sur une boucle caloporteur. On privilégiera l’arrêt des circulateurs individuels des meubles frigorifiques plutôt que l’arrêt du ou des circulateurs centraux (on parlera alors de pompe de circulation) afin d’espacer dans le temps les dégivrages individuels et, par conséquent, les pointes d’appel de puissance électrique à la fin d’un dégivrage programmé central.

Boucle monotube : arrêt individuel des circulateurs de meuble.

  • la fermeture de l’alimentation d’une vanne en amont du détendeur.

Boucle caloporteur : fermeture individuelle des vannes d’alimentation des évaporateurs de meubles.

Détente directe : réglage individuel des détendeurs des meubles frigorifiques.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.

Exemple.

Le cas d’un hypermarché où la facture d’électricité risque d’être salée de par le non-décalage des débuts de dégivrage sur 150 m de meubles linéaires positifs.

Période d’enregistrement sur 24  heures.

En analysant de plus près, on se rend compte que l’appel de puissance de la journée 430 KW a été enregistré comme pointe quart-horaire à 07h30; ce qui signifie que la facture électrique intégrera cette valeur comme pointe quart-horaire mensuelle. On aurait pu éviter cette pointe en décalant les périodes de dégivrage dans le temps.

Choisir le système de dégivrage de la machine frigorifique d’un meuble frigorifique

Les meubles frigorifiques fermés, mixtes ou ouverts négatifs

Meuble mixte négatif

Meuble fermé négatif

Meuble ouvert négatif à ventilation forcée

Le dégivrage « forcé » par les moyens courants tel que les résistances chauffantes ou par injection de gaz chaud côté circuit frigorifique est un mal nécessaire pour les meubles frigorifiques fermés, mixtes ou ouverts négatifs. En général, ce sont les mêmes techniques de dégivrage que les chambres frigorifiques qui leur sont appliquées.

À l’heure actuelle, sur la plupart des meubles de ce type, les équipements de dégivrage sont prévus en standard sous forme de résistances électriques.

La technique, par injection de gaz chaud à l’évaporateur nécessite une installation plus complexe et, par conséquent plus coûteuse.

Paramètres de régulation du dégivrage « forcé »

Un fabricant de meubles frigorifiques renseigne les paramètres de réglage des meubles frigorifiques négatifs. On peut y retrouver des valeurs de réglage standards en fonction de la classe d’ambiance déterminée par ouverture d'une nouvelle fenêtre ! EUROVENT, à savoir généralement pour une classe d’ambiance 3 (25°C, 60 % HR) :

Paramètre Définition Optimum énergétique
T0 température d’évaporation [°C] la plus faible possible
N/24h le nombre de dégivrage par 24 heures [N/24 heures] le plus faible possible
Tter la température en fin de dégivrage [°C] la plus basse possible
td la durée de dégivrage [min] la plus faible possible
tegout le temps d’égouttage [min] le plus faible possible
tvent le temps de retard pour redémarrer les ventilateurs [min]

Il est bien entendu que tous ces paramètres doivent trouver leur optimum énergétique suivant le type d’application, d’ambiance des zones de vente avoisinantes, …, tout en conservant la qualité du froid alimentaire.

Pour différents modèles de meubles frigorifiques et pour une température d’évaporation T0 [°C],ces paramètres sont consignés dans le tableau ci-dessous.

Type de meuble négatif Référence Type de dégivrage T0[°C] N/24 [N/24 heures] Tter[°C] td[min] tegout[min] tvent[min]
Meuble mixte vertical 3L1 RVF3 électrique -35 1 5 40 10 5
Meuble vertical vitré 3L1 RVF4 électrique -35 1 15 30 10 5
gaz chaud 1 10 10 5 5
Meuble vertical vitré 3M1 RVF4 électrique -10 1 10 10 5 0
Meuble horizontal 3L1 IHF4 électrique et gaz chaud -35 2 5 45
Meuble horizontal 3L3 électrique -10 2 10 45
Source : Costan (Sabcobel).

Le choix du type de dégivrage (électrique ou gaz chaud) a de l’importance dans le sens où, énergétiquement parlant, l’injection de gaz chaud semble intéressante.

Avantages

  • Temps de dégivrage plus court;
  • Température de dégivrage plus faible;
  • Énergie consommée par le compresseur 3 fois plus faible (pour un COP de 3) qu’une résistance électrique directe;

Inconvénients

  • Investissement.

Pré-programmation des dégivrages

Lorsque le magasin est composé d’un nombre impressionnant de meubles linéaires (cas des super et hypermarchés), la programmation des temps de dégivrage doit être décalée dans le temps sachant que l’appel de puissance électrique des compresseurs, pour redescendre les températures des meubles à leur valeur nominale, peut être important. La possibilité de mettre en réseau les régulateurs individuels de chaque meuble avec un superviseur (GTC : Gestion Technique Centralisée), facilite la tâche des gestionnaires techniques des magasins.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.


Les meubles frigorifiques positifs

Meuble convection naturel positif (vitrine).

Meuble ouvert vertical positif avec rideau d’air en convection forcée.

Pour les applications en froid positif, il est possible de se passer du dégivrage « forcé » par résistance chauffante ou « injection de gaz chauds ». Le « dégivrage naturel » suffit dans la plupart des cas.

À noter qu’en option il est toujours possible de placer des résistances de dégivrage, mais ce serait prêcher contre sa chapelle puisqu’il est possible de s’en passer.Il faut compter de l’ordre de 60 à 70 W/ml pour des résistances électriques simples.

Paramètres de régulation du dégivrage « naturel »

Le principal paramètre de ce type de dégivrage est la durée de dégivrage td [min]. Les fabricants par défaut programme des temps dégivrage maximum de l’ordre de 40 à 45 minutes. Il est nécessaire de choisir une régulation qui permette de réduire les temps de dégivrage en fonction de la classe d’ambiance. Dans la réalité, c’est au cas par cas et suivant le climat interne que va dépendre le temps de dégivrage.

Dans l’absolu, le dégivrage « naturel » est intéressant puisque pendant cette phase :

  • la production de froid est interrompue;
  • il n’y a pas de consommation électrique de dégivrage proprement dite.

Pré-programmation des dégivrages

Le même type de programmation décalée que pour les meubles de froid négatif en centralisant toutes les demandes de dégivrage au niveau d’une gestion technique centralisée (GTC) est aussi possible pour les meubles frigorifiques positifs.

Source : Delhaize Mutsaart.

Ici, on visera l’interruption de ou d’une partie de la production de froid couplée avec :

  • L’arrêt des circulateurs sur une boucle caloporteur. On privilégiera l’arrêt des circulateurs individuels des meubles frigorifiques plutôt que l’arrêt du ou des circulateurs centraux (on parlera alors de pompe de circulation) afin d’espacer dans le temps les dégivrages individuels et, par conséquent, les pointes d’appel de puissance électrique à la fin d’un dégivrage programmé central.

Boucle monotube : arrêt individuel des circulateurs de meuble.

  • La fermeture de l’alimentation d’une vanne en amont du détendeur.

Boucle caloporteuse : fermeture individuelle des vannes d’alimentation des évaporateurs de meubles.

Détente directe : réglage individuel des détendeurs des meubles frigorifiques.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.

Exemple.

Le cas d’un hypermarché où la facture d’électricité risque d’être salée de par le non-décalage des débuts de dégivrage sur 150 m de meubles linéaires positifs.

Période d’enregistrement sur 24  heures.

En analysant de plus près, on se rend compte que l’appel de puissance de la journée 430 KW a été enregistré comme pointe quart-horaire à 07h30; ce qui signifie que la facture électrique intègrera cette valeur comme pointe quart-horaire mensuelle. On aurait pu éviter cette pointe en décalant les périodes de dégivrage dans le temps.

Évaluer l’efficacité énergétique de la stérilisation

Évaluer l'efficacité énergétique de la stérilisation


Isolation des parois

Sur les pertes des parois

En stérilisation, l’isolation des parois revêt toute son importance. En effet, pendant toute une journée d’exploitation, les équipements sont portés à haute température. C’est le cas des parois du générateur, de la distribution et de la double enveloppe où les températures avoisinent les 134 [°C]. À ces températures, sans isolation, les déperditions thermiques sont importantes.

Si on reprend les valeurs de la fiche technique d’un constructeur, les déperditions estimées sont :

Fiche technique du constructeur
Équipement Type Unité Consommation/cycle
Générateur de vapeur Entrée eau osmosée litres 13
électricité kWh 8,6
Sortie pertes des parois kW 0,8
Distribution Sortie pertes des conduites kW faibles
Autoclave Sortie pertes des parois de la double enveloppe kW 2,1
pertes des parois des portes de la chambre kW/porte fermée : 0,5
ouverte : 1,4
Pompe à vide Entrée eau adoucie litres 216
électricité du moteur de pompe kW 2,2
Sortie condensat litres 229

L’efficacité énergétique d’une isolation peut être évaluée et comparée aux valeurs de la fiche technique du constructeur.

Exemple.

Soit un stérilisateur de section carrée de l’ordre de 400 [L] en contenance d’eau. La surface de l’enveloppe extérieure peut être évaluée à partir de ses dimensions:

côté = 1 [m]; Profondeur = 1,2 [m].

La surface de l’enveloppe est de 1 x 4 x 1,2 = 4,8 m².

Lorsqu’on isole, on prend de la laine minérale dont la conductivité thermique λ est de 0,04 [W/m.K].

On prend les hypothèses suivantes :

  • La vapeur à l’intérieur des équipements est à une température de 134 [°C].
  • La paroi extérieure de la double enveloppe est en inox et a une conductivité thermique λ de 25  [W/m.K]; on peut donc considérer que la température à l’extérieur de la double enveloppe est de l’ordre de 134 [°C].
  • La température à ne pas dépasser pour l’électronique de régulation est de 28 [°C].
  • La température de contact ne peut dépasser 60 [°C].
  • Le coefficient thermique d’échange superficiel est de 10 [W/m².K]. Cependant, il peut varier suivant la présence d’une ventilation forcée ou pas, équivalant à prendre plutôt une valeur de 23 [W/m².K].

Sur cette base, on peut calculer :

  • L’épaisseur d’isolation nécessaire pour ne pas provoquer de brûlure (critère principal des constructeurs).
  • La déperdition résultant de l’isolation des parois.

Calculs

Pour évaluer ces paramètres.

En faisant varier l’épaisseur de l’isolant, on obtient les résulats suivants :

Pour un coefficient thermique d’échange superficiel de 10 [W/m².K] (sans ventilation forcée) :

Le 1er [cm] d’isolation de la cuve du stérilisateur diminue les déperditions d’un facteur 3,5; ce qui est énorme. Les centimètres supplémentaires ne servent qu’à réduire la température de contact des parois afin de circonscrire les risques de brûlure en ne diminuant plus beaucoup les déperditions. La difficulté d’isolation d’une cuve de stérilisation réside dans sa complexité de conception; à savoir que les nombreuses connections de la cuve avec le reste du système constituent autant de points faibles d’isolation.

La rentabilité d’isolation dépendra donc essentiellement du surcoût de l’isolation supplémentaire.

Pour une épaisseur d’isolant de 3 cm (comme annoncé par le constructeur), le calcul donne 600 [W] de déperdition.

Pour un coefficient thermique d’échange superficiel de 23 [W/m².K] (avec ventilation forcée) :

Sur le graphique précédent, on voit que le coefficient thermique d’échange superficiel peut faire varier les déperditions et les températures de paroi de manière importante. Les pertes thermiques sont plus importantes.

En comparant les valeurs annoncées par le constructeur et celles calculées on se rend compte qu’il y a une certaine divergence. En effet pour une épaisseur de 5 cm d’isolant et sans ventilation forcée (pour un coefficient thermique d’échange superficiel de 10 [W/m².K]) :

  • le calcul donne 529 [W],
  • le constructeur avance 2 100 [W].

Les 1 500 [W] de différence seraient-ils dus à la distribution ou le calcul a-t-il été effectué avec une épaisseur d’isolant de 1 cm?

Sur la production de condensats

Les déperditions à travers les parois se traduisent aussi par la formation de condensats. En effet, de par l’échange de chaleur entre les parois et l’ambiance, la vapeur compense ces pertes en cédant de l’énergie de condensation. Les condensats qui en découlent sont encore chauds mais ont perdu les 4/5ème de l’énergie initiale contenue dans la vapeur.

Il est certain que plus on isole, moins de condensats seront formés et moins d’énergie perdue à l’égout.

Exemple.

Soit le même stérilisateur que dans l’exemple précédent.

Pour épaisseur d’isolant de 1 et 5 [cm] on calcule les déperditions :

Calculs

Pour évaluer ces paramètres.
Déperditions au travers des parois de la cuve
Épaisseur [cm] Déperditions [W] Énergie annuelle perdue [kWh/an] Coûts annuels [€/an]
1 1 457 1,454 x 4 000 = 5 816 640
5 378 0,377 x 4 000 = 1 508 166

La chaleur libérée par la condensation de la vapeur est :

Qcondensation = h »vapeur à 3 bar 134°C – h’eau à 134°C = 2 727 [kJ/kg] – 561 [kJ/kg]

Qcondensation = 2 166 [kJ/kg]

Sur base de 4 000 [h] de fonctionnement par an, la quantité de condensats est déterminée comme suit :

mcondensats = Déperditions x durée x 3 600 / Qcondensation

La chaleur résiduelle dans les condensats est de :

Qrésiduelle_cond = mcondensats x h’eau à 134°C / 3 600

On obtient les résultats suivants :

Déperditions annuelles au travers des parois de la cuve
Épaisseur [cm] Condensats formés [kg]
Chaleur résiduel [kWh/an]
Coûts [€/an] avec 0,11 [€/kWh]
1 9 600
9 666 x 561 / 3 600 = 1 506 [kWh]
166
5 2 400
2 506 x 561 / 3 600 = 390 [kWh]
43

Conclusion

L’isolation des parois a plus d’impact sur les déperditions à travers les parois que sur l’énergie que l’on pourrait retirer des condensats.


Récupération de l’énergie des condensats

Après avoir isoler les équipements de manière optimale, l’énergie résiduelle contenue dans les condensats est-elle valorisable ?
Avant toute chose, il faut distinguer deux types de condensats :

  • Les condensats propres de la distribution et de la double enveloppe qui ne sont pas contaminés car ils n’ont pas transité par la chambre de stérilisation.
  • Les condensats contaminés évacués par la pompe à vide de la chambre de stérilisation.

Certains constructeurs prévoient de récupérer les condensats de la distribution et de la double enveloppe par gravitation en plaçant le générateur sous la double enveloppe. Cette manière de procéder est intéressante car la chaleur résiduelle des condensats produits participe positivement dans le bilan en réduisant l’énergie électrique nécessaire à la production de vapeur.

Quant aux condensats issus de la chambre de stérilisation, pas de chance, ils sont mélangés à un grand débit d’eau froide dans l’anneau liquide de la pompe à vide; ce qui signifie que l’énergie résiduelle que l’on pourrait encore tirer de l’effluent de sortie de la pompe à vide n’est pas valorisable.

Théories

L’étude approfondie sur le bilan énergétique, montre qu’une partie non négligeable de l’énergie initiale de la vapeur produite dans le générateur se retrouve sont forme de condensats issus de la pompe à vide (de l’ordre de 50 à 64 %).

Le hic, c’est que l’enthalpie du mélange des condensats et de l’eau de l’anneau liquide est faible (de l’ordre de 150 [kJ/kg] ou même moins). En d’autres termes l’énergie de la vapeur initiale s’est totalement dégradée :

h »vapeur à 3 bar 134°C = 2 727 [kJ/kg]

h’eau à 134°C = 561 [kJ/kg]

h’eau sortie de pompe  = 150 [kJ/kg]

Le rapport énergétique est de l’ordre de 18; ce qui montre bien que l’énergie contenue dans l’eau de sortie de la pompe à vide n’est pas récupérable. Cette perte d’énergie est principalement liée aux impératifs de fonctionnement de la pompe à vide qui exige des températures faibles d’eau de service pour des vides poussés.

Donc le schéma idéal ci-dessus serait bien trop coûteux à réaliser pour le peu de bénéfice à en retirer.

Récupération sur les débits d’appoint d’eau de la pompe à vide

On pourrait croire qu’il vaut mieux ne rien faire. Pas du tout !

On peut diminuer la consommation d’eau qui alimente l’anneau liquide de la pompe à vide.


Gestion du débit d’eau de la pompe à vide

Vu la nécessité de disposer d’un débit d’eau important à basse température au niveau de l’alimentation de la pompe à vide pour obtenir un vide poussé, plusieurs systèmes ont été envisagés, tout en gardant le même débit dans la pompe, de manière à réduire le débit d’appoint d’eau brute adoucie.

On parlera ici de l’évaluation de l’efficacité,

  • des circuits semi-ouverts,
  • des circuits fermés.

Circuits semi-ouverts

Théories

Pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit semi ouvert.

L’évaluation théorique de ce système donne une réduction de l’ordre de 30 % :

  • de la consommation d’eau de service,
  • des pertes d’énergie par rejet à l’égout.

Circuits semi-ouverts

Théories

Pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit fermé.

L’évaluation théorique de ce système donne une réduction de l’appoint d’eau de l’anneau liquide de la pompe à vide élevée. Il est risqué de donner une valeur précise de réduction sachant que les cycles de fonctionnement de la pompe à vide sont particulièrement fluctuants en température. En effet :

  • En début de phase de prise de vide, les températures risquent d’être élevées. À cet instant, le risque que l’échangeur ne soit plus suffisant est présent; ce qui signifie qu’il faut un appoint d’eau brute.
  • En fin de phase, les températures redeviennent normales puisqu’il n’y a pratiquement plus de vapeur ni de condensats à évacuer (l’échangeur suffisant à refroidir l’eau de l’anneau liquide).

Certains constructeurs annoncent 75 % de réduction de consommation d’eau.

Mesurer l’éblouissement

Date : page réalisée sous l’hégémonie Dreamweaver

Auteur : les anciens

Eté 2008 : Brieuc.

Notes : 22.01.09

  • Winmerge : ok – Sylvie
  • Mise en page [liens internes, tdm, en bref !, passage général sur la mise en page de la feuille] – Sylvie

20/03/09, par Julien

  • Corrections Antidote

Mai 2009

  • 2eme passage – mise en page – Sylvie.

Mesurer l'éblouissement


Introduction

Deux métriques décrivant l’éblouissement dû à la lumière naturelle sont utilisées couramment et inclues dans certains outils de conception. Ce sont le Daylight Glare Index (DGI) et le Daylight Glare Probability (DGP).

Le DGI décrit la sensation d’éblouissement sur une échelle alors que le DGP décrit la probabilité qu’une personne soit gênée par un éblouissement provenant de la lumière naturelle.

Cette dernière métrique fût développée sous des conditions de lumière naturelle et a montré dans plusieurs cas qu’elle est mieux corrélée avec la perception d’éblouissement dû à la lumière naturelle que le DGI.

L’ensemble du contenu de cette page provient du rapport « Energy audit et inspection procedures » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet des méthodes d’audit et procédure d’inspection peut être téléchargé ici en français.


Le Daylight Glare Probability (DGP)

Le Daylight Glare Probability (DGP) est une approche pour prédire l’éblouissement d’inconfort pour des environnements de type locaux de bureaux.

Le DGP est un indice d’éblouissement, qui utilise l’éclairement vertical de l’œil (de manière à considérer un effet de saturation de l’œil) ainsi que les sources individuelles de haute luminance (telles que le soleil et ses réflexions spéculaires) pour estimer la proportion de personnes insatisfaites. Des simulations basées sur les données climatiques ou des procédures de calcul simplifié du DGP permettent d’évaluer la fréquence d’occurrence de situations éblouissantes. Ceci permet d’évaluer le comportement annuel de l’environnement visuel.

L’équation du DGP est une formule empirique connectant des quantités physiques directement mesurables (luminance des sources, éclairement vertical au droit de l’œil, ange solide formé par la source éblouissante, luminance de l’arrière-fond, etc.) avec l’éblouissement ressenti par les sujets. Les variables importantes sont :

  • L’éclairement vertical au niveau de l’œil : cette valeur joue un rôle majeur dans l’expérimentation de l’éblouissement des places de travail éclairées naturellement. De plus, cette valeur est aussi utilisée de manière à tenir compte de l’adaptation de l’œil au niveau d’éclairement ambiant.
  • La luminance de la source d’éblouissement. Dans le cas de fenêtres : la luminance du ciel vu au travers de la fenêtre (plus la source ou le ciel est brillant, plus l’index est haut).
  • L’angle solide sous-tendu par la source. Dans le cas de fenêtres : la taille apparente de la surface de ciel visible depuis l’œil de l’observateur (plus la surface est grande, plus l’indice est haut).
  • La position angulaire de la source par rapport à la ligne de vue de l’observateur. Dans le cas de fenêtres : la position du ciel visible dans le champ de vision (plus il est loin de la direction centrale de vision, plus l’indice est petit).

DGP = 5,87.10-5 x Ev + 9,18.10-2 x log( 1 + ∑i [ (Ls,i2 x ωs,i) / (Ev1,87 x Pi2) ] ) + 0,16

Avec :

  • Ev : l’éclairement vertical de l’œil [lux]
  • Ls : la luminance de la source [cd/m²]
  • i : le nombre de sources éblouissantes
  • P : l’indice de position [-]
  • ωs : l’angle solide de la source [-]

Le DGP peut être appliqué à tout espace intérieur éclairé naturellement et dans lequel les tâches sont comparables à des tâches de bureau. Dans le cas de positions de travail multiples, la position la plus défavorable en termes d’éblouissement devrait être investiguée. Ces positions sont habituellement proches de la façade et/ou là où on peut s’attendre à une vue directe vers le soleil, lorsqu’il se trouve bas sur l’horizon.

De manière à éviter l’éblouissement d’inconfort pour des espaces de type bureaux, le DGP (Daylight Glare Probability) pour la direction de vision principale ne devrait pas excéder une valeur de 0.45 durant 5% du temps d’occupation. Le Tableau suivant résume les catégories de valeur du DGP.

Critères d’éblouissement Daylight Glare Probability
L’éblouissement est le plus souvent non perçu DGP ≤ 0,35
L’éblouissement est perçu mais le plus souvent non dérangeant 0,35 < DGP ≤ 0,40
L’éblouissement est perçu et souvent dérangeant 0,40 < DGP ≤ 0,45
L’éblouissement est perçu et souvent intolérable 0,45 < DGP

Une autre possibilité est d’utiliser une valeur seuil (DGPt) pour différents niveaux de protection de l’éblouissement.

Recommandation pour un niveau de protection à l’éblouissement DGPt Maximum d’excédant permis durant le temps d’usage de référence
Minimum 0,45 5 %
Moyen 0,40 5 %
Élevé 0,35 5 %

La sensibilité à l’éblouissement augmente avec l’âge. De plus, la variation de perception de l’éblouissement entre personnes est large. Le DGP ne devrait pas être appliqué aux situations pour lesquelles on soupçonne que l’éclairement vertical n’est pas un bon, indicateur de la perception d’éblouissement. Ces situations incluent ; une tâche positionnée loin de la fenêtre, les surfaces de vente des magasins, des halls sportifs et des espaces profonds et sombres avec des très petites fenêtres.


Le Daylight Glare Index (DGI)

Le Daylight Glare Index DGI (ou équation d’éblouissement de Cornell) est une version modifiée du « British glare index BGI », pour prédire l’éblouissement venant des fenêtres. L’équation est exprimée comme suit :

DGI = 10 log( 0,48 x ∑i [ (Ls1,6 x Ωs0,8) / (Lb + 0,07 x ωwi0,5 x Lwi) ] )

Avec

  • Ls : la luminance de source(s) d’éblouissement [cd/m²]
  • Lb : la luminance de l’arrière-plan [cd/m²]
  • Lw : la luminance moyenne pondérée de la fenêtre, en fonction de la surface relative du ciel, des obstructions et du sol [cd/m²]
  • i : le nombre de sources éblouissantes
  • Ωs : l’angle solide sous-tendu par la fenêtre [sr]
  • ωs : l’angle solide sous-tendu par la source d’éblouissement, modifié par la position de la source en considérant le champ visuel et l’indice de position de Guth [sr].

Le DGI exprime la magnitude d’éblouissement et sa valeur est définie comme :

Critères d’éblouissement Daylight Glare Index
Juste imperceptible 16
Juste acceptable 20
Juste inconfortable 24
Juste intolérable 28

Le DGI a été développé dans des conditions d’éclairage électrique et son applicabilité pour des sources d’éblouissement dispersées de même que pour des sources d’éblouissement de grande superficie n’est pas claire. Il ne tient pas non plus compte d’un effet de saturation de l’œil.

Simuler l’éclairage

Simuler l'éclairage


Introduction

Les méthodes et outils pour la rénovation de l’éclairage des bâtiments devraient rencontrer les besoins des architectes et des concepteurs d’éclairage, qui sont focalisés sur des « solutions d’éclairage » ; ils devraient également satisfaire ceux des ingénieurs en service des bâtiments, qui sont centrés sur « la résolution de problèmes ». Les deux approches devraient contribuer de manière efficace à :

  • Donner du support aux utilisateurs concernant la description du projet de rénovation de l’éclairage ;
  • Permettre des évaluations de performance de solutions alternatives de rénovation ;
  • Promouvoir le choix des solutions de rénovation optimales ;
  • Utiliser les métriques appropriées à l’évaluation des performances énergétiques et d’éclairage, et de confort visuel.

Le nombre de méthodes simplifiées et d’outils de simulation avancés permettant l’évaluation de métriques d’évaluation de l’éclairage et du confort visuel est actuellement élevé. Certaines d’entre elles peuvent être appliquées à la fois à l’éclairage naturel et électrique, permettant une approche intégrée pour les procédures de rénovation en matière d’éclairage. Certaines méthodes permettent l’évaluation de performances énergétiques annuelles et en éclairage de projets de rénovation de grands bâtiments, sur un simple PC.

Nous distinguons ci-après quatre types d’outils :

  • Les outils de diagnostic globaux;
  • Les outils de DAO (dessin assisté par ordinateur) et CAO (conception assistée par ordinateur);
  • Les outils de visualisation;
  • Les outils de simulation.

L’ensemble du contenu de cette page provient du rapport « Methods and tools for lighting retrofits : State of the art review » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet d’analyse des méthodes et outils pour la rénovation de l’éclairage des bâtiments peut être téléchargé ici en français.


Les outils de diagnostic globaux

Voici une liste (non exhaustive) d’outils de diagnostic globaux pour la rénovation :

EPIQR+

EPIQR+ est la dernière version d’un software basé sur la méthode EPIQR développée entre 1996 et 1998 dans le contexte du programme Européen de recherche Joule II et soutenu par l’Office Fédéral Suisse pour l’éducation et la Science.

L’objectif de cet outil est d’aider les experts à réaliser un diagnostic systématique d’un bâtiment existant en vue d’estimer son état de dégradation et d’élaborer différents scénarios de rénovation. Les outputs de l’outil incluent une liste de travaux et d’actions ainsi que leurs coûts associés et leurs effets sur la consommation énergétique du bâtiment.

Le logiciel permet :

  • D’établir un enregistrement complet des informations permettant de décrire l’état général du bâtiment à rénover.
  • D’élaborer un diagnostic des conditions physiques et fonctionnelles du bâtiment.
  • De déterminer en détail la nature des travaux requis.
  • D’estimer le pourcentage probable de rénovation du bâtiment (± 15%).
  • D’optimiser la consommation énergétique du bâtiment, après rénovation.
  • De prendre les mesures nécessaires de manière à corriger les désordres relatifs à la mauvaise qualité de l’air et  le confort intérieur.
  • De comparer les différents scénarios d’intervention tout en prenant en compte l’âge des éléments du bâtiment et l’évaluation des coûts en fonction du planning des travaux (planning d’investissement).
  • D’explorer les possibilités d’augmentation de la valeur d’utilisation du bâtiment (après rénovation).

Le principe est de faire une inspection complète du bâtiment, en suivant un chemin systématique, qui permet d’en réviser son entièreté (observations visuelles sans échantillon destructif ou consultation de spécialiste).

À la fin du processus, EPIQR+ donne une vue d’ensemble du statut du bâtiment et offre la possibilité de faire évaluer l’impact de divers scénarios de rénovation. Le coût et la performance énergétique de chaque scénario permet à l’utilisateur de prendre une décision justifiée sur le processus de rénovation.

Site internet de référence : www.epiqrplus.ch

LOTSE ENERGIEEFFIZIENTE INNENBELEUCHTUNG (Guide à l’efficacité énergétique de l’éclairage intérieur)

Avec son interface conviviale et facile à comprendre, le « Guide à l’efficacité énergétique de l’éclairage intérieur » fournit principalement des pistes d’information sur la rénovation énergétique efficace des systèmes d’éclairage. Les informations données dépendent du groupe cible sélectionné et sont organisées selon les phases d’un processus de rénovation. Une estimation grossière des potentiels d’économie d’énergie et de CO2 sont également fournies.

L’information est organisée en blocs que l’on doit sélectionner, structurés selon les phases d’un projet de rénovation typique : analyse de l’état actuel, planning, financement, approvisionnement et maintenance. Le nombre, contenu et niveau de détail de ces différents blocs dépend du groupe cible, qui doit être sélectionné par l’utilisateur lors de la première étape.

Ensuite, avant d’entrer dans la section informative, il existe une option d’évaluation rapide. Sur base d’une procédure très simplifiée de calcul, une estimation des potentiels de gains énergétiques est donnée, dépendant des inputs suivants : type de bâtiment (bureau, stock ou production), taille du bâtiment, âge du système d’éclairage, coûts électriques et nombre d’heures d’opération annuelles.

Site internet de référence : www.lotse-innenbeleuchtung.de

OPTOMIZER

OptoMizer fournit les outils nécessaires pour effectuer un audit d’éclairage complet, précis et détaillé. Le logiciel gère un nombre illimité de projets et d’audits, de locaux et de prix. Il gère aussi un nombre illimité de configurations de luminaire, de calendriers d’occupation et de données détaillées afin de permettre un audit, espace par espace.

Un suivi détaillé des subventions est inclus afin de permettre aux utilisateurs de profiter au mieux de celles-ci et d’encourager au maximum les économies d’énergie.

OptoMizer permet d’envisager toutes les techniques d’éclairage nécessaires et permet d’analyser les possibilités d’économie d’énergie en détail en tenant compte de l’impact carbone et des coûts.

Une fois que l’audit initial a été réalisé et que les données ont été collectées dans OptoMizer, le concepteur d’éclairage peut préserver son audit original comme audit de type « modèle » et cloner l’audit entier en un audit « construction ». Comme le projet de rénovation réel prend place, les changements réalisés peuvent être intégrés dans l’audit « construction ». Cela permet au concepteur de réaliser des comparaisons simples entre l’audit « modèle » et « construction » une fois que le projet est terminé.

Site internet de référence : www.fdlabs.com

ReLight – un outil efficace pour une inspection in-situ des installations d’éclairage et l’identification du potentiel de rénovation

L’objectif de la nouvelle application reLight, pour appareils mobiles tels que les tablettes et les smartphones est de réaliser une inspection à vue et d’analyser plus facilement les systèmes d’éclairage existants.

Elle offre aussi d’autres fonctions de consultance en énergie, telles que des comparaisons de coûts.

Une évaluation du système d’éclairage existant est réalisée par comparaison visuelle et à partir d’une simple description qualitative des proportions du local et du type de façade. En quelques minutes, cela conduit non seulement à une analyse du système d’éclairage existant mais en même temps à des suggestions de rénovation appropriées, incluant un relevé séparé des coûts liés aux différentes propositions.

Site internet de référence : www.relightapp.de


Les outils de DAO et CAO

Voici une liste (non exhaustive) d’outils de dessin assisté par ordinateur (DAO) et/ou de conception assistée par ordinateur (CAO) :

3dsMaxDesign

Le software 3dsMax est développé par Autodesk et est un outil de conception 3D complet. Depuis 2009, Autodesk propose également 3dsMAxDesign. Les deux softwares partagent la même technologie et ont les mêmes fonctionnalités clés. Cependant, alors que 3dsMax est principalement utilisé par des développeurs de jeux vidéo, 3dsMAxDesign est plus adapté aux architectes, concepteurs et ingénieurs. Il permet de réaliser des simulations précises de l’éclairage naturel et artificiel, en conditions statiques, sous ciel CIE couvert ou clair. L’intégration du modèle de ciel de Perez dans le logiciel permet aussi à l’utilisateur d’évaluer son modèle sur base du fichier météo du lieu considéré (simulations dynamiques). On peut également réaliser des animations à partir des images de visualisations créées par ces simulations.

Pour les simulations dynamiques, 3dsMaxDesign utilise le même fichier météo que celui employé par le logiciel EnergyPlus (fichier .epw). Ces fichiers météos sont disponibles (sur le site web du Département de l’Énergie des USA) pour plus de 1000 localisations aux USA et plus de 1000 localisations dans 100 autres pays. Il permet au software de modéliser les conditions d’éclairage naturel pour chaque heure de l’année.

3dsMaxDesign est un outil destiné à être utilisé lorsque le projet est déjà à un stade avancé de la conception car cela peut prendre assez de temps de créer le modèle géométrique précis, d’introduire les informations concernant les matériaux utilisés et de définir le type de ciel considéré. Les utilisateurs doivent suivre un processus bien défini en vue de calculer des valeurs précises.

L’usage de 3dsMaxDesign devrait être réservé à des spécialistes en éclairage car les résultats obtenus devraient être analysés avec un œil critique. En effet, on trouve certains bugs dans le software qui conduisent parfois à des résultats très surprenants (c.-à-d. des valeurs de FLJ plus hautes que 100 % dans 3dsMaxDesign 2013).

Site internet de référence : www.autodesk.com

AUTODESK AutoCAD

AutoCAD permet de développer des dessins vectoriels en 2D ou en 3D et de créer des visualisations 3D. Des rendus de haute qualité peuvent être créés avec la suite AutoCAD.

En fournissant un espace de mise en page connecté à l’espace du modèle, le software est utilisable pour la création de présentations. Il est possible d’améliorer la modélisation sous forme de plan (ajouter la géolocalisation, extraire des isolignes) ou les capacités de design d’AutoCAD en 3D (formes libres) grâce à des plugins additionnels. Il est aussi possible de connecter le workflow entre un ordinateur de bureau, le cloud et des solutions mobiles.

AutoCAD a été développé pour être utilisé à tous les stades de conception du bâtiment ; de l’esquisse et l’avant-projet à la modélisation avancée en 3D ou au plan d’exécution.

Il est utilisé par les architectes, les ingénieurs et les concepteurs aussi bien pour produire des dessins techniques que pour développer une visualisation du bâtiment et des rendus.

Les principaux bénéfices sont le développement et la présentation de dessins techniques et d’exécution 2D ainsi que le développement de modèles 3D de niveau de complexité moyen. Il existe une grande variété des librairies CAO/DAO disponibles sur le Web et contenant des objets et des éléments de construction pouvant être inclus dans le software.

Site internet de référence : www.autodesk.com

Rhinoceros

Rhino permet de modéliser toute sorte de forme, du dessin 2D simple à la forme 3D la plus complexe.

L’interface de Rhino est simple et intuitive et permet une visualisation contemporaine ainsi que le contrôle de vues en plans, en élévation et en perspectives.

Chaque vue peut être translatée, tournée et zoomée de manière indépendante des autres.

Rhino peut être utilisé à toutes les étapes de conception du projet, se prêtant aussi bien à créer un prototypage rapide 3D pour un premier essai qu’à développer des modèles 3D très précis, destinés à la production industrielle. Le software est destiné aux architectes, designers et ingénieurs en architecture et en construction et est approprié pour le design industriel.

Les fabricants d’appareils domestiques et de bureau, de mobilier, d’appareil médical et d’équipement de sport, de chaussures et de bijoux utilisent Rhino pour créer des formes libres.

La force de Rhino réside en sa capacité à créer des formes libres complexes. Les outils inclus permettent d’extraire des informations détaillées concernant la géométrie et d’analyser et de valider les surfaces créées.

Site internet de référence : www.rhino3d.com

Sketchup

SketchUp est un outil de modélisation 3D simplet et très intuitif qui propose aussi des opérations avancées comme le calcul de superficie et de volume. Les modèles SketchUp peuvent aussi être compatibles avec des outils BIM puisque des étiquettes de schéma peuvent être attribuées aux groupes ou composants du modèle.

Il est aussi possible de créer des composants dynamiques. Les composants dynamiques sont des objets SketchUp qui ont été programmés de manière à se comporter intelligemment. Ces composants intelligents peuvent par exemple être réduits sans être déformés. Ces composants peuvent aussi être programmés de manière à bouger automatiquement ; il s’agit par exemple de portes qui s’ouvrent ou de panneaux solaires qui tournent automatiquement de manière à faire constamment face au soleil.

L’outil « SketchUp Match Photo » permet la création d’un modèle 3D sur base de photographies. Dans SketchUp, il est aussi possible de créer, optimiser et altérer le sol, en 3D.

SketchUp ne modélise pas la lumière naturelle mais son engin de modélisation en temps réel réalise des études précises d’ombrage sur le modèle. Une fois que la localisation du modèle est fixée, la position du soleil peut être déterminée et une étude de la pénétration solaire et/ou de l’efficacité des systèmes d’ombrage peut alors être réalisée.

La possibilité de modélisation de Sketchup en lien avec l’éclairage naturel est sa capacité d’étudier les ombres portées, en fonction de la localisation du bâtiment, de son fuseau horaire ainsi que de la date considérée.

Site internet de référence : www.sketchup.com


Les outils de visualisation

Dans leur pratique de tous les jours, les architectes et designers doivent souvent produire des images de leur propres projets, de manière à fixer leur design, convaincre leurs clients ou gagner une compétition.

Ces images montrent des scènes éclairées (scénarios de jour ou de nuit) incluant des sources de lumière, des couleurs, des textures, des surfaces brillantes etc., en essayant de produire des effets photo réalistes.

Parfois ces images sont produites sur base de photos existantes. Des softwares comme PhotoShop incluent des fonctionnalités spécifiques (effet d’éclairage) à cette fin.

Certains outils CAO contiennent aussi des fonctions spécifiques qui permettent de produire ces images à partir de modèles 3D.

Toutefois, une enquête réalisée dans le cadre de l’Agence Internationale de l’Énergie (AIE) a montré que certaines personnes font des confusions entre la visualisation et la simulation.

Ainsi, bien que les outils de visualisation jouent un rôle important comme base de discussion et peuvent être cruciaux pour montrer la distribution de lumière dans un local, ils ne remplacent en aucun cas les résultats donnés par les programmes de calcul de lumière.


Les outils de simulation

Voici une liste (non exhaustive) d’outils permettant la simulation de l’éclairage à l’intérieur d’un local :

DAYSIM

DAYSIM est un software d’analyse de l’éclairage naturel basé sur le logiciel RADIANCE qui modélise la quantité annuelle d’éclairage dans et autour des bâtiments. DAYSIM permet la modélisation de systèmes de façade statiques et dynamiques. L’utilisateur peut spécifier un système de contrôle de l’éclairage électrique du type d’un interrupteur on/off manuel, un détecteur de présence ou une cellule de gradation de la lumière en fonction des disponibilités de lumière naturelle.

DAYSIM est utilisé par les concepteurs, les architectes et les ingénieurs. Cependant, comme DAYSIM est basé sur RADIANCE, une connaissance minimale de RADIANCE est nécessaire de manière à choisir correctement les paramètres de simulations.

Les résultats de simulation sont les métriques dynamiques basées sur le climat telles que l’autonomie dynamique et l’UDI (Useful Daylight Illuminance), l’éblouissement annuel ainsi que les consommations annuelles d’éclairage électrique, sur base de la puissance électrique installée. DAYSIM permet aussi une définition des horaires d’occupation, des charges internes et du statut des protections solaires qui peuvent être couplées directement avec des engins de simulation thermique tels qu’EnergyPlus, eQuest et TRNSYS.

Daysim ne fournit aucun outil de rendu.

Site internet de référence : www.daysim.ning.com

DIALUX

DIALUX permet de calculer l’éclairement naturel, pour trois types de ciel, parmi lequel le ciel couvert CIE.

DIALUX peut être utilisé à toutes les étapes du projet mais comme il n’inclut qu’un outil de modélisation géométrique simple, il est mieux adapté au stade de l’avant-projet. DIALUX est principalement dédié aux concepteurs d’éclairage mais peut être également utilisé par des architectes.

Le modèle géométrique est réalisé dans le software mais on peut importer des fichiers .dwg ou .dxf pour servir de base au dessin.

Site internet de référence : www.dial.de

DIALUX Evo

DIALUX Evo est le nouveau software qui a été introduit en parallèle avec le software DIALUX et qui remplacera ce dernier dans le futur. DIALUX Evo est avant tout dédié au bâtiment.

L’utilisateur crée sa géométrie dans un espace virtuel. Ce peut être une simple pièce, un étage entier ou même un bâtiment entier ou plusieurs bâtiments situés dans un contexte urbain. Si un concepteur conçoit l’éclairage pour un bâtiment entier, il peut se positionner n’importe où dans ce bâtiment et voir le résultat de son plan.

DIALUX Evo permet des calculs d’éclairage électrique et d’éclairage naturel. On peut y modéliser un ciel clair, moyen et couvert. Les valeurs d’éclairement ainsi que le facteur de lumière du jour peuvent être calculées.

DIALUX Evo est moins intuitif que DIALUX et est probablement plus destiné aux concepteurs d’éclairage qu’aux architectes.

Site internet de référence : www.dial.de

DIAL+ Lighting

DIAL+ permet de soit lancer des simulations d’éclairage (RADIANCE) ou de calculer les charges de chauffage et de refroidissement à l’échelle d’un local.

Le module permet de produire des rapports qui incluent les résultats suivants :

  • Facteurs de lumière du jour
  • Autonomie dynamique diffuse (% et heures)
  • Autonomie pour Minergie-Éco (Suisse)
  • Valeurs d’éclairement en éclairage électrique
  • Consommation annuelle d’électricité d’éclairage (SIA 380/4, Minergie)
  • Diagramme solaire incluant les obstructions extérieures.
  • Etudes d’ombrage (facteur d’ensoleillement, fraction de ciel vu)
  • Le module de refroidissement donne accès aux modules suivants : Charges de refroidissement et de chauffage (EN 15251 EN 15255, EN 15265 and ISO 13791, SIA 382/1 SIA 382/2)
  • Débits d’air dus à la ventilation naturelle (Modèle de Cockroft)

Grâce à sa rapidité de simulation et sa simplicité, DIAL+ est particulièrement adapté à la réalisation d’études paramétriques, ce qui est très intéressant au stade de l’avant-projet. DIAL+ permet de prendre des décisions précoces à l’échelle du local et de les appliquer au reste du bâtiment. DIAL+ est une interface très intuitive qui traite de l’optimisation des charges énergétiques, à l’échelle du local.

L’interface a été conçue de manière à permettre à un utilisateur non expert de décrire facilement les paramètres des locaux. Il peut donc être utilisé par des architectes et des ingénieurs. Il est aussi bien adapté à des objectifs pédagogiques. Cependant, l’utilisation de toutes ses caractéristiques (éclairage et thermique) suppose que l’utilisateur a une connaissance minimale du comportement d’un bâtiment.

DIAL+ contient un modeler 3D simplifié qui permet de modéliser des locaux rectangulaires, en forme de L ou de trapèzes, ayant un toit plat, à simple ou double versant. Des objets opaques ou transparents peuvent être ajoutés à l’intérieur des locaux traités. Le temps moyen requis pour décrire tous les paramètres d’un local classique est de moins de 10 minutes.

Les résultats de simulation sont affichés sous forme de plans 2D et de graphes (FLJ, autonomie, éclairement, etc.) sur le plan de travail ou sur les murs.

Site internet de référence : www.diaplus.ch

DIVA-for-Rhino

DIVA pour Rhino permet à ses utilisateurs de réaliser une série d’évaluation de performance environnementale de bâtiments individuels ou de paysages urbains incluant des cartes de rayonnement solaire, des rendus photoréalistes, des métriques dynamiques en éclairage naturel, des analyses d’éblouissement ponctuel et annuel ainsi que des analyses des charges thermiques de modèles unizones.

Cet outil est destiné aux professionnels du secteur de la construction, tels que les architectes et les concepteurs “lumière” familiers avec les outils de conception par ordinateur. Les données sont principalement introduites grâce à l’interface de modélisation 3D Rhinoceros. Une connaissance de ce logiciel est donc essentielle. Un fichier climatique doit être introduit dans le logiciel et l’analyse de l’éclairage naturel peut ensuite être réalisée, selon une grille de mesures définie par l’utilisateur. Le calcul des différentes métriques ainsi que les rendus visuels peuvent alors être facilement réalisés au travers de l’interface DIVA. Il est cependant utile d’avoir des connaissances avancées de simulations en éclairage naturel car il est nécessaire de modéliser les surfaces de manières à ce qu’elles pointent dans la bonne direction, leur donner les propriété photométriques précises (facteur de réflexion, de transmission, etc), modéliser l’environnement (bâtiments et obstacles) qui affecterons les résultats, et sélectionner les bons paramètres de calcul pour Radiance.

Site internet de référence : www.solemma.net

FENER

Fener est utilisé pour comparer des scenarios en termes de climat, géométrie et systèmes de fenêtres, calculant des métriques dynamiques d’énergie, d’éclairage naturel et d’éblouissement. Les fonctions principales de l’outil sont les suivantes :

  • Interface conviviale : l’outil guide l’utilisateur dans son introduction de toutes les données requises pour faire tourner FENER. Trois modes différents sont possibles :
    • Rapide : données prédéfinies de géométrie et conditions frontières.
    • Avancé : permet une flexibilité dans la définition de la géométrie et des conditions frontières
    • Expert : permet d’uploader des fichiers de configuration
  • Base de données : l’outil inclut une base de données à partir de laquelle des données de caractérisation (BSDF et donnée calorimétriques) relatives aux systèmes de fenêtres peuvent être sélectionnées. Des nouveaux systèmes peuvent être uploadés.
  • Stratégie de contrôle : permet à l’utilisateur de définir des stratégies de contrôle. L’utilisateur peut spécifier une matrice d’états de contrôle dépendant de l’occupation, de l’éclairement, de l’indice d’éblouissement, de la température et du rayonnement.

Autres caractéristiques

  • Fener peut être utilisé à partir de différents appareils portables
  • Il inclut une possibilité de visualisation interactive 3D de la géométrie.

L’objectif de cet outil est double :

  • Faciliter le développement de nouveaux produits de façade par les fabricants de composants de façade.
  • Quantifier les avantages de choisir l’un ou l’autre système de fenêtre par les architectes et les concepteurs de bâtiment dans les premières étapes de leurs projets.

L’outil n’inclut pas de possibilité de rendu d’éclairement intérieur.

Site internet de référence : www.fener-webport.ise.fraunhofer.de

GERONIMO

Geronimo est un software convivial pour les architectes et les concepteurs « lumière » conçu pour réaliser des simulations d’éclairage naturel pour des ciels clairs et couverts. Il permet aussi de visualiser l’impact de l’utilisation de systèmes de fenêtre complexes (CFS) sur l’éclairage naturel des bâtiments.

Le logiciel est destiné aux professionnels du secteur de la construction, tels que les architectes et les concepteurs « lumière » familiers avec les outils de conception par ordinateur. Trois modes d’analyse sont possibles dans GERONIMO : base, moyen, avancé. Le mode de base permet à tout utilisateur de produire un rendu et le mode avancé permet à un utilisateur spécialisé de contrôler les paramètres RADIANCE.

GERONIMO n’inclut pas de fonctionnalité de modélisation 3D; à la place, il fournit 6 typologies de bureau qui sont représentatives des configurations classiques.

Il est possible de travailler avec des modèles 3D personnalisés dans GERONIMO à condition de savoir comment créer un fichier de modélisation RADIANCE, qui peut ensuite être introduit dans GERONIMO.

GERONIMO ne réalise que des simulations d’éclairage naturel ; l’éclairage électrique n’est pas pris en compte.

GERONIMO permet des réaliser des rendus en « fausse couleur » de l’éclairement et de valeurs d’éclairement pondérées selon son impact circadien. Il permet de calculer le facteur de lumière du jour et affiche les résultats en niveaux de gris, en utilisant une échelle linéaire ou logarithmique. Il peut calculer les risques d’éblouissement et peut afficher différents indices d’éblouissement. Il contient un module de calcul de l’autonomie diffuse en éclairage naturel réalisé à partir d’un rendu simple sous un ciel couvert.

Site internet de référence : leso.epfl.ch

IES VE

« Virtual Environment » est une suite intégrée d’applications liées par une interface commune et un modèle simple d’intégration de données (IDM). Cela signifie que les données utilisées pour une des applications peuvent être utilisées par d’autres.

Les modèles proposés sont par exemple « ApacheSim » pour la simulation thermique, « Radiance » pour l’éclairage naturel et « SunCast » pour l’analyse des ombrages. L’application de modélisation géométrique 3D est « ModelIT ».

ModelIT permet à l’utilisateur de créer les modèles 3D requis par les autres composants au sein de la « Virtual environment ». ModelIT est conçu pour permettre d’intégrer les niveaux de complexité appropriés au modèle global.

A l’étape de pré-design ou lors de l’étude de faisabilité, des modèles basiques peuvent être générés à partir de croquis en utilisant une variété d’outils de modélisation simples, de manière à mener des évaluations préliminaires ou des études comparatives.

Similairement, en fin de processus de conception, les fichiers .dxf représentant précisément le bâtiment peuvent être importés dans ModelIT, de manière à servir de base pour une représentation 3D des espaces.

Le module d’interface pour RADIANCE, RadianceIES, est intégré dans « Virtual Environment ». Il existe deux types d’images créées par Radiance ; les rendus de luminances et d’éclairements. Un rendu d’éclairement peut être utilisé afin de regarder les valeurs en lux et de générer des iso contours en lux ou en Facteur de Lumière du Jour. Un rendu en luminance est utilisé pour évaluer des indices d’éblouissement ou en tant qu’image photo-réalistes. L’interface est conçue de manière à rendre la création d’images la plus facile possible, en se basant sur des hypothèses par défaut quand c’est possible.

Site internet de référence : www.iesve.com

Lightsolve

L’approche générale de Lightsolve est d’apporter une aide en éclairage naturel, dès le stade de l’avant-projet, au travers d’une visualisation interactive et pro-active, de manière à améliorer la performance du design en termes de performances annuelles. Les métriques évaluées dans Ligthsolve diffèrent de celles évaluées dans la plupart des outils de simulation en éclairage naturel de deux manières : elles sont orientées « objectif » et elles placent leur accent sur la variation de la performance de l’éclairage naturel au cours de l’année en utilisant les cartes temporelles.

Actuellement, 5 différents aspects peuvent être évalués dans Lightsolve :

  1. Analyse d’éclairement sur base temporelle
  2. Analyse de l’éblouissement sur base temporelle en fonction de la position de vision (basée sur le DGP)
  3. Analyse perceptuelle du contraste
  4. Analyse de variabilité (contraste au cours du temps)
  5. Évaluation des effets non visuels (santé).

Un calcul de facteur de lumière du jour est également implémenté.

Lightsolve, actuellement sous forme de beta version, a été dévelopé par le LIPID (EPFL) à destination des académiques et pour des raisons de recherche. L’application est disponible gratuitement dans sa version actuelle et sans garantie pour les étudiants, les chercheurs et les praticiens intéressés par l’outil. Comme il n’a pas encore été totalement validé, il est principalement destiné à un usage académique, de manière à collecter le feedback des utilisateurs.

Lightsolve ne fournit pas de fonctionalité de modélisation 3D mais permet d’importer des fichiers waverfront et des fichiers SketchUp.

Grâce à son rendu rapide, il est possible de l’utilisateur pour naviguer librement dans le modèles 3D et d’avoir un premier feedkback visuel des conditions d’éclairage à différents moments du jour et de l’année.

Site internet de référence : www.lightsolve.epfl.ch

RADIANCE

RADIANCE est un outil sophistiqué d’analyse et de visualisation de la lumière.

À partir de modèles géométriques 3D, il calcule des résultats corrects physiquement et des rendus de haute qualité (luminance / éclairement sous forme de valeurs et d’images). Des représentations en « fausses-couleurs » ou sous forme d’iso-lignes permettent un affichage compréhensible des résultats.

RADIANCE est le programme de référence pour le calcul de la l’éclairage naturel. Les simulations peuvent être réalisées pour différents types de ciel (clair, uniforme ou couvert) ou pour un ciel quelconque défini en utilisant le modèle de Perez. Un plugin additionnel permet de modéliser les 15 nouveaux types de ciel CIE. Le modèle de Perez sert aussi de base pour les calculs annuels de l’éclairage naturel basé sur les données climatiques du lieu considéré.

Des outils supplémentaires permettant de calculer, par exemple, les indices d’éblouissement, sont également disponibles.

RADIANCE est utilisé par les concepteurs, architectes et ingénieurs pour prédire le niveau d’éclairement et l’apparence d’un espace, éclairés avec différents systèmes d’éclairage électrique et naturel, avant la construction. Les chercheurs l’utilisent aussi afin d’évaluer les nouveaux produits d’éclairage. Le software peut être utilisé à toute étape de la conception d’un bâtiment. Il permet de modéliser une grande variété de géométries spatiales et de conditions d’éclairage.

Site internet de référence : www.radiance-online.org

ReluxPro

ReluxPro propose une interface conviviale qui fournit des possibilités d’importation puissantes des plans d’architecture 2D ou de modèles 3D. ReluxPro possède une base de données de luminaires importante, permet de définir précisément la position des luminaires dans le bâtiment et donne rapidement des résultats sous forme de rendus.

ReluxPro permet aussi de calculer des niveaux d’éclairement. Pour chaque zone d’un bâtiment, les niveaux d’éclairement et les valeurs d’uniformité g1 et g2 peuvent être obtenus. Il est dès lors possible d’obtenir un facteur de lumière du jour dans les locaux d’un bâtiment et de prédire la distribution de lumière naturelle dans le local modélisé. Des valeurs de luminance peuvent aussi être calculées.

Il est destiné au secteur des professionnels de la construction, tels que les architectes et les concepteurs d’éclairage familiarisés avec les outils de conception informatique.

ReluxPro inclut des fonctionnalités de modélisation 3D très faciles d’utilisation. Il est possible de modéliser les meubles et les luminaires, à partir d’une vaste base de données. Les ouvertures de fenêtre ainsi que d’autres éléments tels que des portes, peuvent être ensuite définies dans les murs.

Site internet de référence : www.relux.com

VELUX Daylight Visualizer

VELUX Daylight Visualizer est un outil de simulation professionnel destiné à l’analyse et la visualisation des conditions d’éclairage naturel dans les bâtiments de toute échelle, en incluant le résidentiel, les bâtiments commerciaux, les bâtiments industriels et institutionnels. Il est capable de calculer l’éclairement et la luminance pour les 15 types de ciel définis par la CIE. Il peut aussi calculer le facteur de lumière du jour.

L’interface est intuitive ce qui rend le programme accessible aux utilisateurs débutants ainsi qu’à ceux qui sont plus expérimentés à l’usage des outils de calcul de l’éclairage naturel.  Le temps de calcul nécessaire pour réaliser une étude d’éclairage naturel est aussi assez retreint.

Les résultats de simulation sont soit des images photo-réalistes qui peuvent être converties en fausse-couleur ou superposées par des iso-lignes soit des valeurs numériques. En plus des images fixes, le programme peut être utilisé pour créer des animations basées sur la course du soleil.

VELUX Daylight Visualizer est utilisé par les architectes et les ingénieurs pour prédire les niveaux d’éclairement et évaluer l’apparence d’un espace durant la conception d’un bâtiment.

Le programme peut être utilisé au tout début de la conception d’un bâtiment de manière à évaluer la disponibilité et à valider la performance du design final. VELUX Daylight Visualizer est aussi utilisé dans plusieurs écoles et universités pour enseigner l’éclairage naturel.

Site internet de référence : viz.VELUX.com


Comparaison des outils

3ds Max DAYSIM DIALUX DIALUX-EVO DIAL+ DIVA for Rhino FENER GERONIMO IES VE Lightsolve RADIANCE Relux Pro VELUX Daylight Visualizer
Informations générales
Interface graphique X X X X X X X X X X
Importation DAO X X X X X X X X
Modèle 3D X X X X X X X
Rendu 3D X X X X X X X X X
Calculs Radiance X X X X X X X X
Calculs Radiance (méthode 3 phases) X X
Daysim X
Photo-mapping X X X
Cible
Adapté pour les architectes X X X X X X X X X
Adapté pour les ingénieurs électriciens X X X X X
Adaptés pour les ingénieurs HVAC X X X
Adapté pour l’avant-projet X X X X X X X
Adapté pour une conception avancée X X X X X X X X X X
Éclairage naturel
Valeurs de Facteur de Lumière du Jour X X X X X X X X X X X X
Autonomie en éclairage naturel X X X X X X X X
Sensible à l’orientation X X X X X X X X X X
Simulations basées sur le climat X X X X X X X X X
Valeurs d’éclairement X X X X X X X X X X X
Valeurs de luminance X X X X X X X X X
Calcul de l’éblouissement X X X X X X X X
Possibilité de décrire des surplombs/avancées architecturales (fixes) X X X X X X X X X X X
Possibilité de décrire des systèmes d’ombrage (mobiles) X X X X X X X X
Possibilité de décrire des obstructions extérieures X X X X X X X X X X X
Éclairage électrique
Description manuelle des luminaires X X X X
Base de données des luminaires X X
Possibilités d’importer des luminaires (IES, Eulumdat, etc.) X

Rénovation de l’éclairage du bâtiment principal du CSTC à Limelette

Rénovation de l'éclairage du bâtiment principal du CSTC à Limelette

Étude de cas réalisée par le Centre Scientifique et Technique de la Construction (CSTC)


Introduction

Les activités de recherche et les laboratoires du Centre Scientifique et Technique de la Construction (CSTC) sont implantés à Limelette. En 2015, le bâtiment de bureaux principal du Centre à bénéficié de lourds travaux de rénovation.

L’installation d’éclairage fut un point d’attention majeur de ces travaux de rénovation; l’objectif principal étant d’offrir un confort visuel maximal tout en garantissant des consommations énergétiques minimales.

Couloir après rénovation

La rénovation de l’éclairage du bâtiment du CSTC en quelques chiffres

  • Une superficie d’environ 2000 m² répartis sur 3 niveaux et un 60 taine de locaux ;
  • 279 anciens luminaires démontés représentant une puissance installée totale de 28 067 Watts ;
  • 387 nouveaux luminaires installés représentant un puissance installée totale de 10 221 Watts ;
  • Une densité de puissance installée moyenne de 6,6 W/m² dans les locaux de bureaux et de salles de réunion ;
  • Un gain de 68 % sur la puissance installée pour ces mêmes locaux ;
  • Des luminaires présentant une efficacité lumineuse atteignant jusqu’à 148 lm/W.

L’installation avant rénovation

Le bâtiment du CSTC est composé de bureaux individuels, de différentes salles de réunion et d’une grande salle de conférence. Il abrite également une bibliothèque, la cuisine ainsi que le mess du personnel.

Avant rénovation

 

Après rénovation

Les bureaux individuels étaient éclairés par 3 ou 4 luminaires carrés (60×60) encastrés et équipés chacun de 4 tubes fluorescents T8 de 18 W.

Des armoires revêtues d’un plaquage en bois étaient encastrées dans des murs en briques apparentes de teinte jaune. Le sol était composé d’un revêtement souple en linoleum de teinte jaune également.

La commande de l’éclairage était manuelle via un interrupteur permettant allumage et extinction. Le nombre réel d’heures de service des luminaires et la gestion parcimonieuse de leur utilisation selon les besoins était donc entièrement fonction de l’utilisateur.

Pour chaque bureau individuel, la consommation électrique annuelle a été estimée par la méthode PEB à 546 kWh par an, soit l’équivalent d’environ 93 €HTVA et d’une émission de CO2 de 163 kilos chaque année.

Caractéristiques avant rénovation
Puissance des luminaires 86,4 W
Nombre de luminaires par bureau 3
Superficie moyenne d’un bureau 16,46 m²
Puissance installée 15,7 W/m²
Nombre d’heures d’occupation du bureau 2 341 h/an
Consommation estimée 546 kWh/an

Bureau individuel avant rénovation – Vue vers la façade

Bureau individuel avant rénovation – Vue vers la façade


L’installation après rénovation

Une attention particulière a été apportée à la gestion de l’éclairage : chaque bureau a été équipé d’une détection de présence ainsi que d’une gradation du flux lumineux en fonction de l’éclairage naturel.

Détecteurs

Chaque bureau individuel est à présent équipé de deux luminaires à LED avec diffuseur microprismatique. Le choix de cette optique s’avère particulièrement judicieux pour éviter tout risque d’éblouissement et de reflets gênants, en particulier lors d’un travail sur écran.

La commande de l’éclairage se fait à la fois de manière automatique, via un détecteur de mouvement mais peut également faire l’objet d’une dérogation par l’utilisateur via un simple interrupteur.

Une gradation du flux lumineux s’opère de manière automatique en fonction de l’apport d’éclairage naturel via des détecteurs de luminosité.Ce niveau de gradation peut également être modifié librement par l’utilisateur à l’aide du même interrupteur permettant l’allumage et l’extinction.

Ces luminaires à LED, couplés au système de gestion, permettent d’économiser jusqu’à 81 % d’énergie!

Caractéristiques après rénovation Économies
Puissance des luminaires 40 W
Nombre de luminaires par bureau 2
Superficie moyenne d’un bureau 16,46 m²
Puissance installée 4,9 W/m² 69 %
Nombre d’heure d’occupation du bureau 2 341 h/an
Consommation estimée 105 kWh/an 81 %

 

 Bureau individuel après rénovation – Vue vers le couloir

 

 Bureau individuel après rénovation – Vue vers la façade


Le cas particulier de la salle de conférence

Avant rénovation

 

Après rénovation

Dans la salle de conférence, l’amélioration de l’efficacité énergétique des luminaires est maximale avec une puissance installée de  12 442 Watts (soit 39,2 W/m²) avant rénovation et de 1 528 Watts (soit 5,1 W/m²) après rénovation. Ceci représente une amélioration de près de 87%!

Avant rénovation, les 96 luminaires qui étaient installés dans la salle de conférence étaient particulièrement énergivores et comptaient chacun 6 tubes fluorescents de type T8. La puissance installée représentait ainsi 41 % de l’ensemble de la puissance installée de tout le bâtiment.

Après rénovation, 83 luminaires de type downlight ont été installés, intégrant la possibilité de moduler le flux lumineux en fonction de l’ambiance souhaitée. L’amélioration de la puissance installée supérieure à la moyenne a permis de baisser cette proportion à 12 % de l’ensemble de la puissance installée de tout le bâtiment.

La salle de conférence rénovée

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Évaluer la consommation des équipements électriques

Évaluer la consommation des équipements électriques


Plages de consommations

L’ADEME a réalisé une enquête en 2015 auprès de 50 entreprises et sue plus de 100 000 appareils pour déterminer en autres les consommations énergétiques des équipements informatiques en milieu professionnel. Elle a ainsi pu chiffrer la consommation annuelle moyenne d’un appareil :

Appareil Consommation annuelle moyenne

[kWh/an]

Téléphone IP 40
PC portable 48
Client léger 65
Imprimante 71
PC fixe 151
Copieur 447
Appareils moins courants
Smartphone 1 à 2
PDA 4
Tablette 5
Pieuvre pour audioconférence – sans fil 10
Tableau blanc interactif 20 à 26
Mini switch de bureau 20 à 33
Badgeuse 39 à 55
Scanner 8 à 110
Fax 9 à 110
Pieuvre audioconférence – filaire 65
Antenne WI-FI 20 à 120
Machine à affranchir 67 à 190
NAS 220
Traceur de plans 170 à 470
Machine de mise sous pli 570
Écran TV 120 à 1470
Gros copieur utilisé en reprographie 350 à 1800

Ces consommations ne permettent donc pas de rendre compte :

  • du type d’appareil : marque, puissance, etc.
  • du mode d’utilisation : période de veille, d’arrêt, de fonctionnement, etc.

Le label Energy Star

Les fabricants d’équipement de bureautique peuvent obtenir un agrément auprès de l’Union Européenne pour pouvoir apposer le label Energy Star sur leurs produits.

Ce label signifie que le produit rencontre certaines exigences environnementales.

L’ensemble des appareils labellisé est repris dans une grande base de données sur leur site internet. On y retrouve des appareils tels que :

  • Les ordinateurs : fixes, portables, clients légers, tablettes, stations de travails, etc. ;
  • Les écrans : moniteurs d’ordinateurs, cadres photos numériques, affiches de signalisation, etc. ;
  • Les équipements d’imagerie : copieurs, fax, scanner, imprimantes, etc. ;
  • Les équipements alimentés sans interruptions (« UPS »);
  • Les serveurs.

Pour chacun d’entre eux des caractéristiques techniques et de consommations sont renseignées, notamment la puissance en veille ou à l’arrêt mais aussi une estimation de la consommation totale annuelle.

Évaluer un risque de condensation superficielle sur les vitrages

Évaluer un risque de condensation superficielle sur les vitrages


Condensation superficielle côté intérieur

Comment la reconnaître ?

Schéma condensation vitrage

Dans le cas d’un double vitrage, elle se localise dans les coins et sur le pourtour du châssis et du vitrage, à cause des déperditions plus grandes existant dans ces zones par la présence de l’intercalaire du vitrage.

Normalement, la condensation se fera premièrement sur les vitrages et non sur les châssis.
Cependant, la présence de vitrages isolants peut favoriser la condensation de surface sur les châssis surtout si ceux-ci sont en aluminium et sans coupure thermique; leur température peut être plus basse que celle des vitrages.

La présence de condensation intérieure sur les vitrages entraîne

  • une diminution de la visibilité,
  • la formation de givre,
  • des tâches sur les verres, tablettes et allèges, dues aux gouttelettes ruisselantes,
  • la formation de moisissures sur le mastic et/ou le châssis.

Elle n’est gênante qu’en quantité excessive….

Influence du vitrage sur les risques de condensation superficielle

Lorsque la fenêtre constitue la surface intérieure la plus froide du local, c’est d’abord sur celle-ci que va se former de la condensation superficielle. Celle-ci se forme sur la paroi vitrée sans causer de dégâts, l’air intérieur est asséché et la teneur en humidité de l’air du local (xi) (en g/kg) diminue. De ce fait, le risque de condensation superficielle sur les autres parois diminue.

Un autre avantage d’une telle fenêtre, lorsqu’il n’y a pas de système de ventilation contrôlée et qu’il n’est pas envisageable d’en placer un, est que dès qu’il y a condensation à sa surface, les occupants sont prévenus que l’air est trop humide et qu’il faut ventiler.

Ainsi, il est intéressant d’avoir un vitrage sur lequel la condensation superficielle se forme plus rapidement que sur n’importe quelle autre paroi ou n’importe quel pont thermique présent dans le local.

Exemple.

Dans un local, le pont thermique le plus important a un τmin de 0,545. Il s’agit d’une terrasse en béton en encorbellement avec isolation (résistance thermique de 1 m² x K/W) intérieure au droit du linteau et entre la dalle et le plancher.

Schéma pont thermique terrasse.

τ1 = 0,705;
τ2  = 0,905;
τ3 = 0,955;
τ4 = 0,785;
τ5 = 0,98;
τ6 = 0,885;
τ7 = 0,545;
τ8 = 0,77.

τMin = τ7 = 0,545

Le local est muni de vitrages doubles ayant un coefficient de transmission thermique U de 3,22 W/m²K. Le coefficient d’échange thermique de surface entre le vitrage et l’ambiance intérieure (hi) = 10 (W/m²K).

La condensation superficielle va-t-elle se former d’abord sur les vitrages ou sur le pont thermique ?

Calcul du facteur de température (τ) du vitrage :

τ = [(1/3,22) – (1/10)] / (1/3,22)
τ = 0,68 > 0,545 :

La condensation superficielle apparaîtra en premier lieu sur le pont thermique !

Avec un simple vitrage (U = 7 W/m²k), on aurait eu τ = 0,3 < 0,545 : la condensation superficielle, dans ce cas, se forme d’abord sur le vitrage !

Calcul de la teneur en humidité de l’air du local lorsqu’il y a formation de condensation superficielle sur les vitrages

Remarque : Le texte ci-dessous est extrait de la NIT 153 du CSTC.

De l’humidité est extraite de l’air du local par la formation de condensation.
La teneur en humidité de l’air du local (xi) sera par conséquent plus basse que s’il n’y avait pas de condensation superficielle.

En supposant qu’on se trouve en régime stationnaire, l’équation hygrométrique du local comportera un terme supplémentaire, à savoir la quantité d’humidité qui condense par unité de temps sur une surface déterminée A (m²) dans le local.

Ce raisonnement conduit à la relation :

avec,

  • i : le taux d’humidité de l’air intérieur dans le cas où il n’y a pas de condensation superficielle, calculé à l’aide de la formule ci-dessus
  • xsA : le taux d’humidité de saturation (g/kg) correspondant à la température superficielle ηoi (°C) de la surface A

Cette relation est démontrée dans l’Annexe de la NIT 153 du CSTC, pg. 77.

L’expression ci-dessus, peut être utilisée dans les conditions suivantes :

xe < 7 g/kg,
2,5 g/kg < xsA < 12 g/kg,
10°C < ηi < 20°C.

avec,

  • xe : la teneur en humidité de l’air extérieur (g/kg),
  • θi : la température intérieure (°C).

On procède comme suit :

  • On détermine xi° à l’aide de la relation ci-dessus.
  • On détermine xsA en fonction de la température superficielle du vitrage ou de la paroi la plus froide du local.
  • Si xi° > xsA, il y a condensation superficielle.
  • On trouve la valeur finale de xi à l’aide de la relation ci-dessus.
Exemple.

Soit un local muni d’un vitrage de 2 m², ηi = 12°C, D = 0,05 kg/h et nV = 10 m³/h (D/nV = 0,005 kg/m³).

Les conditions extérieures sont ηe = -10°C, φe = 90 % -> xse = 1,60 g/kg.

Admettons que le vitrage de 2 m² soit la surface la plus froide de la pièce.

xi° = 0,9 x 1,6 + 825 x 0,005 = 5,56 (g/kg)

La température superficielle du vitrage est donnée par la formule :

avec,

Pour un vitrage simple (k = 7 W/m²K) et pour un vitrage double (k = 3,22 W/m²K) avec hi = 10 W/m²K, on trouve :

θoi (vitrage simple) = – 3,40°C -> xsA = 2,84 g/kg,
θoi (vitrage double) = 4,92°C -> xsA = 5,37 g/kg.

Comme dans le cas d’un vitrage simple, xsA < xi, on peut conclure que de la condensation se formera sur les vitres.

On calcule :

xi = (5,56 + 10,48 x 2,84 x 2/10) / (1 + 10,48 x 2/10) = 3,72 g/kg

Remarque.

Il convient d’attirer l’attention sur le fait que la valeur xi trouvée se situe à un niveau élevé uniquement parce que nous sommes partis d’une situation stationnaire. Une telle situation est rare en réalité et, lorsque de l’humidité commence à se produire à un moment donné, le degré hygrométrique de l’air du local n’augmentera que lentement.


Condensation superficielle côté extérieur

Comment la reconnaître ?

Celle-ci se manifeste d’abord au centre du vitrage, c’est à dire dans la partie la mieux isolée qui reçoit un minimum d’énergie venant de l’intérieur.

On observe ce phénomène :

En effet, dans ces conditions sous l’effet du rayonnement important vers la voûte céleste (surrefroidissement) et des faibles pertes thermiques à travers le vitrage, la température du vitrage peut descendre sous la température de rosée de l’air extérieure, entraînant l’apparition de condensation sur la face extérieure du vitrage.

Ce phénomène est lié au fait qu’avec un vitrage très isolant, la température de leur face extérieure reste très basse, la chaleur interne étant piégée à l’intérieur du bâtiment.

Comment l’éviter ?

Pas de chance, il n’ y a pas moyen! … À moins d’équiper ses fenêtres d’essuies-glace performants !

Photo reflet vitrage.

Consolons-nous, cela constitue une preuve des performances d’isolation des vitrages concernés !


Condensation entre les vitrages

Si on constate la présence de condensation et qu’elle n’est ni sur la face interne du vitrage ni sur la face externe, c’est qu’elle s’est formée à l’intérieur du double vitrage…

Les vitrages isolants sont habituellement garantis contre la formation de condensation interne pendant une durée de 10 ans.

Cependant des désordres peuvent apparaître bien avant en cas de pose inappropriée du vitrage, c’est à dire :

La formation de condensation interne au vitrage est plutôt un mauvais signe : cela signifie que le sicatif présent dans l’intercalaire à perdu de son efficacité ou que le scellement n’est plus hermétique. Cela entraîne un remplacement quasi inévitable du vitrage.

Améliorer

Si vous voulez en savoir plus sur le remplacement d’un vitrage. 

Repérer un problème de condensation superficielle

Repérer un problème de condensation superficielle


Distinguer un problème de condensation superficielle d’un autre problème d’humidité

Un problème de condensation se manifeste par des problèmes d’humidité ou/et de moisissure. Remarquons cependant que des moisissures peuvent apparaître même sans condensation de surface. En effet, de la condensation superficielle apparaît chaque fois que l’humidité relative à la surface d’une paroi atteint 100 %, alors que la formation de moisissures sur une paroi peut déjà se produire à partir d’une humidité relative de 80 % si le matériau en contact avec l’air humide est hygroscopique.

Néanmoins, un problème d’humidité ou de moisissure peut avoir une autre origine que la condensation de surface. L’eau à l’origine du problème peut provenir d’une cause extérieure :

  • d’infiltrations d’eau de pluie,
  • de la succion d’eau contenue dans le sol (humidité ascensionnelle),
  • de l’absorption d’eau par les matériaux lors de la construction (humidité de construction),
  • de fuites dans une conduite ou une descente d’eau, dans un tuyau d’évacuation (humidité accidentelle).

D’autre part, la condensation interne peut aussi être à l’origine de problèmes d’humidité.

Les infiltrations d’eau de pluie

L’eau de pluie est aspirée de l’extérieur vers l’intérieur du bâtiment par capillarité dans les pores du matériau ou s’infiltre par des fisssures, des joints ouverts, etc.

Le tableau ci-dessous permet de distinguer si l’on est en présence d’un problème d’infiltration ou de condensation superficielle :

Infiltrations

Condensations

Les infiltrations se manifestent à travers les couvertures vétustes. Elles sont plus graves en bas de versants et lors de pluies battantes. Les condensations se manifestent au droit des ponts thermiques (linteaux, corniches, bandeaux, consoles, etc.).

Elles apparaissent surtout dans les locaux peu chauffés et mal ventilés ou dans ceux où il y a une production de vapeur importante.

Les condensations se forment le plus souvent sur les parois orientées au nord ou à l’est car elles sont plus froides.

Les taches ont, en général, des formes arrondies. Les taches se localisent, en général, dans les angles et aux endroits mal ventilés (dos du mobilier, …).
Le débit d’eau est en général trop important pour qu’il y ait formation de moisissures. Très souvent, les condensations s’accompagnent de moisissures.
L’intensité des taches d’humidité passe par un maximum quelques heures après une pluie importante. Le risque de condensation de surface est plus élevé pendant les longues périodes d’hiver où les températures varient entre 0 et 10°C et en présence d’une humidité relative extérieure élevée (temps de brouillard et de pluie).
L’enduit intérieur se dégrade assez rapidement (décollement et pourriture). L’enduit se dégrade plus tardivement et uniquement si les condensations sont très abondantes.
Le décollement du papier peint est fréquent. Le décollement du papier peint est moins fréquent.

* Ce tableau est largement inspiré du tableau page 11 de la brochure : Condensation et moisissures – Service public Wallon/ Aménagement du territoire, Logement, Patrimoine et Énergie (DGO4) / Département de l’Énergie et du Bâtiment durable – Par le Centre Scientifique et Technique de la Construction (CSTC).

L’humidité ascensionnelle

L’humidité ascensionnelle résulte de la pression de la nappe phréatique ou de la succion capillaire de l’humidité du sol. De ce fait, les murs s’imprègnent d’humidité jusqu’à une hauteur de 1,2 à 1,5 m. Ce phénomène se manifeste en l’absence de digue horizontale étanche sous la base des murs.

Si le bas de la face verticale des murs est étanche, l’humidité ascensionnelle peut monter plus haut.

Le problème de l’humidité ascensionnelle concerne rarement les toitures sauf les parfois en bas de versant lorsque celle-ci se trouve proche du sol.

L’humidité de construction

L’humidité de construction est la quantité d’humidité présente dans un bâtiment après la fin des travaux de construction. Elle provient de :

  • L’eau qui est absorbée par les matériaux de construction pendant leur stockage chez le fabricant ou sur le chantier.
  • L’eau de gâchage nécessaire pour la mise en œuvre des matériaux (mortier, béton, plâtre, etc.).
  • L’eau qui provient des précipitations pendant la construction.

Il est déjà arrivé, qu’un an après la construction d’un bâtiment, l’on récolte un demi seau d’eau en perçant une alvéole d’un hourdi en béton.

L’humidité accidentelle

L’ humidité accidentelle est l’humidité qui provient d’une fuite dans une conduite ou une descente d’eau, ou d’une évacuation bouchée.


Tableau récapitulatif

Certaines observations permettent de suspecter l’origine des problèmes. Attention, les phénomènes constatés peuvent découler de plusieurs causes qui parfois même se conjuguent et s’amplifient mutuellement. Le tableau ci-dessous aide à réaliser une première analyse.

OBSERVATIONS, PHENOMENES

CAUSES POSSIBLES

Condensation Pluie battante Humidité ascensionnelle Humidité accidentelle
Pas d’aération, mauvaise isolation thermique x
Humidité de l’air élevée x
Dégâts limités au N. et au NE. x (x) (x)
Dégâts limités au SO. et à l’O. x (x) (x)
Les dégâts ne commencent pas d’en bas x x (x)
Dommages localisés x (x) (x) x
Ponts thermiques x
Dégradation dans les angles x (x)
Sol transpirant x
Humidité uniquement sur la surface intérieure x (x)
Finition intérieure non poreuse x
Taches sur la façade extérieure x x (x)
Pas ou peu de dépassant de toiture x
Taches redentées, irrégulières sur la surface intérieure x (x)
Mur creux (correctement exécutés) (x) (x) (x)
Efflorescences aux étages x (x)
Efflorescences au niveau du sol (x) (x)
Augmentation de l’humidité en fonction de la hauteur x
Consommation anormale d’eau x
Dommage à la toiture, aux gouttières ou aux conduites d’amenée et d’évacuation x
Humidité sur l’épaisseur totale du mur (intérieur et extérieur) (x) x
Dommages limités à l’étage inférieur x
Apparition de dommages peu de temps après une période de pluie x (x)
Davantage de dégâts pendant la saison de pluie x (x) x

Légende : x : cause possible; (x) : possibilité à ne pas exclure.

* Source : Condensation et moisissures – Service public Wallon/ Aménagement du territoire, Logement, Patrimoine et Énergie (DGO4) / Département de l’Énergie et du Bâtiment durable – Par le Centre Scientifique et Technique de la Construction (CSTC).


Un repère : l’année de construction (ou de rénovation) du bâtiment

En général, ce sont surtout les bâtiments datant de la fin des années 1970 et des années 1980 ou ayant été rénovés durant ces années qui présentent des problèmes de condensation et de moisissures.

En effet, depuis la fin des années 1970, l’isolation est devenue chose courante dans le bâtiment. Ce changement dans les habitudes de construction a été induit par le choc pétrolier de 1973.

L’isolation des bâtiments en Wallonie se systématise après 1985, date à laquelle, l’Exécutif régional wallon adopte un règlement thermique imposant une isolation thermique de l’enveloppe des nouveaux logements.

Mais lorsqu’on a commencé à isoler les bâtiments, on a fait beaucoup d' »erreurs de jeunesse » :

  • On a employé des matériaux inadéquats : par exemple, les coulisses remplies de laines minérales trop souples et non hydrofugées ont provoqué de graves problèmes d’humidité.
  • On n’a pas soigné la mise en œuvre de l’isolant : par exemple, les coulisses non nettoyées ou une méthode d’élévation des murs creux inadaptée à de nouvelles exigences ont conduit à des défauts d’isolation.
  • On n’a pas changé la conception des bâtiments, la création de ponts thermiques, résultant d’anciennes pratiques architecturales (exemple : linteau coulé sur place).

Ces défauts ont provoqué des problèmes de condensation superficielle.

De plus, les mesures annexes prises afin de diminuer les consommations, et accompagnant l’isolation ont également favorisé les problèmes de condensation. Ces mesures sont :

  • la réduction de la température intérieure (dans certaines pièces, le chauffage a même été coupé),
  • le calfeutrement des portes et fenêtres,
  • la limitation de l’aération.

Ainsi, très rapidement, l’idée d’isolation fut confondue avec l’idée de calfeutrage et associée à celle d’humidité.

Mais si les bâtiments de cette époque ont particulièrement souffert du manque de connaissance, les problèmes de condensation ne se cantonnent malheureusement pas uniquement à ceux-ci et malgré la maîtrise actuelle de la technique, on retrouve encore des défauts de construction menant tout droit à des problèmes de condensation dans les bâtiments récents.

Ecoconception et étiquetage énergétique : règlements européens

Ecoconception et étiquetage énergétique : règlements européens


Introduction

La réglementation ErP (Energy-related Product) regroupe l’écoconception et l’étiquetage des produits. Elle est bien connue du consommateurs via les écolabel appliqués sur tous les électroménagers disponibles à la vente.

Comme pour ceux-ci, les appareils de production de chaleur, les chauffe-eau ainsi que les ballons de stockage doivent désormais être vendus assortis d’un écolabel ou étiquetage énergétique. Les règlements délégués (UE) n°811/2013 et 812/2013 de la Commission du 18 février 2013 indiquent les règles à suivre pour cette étiquetage énergétique.

Les règles en matière d’écoconception sont d’application pour les fabricants et doivent permettre d’augmenter l’efficacité énergétique des appareils produits et donc de réduire les émissions de CO2 dues à leur utilisation. Ce sont les règlements (UE) n°813/2013 et 814/2013 qui donnent les valeurs qui sont à respecter par les fabricants.

Les objectifs de la réglementation ErP sont d’harmoniser les dispositions d’étiquetage existantes, d’éviter des disparités en termes d’efficacité énergétique, d’inciter les fabricants à améliorer l’efficacité énergétique de leurs produits et ainsi de réaliser des économies d’énergies de chauffage des locaux et de l’eau à l’échelle européenne en imposant une performance énergétique minimale en conception des appareils producteurs de chaleur.

Il est estimé que les effets combinés des règles d’écoconception et de l’étiquetage énergétique pourraient engendrer des économies d’énergie s’élevant à 45 Mtep (523 TWh) pour le chauffage des locaux et 11 Mtep (128 TWh) pour le chauffage de l’eau chaque année sur l’ensemble de l’Europe d’ici 2020.

Les appareils de refroidissement et de ventilation devraient bientôt suivre le même chemin.

Les dispositifs sont d’application depuis le 26 septembre 2015. Une modification des étiquettes et un relèvement des exigences sont prévus pour les 26 septembre 2017, 2018 et 2019.


Domaine d’application

Les produits soumis aux règlements ErP sont :

Pour le chauffage des locaux

  • les dispositifs de chauffage des locaux (chauffage central à eau chaude avec un ou plusieurs générateurs de chaleur fonctionnant par combustion, effet Joule ou capture de chaleur ambiante ou résiduelle) ;
  • les dispositifs de chauffage mixte (fournissant également l’eau chaude sanitaire);
  • les dispositifs de chauffage des locaux par cogénération dont la puissance électrique est inférieure à 50 kW;
  • les produits combinés constitués :
    • d’un dispositif de chauffage des locaux ou mixte,
    • d’un régulateur de température,
    • d’un dispositif solaire (système tout solaire, capteur solaire, ballon d’eau chaude solaire ou pompe de boucle de captage).

Pour le chauffage de l’eau

  • les chauffe-eau (conventionnels, solaires et thermodynamiques avec un ou plusieurs générateurs de chaleur) ;
  • les ballons d’eau chaude d’une capacité de stockage ;
  • les produits combinés constitués :
    • d’un chauffe-eau,
    • d’un dispositif solaire.
Produit Puissances et volumes d’application
Écoconception Étiquetage énergétique
Dispositif de chauffage des locaux

≤ 400 kW

(≤ 50 kWél pour la cogénération)

≤ 70 kW

(≤ 50 kWél pour la cogénération)

Dispositif de chauffage mixte ≤ 400 kW ≤ 70 kW
Chauffe-eau ≤ 400 kW ≤ 70 kW
Ballon d’eau chaude ≤ 2000 litres ≤ 500 litres

Appareils hors champ d’application

Les étiquetages ne sont donc pas valables pour :

  • les dispositifs utilisant à titre principal (à plus de 50%) du gaz ou des produits liquides issus de la biomasse ;
  • les appareils alimentés en combustibles solides ;
  • les appareils industriels tels que, par exemple, les installations supérieures ou égales à 50MW ou les incinérateurs à déchets ;
  • les appareils chauffant et faisant circuler un fluide caloporteur gazeux (vapeur ou air, par exemple) ;
  • les dispositifs de chauffage des locaux par cogénération dont la puissance électrique maximale est de 50 kW ou plus;
  • les chauffe-eau pour un profil de puisage inférieur au plus petit profil (3XS) référencé par le règlement ;
  • les chauffe-eau conçus uniquement pour la préparation de boissons et/ou d’aliments chauds.

Remarques.

Les appareils installés avant le 26 septembre 2015, ne doivent pas faire l’objet d’un étiquetage rétroactif. De même, les appareils de chauffage produits et/ou fournis avant le 26 septembre 2015 ne sont pas soumis à ce règlement d’étiquetage.


Les exigences d’écoconception

Sur l’efficacité énergétique saisonnière pour le chauffage des locaux

Produits Exigences d’efficacité énergétique
Appareils Fonction Puissance à partir du 26/09/2015 à partir du 26/09/2017
Chaudière à combustible chauffage des locaux ou mixte ≤ 70 kW 86 %
> 70 kW 86 % (à 100 % de puissance utile)

94 % (à 30 % de puissance utile)

Chaudière de type B1 chauffage des locaux ≤ 10 kW 75 %
mixte ≤ 30 kW 75 %
Chaudière électrique chauffage des locaux ou mixte 30 % 36 %
Cogénération chauffage des locaux 86 % 100 %
Pompe à chaleur Chauffage des locaux ou mixte 100 % 110 %
Pompe à chaleur basse température 115 % 125 %

Sur l’efficacité énergétique pour le chauffage de l’eau

Caractéristiques pour définir le profil de puisage :

Caractéristiques Profils de puisage
3XS XXS XS S M L XL XXL 3XL 4XL
Débit [l/m] 2 2 3 3 – 5 3 – 6 3 – 10 3 – 10 3 – 16 24 – 48 48 – 96
Température de l’eau chaude [°C] 55 40 – 55 40  – 55 40  – 55 40  – 55 40  – 55 40  – 55
Température requise [°C] 25 25 35 10 – 45 10 – 40 10 – 40 10 – 40 10 – 40 10 – 40

10 – 40

Énergie quotidienne [kWh] 0,345 2,100 2,100 2,100 5,845 11,655 19,070 24,530 46,760 93,520

Pour le chauffage de l’eau au sein d’un dispositif de chauffage mixte :

Exigences Profils de puisage
3XS XXS XS S M L XL XXL 3XL 4XL
à partir du 26/09/2015 22 % 23 % 26 % 26 % 30 % 30 % 30 % 32 % 32 % 32 %
à partir de 26/09/2017 32 % 32 % 32 % 32 % 36 % 37 % 38 % 60 % 64 % 64 %

Pour le chauffage de l’eau au sein d’un chauffe-eau :

Exigences Profils de puisage
3XS XXS XS S M L XL XXL 3XL 4XL
à partir du 26/09/2015 22 % 23 % 26 % 26 % 30 % 30 % 30 % 32 % 32 % 32 %
à partir de 26/09/2017 32 % 32 % 32 % 32 % 36 % 37 % 37 % 37 % 37 % 38 %
à partir du 26/09/2018 60 % 64 % 64 %

Sur le volume de stockage des chauffe-eau

Exigences Profils de puisage
3XS XXS XS S M L XL XXL 3XL 4XL
à partir du 26/09/2015 ≤ 7 litres ≤ 15 litres ≤ 15 litre ≤ 36 litres ≥ 65 litres* ≥ 130 litres* ≥ 210 litres* ≥ 300 litres* ≥ 520 litres* ≥ 1040 litres*
note : * Pour l’eau mitigée à 40°C

Sur le niveau de puissance acoustique

Pour les pompes à chaleur et les chauffe-eau thermodynamiques

Exigences à partir du 26/09/2015 Niveau de puissance acoustique [dB]
à l’intérieur à l’extérieur
Puissance thermique nominale ≤ 6 kW 60 65
≤ 12 kW 65 70
≤ 30 kW 70 78
≤ 70 kW 80 88

Sur les émissions d’oxydes d’azote

Produits Exigences à partir du 26/09/2018
Appareils Système de combustion Combustibles Émissions d’oxydes d’azote en mg/kWh PCS de combustible consommé
Chaudières et chauffe-eau conventionnels gazeux 56
liquides 120
Cogénérations externe gazeux 70
liquides 120
interne gazeux 240
liquides 420
Pompes à chaleur et chauffe-eau thermodynamiques externe gazeux 70
liquides 120
interne gazeux 240
liquides 420

Sur les pertes statiques les ballons d’eau chaude

 Pertes statiques ≤ 16,66 + 8,33 x V0,4 [W]


Les exigences d’étiquetage

Pour les fournisseurs

Pour chaque appareil concerné mis sur le marché ou en service, les fournisseurs doivent :

  • Procurer l’étiquette adéquate et conforme. Elle doit être disponible au sein de l’emballage. Dans le cas d’un produit combiné, une seconde étiquette est fournie ;
  • Fournir une fiche produit. Celle-ci doit au minimum être fournie pour le générateur de chaleur, dans le cas d’un produit combiné, une seconde est nécessaire pour l’ensemble. Une fiche produit est également demandée pour les régulateurs de températures et les dispositifs solaires ;
  • Mettre à disposition des autorités des États membres et de la commission européenne la documentation technique correspondante (du dispositif de chauffage, du régulateur de température et du dispositif solaire correspondant ou du chauffe-eau, du ballon d’eau chaude et du dispositif solaire correspondant si tel est le cas) si elles en font la demande. Cette documentation reprend principalement les éléments repris dans la fiche produit ainsi que le nom et l’adresse du fournisseur, la description du modèle, les références des normes et/ou spécifications techniques appliquées, certains paramètres techniques… ;
  • Référencer la classe énergétique saisonnière pour tout modèle faisant l’objet d’une publicité et mentionnant des informations de prix ou liées à l’énergie ;
  • Référencer la classe énergétique saisonnière dans tous les documents promotionnels techniques du produit concerné.

Pour les distributeurs

Pour chaque appareil concerné mis à la vente ou à la location, les distributeurs doivent :

  • Rendre clairement visible sur le point de vente l’étiquette fournie ;
  • Fournir l’information nécessaire avec le produit si celui-ci n’a pas pu être examiné par l’utilisateur final (par exemple lors d’une vente en ligne); c’est-à-dire, fournir les informations données par la fiche produit mais également ;
  • Référencer la classe énergétique saisonnière pour tout modèle faisant l’objet d’une publicité et mentionnant des informations de prix ou liées à l’énergie ;
  • Référencer la classe énergétique saisonnière dans tous les documents promotionnels techniques du produit concerné.

Pour les produits combinés :


Les étiquettes énergétiques

Les règlements présentent des exemples d’étiquettes pour chaque dispositifs seuls ou combinés et définissent, en plus des informations qui doivent s’y trouver, leurs dimensions et codes couleurs à utiliser. Chaque étiquette comporte le logo de l’Union Européenne en haut à gauche ainsi que son année d’introduction et le numéro du règlement qui lui est associé.

Date d’entrée en vigueur Évolution de l’échelle des classes
Dispositif de chauffage des locaux ou mixtes Chauffe-eau Ballons d’eau chaude Produits combinés
pour les locaux pour l’eau pour l’eau
26/09/2015 A++ à G A à G A à G A à G A+++ à G
26/09/2017 A+ à F A+ à F
26/09/2019

A+++ à D

A+ à F

Les dispositifs de chauffage des locaux ou mixtes verront leur étiquette changer en septembre 2019 pour passer d’une échelle de classe de A++ jusqu’à G à A+++ jusqu’à D. Les chauffes-eau et les ballons de stockage verront quant à eux leur étiquette énergétique changer dès septembre 2017 en passant d’une échelle de classe de A jusqu’à G à à A+ jusqu’à F. Les appareils de classes inférieures ne seront donc plus étiquetées et ne pourront donc plus être soumis à la vente.

Pour les appareils seuls

Exemple d’étiquette énergétique pour une chaudière (chauffage des locaux uniquement).

Les étiquettes d’un dispositifs de chauffage des locaux ou mixtes, d’un chauffe-eau ou d’un ballon d’eau chaude sont toutes construites suivant le même schéma. On y retrouve :

En haut, les renseignements du produit pour l’identifier :

  • le nom ou la marque commerciale du fournisseur (I);
  • la référence du modèle donnée par le fournisseur (II);
  • le logo indiquant le type d’appareil :
    • un radiateur indique que le produit fournit de la chaleur pour les locaux,
    • un robinet indique que le produit fournit de l’eau chaude sanitaire (la lettre associée indique le profil de puisage considéré),
    • un ballon rempli d’eau indique que le produit est un ballon d’eau chaude ;
  • dans le cas d’un dispositif de chauffage des locaux par pompe à chaleur, la température de fonctionnement à moyenne et/ou basse température.

Au milieu, sa classe d’efficacité énergétique :

  • l’échelle des classes énergétiques en fonction de l’année d’introduction de l’étiquette;
  • la classe d’efficacité énergétique du produit sous forme d’une flèche pointant à la même hauteur sur l’échelle des classes;
    • dans le cas d’un dispositif de chauffage mixte, la classe énergétique est spécifiée pour chacune des deux fonctionnalités (chauffage des locaux et de l’eau);
    • dans le cas d’une pompe à chaleur la classe énergétique est spécifiée pour chaque type d’application à basse et/ou moyenne température.

En bas, des informations techniques :

  • le niveau de puissance acoustique à l’intérieur en dB;
  • dans le cas d’une pompe à chaleur, le niveau de puissance acoustique à l’extérieur en dB ;
  • la puissance thermique nominale en kW pour les dispositifs de chauffage des locaux ou mixtes :
    • dans le cas d’une pompe à chaleur, elle est déclinée suivant les trois zones indicatives définies sur la carte des températures en Europe et suivant la ou les températures d’application,
    • dans le cas d’un cogénération, le logo indiquant la fonction supplémentaire de production d’électricité ;
  • la consommation annuelle d’électricité en kWh et/ou de combustible en GJ PCS, pour les chauffe-eau :
    • dans le cas d’un chauffe-eau solaire, elles sont déclinées suivant suivant les trois zones indicatives définies sur la carte solaire européenne,
    • dans le cas d’un chauffe-eau thermodynamiques, elles sont déclinées suivant les trois zones indicatives définies sur la carte des températures en Europe ;
  • les pertes statiques en W et le volume en litres pour les ballons d’eau chaude ;
  • le logo éventuel indiquant que le dispositif de chauffage mixte ou le chauffe-eau conventionnel ou le chauffe-eau thermodynamique peut fonctionner uniquement en heures creuses ;

Pour les produits combinés

Exemple d’étiquette énergétique pour un produit combiné mixte (chauffage des locaux et de l’eau chaude sanitaire).

Les étiquettes d’un dispositifs de chauffage des locaux ou mixtes, d’un chauffe-eau ou d’un ballon d’eau chaude sont toutes construites suivant le même schéma. On y retrouve :

En haut, les renseignements du produit combiné pour l’identifier :

  • le nom ou la marque commerciale du distributeur et/ou fournisseur (I);
  • la référence du ou des modèles donnée par le distributeur et/ou fournisseur (II);
  • le logo indiquant le type de produit combiné :
    • un radiateur indique que le produit fournit de la chaleur pour les locaux,
    • un robinet indique que le produit fournit de l’eau chaude sanitaire (la lettre associée indique le profil de puisage considéré) ;

À gauche, les appareils formant le produit combiné :

  • la ou les classes d’efficacité énergétique pour le chauffage des locaux et/ou de l’eau chaude sanitaire du dispositif de chauffage associé (dispositif de chauffage des locaux ou mixte ou chauffe-eau) sous forme d’une ou deux flèches pointant vers le logo du générateur de chaleur ;
  • les logos représentant les dispositifs pouvant être associé au produit combiné :
    • dans le cas d’un dispositif de chauffage des locaux ou mixte, d’un régulateur de chaleur et d’un dispositif solaire : un capteur solaire, un ballon d’eau chaude, un régulateur de température et/ou un dispositif de chauffage des locaux d’appoint,
    • dans le cas d’un chauffe-eau et d’un dispositif solaire : un capteur solaire et/ou un ballon d’eau chaude.

À droite, sa ou ses classe d’efficacité énergétique :

  • la ou les échelles des classes énergétiques en fonction de l’année d’introduction de l’étiquette ;
  • la ou les classes d’efficacité énergétique du produit combiné pour le chauffage des locaux et/ou le chauffage de l’eau sous forme d’une flèche pointant à la même hauteur sur l’échelle correspondante.

Classes d’efficacité énergétique correspondantes

Sur chaque étiquette pour chaque dispositif concerné, chaque classe énergétique de A+++, la plus efficace, à G, la moins, efficace représente un intervalle où ηs, le rendement saisonnier, se situe. Pour le chauffage des locaux :

Classes d’efficacité énergétique Efficacité énergétique saisonnière en % pour le chauffage des locaux
Dispositifs de chauffage des locaux Pompes à chaleur basse température
A+++ ηs 150 ηs 175
A++ 125 ≤ ηs < 150 150 ≤ ηs < 175
A+ 98 ≤ ηs < 125 123 ≤ ηs < 150
A 90 ≤ ηs < 98 115 ≤ ηs < 123
B 82 ≤ ηs < 90 107 ≤ ηs < 115
C 75 ≤ ηs < 82 100 ≤ ηs < 107
D 36 ≤ ηs < 75 61 ≤ ηs < 100
E 34 ≤ ηs < 36 59 ≤ ηs < 61
F 30 ≤ ηs < 34 55 ≤ ηs < 59
G ηs < 30 ηs < 55

Pour le chauffage de l’eau, les étiquettes pour les dispositifs de chauffage mixte et les chauffe-eau présentent des classes énergétiques dont l’efficacité énergétique ηwh équivalent est fonction du profil de puisage :

Classes d’efficacité énergétique Efficacité énergétique en % pour le chauffage de l’eau selon le profil de puisage
3XS XXS XS S M L XL XXL
A+++ ηwh ≥ 62 ηwh ≥ 62 ηwh ≥ 69 ηwh ≥ 90 ηwh ≥ 163 ηwh ≥ 188 ηwh ≥ 200 ηwh ≥ 213
A++ 53 ≤ ηwh < 62 53 ≤ ηwh < 62 61 ≤ ηwh <  69 72 ≤ ηwh < 90 130 ≤ ηwh < 163 150 ≤ ηwh < 188 160 ≤ ηwh < 200 170 ≤ ηwh < 213
A+ 44 ≤ ηwh < 53 44 ≤ ηwh < 53 53 ≤ ηwh < 61 55 ≤ ηwh < 72 100 ≤ ηwh < 130 115 ≤ ηwh < 150 123 ≤ ηwh < 160 131 ≤ ηwh < 170
A 35 ≤ ηwh < 44 35 ≤ ηwh < 44 38 ≤ ηwh < 53 38 ≤ ηwh < 55 65 ≤ ηwh < 100 75 ≤ ηwh < 115 80 ≤ ηwh < 123 85 ≤ ηwh < 131
B 32 ≤ ηwh < 35 32 ≤ ηwh < 35 35 ≤ ηwh < 38 35 ≤ ηwh < 38 39 ≤ ηwh < 65 50 ≤ ηwh < 75 55 ≤ ηwh < 80 60 ≤ ηwh < 85
C 29 ≤ ηwh < 32 29 ≤ ηwh < 32 32 ≤ ηwh < 35 32 ≤ ηwh < 35 36 ≤ ηwh < 39 37 ≤ ηwh < 50 38 ≤ ηwh < 55 40 ≤ ηwh < 60
D 26 ≤ ηwh < 29 26 ≤ ηwh < 29 29 ≤ ηwh < 32 29 ≤ ηwh < 32 33 ≤ ηwh < 36 34 ≤ ηwh < 37 35 ≤ ηwh < 38 36 ≤ ηwh < 40
E 22 ≤ ηwh < 26 23 ≤ ηwh < 26 26 ≤ ηwh < 29 26 ≤ ηwh < 29 30 ≤ ηwh < 33 30 ≤ ηwh < 34 30 ≤ ηwh < 35 32 ≤ ηwh < 36
F 19 ≤ ηwh < 22 20 ≤ ηwh < 23 23 ≤ ηwh < 26 23 ≤ ηwh < 26 27 ≤ ηwh < 30 27 ≤ ηwh < 30 27 ≤ ηwh < 30 28 ≤ ηwh < 32
G ηwh < 19 ηwh < 20 ηwh < 23 ηwh < 23 ηwh < 27 ηwh < 27 ηwh < 2 ηwh < 28

Les règlements définissent les profils de puisage équivalents, en voici les caractéristiques principales et une estimation correspondantes :

Caractéristiques Profils de puisage
3XS XXS XS S M L XL XXL
Débit [l/m] 2 2 3 3 – 5 3 – 6 3 – 10 3 – 10 3 – 16
Température de l’eau chaude [°C] 55 40 – 55 40 – 55 40 – 55 40 – 55
Température utile[°C] 25 25 35 10 – 45 10 – 40 10 – 40 10 – 40 10 – 40
Énergie quotidienne [kWh] 0,345 2,100 2,100 2,100 5,845 11,655 19,070 24,53

Dans le cas des ballons d’eau chaude l’intervalle est déterminé par les pertes statiques S en fonction du volume V :

Classes d’efficacité énergétique Pertes statique S en watts, avec la capacité de stockage V en litre
A+ S < 5,5 + 3,16 x V0,4
A 5,5, + 3,16 x V0,4 ≤ S < 8,5 + 4,25 x V0,4
B 8,5 + 4,25 x V0,4 ≤ S < 12 + 5,93 x V0,4
C 12 + 5,93 x V0,4 ≤ S < 16,66 + 8,33 x V0,4
D 16,66 + 8,33 x V0,4 ≤ S < 21 + 10,33 x V0,4
E 21 + 10,33 x V0,4 ≤ S < 26 + 13,66 x V0,4
F 26 + 13,66 x V0,4 ≤ S < 31 + 16,66 x V0,4
G S < 31 + 16,66 x V0,4

 

Classes énergétiques des ballons d’eau chaude en fonction de leur volume V en litres et de leur pertes statiques en watts.

Finalement, pour les produits combinés, les classe d’efficacité énergétique affichées correspondent ainsi au rendement saisonnier :

Classes d’efficacité énergétique Efficacité énergétique saisonnière en % pour le chauffage des locaux Efficacité énergétique en % pour le chauffage de l’eau selon le profil de puisage
Dispositifs de chauffage des locaux Pompes à chaleur basse température M L XL XXL
A+++ ηs ≥ 150 ηs ≥ 175 ηwh ≥ 163 ηwh ≥ 188 ηwh ≥ 200 ηwh ≥ 188
A++ 125 ≤ ηs < 150 150 ≤ ηs < 175 130 ≤ ηwh < 163 150 ≤ ηwh < 188 160 ≤ ηwh < 200 170 ≤ ηwh < 213
A+ 98 ≤ ηs < 125 123 ≤ ηs < 150 100 ≤ ηwh < 130 115 ≤ ηwh < 150 123 ≤ ηwh < 160 131 ≤ ηwh < 170
A 90 ≤ ηs < 98 115 ≤ ηs < 123 65 ≤ ηwh < 100 75 ≤ ηwh < 115 80 ≤ ηwh < 123 85 ≤ ηwh < 131
B 82 ≤ ηs < 90 107 ≤ ηs < 115 39 ≤ ηwh < 65 50 ≤ ηwh < 75 55 ≤ ηwh < 80 60 ≤ ηwh < 85
C 75 ≤ ηs < 82 100 ≤ ηs < 107 36 ≤ ηwh < 39 37 ≤ ηwh < 50 38 ≤ ηwh < 55 40 ≤ ηwh < 60
D 36 ≤ ηs < 75 61 ≤ ηs < 100 33 ≤ ηwh < 36 34 ≤ ηwh < 37 35 ≤ ηwh < 38 36 ≤ ηwh < 40
E 34 ≤ ηs < 36 59 ≤ ηs < 61 30 ≤ ηwh < 33 30 ≤ ηwh < 34 30 ≤ ηwh < 35 32 ≤ ηwh < 36
F 30 ≤ ηs < 34 55 ≤ ηs < 59 27 ≤ ηwh < 30 27 ≤ ηwh < 30 27 ≤ ηwh < 30 28 ≤ ηwh < 32
G ηs < 30 ηs < 55 ηwh < 27 ηwh < 27 ηwh < 27 ηwh < 28

La fiche produit

Dispositifs de chauffage des locaux, dispositifs de chauffage mixtes et chauffe-eau

Les éléments devant obligatoirement se retrouver sur la fiche produit d’un dispositif de chauffage des locaux ou d’un dispositif mixtes sont indiqués dans le tableau suivant :

Éléments repris Dispositifs de chauffage des locaux Dispositifs de chauffage mixtes Chauffe-eau
par chaudière par cogénération par pompe à chaleur par chaudière par pompe à chaleur conventionnels solaires thermodynamiques
Nom du fournisseur ou marque commerciale Oui Oui Oui Oui Oui Oui Oui Oui
Référence du produit Oui Oui Oui Oui Oui Oui Oui Oui
Le ou les profils de soutirage déclarés Non Non Non Oui Oui Oui Oui Oui
Classe d’efficacité énergétique pour le chauffage des locaux Oui Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Non Non Non
Classe d’efficacité énergétique pour le chauffage de l’eau Non Non Non Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Oui, dans les conditions climatiques moyennes
Puissance thermique nominale en kW Oui Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Non Non Non
Efficacité énergétique saisonnière pour le chauffage des locaux en % Oui Oui, plus le rendement électrique en % Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Non Non Non
Efficacité énergétique saisonnière pour le chauffage de l’eau en % Non Non Non Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques plus froides, moyennes et plus chaudes Oui, dans les conditions climatiques plus froides, moyennes et plus chaudes
Consommation annuelle d’énergie pour le chauffage des locaux en kWh et/ou GJ PCS Oui Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Non Non Non
Consommation annuelle d’énergie pour le chauffage de l’eau en kWh et/ou GJ PCS Non Non Non Oui Oui, dans les conditions climatiques moyennes Oui Oui, dans les conditions climatiques moyennes Oui, dans les conditions climatiques moyennes
Niveau de puissance acoustique Oui, à l’intérieur Oui, à l’intérieur Oui, à l’intérieur et à l’extérieur Oui, à l’intérieur Oui, à l’intérieur et à l’extérieur Oui, à l’intérieur Oui, à l’intérieur Oui, à l’intérieur et à l’extérieur
Indication de la capacité à ne fonctionner qu’en heures creuses Non Non Non Oui Oui Oui Oui Oui
Précautions particulières pour le montage, l’installation ou l’entretien Oui Oui Oui Oui Oui Oui Oui Oui

Pour les chauffe-eau solaires, dû à la présence des capteurs, il faut y rajouter spécifiquement :

  • la surface d’entrée des capteurs [m²],
  • le rendement optique,
  • le coefficient de perte du premier ordre [W/m²K],
  • le coefficient de perte du second ordre [w/m²K],
  • le facteur d’angle d’incidence,
  • la capacité de stockage en litres,
  • la consommation d’électricité de la pompe [W],
  • et la consommation d’électricité en vieille [W].

Régulateurs de température

La fiche produit contient au minimum les informations suivantes :

  • le nom du fournisseur ou la marque commerciale,
  • la référence du modèle donnée par le fournisseur,
  • sa classe,
  • et sa contribution à l’efficacité énergétique saisonnière pour le chauffage des locaux en %.

Ballons d’eau chaude

Est compris dans la fiche produit d’un ballon d’eau chaude :

  • le nom du fournisseur ou la marque commerciale ;
  • la référence du modèle donnée par le fournisseur ;
  • sa classe d’efficacité énergétique ;
  • ses pertes statiques en W ;
  • sa capacité de stockage en litres.

Dispositifs solaires

Les informations reprisent dans la fiche produit d’un dispositif solaire concernent :

  • le nom du fournisseur ou la marque commerciale ;
  • la référence du modèle donnée par le fournisseur ;
  • la surface du capteur en m² ;
  • pour un dispositif solaire associé à un dispositif de chauffage des locaux :
    • le rendement du capteur en %,
    • la classe d’efficacité énergétique du ballon d’eau chaude solaire,
    • les pertes statiques du ballon d’eau chaude solaire en W,
    • le volume de stockage du ballon d’eau chaude solaire en litre ;
  • ou pour un dispositif solaire associé à un chauffe-eau :
    • le rendement optique,
    • le coefficient des pertes thermiques du capteur solaire en W/m²K,
    • le coefficient de dépendance à la température des pertes thermiques en W/m²K²,
    • le facteur d’angle d’incidence,
    • la capacité de stockage en litre ;
  • la contribution calorifique non solaire en kWh primaire pour l’électricité ou kWh PCS pour les combustibles (pour les profils de soutirage de M à XXL dans les conditions climatiques moyennes) ;
  • la consommation d’électricité de la pompe en W ;
  • la consommation d’électricité en veille en W ;
  • la consommation annuelle d’électricité auxiliaire en kWh d’énergie finale.

Produits combinés

La fiche des produits combinés doit reprendre les valeurs utiles au calcul de l’efficacité énergétique pour le chauffage des locaux et/ou le chauffage de l’eau du produit combiné considéré. Pratiquement, c’est-à-dire l’ensemble des données reprises dans les fiches d’information respectives des dispositifs formant la combinaison.

Finalement, elle reprendra le détail du calcul de l’efficacité énergétique saisonnière pour le chauffage des locaux et/ou le chauffage de l’eau du produit combiné.


Mesures et calculs

Pour pouvoir déterminer la classe d’efficacité énergétique des produits, il est nécessaire de pouvoir calculer leur efficacité énergétique saisonnière de manière unique, conforme et reproductible afin de pouvoir comparer justement deux produits entre eux.

Dispositifs uniques

Les fabricants et fournisseurs doivent calculer l’efficacité énergétique saisonnière et les autres paramètres techniques de leur produit de manière conforme en appliquant des méthodes de calculs approuvé par l’Union Européenne. Ces données sont fournies dans la documentation technique et dans la fiche du produit et doivent permettre de calculer l’efficacité énergétique saisonnier du produit combiné par le distributeur.

Les règlements européens définissent les hypothèses à prendre lors des tests et les formules à suivre lors du calcul de l’efficacité énergétique d’un produit.

Produits combinés

Pour un produit combiné, le seul élément supplémentaire à calculer est l’efficacité énergétique saisonnière globale pour le chauffage des locaux et/ou de l’eau.

Exemple pour le chauffage des locaux par chaudière combinée à un régulateur de température et un dispositif solaire

ηs = ηgen + creg + csup + csol + cpac – csol/pac

Avec :

  • ηs : Efficacité énergétique saisonnière du produit combiné pour le chauffage des locaux en %;
  • ηgen : Efficacité énergétique saisonnière de la chaudière pour le chauffage des locaux en %;
  • creg : Contribution apportée par le régulateur de température en % ;

Classe du régulateur

Contribution en %

I 1
II 2
III 1,5
IV 2
V 3
VI 4
VII 3,5
VIII 5
  • csup = (ηsup – ηgen) x 0,1 : Contribution apportée par une chaudière d’appoint en % ;
  • ηsup : Efficacité énergétique saisonnière de la chaudière d’appoint pour le chauffage des locaux en % ;
  • csol =  [(294 / (11 x Pgen)) x Scap + (115 / (11 x Pgen)) x Vbal] x 0,9 x (ηcap / 100) x Cbal : Contribution apportée par le dispositif solaire en % ;
  • Pgen : Puissance thermique nominale de la chaudière pour le chauffage des locaux en kW ;
  • Scap : Surface du capteur en m² ;
  • Vbal : Volume du ballon en m³ ;
  • ηcap : Rendement du capteur en % ;
  • Cbal : Coefficient fonction de la classe du ballon ;

Classe du ballon

Coefficient Cbal

A+ 0,95
A 0,91
B 0,86
C 0,83
D 0,81
E 0,81
F 0,81
G 0,81
  • cpac = (ηpac – ηgen) x C : Contribution apportée par une pompe à chaleur d’appoint en % ;
  • ηpac : Efficacité énergétique saisonnière de la pompe à chaleur d’appoint pour le chauffage des locaux en % ;
  • C : Coefficient de pondération des puissances thermiques ;

Psup/(Pgen+Psup)

Coefficient de pondération C

sans ballon d’eau chaude

avec ballon d’eau chaude

0 0 0
0,1 0,30 0,37
0,2 0,55 0,70
0,3 0,75 0,85
0,4 0,85 0,94
0,5 0,95 0,98
0,6 0,98 1,00
≥ 0,7 1,00 1,00
  • csol/pac = min ( 0,5 x csol ; 0,5 x cpac ) : facteur défavorable lorsqu’il y a la contribution solaire et par pompe à chaleur en %

Ventilation de l’antenne communale de Louvain-la-Neuve

Ventilation de l'antenne communale de Louvain-la-Neuve


Présentation du projet

La commune d’Ottignies-Louvain-la-Neuve a pris l’initiative de se doter d’un bâtiment exemplaire sur le plan énergétique lors de la construction de son antenne communale à Louvain-la-Neuve. L’appel à projet du bâtiment date du 2 septembre 2008 et a été obtenu par le cabinet d’architecture DELTA. Le bureau d’étude Matriciel s’est chargé des études énergétiques et le bureau BSolutions des techniques spéciales. Le chantier a été terminé en septembre 2013.

 

L’antenne communale de Louvain-la-Neuve est située au 1 voie des hennuyers à Louvain-la-Neuve.

Le bâtiment neuf abrite certains services de l’administration communale de la ville d’Ottignies-Louvain-la-Neuve ainsi que des locaux pour le CPAS et l’antenne de police. Il possède de nombreux bureaux individuels et paysagers et plusieurs salles de réunion. Il est également équipé d’une cafétéria, de plusieurs cuisines, de douches au rez-de-chaussée et de toilettes à chaque étage.
Le bâtiment est divisé en deux parties distinctes marquées par la matérialité de ses façades et de sa forme :

  • la « tour » qui fait office de hall d’entrée, d’accueil, de salle d’attente et de circulation verticale dans le bâtiment et intègre la cafétéria au dernier étage et ;
  • les plateaux où se situent les bureaux, salles de réunions et sanitaires. Les locaux techniques et l’antenne de police sont situés au rez-de-chaussée.

 

Vues intérieures de la salle d’attente située dans la « tour » et des bureaux du CPAS.

Ce bâtiment a été pensé et construit avec l’objectif d’atteindre des performances énergétiques passives. Cependant, durant les phases d’analyses, il a été nécessaire de ne pas intégrer la partie cafétéria et hall d’entrée (la tour du bâtiment) dans le modèle passif afin de pouvoir obtenir les performances énergétiques souhaitées. Une petite astuce qui a permis d’obtenir, pour une partie seulement du bâtiment, le label passif !

Le tableau suivant présente un récapitulatif des valeurs cibles pour un bâtiment passif et les résultats obtenus par simulation lors de l’avant-projet de l’antenne communale.

Indicateur Objectifs Résultats
Vitrages G > 50% 52%
Besoin net de chauffage  ≤ 15 kWh/m²an 13 kWh/m²an
Besoin net de refroidissement ≤ 15 kWh/m²an 3 kWh/m²an
Surchauffe estivale << 10% 8 %
Puissance d’éclairage < 8 W/m² 7,8 W/m²
Étanchéité à l’air n50 < 0,6 Atteint par hypothèse
Absence de ponts thermiques coefficients de transmission linéaires < 0,01 W/mK Atteint par hypothèse
Ventilateur à courant continu consommation <0,45 W/(m³/h) 0,35 W/(m³/h)
Récupération de chaleur haut rendement > 75 % > 80 %
Consommation d’énergie primaire < 85 kWh/m²an 67 kWh/m²an

La ventilation de ce bâtiment est son point particulier. En effet, il possède deux modes de ventilation. Le premier est une ventilation mécanique double flux et le second une ventilation naturelle manuelle réalisée par ouverture des fenêtres et cheminées centrales. L’alternance de ces deux modes se fait suivant des conditions bien précises.


Régulation de la température et du renouvellement d’air

Le bâtiment est équipé, pour le chauffage :

  • d’une chaudière au gaz modulante fonction de la température extérieure suivant un régime nominal 50/30 °C,
  • de radiateurs avec vannes thermostatiques,
  • d’une régulation intégrée pour moduler la température de l’air soufflé grâce à un récupérateur de chaleur à plaques de rendement supérieur à 75 % et d’une batterie à eau,
  • de sondes de température intérieurs et extérieurs.

et pour le renouvellement d’air (mécanique) :

  • d’un groupe de ventilation de pulsion et d’extraction de 3600 m³/h,
  • d’une régulation par horloge,
  • d’une sonde de pression de gaine 500 Pa permettant de faire varier la vitesse des ventilateurs en fonction de l’ouverture (et fermetures) des registres et clapets,
  • de trois sondes de qualité d’air ambiant agissant, notamment, sur les ouvertures des cheminées et trémies,
  • d’un capteur de pluie.

Consignes de températures et de confort

De façon générale, la température de confort prévue pour le bâtiment se situe entre 20 et 25 °C. Un programme horaire pour la température de consigne est prévu :

Températures de consignes
Horaire « Bureaux » « Tour »
Lundi à vendredi de 7h30 à 17h30 et samedi de 8h à 20h 20 °C 15 °C
La nuit et les Week-ends 15 °C 10 °C

La ventilation hygiénique, ventilation de base, est coupée les nuits et les week-ends.

Du point de vue technique : les principes et valeurs de régulation

Chauffage

La modulation du confort intérieur est réalisée grâce à la chaudière, à un thermostat d’ambiance intérieur, à des vannes thermostatiques et à l’aide d’un programme horaire indiquant le régime d’occupation.

Si la température extérieure est négative, l’activité de la chaudière est maintenue en permanence. Au contraire, si la température extérieure est supérieure à 20 °C ou si l’on travaille en ventilation naturelle, la chaudière est mise à l’arrêt.

Ventilation

Pour la ventilation, le passage d’un mode à l’autre est principalement fonction de la température extérieure. Toutefois, des dérogations sont possibles : en cas de pluies, du dépassement d’un seuil critique pour la qualité de l’air, d’incendie, etc.

Le mode de fonctionnement de la ventilation est le suivant   :

Régulation de la ventilation
Température extérieure Ventilation mécanique Ventilation naturelle avec ouverture des fenêtres
inférieure à 15 °C Débit nominal non
entre 15 °C et 24 °C Débit minimal Possible
supérieure à 24 °C Débit nominal + Free cooling non
  • Le débit nominal correspond au débit de conception en s’adaptant aux débits recommandés (pulsés et extraits) de l’annexe C3 de la PEB, elle-même basée sur la norme NBN 13799. Ce type de ventilation suppose que l’air est pulsé et extrait entièrement grâce au système mécanique, les trémies des cheminées centrales sont donc fermées.
  • Le débit minimal correspond à la ventilation minimale requise pour les sanitaires. Celle-ci est effectuée par extraction. Lorsque la ventilation passe en débit minimal, les ouvrants pour la ventilation naturelle sont ouverts et celle-ci est donc permise dans les bureaux et la tour.
  • Le free cooling permet le refroidissement du bâtiment durant les périodes chaudes. Il est estimé à 4 vol/h.

Plusieurs dérogations à cette régulation existent, en cas :

  • de pluies : la ventilation (re)passe en débit nominal et les ouvertures pour la ventilation naturelle sont fermées.
  • de dépassement du seuil défini de qualité de l’air intérieur : la ventilation (re)passe en débit nominal durant minimum 1h.
  • de dérogation grâce à un bouton manuel dans la salle de réunion : la ventilation mécanique nominale est forcée dans tout le bâtiment.

 

Capteur de pluie et bouton de la salle de réunion permettant de déroger à la ventilation naturelle et de forcer la ventilation mécanique.

Finalement, le by-pass du récupérateur de chaleur est activé si la température extérieure est supérieure à 15 °C et qu’elle est inférieure à la température intérieure.

Du point de vue des occupants : une régulation par indicateur lumineux et vannes thermostatiques

Chauffage

Les occupants sont invités, grâce à des affiches, à placer leurs vannes thermostatiques sur la position 3 pour avoir une température équivalente d’environ 20 °C.

Ventilation

Une particularité du site est la présence de témoins lumineux. Ces indicateurs lumineux servent à prévenir les utilisateurs du bâtiment de l’état de fonctionnement de la ventilation :

  • Lumière verte : la ventilation mécanique est minimal, ouverture des fenêtres autorisée.
  • Lumière rouge : la ventilation mécanique est nominal, ouverture des fenêtres interdite.

Sous chaque témoin lumineux est disposée une note explicative du fonctionnement de la ventilation et des consignes d’utilisations optimal.

    

Indicateur lumineux et note explicative disposée dans les couloirs du bâtiment.

Cet affichage visuel est intéressant, car il est simple à comprendre et à mettre en place. De plus, il ajoute un aspect participatif et pédagogique qui permet aux utilisateurs de comprendre le fonctionnement des mécanismes de ventilations au sein de leur bâtiment.

Cependant, cela pourrait être encore plus efficace si le témoin lumineux n’était pas seulement situé dans le couloir où il est uniquement visible si les occupants sortent de leur bureau.


La ventilation naturelle par cheminées centrales

Le bâtiment est équipé d’un système de plusieurs cheminées centrales permettant la ventilation naturelle des locaux, étage par étage suivant les affectations du bâtiment, les bouches d’extraction étant situées dans le couloir.

Organisation des cheminées d’extraction pour la ventilation naturelle de l’antenne communale

Bouches de rejet des cheminées situées en toitures

Ce mode de ventilation naturelle est très intéressant car économique et théoriquement très efficace. Il fonctionne suivant le principe du tirage thermique.

L’air extérieur étant plus frais que l’air intérieur, les fenêtres vont être ouvertes afin de refroidir les locaux. Cet air étant réchauffé monte et finit par être évacué par les bouches d’extraction de la cheminée créant ainsi une circulation de l’air intérieur. En outre, au plus la différence de température sera élevée entre l’intérieur et l’extérieur, au plus le tirage thermique sera efficace et donc augmentera le débit de ventilation. Il est autoadaptatif !

Circulation de l’air dans les locaux en ventilation naturelle

Chaque niveau du bâtiment possède son système de cheminée qui permet un taux de renouvellement d’air théorique de 1.5 vol/h en journée. Théoriquement, on aura donc un débit à chaque étage de :

Étage Superficie [m²] Hauteur sous plafond [m] Estimation du débit [m³/h]
Rez-de-chaussée 209 4 1254
Premier 262 3,22 1265
Deuxième 348 3,22 1680
Troisième 348 3,92 2046

La ventilation mécanique double flux

La ventilation naturelle est couplée à une ventilation mécanique double flux permettant un débit total de 3600 m³/h pour les bureaux.

La ventilation mécanique double flux est là pour assurer la ventilation hygiénique des locaux fonctionnant en parallèle de la ventilation naturelle lorsqu’elle est en fonctionnement, ainsi que la ventilation intensive lorsque les conditions extérieures ne permettent pas une ventilation naturelle. Seules la salle informatique et la cafétéria sont sous ventilation mécanique double flux constante.

L’ensemble des conduits horizontaux passe par de faux plafonds. Les conduits verticaux se situent soit dans des gaines techniques soit directement dans les cheminées centrales. Idéalement, il faudrait vérifier que dans ce dernier cas, les conduits n’entravent pas le bon fonctionnement de la ventilation naturelle.

Les bouches de pulsions sont situées dans les locaux telles que les bureaux, salles de réunion et salles informatiques et l’extraction se fait dans les sanitaires et les cuisines (zones humides).

Circulation de l’air dans les locaux en ventilation mécanique

La centrale de traitement d’air (CTA) est située en toiture. Elle est équipée d’un récupérateur de chaleur à haut rendement (> 80 %) composé d’un échangeur à plaques en aluminium à contre-courant qui permet d’obtenir de bonne économie d’énergie en préchauffant l’air entrant grâce à l’air extrait du bâtiment. Elle possède également une batterie chaude alimentée par la chaudière centrale du bâtiment.

Après la récupération de chaleur et le préchauffage par batterie chaude de 12,2 kW, l’air pulsé dans les locaux est à une température maximale de 24 °C.

Cette CTA ne prévoit finalement pas d’humidificateur ni de déshumidificateur et donc pas de batterie froide. En effet, le climat de la région et la possibilité de free cooling devraient permettre de se dispenser d’un système de refroidissement.


Campagne de mesures

Une petite campagne de mesures des ambiances intérieures a été lancée en août 2015 afin de vérifier les conditions de confort (température, humidité relative et concentration en CO2) du bâtiment. Cette campagne a consisté en une mesure objective de paramètres d’ambiance, mais aussi en un relevé des ressentis des occupants vis-à-vis de la qualité de l’air intérieur et de leur confort thermique.

Monitoring du bâtiment

Ce monitoring a consisté en la pose de 6 dataloggers (sondes de mesures avec enregistrement des données) dans le bâtiment afin d’observer l’évolution des ambiances intérieures.

Les 6 loggers étaient :

  • 2 sondes mesurant la température, l’humidité relative, la concentration en CO2,
  • 3 sondes mesurant la température et l’humidité intérieure des locaux,
  • 1 sonde d’extérieur mesurant la température et l’humidité du climat sur site.

Datalogger avec capteur permettant la mesure de la température, de l’humidité relative et de la concentration de CO2

La mesure du CO2 a plusieurs intérêts, il permet :

  • de jouer le rôle d’indicateur de la qualité de l’air,
  • de mesurer indirectement la concentration des autres polluants par corrélation,
  • détecter la présence de personnes dans le local,
  • de déduire l’amené d’air neuf : 30m³/pers/h permet de maintenir 1000 ppm dans l’ambiance avec une concentration extérieure en CO2 d’environ 400 ppm.

L’ensemble des sondes intérieures ont été réparties dans les bureaux au premier et deuxième étages sous des orientations différentes et également aux fréquentations diverses de manière à représenter la majorité des zones thermique et d’ambiances possibles du bâtiment :

Datalogger Type de bureau Superficie Orientation Occupation Apports solaires Charges hygrothermiques
Température, humidité et CO2 n°1 Open-space et guichets de la commune 98 m² nord-ouest variable limités fortes
Température, humidité et CO2 n°2 Bureau individuel 18 m² nord-ouest 1 personne limités faibles
Température, humidité n°1 Bureau collectif n°1 28 m² sud-est 3 personnes importants moyennes
Température, humidité n°2 Bureau collectif n°2 25 m² nord-ouest 2 personnes limités moyennes
Température, humidité n°3 Bureau d’accueil avec fenêtre ouverte sur le couloir 18 m² nord-ouest 2 personnes limités moyennes

Relevé d’impression d’ambiance par les occupants

Dans chacun des bureaux où un datalogger a été placé, il a été demandé aux occupants de remplir quotidiennement, midi et soir, un relevé d’ambiance intérieur. Les informations récoltées sont de type :

  • Ouvertures des fenêtres suivant une position ouverte ou fermée;
  • Ressenti de la qualité de l’air suivant une échelle de valeurs à 5 niveaux de très mauvaise à bonne;
  • Ressenti de la température suivant une échelle de valeurs de 7 niveaux de très chaud à très froid;
  • Commentaires ou sensations spécifiques.

De plus, afin de déterminer si des écarts de températures sont dus à une mauvaise utilisation des locaux ou à un mauvais réglage des installations, nous avons demandé à quelques utilisateurs de noter, de manière régulière (midi et soir), la position des fenêtres (ouvertes ou fermées), et leurs ressentis de la température et de la qualité d’air. En plus de déterminé si les installations sont bien utilisées ou non, c’est relevé devraient permettre de comprendre les évolutions de températures relevées par les loggers.


Observations des résultats

Relevé des mesures

Institution CPAS Ville Climat

extérieur

Orientation Nord – ouest Sud – est Nord – ouest
Programme Secrétariat Bureau Open space
Surface 18 m² 18 m² 28 m² 25 m² 98 m²
Occupation 2 pers. 1 pers. 3 pers. 2 pers. Variable
Températures 24h/24 Min 20,9 °C 21,3 °C 21,2 °C 20,8 °C 20,9 °C 11,9 °C
Max 28,2 °C 27,7 °C 28,2 °C 31,2 °C 26,6 °C 30,4 °C
Horaire de travail Min 20,9 °C 21,3 °C 21,2 °C 20,8 °C 20,9 °C 12,4 °C
Max 27,5 °C 27,3 °C 27,2 °C 25,7 °C 25,6 °C 27,9 °C
Humidité relative 24h/24 Min 40 % 37 % 42 % 40 % 38 % 29 %
Max 61 % 60 % 61 % 63 % 60 % 93 %
Horaire de travail Min 40 % 37 % 42 % 41 % 38 % 29 %
Max 61 % 54 % 59 % 63 % 57 % 89 %
Concentration en CO2 24h/24 Min 398 ppm 432 ppm
Max 1254 ppm 805 ppm
Horaire de travail Min 483 ppm 486 ppm
Max 1254 ppm 805 ppm

Observations

en humidité relative

L’humidité relative intérieure est toujours située dans ou proche (à 3 % près) des plages recommandées par la réglementation à savoir 40 – 60 % sur les lieux de travail.

Aucune incohérence dans son évolution vis-à-vis de l’humidité extérieure et de la température intérieure n’a été relevée.

Dans plusieurs locaux en certaines périodes, l’humidité relative intérieure est quasiment identique à l’humidité relative extérieure ce qui peut attester d’une ouverture des fenêtres prolongée et/ou intensive.

La régulation de l’humidité relative du bâtiment semble donc être correctement réalisée.

en température

Durant les heures de travail, la température intérieure ne dépasse jamais la limite haute de température acceptable définie par la théorie du confort adaptatif. Toutefois dans trois locaux, la température intérieure dépasse 25 °C sur plus de 40 % de la période travail ce qui atteste d’une surchauffe plus importante que prévue.

Globalement, l’on remarque que la température diminue en matinée avec l’enclenchement de la ventilation, puis avec l’arrivée des usagers et l’ouverture des fenêtres, ce jusqu’en milieu et fin de matinée. À partir de là, la température croit jusqu’en fin de journée de travail. Durant la nuit et le week-end, le bâtiment se décharge lentement de sa chaleur interne.

On remarque l’impact de la ventilation mécanique le matin avec la chute de température dès 7h30.

Lorsque la température extérieure dépasse les 24 °C, les fenêtres sont sensées être fermées et la ventilation mécanique active. Or aucune indication dans le relevé des températures n’indique une diminution ou une stagnation à ces périodes. Cela arrive dans les trois locaux qui subissent le plus de surchauffes (Tint > 25 °C).

Dans l’open space et dans le petit bureau individuel du CPAS, l’évolution de la température reste très stable par rapport aux trois autres locaux qui subissent des variations plus importantes (vers le haut) généralement l’après-midi.

L’évolution de la température au cours du temps dans les locaux est difficile à appréhender étant donné que tant le climat extérieur, le fonctionnement de la ventilation et le comportement des occupants vont influencer celle-ci. Toutefois, il est à noter que même si les températures restent dans les limites acceptables de confort, elles dépassent trop souvent les 25 °C surtout que la température extérieure chute appréciablement durant la nuit. Un refroidissement nocturne du bâtiment grâce aux cheminées centrales pourrait peut-être abaisser la température pour démarrer la journée à 20 °C ou tout du moins à la limite basse de température de confort acceptable suivant la théorie du confort adaptatif et donc limiter les surchauffes dans l’après-midi.

en concentration de CO2

Dans l’open space, la concentration de CO2 semble ne pas dépasser les 800 ppm soit respecter les réglementations. Toutefois, même les périodes hautes correspondent aux heures d’ouverture de la commune, aucun plafond ne permet d’indiquer qu’une occupation accrue n’entrainera pas le dépassement des 1000 ppm. Il est à noter que l’open space est un espace de près de 100 m² qui est totalement ouvert sur le couloir traversant le bâtiment dans la longueur.

Le deuxième local où une sonde mesurant la concentration de CO2 a été placée est le bureau individuel orienté nord-est. Dans celui-ci, la variation de CO2 est beaucoup plus importante et la concentration dépasse durant 2 périodes les 1000 ppm. Une ouverture de la fenêtre marque clairement une chute du CO2 du local.

Conclusion

Les quelques mesures effectuées ne permettent pas de dire si les principes innovants de ventilation prévus dans l’antenne communale de la ville de Louvain-la-Neuve sont efficaces pour garantir une qualité de l’air optimale et un confort thermique idéal durant l’été. La réponse semble positive dans un premier temps, mais quelques observations isolées devraient être étudiées plus en profondeur et expliqués pour en déterminer l’impact de la régulation de la ventilation.

Régler les débits de ventilation

Régler les débits de ventilation [gérer - ventilation]


Principes de réglage

Avant tout chose, il convient de ne pas confondre : régler les débits d’air ce n’est pas les réguler !

  • Réguler les débits d’air c’est modifier l’alimentation en air des locaux en fonction de conditions et de paramètres intérieures et ou extérieurs. Par exemple, si la pollution d’un local dépasse un seuil limite, les débits peuvent être automatiquement réguler à la hausse pour évacuer ce trop plein de pollution intérieur.
  • Régler les débits d’air consiste à effectuer le réglage complet du système juste après son installation (complète !) pour lui permettre d’atteindre les débits prévus lors de la conception. Il s’agit donc du réglage des bouches de pulsion et d’extraction, des clapets de régulation, des ventilateurs, des systèmes de distributions, etc.

Régler une installation, c’est donc assurer dans chaque local le débit d’air nécessaire. Ni plus, ni moins. Par souci de confort et d’économie d’énergie. Cette opération est normalement effectuée par l’installateur avant la réception des travaux, pour ajuster les débits aux valeurs prévues par le bureau d’études. Mais une mise au point ultérieure par le gestionnaire est parfois nécessaire en fonction de l’occupation effective du bâtiment.
L’équilibrage est réalisé dans les conditions normales de fonctionnement, soit

  • avec portes intérieures fermées, sauf si l’usage courant les destine à rester ouvertes,
  • avec portes et fenêtres extérieures fermées,
  • avec l’extraction en fonctionnement dans le cas d’un système double flux.

Il est grandement favorisé par l’existence d’organes de réglage des débits aux bouches et en tête des branches. À défaut, des diaphragmes de réglage peuvent être insérés dans les conduits, mais leur utilisation est moins souple.

Deux principes dirigent le travail :

  1. Tous les débits d’une distribution restent proportionnels entre eux lorsque le débit en tête varie. Autrement dit, si une bouche est réglée pour diffuser un débit double de sa voisine, ce rapport restera quel que soit le débit qui les alimentera.
    Ce principe va entraîner le réglage proportionnel de toutes les bouches d’une branche, puis toutes les branches entre elles, sans se soucier du débit effectif. En fin de travail seulement, le débit total souhaité sera réglé au ventilateur… et donc automatiquement à toutes les bouches.
  2. Après équilibrage de l’ensemble, la consommation d’électricité est la plus faible :

    • Si au moins un organe de réglage de bouche est totalement ouvert (c’est la bouche la plus défavorisée),
    • si au moins un organe de réglage de branche est totalement ouvert (c’est la branche la plus défavorisée),
    • et si le registre du ventilateur est ouvert totalement (à partir du moment où le ventilateur a été correctement dimensionné).

Un exemple vaut mieux qu’un long discours :

Calculs

Un programme de simulation de l’équilibrage d’un réseau aéraulique vous permet de tester la méthode, en vous amusant !

Objectif ? En agissant sur les ouvertures de vannes, il faut obtenir les débits souhaités en adaptant les débits réels.

Suggestion : Imprimer préalablement le mode d’emploi ci-dessous pour l’avoir à côté de soi lors de l’utilisation du programme.


Méthodes d’équilibrage de l’installation

Mode d’emploi de l’équilibrage

  1. Commencer par ouvrir tous les organes d’équilibrage du réseau (bouches, têtes des branches, registre du ventilateur). Sur le terrain, il faudra maintenir le registre du ventilateur à une position proche de la fermeture pour ne pas dépasser la limite de charge du ventilateur (à contrôler par la mesure du courant absorbé par le moteur). Dans les réseaux à débit variable, placer les points de consigne des régulateurs de débit à leur valeur maximale.
  2. Réaliser un premier ajustement des débits (régler approximativement le ventilateur pour que son débit soit légèrement supérieur (10 %) à sa valeur nominale, approcher l’équilibrage en tête des branches par un premier réglage grossier). Cette opération permet d’arriver plus facilement au bon résultat sur le terrain. Elle ne doit pas être faite sur le programme de simulation.
  3. Attaquer une branche (de préférence la branche la plus défavorisée) : repérer la bouche la plus défavorisée (voir remarque ci-dessous), mesurer son débit, laisser son réglage ouvert à 100 %, puis régler le débit de toutes les autres bouches de la branche à un débit proportionnel à celui de la bouche la plus défavorisée. Tous les débits obtenus seront incorrects en valeur, mais corrects dans les proportions entre eux.
  4. Procéder de même pour chaque branche.
  5. Régler les registres des têtes de branches de la même manière : les proportions entre branches doivent être correctes, en vous référant à la demande de la branche la plus défavorisée pour laquelle le registre reste ouvert.
  6. Enfin régler le débit du ventilateur à la valeur totale souhaitée. Normalement, si le ventilateur a été correctement dimensionné ou s’il dispose d’un régulateur de débit, le registre du ventilateur devrait rester ouvert à 100 %. Freiner après le ventilateur, c’est appuyer en même temps sur l’accélérateur et le frein d’une voiture…
Exemple pratique.

Dans le programme de simulation, prenons les 2 dernières bouches de la 3ème branche : elles demandent toutes deux 800 m³/h de débit. Or, sans toucher aux autres organes de réglages, l’une donne 416 m³/h et l’autre 219 m³/h. Fermons l’avant-dernière bouche jusqu’à 82,2 % d’ouverture. Cette fois, les 2 dernières bouches donnent 285 m³/h. Ce n’est donc pas le débit demandé, mais le rapport des débits entre eux est correct : l’avant-dernière bouche donne 100 % de la dernière, l’objectif du réglage est atteint. Après avoir réalisé le même travail avec toutes les autres bouches, il suffira d’adapter le débit total pour que tous les débits soient corrects.

Remarques.

  • Toucher au débit d’une bouche, c’est modifier le débit de toutes les bouches ! Le réglage est donc plus facile à faire sur ordinateur que sur le terrain : l’ordinateur calcule en permanence le rapport entre tous les débits. Sur le terrain, il faut travailler à deux, l’un restant à la dernière bouche durant tout le réglage de la branche et communiquant à son collègue l’évolution du débit…
  • Le programme de simulation permet de visualiser de façon didactique les étapes d’un équilibrage de réseau. Il n’est pas destiné à prédire le réglage d’un réseau déterminé… On ne peut donc y intégrer les données particulières de son propre bâtiment.
  • Ce type de travail est bien adapté aux réseaux pour lesquels la perte de charge des bouches est importante par rapport à la perte de charge des conduits. C’est souvent le cas pour les installations de conditionnement d’air, ce sera sans doute plus difficile dans le cas des réseaux de ventilation.
  • À la fin d’un équilibrage, il est utile de consigner par écrit les valeurs réglées : débits des bouches, pressions en amont des registres, tension, intensité et vitesse du ventilateur, température du réseau lors de l’opération,…
  • Il existe des bouches auto-régulatrices : dans une plage de pression donnée, le débit est maintenu relativement constant, ce qui facilite fortement l’opération, voire la rend inutile…
  • On entend par « bouche la plus défavorisée », celle qui est soumise à la plus faible pression différentielle pour des débits réglés à leur valeur nominale : c’est souvent la bouche la plus éloignée, parce que le trajet le plus long entraîne les pertes de charges les plus élevées. Mais cela peut être parfois l’avant-dernière bouche qui aurait un débit plus élevé et donc également des pertes de charges plus importantes.

Calculs

Si vous faites partie de ceux qui vont toujours voir les réponses à la fin sans chercher, il est possible de visionner le résultat de l’équilibrage… déjà tout fait par un autre ! Il faut admettre que vous avez déjà lu jusqu’ ici…

Groupe de ventilation

Groupe de ventilation


Composition

Le groupe de ventilation correspond à un caisson permettant de centraliser, en un même endroit accessible, la plupart des composants principaux de la ventilation hygiénique suivant le projet.

Dans le cas où le système permet de traiter l’air neuf et de climatiser les locaux on parlera plus souvent de caisson de traitement d’air (CTA).

Les principaux composants que l’on peut retrouver dans le groupe de ventilation ou le caisson de traitement d’air sont les suivant :


Accessibilité et emplacement

Le groupe de ventilation ou la centrale de traitement d’air rassemble un certains nombre des composants d’un réseau de ventilation. C’est pourquoi, peu importe son emplacement, il doit impérativement rester accessible afin de permettre les contrôles, entretiens, inspections, nettoyages, réglages, remplacements, … périodiques et nécessaires.

De manière générale, le groupe de ventilation peut se trouver :

  • soit à l’extérieur du bâtiment, bien souvent en toiture,
  • soit à l’intérieur d’un local technique, situé également en haut du bâtiment pour favoriser les prises et rejets d’air.

Mais le plus important est de savoir s’il se situe à l’intérieur ou à l’extérieur du volume protégé et isolé du bâtiment.

Situation dans le volume protégé

C’est la situation la plus recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le risque de condensation est réduit dans les conduits d’évacuation.
  • Le risque de givre est réduit pour la récupération de chaleur.
  • L’alimentation électrique est interne au bâtiment : pas de percement de l’enveloppe.

Inconvénients

  • Les conduits de prise et de rejet d’air à l’extérieur perce l’enveloppe isolée et étanche du bâtiment.
  • L’air froid extérieur entre vie les conduits; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter tout risque de condensation ou de refroidissement de l’ambiance intérieure.
  • De même ces portions de conduits doivent être limités au maximum ce qui peut s’opposer à un emplacement central du groupe de ventilation qui est bénéfique pour la distribution de l’air neuf au sein du bâtiment et à une limitation des pertes de charges.
  • Le local technique devrait être suffisamment grand, permettre l’accessibilité et l’entretien du caisson et être correctement isolé acoustiquement pour éviter la propagation des bruits des ventilateurs dans le bâtiment.

Situation hors du volume protégé

Il s’agit d’une situation courante mais peu recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le groupe est généralement situé en toiture (plate) ce qui permet de disposer de suffisamment de place et de limiter les portion de conduit de distribution à isoler.
  • Un local technique n’est pas nécessaire mais il faudra veiller à ce que le caisson de traitement d’air soit protéger des intempéries.
  • Les conduits de prises et rejets d’air sont limités à leur maximum voir quasi inexistants.

Inconvénients

  • Les conduits de distribution perce l’enveloppe isolée et étanche du bâtiment.
  • L’air traité au sein du groupe circule dans le conduits de distribution situé à l’extérieur; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter de détruire le traitement de l’air effectué au sein du caisson.
  • Un endroit suffisamment grand et accessible doit être disponible, ce qui n’est pas toujours le cas.
  • L’alimentation électrique est interne au bâtiment : de percement de  l’enveloppe.
  • Le caisson de traitement d’air est parfois visible ce qui n’est pas toujours très au goût des occupants ou architectes.

Concevoir les percements

Concevoir les percements

Principe général

Les jonctions telles que les percements (passage de conduite, caisson de volet, portes, baies vitrées, boîtiers électriques, …) sont toujours des points délicats. On doit vérifier la parfaite jonction du raccord entre la paroi et le percement dès que ce dernier touche la ou les couche(s) de la façade qui assure l’étanchéité à l’air. Si cette jonction présente des espaces, il faut les colmater.

De manière générale, on essayera de réduire au maximum le nombre de percements.


Manchons et fourreaux

Les manchons

Les manchons sont des raccords préfabriqués permettant de réalisé la continuité entre l’élément cylindrique, le conduits ou tuyau, et la surface plane de la paroi. Il est composé d’un élément en forme de cône tronqué, permettant le resserrage autour du conduit, qui est soudé à un élément plan.

Sa mise en œuvre nécessite une place suffisante autour du percement et de la conduite et doit être effectué par l’installateur concerné par la technique.

Le manchon est fixé à la couche d’étanchéité à l’air du mur ou de la toiture grâce à des bandes adhésives simples ou doubles face. Cela nécessite donc que le manchon soit adapté à la nature du pare-air mis en place.

Les fourreaux

Lors de la pose du gros-œuvre, des fourreaux peuvent être mis en place pour accueillir plus tard le passage d’un conduit.

Lorsque le conduit a été mis en place, on dispose un resserrage sur le fourreaux et finalement un manchon souple vient terminer et réaliser la continuité de l’étanchéité à l’air entre l’enduit intérieur et le conduit.

Bruxelles Environnement a édité à une vidéo illustrative du traitement des percements par les câbles et les conduits dans une paroi bois :

Etanchéité à l’air : Percements étanches par les câbles et les conduits[Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].


Raccords souples

Les raccords souples sont très utiles pour les géométries plus complexes que les cylindres.

Sous forme liquide

Il s’agit ici d’appliquer un liquide effectuant le raccord d’étanchéité à l’air. Cette couche de jonction est renforcée par un géotextile permettant de reprendre les éventuels contraintes et d’éviter que la peinture ne se morcelle et que l’air puisse circuler.

Sous forme de ruban adhésif étirable

Des bandes de raccord plissées existent et permettent la jonction avec un conduit cylindrique. Ces bandes doivent ensuite être raccordées comme une jonction sec-sec avec la membrane pare-air ou une jonction sec-humide avec l’enduit.


Élément préfabriqué pour cheminée

Certains fabricants proposent des sorties de cheminée en toiture préfabriquées garantissant la continuité de l’étanchéité à l’air. Ces systèmes permettent également d’assurer la continuité de l’isolation thermique.

Concevoir les menuiseries

Concevoir les menuiseries

Importance de l’étanchéité à l’air des menuiseries extérieures

Les portes et châssis extérieures peuvent déforcer l’étanchéité à l’air globale du bâtiment si leur étanchéité propre n’est pas suffisante. C’est particulièrement le cas si l’étanchéité courante de l’enveloppe extérieur est bonne. Ainsi les châssis peuvent être responsable de près de 50% des fuites d’air.

La perméabilité à l’air d’un châssis est testé en usine et la classe de perméabilité à l’air est généralement communiqué par le fabricant dans ses spécifications techniques.

La norme NBN EN 12207 définit 4 classes de perméabilité à l’air de la classe 1, la moins performante, à la classe 4, la plus performante. Dans une de ses études, le CSTC a montré que la plupart des châssis actuels atteignaient la classe 4 qui est la classe recommandée pour garantir un bonne étanchéité à l’air des menuiseries extérieures.


Performances recommandées pour l’étanchéité à l’air

Concernant les châssis, les STS définissent des niveaux de performance d’étanchéité à l’air (PA2, PA2B, PA3) recommandés en fonction de la hauteur du châssis par rapport au sol.

Voici un tableau (selon les STS 52) reprenant les valeurs de perméabilité à l’air recommandées, en fonction de la hauteur du châssis par rapport au sol :

Hauteur par rapport au sol Perméabilité à l’air
0 à 10 m

10 à 18 m

18 à 25 m

25 à 50 m

> 50 m

PA2B (1) (3)

PA2B (3)

PA3

PA3

PA3

(1) Si il n’y a pas d’exigence particulière du point de vue thermique et/ou acoustique, on se contentera d’un niveau PA2.

(2) Si le bâtiment a une exposition sévère (digue de mer), on prendra un châssis de résistance PE3, et on le signalera dans le cahier spécial des charges.

(3) Si on est en présence de locaux avec air conditionné, un niveau PA3 s’avérera nécessaire.

Selon les STS 52 [5] le cahier spécial des charges peut, pour des raisons d’uniformisation ou d’aspect, prescrire le même niveau de performance pour tous les châssis du bâtiment en se basant sur les éléments de construction les plus exposés.


Les critères de choix

Lors du choix des menuiseries extérieures, il convient de faire particulièrement attention aux points suivant pour assurer l’étanchéité à l’air :

  • La compression des joints entre dormant et ouvrant : le réglage des quincaillerie doit être correctement réalisé pour assure la compression des joints lorsque la fenêtre est en position fermée;
  • La continuité des joints : la continuité des joints des être vérifiée sur le pourtour du châssis. Les jonctions entre deux joints doivent être soudées ou collées;
  • Le raccords entre les pare-closes et la menuiserie : l’étanchéité de ces raccords doit être vérifiés. Au besoin, ils peuvent être rendus étanche à l’air au moyen d’un joint souple, par exemple;
  • Les portes extérieures : le seuil d’une porte donnant vers un espace extérieur ou un espace adjacent non-chauffé est une source de fuite d’air importante. Il faut au minimum prévoir un joint brosse ou une plinthe à guillotine. Le mieux restant la pièce d’appui inférieure.

Concevoir les noeuds constructifs

Concevoir les noeuds constructifs

© B-ARCHITECTES / Architecture et Expertises.


Principe général

Les jonctions telles que les raccords entre les éléments de la construction (façade-toiture, façade-plancher au niveau de la plinthe, …) sont toujours des points délicats. On doit vérifier la parfaite jonction du raccord entre les différents éléments de construction dès que ce dernier touche la ou les couche(s) de la façade qui assure l’étanchéité à l’air. Si cette jonction présente des espaces, il faut les colmater.

La conception ou la vérification de l’étanchéité à l’air des nœuds constructifs d’un bâtiment est une adaptation des principes généraux valables pour les parties courantes et les types de jonction mais une réflexion par rapport à la géométrie du détails doit également être menée.

Les procédés de conception de l’étanchéité à l’air d’un bâtiment décrits et expliqués ci-après sont en grande partie basée sur les détails et conseils techniques donnés par le CSTC dans ses diverses publications.


Façades

Pour assurer l’étanchéité à l’air des façades, les points importants auxquels il faudra faire attention sont les jonctions des murs extérieurs avec les planchers et murs intérieurs, en pied de mur mais également à l’intégration des menuiseries. Les solutions à apporter seront différentes suivant la structure, lourde ou légère, du bâtiment.

Jonction façade-plancher

Dans le cas d’une structure lourde, la continuité de l’étanchéité à l’air est assurée par les enduits des deux pièces superposées et la dalle de plancher en béton coulé. Une attention particulière au joint doit être apportée. Dans le cas de hourdis, il faut s’assurer que le béton de second phase doit correctement remplir les cavités sur le pourtour complet pour assure la continuité entre la maçonnerie, le béton et les enduits.

Schéma jonction façade-plancher.

Dans le cas d’une construction légère, la position de la barrière à l’air doit être pensée dès la conception. En effet il faut prévoir une bande de pare-air à placer en attente sur les murs de pourtour horizontalement avant la mise en place des parois internes pour ensuite pouvoir effectuer le raccord entre les membranes pare-air de deux locaux superposés.

Deux cas existent:

  • soit le plancher repose sur le mur inférieur auquel cas la bande de pare-air doit être suffisamment longue pour recouvrir le mur intérieur sur une dizaine de centimètres, effectuer le tour du plancher et revenir sur une dizaine de centimètres au niveau de mur supérieur.
  • soit le plancher est ancré dans le mur de façade qui lui est continu du pied à la corniche auquel cas, la bande en attente, indispensable, doit être placée sur le pourtour là où viendra s’ancrer le plancher. Il conviendra de faire particulièrement attention aux percements et à ne pas déchirer le pare-air lors de la mise en place du plancher. Ce deuxième cas est également valable lorsque l’on isole par l’intérieur et que le plancher est désolidariser du mur extérieur.

Jonction façade-mur de refend

La jonction entre le mur extérieur et un mur intérieur perpendiculaire se fait par la continuité de l’enduit sur les deux faces. Toutefois, il convient de faire attention au encadrement de porte intérieur qui peuvent représenté des endroits de fuites s’ils ne sont pas enduits.

Dans le cas d’une construction légère, la position de la barrière à l’air doit être pensée dès la conception. En effet il faut prévoir une bande de pare-air à placer en attente sur les murs de pourtour avant la mise en place des parois internes pour ensuite pouvoir effectuer le raccord entre les membranes pare-air de deux pièces voisines. C’est le même principe, mais à la verticale, que dans le cas de la jonction façade-plancher.

Jonction façade-dalle de sol

Il convient de faire le raccord entre la dalle de sol coulée sur place qui est normalement intrinsèquement étanche à l’air et la partie courante du mur faisant office d’étanchéité à l’air : l’enduit dans le cas d’une structure lourde ou le pare-air dans le cas d’une structure légère.

On peut donc effectuer soit un raccord en enduisant un film d’étanchéité de sous la chape ou de sous l’isolant dans le plafonnage ou un disposant une couche de mortier périphérique effectuant le raccord entre l’enduit du mur et la dalle de sol.

Schéma -noeuds constructifs-jonction façade-dalle de sol.

La feuille d’étanchéité (9) faisant office de pare-air doit remonter suffisamment sur le bord pour être enduit par le plafonnage intérieur sur au moins 2 cm.

  1. Mur de structure.
  2. Bloc isolant.
  3. Isolation sur dalle.
  4. Joints verticaux ouverts.
  5. Membrane d’étanchéité.
  6. Membrane d’étanchéité.
  7. Feuille d’étanchéité.
  8. Feuille d’étanchéité.
  9. Feuille d’étanchéité.
  10. Interruption de l’enduit.
  11. Enduit.

Dans le cas d’une structure légère, une bande pare-air sera placé sur le pourtour pour effectuer la jonction entre la dalle et la paroi légère avant la pose du pare-air du mur en partie courante.

Bruxelles Environnement a édité à une vidéo illustrative du placement d’une telle bande :

Etanchéité à l’air : Pied de mur ossature bois [Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].

Dans le cas d’une isolation par l’intérieur, la continuité de l’étanchéité à l’air au pied du mur peut se faire en enduisant la membrane d’étanchéité de sous la chape dans le plafonnage ou en raccord avec le pare-vapeur du mur.

Schéma -noeuds constructifs-jonction façade-dalle de sol.

  1. Mur existant.
  2. Enduit existant.
  3. Dalle existante.
  4. Film d’étanchéité.
  5. Isolant thermique.
  6. Isolant périphérique.
  7. Membrane d’étanchéité.
  8. Chape armée.
  9. Film d’étanchéité.
  10. Isolant.
  11. Pare-vapeur.
  12. Finition.
  13. Panneau composite.
  14. Mousse isolante.
  15. Carrelage.
  16. plinthe.
  17. Joint d’étanchéité.

Jonction façade-châssis

Les fenêtres et portes extérieures sont toutes autant des percements de l’enveloppe du bâtiment que de l’étanchéité à l’air. Si ces menuiseries extérieurs sont déjà garanties étanche à l’air, il convient d’assurer la continuité entre le châssis étanche et l’élément courant du mur faisant office d’étanchéité à l’air.

Le moyen le plus courant d’effectuer cette jonction est de fixer une membrane d’étanchéité à l’air sur le pourtour du châssis au moyen d’un adhésif avant sa pose. Cette membrane pourra, une fois le châssis en place, recouvrir le tour de la baie et être enduit par le plafonnage ou raccordé au pare-air en partie courante. Une attention particulière devra être portée au coin afin d’éviter les plis surnuméraires et de faciliter la mise sous enduit de la membrane.

Schéma - noeuds constructifs- jonction façade-châssis.

Schéma - noeuds constructifs- jonction façade-châssis.

Bruxelles Environnement a édité une vidéo illustrative de cette technique :

Etanchéité à l’air : Pose d’une fenêtre, mur en brique, avec isolation par l’extérieur [Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].

La jonction d’étanchéité à l’air entre le dormant et l’enduit du mur peut également être réalisé avec un joint souple.

Dans le cas d’une structure légère ou d’un mur présentant une épaisseur d’isolation importante, un caisson en panneaux de bois ou en polystyrène haute densité peut être utilisé comme encadrement de la fenêtre. La continuité de l’étanchéité à l’air entre le châssis et le caisson est assuré par un joint continu ou une colle. Le raccord entre le caisson et la partie courante du mur grâce à une bande de membrane d’étanchéité à l’air faisant le pourtour et se noyant dans l’enduit du mur intérieur ou se collant sur le pare-air mis en place.


Toitures inclinées

La barrière d’étanchéité à l’air en partie courante est généralement réalisée avec le pare-vapeur. Il est en effet important d’éviter tout risque de condensation en toiture.

Dans la pente de toiture, la panne représente un point d’attention particulier. Il faut soigner son raccord ou son passage avec le pare-vapeur, le raccord peut se faire soit grâce à un lé en attente, soit en passant sous la panne, cas d’une rénovation par exemple, soit en l’interrompant et en effectuant une liaison avec la panne :

  • En faisant passer le pare-vapeur sous la panne de manière ininterrompue;

Schéma noeuds constructifs - toitures inclinées- 01.

  1. Première couche d’isolant.
  2. Deuxième couche d’isolant.
  3. Pare-vapeur.
  • Au moyen d’une bande de pare-vapeur placée en « attente » sur les pannes avant la mise en place des chevrons. Les parties courantes peuvent alors y être collées au moyen d’un ruban adhésif double face. Cette solution est la plus efficace car elle est pensée dès la conception;

Schéma noeuds constructifs - toitures inclinées- 02.

  1. Panne.
  2. Chevron.
  3. Pare-vapeur.
  4. Latte.
  5. Sous-toiture.
  6. Contre-latte.
  7. Couverture.
  8. Bande de pare-vapeur en attente.
  • Au moyen d’un joint de silicone (uniquement entre pare-vapeur et charpente). Ce joint sera éventuellement caché par la finition;

Schéma noeuds constructifs - toitures inclinées- 03.

  1. Panne.
  2. Chevron.
  3. Pare-vapeur.
  4. Contre-latte.
  5. Sous-toiture.
  6. Latte.
  7. Couverture.
  8. Joint-colle.
  • En comprimant le pare-vapeur entre un joint souple et une latte, le tout cloué ou vissé;

Schéma noeuds constructifs - toitures inclinées- 04.

  1. Pare-vapeur.
  2. Latte.
  3. Joint souple.
  •  Au moyen d’un ruban adhésif double face adhérant parfaitement au bois.

La finition intérieure final par panneaux de bois ou, par exemple, plaques de plâtres. devra être posée en minimisant le nombre de point de percement du pare-vapeur et en laissant un espace suffisant de 6 cm pour faire éventuellement passer des câbles électriques et installer des prises sans endommager la barrière d’étanchéité à l’air.

Finalement, certaines techniques d’isolation comme la toiture « sarking » mettent en place des panneaux préfabriqués intégrant une couche interne étanche à l’air faisant office de pare-vapeur. Il faudra donc veiller à réaliser une jonction correcte entre les panneaux suivant les recommandations du fabricant ou en utilisant des bandes adhésives.

Jonction toiture-façade

Ce type de jonction est traité soit par recouvrement du pare-vapeur par l’enduit de finition intérieur soit par jonction du pare-vapeur du mur et de celui de la toiture par collage ou ruban adhésif double face.

Pour se prémunir de toutes les déchirures qui pourraient avoir lieu dû aux différentes natures de matériaux, on rajoute un élément faisant la liaison entre l’enduit et la maçonnerie et le pare-vapeur de la toiture. Il convient de laisser aussi suffisamment de souplesse, réalisation d’une « boucle » au pare-vapeur de la toiture lors du raccord.
La jonction entre l’enduit et la finition intérieure de la toiture est réalisée par un joint souple.

Schéma noeuds constructifs - Jonction toiture-façade.

  1. Panne sablière.
  2. Chevron ou fermette.
  3. Planche de rive.
  4. Cale de bois.
  5. Panneaux isolants.
  6. Isolant entre chevrons ou fermette.
  7. Sous-toiture éventuelle.
  8. Contre-latte.
  9. Lattes.
  10. Latte plâtrière.
  11. Couverture.
  12. Gouttière.
  13. Bavette indépendante.
  14. Peigne.
  15. Finition intérieure.

 

 Jonction toiture-pignon

La jonction de la toiture avec un mur de maçonnerie sur le pignon s’effectue en enduisant le pare-vapeur dans la finition intérieure.

Schéma noeuds constructifs - Jonction toiture-pignon.

  1. Isolation
  2. Chevron ou fermette
  3. Isolation ou bloc isolant
  4. Mortier de scellement
  5. Sous-toiture
  6. Contre-latte
  7. Latte
  8. Rejet d’eau
  9. Tuile de rive
  10. Isolant entre chevrons
  11. Pare-vapeur
  12. Finition intérieure

La continuité de la barrière d’étanchéité à l’air peu aussi être réalisée par le collage au moyen de colle ou de ruban adhésif du pare-vapeur de la toiture sur l’enduit sec et propre du dépassement. Dans ce cas une finition intérieur supplémentaire devra être envisagée si les combles sont destinés à l’occupation.

Dans les deux cas, il convient de laisser suffisamment de souplesse au pare-vapeur pour éviter tous risques de déchirure dus aux contraintes qui peuvent apparaître. Un joint souple sera en plus prévu entre l’enduit de la maçonnerie et la finition intérieure de la toiture.

Jonction toiture-châssis

La plupart des châssis à intégrer dans la pente de toiture sont fournis avec un cadre isolant pour permettre la raccord avec l’isolation de la toiture. De même, un pourtour est préfixé au châssis pour faciliter sont intégration et réaliser la jonction avec le pare-vapeur de la toiture inclinée.

Schéma noeuds constructifs - Jonction toiture-châssis.Schéma noeuds constructifs - Jonction toiture-châssis.

  1. Contre latte.
  2. latte.
  3. Tuiles.
  4. Solin au-dessus des tuiles à la base du châssis.
  5. Raccord de la sous-toiture au châssis.
  6. Partie mobile de la fenêtre.
  7. Vitrage isolant.
  8. Étanchéité en plomb ou chéneau encastré.
  9. Raccord sous-toiture châssis.
  10. Chéneau en amont de la fenêtre.
  11. Isolation thermique.
  12. Étanchéité à l’air et à la vapeur.
  13. Volige de pied.
  14. Partie fixe de la fenêtre.
  15. Sous-toiture.
  16. Chevron.
  17. Finition intérieure devant espace technique.
  18. Cadre isolant.

Toitures plates

La réalisation de la continuité de l’étanchéité à l’air au raccord entre une toiture plate et le mur de façade se fait de manière similaire à une jonction entre la façade et un plancher :

  • dans le cas d’une structure lourde par dalle coulée sur place, la continuité de la maçonnerie et de l’enduit de finition intérieur garantit l’étanchéité à l’air;

Schéma noeuds constructifs - toiture plate.

Exemple de continuité de l’enduit dans le cas d’une continuité mur-toiture plate

  • dans le cas d’une structure lourde par hourdis, le béton de seconde phase sera utile pour effectuer le raccord de la barrière à l’air;
  • dans le cas d’une structure légère avec le plancher ancré, un lé en attente fera la liaison avec le pare-vapeur de la toiture;
  • dans le cas d’une structure légère avec le plancher posé sur le mur, le lé en attente fera le contour du plancher et dépassera suffisamment de chaque côté pour être relié au pare-vapeur du mur d’un côté et à celui de la toiture de l’autre.

Dans tous les cas, un joint souple entre les finitions intérieures du mur et du plafond permettra d’éviter l’apparition de fissures pouvant entraîner des fuites d’air.

Concevoir l’étanchéité à l’air



L’étanchéité à l’air : Daniel De Vroey vous conseille from Bruxelles Env. on Vimeo.
L’étanchéité à l’air est méconnue des professionnels car on ne la perçoit pas. Il est pourtant essentiel d’y penser, et ce à toutes les étapes de son projet.

L’étanchéité à l’air : Daniel De Vroey vous conseille from Bruxelles Env. on Vimeo.

L’étanchéité à l’air est méconnue des professionnels car on ne la perçoit pas. Il est pourtant essentiel d’y penser, et ce à toutes les étapes de son projet. Daniel De Vroey vous partage ses astuces.


Points d’attention

Avec l’isolation de plus en plus performante de nos bâtiments, leur étanchéité à l’air devient un point important pour contrôler les infiltrations et exfiltrations d’air et avec elles, certaines pertes d’énergie. La tendance actuelle est donc à une étanchéification la plus complète afin de pouvoir contrôler au mieux ces fuites d’air et de pouvoir assurer d’une ventilation efficace des locaux.

Les enduits intérieurs, les bétons coulés sur place et les membranes pare-vapeur sont des éléments intrinsèquement étanche à l’air. L’étanchéité complète de l’enveloppe doit donc être conçue en faisant très attention aux jonctions de ces éléments entre eux et avec les autres éléments de la construction.

Pour cela la mise en œuvre de l’étanchéité à l’air doit faire l’objet de certains points d’attention dès la conception mais aussi sur chantier.

On considère que l’étanchéité à l’air de l’enveloppe extérieur est assurée si :

Ainsi, il conviendra particulièrement de faire attention aux points suivants :

Les procédés de conception de l’étanchéité à l’air d’un bâtiment décrits et expliqués ci-après sont en grande partie basés sur les détails et conseils techniques donnés par le CSTC dans ses diverses publications.


Niveaux de référence

Étanchéité globale

En Wallonie, il n’existe pas de recommandations concernant l’étanchéité à l’air globale d’un bâtiment.

Par contre, la norme européenne EN 13779 recommande un taux de renouvellement d’air maximum à 50 Pa(n50) :

  • de 1/h pour les bâtiments hauts (> 3 étages);
  • de 2/h pour les bâtiments bas.

On peut également se référer à la norme NBN D 50-001 qui recommande :

  • n50 < 3/h si ventilation mécanique,
  • n50 < 1/h si récupérateur de chaleur.

À titre de comparaison, la région de Bruxelles-Capitale imposera en 2018 un niveau d’étanchéité à l’air n50 < 0.6/h (label passif) pour toute construction neuve, et n50 < 0.72/h pour les rénovations assimilées à de la construction neuve.

Étanchéité des fenêtres

En Belgique, les bâtiments des services publics doivent satisfaire aux exigences d’étanchéité suivantes :

Hauteur du bâtiment (h en [m])

Φ50 [m³/h.m]

h < 10

< 3,8

10 < h < 18

< 1,9

h > 18

< 1,3

Source : STS 52 – Menuiseries extérieures en bois. Fenêtres, porte-fenêtres et façades légères. Institut national du logement – Bruxelles – 1973.

Ces exigences sont relativement sévères par rapport aux autres pays (seuls les pays scandinaves ont des exigences plus sévères).

La figure ci-dessous donne un aperçu des valeurs d’étanchéité à l’air des menuiseries imposées par un certain nombre de pays occidentaux.

Schéma valeurs d'étanchéité à l'air des menuiseries.

Aperçu des exigences d’étanchéité à l’air des menuiseries dans différents pays occidentaux.


Les parties courantes

Volume à étanchéifier et position de la barrière d’étanchéité

Le volume du bâtiment à rendre étanche à l’air est le volume à isoler thermiquement. Ainsi l’écran étanche à l’air doit être placé au plus près de la barrière d’isolation, pour éviter au maximum les circulations d’air entre les deux écrans, du côté chaud de l’isolant, c’est-à-dire du côté intérieur pour un mur extérieur.

Tout comme l’isolation thermique, la position de l’enveloppe étanche à l’air du logement doit être choisie pour éviter le plus de percements de celle-ci et donc éviter des points faibles et des raccords difficiles à mettre en œuvre.

Matériaux de l’étanchéité à l’air

Chaque système constructif présente ses particularités d’un point de vue structurelle, ainsi la conception de l’étanchéité à l’air variera selon le mode de construction choisi : maçonnerie, ossature lourde, ossature bois, structure légère, etc.

Il est admis qu’un matériau est étanche à l’air quand sa perméabilité à l’air est inférieure à 0,1 m³/h.m² sous une différence de pression de 50 Pa.

Ainsi pour les constructions lourdes ou de maçonneries, l’étanchéité à l’air est réalisée au moyen des enduits intérieurs. Dans le cas des constructions légères, telles les ossatures bois, l’étanchéité à l’air peut-être atteinte grâce aux panneaux de bois et au pare-vapeur. Les bétons coulés et les chapes de béton font aussi office d’écran étanche à l’air.

Au contraire, des matériaux comme les maçonneries ou les lambris ne sont pas suffisamment imperméables à l’air et ne peuvent pas être utilisés pour mettre en œuvre la barrière d’étanchéité à l’air du bâtiment !

Remarque : les isolants souples avec feuille étanche à l’air (ex. aluminium) ou les isolants rigides étanches à l’air ne devraient pas non plus être utilisés comme écran à l’air. En effet, les techniques de mise en œuvre d’un isolant souple nécessitent généralement l’ajout d’une structure secondaire ou une installation entre chevrons. Dans ce cas-là, un pare-air supplémentaire sera toujours nécessaire pour assurer l’étanchéité des joints et jonctions. C’est également le cas pour les isolants rigides même si leur performance d’étanchéité à l’air est élevée.

L’enduit intérieur

Les enduits intérieurs n’ont pas qu’une qualité esthétique ! Ils ont une performance d’étanchéité à l’air élevée pour autant que l’épaisseur soit suffisante et que l’enduit ne se fissure pas (les fissurations peuvent être une source de fuites d’air). C’est pourquoi, on privilégie une couche minimale de 6 mm d’épaisseur lors de sa pose.

Lors de la conception et la pose du plafonnage ou de l’enduit, il convient de faire particulièrement attention aux endroits cachés : derrière une plinthe, un encadrement de porte ou de fenêtre, derrière une gaine, un mur de brique apparent, … Il faut veiller à la continuité de l’étanchéité à l’air même en ces endroits-là.

Schéma continuité de l'étanchéité à l'air.

L’enduit intérieur fait office de barrière d’étanchéité à l’air lors de la conception d’un mur creux dont les éléments (briques, blocs de béton,…) sont très peu étanches à l’air dû aux cavités présentes dans la matière.

Remarque : les plaques de plâtres sont étanches à l’air en elles-mêmes, mais la réalisation de joints est difficile et les apparitions de fissures à ces endroits sont fréquentes.

Le pare-vapeur ou pare-air

Pour les structures bois et plus généralement pour les structures légères, ce sont les membranes films souples les plus utilisées comme écran à l’air. Dans ce cas-là, la membrane combine les fonctions de pare-vapeur et d’étanchéité à l’air.

Dès lors comme pour les pares-vapeurs, les points d’attention se situeront principalement aux joints de raccord entre les lés de deux parties courantes. De même, les jonctions entre le pare-air et les autres éléments de la construction sont importantes pour garantir l’étanchéité complète du bâtiment.

Les panneaux de bois

Pour une construction en ossature bois ou en panneaux de bois pleins, il n’est pas rare que des panneaux de bois servent à rigidifier la structure. Ces panneaux sont composés de fibres de bois ou de fibres de bois et ciment. Certains ont une perméabilité à l’air inférieur à 0,1 m³/h.m² sous 50 Pa. Ainsi comme les enduits intérieurs n’ont pas qu’une fonction esthétique, ces panneaux de bois n’ont pas qu’une fonction structurelle et peuvent faire office de barrière étanche à l’air.

Dans ce cas, la mise en œuvre devra particulièrement faire attention à ce que les joints entre les panneaux soient rendus étanches à l’air également !

Le béton coulé

Comme les enduits, le béton coulé in situ présente des performances d’étanchéité à l’air importantes. Il convient également de porter une attention particulière aux joints et au jonctions périphériques.


Les jonctions

Pour concevoir efficacement l’étanchéité à l’air d’un bâtiment, il faut correctement réaliser les jonctions et joints entre les parties courantes. Les matériaux utiles à la mise en œuvre de l’étanchéité à l’air sont de type : enduits, films ou panneaux.

On distingue ainsi trois types de jonctions possibles à mettre en place :

  • la jonction sec-sec, par exemple entre deux panneaux de bois;
  • la jonction sec-humide, par exemple entre un film et un enduit;
  • et la jonction humide-humide, par exemple entre deux enduits de façades.

La jonction sec-sec

Ce type de jonction est réalisé au moyen de colle, mastic, bande adhésive ou avec un élément de compression mécanique.

La jonction sec-sec peut être réalisée entre :

  • deux lés de pare-air par un ruban adhésif simple ou double face, par une latte de serrage support par un collage ou par agrafe sur support.
  • un lé de pare-air et une surface d’enduit sec par collage ou ruban adhésif.
  • deux panneaux de bois par joint souple ou ruban adhésif.
  • deux surfaces d’enduit sec par un joint souple.

Dans le cas du raccord entre deux bandes de membranes pare-air, il convient de :

  • vérifier la propreté des parties à coller, souder ou compresser;
  • assurer un chevauchement suffisant des parties. Le ruban adhésif ou la colle ne sont que des moyens de jonction et ne peuvent pas être considérées comme des membranes étanches à l’air même si elles le sont;
  • si la structure est en bois, les membranes peuvent être agrafées mais celle-ci devront être recouvertes de ruban adhésif;
  • éviter de tendre la membrane d’étanchéité, afin de ne pas lui imposer des contraintes qui pourraient mener à des déchirures.

Ruban adhésif

Latte de serrage

Remarque : dans le cas ou les lés sont perpendiculaires à la structure, la jonction doit s’effectuer sur un support généralement souple comme de l’isolant. Un assemblage soit par chevauchement soit par joint debout et collage ou moyen de colle ou ruban adhésif double face avec une grande précision doit être réalisé.

La jonction sec-humide

Une jonction entre un film pare-air ou un panneau de bois et le mur enduit peut devoir être réalisée entre les menuiseries et la façade ou par exemple entre la toiture et le mur de pignon.

La membrane, partie sèche, doit être « noyée » dans l’enduit, partie humide, pour garantir la continuité de la barrière d’étanchéité à l’air. Il est donc nécessaire de prévoir un raccord suffisamment long, en attente, lors de la pose de la membrane pare-air en toiture ou au châssis pour effectuer le raccord.

La partie sèche doit pouvoir être enduite sans perdre ses caractéristiques physiques sans lui induire des contraintes qui pourraient la déchirée. Si ce n’est pas le cas, des bandes noyées existent et permettent de faire le raccords avec la membrane pare-air.

Exemple de jonction sec-humide de la toiture avec le mur de pignon : la membrane du pare-air a été laissée suffisamment longue pour ensuite être « noyée » dans l’enduit lors de la pose de celui-ci

  1. Isolation
  2. Chevron ou fermette
  3. Isolation ou bloc isolant
  4. Mortier de scellement
  5. Sous-toiture
  6. Contre-latte
  7. Latte
  8. Rejet d’eau
  9. Tuile de rive
  10. Isolant entre chevrons
  11. Pare-vapeur
  12. Finition intérieure

La jonction humide-humide

La jonction entre deux faces d’enduits, par exemple dans le coin d’une pièce est théoriquement la plus facile à réalisée, dans les règles de l’art du plafonneur.

Toutefois, le bâtiment doit pouvoir vivre et dans certains cas pour éviter l’apparition de fissures, deux parois doivent être désolidarisées, c’est particulièrement le cas à la jonction mur-plafond. L’enduit n’étant plus continu, on placera un joint souple afin de garantir la continuité de l’étanchéité à l’air.

Rénovation de l’éclairage de deux locaux d’un bâtiment de bureaux du CSTC

Rénovation de l'éclairage de deux locaux d’un bâtiment de bureaux du CSTC

Étude de cas réalisée par le Centre Scientifique et Technique de la Construction (CSTC)


Introduction

L’objectif de la rénovation présentée ici était d’étudier l’état de l’art des solutions LEDs existantes en 2014. Deux locaux ont été rénovés avec, comme objectifs, une réduction de la consommation d’énergie d’éclairage mais aussi une augmentation du confort visuel général.

Les deux locaux rénovés se trouvent dans le bâtiment de bureaux du CSTC situé, Lozenberg 7 à 1932 Sint-Stevens-Woluwe (Zaventem). Le hall d’entrée a été rénové en « uplamping », c’est à dire que seules les lampes ont été changées alors que le hall de réception a été rénové plus profondément, puisque les luminaires et les dalles de faux-plafond ont été remplacés.


Hall d’entrée

Le hall d’entrée fait 4,55 m sur 9,95 m et a une hauteur sous plafond de 2,7 m. Il n’y a pas de fenêtre mais la double porte est entièrement vitrée et apporte un peu de lumière naturelle. Le plafond est composé de profilés en aluminium gris foncés. Les murs sont peints en blanc et le sol est recouvert de carrelages émaillés clairs.

 

Hall d’entrée 1

Initialement, le hall d’entrée était éclairé par 24 spots halogènes intégrés au plafond (voir figure ci-dessous), disposés de manière irrégulière. Un mélange de lampes avait été fait ; la majorité des lampes avaient les caractéristiques suivantes :

Caractéristique des lampes avant rénovation
Diamètre

50 mm

Tension 12 V
Puissance 50 W
Intensité lumineuse maximale 2000 cd
Température de couleur 3000 K
Indice de rendu de couleurs 97
Angle d’ouverture 36°

La position des lampes n’était pas modifiable, à moins de démonter entièrement le faux-plafond, ce qui n’était pas la volonté de l’exploitant du bâtiment. Les lampes étaient commandées manuellement au moyen d’un interrupteur on/off placé sur le mur.

  Spot halogènes encastrés

Rénovation

Les lampes choisies pour remplacer les spots halogènes sont des lampes LEDs de deux puissances et d’angles d’ouverture différents. Pour l’éclairage général (20 lampes), le type de lampe LED a été choisi de manière à ce que son flux soit équivalent au flux fourni par la lampe halogène de 50W qu’elle remplace. L’angle d’ouverture a été choisi le plus large possible, c’est-à-dire égal à 36°.

Devant l’ascenseur (4 lampes), les lampes ont une puissance plus petite (flux équivalent à celui d’une lampe halogène de 35W) et un angle d’ouverture plus petit (24°).

Caractéristique des deux lampes LED utilisées en rénovation
Lampes devant l’ascenseur autres
Diamètre

54 mm

54 mm
Tension 12 V 12 V
Puissance 7 W 10 W
Intensité lumineuse maximale 2200 cd 1560 cd
Température de couleur 3000 K 3000K
Indice de rendu de couleurs 80 80
Angle d’ouverture 24° 36°
Diagramme polaire

Éclairements

Les mesures d’éclairement ont été prises ponctuellement à une hauteur de 85 cm du sol. Comme les lampes de type « spot » ne fournissent pas un éclairement uniforme, une prise de mesures d’éclairement suivant une grille aurait nécessité pour être représentative, un maillage très serré.

Les valeurs observées montrent que les niveaux d’éclairement ponctuels atteints après « uplamping » sont d’un ordre de grandeur identique à celui obtenu avant « uplamping ».

Éclairements mesurés (lux)
Avant « Uplamping » Après « Uplamping »

Apparence visuelle, distribution des luminances dans le champ visuel et éblouissement

Vues intérieures et luminances mesurées
Avant « Uplamping » Après « Uplamping »

Luminance maximum : 291 000 cd/m²

UGR = 15,9

Luminance maximum : 28 600 cd/m²

UGR = 14,7

On remarque que sur le sol, les contrastes sont plus marqués avec les lampes LED alors que c’est l’inverse sur les murs. Ces ‘taches de lumière’ ont été jugées inconfortables par les occupants.

La luminance maximum atteinte est plus importante avec les lampes halogènes. L’indice d’éblouissement (UGR) est également plus grand avant « uplamping ». Notons cependant que les normes européenne sont respectées dans les deux cas (UGR<22). Par contre, le niveau de luminance maximal atteint avant « uplamping » est très haut et traduit un éblouissement certain. Les valeurs communément acceptées pour un éblouissement direct sont de 2500 à 3000 cd/m2.  Et donc, si on suit ces valeurs, même l’éclairage LED peut induire un éblouissement direct si on regarde les lampes.

Calcul du temps de retour sur l’investissement

Le tableau ci-dessous donne le calcul précis réalisé pour évaluer le temps de retour sur investissement de la rénovation. On observe que ce temps de retour est d’un an et 6 mois, ce qui est très court.

Avant « Uplamping » Après « Uplamping » Économie

Énergie

Nombre d’heure de service

2 280 h/an 2 280 h/an

Puissance installée

1×50 + aux = 55 W

1×10 + aux = 15 W

1×7 + aux = 12 W

Nombre de pièces

24

20

4

Puissance totale

1,32 kW 0,348 kW 74%
Consommation 3 010kWh/an 793 kWh/an 2 216 kWh/an
Émissions de CO2 0,900 tonne/an 0,237 tonne/an 0,663 tonne/an

Consommation

512 €/an 135 €/an 377 €/an
Coûts de maintenance

Durée de vie de la lampe

5 000 h

30 000 h

40 000 h

Prix de la lampe*

2,01 €/pce

20,71 €/pce

18,34 €/pce

Prix annuel de l’installation

22,00 €

31,48 €

4,18 €

Coût de la main-d’œuvre

10′ x 25 €/h = 4,17 €/pce 10′ x 25 €/h = 4,17 €/pce

Coût total annuel de la main-d’œuvre

45,60 €

6,34 €

0,95 €

Coût annuel de la maintenance 68 € 43 € 25 €/an

Investissement

Coût de démontage

0 €/pce
Coût d’achat

20,71 €/pce

18,34 €/pce

Coût d’installation

10′ x 25 €/h = 4,17 €/pce

Coût d’investissement

587,64 €

Temps de retour

1 an et 7 mois
* Prix en août 2014

Hypothèses : 0.299 kg CO2 / kWh et coût de l’énergie 0,17€/kWh

Tous les prix sont HTVA


Hall de réception

Le hall de réception mesure 6,45 m de long sur 6,8 m de large. Sa hauteur sous plafond est de 2,7 m. Cet espace dessert cinq salles de réunion et est connecté à un couloir qui conduit aux autres locaux situés au rez-de-chaussée. Il n’y a aucune fenêtre donnant sur ce hall.

Le faux-plafond est constitué de dalles de faux-plafond de couleur blanche. Les murs sont peints en blanc et le tapis est gris foncé.

 

Hall de réception et spot Halogène

Le hall de réception est éclairé par 37 spots halogènes de 110 mm de diamètre total, contenant des lampes de 50 mm de diamètre, et  commandés par un interrupteur on/off.

Caractéristique des lampes avant rénovation

Diamètre

50 mm

Tension 12 V
Puissance 50 W
Intensité lumineuse maximale 2000 cd
Température de couleur 3000 K
Indice de rendu de couleurs 97
Angle d’ouverture 36°

La structure du faux-plafond permettait de modifier le nombre et la disposition des luminaires.

Rénovation

Après une étude par simulation ainsi que des essais sur site, deux types de luminaire ont été sélectionnés. Afin d’améliorer l’uniformité et l’effet d’éblouissement que les luminaires de type downlight peuvent générer, le nombre de luminaires installés a été augmenté mais leur flux lumineux a été gradué pour fournir les niveaux d’éclairement souhaités. Les luminaires ont été disposés selon le plan ci-dessous :

Plan de positionnement des luminaires après rénovation ( O Downlight de 24 W et o spot de 12,7 W)

Caractéristique des luminaires LED installés
Luminaires
Downlight
Spot
Diamètre

216 mm

85 mm
Illustration
Puissance 24 W 12,7 W
Flux lumineux 2 230 lm 655 lm
UGR 21,4 15,5
Efficacité lumineuse 93 lm/W 52 lm/W
Diagramme polaire

   

Hall de réception après rénovation

Éclairements

Les mesures d’éclairement de la situation initiale ont été prises ponctuellement à une hauteur de 85 cm du sol.  L’éclairement final a été mesuré selon une grille de 13 x 12 points.

Positionnement des luminaires et cartographie des éclairements

Situation initiale

Après rénovation – éclairage à 100%

Après rénovation – éclairage à 60%

Nous notons que les valeurs d’éclairement sont hautes mais que l’uniformité ne respecte pas strictement la norme européenne qui demande 0.6 minimum.

Une gradation du flux lumineux des luminaires à 60% permet un éclairement moyen de 535 lx, tout en gardant une uniformité de 0.45 (ce qui ne correspond pas à la valeur demandée par la norme). Nous verrons, en analysant les luminances et l’éblouissement que le fait de graduer les lampes permet de respecter la norme en terme d’indice d’éblouissement, qui n’est pas atteint pour un éclairage à 100%.

Éclairements réalisés

Après rénovation – éclairage à 100%

Après rénovation – éclairage à 60%

minimum sur le plan de travail : Emin

375 lux 240 lux

maximum sur le plan de travail : Emax

1357 lux 1165 lux

moyen sur le plan de travail : Emoy

803 lux 535 lux
Uniformité : Uo 0,47 0,45

Apparence visuelle, distribution des luminances dans le champ visuel et éblouissement

Luminances et UGR mesurées
Vue intérieure

Éclairage à 100%

Éclairage à 60%
Luminance maximum

180 000 cd/m²

90 000 cd/m²

UGR – vue 1 22,1 19,7
UGR – vue 2 21 18,3
UGR – vue 3 23,6 21

Plan de positionnement des luminaires et points de vue des mesures UGR

Calcul du temps de retour sur l’investissement

Le tableau ci-dessous donne le calcul précis réalisé pour évaluer le temps de retour sur investissement de la rénovation. On observe que ce temps de retour est de 9 ans et 4 mois, ce qui est beaucoup plus long que le temps de retour calculé lors du « uplamping », bien que l’économie d’énergie est un peu plus importante dans ce dernier cas (83 % pour 74 % dans le cas du « uplamping »).

Ceci est principalement dû au coût d’investissement qui est de plus de 10 fois le coût d’investissement nécessaire pour le « uplamping ». Néanmoins, l’économie d’énergie n’est qu’un des différents objectifs visés par cette intervention. L’amélioration du confort visuel  entre autres, a été en majorité, fortement apprécié par les occupants.

Avant « Uplamping » Après « Uplamping » Économie

Énergie

Nombre d’heure de service

2 280 h/an 2 280 h/an

Puissance installée

1×50 + aux = 55 W

1×13 = 13 W

0,6×24 = 14,4 W

Nombre de pièces

37

10

15

Puissance totale

2,04 kW 0,346 kW 83%
Consommation 4 640kWh/an 789 kWh/an 3 851 kWh/an
Émissions de CO2 1,39 tonne/an 0,24 tonne/an 1,15 tonne/an

Consommation

789 €/an 134 €/an 655 €/an
Coûts de maintenance

Durée de vie de la lampe

5 000 h

30 000 h

50 000 h

Prix de la lampe*

2,01 €/pce

75 €/pce

95 €/pce

Prix annuel de l’installation

34,00 €

57,00 €

133,00 €

Coût de la main-d’œuvre

10′ x 25 €/h = 4,17 €/pce 15′ x 25 €/h = 6,25 €/pce

Coût total annuel de la main-d’œuvre

70 €

5 €

4 €

Coût annuel de la maintenance 104 € 199 € – 95 €/an

Investissement

Coût de démontage

16 x 25€/h = 400 €
Coût d’achat 4 776 €

Coût d’installation

40h x 25 €/h = 1 000 €

Coût d’investissement

6 176 €

Temps de retour

11 ans
* Prix en août 2014

Hypothèses : 0.299 kg CO2 / kWh et coût de l’énergie 0,17€/kWh

Tous les prix sont HTVA

Choisir un système de déshumidification

Choisir un système de déshumidification


Préalable : le besoin de déshumidification

En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilo d’air, ce qui, pour des températures de l’ordre de 25° correspond à 70% d’humidité relative.

 

Température et humidité extérieure pour un mois de juillet moyen à Uccle.

Un tel niveau est confortable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques.

Trois cas de figure vont néanmoins justifier l’installation d’un système de deshumidification.

Le respect d’une consigne stricte

Théoriquement, un inconfort thermique lié à une trop grande humidité n’apparaît pas à moins de 70% d’humidité relative. Des exigences plus strictes peuvent cependant être énoncées par l’occupant, par exemple en référence à la norme NBN EN 15251. Tout comme pour l’humidification, des spécifications rigides dans un cahier des charges tel que « maintien des locaux à 21°C et 50 % HR » vont entraîner des gaspillages énergétiques. Au minimum, des seuils minimum et maximum doivent être exprimés, et pourquoi pas des périodes de dépassement autorisées (5… 10% du temps).

Quelque soit le niveau maximal d’humidité toléré, celui-ci ne pourra pas être maintenu à tout moment à l’intérieur d’un bâtiment sans recours à une installation de deshumidification. Il suffit en effet d’une météo orageuse pour que le niveau d’humidité de l’air extérieur devienne inconfortable.

L’acceptabilité de dépassements ponctuels du seuil d’humidité est comparable à l’acceptabilité de températures élevées dans un bâtiment. Elle dépendra de la capacité d’action de l’occupant (créer un courant d’air?… les moyens d’action contre une humidité trop élevée sont limités), de sa compréhension de l’origine de l’inconfort et de sa durée prévisible (« Ca va tomber ce soir! »), etc.

Enfin, il faut garder à l’esprit que la mesure dans la reprise d’air est souvent faussée, par l’échauffement de l’air au niveau des luminaires, notamment. Il n’est donc technologiquement pas simple de garantir un strict respect d’une consigne d’humidité.

La production d’humidité à l’intérieur

La présence d’occupants et de certaines activités dans un bâtiment dégagent de l’humidité : on parle de 70 à 100 gr d’eau par heure et par personne pour un travailleur de bureau. Cette humidité est diluée dans l’air neuf, et représente en conséquence une charge non négligeable de 1.9 à 2.8 gr d’eau par kilo d’air, sur base d’un débit d’air neuf de 30 m³/(h.personne).

Ajouté à l’humidité extérieure estivale, cette charge justifie le système de déshumidification. Existe-t-il une alternative? Oui : si le bâtiment est conçu pour fonctionner selon un mode « free cooling » lors des journées d’été, le taux d’air neuf sera beaucoup plus important, typiquement plus de 100 m³/(h.personne) dans le cas d’une ventilation naturelle. La charge d’humidité liée à l’occupation représente dès lors moins de 1 gr d’eau par kilo d’air, et les périodes de temps où cette charge, ajoutée à l’humidité extérieure, provoque un inconfort est limité.

Le risque de condensations surfaciques

Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, il peut être nécessaire de contrôler le taux d’humidité de l’ambiance. Ces systèmes sont normalement conçus pour limiter le risque de condensation : ils sont alimentés avec une température d’eau la plus élevée possible, de façon à être au-dessus du point de rosée de l’ambiance.

Par exemple, avec un régime de température d’eau de 17°-20° dans un plafond rayonnant, un simple refroidissement de l’air à 16° est suffisant pour éviter les condensations. La température de rosée est donnée dans le tableau ci-dessous pour différentes combinaisons de température et d’humidité:

Température de l’ambiance Humidité relative de l’ambiance Température de rosée
21 50 10,19
60 12,95
70 15,33
23 50 12,03
60 14,82
70 17,24
25 50 13,86
60 16,70
70 19,15

La déshumidification concrètement

En pratique, la déshumidification d’une ambiance se fait par pulsion d’un air « asséchant », c’est à dire dont l’humidité absolue est inférieure à celle de l’ambiance. Pour produire cet air relativement sec, le principe couramment utilisé est la condensation : mis en contact avec une batterie d’eau glacée dans une centrale de traitement d’air, l’air se refroidit au-delà de son point de rosée et l’humidité excédentaire condense. Mais l’air sec obtenu est trop froid pour être amené tel quel dans un local. Il provoquerait un courant d’air inconfortable, voir une condensation malvenue de l’air du local à la sortie de la bouche du pulsion. Une postchauffe est donc généralement prévue au moyen d’une batterie alimentée en eau chaude ou d’une résistance électrique.

C’est le principe expliqué sur le diagramme de l’air humide ci-dessous :

  • On dispose au départ d’un air extérieur à 28°C et 17 greau/kgair (70.7%HR – point E) dont la température de rosée est de 22°C.
  • Le passage par la batterie d’eau glacée amène à 10.5°C et 8 greau/kgair (100%HR – point X). L’air a perdu environ 9 greau/kgair.
  • La postchauffe ramène à une température de soufflage confortable de 16°C pour 8 greau/kgair (70%HR – 36kJ/kg – point S).
  • Les conditions d’ambiance qui seront créées grâce à la pulsion de cet air dépendent du débit, de la production d’humidité par l’occupation, etc. Si l’on se base sur un dégagement intérieur dilué dans l’air neuf de 3 greau/kgair on arrive à 8+3=11 greau/kgair, ce qui, à 25°C, correspond à une humidité relative d’un peu plus de 50%.

Puisque la déshumidification se fait par condensation de l’humidité de l’air sur une batterie de refroidissement, la plupart des systèmes de production de froid traditionnels peuvent être utilisés. La seule condition est de disposer d’une batterie d’eau glacée, pour pouvoir amener l’air à une température suffisamment basse.

Oui mais… dans les pages sur la climatisation, il est dit qu’il faut choisir des systèmes de refroidissement à haute température, pour mieux valoriser la fraîcheur de l’environnement. Alors quoi ?

Il y a là en effet un conflit. L’expression d’un besoin de déshumidifier peut disqualifier des techniques intéressantes pour le refroidissement telles que les systèmes de geocooling ou de refroidissement adiabatiques. Ces techniques sont-elles donc à l’arrivé moins intéressantes qu’escompté? Pas nécessairement, car:

  • Le système de production de froid qui assure la déshumidification de l’air et celui qui est chargé du contrôle de la température des locaux ne sont pas forcément les mêmes. Les systèmes d’air conditionné des années 70 et 80, dans lesquelles des grands débits d’air froid assuraient le contrôle simultané de la température et de l’humidité n’ont plus autant la cote aujourd’hui. Le contrôle thermique des locaux se fait de plus en plus par boucle d’eau et plafonds rayonnants ou poutres froides, tandis que le traitement de l’humidité reste assuré par la pulsion de l’air hygiénique. Si les distributions sont différentes, les modes de production pourraient l’être aussi.

 

Combinaison d’un top cooling alimenté par une machine frigorifique à compression et de plafond rayonnants alimentés par un geocooling.

  • Le besoin de contrôle de l’humidité en été n’est sans doute pas aussi impérieux que celui de contrôle de température. Si l’approche de la conception du bâtiment et des systèmes est de limiter la consommation d’énergie en été par un contrôle des charges thermiques et un système de refroidissement à « haute température », peut-être n’est-il pas nécessaire de déshumidifier? Des inconforts ponctuels peuvent parfois être acceptés par les occupants. En outre, des températures intérieures légèrement plus élevées modifient sensiblement l’humidité relative : par exemple, pour une même humidité absolue de 13 greau/kgair, tolérer un glissement de température de 24 vers 26°C fait passer l’humidité relative de 70% à un petit peu plus de 60%.

Et puis, il existe une alternative à la déshumidification par batterie d’eau glacée : la roue dessicante, qui permet de refroidir et déshumidifier l’air pulsé au moyen… d’une source de chaleur. C’est donc une piste intéressante lorsque le bâtiment n’est pas équipé d’une machine de refroidissement traditionnelle.

 

Eléments d’une roue dessicante.

Enfin, pour la postchauffe, la question n’est pas différente de celle du choix d’une batterie de préchauffage de l’air neuf.


La consommation énergétique de la déshumidification

Le calcul de la consommation d’énergie pour la déshumidification est fonction de la chaleur de vaporisation de l’eau (0,694 Wh/gramme) et de la somme des écarts entre l’humidité extérieure et l’humidité de l’ambiance.

Puisque la déshumidification va systématiquement de pair avec le refroidissement, il est utile de s’intéresser au coût du mètre cube d’air traité en été. Celui-ci est de l’ordre de 55 kJ/md’air, en ce compris la postchauffe, pour un point de soufflage à 16°C et 70%HR. S’il n’avait pas été nécessaire d’abaisser la température sensiblement plus bas que le point de soufflage à des fins de déshumidification, pour de réaliser une post chauffe, le coût énergétique n’aurait été que de 35 kJ/m³. On le voit, le traitement de l’humidité augmente considérablement le coût du traitement de l’air.

Pour réaliser vos propres bilans annuels, des outils de calcul des grammes-heure de déshumidification sont disponibles.

Enfin, une étude de cas détaillée de la consommation d’énergie liée à la déshumidification dans une salle d’opération montre le potentiel de réduction de cette consommation par le choix des consignes : une consigne flottante offre près de 80% d’économie par rapport à une consigne fixe. 

Prix de l’énergie

Détail du prix de l'électricité


Les catégories de consommateurs

Les tarifs sur l’électricité se découpent en différentes catégories en fonction de la consommation annuelle du client. Pour harmoniser le recueil des données entre les pays de l’Union Européenne, Eurostat a définit des clients types d’électricité en deux grandes classes, avec plusieurs sous-catégories : domestique (D) et industriel (I).

Classification électricité Eurostat  Minimum

 

Maximum

 

Consommation type (dont de nuit)

 

Habitation standard

 

Domestique

[kWh/an]

DA < 1 000 600 (-) 50 m² 2 chambres et cuisine
DB 1 000 < 2 500 1 200 (-) 70 m² 3 chambres et cuisine
DC 2 500 < 5 000 3 500 (1 300) 90 m² 4 chambres et cuisine
DD 5 000 < 15 000 7 500 (2 500) 100 m² 4-5 chambres et cuisine
DE 15 000
Industriel

[MWh/an]

IA < 20
IB 20 < 500
IC 500 < 2 000
ID 2 000 < 20 000
IE 20 000 < 70 000
IF 70 000 <150 000
IG 150 000

En Wallonie, des clients types sont également définis suivant le type de raccordement électrique.

Catégorie de client suivant le type de raccordement

 

Catégorie Connection

 

TRANS MT direct à la cabine de transformation haute vers moyenne tension
MT 1 à 26 kV
TRANS BT direct à la cabine de transformation moyenne vers basse tension
BT sans mesure de pointe enregistrement de la consommation en kWh
BT avec mesure de pointe enregistrement de la puissance prélevée en kVA et de la consommation en kWh

Pour finir, en plus du type de client, le tarif appliqué différera suivant le type d’alimentation (≥ 100 kVA ou < 100 kVA), une consommation résidentielle ou professionnelle, propre ou pour des tiers et suivant le type de compteur installé : relevé quart-horaire (AMR), mensuel (MMR) ou annuel (YMR).

Les composantes du coût de l’électricité

Le prix de l’électricité final en c€/kWh est une addition de plusieurs tarifs que l’on peut classer en trois grandes parties : le prix de l’énergie fournie, les coûts du réseau et les taxes imposées.

Schéma explicatif facture.

Prix de l’énergie

Le prix de l’électricité est déterminé par le fournisseur. La production d’électricité est libéralisée, au contraire du transport et de la distribution qui sont régulés par la CREG et la CWaPE. On retrouve sur le marché plus d’une dizaine de fournisseurs proposant chacun leurs différents tarifs et packages. Eurostat relève les prix moyens en Europe par semestre. Energie Commune réalise également un tel suivi pour la Belgique.

Coûts de transport et de distribution

Les tarifs de transport et de distribution restent réglementés et ne sont donc pas négociables. Ces tarifs diffèrent d’un lieu à l’autre notamment parce qu’il est moins coûteux de délivrer du courant dans une grande ville … qu’au fond des Ardennes ! Mais ils sont identiques pour un point de fourniture donné, quel que soit le fournisseur.  Les tarifs applicables au transport et à la distribution de l’électricité et du gaz sont approuvés par la CREG (Commission de Régulation de l’Électricité et du Gaz), le régulateur fédéral

Voir également le site de la Cwape.

Taxes imposées

Ce sont les taxes imposées par les autorités fédérales et wallonnes.

Voir également le site de la CREG.

Comprendre les termes de la facture basse tension

Relevé des compteurs

Un relevé est organisé annuellement (parfois bisannuellement). Pour chaque compteur (jour et nuit), la consommation en kWh sera établie sur base de la différence des index. Mais cette différence est parfois un sous – multiple de la consommation réelle.

Par exemple, dans la facture ci-dessous, le relevé est multiplié par 20 pour obtenir la consommation réelle.

Comprendre les termes de la facture basse tension

Consommations de jour et de nuit

Un compteur bihoraire distingue les consommations de jour de celles de nuit et leur applique un prix différent.

La période de nuit dure 9 h 00, généralement de 22 h 00 à 7 h 00, mais cet horaire est laissé au choix du distributeur. Il est donc utile de se renseigner auprès de celui-ci afin de connaître les horaires de sa région.

Pour les équipements programmés par horloge, on débutera l’enclenchement des appareils à minuit.  Cela permettra d’avoir une plage de sécurité par rapport à l’horaire de chacun des distributeurs et par rapport au passage de l’heure d’hiver à l’heure d’été.

Redevance

La redevance appliquée par le distributeur part de la logique d’une rétribution pour la mise à disposition de puissance électrique (en kVA). L’ampleur de cette puissance disponible est déterminée sur base du calibre de la protection installée chez le client, fixée de commun accord entre le client et le distributeur. Autrement dit, si l’ampérage garanti est trop élevé, chaque mois la facture sera inutilement majorée. Mais si l’ampérage est trop petit le disjoncteur sautera !

Cette redevance est simple dans son principe mais son montant est difficile à retrouver à l’euro cent près. En effet, la formule comprend un paramètre NE* dont la valeur varie de mois en mois. La valeur annuelle intègre les 12 valeurs mensuelles. De plus, la formule de calcul évolue parfois sur un an.

Cotisation

Cotisation sur la consommation d’énergie destinée au fond pour l’équilibre de la Sécurité Sociale.

Surcharge fond social

Surcharge par kWh pour aider les plus démunis.

Redevance pour occupation du domaine public

Redevance reversée aux communes pour occupation de leur domaine par le réseau électrique.

Redevance de raccordement au réseau

Cette redevance est destinée à alimenter le “Fond Énergie” de la Région Wallonne de manière à couvrir les primes URE, le financement d’actions de sensibilisation à la maîtrise de la demande énergétique,le financement de la CWaPE (Commission Wallonne Pour l’Énergie), …

Redevance CREG 2002

Recouvrement des frais de fonctionnement de la Commission de Régulation de l’Électricité et du GAZ (CREG) au niveau fédéral.

Cotisation fédérale

Financement de la Commission de Régulation de l’Électricité et du GAZ (CREG), de la dénucléarisation de certaines tranches du site de Mol-Dessel et de la politique fédérale de réduction des émissions de gaz à effet de serre.

Facture intermédiaire

Si le relevé est annuel, le montant total est néanmoins étalé en 12, 6, ou 4 factures : 11, 5, ou 3 factures intermédiaires provisionnelles établies sur base de la consommation de l’année précédente et de l’évolution des prix, et une facture finale qui ajuste le tir en fonction de la consommation effective.

Comprendre les termes de la facture haute tension

HT

Livraison en Haute Tension (vous disposez de votre propre cabine de transformation) ou en “assimilé Haute Tension” (un câble raccorde directement l’installation à la cabine du distributeur).

Détails facture : Livraison haute tension.

Adresse du lieu de fourniture

Adresse de consommation.

Détails facture : Adresse lieu de fourniture.

Adresse  à expédition

Adresse du lieu d’envoi de la facture.

Puissance maximum

Il s’agit de la puissance maximale relevée par le compteur durant le mois facturé, exprimée en kW (kiloWatts). Cette puissance n’est pas la pointe instantanée (celle entraînée par le démarrage d’un ascenseur, par exemple) mais bien la pointe maximum enregistrée durant un quart d’heure du mois. En quelque sorte, c’est le maximum de l’énergie demandée durant 1/4 d’heure du mois, divisée par le temps d’un 1/4 d’heure.
C’est la pointe ¼ horaire.

Détails facture : Puissance heures pleines.

Heures pleines – HP

15 heures en journée, du lundi au vendredi (sauf jours fériés légaux), de 7 à 22 h généralement (horaire variable suivant les Gestionnaires de Réseau de Distribution).

  • soit, 43 % du temps,
  • soit, 3 765 h/an.
  • Détails facture : Consom heures pleines.

Heures creuses – HC

Nuits (de 22 h à 7 h) + WE et jours fériés légaux (du vendredi 22 h au lundi 7 h) généralement (horaire variable suivant les Gestionnaires de Réseau de Distribution),

  • soit, 57 % du temps,
  • soit 4 995 h/an.

Détails facture : Consom heures creuses.

Inductif

C’est le relevé de la puissance réactive inductive(ou selfique) demandée par l’installation. Elle est essentiellement générée par les inductances de l’installation : bobinages des moteurs et ballasts des lampes fluorescentes. On distingue l’inductif HP, consommée en Heures Pleines et l’inductif HC, consommée en Heures Creuses.

Détails facture : Inductif.

Capacitif

C’est le relevé de la puissance réactive capacitive demandée par l’installation. Elle est essentiellement générée par les condensateurs. Généralement, ceux-ci sont placés afin de compenser le mauvais cos phi de l’installation. On parle de condensateurs de compensation.

Détails facture : Capacitif.

Redevance fixe

Contribution du consommateur à la mise à disposition de puissance électrique.

Contribution énergie renouvelable

Contribution du consommateur à la couverture, par les services publics, d’une partie de la fourniture d’électricité par des certificats “d’électricité verte”.

Distribution et transmission

Les tarifs applicables au transport et à la distribution de l’électricité sont approuvés par la CREG (Commission de Régulation de l’Électricité et du Gaz) et constituent le “timbre poste”

Contributions fédérales

Contribution à la surcharge sur l’électricité empruntant le réseau de transport (70 kV), au financement du démantèlement des réacteurs nucléaires expérimentaux BP1 et BP2, de la CREG (Commission de Régulation de l’Électricité et du Gaz), …

Contributions régionales

Contribution au financement de la CWaPE (Commission Wallonne pour l’Énergie) principalement.

Paramètres du mois de consommation

  • NE = paramètre d’indexation qui traduit l’évolution du coût salarial de référence du secteur Agoria et du coût de certains matériaux.
  • NC = paramètre d’indexation représentatif de l’évolution du coût moyen des combustibles (fossiles et nucléaires).

Ils sont publiés tous les mois au Moniteur belge, ainsi que dans les communiqués de la Fédération des Entreprises de Belgique (F.E.B.).

Détails facture : Paramètres.

Constante appliquée à la différence des relevés

La constante est le facteur de multiplication qui est appliqué à la différence entre les relevés des compteurs.

Son origine provient du fait que le compteur ne mesure pas le courant total utilisé, mais un pourcentage de celui-ci via un transformateur d’intensité (T.I.) La valeur mesurée doit donc être ultérieurement “amplifiée” via un coefficient, appelé constante.

D’une manière générale, la constante tient compte du rapport des transformateurs de courant et de tension et de la constante propre du compteur.

Remarques.

  • Il est utile de vérifier la valeur de la constante indiquée sur la facture … à la réalité. Un électricien pourra vérifier le “facteur d’amplification” donné par le transformateur d’intensité. Bien que rare, une erreur de lecture ou de transcription a pu se produire … avec un impact multiplicateur sur la facture !
  • Il arrive que le produit de la constante par la différence des relevés ne donne pas exactement le nombre indiqué. Cela provient du fait que le relevé est effectué du côté basse tension du transformateur. Le compteur ne mesure donc pas les pertes de celui-ci. Le distributeur a alors le choix entre majorer le montant de la facture, ou, comme c’est le cas généralement, majorer les valeurs de consommation utilisées pour calculer ce montant. Dans ce cas, les pertes sont estimées en fonction des caractéristiques du transformateur et de sa durée de fonctionnement mensuel : 
    • Les pertes “cuivre” du transformateur sont additionnées à la consommation active (en kWh).
    • Les pertes “fer” du transformateur sont additionnées à la consommation réactive (en kVARh).
    • Si nécessaire, ces consommations seront réparties pour 43 % en Heures Pleines et 57 % en Heures Creuses.

Prix maximum ou prix plafond

Si le diagramme de charge est très “pointu” (la cuisine collective qui “tire” à midi, par exemple), le coût de la pointe de puissance sera très important dans le coût final du kWh !

Le Gestionnaire du Réseau de Distribution et parfois le fournisseur a dès lors prévu une valeur “plafond” qui limite le prix moyen du kWh en Heures Pleines.

En pratique, il calcule le prix moyen du kWh HP :

(coût de la puissance max + coût des kWh HP) / (nbre de kWh HP)

Si cette valeur est supérieure au prix “plafond”, la différence est restituée sous le terme : “EN VOTRE FAVEUR”

Remarque : on notera que c’est l’ensemble du coût de la pointe qui est reporté sur les kWh en Heures Pleines.

Attention aux fournisseurs qui n’appliquent pas cette clause dans leur contrat !!! Les écoles avec réfectoire peuvent souvent bénéficier de cette mesure : peu de consommation en journée et une pointe élevée pour les frites de midi !

En cliquant ici, vous pouvez étudier si vous présentez une pointe de puissance trop élevée.

Majoration pour consommation réactive

Il s’agit d’une pénalité appliquée parce que votre consommation d’énergie réactive est trop importante. C’est un terme qui est lié à la consommation des moteurs électriques et des tubes fluorescents (seulement si avec anciens ballasts électromagnétiques). Ceci est confirmé par le cos phi (case inférieure gauche) < à 0,9 et par la tangente phi > 0,484. Ce supplément est pénalisé par le Gestionnaire du Réseau de Distribution à 15 €/MVARh.

Exemple. Supposons une consommation d’énergie active de 100 000 kWh par an. Si la consommation d’énergie réactive est inférieure à 48,4 %, soit 48 400 kVARh, on ne comptabilise aucune consommation réactive. Si la consommation en énergie réactive est supérieure à 48 %, par exemple 80 000 kVARh, la surconsommation, c’est-à-dire 31 600 kVARh, est comptabilisée à 31,6 x 15 =  474 €.

Le placement de condensateurs de compensation pour réduire la consommation d’énergie réactive est une opération très rentable grâce à la suppression de la pénalité : l’investissement est rentabilisé en 6 mois généralement, maximum 1 an.

Remarque : si un “prix moyen” est indiqué sur la facture, il intègre la pénalité pour consommation réactive. 

Pertes du transformateur

La consommation d’électricité fournie en Haute Tension (HT) peut être mesurée de deux façons :

  • Soit aux bornes “haute tension” du transformateur (comptage HT au primaire). Dans ce cas, aucune majoration n’est appliquée aux consommations car les pertes de transformation se produisent en aval du système de comptage.
  • Soit aux bornes “basse tension” du transformateur (comptage BT au secondaire). Des majorations sont alors appliquées pour tenir compte des pertes fer et des pertes cuivre du transformateur.

Remarque : jusqu’au 01/09/99, des installations ont été raccordées directement à la cabine du distributeur (câble spécial basse tension avec pertes réduites, paiement d’une quote-part dans la cabine du distributeur). Dans ce cas, les majorations destinées à couvrir les pertes de transformation sont également d’application.

La prise en compte de ces pertes dans la facture peut se faire suivant deux méthodes.

  1. Les pertes sont estimées sur base de la puissance mise à disposition.
    Les “pertes fer” résultent des caractéristiques du transformateur, communiquées par le constructeur, et de la durée mensuelle de fonctionnement de l’appareil qui est soit mesurée par un compteur horaire, soit convenue. Lorsque les valeurs des pertes fer ne sont pas disponibles, les valeurs de la norme en fonction de laquelle le transformateur a été construit serviront de base à l’estimation des pertes fer.Les pertes cuivresont, à défaut d’indication de compteurs I2h, calculées de façon forfaitaire, sur la base d’un taux de 0,5 %.
    L’impact de ces pertes est intégré dans le calcul du nombre de kWh et de kVARh consommés (c’est ce qui fait qu’en multipliant la différence d’index par la constante, on ne trouve pas exactement les montants indiqués !)
  2. La facture mensuelle est majorée d’un pourcentage qui varie en fonction de l’utilisation mensuelle globale U (h/mois) de la puissance maximum

1 < U < 60 h/mois ==> (40,0 – 0,500 U) %
61 < U < 200 h/mois ==> (13,2 – 0,053 U) %
201 < U < 400 h/mois ==> (4,2 – 0,008 U) %
U > 400 h/mois ==> 1%

Cos phi – Tg phi

Ce sont des indicateurs de l’importance de la consommation d’énergie réactive.

Cos phi > 0.9 ? Tangente phi < 0,484 ? —- OK !

Cos phi < 0.9 ? Tangente phi > 0,484 ? —- Une majoration pour consommation réactive vous est appliquée.

Il est alors possible de réduire la consommation d’énergie réactive et de réaliser des économies tarifaires !

Coefficient d’utilisation

Ce coefficient d’utilisation est donné par le rapport entre les kWh consommés et les kW maximum appelés. Ce coefficient s’exprime donc en heures. Il est utile pour rapidement visualiser la “bonne utilisation” de la puissance mise à disposition : plus ce nombre est élevé et plus l’utilisateur présente un profil “lisse”, sans pointe momentanée. Pour plus de détails, on consultera “repérer une puissance quart-horaire anormale.

Organiser la ventilation

Organiser la ventilation

Organiser la ventilation

Une ventilation hygiénique de base est nécessaire pour assurer la bonne qualité de l’air des bâtiments et garantir la santé des occupants. Pour évacuer efficacement les polluants (CO2, fumée de tabac, humidité, …) présents dans l’air intérieur, il faut assurer un renouvellement de l’air du local suffisant. Ce renouvellement de l’air recommandé ne pourra se faire que :

Concevoir

Pour concevoir la ventilation.

Créer un déplacement de l’air

L’air intérieur peut se renouveler naturellement (infiltration, ventilation naturelle,…) ou mécaniquement (via un ventilateur). Dans les deux cas, la ventilation des locaux n’est possible que grâce à un moteur (naturel ou mécanique) de déplacement d’air :

Favoriser un moteur naturel

Les masses d’air se déplace naturellement dû à des différences de pressions ou de températures : l’air se déplace de la haute pression vers la basse pression, l’air chaud, plus léger, s’élève et l’air froid, plus lourd, descend. Ces déplacements naturels de masse d’air peuvent être utiliser au sein d’un bâtiment pour organiser le renouvellement de son air.

  • Soit un tirage par cheminée verticale. L’air extérieur entre par des ouvertures en façade, se réchauffe au contact de l’air intérieur, monte naturellement et est évacuer grâce à une cheminée ou un conduit vertical. À noter que ceci peut créer des contraintes de conception suite aux critères de protection incendie qui exigent eux de compartimenter les étages, ce qui implique soit que les transferts d’air entre étages soit obturables automatiquement (portes coupe-feu à fermeture automatique, si on utilise la cage d’escalier comme conduit d’extraction intensive, clapets coupe-feu), soit que chaque étage dispose de sa propre évacuation vers la toiture.. En rénovation également, cette solution demande des aménagements importants de la structure du bâtiment (perçage de chaque plancher, …).

En façade Sud, l’effet de tirage thermique des cheminées est renforcé
par des blocs de verre chauffés au soleil.

  • Soit un tirage par ventilation transversale, d’une façade à l’autre. Suite à la différence de pression (due au vent ou à l’ensoleillement) entre deux façades du bâtiment, l’air extérieur entre dans le bâtiment par une en surpression, se réchauffe au contact de l’air intérieur et est aspirer à l’extérieur sur une façade en dépression. Toutefois, l’ouverture des portes intérieures peut créer des problèmes acoustiques et des courants d’air inconfortables. Des ouvertures par grilles ou impostes au-dessus des portes sont aussi possibles.

L’air se déplace principalement grâce aux pressions
et dépressions exercées sur les façades par le vent.

Ici, à côté de chaque fenêtre du couloir, un panneau de bois peut être ouvert pour créer une circulation d’air transversale (vues intérieures et extérieures du bâtiment).

  • Soit un une combinaison des deux : dans chaque local, des fenêtres (une en partie haute et une en partie basse) munies de grilles peuvent s’ouvrir, en fonction de l’écart entre la température intérieure et extérieure. Un refroidissement naturel de chaque local est possible, sans extraction par une cheminée commune. Mais les débits de refroidissement restent limités.

L’air chaud migrant vers l’extérieur en partie haute des ouvertures
et l’air frais pénétrant en partie basse (débits d’air limités par cette méthode).

 

Ouverture des fenêtres en partie inférieure et supérieure, pour favoriser une circulation d’air dans le local (les colorations jaunes et oranges ne sont dues qu’au reflet des stores du bâtiment en face…).

Concevoir

Pour choisir les amenées d’air naturelles.

Concevoir

Pour choisir l’emplacement des rejets d’air extérieurs.

Mettre en place un moteur mécanique

Le renouvellement de l’air intérieur peut aussi être « forcé ». Quand les moteurs naturels sont trop faible pour assurer les débits voulus, il devient nécessaire de placer un ou des ventilateur(s) : on parle alors de déplacement motorisé de l’air. Mettre l’air en déplacement via un ventilateur permet de gérer le temps, la durée et l’intensité de la ventilation et des débits d’air voulus.

Ventilateur centrifuge

Concevoir

Pour choisir un ventilateur.

Favoriser le déplacement de l’air

Une fois que l’air est mis en mouvement, il faut lui permettre de circuler au sein du bâtiment afin de balayer les différents locaux et d’assurer dans chacun d’entre eux le juste renouvellement de l’air. À noter que les principes de transferts d’air d’un local à un autre vont se différencier suivant le type de programme (bureaux, hôpitaux, salles de sports, …).

De manière générale, il convient de transférer l’air des locaux secs vers les locaux humides ou encore des locaux les moins pollués au locaux les plus pollués. Pour ce faire des ouvertures de transferts (portes ouvertes, fentes sous les portes, grilles murales ou dans les portes, impostes, conduits …) doivent être prévues et disponible d’un local à un autre.

           

Transfert d’air au travers d’une porte ou par détalonnage.

Concevoir

Pour choisir les ouvertures de transferts.

Réguler ce déplacement d’air

Finalement, si l’air est mis en mouvement et son déplacement s’effectue correctement, il devient très utile de pouvoir agir sur les débits afin d’assurer les renouvellements d’air recommandés par les normes.

En pratique, il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.

Gérer

Pour réguler les débits d’air dans le systèmes.

Concevoir

Pour choisir le mode de gestion des débits.

Gérer

Pour réguler les débits d’air dans le systèmes.

Ventilation hybride

© Architecture et climat 2023.

Une alternance entre soit la ventilation naturelle, soit la ventilation mécanique :

  1. Ventilation naturelle
  2. Ventilation mécanique (double flux ici)

Principe

On parle de ventilation hybride, ou de ventilation naturelle hybride, lorsque au sein d’un même bâtiment un système de ventilation naturelle et un système de ventilation mécanique sont disponibles et combinés. Il s’agit donc de favoriser et d’optimiser l’utilisation des forces motrices naturelles par une assistance mécanique à basse pression (ΔP ≤ 50 Pa).

Généralement un système de gestion intelligente sur base d’une horloge, d’une sonde (température extérieure, CO2, humidité, …) ou de capteurs permet le passage d’un mode à l’autre au moment voulu afin de procurer le renouvellement d’air nécessaire à une bonne qualité de l’air intérieur.

Plus précisément on distingue trois types de ventilation hybride :

  • La ventilation naturelle assistée : des ventilateurs basse pression se mettent en marche lorsque les forces motrices naturelles (vent et tirage thermique) ne sont plus suffisantes pour permettre la circulation de l’air et les débits requis.
  • La ventilation mécanique assistée : qui correspond en réalité à un système de ventilation mécanique comportant des ventilateurs basse pression.
  • Une alternance entre la ventilation naturelle et mécanique : ce qui suppose que les deux systèmes sont totalement dissociés et que lorsque l’un fonctionne l’autre est à l’arrêt et inversement (voir illustration ci-dessus).


Avantages

La ventilation hybride permet d’utiliser au maximum les forces motrices de la nature pour la circulation de l’air et donc de réduire au minimum les consommations électriques des ventilateurs et auxiliaires associés.

Elle couple à la fois les avantages de la ventilation naturelle et mécanique :

  • Les éléments de ventilation naturelle demandent généralement très peu d’entretien et ne comprennent pas de ventilateurs bruyants.
  • La ventilation hybride est simple, et peu coûteuse à l’exploitation.
  • Elle demande peu de place utile dans les locaux techniques.
  • Les débits d’air extraits sont en partie contrôlés.

Inconvénients

La ventilation hybride semble un bon compromis entre la ventilation naturelle très économe en énergie et la ventilation mécanique qui permet de s’assurer les débits d’air recommandés. Toutefois, la ventilation hybride reste liée aux phénomènes naturels de mouvement de l’air, la qualité de l’air risque de ne pas être garantie dans tous les locaux. Le renouvellement d’air peut être fortement perturbé par le vent, par l’ouverture de fenêtres, … Il est donc nécessaire de trouver le juste milieu entre débits recommandés et économies d’énergie d’où l’importance de sa régulation !

En outre, comme pour la ventilation simple flux (extraction mécanique) :

  • L’air neuf n’est pas filtré et les grilles d’amenée d’air peuvent laisser filtrer les bruits extérieurs, ce qui peut être délicat en site urbain ou fortement pollué.
  • Les grilles d’ouvertures peuvent engendrer un inconfort, par exemple en plein hiver, sauf si la grille d’ouverture est placée à une hauteur supérieure à 1,80 m par rapport au sol ou derrière un corps de chauffe.

  • Les ouvertures entre locaux, favorisent le passage de bruits pouvant être très gênants. Un traitement acoustique des grilles doit alors être prévu. Mais en pratique, la présence d’absorbeur acoustique dans une ouverture augmente son épaisseur et sous-entend généralement que la grille doit être placée dans l’épaisseur du mur (et non dans le vitrage ou dans la porte).
  • Enfin, les ouvertures dans les façades ne sont pas toujours du goût des architectes !

Régulation

Par définition, la ventilation hybride suppose au minimum d’une régulation intelligente pour le passage d’un mode à un autre.

Mais, il est également plus qu’utile d’adapter le fonctionnement du ventilateur basse pression en période de ventilation mécanique pour s’approcher au plus proche des débits recommandés et donc de réduire la consommation d’électricité.

Finalement en mode naturelle, il existe plusieurs possibilités de réguler la ventilation hybride : bouches réglables, grilles hygroréglables, grilles commandées électriquement par exemple en fonction d’un horaire.

Techniques de régulation

Techniques de régulation


Pourquoi réguler les débits de ventilation ?

Il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité. La régulation de la ventilation hygiénique a un réelle intérêt puisqu’elle permet de s’approcher au mieux des débits recommandés et necessaires en fonction de l’activité du local ou du bâtiment.

Elle permet :

  • de favoriser le confort des occupants grâce à une bonne qualité de l’air;
  • de s’assurer la salubrité du local et plus largement du bâtiment;
  • et de réaliser des économies d’énergie substantielles en limitant les débits et donc les consommations électriques.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.


Aucune régulation

Si aucune régulation n’est mise en place cela signifie que le système de ventilation hygiénique fonction constamment aux débits de conception maximum soit pour couvrir le débit minimum exigé par les normes. Cependant durant certaines période le local ou le bâtiment est en partie voir totalement inutilisé, c’est le cas de la nuit ou du weekend, les débits pourraient être adaptés ce qui permettrait des économies d’énergie importantes !

Cette stratégie de régulation n’est pas recommandées et doit être proscrite !


La régulation manuelle

Une gestion manuelle des débits de ventilation peut se faire de deux manières : soit en agissant directement sur le ventilateur et en variant sa vitesse soit en modifiant l’ouverture des amenées et évacuations d’air naturelles.

Pour les ouvertures naturelles

Les débits d’air sont régulés par la modification de l’ouverture des grilles soit par la modification de la section de passage d’air.

Les grilles d’amenées et d’évacuation d’air peuvent être réglées manuellement depuis une position complètement fermée jusqu’à une position complètement ouverte. Les positions intermédiaires doivent au minimum est au nombre de 3 mais peuvent aller jusqu’à un réglage en continu.

Pour les systèmes mécaniques

Dans ce cas-ci, un commutateur permet d’agir directement sur la vitesse du ventilateur, soit de moduler le débit à la base du système au sein du groupe de ventilation.
Trois positions minimales sont présentes:

  • fermé : position éteinte ou avec un débit minimale pour assurer une ventilation de base même en période d’inoccupation
  • vitesse moyenne : position intermédiaire pour une activité limitée.
  • vitesse maximale : position correspondante aux normes pour les périodes de grandes activités ou de forte pollution.

Les débits correspondant devront être correctement définis et le système correctement dimensionné pour garantir un fonctionnement correct.

La régulation manuelle est tributaire du comportement des occupants. Ce type de stratégie de régulation est interdit par les normes et législations dans les immeubles non-résidentiels !


La régulation par horloge

Cette stratégie de régulation permet d’automatiser le changement des positions du systèmes de ventilation et donc les débits en fonction d’un horaire, par exemple heure par heure. une horloge est placée sur le circuit électrique de la ventilation et est programmée afin d’adapter les débits de ventilation selon les temps d’activité supposés. Elle permet donc de faire la différence entre la nuit et de la journée, la semaine et du weekend et les différentes intensités d’activité en période d’utilisation du local.

Fonctionnement continu à grande vitesse.

Fonctionnement intermittent avec horloge.

Son principal désavantage est de fonctionner suivant un horaire d’activité supposé qui peut parfois être très éloigné de l’utilisation réelle du bâtiment.

Certains systèmes de régulation permettent de passer en manuelle pour pouvoir faire face à des cas de pollutions ou d’activité exceptionnel ou non prévu dans le schéma de base d’activité du bâtiment. Après un certain temps défini, le système se replace en régulation automatique.


La régulation par l’occupation

Une régulation par l’occupation permet d’activer le système de ventilation en tout ou rien suivant l’occupation ou non du local, mais sans différencier le nombre de personnes présentes !

Un détecteur de mouvement, de présence/absence ou un détecteur infrarouge peut être utilisé. L’enclenchement de la ventilation peut également être assujettit par l’interrupteur des luminaires.


La régulation par sonde ou capteur

La ventilation hygiénique doit permettre une bonne qualité de l’air des espaces intérieurs en évacuant les polluants présents dans l’air et en alimentant le local en air frais. C’est pourquoi il est utile de réguler les débits en fonction d’un ou plusieurs polluants. Le choix de la sonde ou du capteur se fait donc en fonction de l’utilisation du local :

  • Les détecteurs infrarouges permettent de réguler les débits en fonction de l’occupation du local.
  • Les sondes CO2 permettent de rendre compte de l’activité humaine.
  • Les sondes COV rendent compte de la pollution de l’air.
  • Les capteurs d’humidité sont particulièrement adapter dans les espaces humides où une trop grande quantité d’humidité doit être évacuée.
  • La sonde de température peut également être utilisée et régule les débits en fonction de la température intérieur du local ou de la température de l’air extrait, cela peut être le cas dans les cuisines collectives par exemple.
  • De nombreux capteurs sont possibles et permettent de réguler les débits de ventilation.
  • Une combinaison de plusieurs types de sondes ou un multi-capteur (CO2, température et humidité, principalement) au sein d’un bâtiment ou d’un même local permet de caractériser au mieux l’activité et la pollution et donc d’assurer un renouvellement suffisant de l’air pour garantir le confort.

Ce type de régulation permet d’adapter directement les débits en fonction de l’activité du local, on parle de ventilation à la demande. Cette stratégie de gestion permet de faire coïncider au mieux les débits réels aux débits prescrits et donc de ventiler efficacement énergétiquement.

Réduction des débits de ventilation à l’aide d’une régulation à la demande.

Détecteur de mouvement et de présence/absence [Ventilation]

Détecteur de mouvement et de présence/absence [Ventilation]


Utilisation

Les détecteurs de présence, associés ou pas à des boutons poussoirs, permettent d’aider les gestionnaires de bâtiments dans leur « quête » à l’économie d’énergie. Ces dernières années, leur domaine d’applications s’est considérablement étendu. En effet, outre la commande de la ventilation, ils sont actuellement utilisés pour la commande d’automatismes tels que :

  • la gestion de l’éclairage intérieur et extérieur ;
  • la régulation des installations de chauffage et de climatisation ;
  • le déclenchement de l’alarme, puisque ce même principe est utilisé pour la détection d’intrusion ;
  • jusqu’au déclenchement de la chasse des toilettes, … pour utiliser l’eau de ville à bon escient, bien sûr,… et non pour enregistrer la fréquence et la durée des utilisateurs !

À noter, toutefois, qu’un détecteur a sa consommation propre. S’il est de bonne qualité, cette consommation est réduite (< 1W).

Ce type de détecteur est peu pratique pour la gestion de la ventilation hygiénique puisqu’elle ne permet de régler que en tout ou rien ou suivant 2 positions prédéfinies, par exemple ventilation de base et ventilation maximale en occupation du local. Ils ne permettent pas d’adapter la régulation aux nombres de personnes présentes dans la pièce !


Principe de fonctionnement

Dans le jargon des professionnels, un détecteur de mouvements se différencie d’un détecteur de présence par sa grande sensibilité.

Différentes technologies existent sur le marché. La technologie à infrarouge (IR) est la plus répandue. Cependant, quelques applications de gestion, comme dans les sanitaires par exemple, font appel aux technologies ultrasoniques (US), combinées IR et US ou encore sonore.

En général, l’électronique des détecteurs permet de développer des logiques de gestion en détection de présence ou d’absence. En d’autres termes :

  • Pour une gestion de présence, le détecteur peut travailler seul. Dès qu’une personne entre dans la zone de détection, la ventilation est allumé sur une position/vitesse définie. Ce principe est applicable dans les locaux où les détections sont fréquentes, mais de courte durée.
  • Pour une gestion d’absence, le détecteur doit être combiné avec un système de commande volontaire (type bouton-poussoir). Une personne entrant dans un local peut choisir d’allumer ou pas la ventilation en fonction de son ressenti de la qualité de l’air : ce qui n’est pas du tout pratique ! Si elle choisit d’allumer, le détecteur ne coupera ou diminuera la ventilation qu’après un délai réglable d’absence de la personne. Ce principe permet, en général, de responsabiliser les occupant.
  • Ces détecteurs permettent en réalité  d’imaginer toute sorte de fonctionnement.

Technologies des détecteurs

Détecteur  à infrarouge (IR)

Schéma détecteur  à infrarouge.

Ils détectent le mouvement du corps humain par la mesure du rayonnement infrarouge (= chaleur) émis par le corps humain.

Ils sont dits « passifs » car ils n’émettent aucune radiation, contrairement aux détecteurs à infrarouge actif de type « barrière ». Ils mesurent le rayonnement infrarouge émis par les surfaces chaudes.

Ils fournissent une indication de changement d’occupation d’un lieu : absence ou présence. Ils ne permettent pas de connaître le taux d’occupation d’un local ou le nombre d’occupants.

Photo détecteur  à infrarouge.

Plus précisément, les détecteurs de mouvement à infrarouge comportent un certain nombre de facettes sensibles. Leur rayon d’action est ainsi découpé en une série de segments. C’est le passage d’un corps (et donc de chaleur) du rayon de vision d’une facette vers celui d’une autre facette qui permet de détecter le mouvement.

La sensibilité d’un détecteur dépend donc du nombre de segments sensibles. Par exemple, un détecteur dont le rayon de détection est découpé en peu de segments risque de ne pas détecter une personne se dirigeant vers lui.

Pour certains modèles perfectionnés, cette sensibilité est réglable. Le réglage sera différent selon le type de local : dans un bureau où les mouvements sont parfois minimes (travail sur ordinateur, par exemple) on le réglera sur une forte sensibilité, tandis que dans un local sujet à des courants d’air, on le réglera sur une sensibilité plus faible.

La limite d’utilisation des détecteurs IR réside dans son incapacité à effectuer une détection au travers d’une paroi par exemple. C’est le cas dans les sanitaires ou les bureaux paysagers aménagés avec des cloisons antibruit ou des armoires hautes.

Détecteurs ultrasoniques (US)

Schéma détecteurs ultrasoniques.

Les détecteurs US sont de type émetteur/récepteur et fonctionne sur le principe de l’effet Doppler. Toute onde ultrasonique (32 kHz à 45 kHz) émise par le détecteur qui rencontre un objet sur son parcours, « rebondit » en direction inverse avec une fréquence différente. Le détecteur est capable de mesurer l’écart de fréquence et de générer ainsi un signal de présence. Les détecteurs US ont une portée limitée mais peuvent détecter des mouvements mineurs et ce même autour de certains obstacles.

Détecteurs à double technologie

Schéma détecteurs à double technologie.

Les détecteurs de présence à infrarouges risquent de ne pas détecter les mouvements légers. Par contre des détecteurs à ultrasons peuvent être trop sensibles et risquent de déclencher l’allumage de l’éclairage lors du passage « d’une mouche ». Pour éviter cet inconvénient tout en gardant une sensibilité importante, certains détecteurs, appelés « détecteurs à double technologie » combinent ultrasons et infrarouge.
Cette combinaison permet d’augmenter la fiabilité des détecteurs et élimine les détections indésirables.

Détecteurs sonores

Comme son nom l’indique les détecteurs sonores réagissent au bruit. Cette technologie pourra être utilisée dans les sanitaires par exemple. Pratiquement, on n’utilisera qu’un seul détecteur de ce type dans les communs des sanitaires sans être obligé d’en placer un dans chaque WC. Le moindre bruit émis au travers des parois des WC permettrait de pouvoir prolonger la lecture de son journal en toute quiétude (« pour les amateurs de sieste au WC, dorénavant s’abstenir ! »).

Détecteurs « intelligents »

Ce type de détecteur à double technologie enregistre pendant plusieurs mois le mode d’occupation du local et adapte automatiquement sa sensibilité.


Caractéristiques générales des détecteurs infrarouges (IR)

Un détecteur placé sur une paroi verticale est caractérisé par :

  • un angle de détection horizontal,
  • une portée latérale,
  • une portée frontale.

Un détecteur placé au plafond est caractérisé par :

  • un rayon d’action de 360°,
  • un diamètre de détection maximal (ou couverture maximale (en m²)) pour une hauteur maximale.

Lorsqu’on diminue la hauteur d’installation, la zone de couverture diminue, mais la sensibilité augmente.
Par contre, au-delà de la hauteur maximale, la sensibilité n’est plus suffisante.

Attention : le détecteur ne traverse aucune cloison, pas même en verre !

Si plusieurs détecteurs sont placés dans un même lieu, il est intéressant de prendre un modèle de détecteur avec un mécanisme « maître » (ou « master ») et un ou plusieurs avec mécanisme « esclave » (ou « slave »). Un détecteur avec mécanisme « maître » est plus cher, mais les mécanismes « esclave » sont beaucoup moins chers, ce qui rend l’ensemble intéressant économiquement.

Y a-t-il des différences entre détecteurs pour la gestion de l’éclairage et détecteurs pour la gestion de la ventilation ?

Les sondes utilisées dans un but de gestion de l’éclairage ne possèdent pas de temporisation à l’enclenchement/déclenchement. Le détecteur possède une temporisation après le dernier mouvement. Pour certains modèles, cette temporisation est réglable  (de 5 secondes à 5 minutes par exemple). La temporisation peut aller jusqu’à 30′ pour les modèles perfectionnés.

De plus, elles intègrent souvent un détecteur de luminosité : en général, le détecteur comporte un interrupteur crépusculaire dont le seuil de luminosité peut être réglé (de 5 à 1 000 lux par exemple).

En éclairage, il existe deux types de mécanismes :

  • Un mécanisme avec triac qui ne permet de commander que des lampes à incandescence ou halogène 230 V.
  • Un mécanisme avec relais qui permet de commander également des lampes fluorescentes.

Si les sondes destinées à la régulation de la ventilation sont d’un principe identique, elles intègrent par contre des temporisations à l’enclenchement et au déclenchement nécessaires pour éviter des sollicitations trop fréquentes du système de ventilation.

Ces temporisations sont généralement réglables de quelques minutes à une dizaine de minutes.

À noter qu’il existe des bouches de soufflage qui intègrent une sonde de présence directement :

Photo bouches de soufflage avec détecteur.


Emplacement

L’espace couvert par un détecteur détermine l’emplacement des détecteurs.

Les détecteurs doivent être placés de manière à couvrir tout l’espace à détecter.

Le choix de l’emplacement du détecteur a une grande importance sur son bon fonctionnement. Il ne faut pas que le détecteur soit influencé par un mouvement en-dehors de la zone commandée (ouverture de porte, …).

Sonde d’humidité

Sonde d'humidité


Domaine d’application

Il s’agit d’une sonde permettant de mesurer l’humidité relative ou absolue et, donc, de réguler la ventilation en fonction de l’humidité de l’air.

Elle est particulièrement adaptée dans les locaux humides (sanitaires, cuisines, …) là où l’air est extrait.


Fonctionnement

Les sondes d’humidité utilisées en ventilation et climatisation sont des hygromètres permettant la mesure continue de l’humidité de l’air de la pièce, au contraire des psychomètres qui sont utilisés pour une mesure instantanée.

Il existe plusieurs technologies d’hygromètres électroniques :

à cellule hygroscopique pour la mesure de l’humidité absolue

Le plus connu est l’hygromètre à cellule hygroscopique au chlorure de lithium. Le chlorure de lithium est une solution saline (LiCl). Ses propriétés hygroscopiques lui font absorber constamment de la vapeur d’eau contenue dans l’air.

L’appareil comprend deux électrodes entourant une couche de fibre de verre imbibée de LiCl Le tout est monté sur un capteur de température.

Lorsque les électrodes sont sous tension, le courant circulant au travers du tissu imbibé de LiCl produit de la chaleur qui évapore une partie de l’eau. Par évaporation, la résistance électrique du tissu augmente (la conductivité du tissu diminue), la puissance calorifique diminue, donc aussi la température sur la sonde intérieure. Une température d’équilibre s’établit finalement sur la sonde.

Cette température est utilisée pour mesurer la pression partielle de vapeur d’eau de l’air et de là le niveau d’humidité absolue de l’air.

Cette technique réclame un entretien important, la solution de chlorure de lithium devant être régénérée régulièrement.

à variation de capacité pour la mesure de l’humidité relative

Les hygromètres électroniques à cellule capacitive sont basés sur la modification de la valeur d’un condensateur en fonction de l’humidité. Plus précisément, c’est le diélectrique du condensateur qui est sensible à l’humidité relative de l’air ambiant.

La variation de la capacité (et donc de son impédance) entraîne une variation d’un signal de tension.

L’appareil est fiable et ne demande un étalonnage que tous les 2 ans. La précision est de 3 %. Le temps de réponse est court (de l’ordre de la dizaine de secondes). Et la plage de mesure est large. Que demander de plus ?!

Si, ils ont un petit défaut : être sensible aux polluants chimiques ! On sera dès lors attentif à ne pas les nettoyer avec des solvants organiques (chlore,…).

Leur durée de vie est estimée à une dizaine d’années.


Plage de mesure et fiabilité

Les hygrostats utilisés en climatisation sont des régulateurs tout ou rien, utilisant des hygromètres électroniques à cellule hygroscopique (mesure de ) ou à cellule capacitive (mesure de l’humidité relative). Le différentiel enclenchement – déclenchement est de l’ordre de 3 à 5 % d’humidité relative.

De la précision de la mesure d’humidité dépend la qualité de la régulation et le montant de la facture énergétique, puisque l’influence du taux d’humidité sur la consommation de l’installation est non négligeable ! À ce titre, on privilégiera les sondes à mesure continue par rapport aux sondes à dépassement de seuil (basées sur l’allongement d’un fil synthétique), dont l’hystérésis peut être important (près de 15 %).


Emplacement

Il est préférable de choisir une sonde à placer en conduit aéraulique et de l’installer dans le conduit de reprise d’air. Ainsi, la mesure est plus représentative de l’humidité de l’air moyenne du local et la sonde est moins soumise aux perturbations locales et à l’empoussièrement.

Quelques recommandations pour une mesure de qualité en conduit :

  • Une distance minimale entre l’humidificateur et la sonde, d’une part pour s’assurer que toutes les gouttelettes sont bien évaporées (les gouttelettes ne sont pas prises en considération dans la mesure !), mais d’autre part parce que ces gouttelettes mènent à la destruction de la sonde, tout particulièrement celles au chlorure de lithium. On se renseignera auprès du constructeur.
  • Une distance minimale entre les batteries chaudes ou froides et la sonde : même si, faute de place, il n’est pas toujours facile de respecter la distance théorique, il y a lieu d’éloigner les sondes des batteries pour éviter l’effet de stratification (l’air humide a tendance à s’élever). Distance théorique minimale = 5 à 10 D, où D est . De plus, on placera les sondes à mi-hauteur du conduit aéraulique, et au centre de l’écoulement.
  • Une protection de l’élément sensible, soit par une grille si air propre, soit par un filtre en métal fritté si air avec poussières.
  • Une ouverture dans la gaine, à proximité de la sonde, pour pouvoir faire périodiquement une mesure de contrôle avec un appareil indépendant de l’indication de la sonde de régulation.
  • Une mesure dans la gaine de reprise située, si possible, en aval du ventilateur d’extraction si un risque de stratification de l’humidité est présent.
  • Un câble de raccordement électrique de la sonde suffisamment long pour permettre un entretien aisé.

Dans le cas où la sonde est placée dans le local, on sera attentif à

  • les éloigner des portes et fenêtres (pour éviter l’influence de l’air extérieur),
  • éviter les coins (mauvaise circulation de l’air).

Pour effectuer une mesure correcte, il faut que l’air soit en contact réel avec le capteur : il faut donc garantir un libre écoulement vers l’organe de mesure. Toutes les précautions de placement applicables aux sondes de température sont valables ici (température et humidité sont parfois dans le même boîtier). Elles ne devront pas être situées à proximité des climatiseurs, par exemple.


Output

Les sondes délivrent généralement un signal analogique standard : 0-10 V ou 4 – 20 mA. Elles sont alimentées par une tension continue de l’ordre de 24 V.


Maintenance

Principales mesures d’entretien

  • Dépoussiérage de l’élément sensible au pinceau doux, si l’air est chargé en poussières.
  • Remplacement des filtres en métal fritté.
  • Pas de nettoyage des sondes à capacité par un solvant organique, du type chloré par exemple.
  • Régénération des sondes à chlorure de lithium, par l’utilisateur.
  • Étalonnage des éléments sensibles tous les ans (ou tous les deux ans si la sensibilité à la variation de la consigne est faible). Un tel étalonnage peut être fait facilement grâce à l’existence de cartouches contenant des solutions salines. L’humidité relative au-dessus de la solution est pratiquement indépendante de la température.

Exemple.

Solution de chlorure de sodium (76 % HR), ou de carbonate de potassium (44 % HR).

Il est donc facile de recalibrer l’appareil (consulter le fournisseur pour connaître les solutions salines adéquates, certaines étant agressives pour les éléments sensibles)

Une autre possibilité d’étalonnage consiste à comparer la mesure à celle d’un autre appareil plus précis (de la l’intérêt de prévoir une petite ouverture dans la gaine, à proximité de la sonde).

Combiner la ventilation aux besoins hygrothermiques

Combiner la ventilation aux besoins hygrothermiques

Lorsqu’un système de ventilation avec pulsion et extraction mécanique est choisit, il est possible de compléter la centrale de traitement d’air d’élément de pré-traitement thermique. Dans certains cas, il peut être pertinent de l’utiliser pour assurer tout ou partie des besoins thermiques des locaux.

Différentes questions se posent donc :


Faut-il préchauffer l’air neuf en hiver ?

Il est évident que l’amenée d’air à basse température dans un local peut provoquer, dans certains cas, des situations inconfortables. Quelque soit la température de l’air, des recommandations existent pour limiter ce risque, telles que placer les grilles à plus de 1,8 m de haut et au-dessus des émetteurs de chaleur.

Dans les cas où le débit d’air neuf demandé est relativement bas, ces recommandations peuvent suffire à éviter les inconforts assez bas, même dans le cas d’une ventilation avec amenée d’air naturelle. Au contraire, dans les locaux à forte densité d’occupation (salle de réunion, de séminaire, …), l’importance des débits d’air neuf demandés risque de provoquer un certain inconfort thermique lorsque la température extérieure est basse.

Ainsi, dans tous les cas, pour éviter la sensation de courant d’air froid, l’idéal est de pouvoir amener l’air neuf à une température minimum (12 .. 16°C, température à régler en fonction des apports de chaleur gratuits) avant son arrivée dans le local. Dans le cas d’une pulsion mécanique, le préchauffage de l’air neuf a également pour but d’éviter de faire circuler de l’air trop froid dans les conduits, ce qui peut provoquer des condensations.

Différentes solutions existent pour réaliser le préchauffage de l’air. La solution évidente pour réaliser cet échauffement est le recours à un récupérateur de chaleur. Attention toutefois à choisir un mode de gestion du dégivrage du récupérateur qui permette de maintenir une température de pulsion suffisamment élevée à tout moment.  Un puits canadien peut également être envisagé pour préchauffer l’air neuf, mais la température atteinte ne sera pas aussi élevée qu’avec un récupérateur de chaleur. En dernier recours, le chauffage de l’air neuf pourra se faire avec une batterie de chauffage.

Concevoir

 Pour choisir le mode de préchauffage

Faut-il « neutraliser » l’air neuf ?

Lorsque le système de pulsion d’air neuf n’est pas intégré à la climatisation au travers d’une solution « tout air« , il est parfois conseillé de prétraiter l’air neuf. À défaut, il risque de créer de l’inconfort (courants d’air) menant parfois à l’obturation des bouches d’amenée d’air par les occupants.

Le développement des récupérateurs de chaleur limite ce risque, mais certaines pratique ont la vie dure. Qu’en est-il donc de cette pratique de « neutralisation de l’air neuf », qui consiste à s’assurer que l’air soit amené au local dans des conditions similaires à celles visées dans le local lui-même. Autrement dit, si vous souhaitez chauffer à 21°C, l’air sera amené à 21°C, à charge pour le radiateur de compenser les pertes par les parois.

Tout l’enjeu consiste à combiner le contrôle de la température des locaux et le contrôle de la température de l’air neuf hygiénique de manière à :

  • ne pas créer de courants d’air (on considère souvent qu’une température de 16°C minimum est nécessaire);
  • ne pas « casser l’énergie », c’est-à-dire ne pas chauffer l’air neuf et refroidir simultanément le local avec le ventilo-convecteur, ou inversement.

A priori, on pourrait penser que la température de pulsion de l’air neuf doit être « neutre » dans le bilan thermique du local et ne pas interférer avec la régulation des ventilos. On rencontre ainsi souvent une pulsion proche des 21°C toute l’année.

Effectivement, au niveau du bilan thermique du local le bilan est neutre, puisqu’il n’apporte ni chaud, ni froid.

En réalité, ce choix implique souvent qu’en mi-saison de l’énergie soit « cassée ». en effet, dans les immeubles de bureaux isolés, à partir d’une température extérieure de 12 à 14°C, il y a beaucoup de chances que le bâtiment soit en régime « refroidissement ». on va dès lors chauffer l’air neuf de 14 à 21°C, et simultanément évacuer l’énergie excédentaire du local avec le ventilo-convecteur. Cela représente une consommation énergétique importante comme le montre l’étude d’un bâtiment type. Il aurait mieux valu pulser directement cet air à 14°C dans le local.

Mais 14°C est une température de pulsion qui risque d’être trop faible et de créer de l’inconfort pour les occupants ?

Essayons dès lors de définir la régulation la plus adéquate :

On peut imaginer qu’en plein hiver, on pulse de l’air à 21°C et qu’à partir d’une température extérieure de 14°C, par exemple, la consigne de température de pulsion de l’air soit abaissée à 16°C.

Remarquons que dans la pratique, le basculement comprend un hystérésis de manière à stabiliser le fonctionnement des équipements au changement de saison. Par exemple, l’installation passe du chaud au froid à 14°, et du froid au chaud à 12°.

Toute la difficulté consiste pour le gestionnaire du bâtiment à définir le plus précisément possible la température extérieure de basculement entre le régime « été » et le régime « hiver ». En effet si celle-ci est trop élevée (par exemple, 18°C), une période de « casse d’énergie » subsiste puisque l’on chauffe l’air de ventilation pour le refroidir ensuite avec les ventilo-convecteurs.

Le problème est compliqué par le fait que tous les locaux ne sont pas soumis aux mêmes conditions d’équilibre.

Pour réduire ce risque, on peut dès lors imaginer de maintenir une température de pulsion minimum durant toute l’année. Choisissons une température de pulsion minimale de 16°C dans les locaux : si la température extérieure est inférieure à cette valeur, on préchauffe l’air et on le prérefroidit dans le cas contraire.

C’est une stratégie de régulation que l’on peut d’office utiliser dans les locaux que l’on refroidit toute l’année comme les zones intérieures d’un bâtiment (zones nullement influencées par les conditions atmosphériques).

Mais cette solution risque de créer de l’inconfort si les bouches de distribution ne sont pas prévues à haute induction.

Remarque : jusqu’à présent, on a toujours parlé en terme de température d’air neuf dans le local. Étant donné que l’air s’échauffe d’environ 1°C lors de son passage dans les conduits, on peut dire que fixer une consigne de température de 16°C sur l’air neuf équivaut à maintenir une température de 15°C à la sortie du groupe de traitement d’air.

Reste une difficulté : dans le local inoccupé dont l’occupant a arrêté le ventilo en quittant le local, c’est le débit d’air de ventilation qui va assurer la température de base durant son absence. Et au retour de l’occupant, le local sera fort froid… Cela ne paraît cependant pas remettre en question le principe d’une pulsion à 16°C car l’occupant a le loisir de remettre son local en température très rapidement dès son retour grâce à l’absence d’inertie du ventilo-convecteur (transfert rapide par l’air) et à la possibilité de positionner le ventilo en grande vitesse. Et si l’occupant n’apprécie pas la petite période d’inconfort qui en résulte, il y a beaucoup de chances qu’il ne soit pas du genre à arrêter son ventilo en quittant le local !

De plus, en période de relance, avant l’arrivée des occupants, la régulation centrale peut faire fonctionner le bâtiment en circuit fermé, sans apport d’air neuf.

Conclusions 

En l’absence de préchauffe de l’air par récupération de chaleur, il n’y a pas de solution idéale à ce problème. Il faut chercher une réponse pour un bâtiment donné, sur base de ses températures d’équilibre. Notez que le récupérateur de chaleur peut lui aussi provoquer une surconsommation d’énergie en mi-saison, s’il n’est pas équipé d’un bypass qui permet de ne pas réchauffer l’air lorsque le local est de demande de froid.

Il est clair que de prévoir des est une garantie de pouvoir pulser l’air à basse température sans créer de courants d’air, et donc de ne pas détruire de l’énergie.

L’impact énergétique est énorme. Dans un bâtiment-type de bureau,

nous avons simulé 2 situations :

  • Une pulsion d’air neuf à une température permanente de 21°C en hiver et de 16°C lorsque la température extérieure dépasse 16°C : référence 100
  • une pulsion à une température permanente de 16°C, été comme hiver :
    • – 37 % sur la consommation du traitement d’air,
    • + 19 % de consommation de chauffage des locaux,
    • – 13 % sur la consommation de froid des locaux,
    • et finalement – 10 % sur la consommation totale du bâtiment.

Qui ne serait pas tenté de diminuer de 10 % la consommation d’un bâtiment rien qu’en réglant la consigne de l’air neuf ?

Un compromis peut consister à pulser suivant une consigne qui suit une relation linéaire entre les deux points suivants : par – 10°C extérieurs, pulsion à 23°C et par + 30°C extérieurs, pulsion à 16°C.

Cette solution génère une économie de 2 % par rapport à la référence 100 du bâtiment-type.

En tous cas, ne pas adopter une pulsion constante de 21°C toute l’année ! nous ne l’avons pas chiffrée, mais la surconsommation en été doit être très importante.


La ventilation est-elle suffisante pour vaincre les surchauffes ?

Dans les anciens immeubles de bureaux, non isolés, la ventilation hygiénique permettait de résoudre en partie les problèmes de surchauffe, avec une période d’inconfort limitée à quelques jours.

L’isolation des bâtiments n’a pas augmenté la puissance nécessaire au refroidissement mais la période d’inconfort « estival » commence plus tôt dans la saison. Ceci est renforcé par :

  • l’augmentation des charges internes par l’équipement électrique des bureaux,
  • la tendance actuelle des architectes d’accroître sensiblement le pourcentage de vitrage de la façade, et donc les apports solaires peu désirables,
  • la diminution de l’inertie des parois (cloisons légères mobiles, tapis au sol, faux plafond avec absorbeur acoustique),
  • une attente accrue de confort et de productivité du personnel.

Dans certaines situations et pour autant que l’on accepte quelques journées d’inconfort, il est cependant possible d’éviter une installation de conditionnement d’air

  • En choisissant les équipements les moins énergivores.
  • En utilisant des protections solaires et des vitrages performants.
  • En exploitant au maximum le pouvoir refroidissant de l’air extérieur lorsque celui-ci à une température inférieure à la température intérieure. On parlera alors de free cooling, soit naturel, soit mécanique.

Il est important de réaliser que les débits d’air mis en jeu par la ventilation hygiénique (de l’ordre de 0.5 à 1 renouvellement horaire) et ceux impliqués par une stratégie de free cooling (à partir de 4 renouvellements horaires) ne sont pas du même ordre. On parle d’ailleurs souvent, pour le free cooling, de ventilation intensive.

Débits différents signifie a priori techniques et équipements différents. Ainsi, une ventilation intensive naturelle ne se basera pas sur des aérateurs et une cheminée telle qu’utilisée pour la ventilation hygiénique, mais bien sur l’ouverture de fenêtres en différents endroits du bâtiment. Une ventilation intensive mécanique par contre pourrait utiliser le même réseau de conduits que la ventilation hygiénique, pour autant que celui-ci soit dimensionné sur base de l’usage le plus contraignant (le débit intensif donc) et permette une régulation à la baisse lorsque cette capacité n’est pas pleinement nécessaire.

Concevoir

Pour examiner en détail l’intérêt du free cooling comme alternative à la climatisation

Concevoir

Pour en savoir plus sur les techniques de refroidissement par ventilation intensive

Études de cas

Un confort d’été correct est obtenu dans le bâtiment Probe du CSTC grâce à un free cooling nocturne. Pour plus de détails sur ce bâtiment

Faut-il humidifier ou déshumidifier l’air de ventilation ?

En hiver, sans humidification de l’air neuf, l’humidité intérieure flirte rapidement avec les limites de confort thermique.

Ceci n’est pas lié au type de ventilation (naturel ou mécanique). Pourquoi ? Parce que, en l’absence de traitement d’air, l’humidité absolue de l’air pulsé n’est pas modifiée par son passage dans un aérateur ou un réseau de ventilation. Dans les deux cas, cette humidité sera celle de l’air extérieur, qui est basse en hiver (maximum 4 gr d’eau par kilo d’air à 0°C, soit en-dessous des 6 gr qui correspondent à 40% d’humidité pour 20°C).  Le caractère asséchant de la ventilation est par contre lié au rapport entre le débit d’air neuf et le taux d’émission de vapeur dans l’ambiance, lié à l’occupation. En pratique, au plus le débit par personne sera élevé, au plus l’effet asséchant de l’air neuf sera important.

L’humidification de l’air neuf est un poste particulièrement énergivore. Il est dès lors peut-être utile de se demander si une humidification est toujours nécessaire, sachant qu’elle n’est pratiquement possible qu’en association avec un système de ventilation double flux.

Ce n’est d’ailleurs que si la pulsion de l’air est mécanique que le RGPT impose le respect d’une humidité ambiante minimum de 40%. Dans le cas d’une ventilation simple flux, le RGPT dit simplement qui si c’est possible technologiquement, un dispositif d’humidification permettant d’atteindre une humidité de 40% doit être mis en œuvre.

Évaluer

 Pour estimer la consommation liée à l’humidification de l’air neuf.
Prenons un exemple.

La température extérieure est de 0°C pour une humidité relative de 85 % (1) (conditions couramment rencontrées chez nous) :

  • Si cet air est introduit dans un bureau individuel chauffée à 20°C, à raison de 30 m³/h.pers, on peut lire sur le diagramme de l’air humide que son humidité relative chutera à 23 % (2), ce qui est trop sec pour garantir le confort thermique. Si on y rajoute l’humidité produite par un occupant, à savoir environ 50 gr d’eau par h, l’humidité relative montera jusqu’à 33 % (3), soit à la limite des conditions de confort.
  • Par contre, si la chambre est chauffée à 24°C, comme c’est souvent le cas dans les hôpitaux, on atteindra plutôt au final une humidité relative d’environ 25%, ce qui est insuffisant.

Une humidification de l’air apparaît donc nécessaire pour garantir le confort durant les périodes les plus critiques de l’année (en hiver). Étant donné que les périodes durant lesquelles il existe un risque de voir chuter l’humidité intérieure en dessous du seuil de confort sont généralement courtes, il est recommandé d’asservir le fonctionnement de l’humidificateur à la température extérieure. Sous notre climat, on peut par exemple souvent l’arrêter lorsque la température extérieure dépasse 5°C.

Notons qu’humidifier l’air implique aussi automatiquement de le préchauffer, sinon le point de saturation est atteint directement.

Concevoir

Pour choisir le mode d’humidification.

Et en été, qu’en est-il? En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilogramme d’air, ce qui, pour des températures de l’ordre de 25°C correspond à 70% d’humidité relative. Un tel niveau est acceptable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques. Mais…

  • Cela arrive malgré tout par temps orageux. Faut-il que, ces jours là, les systèmes de ventilation soient à même de ne pas répercuter cet inconfort à l’intérieur? C’est au maître d’ouvrage de se positionner. La question se pose de la même façon pour les vagues de chaleur et le risque d’une élévation de température. Quel est le prix du confort absolu ?
  • Si à l’humidité extérieure s’ajoute un dégagement d’humidité importante à l’intérieur, cela ne nous mène-t-il pas au-delà du confort? Oui, à moins de diluer cet apport intérieur d’humidité par un taux de ventilation très élevé, tel que le permet une ventilation intensive;
  • Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, ne faut-il pas garantir un contrôle de l’humidité? Oui, bien sûr, pour éviter les dégâts liés à ces condensations.

Les situations où une déshumidification est à prévoir sont donc plus nombreuses que ne le laisse supposer une simple analyse climatique. En pratique, la déshumidification ira souvent de pair avec le recours à un refroidissement actif.

Concevoir

Pour en savoir plus sur la deshumidification

Gérer

Pour en savoir plus sur la régulation de la deshumidification

Utiliser la ventilation comme émetteur thermique ?

Dans les anciens immeubles de bureaux non isolés, la puissance nécessaire au chauffage est telle que le débit de ventilation hygiénique est insuffisant si on veut assurer avec celui-ci un chauffage aéraulique. La séparation des fonctions « ventilation hygiénique » et « chauffage » s’impose d’autant plus que le bâtiment est peu isolé et que les apports internes de chaleur (machines, éclairage, …) sont faibles.

Dans ces vieux bâtiments, si on veut combiner ventilation et chauffage, un recyclage partiel de l’air doit être organisé pour augmenter les débits pulsés, ce qui surdimensionne les équipements de ventilation.

Par contre, dans les bâtiments de bureaux plus modernes, bien isolés, fortement équipés (ordinateur, imprimante personnelle), la puissance de chauffage nécessaire se réduit fortement, et avec elle, les débits d’air nécessaires pour un chauffage aéraulique. Dans ce cas, il peut être logique d’envisager la combinaison du chauffage et de la ventilation. Il n’y a plus alors d’autres sources de chauffage. C’est la logique qui prévaut souvent dans les bâtiments conçus selon le « standard passif ».

En généralisant, ce raisonnement, on pourrait envisager d’assurer également le refroidissement par la pulsion d’air neuf refroidit dans la centrale de traitement d’air.  On parlera alors de refroidissement « tout air« . Technologiquement, cela ne pose pas de problème. Mais il faut garder à l’esprit que les puissances qu’un local demande en refroidissement sont souvent plus importante qu’en chauffage. Pour un bureau, on sera souvent entre 50 et 100 W/m² de charge de refroidissement à compenser, une valeur peu influencée par l’amélioration actuelle des enveloppes. De telles puissances impliquent un surdimensionnement important du réseau de ventilation, comme le montre l’exemple ci-dessous. Une piste intéressante dans certains cas est celle du « top cooling« , où la capacité de refroidissement du réseau de ventilation hygiénique est utilisée sans surdimensionnement, en appoint d’un autre mode de refroidissement, ou comme « aide » pour franchir les périodes de canicule dans des locaux non climatisés.

Exemple.

La puissance thermique disponible sur une pulsion d’air ce calcule en multipliant le débit par la chaleur massique (0,34 [W/(m³/h)K]) et le delta de température entre l’air pulsé et l’ambiance. Considérons un local de bureau typique de 20m² occupé par deux personnes, pour lequel les règles de dimensionnement de la ventilation hygiénique recommandent 60 m³/h (RGPT). 

La température maximale de pulsion est souvent fixée à 35°C dans une ambiance à 20°C, et la température minimale à 16°C dans une ambiance à 25°C. Quelles sont les puissances disponible en fonction d’un facteur de surdimensionnement de la ventilation ?

Puissance disponible grâce à de la pulsion d’air neuf dans un local de bureau type
Débit Puissance de chauffage Puissance de refroidissement
hygiénique: 60 m³/h 15 [W/m²] 9 [W/m²]
hygiénique x 2 : 120 m³/h 31 [W/m²] 18 [W/m²]
hygiénique  x 5: 300 m³/h 77[W/m²] 46 [W/m²]

On voit que pour un bâtiment non isolé, il faut multiplier le débit d’air hygiénique par 5 si on veut atteinte l’ordre de grandeur des puissances de chauffage. Les 15W/m² disponibles « de base » devraient par contre être suffisant dans un bâtiment « passif ». Les puissances disponibles en refroidissement ne sont alors que tout juste capable de compenser la puissance des luminaires, ou celle des ordinateurs. En aucun cas les charges liées à l’ensoleillement… 

Notons au passage que lorsqu’on fait un chauffage par la ventilation,  il faut prévoir la possibilité de travailler en tout air recyclé pour optimaliser la relance matinale du système de chauffage aéraulique. L’apport d’air neuf n’étant enclenché qu’à l’arrivée des occupants.

Choisir un système de ventilation centralisé ou décentralisé

Choisir un système de ventilation centralisé ou décentralisé

Différents critères interviennent dans ce choix:


Les possibilités d’implantation

La facilité (ou difficulté) d’implantation d’un système de ventilation dépend d’abord de son type : les systèmes proposés se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturels ou simple flux par extraction mécanique sont les plus faciles à implanter. Ils ne demandent aucun gainage de pulsion, celui d’extraction étant quant à lui généralement beaucoup plus court et facile à implanter. Le système naturelle demande cependant que cette extraction soit faite par des conduits verticaux respectant certaines prescriptions quant à leur tracé et leur débouché en toiture. Ce système peut donc être plus difficile à mettre en œuvre que l’extraction mécanique. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage. Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.

Quel que soit le mode de ventilation, l’implantation peut être facilitée si le système de ventilation se décompose en différents systèmes indépendants desservant chacun une partie du bâtiment. Ce découpage peut se faire sur base:

  • d’une logique spatiale : différentes ailes du bâtiments pourraient avoir chacune leur propre système. Dans ce cas, la séparation des systèmes permet de limiter la longueur des conduites, l’encombrement dans le bâtiment et les pertes de charges.
  • d’une logique d’occupation : des espaces présentant des profils d’occupation très différents peuvent justifier un réseau de ventilation spécifique, par exemple des salles de réunion regroupées dans un bâtiment de bureau, ou un amphithéâtre dans une école. Dans ce cas, la séparation des systèmes permet de faciliter la gestion des débits d’air : apporter exactement la bonne quantité d’air au bon endroit, au bon moment.

À l’extrême, chaque local pourrait disposer de son propre système de ventilation. Certains dispositifs de ventilation permettent d’ailleurs une pulsion et extraction mécanique avec récupération de chaleur par local.

Décentraliser peut donc dans certains cas limiter l’encombrement du réseau au sein du bâtiment. Par contre, cela implique de multiplier les groupes de ventilation qui prennent eux-aussi une place conséquente.


L’isolation acoustique entre locaux

Certaines activités de bureaux demandent une certaine confidencialité (bureau d’avocats, cabinet de médecin, …) qu’il peut être difficile d’atteindre du fait des ouvertures permanentes pratiquées pour le transfert de l’air. La question de l’isolation acoustique se pose aussi de façon pressante dans les bâtiments scolaires.

La conception d’un système de ventilation décentralisé pour ces locaux élimine le transfert d’air et la faiblesse acoustique liée au passage de l’air dans le bâtiment. Cette solution peut cependant générer une autre nuisance acoustique du fait de la présence des ventilateurs dans (ou à proximité) de ces locaux.

L’autre piste, est l’utilisation d’un réseau de ventilation centralisé, mais équipé de grilles de transfert acoustiques. Celles-ci, plus larges, se placent plus aisément dans les murs que dans les portes. Elles génèrent malheureusement plus de pertes de charge qu’une grille traditionnelle, avec un impact sur le consommation électrique des ventilateurs.

Ouverturetransfert2.gif (1351 octets)Ouverturetransfert3.gif (1519 octets)

Ouvertures de transfert acoustiques.


La protection incendie

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Cela signifie que les ouvertures de transfert prévues entre les bureaux où l’air neuf est amené et les couloirs par lesquels l’air transite vers les sanitaires doivent avoir la même résistance au feu. Cela est possible grâce à des grilles de transfert coupe-feu. Pour ce qui est du détalonnage des portes, cela peut prêter à discussion.

Plus globalement, la traversée d’une paroi, quelle qu’elle soit, par un conduit d’air ne peut pas amoindrir la résistance au feu de cette paroi : « La traversée par des conduites de fluides ou d’électricité et les joints de dilatation d’un élément de construction ne peuvent altérer le degré de résistance au feu exigé pour cet élément.  » (AR du 7 juillet 1994).

Des résistances au feu minimales sont imposées aux séparations entre compartiments incendie. Un compartiment à une superficie de maximum 2 500 m² et est limité à un étage. Les parois séparant les compartiments doivent être « Rf  min 1 h » (en fonction de la hauteur du bâtiment). Ceci implique notamment que tout transfert d’air entre deux étages est soit interdit (pas de pulsion à un étage et d’extraction à un autre), soit obturable automatiquement (porte coupe-feu automatique, clapet coupe-feu).

Cette règle s’applique donc également aux parois des trémies dans lesquelles se trouvent les conduits de ventilation des réseaux mécaniques. Ces parois doivent présenter une RF de 1h à 2h selon la hauteur du bâtiment (cas des trémies continues sur la hauteur du bâtiment).

On comprends facilement qu’une réflexion sur une décentralisation des systèmes de ventilation qui soit cohérente avec le découpage du bâtiment en compartiments incendie peut limiter le recours à ce type d’équipements et dans certains cas permettre une économie d’investissement.

Enfin, notons que pour les bâtiments d’une hauteur comprise entre 25 et 50 m, il est imposé de maintenir les cages d’escalier en surpression en cas d’incendie. À cela vient s’ajouter le désenfumage obligatoire des couloirs par pulsion et extraction pour les bâtiments de plus de 50 m de haut. Ces deux exigences se réalisent par un système de ventilation tout à fait indépendant de la ventilation hygiénique et qui met en œuvre des débits nettement plus importants, de l’ordre de 10 renouvellements d’air par heure.


L’impact énergétique

Dans le cas où un bâtiment inclut des espaces dont les besoins d’air sont variables (des locaux de même nature mais gérés différemment, ou des locaux abritant des fonctions différentes), subdiviser un système de ventilation peut favoriser les économies d’énergie électrique au niveau des ventilateurs. Pourquoi ?

La puissance électrique absorbée par un ventilateur dépend du débit d’air à mettre en mouvement et de la perte de pression à compenser. Considérons un réseau de ventilation alimentant un alignement de classes. Imaginons que les classes à l’extrémité du réseau soient utilisées en soirée pour des activités extra-scolaires, tandis que celles situées au milieu ou au début du réseau n’ont plus besoin d’air après les heures de cours.

En soirée, une gestion intelligente du débit fermera un clapet ou registre de réglage à l’entrée des premières classes. En conséquence, la pression va monter dans le réseau et le ventilateur, s’il détecte cette montée en pression, pourra moduler sa vitesse. Néanmoins, il devra toujours compenser les pertes de charge générées par la totalisé du réseau pour alimenter la classe utilisée en soirée.

Si chaque classe disposait de son propre système de ventilation, ou si cette seule classe à usage particulier disposait de son propre système, le fonctionnement en mode « soirée » n’impliquerait que cet unique groupe de ventilation, qui n’aurait pas à vaincre les pertes de charge d’une réseau collectif. Dès lors, la puissance absorbée pourrait théoriquement être moindre : même débit dans les deux situations, mais pertes de charge réduite dans le cas décentralisé.

Cette réflexion de principe est bien évidemment dépendante des choix de dimensionnement qui seraient faits dans les alternatives centralisées et décentralisée, de la finesse du mode de gestion dans le cas centralisé, des pertes de charges propres aux groupes de ventilation et de l’impact de la réduction du débit d’air sur ces pertes de charges dans le scénario centralisé, etc.

Le bénéfice énergétique de la décentralisation n’est pas nécessairement évident. C’est cependant une piste qui mérite d’être calculée en détail par les bureaux d’étude, maintenant que les consommations des ventilateurs représentent une part non négligeable du calcul PEB.

Choisir un système de ventilation naturelle ou mécanique

 

© Architecture et climat 2023.

Ventilation naturelle.    

© Architecture et climat 2023.

Ventilation mécanique.

Différents critères interviennent dans ce choix:


La garantie de résultat

L’efficacité d’une ventilation est sa capacité à évacuer réellement les polluants des locaux. Pour cela, il faut avoir la garantie que l’air neuf balaye correctement les bureaux et soit évacué après son mélange avec l’air ambiant.

La solution idéale est, mécaniquement, de pulser l’air neuf et d’évacuer l’air vicié directement dans chaque local indépendamment. Cette solution de ventilation indépendante de chaque local est cependant onéreuse et est réservée aux salles à forte affluence (salle de réunion, auditorium, …).

Le système double flux avec pulsion dans les bureaux et extraction dans les sanitaires et/ou zones de circulation garantit au minimum une amenée d’air neuf réelle dans les bureaux et une évacuation des odeurs dans les sanitaires.

Les systèmes de ventilation naturelle ou simple flux, quant à eux, ne garantissent pas toujours un renouvellement d’air correct dans tous les bureaux.

Prenons l’exemple d’une ventilation simple flux avec une simple extraction mécanique dans les sanitaires et des grilles d’amenée d’air naturel dans les châssis des bureaux :

L’air est paresseux, il préférera toujours le chemin le plus facile pour se mouvoir. Ainsi, s’il doit choisir entre les grilles placées dans les châssis des bureaux et un hall d’entrée (ou une fenêtre, …) largement ouvert vers l’extérieur, il est plus que probable que l’air extrait par les sanitaires provienne de ce dernier, plutôt que des bureaux. Ceux-ci ne seront alors pas ventilés correctement.

Schéma trajet de l'air dans un bâtiment.

Ce phénomène est aggravé :

  • en présence de couloirs maintenus ouverts vers les cages d’escalier ou hall d’entrée,
  • en présence de fenêtres et portes ouvertes dans certains bureaux,
  • en l’absence de moyens de transfert d’air au niveau des portes (grilles, détalonnage des portes).

En outre, dans des immeubles de bureaux, le compartimentage variable (location à des sociétés différentes) peut rendre encore plus difficile la coordination entre les entrées d’air et les évacuations.

De plus, les flux d’air véhiculés par les systèmes naturels ou simple flux sont dépendants des conditions atmosphériques (répartition du vent, des températures sur les façades) et donc difficilement contrôlables. Il est par exemple, possible que le flux d’air s’inverse dans une grille autoréglable si celle-ci est disposée sur une façade à l’abri des vents dominants (c’est-à-dire sur une façade en dépression). en effet, ce type de grille permet de limiter l’ouverture d’entrée d’air si elle est soumise à la pression du vent. Par contre, elle n’empêche pas un reflux d’air si elle est à l’abri du vent.

Le système de ventilation ne fonctionnera correctement que si le bâtiment est relativement étanche à l’air.

Dans son article « La ventilation et l’infiltration dans les bâtiments : la situation en Belgique » (1986), le CSTC, recommande d’améliorer l’étanchéité du bâtiment avant d’installer un système de ventilation contrôlée pour un taux de renouvellement de l’air à 50 Pa (n50) inférieur à 5/h. Les recommandations actuelles d’étanchéité à l’air des construction sont cependant plus ambitieuses encore.

Évaluer

Pour évaluer l’étanchéité du bâtiment, cliquez ici !

L’ambiance extérieure

Si l’ambiance extérieure est particulièrement polluée et/ou bruyante (site urbain, industriel, route fort fréquentée, parking avec heures de pointe), les amenées d’air neuf doivent obligatoirement comporter des filtres et une isolation acoustique.

Notons que les locaux les plus sensibles au niveau de la pollution des routes sont les locaux situés à moins de 10 m du sol.

Les amenées d’air naturelles, même équipées de systèmes d’insonorisation laissent cependant filtrer les bruits extérieurs et surtout les poussières. Des recherches sont cependant menées pour améliorer les qualités acoustiques, de filtration et d’automatisation des entrées d’air naturelles. À terme, elles devraient conduire au développement sur le marché de produits permettant une protection contre la pollution extérieure et une régulation semblable à celle possible en ventilation double flux.

Dans les sites urbains fort fréquentés et/ou pour certains locaux demandant une pureté de l’air plus importante (salles d’ordinateur, hôpitaux, …), une pulsion mécanique, équipée de filtres s’impose donc, la prise d’air extérieure devant être disposée dans l’endroit le moins exposé (à l’arrière du bâtiment ou en toiture).

Concevoir

Pour choisir l’emplacement de la prise d’air neuf, cliquez ici !

Les possibilités d’implantation

Les différents systèmes de ventilation se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturelle ou simple flux par extraction mécanique sont les plus faciles à implanter.

Ils ne demandent que peu de gainage. Un système naturel se limite à  la création de conduits verticaux d’évacuation dans les locaux humides. Pour fonctionner efficacement, ceux-ci doivent cependant respecter certaines prescriptions quant à leur tracé et leur débouché en toiture, que l’on trouvera dans la norme (résidentielle) NBN D50-001. Ce système peut donc être plus difficile à mettre en œuvre qu’un système mécanique simple flux par extraction. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage, et parfois, à des fins d’équilibrage aéraulique, une reprise d’air qui ne se limite pas aux locaux sanitaires et prends la forme d’un second réseau de conduites.

Rappelons que dans le cas d’une pulsion mécanique, un principe de balayage peut être mis en place. L’air alimentant un local peut provenir d’un autre local, pour autant qu’il n’y ait une gradation dans la qualité de l’air: un local ne peut pas être alimenté par de l’air provenant d’un espace plus pollué que lui (voir à ce sujet la norme ISO « ventilation dans les bâtiments non-résidentiels » ). Dans les espaces résidentiels, cette possibilité est explicitement prévue par la norme NBN D50-001, qui autorise que l’air alimentant les salles de séjour provienne des chambres, des locaux d’étude et de loisir, des couloirs, des cages d’escalier, des halls. Ceci a l’avantage de diminuer les débits totaux d’air neuf à injecter dans le bâtiment et de préchauffer l’air avant son entrée dans les locaux de séjour. Dans les chambres et les locaux d’étude et de loisir, seul l’air extérieur est autorisé.

Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.


La consommation énergétique et les coûts

Il faut comparer les performances que l’on espère obtenir, l’investissement à consentir et les coûts d’exploitation du système.

Au niveau de l’investissement, plus la mécanisation est importante (du simple flux avec extraction sanitaire au double flux avec pulsion et extraction dans chaque local), plus l’investissement est important. Il en est de même pour les frais d’exploitation (consommation des ventilateurs, maintenance des réseaux). Les frais de chauffage de l’air neuf sont, quant à eux les mêmes, si on considère que tous les systèmes permettent d’assurer des débits équivalents corrects. si ce n’est qu’une ventilation double flux est généralement pourvue d’une récupération de chaleur sur l’air extrait qui modifie sensiblement le bilan énergétique et financier.

Pour situer la surconsommation électrique d’un système de ventilation entièrement mécanique par rapport à un système de ventilation entièrement naturel, on peut citer les chiffres de consommation des ventilateurs couramment rencontrés dans la littérature : pour un système de ventilation double flux, la puissance électrique absorbée par les ventilateurs dans leurs conditions nominales de fonctionnement est de l’ordre de :

2 * 0,14 (installation performante : SFP1) à 0,35 W (installation médiocre : SFP3) par m³/h d’air transporté

dont une partie se retrouvera sous forme de chaleur dans l’air pulsé.
Vous pouvez estimer la différence de consommation entre les différents principes de ventilation :

Calculs

Pour estimer la différence de consommation entre les différents types de ventilation, cliquez ici !

Par exemple, pour assurer un apport d’air neuf de 6 000 m³/h pendant 2 500 h/an, un système de ventilation mécanique double flux consommera en électricité environ :

2* (0,14 [W] .. 0,35 [W]) x 6 000 [m³/h] x 2 500 [h/an] = 4200 .. 10500 [kWh/an]

Par contre, le système double flux permet une meilleure maîtrise des débits, donc des déperditions de chaleur par ventilation. Les consommations peuvent en outre être réduites si on utilise un récupérateur de chaleur. Cette récupération de chaleur est énergétiquement très intéressante puisqu’elle permet de récupérer de 50% à 90% de l’énergie rejetée avec l’air extrait.

Le système double flux permet également une gestion automatique des débits de ventilation local par local en agissant directement au niveau des bouches de pulsion, par exemple en fonction de l’occupation des bureaux individuels. Ce niveau d’automatisation au  niveau de chaque local est théoriquement possible en ventilation naturelle et simple flux si l’on utilise comme amenée d’air des fenêtres robotisées liées à des sondes de présence ou de CO2. Mais ce type de systèmes est très peu utilisé à l’heure actuelle.

Notons également que des installations pilotes de ventilation naturelle avec récupération de chaleur ont été réalisées dans le cas du projet de recherche « NatVent » (pour plus de détail : NatVent, Overcoming barriers to natural, CD-Rom, P.Wouters, J.Demeester, CSTC, 02/655 77 11).


L’esthétique

Les grilles d’amenée d’air naturelles doivent s’intégrer dans l’esthétique des façades et demandent un travail de recherche lors de la conception. Les prises et évacuations extérieures des systèmes mécaniques peuvent souvent être disposées à des endroits moins visibles.

Photo grilles d'amenée d'air naturelles.

Amenée d’air naturelle disposée discrètement au dessus du châssis, contre la battée.

Choisir le système de ventilation : critères généraux

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur ;
  2. le mobilier et matériel de bureau ;
  3. les produits et matériaux de construction ;
  4. la ventilation ;
  5. le comportement des usagers.

Les normes recommandent une ventilation de base permanente ayant pour but d’évacuer les odeurs, l’humidité et les éventuelles substances nocives. Pour ce faire, différents systèmes de ventilation existent.


Aperçu des normes

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779 (Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation).  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

De plus, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par WC ou urinoir ou 15m²/h par m² de surface si le nombre de WC n’est pas connu lors du dimensionnement.

Pour les hôpitaux, selon la norme NF S90-351, dans les zones à risques 1, c’est-à-dire concrètement sans risque d’aérobiocontamination (hospitalisation sans risque d’infection, certaines consultations, radiologie, ergothérapie, …), la ventilation se traite, en principe, sans exigence particulière en terme de filtration et de pression.

Dans les autres locaux (médico-techniques par exemple), la ventilation est organisée dans le même local où l’on retrouve à la fois des bouches de pulsion et d’extraction.


Typologie des systèmes de ventilation

Différentes dénominations sont utilisées pour caractériser des systèmes de ventilation.

Relativement au flux d’air, on distingue ventilation hygiénique et intensive sur base du débit:

  • Ventilation hygiénique, ou « de base » : il s’agit de la ventilation minimale nécessaire pour garantir une qualité de l’air suffisante, pour réduire la concentration des odeurs et de l’humidité. Elle requiert des débits d’air limités, appliqués de manière permanente. Ordre de grandeur : <1 renouvellement horaire de l’air.
  • Ventilation intensive : ventilation temporaire à grand débit (ordre de grandeur : >4 renouvellements horaires de l’air) nécessaire uniquement dans des circonstances plus ou moins exceptionnelles, comme lors d’activités générant une production élevée de substances nocives ou d’humidité (travaux de peinture, de nettoyage, certains loisirs,…), lors de chaleur persistante ou d’ensoleillement intensif qui provoque une surchauffe, ou lors d’une occupation extraordinaire, par exemple une fête, un nombre de fumeurs élevé, …

On distingue également infiltrations et ventilation sur base du caractère volontaire ou fortuit du mouvement d’air :

  • Infiltration : mouvement d’air involontaire et incontrôlé au travers des faiblesses de l’enveloppe d’un bâtiment
  • Ventilation : mouvement d’air volontaire et partiellement ou totalement contrôlé au travers de dispositifs spécifiques

Dans le logement, la norme NBN D50-001 parle de systèmes A, B, C ou D selon que l’amenée et/ou l’évacuation d’air est naturelle ou mécanique. Bien qu’exclusivement réservée aux logement, ces appellations sont parfois généralisées aux systèmes mis en œuvre dans les bâtiments tertiaires. Nous parlerons ici plus largement de :

Les ventilations double flux peuvent ou non intégrer une récupération de chaleur sur l’air extrait.

Enfin, on parlera de ventilation hybride lorsqu’elle recours aux principe de la ventilation naturelle mais prévoit ponctuellement le support de ventilateurs et d’éléments réseaux de ventilation mécanique. Typiquement, il s’agit d’une ventilation naturelle dans laquelle un ventilateur d’appoint vient renforcer le tirage lorsque les forces naturelles font défaut.

Le premier choix à réaliser est donc, pour faire simple, entre une ventilation naturelle ou mécanique simple ou double flux. en conception neuve ou rénovation, c’est très souvent une ventilation mécanique qui sera choisie. Se posent alors deux autres questions :

  • faut-il créer un réseau de ventilation unique desservant tout le bâtiment (système de ventilation centralisé) ou distinguer les équipements de chaque local ou groupe de locaux (système de ventilation décentralisé) ?
  • A-t-on intérêt à utiliser ce système de ventilation pour traiter l’air neuf et/ou climatiser le local?

Concevoir

Pour départager les ventilation naturelles et mécaniques, cliquez ici !

Concevoir

Pour départager les systèmes de ventilation centralisés ou décentralisés, cliquez ici!

Concevoir

Pour examiner l’intérêt d’une combinaison de la ventilation avec le traitement thermique des locaux, cliquez ici

Capteur solaire à eau chaude

Capteur solaire à eau chaude


Principe de fonctionnement

Schéma principe de fonctionnement.

Les capteurs solaires transforment le rayonnement solaire en chaleur grâce à un absorbeur (un corps noir caractérisé par des propriétés d’absorption très élevées et d’émissivité très basse). L’absorbeur transfère la chaleur à un fluide caloporteur (généralement de l’eau glycolée) circulant au travers de chacun des capteurs.

Lorsque la différence de température entre la sonde capteur (T1) et la sonde en fond de ballon (T2) dépasse quelques degrés, les circulateurs s’enclenchent.

Le fluide caloporteur, circulant dans le circuit primaire, achemine alors l’énergie solaire depuis les capteurs vers le(s) ballon(s) de stockage à travers un échangeur.

Le(s) ballon(s) de stockage accumule(nt) la chaleur produite.

Si nécessaire, une source d’énergie d’appoint porte l’eau préchauffée à la température souhaitée. Celle-ci est alors acheminée vers les points de puisage par la boucle de distribution.

Un dispositif de régulation électronique commande le fonctionnement du système (circulateurs et appoints) selon les conditions d’ensoleillement et la demande en eau chaude.


Les principaux composants d’une installation

Un chauffe-eau solaire est toujours composé de quatre parties :

Schéma principaux composants d'une installation.

Le système de charge

Le système de charge comprend les capteurs solaires, la boucle primaire ou solaire et un échangeur de chaleur.

Le système de stockage

Il s’agit généralement d’un ou plusieurs ballon(s) d’eau bien isolé(s) thermiquement. Le stockage permet de différer la demande de puisage par rapport au moment de la production solaire.

Le système d’appoint

Pendant une bonne partie de l’année, un appoint de chaleur est nécessaire pour atteindre la température minimale de la boucle sanitaire (en général 60 °C). Cet appoint de chaleur peut être fourni par un moyen traditionnel de production de chaleur (chaudière, résistance électrique, pompe à chaleur,…).

Le système de décharge

C’est la partie de l’installation qui distribue l’eau chaude sanitaire aux différents points de puisage.

Photo capteur solaire sous vide.

Exemple de capteur solaire sous vide (avec sonde de température en 1 et purgeur en 2).
À noter le lestage des pieds de l’équipement…


Les différents types d’installation

Sous nos climats, la plupart des installations sont conçues avec une boucle fermée sous pression dont la circulation est forcée, mais il existe d’autres types d’installation :

Boucle solaire fermée (indirecte) ou ouverte (directe) ?

Si la boucle est fermée, le fluide qui chauffe dans les capteurs solaires et celui qui arrive aux points de puisages (douches…) sont distincts : l’eau de consommation est indirectement chauffée à travers un échangeur par le fluide caloporteur du circuit solaire.

Dans le cas où la boucle est dite ouverte, l’eau qui circule dans les capteurs est la même que celle qui est consommée aux points de puisage. Ce type de circuit est rarement utilisé en Belgique, notamment à cause des problèmes liés au gel. On le trouve donc plus souvent dans les pays chauds, où les capteurs constituent le seul moyen de chauffage.

Boucle fermée.

Boucle ouverte.

Circulation forcée ou thermosiphon ?

Dans les installations à thermosiphon, le fluide de la boucle solaire circule par convection naturelle (le fluide réchauffé s’élève). Le stockage est en général situé au-dessus des capteurs (à une distance de minimum 50 cm). Chez nous, ce système est difficilement maîtrisable. Il convient nettement mieux aux pays chauds et ensoleillés.

Thermosiphon.

Circulation forcée.

Les installations à circulation forcée sont équipées d’un dispositif de pompage (circulateur) provoquant la circulation forcée du fluide de la boucle solaire. La pompe est activée automatiquement par la régulation qui évalue le moment où la température du fluide à la sortie des capteurs est supérieure à la température de l’eau dans le bas du réservoir de stockage. On distingue dans cette catégorie plusieurs principes suivant le débit imposé au fluide dans le circuit solaire :

  • Les installations dites « high flow » : dans ce cas, le débit étant élevé (+/- 40 à 60 litres/heure.m²), on favorise une production d’une grande quantité de fluide avec un delta de température peu élevé.
  • Les installations dites « low flow » : dans ce cas, le débit étant faible (+/- 15 à 20 litres/heure.m²), on valorise une plus haute montée en température d’un volume de fluide réduit. Cela permet de travailler avec de plus faibles diamètres de tuyauterie et de faibles puissances de circulateur. Cependant, les pertes thermiques sont augmentées, ce qui diminue le rendement des capteurs. Ce système est généralement utilisé pour les installations de type directe ou encore pour les installations dites « à vidange ».
  • Les installations dites « mix flow » : dans ce cas, le débit est variable et ajusté en continu par la régulation afin de garantir à tout moment un delta de température fixé. Ce système est de plus en plus utilisé et permet d’éviter des enclenchements-arrêts fréquents de la pompe.

Sous pression ou à vidange ?

Les systèmes traditionnels à boucle fermée et à circulation forcée sont généralement « sous pression ». Dans ce type de système, le fluide caloporteur est constamment maintenu à une pression de 1 bar à l’arrêt et de 6 bars en fonctionnement.

Il existe aussi des systèmes « vidangeables ». La différence principale avec les systèmes traditionnels est que lorsque le système ne peut capter d’énergie, les capteurs et les tuyauteries sont vidés et la pompe arrêtée. Le fluide caloporteur est alors recueilli dans un réceptacle fermé. S’ils sont bien conçus, ces systèmes présentent une grande sécurité en cas de gel ou en cas de surchauffe estivale (cela permet d’éviter les montées en températures trop importantes dans le capteur). Ces systèmes permettent ainsi d’éviter une usure accélérée des composants et présentent une grande simplicité de construction puisqu’ils ne nécessitent ni manomètre, ni vase d’expansion, ni purgeur, ni clapet anti-retour (vu que l’installation est vidangée, il n’y a pas de risque de circulation inverse par thermosiphon).

Sous pression.

A vidange.


Les types de capteurs

Il existe deux grandes familles de capteurs : les capteurs plans et les capteurs à tubes « sous vide ».

Capteurs plans

Les capteurs plans opaques

Ce sont les capteurs les plus simples du marché. Ils sont constitués d’un ensemble de tuyaux opaques de couleur foncée qui jouent à la fois le rôle de:

  

  1. plaque absorbante qui permet la captation de l’énergie thermique du rayonnement solaire.
  2. tuyauterie dans laquelle circule directement le fluide caloporteur (généralement l’eau).

Ils ne possèdent ni isolation ni couvercle transparent. Leur rendement est donc globalement moins bon sauf s’ils sont destinés à des applications estivales à basse température (proche de la température extérieure), par exemple pour les piscines extérieures … Leur simplicité va de pair avec un coût très réduit.

Les capteurs plans vitrés

Il s’agit des capteurs que l’on rencontre le plus souvent ; ils conviennent pour la plupart des applications courantes (ECS, appoint chauffage, piscine…).

Un capteur plan vitré se compose des éléments fondamentaux suivants :

  1. Un boîtier qui contient tous les éléments constitutifs fragiles du capteur comme les tubes, la plaque absorbante…
  2. un joint d’étanchéité pour empêcher l’eau de pénétrer quand il pleut ;
  3. un couvercle transparent qui crée un effet de serre au-dessus de la plaque absorbante : en général un verre trempé dit solaire, présentant une faible teneur en fer pour permettre un haut degré de transmission lumineuse ;
  4. une isolation thermique qui réduit la déperdition de chaleur par la face arrière et les côtés du capteur ;
  5. une plaque absorbante qui permet la conversion du rayonnement solaire en énergie thermique transportée par le fluide ;
  6. les tubes traversés par le fluide caloporteur qui évacue la chaleur jusqu‘à l‘extérieur du capteur ;

Selon les modèles, différents types de réseaux hydrauliques internes aux capteurs existent :

Schéma différents types de réseaux hydrauliques internes.

Capteurs à tube sous vide

L’isolation de ce type de capteurs est assurée par le vide. Par facilité de conception, ces capteurs ont toujours une forme cylindrique, d’une longueur d’environ 2 m et d’un diamètre approximatif de 10 cm. Ces capteurs sous vide ont en général un rendement optique (correspondant au rendement de production d’eau chaude à une température égale à celle de l’ambiance) plus faible mais de meilleurs coefficients d’isolation thermique que les capteurs plans.

Ils récupéreront dès lors moins d’énergie à basse température que leurs homologues plans. Plus efficaces pour la production d’eau chaude à température élevée par rapport à l’ambiance extérieure, ils seront principalement utilisés pour des applications comme le chauffage, la climatisation par ab/adsorption ou encore certains process particuliers,…

Photo capteur solaire thermique.

Il en existe deux grandes familles selon que l’absorbeur se trouve directement sur le verre ou sur une ailette en cuivre.

Les tubes sous vide avec absorbeurs sur ailette en cuivre

L’absorbeur de ce type de capteur est déposé sur une structure en cuivre placée dans le tube. Ce type d’absorbeur sur cuivre possède une meilleure sélectivité que celui déposé sur le verre (et donc procure un rendement optique plus élevé au capteur). L’avantage principal est que l’absorbeur peut être orienté différemment par rapport à son support. Cela peut être avantageux pour des applications en façade par exemple.

C’est l’intérieur du tube (et tout ce qu’il contient) qui est soumis au vide d’air. Bien que le principe soit simple, la fabrication de ces capteurs reste délicate à cause des liaisons verre/métal nécessaires.

Composition des tubes sous vide avec ailette absorbante

Schéma composition des tubes sous vide avec ailette absorbante

  1. Un tube en verre  dans lequel on effectue le vide d’air (assurant une isolation optimale) dans lequel se trouvent tous les composants suivants.
  2. L’absorbeur posé sur un support en cuivre.
  3. Les tubes qui évacuent la chaleur, généralement aussi en cuivre. Ces tuyaux peuvent être disposés de divers manières (soit juxtaposés, soit concentriques).
  4. Le système de raccordement permet la rotation des tubes afin d’orienter au mieux l’ailette absorbante.

Il existe aussi plusieurs types de capteurs selon le fluide caloporteur et son mode de circulation:

> Les capteurs à circulation directe

> Les capteurs à caloduc (ou heat pipe)

Dans le cas de capteurs à circulation directe, l’ailette sert de support à un tube en U dans lequel circule le fluide caloporteur.

Le caloduc, lui, est un échangeur qui utilise les mécanismes de changement d’état liquide-gaz d’un fluide placé dans un tube fermé. Le principe est simple : en captant la chaleur absorbée par l’ailette, le fluide s’évapore. Il s’élève alors jusqu’en partie haute et cède sa chaleur en se condensant par contact avec le fluide caloporteur de l’installation qui circule en partie haute. De nouveau à l’état liquide, il retourne alors par gravité en bas du tube.

Schéma principe du caloduc.

Pour un fonctionnement correct, ces tubes doivent être installés avec une inclinaison minimale. Ce système permet un remplacement des tubes sans purgeage complet de l’installation.

Les tubes sous vide avec absorbeurs sur support en verre (tube Sydney)

Schéma tubes sous vide avec absorbeurs sur support en verre.

Dans ce cas, le vide est fait entre les deux couches de verre (principe du thermo) qui composent le tube en verre. L’intérieur de la bouteille est donc soumis à la pression atmosphérique. À l’intérieur, l’absorbeur et les tuyauteries évacuent la chaleur du creux atmosphérique central.

Composition des tubes sous vide avec absorbeur sur support en verre

Schéma composition des tubes sous vide avec absorbeur sur support en verre.

  1. Une bouteille de verre à double paroi est employée. Les deux parois sont reliées de manière étanche au niveau du goulot de manière à emprisonner le vide (partie grise dans le schéma).
  2. Sa surface externe (2) est laissée transparente.
  3. Un absorbeur est posé sur la face intérieure de la bouteille.
  4. Des tubes qui évacuent la chaleur sont placés dans le creux atmosphérique central.
  5. Des tuyaux sont reliés à l’absorbeur par des profilés semi-circulaires métalliques de transfert de chaleur.
  6. Éventuellement et préférablement, des réflecteurs augmentent le rayonnement solaire sur le capteur (on parle alors de tubes CPC pour Compound Parabolic Concentrator).

Le rendement et l’utilisation des capteurs

Les capteurs vont se différencier entre eux par la qualité de l’absorbeur (sa sélectivité) et du verre solaire (rendement optique), ainsi que par celle de l’isolation du capteur. L’ensemble de ces trois propriétés conféreront au capteur des plages de températures privilégiées et par là, les usages pour lesquels il sera mieux adapté.

Graphique rendement et l'utilisation des capteurs.

Ces différences de rendement selon les plages de température de fonctionnement seront à la base du choix du type de capteurs que l’on utilisera. On choisira donc préférablement le capteur qui offre le meilleur rendement pour le régime de température de travail correspondant à l’application voulue.

Les plages de régimes de travail à basse température (correspondant à des delta de températures de travail des capteurs entre 0 et 20 °C) sont essentiellement rencontrées pour le chauffage de piscine. Les déperditions thermiques n’ont pour ces températures que peu d’influence. C’est donc, dans ce cas, le rendement optique du capteur qui sera déterminant. Les capteurs plans (vitrés ou non) seront le choix idéal puisqu’ils offrent des rendements optiques plus élevés pour un prix nettement inférieur.

Pour les régimes à température moyenne (delta de T° de 20° à 100 °C), recherchés pour des applications comme la production d’eau chaude sanitaire ou le chauffage à basse (delta de 60 °C) et moyenne température (delta de 100 °C), les déperditions commencent à prendre le pas sur le rendement optique. Dans ce cas, les capteurs devront posséder outre un bon absorbeur sélectif, une bonne isolation thermique. Pour ces plages, les capteurs à tubes sous vide et les capteurs plans vitrés sont concurrentiels.

Pour les régimes à haute température (nécessaires pour des applications comme des process industriels, chauffage à très haute température, climatisation solaire), c’est l’efficacité de l’isolation qui sera déterminante. Le seul choix réaliste dans ce cas est celui des tubes sous vide.


Le raccordement des capteurs

Un champ de capteurs doit être composé de capteurs aux propriétés physiques semblables. Plusieurs raisons à cela :

  • Eviter les sources d’usure prématurée : des métaux différents peuvent provoquer des couples galvaniques, sources de corrosion interne des capteurs.
  • Eviter un problème d’équilibrage hydraulique, problème fréquent de fonctionnement des capteurs : chaque capteur doit posséder des pertes de charge similaires.

Le placement des capteurs doit permettre :

  • que la planéité des capteurs soit respectée ;
  • de placer vers le bas les orifices d’évacuation des condensats ;
  • de résister aux conditions climatiques locales (vent et neige).

Pour le raccordement des panneaux entre eux, différentes configurations sont possibles :

  • en série (a) ;
  • en parallèle respectant de préférence le principe de Tichelmann (b) ;
  • en rangée de capteurs en série (c) ;
  • en rangée de capteurs en parallèle (respectant le principe de Tichelmann) (d).
  • etc.

Schéma principes de raccordement des panneaux.

Le choix sera fonction de différents éléments :

  • La facilité de réglage (équilibrage) ;
  • la longueur nécessaire de tuyauterie (coût et pertes thermiques associés) ;
  • la configuration de l’espace disponible ;
  • le compromis entre l’efficacité des capteurs et la température de sortie.

Le raccordement en série permet une montée en température plus importante au prix de pertes thermiques plus importantes (d’autant plus si l’on travaille avec un faible débit (low flow). De fait, la montée progressive en température au fil des panneaux en série est accompagnée par une diminution du rendement. Un trop grand nombre de capteurs raccordés en série sera donc à éviter. En pratique, 5 à 6 capteurs de taille standard (environ 2 m²) est un maximum.

Énergétiquement parlant, le raccordement en parallèle est donc plus intéressant mais n’est pas toujours réaliste vu les longueurs de tuyauterie nécessaires.

L’équilibrage hydraulique des différents capteurs est un point crucial. Dans la réalité, il est souvent réalisé empiriquement par un jeu de vannes qui ne permet évidemment pas de corriger les erreurs de conception. Il est donc primordial de prendre en compte les pertes de charges liées aux capteurs  pour le dimensionnement des tuyauteries. En pratique, le raccordement en boucle de Tichelmann (longueur de tuyauterie identique quelque soit le capteur ou groupe de capteurs) est souvent préconisé pour les grandes installations. Il permet un équilibrage naturel en imposant des pertes de charges identiques pour chaque capteur/groupe de capteurs.

Selon un rapport du CTSB, on recommande généralement un rapport :

Perte de charge dans les collecteurs / Perte de charge dans les capteurs, le plus faible possible,
et donc un rapport Diamètre interne des collecteurs / Diamètre interne des circuits hydrauliques des capteurs, le plus faible possible également (rapport compris entre 1,6 et 3,3).


Le circuit primaire ou circuit solaire

Le circuit primaire (ou circuit de charge solaire) est un circuit fermé composé de tuyauteries, généralement en cuivre, qui relient les capteurs (A) à un échangeur de chaleur (B). Il transporte le fluide caloporteur. Celui-ci peut atteindre des températures allant de -20 °C en cas de gel à des températures très élevées (jusqu’à 200 °C dans les capteurs !). Il est donc impératif que les composants de ce circuit puissent résister à ces changements importants de température !


Exemple de schéma possible pour un circuit primaire (partie en couleur).

Le circuit primaire est généralement muni des composants suivants :

  • Une pompe de circulation (1) assurant la circulation du fluide caloporteur dans le circuit.
  • Un purgeur (2) manuel permettant d’éliminer l’air en partie haute du circuit lors du remplissage et des entretiens.
  • Un clapet anti-retour (3) pour éviter la formation d’un contre-courant de thermocirculation qui déchargerait le ballon de stockage de sa chaleur.
  • Plusieurs vannes d’isolement (4) pour isoler les composants principaux du système en cas d’entretien ou de remplacement.
  • Un robinet (5) permettant le remplissage et la vidange du circuit en fluide caloporteur.
  • Un débitmètre gravimétrique, appareil indiquant le débit du fluide du circuit. Situé sous le circulateur, il permet de régler la vitesse minimale de celui-ci pour assurer un débit minimum dans les capteurs.
  • Parfois un système de comptage d’énergie produite est placé. Celui-ci comprend : un débitmètre volumétrique, deux thermomètres sur l’aller et le retour des capteurs et un calculateur intégrateur.

Comme pour toute autre boucle hydraulique où un générateur de chaleur est installé, un dispositif de limitation de pression devra aussi être utilisé. Pour cela, le circuit primaire comporte :

  • Une soupape de sécurité (6) munie d’un manomètre destinée à évacuer les surpressions en cas de surchauffe de l’installation. Cette vanne est raccordée à un réservoir de collecte du fluide caloporteur avec antigel pour éviter tout rejet toxique dans le réseau d’égout.
  • Un vase d’expansion (7), placé du côté aspiration de la pompe de circulation, chargé d’absorber les différences de volume et de récolter la totalité du fluide caloporteur expulsé des capteurs en cas de surchauffe. Par rapport aux vases d’expansion traditionnels utilisés pour le chauffage, les vases d’expansion solaires doivent supporter des pressions de service maximales plus élevées (de 8 à 10 bar) et possèdent une membrane plus résistante aux hautes températures. Il est parfois judicieux, vu les hautes températures atteintes, de placer un vase tampon en amont afin de ne pas compromettre la longévité du vase d’expansion. Dans le cas d’un système à vidange, on peut omettre le vase d’expansion car le circuit primaire n’est pas mis sous pression, mais il faut prévoir la place pour installer le réservoir à vidange entre le champ de capteurs et le ballon de stockage solaire.

Le fluide caloporteur

Le circuit primaire relatif à l’installation sous pression est totalement rempli d’un fluide caloporteur résistant au gel. On utilise généralement du propylène glycol. Il existe aussi des mélanges complets qui contiennent un agent inhibiteur de corrosion, un agent anti-mousse, un agent anti-algue et un colorant.

Théoriquement, on pourrait également travailler avec de l’eau pure non glycolée dans le cas d’un système à vidange. Actuellement, pour des raisons de sécurité on utilise, même dans ce cas, de plus en plus d’antigel.

Caractéristiques essentielles d’un fluide solaire

  • Stable jusqu’à la température de stagnation maximale ;
  • Protégé contre le gel ;
  • Non corrosif  ;
  • Capacité thermique élevée ;
  • Viscosité réduite ;
  • Prix réduit et disponibilité.

En pratique, on utilise généralement un mélange d’eau et de glycol comme par exemple :

Éthylène glycol (C2H6O2)
Capacité thermique : 2 410 J.kg-1.K-1
Température de fusion : – 13 °C
Température d’ébullition : 198 °C

Polypropylène glycol (C3H8O2)
Capacité thermique: 2 500 J.kg-1.K-1
Température de fusion : – 59 °C
Température d’ébullition : 188 °C

Les conduites

Photo conduites.

Les matériaux utilisés pour les conduites du circuit solaire doivent résister aux contraintes mécaniques possibles dans le circuit (pression et plage de température en fonctionnement (de – 20 à 150 °C)) et être compatibles avec le fluide et les autres matériaux de l’installation. On utilise principalement des tubes en cuivre, en acier simple ou en acier inoxydable. Les tuyauteries en matière synthétique sont plus que déconseillées, car elles ne sont généralement pas tout-à-fait étanches (surtout à haute température) à l’oxygène qui pénètre alors par diffusion dans le circuit. Le risque de corrosion en est alors augmenté. L’acier galvanisé est lui strictement interdit, car il réagit avec le glycol présent dans le circuit primaire.

Vu les hautes températures auxquelles ces conduites sont soumises, leur isolation ne peut en aucun cas être réalisée au moyen d’un quelconque isolant utilisé pour les applications sanitaires habituelles. Ne résistant qu’à des températures de l’ordre de 110 – 120 °C, le polyuréthane est à proscrire. On utilisera généralement un caoutchouc synthétique en mousse capable de résister à des températures de l’ordre de 150 °C.

L’isolant utilisé pour la boucle solaire doit de plus :

  • résister aux U.V. (ou en être protégé) ;
  • résister à l’humidité ;
  • résister aux attaques des rongeurs et oiseaux ;
  • être étanche (au vent et à la pluie).
  • Et bien sûr, avoir une épaisseur suffisante ! (au minimum égale au diamètre du tuyau).

Sous ces hautes températures, la dilatation des conduites est aussi un phénomène à prendre en compte, car elle peut induire pour les grandes installations des mouvements importants.
Pour se faire une idée, la dilatation thermique du cuivre est de 1.7 mm/m sous un échauffement de 100 °C. On comprend vite le risque associé à plusieurs dizaines de mètres de tuyauteries !

 

Montage permettant d’absorber la dilatation thermique des tuyauteries.


Le stockage de l’eau solaire

Le stockage est un élément clé de toute installation solaire thermique. Il permet de pallier au caractère discontinu de l’énergie solaire et à la non-simultanéité de la production et des besoins. En pratique, l’énergie solaire thermique est stockée via l’eau contenue dans un ou plusieurs ballon(s) d’eau accumulateur(s) raccordé(s) en série.

Photo cuves stockage.

Un matériau résistant

Comme pour tout ballon accumulateur d’eau chaude sanitaire, le principal critère de sélection de matériau du ballon est sa résistance à la corrosion. On utilise généralement des réservoirs en acier inoxydable, ou en acier émaillé voire en cuivre avec anode de protection. Les ballons en acier galvanisé sont déconseillés du fait de leur mauvaise résistance à la corrosion.
Pour les réservoirs à eau morte, n’étant pas sous-pression, on peut envisager des réservoirs en matière synthétique, plus durable puisque non soumis à la corrosion.

Le ballon de stockage à eau solaire doit non seulement répondre à toutes les exigences d’un réservoir d’eau sanitaire classique, mais doit en plus pouvoir résister aux hautes températures auxquelles il pourrait être soumis. La température dans le ballon peut en effet monter jusqu’à 95 °C, d’où la nécessité de prévoir un mitigeur thermostatique sur la boucle de distribution.

Une forme adaptée

Par ailleurs, les ballons solaires sont en général étudiés de manière à favoriser une bonne stratification interne des températures. La stratification est basée sur une variation de masse volumique en fonction de la température : L’eau réchauffée s’élève par thermocirculation et par sa masse volumique moindre s’accumule dans le haut du ballon (phénomène de la poussée d’Archimède). L’eau froide, plus lourde, reste en bas. A chaque puisage, l’eau la plus chaude du ballon est extraite et de l’eau froide du réseau est injectée dans le bas du ballon. La stratification est donc globalement préservée, l’important étant d’éviter tout brassage.

Pour favoriser ce phénomène, le réservoir  est donc préférablement vertical et sa hauteur équivaut généralement à 2-2.5 fois le diamètre. Il existe aussi des dispositifs de charge améliorant la stratification : amenée de l’eau chaude à différentes hauteurs suivant sa température.

Une isolation primordiale

Encore plus que pour un ballon accumulateur classique, outre sa bonne compacité, un ballon solaire doit impérativement être isolé dans son entièreté (10 cm grand minimum) : attention aux parties supérieures et inférieures ainsi qu’aux différents raccords ! La parfaite isolation et une bonne stratification augmenteront indéniablement les performances du système.

Une dimension adaptée

Le volume du stockage dépend du projet envisagé, mais doit être étudié de manière précise. L’enjeu est double :
D’une part, il ne doit pas être trop petit pour ne pas limiter les gains solaires possibles et d’autre part, il ne doit pas être trop grand pour permettre une montée en température suffisante pour que l’eau soit utilisable (idéalement pour pouvoir se passer de l’appoint en été).

Le ballon solaire doit généralement pouvoir stocker l’équivalent de 30 à 40 % d’une journée de consommation d’eau chaude (à 60°) de l’établissement. La capacité fréquente des plus grands ballons est de 5 000 l, mais le recours à plusieurs ballons de stockage est en général déterminé par la place prise par les échangeurs internes de grande puissance. La question de la liaison des multiples ballons est alors posée. Dans bien des cas, on s’orientera alors vers un ballon solaire à eau morte (eau ne servant pas d’eau chaude sanitaire) permettant d’emmagasiner l’énergie solaire sans se préoccuper de la gestion de la légionellose.

N.B. : Le stockage, c’est LE défi de la recherche ! Le jour où l’on arrivera à stocker l’énergie solaire pour de plus longues périodes voire saisons, ce sera sans doute une porte d’entrée vers l’autonomie énergétique. Les recherches actuelles se portent vers des matériaux à changement de phase qui remplaceraient l’eau traditionnelle.


La charge du ballon de stockage

La charge du ballon de stockage s’effectue au moyen d’un échangeur au travers duquel la chaleur du fluide solaire est transférée à l’eau du stockage.
Comme pour toute installation, deux types d’échangeurs peuvent être employés : les échangeurs intégrés au stockage et les échangeurs extérieurs (à plaques) :

Echangeurs intégrés au stockage.

Echangeurs extérieurs au stockage.

Schéma charge du ballon de stockage- 1.

À partir de là, différents systèmes de charge sont envisageables : avec échangeur interne (a,b,c,f) ou externe (d,e). Certains systèmes permettent un renforcement de la stratification des températures à l’intérieur du/des ballon(s) par différents dispositifs :

  • cheminée interne enrobant l’échangeur solaire et diffusion en fonction des températures (b),
  • chargement à hauteur différenciée par vanne trois voies (e),
  • chargement à hauteur différenciée par échangeurs multiples (c).

Schéma différents systèmes de charge possibles.

Typiquement, pour les grands systèmes solaires (au-delà de 30 m² de capteurs) des échangeurs de chaleur externes sont souvent utilisés vu les puissances considérables qui entrent en jeu.

La disposition des échangeurs et leur raccordement se fera toujours de manière à :

  • Favoriser la stratification correcte des températures à l’intérieur des ballons et le long du circuit de charge : les températures les plus hautes doivent être les plus proches de l’appoint.
  • Assurer un rendement optimal des capteurs :
    Les pertes thermiques des capteurs dépendant de la différence de température entre le fluide à l’intérieur des capteurs et la température extérieure, on aura tout intérêt à travailler avec un fluide caloporteur à la température la plus basse possible.
  • Permettre à l’échangeur de chauffer un volume d’eau suffisamment grand.

En conséquence, l’échangeur de chaleur solaire intégré au stockage des petits systèmes, sera placé en partie basse du ballon et le retour vers les capteurs sera situé le plus bas possible dans le ballon.

Schéma principe échangeur.

L’échangeur de chaleur relié à l’appoint se trouvera quant à lui dans la partie supérieure du ballon de stockage ou dans un ballon séparé (en série avec le premier) lorsque la quantité d’eau chaude nécessaire sera plus importante.


La régulation

Démarrage et arrêt du circulateur

Pour les systèmes à circulation forcée, le système de régulation différentielle assure la mise en marche et l’arrêt adéquats de l’installation. Cette gestion de la chauffe solaire est primordiale pour tirer un maximum de profit de l’énergie solaire disponible. Le principe est basé sur la mesure continue de deux températures :

  • la température de l’eau chaude en partie basse du ballon de stockage (ou du fluide caloporteur à la sortie de l’échangeur solaire) : T°stockage.
  • la température du fluide caloporteur à la sortie des capteurs : T°capteur.

Dès que la différence de température est suffisante, la pompe est mise en marche. Elle s’arrête lorsque l’énergie solaire captée n’est plus suffisante ou n’est plus nécessaire.

En résumé :

  • Si T°capteur> T°stockage + ∆T1 : la pompe démarre.
  • Si par contre, T°capteur< T°stockage + ∆T2 : la pompe s’arrête.

Il est nécessaire de calibrer précisément ces ∆ de température afin d’optimiser l’énergie solaire récoltée (on évitera les préréglages d’usines !). Le paramétrage doit tenir compte de la configuration de l’installation et principalement de la longueur des conduites et des pertes thermiques liées. On aura évidemment tout intérêt à minimiser ces pertes en plaçant le stockage aussi proche que possible des capteurs, en isolant les conduites et en travaillant à basse température. En pratique, cette perte en ligne peut être estimée en comparant la température au niveau du capteur et la température à l’entrée du ballon en fonctionnement.

Pour éviter des arrêts et des mises en marche successifs (Phénomène de Stop and Go), la température de démarrage devra en outre prendre en compte le refroidissement du capteur lors de l’enclenchement. En effet, l’ensemble du liquide de la boucle solaire plus froid que celui des capteurs provoquera au démarrage une diminution de température du capteur.

Pour le choix de la consigne d’arrêt, on devrait, en plus des pertes thermiques, prendre en compte l’énergie minimum à récolter de sorte à ce que celle-ci soit toujours supérieure à l’énergie primaire nécessaire au fonctionnement de la pompe (consommation électrique multipliée par le facteur de conversion 2,5).

En pratique, on rencontre des ∆T :

  • Pour les valeurs de démarrage de : 5 à 7 K.
  • Pour les valeurs d’arrêt de : 3 à 4 K.

Température maximale de charge

Tout ballon de stockage possède une température de charge maximale. Le système de régulation doit prendre en compte correctement cette valeur afin de couper le circulateur pour que cette température critique ne soit pas atteinte. Une valeur d’usine est  souvent donnée par défaut pour le système de régulation, mais il serait dommage de se priver de l’énergie solaire gratuite si le ballon de stockage accepte des températures plus élevées (jusqu’à 95 °C). Si la régulation ne possède qu’une sonde de température dans le bas du ballon il faut absolument tenir compte de l’effet de stratification. C’est pour cette raison que les régulations possèdent souvent un préréglage d’usine assez bas (de l’ordre de 70 °C) pour que le haut du ballon n’atteigne pas des températures de plus de 95°C.

Température de sécurité

Lors d’une journée ensoleillée, lorsque l’ensemble du stockage est à température, le circulateur s’arrête mais la température des capteurs continue, elle, à grimper.
La régulation des systèmes à vidange tiendra évidemment compte de cette température de sécurité. À partir de celle-ci, le système s’arrête et le fluide est récupéré dans un réceptacle prévu à cet effet : l’installation se vidange par drainage gravitaire ! Cela permet d’éviter que le fluide n’entre en ébullition (et vieillisse prématurément) et ne détériore les composants de l’installation. C’est l’un des grands avantages de ce système !

Certaines régulations permettent aussi d’empêcher le redémarrage de la pompe au cas où la température du fluide caloporteur est trop élevée (+/- 120 °C), évitant ainsi l’endommagement des composants les plus sensibles.


L’apport de chaleur complémentaire

Les capteurs solaires ne peuvent à eux seuls satisfaire à tout moment l’entièreté des besoins. Pour assurer la production d’eau chaude, même en période prolongée de non ensoleillement,  un système d’appoint est nécessaire. L’appoint devra pouvoir répondre aux besoins sans intervention solaire et sera, par conséquent, envisagé de manière classique. Différentes configurations sont possibles selon la présence ou non d’un échangeur de chaleur (intégré ou non au stockage) :

 

On distingue principalement quatre cas de figure :

– L’appoint électrique (c) : Dans ce cas, une résistance est directement intégrée au ballon de stockage.

Schéma appoint électrique.

– L’appoint intégré au stockage (a, d, e, f) : L’échangeur se trouvera le plus près possible de l’endroit où s’effectue le puisage dans le(s) ballon(s) et son raccordement respectera la stratification interne des températures (les plus élevées, les plus hautes). Dans un ballon de stockage unique qui rassemble aussi la production solaire, l’échangeur d’appoint se trouvera donc en haut du ballon.

Schéma appoint intégré au stockage.

– L’appoint séparé en série (b) : L’appoint (généralement instantané ou semi-instantané) se trouve dans ce cas à l’extérieur du ballon de stockage solaire. L’eau préchauffée par les capteurs solaires est alors directement portée à température (par une chaudière au gaz à condensation par exemple).

Schéma appoint séparé en série.

– L’appoint mixte : il est bien entendu possible de combiner différents types d’appoint. Par exemple, pour une petite installation, l’idée pourrait être d’éviter le fonctionnement d’une chaudière sol au mazout grâce au recours d’un appoint électrique (mais attention à la régulation de cette résistance !).

 Notons que pour les plus grands systèmes, s’il est intégré au stockage, l’appoint peut se faire via des ballons différents…

Schéma appoint mixte.


Le circuit de décharge

La décharge du ballon de stockage solaire peut se faire de multiples manières.

  • Via un système direct (a) : l’eau de stockage est directement l’eau sanitaire.
  • Via un échangeur : interne simple (c), plongé dans une cuve de transition (d) ou externe (e) dans le cas où l’eau sanitaire est chauffée instantanément. Le ballon est alors dit à eau morte, car l’eau qu’il contient est une eau de transition et non l’eau sanitaire.
  • Via une cuve de transmission (b), principalement pour les petits systèmes combinés avec les systèmes de chauffage : préparation d’un volume réduit d’ECS dans un grand volume d’eau.

Schéma circuit de décharge.

Par rapport à une installation classique d’ECS, le circuit d’eau sanitaire comportera en plus un mitigeur thermostatique et un disconnecteur.

Le mitigeur thermostatique permet d’éviter toute brûlure au point de puisage. En été, lorsque l’on bénéficie d’un rayonnement solaire important et que le puisage est réduit, il n’est pas impossible d’atteindre dans le ballon des températures de plus de 60° (maximum toléré pour de l’eau chaude sanitaire). Le mitigeur se chargera de mélanger l’eau du ballon avec de l’eau froide pour que cette température ne soit pas dépassée.

D’autre part, une fuite de liquide caloporteur du circuit primaire au niveau de l’échangeur de chaleur solaire est toujours possible. Pour protéger le réseau de distribution de toute contamination par le fluide solaire, on place un disconnecteur.
Cet équipement à zones de pression différentielle empêche le retour de l’eau sanitaire du ballon de stockage solaire vers le réseau de distribution.

Précisons aussi que vu la toxicité du fluide caloporteur, l’évacuation directe vers les égoûts est interdite. Le disconnecteur, ainsi que les soupapes et robinets de vidange doivent donc être raccordés à des réservoirs de collecte.


La gestion de la légionellose

Plus que pour toute installation de production d’eau chaude sanitaire, un regard particulier doit être posé sur la gestion de la légionellose. En effet, les températures atteintes dans un ballon de stockage solaire sont favorables à la prolifération de ces bactéries (de 30 à 40°).
La première solution est le placement d’une pompe de « dé-stratification » via laquelle on portera régulièrement l’ensemble des ballons à une température suffisante. Dans ce cas, un circulateur supplémentaire transfère l’eau à haute température du ballon d’appoint vers le(s) ballon(s) de stockage solaire. Une bonne régulation de cette mesure anti-légionellose, par une horloge, permettra de minimiser la consommation énergétique tout en évitant la contamination : par exemple, une montée en température journalière à 60° ou hebdomadaire à 80°.

Schéma de principe : désinfection thermique par pompe de déstratification.

Une autre solution, souvent à privilégier, est l’utilisation de cuves de transitions (appelés réservoirs à eau « morte ») constituant un circuit fermé indépendant de l’eau sanitaire. L’eau sanitaire est alors réchauffée instantanément via un échangeur interne ou externe au stockage. De cette manière, on évite tout risque de contamination en séparant physiquement les eaux de températures différentes. Ce système permet d’éviter les pertes thermiques liées à la montée soudaine en température, mais implique l’utilisation d’un échangeur supplémentaire.

Installation avec une cuve de transition.

Découvrez ces exemples d’eau chaude sanitaire alimentée par capteurs solaires : 2.150 m² de capteurs solaires thermiques à la résidence 3e âge « Aux Lilas » de Bonlez et des capteurs solaires au home La Charmille de Gembloux.

Choisir l’émetteur de chaleur [PAC]

Introduction

Pour pouvoir parler de l’émetteur de chaleur, il faut faire le choix de la source « chaude » : l’air, l’eau, ou le sol dans le cas où la pompe à chaleur est à condensation directe.

La redistribution de température doit se faire à la température la plus basse possible (maximum 50 °C) car la PAC sera plus efficace. On peut effectuer cette redistribution soit par un chauffage à air pulsé, un chauffage par le sol ou mural, ou un chauffage à ventilo-convecteurs.


L’air comme source chaude

On utilise cette source chaude en général dans les PAC air/air.

L’air est pulsé dans un échangeur de chaleur fluide/air et chauffé par le fluide frigorigène comprimé jusqu’à 30 ou 40 °C. Il est ensuite  envoyé vers les pièces du bâtiment. L’avantage de cette source chaude est de répondre rapidement à la température demandée de par la faible inertie de l’air. Cet avantage devient un inconvénient au point de vue financier dans la mesure où il ne peut y avoir d’accumulation de chaleur pendant la nuit et donc aucun bénéfice des tarifs de nuit pour l’électricité.

Quatre types d’installations existent dans le cas où l’air est choisi comme source chaude :

  1. Installation compacte intérieure. Dans ce cas, il y a une conduite d’amenée et de rejet d’air extérieur vers l’évaporateur qui se trouve à l’intérieur du bâtiment. La PAC est installée près d’un mur extérieur. La traversée des conduites dans le mur est isolée et protégée contre la pluie.
  2. Installation compacte extérieure. La PAC est reliée au réseau de distribution d’air par des conduites isolées. Cette solution est coûteuse à cause du transfert des sources chaude ou froide.
  3. Système mono-split : ce système, d’une grande souplesse d’installation, permet de chauffer une seule pièce du bâtiment. Une ou deux unités intérieures (dans la même pièce) sont reliées à une unité extérieure unique qui traite l’air. L’évaporateur se trouve ainsi à l’extérieur et le condenseur à l’intérieur du bâtiment, ce qui permet à l’évaporateur d’être bien alimenté en air extérieur. Le fluide frigorigène doit passer à travers la paroi du bâtiment dans des conduites calorifugées et l’air chaud est distribué via des gaines de différents diamètres en fonction des débits et des pressions demandés. La quantité de fluide frigorigène présente dans ce système est supérieure aux deux systèmes précédents.
  4. Système multi-split : plusieurs pièces peuvent être chauffées, à l’aide d’un ou deux ventilo-convecteurs dans chacune d’entre elles. Il y a donc plusieurs condenseurs, mais toujours un unique évaporateur extérieur.

Les ventilo-convecteurs sont des émetteurs de chaleur qui fonctionnent dans ce cas-ci à « condensation directe » : le fluide frigorigène cède directement l’énergie thermique à l’air.

Le système split

Dans ce type de système :

  • l’évaporateur est placé à l’extérieur
  • le condenseur est placé soit dans un local technique où il est relié à un réseau de distribution, soit directement dans le local à chauffer, par exemple dans un ventilo-convecteur.

Le transfert de chaleur entre l’intérieur et l’extérieur se fait par le fluide frigorigène qui traverse la peau du bâtiment dans des canalisations calorifugées.

Les systèmes split installés directement dans les locaux ont l’avantage de la souplesse d’installation : un simple réseau bitube est suffisant pour le transport du fluide frigorigène, on évite les intermédiaires puisque la PAC chauffe directement l’air du local, il ne faut pas d’accumulateur ni de régulation complexe d’un réseau hydraulique, … en contrepartie, ils présentent un plus grand risque de fuite de fluide frigorigène.

Lorsque l’on multiplie le nombre d’échangeurs de chaleur, on parle de système multi-split. Les différents échangeurs intérieurs, par exemple un par local, sont alors tous reliés à un (ou plusieurs) échangeurs de chaleur extérieur. Différentes « boucles » sont donc « juxtaposées » avec comme seule interconnexion la ou les unités extérieures.

Un condenseur commun et plusieurs unités intérieures = multi-split.

Exemple de système multi-split :

Un fournisseur propose une gamme standard d’installations multi-split complètes dont l’unité extérieure a une puissance frigorifique maximale allant de 1 à 11,5 kW et une puissance calorifique maximale de 0,9 à 17,2 kW, pour des débits d’air d’environ 2 100 m³/h.

La longueur maximale de tuyauterie autorisée va de 35 à 70 mètres au total selon l’unité extérieure choisie dans la gamme. Le branchement de plus de 4 unités intérieures par unité extérieure n’est pas possible.

Les unités intérieures peuvent être murales, en consoles, gainables ou en cassette 2 ou 4 voies. Leur puissance frigorifique varie entre 1 et 4,5 kW et leur puissance calorifique entre 1,1 et 6,4 kW.

Chaque unité intérieure accepte une longueur de tuyauterie de 25 m.

Le prix des groupes de condensation (unité extérieure) est entre 2 285 et 4 150 €, celui des unités intérieures de 585 à 2 235 € pièce.


L’eau comme source chaude

Dans ce cas, le fluide frigorigène comprimé donne sa chaleur à l’eau du circuit de chauffage par l’intermédiaire d’un échangeur de chaleur. La température de l’eau de condensation devant être la plus basse possible (entre 35 et 45 °C pour – 8 °C extérieurs), le chauffage par pompe à chaleur sera réalisé par un plancher chauffant à eau, par des ventilo-convecteurs à eau ou par des grands radiateurs à basse température.

Plancher chauffant à eau

Cette solution efficace procure un excellent confort thermique uniforme dans la pièce. La surface d’émission est suffisamment grande pour permettre une température faible : maximum 28 °C. Cette température permet d’éviter les problèmes de circulation dans les jambes. Cet émetteur de chaleur présente l’avantage (pour des constructions neuves) d’être complètement invisible et de dégager de la place aux murs par rapport aux radiateurs conventionnels.

Installation d’un plancher chauffant.

Le plancher chauffant est composé d’un réseau de tubes en polyéthylène enfouis dans du béton coulé, et montre une grande inertie thermique. Les réponses aux variations de température demandées sont donc lentes (de l’ordre de quelques heures). Le revêtement de sol doit présenter une résistance thermique faible, comme un carrelage ou un parquet (même si ce dernier a une résistance thermique plus élevée que le carrelage pour des épaisseurs égales). Pour obtenir une bonne transmission de la chaleur entre la couche de béton et l’ambiance, le parquet doit être de préférence collé. Dans tous les cas, il faut éviter les couches d’air car elles ont un effet isolant.

Le chauffage par plancher chauffant peut nécessiter un appoint. On peut également jouer sur la distance entre deux tubes pour avoir plus ou moins de puissance surfacique. Si on augmente la longueur de tube chauffant dans le sol, on peut diminuer la température de l’eau qui y circule pour un même confort thermique dans l’ambiance.

Murs chauffants

Les murs peuvent également être utilisés comme surface de chauffage. C’est parfois une meilleure solution dans le cas d’une rénovation.

Installation d’une cloison chauffante

Ventilo-convecteur à eau

Ce type de ventilo-convecteur est un échangeur qui transmet la chaleur de l’eau (chauffée dans le convecteur) à de l’air forcé à l’intérieur. C’est le même type d’appareil qu’un ventilo-convecteur à condensation directe, hormis le fait que le fluide chauffant est de l’eau et non un fluide frigorigène.

Cette solution permet la production de froid quand c’est nécessaire en été.

Radiateur basse température

Ces radiateurs, incompatibles avec des systèmes de chauffage autres que la PAC, contiennent de l’eau dont la température est de 40-50 °C. Cette température est nettement inférieure à celle des radiateurs conventionnels (70 – 90 °C), mais est néanmoins suffisante pour chauffer un local, car les radiateurs basse température sont de grandes dimensions. Ils peuvent être construits en fonte, en fonte d’aluminium ou en acier. Bien évidemment, cette solution n’est pas compatible avec l’installation d’une pompe à chaleur réversible (rafraîchissement et climatisation en été).


Le sol comme source chaude

Dans ce cas, le fluide frigorigène circule dans un réseau de tuyaux en cuivre dans le sol, c’est la solution « à condensation directe ». Il n’y a pas d’échangeur intermédiaire et les tubes constituent eux-mêmes le condenseur de la PAC.

La quantité de fluide frigorigène utilisée est importante, ce qui impose le respect de règles dans la vérification, la récupération des fuites, etc. La mise en place des tubes doit être réalisée par des personnes qualifiées pour éviter tout risque de fuite et afin de garantir l’efficacité de l’installation.

Enveloppe


Le choix d’un niveau d’isolation correct

L’isolation doit faire partie intégrante de tout projet de construction et de rénovation où l’ambiance intérieure est destinée à être chauffée ou climatisée. Cette technique doit être intégrée dès le début du projet pour au final respecter au minimum la réglementation en vigueur ou, mieux, les objectifs fixés par différentes labellisations.

Une attention particulière doit aussi être portée aux différents nœuds constructifs (raccords entre les parois) qui présentent plus de risques de ponts thermiques.


Le choix de la fenêtre

Le choix de la fenêtre, sa position, son orientation, son type de vitrage a également un grand impact sur la qualité du projet au niveau énergétique.

Une fenêtre doit être vue comme :


Le choix de la protection solaire

Le choix d’une protection solaire est fonction des objectifs que l’on se donne :

  • les objectifs principaux sont de limiter les surchauffes et l’éblouissement ;
  • les objectifs secondaires sont d’augmenter le pouvoir isolant de la fenêtre, d’assurer l’intimité des occupants ou d’occulter un local et de décorer la fenêtre.

Choisir les éléments principaux de la pompe à chaleur

Choisir les éléments principaux de la pompe à chaleur


Choix du fluide frigorigène

Les fluides frigorigènes envisageables aujourd’hui pour les nouvelles installations de pompes à chaleur sont nombreux et font partie soit des hydrofluorocarbones (HFC), soit des fluides frigorigènes naturels. Plus question aujourd’hui de concevoir une installation chargée au R12 (CFC) ni au R22 (HCFC), ces réfrigérants destructeurs de la couche d’ozone participant fortement au réchauffement climatique.

Les fluides frigorigènes peuvent être choisis suivant différents critères :

Critères
thermodynamiques
Critères
de sécurité
Critères
techniques
Critères
économiques
Critères
environnementaux
Pression d’évaporation. Toxicité. Action sur les composants de l’installation. Prix. Action sur la couche d’ozone.
Température critique. Inflammabilité. Comportement avec l’huile Disponibilité. Action sur l’effet de serre.
Taux de compression. Caractère explosif. Comportement avec l’eau. Possibilité de récupération et de recyclage.
Efficacité des échanges thermiques. Aptitudes aux détections des fuites.
Température de refoulement. Stabilité.
Production frigorifique. Volumétrique spécifique.

Les fluides frigorigènes peuvent être soit des mélanges de fluides dans des proportions précises, soit des fluides purs. Les comportements diffèrent dans l’un ou l’autre cas. Les fluides purs s’évaporent à température constante alors que les mélanges (sauf mélanges azéotropiques) s’évaporent à des températures variables.

Les HFC

Les plus répandus sont le R134a, le R407C, le R410A et le R404A.

Les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans relativement élevé. Pour cette raison, la réglementation  impose de vérifier l’étanchéité des installations de HFC afin d’éviter les fuites dans l’atmosphère.

La détection et la récupération des fuites doivent se faire avec un outillage adapté et les frigoristes doivent être certifiés.

Les fluides frigorigènes naturels

Les quatre fluides frigorigènes HFC ont été largement utilisés dans les installations de PAC neuves. Cependant, vu leur impact sur l’effet de serre, la réglementation  prévoit leur abandon progressif en faveur des fluides montrant un potentiel de participation au réchauffement climatique sur 100 ans plus faible voire des fluides frigorigènes « naturels ».


Choix de l’évaporateur de la PAC

Le fluide frigorigène capte la chaleur de l’environnement (eau, air ou eau glycolée) dans l’évaporateur de la pompe à chaleur. Il y passe de l’état liquide à l’état gazeux à basse température en emmagasinant de l’énergie. L’évaporateur est donc un échangeur de chaleur, au même titre que le condenseur et la température d’évaporation doit être la plus élevée possible pour augmenter les performances de la pompe à chaleur.

Les évaporateurs sont classés suivant leur type et leur source froide. Ainsi, on aura d’un côté, des évaporateurs à air ou à eau en fonction de la source froide choisie, et d’un autre côté on aura soit des évaporateurs secs, soit noyés.

Sec vs Noyé

  1. La différence entre ces deux technologies réside premièrement dans l’état de la vapeur qui sort de l’échangeur :
    Dans le cas des évaporateurs de type sec, également appelés « à surchauffe » ou « à détente sèche », le fluide frigorigène vaporisé sera complètement sec à l’admission au compresseur. Ceci est dû à la succession de deux phases : l’ébullition du liquide frigorigène puis la surchauffe des vapeurs obtenues (la température du gaz frigorigène sortant de l’évaporateur est donc légèrement supérieure à la température d’évaporation proprement-dite).
    La surchauffe est par contre pratiquement nulle dans le cas des évaporateurs de type noyé. Cela présente un inconvénient : la nécessité de prévoir une bouteille anti-coups de liquide avant le compresseur pour le protéger. Le mélange liquide-vapeur sortant de l’évaporateur est à la même température que le liquide entrant (en négligeant les pertes de charge).
  2. La configuration de l’évaporateur est également différente dans les deux cas :
    Dans les évaporateurs noyés, les surfaces d’échange (les plus grandes possibles) doivent être en contact permanent avec du fluide frigorigène liquide. Les tubes qui contiennent le fluide caloporteur (qui est souvent de l’eau glycolée) sont dès lors noyés dans le fluide frigorigène liquide qui se vaporise.
    C’est l’inverse dans le cas des évaporateurs secs. Les coefficients d’échange obtenus pour les évaporateurs noyés sont très élevés et ne varient pas beaucoup par rapport à ceux des évaporateurs à détente sèche.
    (En effet, de façon générale, l’échange de chaleur sera élevé si :- la surface d’échange augmente ;
    – la vitesse de passage des fluides est faible ;
    – la différence de température entre les fluides est grande ;
    – le débit de la source de chaleur est important par rapport au fluide frigorigène.).

Les évaporateurs de pompes à chaleur sont en général du type sec à cause des inconvénients que présentent les évaporateurs noyés (besoin d’une bouteille anti-coups de liquide, piégeage de l’huile de lubrification, etc.).

À air vs à eau

Pour les sources de chaleur liquides, les évaporateurs présentent une des 5 configurations suivantes :
Type noyé

  • L’échangeur à serpentin noyé (puissances supérieures à 30 kW).
  • L’échangeur multitubulaire noyé (puissances supérieures à 30 kW), qui est en général utilisé avec un compresseur à pistons ou à vis. Il faut faire attention au risque de gel de l’eau à l’intérieur des tubes. Autre inconvénient : ces évaporateurs peuvent accumuler de l’huile non désirée, dans le cas où ils sont utilisés avec un compresseur volumétrique lubrifié.

À surchauffe :

  • Les évaporateurs multitubulaires à surchauffe (puissances supérieures à 30 kW) sont très utilisés avec les compresseurs à pistons ou à vis. Les risques de gel sont amoindris par rapport à l’échangeur multitubulaire noyé et il n’y a pas de problème de retour d’huile.
  • L’échangeur à plaques brasées : Ces échangeurs ont tendance à se généraliser dans l’application des pompes à chaleur eau glycolée/eau. Ils sont performants (car les coefficients d’échange thermique sont élevés), robustes, compacts et étanches. Il faut toutefois faire attention à ce qu’il n’y ait pas d’encrassement. Attention également au risque de gel (il faut dès lors prévoir de l’antigel en suffisance).
  • Les évaporateurs coaxiaux sont très utilisés pour des puissances frigorifiques allant jusqu’à 100 kW. Ils présentent des difficultés d’entretien et nécessitent de l’eau très propre non entartrante.

Les types d’évaporateurs à air sont au nombre de 3 :

  • Les évaporateurs à ailettes à convection naturelle ;
  • Les évaporateurs à tube lisse à convection naturelle.
Ces deux premiers types d’évaporateurs à air ne sont utilisés que pour des faibles puissances. De plus, les coefficients d’échanges thermiques sont faibles, car la ventilation est naturelle. On les retrouve donc très peu pour les pompes à chaleur.
  • Les évaporateurs à ailettes à convection forcée : c’est le type d’évaporateur à air qui est le plus utilisé. Ils sont munis d’un ou plusieurs ventilateurs pour assurer la circulation de l’air à travers les surfaces d’échange. Le problème de ces échangeurs réside dans la formation de givre ou de condensation lorsque la température des parois extérieures de l’évaporateur est inférieure à la température de rosée de l’air.

Techniques

Pour plus de détails concernant certains types d’évaporateurs de pompes à chaleur, cliquer ici !

Choix du compresseur

Il existe deux types de compresseurs qui peuvent être utilisés dans les pompes à chaleur : les compresseurs volumétriques et les compresseurs centrifuges (ou turbocompresseurs). Dans le premier cas, une réduction du volume à l’intérieur de la chambre de compression permet d’y augmenter la pression. En général les compresseurs sont de ce type. Dans le second cas, la compression résulte de la force centrifuge obtenue par entraînement dynamique au moyen d’une roue à aubes. On utilise ces compresseurs pour des applications précises, ou pour de grandes puissances.

Les compresseurs volumétriques à pistons

Les compresseurs volumétriques à pistons sont les plus répandus pour les circuits frigorifiques et ils sont alternatifs pour la plupart. Ils sont de plusieurs types, suivant qu’ils sont ouverts, semi-ouverts ou fermés (hermétiques) au niveau de l’association entre le moteur et le compresseur.

compresseurs volumétriques à pistonscompresseurs volumétriques à pistons

Hermétique, semi-hermétique et ouvert.

Hermétique

Dans ce cas le moteur électrique et le compresseur sont logés dans une même enveloppe soudée. L’ensemble n’est pas démontable. On utilise beaucoup ce type de compresseur pour de faibles puissances, jusqu’à 30 kW environ.

Avantages

  • Le faible coût de l’ensemble.
  • L’encombrement réduit.
  • La bonne étanchéité.
  • Le peu de bruit par rapport aux autres compresseurs volumétriques à pistons.
  • La rapidité de la recharge en fluide frigorigène, car bonne tolérance aux coups de liquide.
  • Pas de problème de mise en ligne du compresseur et du moteur, car pas d’accouplement.
  • Le refroidissement effectué par le fluide frigorigène lui-même, car le moteur est dans le circuit du fluide frigorigène.
  • La bonne récupération au condenseur de la chaleur dissipée par le moteur, de par la configuration fermée.

Inconvénients

  • Le compresseur est inaccessible. Si un problème survient, il faut changer le compresseur, car il n’est en général par réparable.
  • Les performances sont médiocres, car l’accent est en général mis sur de bonnes puissances frigorifiques à un prix réduit, au détriment de la consommation du compresseur.
  • Les hautes températures de refoulement peuvent présenter un danger à certains régimes de fonctionnement (surchauffe).
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.
  • La puissance ne peut pas être réglée, sauf par variation de fréquence du courant d’alimentation.

Semi-hermétique

Le compresseur est entraîné directement par le moteur électrique, qui est accolé au compresseur. Ces compresseurs sont utilisés pour des puissances se situant entre 0,4 et 100 kW (on peut aussi monter jusqu’à 400 kW en recourant à plusieurs compresseurs). Ces puissances sont plus élevées que pour les compresseurs hermétiques, car il n’y a plus de limitation d’entretien.

Avantages

  • L’accessibilité à tous les organes mécaniques et électriques.
  • Pas de problème de mise en ligne du compresseur et du moteur, car pas d’accouplement.
  • L’encombrement réduit.
  • Pas besoin d’élément d’étanchéité entre le moteur et le compresseur, donc pas de risque de fuites de fluide frigorigène.
  • La récupération partielle au condenseur de la chaleur dissipée par le moteur.
  • La bonne qualité de fabrication, d’où une bonne performance.

Inconvénients

  • Moins résistant aux coups de liquide.
  • Le coût plus élevé.
  • Pas de récupération totale de la chaleur dissipée par le moteur.
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.

Ouvert

Ici le moteur et le compresseur sont totalement séparés ; le moteur est donc accouplé au compresseur en bout d’arbre à l’aide d’un manchon, ou alors par des poulies et des courroies. La gamme de puissances est similaire à celle des compresseurs semi-hermétique.

Avantages

  • L’entretien aisé, car le compresseur est démontable.
  • Peut être entraîné par des moteurs de différents types (moteurs électriques à courant alternatif, continu, à vitesse fixe ou variable, moteurs à combustion interne, turbine à gaz,…).
  • La très bonne qualité de fabrication.
  • La possibilité de choisir la vitesse de rotation la mieux adaptée.
  • Pas de pollution du circuit frigorifique en cas de court-circuit dans le moteur.

Inconvénients

  • Le coût élevé.
  • La mise en ligne moteur-compresseur difficile.
  • La faible résistance aux coups de liquide.
  • Aucune récupération de la chaleur dissipée par le moteur.
  • Il faut une garniture d’étanchéité entre le moteur et le compresseur, d’où le risque de fuites de fluide frigorigène.

Le compresseur volumétrique hermétique spiro-orbital Scroll

Le compresseur Scroll comprime les vapeurs en continu en faisant tourner une partie mobile autour d’un élément fixe en forme de spirale. Ce type de compresseur est de plus en plus utilisé dans les circuits frigorifiques. Sa gamme de puissances va de 2 à 60 kW seulement, mais on peut très bien mettre plusieurs compresseurs en parallèle.

Avantages

  • La robustesse et fiabilité.
  • La légèreté.
  • La faible consommation.
  • Le prix réduit.
  • Le haut rendement volumétrique par rapport à l’espace mort.
  • L’encombrement réduit.
  • Le faible niveau sonore.
  • L’excellente tolérance aux coups de liquide.
  • La récupération quasi totale au condenseur de la chaleur dissipée par le moteur.
  • La séparation totale des gaz d’aspiration et de refoulement, réduisant leur échange thermique mutuel.
  • Il y a moins de pièces en mouvement que dans le cas du compresseur à pistons, et donc moins de frottements internes. De plus, il n’y a pas de clapets d’aspiration et de refoulement. Pour ces raisons le rendement est supérieur à celui des compresseurs à pistons, de même que le COP.

Inconvénients

  • L’inaccessibilité des organes du compresseur. On doit changer l’ensemble en cas de problème.
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.

Les compresseurs volumétriques à vis

Les compresseurs de ce type sont soumis à deux classifications : les compresseurs à vis mono-rotor ou bi-rotor d’une part, et les compresseurs à vis hermétiques ou ouverts d’autre part.

  1. Le compresseur à vis mono-rotor : une vis hélicoïdale unique tourne à grande vitesse.
  2. Le compresseur à vis bi-rotor : le compresseur est composé de deux vis (une femelle et une mâle) à dentures hélicoïdales. L’insertion progressive des cannelures de la vis mâle dans celles de la vis femelle (par simple rotation) provoque la compression des vapeurs de fluide frigorigène.

Les compresseurs à vis de tous types sont utilisés dans le domaine des pompes à chaleur de fortes puissances : de 100 à 5 000 kW de puissance calorifique au condenseur. De ce fait, ils sont utilisés dans les pompes à chaleur eau/eau.

Avantages

  • Pas de soupapes et peu de pièces en mouvement, excellent rendement (indiqué et volumétrique).
  • L’absence de vibrations et peu de bruit.
  • Le taux de compression élevés.
  • Le flux de gaz pratiquement continu.
  • L’absence de parties sujettes à usure.
  • Le réglage facile.
  • La relative insensibilité aux coups de liquide.
  • Quasiment pas d’entretien nécessaire.
  • La régulation de puissance possible de 10 à 100 %.
  • Les rotors à profils asymétriques, ce qui est préférable au point de vue énergétique.
  • Le compresseur peu volumineux.

Inconvénients

  • Le coût relativement élevé.
  • Consomme plus d’énergie que les autres types de compresseurs.
  • Le moteur plus rapide donc groupe moto-compresseur assez bruyant.
  • La nécessité d’usiner avec une grande précision.
  • Uniquement utilisable pour de fortes puissances.
  • La nécessité d’adapter le taux de compression interne au taux de compression externe, sinon pertes.

En outre, les compresseurs à vis ouverts montrent l’avantage de pouvoir être entraînés par toutes sortes de moteurs, et l’inconvénient de ne pas récupérer au condenseur la chaleur dissipée par le moteur. Ils sont plus courants que les moteurs à vis semi-hermétiques.

Le compresseur volumétrique rotatif

Dans ce type de compresseur, un stator cylindrique renferme un rotor excentré par rapport à l’axe du stator. Un volume en forme de croissant est piégé. Du fluide frigorigène est introduit (aspiration) et la rotation du rotor comprime cet espace jusqu’à atteindre la pression souhaitée (refoulement).

Deux technologies existent :

  • Le compresseur rotatif à piston roulant : il est constitué d’un stator à l’intérieur duquel est disposé un rotor excentré (piston) qui comprime les vapeurs en se déplaçant. Une palette est montée sur le stator et assure l’étanchéité entre les chambres d’aspiration et de refoulement.
  • Le compresseur rotatif à palettes : la compression des vapeurs est obtenue par le déplacement des palettes qui sont logées dans des rainures dans le rotor, et qui appuient contre le stator grâce à la force centrifuge. Le rotor est monté de façon excentrique à l’intérieur du stator de manière à créer des volumes de plus en plus réduits pour les vapeurs.

Compresseur à piston roulant et compresseur à palettes.

Ces compresseurs sont utilisés pour des puissances calorifiques jusqu’à 10 kW et bénéficient d’une grande souplesse de fonctionnement. De plus, ils sont peu bruyants.

Le compresseur centrifuge

Ces compresseurs, appelés aussi turbocompresseurs, ne sont utilisés que dans le cas des très fortes puissances : de 1 000 kW à 50 000 kW de puissance calorifique au condenseur. Ils sont donc envisageables dans les grands centres industriels et commerciaux. Ils appartiennent aux pompes à chaleur de type eau/eau et peuvent être de type ouvert ou fermé.

Avantages

  • L’encombrement réduit.
  • Pas d’huile dans le circuit frigorifique et pas de problème d’huile piégée dans l’évaporateur, car les deux circuits (fluide frigorigène et huile) sont bien séparés.
  • Les puissances très élevées et réglables de 20 à 100 %
  • Peut être entraîné par des moteurs de différents types, dans le cas des compresseurs ouverts.
  • L’excellente qualité de fabrication.
  • Le coût plus faible que les compresseurs à vis.

Inconvénients

  • Le taux de compression faibles : ce compresseur se rencontre souvent donc en multi-étagé.
  • Moins de souplesse d’adaptation aux régimes de marche et aux fluides frigorigènes.
  • Utilisables pour les très fortes puissances uniquement.
  • Pas de récupération au condenseur de la chaleur dissipée par le moteur.
  • Plus délicat que les compresseurs à pistons à faible charge à cause du phénomène de pompage qui survient pour des faibles débits et qui peut endommager le compresseur (pompage : le débit oscille entre un débit nul et le débit maximal d’où écoulement pulsatoire).

PAC électrique ou au gaz ?

Les pompes à chaleur fonctionnent pour la majorité à l’électricité. Mais il est également possible de faire fonctionner la pompe à chaleur à l’aide d’un moteur à gaz, la PAC prélevant la chaleur sur l’air extérieur ou sur de l’air extrait d’un bâtiment. Le moteur thermique est alimenté en gaz naturel (méthane), ou en LPG (propane + butane) et ces PAC au gaz sont chargées avec les HFC (par exemple du R410A).

Les pompes à chaleur à gaz présentent les avantages suivants :

  • Leurs performances sont bonnes et leur rendement est indépendant des fluctuations de la température extérieure, car elles récupèrent la chaleur dissipée par le moteur et celle contenue dans les gaz d’échappement.
  • Grâce à cette récupération de chaleur, le dégivrage n’est plus nécessaire et la montée en régime est rapide. La PAC fonctionne en continu.
  • Contrairement à leurs homologues électriques sur l’air extérieur, elles fonctionnent bien en monovalence, c’est-à-dire qu’aucun appoint n’est nécessaire (ni de chaudière).
  • Leur coût énergétique est inférieur d’environ 30 % par rapport aux PAC électriques. Elles consomment peu d’électricité (90 % en moins).
  • Elles sont utilisables dans n’importe quel type de bâtiment, aussi bien dans les maisons particulières que dans des installations industrielles.
  • Elles peuvent être équipées d’un kit hydraulique pour produire de l’eau chaude ou de l’eau froide.
  • Les coûts d’entretien sont faibles.
  • Il est possible de réutiliser les installations existantes de PAC électriques en ne remplaçant que la PAC elle-même.
  • Les unités peuvent être connectées en série ; ce type de PAC est donc applicable à de grandes installations.
  • Elles sont compatibles avec les systèmes classiques de chauffage basse température : chauffage par le sol ou par le plafond, ou ventilo-convecteurs.

Ces PAC sont par contre plus chères que les PAC électriques. Peu de constructeurs exploitent cette solution pour l’alimentation d’une PAC.

Performances de la PAC à gaz

Il n’est pas possible de comparer directement le COP d’une PAC à gaz et celui d’une PAC électrique. En effet, dans le premier cas, l’énergie est primaire, dans le deuxième elle ne l’est pas.

Considérons que l’électricité est produite à partir de centrales dont le rendement moyen en Belgique est de 38 %. Pour produire 3 kWh thermiques, la pompe à chaleur aura donc utilisé 2,6 kWh primaires. Le « COP » sur énergie primaire est alors égal à 3 / 2,6 = 1,15.

Le PER (Primary Energy Ratio) de la PAC à gaz se situe quant à lui entre 1,2 et 1,6. Ce « COP » n’est pas beaucoup plus élevé que celui de la PAC électrique, mais contrairement à cette dernière, les performances sont conservées en cas de grand froid.


Choix du condenseur

On distingue les condenseurs à air et à eau.

Dans le premier cas, on utilise en général un condenseur à air à tubes à ailettes, un ventilateur centrifuge pour brasser l’air et un filtre. Les coefficients d’échange des condenseurs à air vont de 20 à 30 [W/m².K].

Dans le cas des condenseurs à eau, il existe :

  • Les condenseurs à serpentins : ils ne sont utilisés que pour des faibles puissances calorifiques au condenseur. Ils présentent l’inconvénient de montrer des difficultés d’entretien et de devoir utiliser une eau très propre et non entartrante.
  • Les condenseurs à tubes coaxiaux : utilisés pour des puissances calorifiques allant jusqu’à 100 kW. De même que le précédent, il nécessite une eau propre, car les entretiens ne sont pas évidents.
  • Les condenseurs à plaques brasées : leur coefficient d’échange thermique est élevé et donc ils se généralisent pour les pompes à chaleur air/eau et eau/eau. Ils sont performants, compacts, les pertes de charge sur l’eau sont en général assez faibles et la petite taille des canaux réduit la quantité de fluide frigorigène. Par contre, ce dernier atout présente l’inconvénient de favoriser l’encrassement des tuyaux. De nouveau, l’eau doit être très propre ou filtrée avant d’entrer dans le condenseur.
  • Les condenseurs multitubulaires : ils sont utilisés lorsque les puissances calorifiques sont importantes.

Les coefficients d’échange des condenseurs à eau vont de 700 à 1 100 [W/m².K].


Choix de l’organe de détente

Détendeur Thermostatique. C’est le détendeur le plus utilisé dans les pompes à chaleur. Il fonctionne de façon automatique et règle le débit du fluide frigorigène de manière à ce que la surchauffe des gaz qui sortent de l’évaporateur soit constante. Son inconvénient est de ne pas présenter un temps de réponse instantané, mais ce détendeur est très fiable, il permet d’adapter l’alimentation de l’évaporateur en fluide frigorigène, et de plus, certains détendeurs thermostatiques peuvent fonctionner dans les deux sens, évitant ainsi un second détendeur et des clapets dans les pompes à chaleur réversibles.
Capillaire de détente Il est utilisé dans les petits matériels de série. Son inconvénient réside dans le fait qu’il ne permet aucun réglage de la détente, mais cet inconvénient est aussi un avantage, car le capillaire de détente ne permet pas de déréglage de la détente dans le temps. Le capillaire peut se boucher facilement, il faut donc veiller à la parfaite déshydratation du circuit. Il faut également éviter l’utilisation d’une bouteille accumulatrice de liquide, car pendant l’arrêt du compresseur, l’évaporateur se remplirait alors exagérément (en effet le capillaire n’interrompt pas la communication entre condenseur et évaporateur, même pendant l’arrêt du compresseur). La charge en fluide frigorigène doit donc rester limitée. D’un autre côté, l’équilibre des pressions qui s’établit pendant l’arrêt du compresseur permet à ce dernier de redémarrer plus facilement. Autre avantage : le temps de réponse de la détente est instantané.
Détendeur électronique Il en existe de deux sortes : le détendeur moteur pas-à-pas et le détendeur à impulsion. C’est un détendeur très précis et fiable, de par la régulation numérique. L’injection du fluide frigorigène, la régulation de la température de la source froide et le dégivrage sont donc optimalisés et la surchauffe est maîtrisée. Le rendement de la pompe à chaleur reste ainsi optimal à tous les régimes. De plus, le système s’adapte à tous les fluides frigorigènes. Son inconvénient réside toutefois dans son coût élevé.
Orifice calibré Il s’appelle aussi « accurator » et s’utilise pour les pompes à chaleur réversibles. C’est un détendeur très fiable et son temps de réponse est instantané. Par contre, on ne peut pas adapter l’alimentation en fluide frigorigène en fonction de la charge thermique à l’évaporateur. De plus, ce détendeur n’est pas protégé par un filtre en amont, il faut donc faire attention lors d’interventions sur le circuit.
Régleur manuel Il est uniquement utilisé comme organe de secours d’un autre détendeur. Il fonctionne comme un capillaire, mais le réglage peut être modifié par la suite. Son temps de réponse est instantané, mais comme pour l’orifice calibré, on ne peut pas adapter l’alimentation en fluide frigorigène en fonction de la charge thermique à l’évaporateur. Lors de l’arrêt du compresseur, il est nécessaire de prévoir une vanne magnétique pour éviter le remplissage en liquide de l’évaporateur.
Détendeur à flotteur haute pression Il est souvent utilisé dans les groupes centrifuges. Ce détendeur règle le débit de liquide vers l’évaporateur en fonction du débit des vapeurs condensées, qui sont à haute pression. Son problème réside dans le fait qu’il faut mesurer très précisément la charge en fluide frigorigène pour éviter un retour de liquide vers l’aspiration du compresseur en cas d’excès de charge, et une alimentation insuffisante de l’évaporateur en cas de défaut de charge.
Détendeur à flotteur basse pression Il est très utilisé en combinaison aux évaporateurs noyés et également pour les pompes à chaleur de forte puissance. Ce détendeur règle le débit de liquide vers l’évaporateur en fonction de son niveau de liquide, qui est à basse pression. Le fluide frigorigène a un niveau constant, quelle que soit la charge thermique de l’évaporateur.
Contrôleur de niveau magnétique C’est une variante du détendeur à flotteur basse pression. Le flotteur porte ici un aimant permanent ou une masselotte en fer doux et actionne magnétiquement les contacts de commande de la vanne solénoïde placée sur l’arrivée de liquide dans l’évaporateur.
Contrôleur de niveau à bulbe chauffé Ici un bulbe est chauffé électriquement, et sa chaleur agit sur l’injection de liquide vers l’évaporateur.

Coefficients de performance d’une PAC


Le COP du groupe moto-compresseur

Ce COP s’écrit εc et on l’appelle « indice de performance ». C’est le rapport de la puissance thermique utile délivrée au condenseur à la puissance électrique absorbée par le compresseur uniquement. Cet indice est variable en fonction des températures des sources chaude et froide. Quand on précise une valeur de εc , on doit donc indiquer les bases de température et spécifier s’il s’agit de sources extérieures ou intérieures.

ε= chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

εc est obtenu après essais thermiques dans des conditions standard et il intègre donc les imperfections thermodynamiques (les écarts de température à l’évaporateur et au condenseur). Les pertes thermodynamiques, mécaniques, électriques du compresseur ont également été prises en compte.

L’indice de performance n’intègre par contre pas la consommation des auxiliaires (permanents ou non) et les pertes de chaleur dans les conduits.

Le COP global de la PAC

C’est le COP qui est donné par les constructeurs de pompes à chaleur. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des auxiliaires non permanents (dispositif antigel, pompes et ventilateurs régulés en même temps que le compresseur, etc). La puissance consommée aux auxiliaires permanents (pompes de circulation dans le plancher, tableau électrique, régulation et système de sécurité) n’est pas assimilée.

   Puissance thermique au condenseur (chaleur restituée dans le bâtiment)

COP = ————————————————————————–

   Puissance absorbée pour réaliser le transfert de chaleur (compresseur et auxiliaires NP)

Les mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme européenne EN 14511 fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances. Il ne faut pas perdre cela de vue lorsque l’on travaille avec ce COP.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

Le COP est le coefficient le plus utile car il donne des performances réelles d’une pompe à chaleur. De même que pour l’indice de performance, il n’intègre pas les pertes dans les conduits.


Le COP global de l’installation

Ce COP, que l’on peut écrire εi, sera toujours inférieur au COP global de la PAC vu ci-dessus. Il tient compte des éléments suivants :

  • les imperfections de l’installation (pertes d’énergie par les réseaux de distribution, pertes aux échangeurs, etc.) qui ne participent pas au chauffage des locaux,
  • les auxiliaires (pompes, circulateurs, ventilation, etc.),
  • la mise en œuvre de l’installation (dimensionnement, pose, etc.).

Si l’installation était parfaite, εi serait égal au COP global de la PAC donné par les constructeurs.


Le COP saisonnier ou global annuel de l’installation

Le coefficient annuel, ou COPA, évalue la performance annuelle de l’installation de la pompe à chaleur, auxiliaires compris. C’est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produite et injectées pendant une année y sont comparées. Il ne s’agit pas d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Il vaut le rapport des valeurs mesurées :

 énergie calorifique restituée dans le bâtiment sur une saison de chauffe

COPA = ————————————————————————–

énergie consommée pour le fonctionnement de l’installation (pompe à chaleur + auxiliaires)

Imaginons que notre PAC fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.


Le facteur de performance saisonnier SPF

Le SPF évalue théoriquement la performance annuelle de la pompe à chaleur (et pas de l’installation). Il est le rapport des quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SPF comme ceci :

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an]
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Le rendement en énergie primaire des PAC

Si la pompe à chaleur à la vertu de produire une moyenne saisonnière de 2 à 3,5 kWh thermique pour chaque kWh électrique consommé, il faut toute de même considérer l’énergie primaire nécessaire à la production de ce kWh électrique en amont.

Le facteur d’énergie primaire de l’électricité est fixé en 2019 à 2,5. Il faut ainsi 2,5kWh d’EP (énergie primaire) pour produire 1kWh d’énergie électrique en Europe.

Le rendement comptabilisé en énergie primaire tombe donc à 2,5kWh d’EP pour 2 à 3,5kWh thermiques. Soit un rendement global équivalent de 1 à 1,4. On sait par ailleurs qu’un kWh de gaz (=1 kWh d’EP) utilisé dans une bonne chaudière produit également ±1kWh d’énergie thermique.

Les PAC voient également leur rendement baisser fortement quand les températures baissent sous les 6-7 degrés en raison des principes de la thermodynamique (cycle de Carnot) mais également de la nécessité d’actionner le dégivrage des éléments extérieurs. Cette baisse de rendement rend souvent nécessaire d’y adjoindre une petite chaudière au gaz.

Bon à savoir : si, avec un kWh d’électricité, nous pouvons obtenir 2 à 3,5 kWh thermique avec une PAC, il faudra 2 à 3,5 kWh de gaz pour produire la même énergie thermique avec une chaudière. Là encore, économiquement, le gaz étant 2 à 4 fois moins cher que l’électricité, le gain économique lié au choix de la PAC n’est pas des plus évident.

Organes de détente


Principe de fonctionnement

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit d’une pompe à chaleur. C’est le rôle du détendeur, qui va donc abaisser la pression du fluide frigorigène sortant du condenseur à l’aide d’un dispositif d’étranglement. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température. Le détendeur alimente ensuite l’évaporateur en fluide frigorigène en modulant son débit.

La détente se produit sans échange de chaleur ou de travail avec le milieu extérieur.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé dans les pompes à chaleur. Le détendeur thermostatique, qui fonctionne de façon automatique, est un corps de vanne qui règle le débit du fluide réfrigérant de façon à maintenir constante la surchauffe des gaz qui viennent de l’évaporateur.

Schéma détendeur thermostatique.

Le corps de vanne est muni d’un orifice fixe et d’un pointeau mobile. La position du pointeau est contrôlée à partir d’un ensemble composé d’une membrane (4), d’un train thermostatique dont la pression interne est fonction de la température du bulbe (= la sonde) (3) et d’un ressort, dont la force d’appui sur la membrane est contrôlée par une vis de réglage (5). Si la charge thermique de l’évaporateur augmente, la sonde détectera une montée de température, agira sur la membrane et le pointeau s’ouvrira afin d’augmenter le débit de réfrigérant (1) jusqu’à obtention de la même surchauffe des vapeurs. D’un côté du soufflet règne la pression d’évaporation (amont ou aval de l’évaporateur suivant l’existence ou non d’une égalisation de pression) ; de l’autre côté du soufflet règne la pression de saturation correspondant à la température du bulbe.

Il existe deux classes de détendeurs thermostatiques : les détendeurs thermostatiques à égalisation interne de pression et les détendeurs thermostatiques à égalisation externe de pression.

  1. Dans le premier cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à l’entrée de l’évaporateur (prise à l’intérieur du détendeur). Ce type de détendeur est bien adapté lorsque la perte de charge entre l’aval du détendeur et la sortie de l’évaporateur est faible, ce qui est le cas la plupart du temps, des pompes à chaleur de faible puissance dont l’évaporateur est équipé d’un ou de deux circuits sans distributeur de liquide.
  2. Dans le second cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à la sortie de l’évaporateur. Cette pression aval est transmise dans un compartiment du détendeur par l’intermédiaire d’une tuyauterie d’égalisation de pression dont le raccordement est effectué à la sortie de l’évaporateur, et de préférence après le bulbe pour éviter d’influencer celui-ci par la turbulence locale occasionnée par le piquage. La perte de charge occasionnée par le distributeur de liquide et l’évaporateur n’intervient pas sur l’ouverture ou la fermeture du pointeau. Seule la surchauffe à la sortie de l’évaporateur agit sur le pointeau.

L’utilisation de ce type de détendeur présente l’inconvénient de ne pas avoir un temps de réponse instantané. Les avantages sont :

  • Une grande fiabilité.
  • Les détendeurs thermostatiques permettent d’adapter au mieux l’alimentation de l’évaporateur en fluide frigorigène, quelle que soit la charge thermique de celui-ci.
  • Certains détendeurs thermostatiques à égalisation de pression peuvent fonctionner dans les deux sens, évitant un second détendeur et les clapets dans les pompes à chaleur réversibles.

Le capillaire de détente

Ce type d’organe de détente, qui est non-automatique, est utilisé dans les petits matériels de série. On se contente, comme dispositif de réglage, d’un étranglement dans la conduite du fluide frigorigène avant l’évaporateur. L’étranglement est assuré par un tube capillaire de très faible diamètre dans lequel la détente du fluide est obtenue par la perte de charge dans le tube. La longueur et le diamètre du tube capillaire sont déterminés par le constructeur.

Le capillaire de détente n’interrompt jamais la communication entre le condenseur et l’évaporateur. Pendant l’arrêt du compresseur, rien ne s’oppose donc à ce que le fluide frigorigène s’écoule du condenseur (où il est sous haute pression) vers l’évaporateur.

Le capillaire ne permet aucun réglage de la détente, ce qui peut être un inconvénient. D’un autre côté, il ne permet aucun déréglage de la détente dans le temps, ce qui est un avantage. Le circuit doit être soigneusement déshydraté sinon le capillaire se bouche. De plus, il faut éviter l’utilisation d’une bouteille accumulatrice de liquide afin de ne pas remplir exagérément l’évaporateur durant l’arrêt du compresseur. La charge en frigorigène du circuit doit donc être relativement limitée, ce qui nécessite une recherche particulièrement soignée des fuites. En ce qui concerne les avantages de ce système, on remarque que l’équilibre de pression qui s’établit entre la haute pression et la basse pression pendant l’arrêt du compresseur permet un démarrage plus facile de celui-ci. De plus, le temps de réponse de la détente est instantané.


Le détendeur thermostatique.

Deux techniques existent :

  • Le détendeur avec moteur à impulsion : le temps d’ouverture détermine la surchauffe.
  • Le détendeur avec moteur pas à pas : le degré d’ouverture permet une alimentation correcte de l’évaporateur.

Schéma détendeur thermostatique

Le détendeur électronique fonctionne sur le même principe que le détendeur thermostatique mais il permet un réglage plus précis de l’injection à l’évaporateur. Une surchauffe plus faible sera nécessaire et le rendement de la pompe à chaleur reste ainsi optimal à tous les régimes. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Il se compose d’une sonde de température (placée à la sortie de l’évaporateur contrôlant la surchauffe des gaz), d’une sonde de pression d’évaporation et d’une carte électronique dont le rôle est d’analyser ces valeurs et d’agir en conséquence sur une vanne de détente motorisée (moteur pas à pas à 2 500 positions) ou séquentielle.

Le système s’adapte à tous les fluides frigorigènes et, pour passer d’un fluide à l’autre, il suffit de modifier le paramétrage de la corrélation pression/température du fluide en ébullition. La vanne de détente peut se fermer en période d’arrêt et jouer ainsi le rôle d’une vanne magnétique de départ liquide.

Les systèmes avec vanne de détente séquentielle posent quelquefois des problèmes de tenue mécanique des évaporateurs à faible inertie (coup de bélier).


L’orifice calibré

Cet organe de détente est composé d’un orifice calibré réalisé dans un corps mobile coulissant. Son fonctionnement comme détendeur s’apparente à un tube capillaire associé à un clapet de retenue autorisant le passage du liquide en sens inverse. Lorsque le fluide frigorigène circule dans un sens, il joue le rôle d’organe de détente grâce à l’orifice calibré. Dans l’autre sens, le corps mobile coulisse, dévoilant des rainures permettant de laisser passer le fluide liquide sans détente.

Les autres détendeurs

D’autres détendeurs de PAC existent ; ils sont brièvement expliqués sur cette page-ci.

Évaporateurs [PAC]

Évaporateurs [PAC]


Les évaporateurs à air

Photo évaporateurs à air.

Ce type d’évaporateurs s’utilise lorsque la source froide est… l’air.

Le fluide frigorigène circule dans un tube qui traverse de nombreuses ailettes d’aluminium (en général rectangulaires, mais aussi parfois circulaires ou hélicoïdales). Les tubes sont disposés en série, formant une nappe, et les différentes nappes sont associées en parallèle. On peut avoir deux configurations des tubes en ce qui concerne l’alimentation en fluide frigorigène :

  • Soit, les nappes sont assemblées en parallèle à l’entrée et à la sortie de l’évaporateur. Le collecteur d’entrée est alors alimenté par le détendeur.
  • Soit, les nappes sont assemblées en parallèle seulement à la sortie. Le détendeur est alors un capillaire d’alimentation et il y a un distributeur de liquide à l’entrée de l’évaporateur. Ce dernier répartit le fluide en quantités égales dans chacun des circuits. La sortie de chaque circuit aboutit au collecteur d’aspiration.

Dans ces évaporateurs, il peut y avoir de la ventilation (c’est-à-dire de la convection forcée) ou de la convection naturelle. Les ailettes alimentées par ventilation seront très rapprochées les unes des autres, les ailettes alimentées par convection naturelle seront très espacées.

En pratique, l’on procède souvent à une filtration de l’air avant l’évaporateur. Le ventilateur peut être de type centrifuge ou hélicoïdal.

Condensation et givre

Lorsque la température des parois extérieures de l’évaporateur devient inférieure à la température de rosée de l’air, il se produit le phénomène de condensation ou de givrage sur l’évaporateur (condensation si la température de paroi est supérieure à 0 °C et givrage si non). Une chaleur latente, résultant de l’apparition d’eau ou de glace, s’ajoute à la chaleur sensible captée sur l’air. Ceci influence directement les échanges thermiques.

Au fur et à mesure qu’il se forme, le givre a pour effet de produire une isolation thermique de l’évaporateur conduisant à une chute du coefficient d’échange thermique. Il contribue également à la diminution du passage d’air, conduisant à une augmentation de la perte de charge côté air et par suite à une diminution du débit d’air. On cherchera donc à éliminer le givre.

La condensation a pour effet de mouiller l’évaporateur. Il convient d’éliminer l’eau condensée et d’éviter son entraînement dans les circuits d’air. On choisira donc des vitesses de passage d’air inférieures à 3 m/s.
Dans certains cas de refroidissement, il ne se produit ni givrage ni condensation, et ce, même lorsque la température de paroi est négative.


Les évaporateurs à eau ou à eau glycolée

Les différents évaporateurs à eau qui existent sont listés dans cette section. Pour comprendre les notions d’évaporateurs à surchauffe ou noyés, cliquer ici !.

Évaporateurs coaxiaux en spirale (ou évaporateurs double tube) = Évaporateurs à surchauffe

Dans ces évaporateurs, deux tubes de cuivre coaxiaux sont enroulés en spirale. Le fluide frigorigène qui se vaporise circule dans le plus petit tube (le tube intérieur) et le fluide caloporteur (eau glycolée) circule à contre-courant dans l’espace annulaire entre les deux tubes.

Ces évaporateurs présentent des difficultés d’entretien et il faut utiliser de l’eau propre non entartrante.

Évaporateurs à plaques brasées = Évaporateurs à surchauffe

Photo évaporateurs à plaques brasées.

Ils se composent d’une série de plaques d’acier inoxydable assemblées par brasure (= avec un métal d’apport). L’eau glycolée et le fluide frigorigène en évaporation circulent à contre-courant de chaque côté de ces plaques.

La conception de ces échangeurs favorise des coefficients d’échange thermique très élevés avec une différence de température très faible entre les deux fluides. Ceci en fait des appareils très performants et compacts, en plus d’être robustes. Un autre avantage est les pertes de charge sur l’eau qui sont en général assez faibles. Ces évaporateurs sont aussi suffisamment étanches pour permettre l’utilisation de fluides frigorigènes.

La petite taille des canaux facilite cependant l’encrassement. Les circuits doivent donc être très propres ou alors on peut prévoir des filtres à l’entrée de l’eau glycolée dans l’évaporateur. Un autre inconvénient est la non-résistance au gel de ces échangeurs. De l’antigel doit donc être présent en quantité suffisante et de façon homogène dans les circuits de capteurs enterrés.

Évaporateurs multitubulaires = Évaporateurs à surchauffe ou noyés

Photo évaporateurs multitubulaires.

  • Les évaporateurs multitubulaires noyés sont constitués d’un faisceau de tubes métallique soudé sur des plaques à l’intérieur d’un corps cylindrique en acier. L’eau de la source froide circule dans les tubes intérieurs et le fluide frigorigène s’évapore dans le corps principal à l’extérieur des tubes. Il y a un séparateur de gouttelettes dans l’évaporateur pour éviter les entraînements de liquide vers le compresseur. Malgré cela, il faut en plus prévoir une bouteille anti-coups de liquide pour protéger le compresseur. Ces évaporateurs présentent un autre problème : celui de piéger l’huile de lubrification (si elle est présente dans l’installation).
  • Les évaporateurs multitubulaires à surchauffe sont aussi appelés évaporateurs à épingles (à cause de la forme du faisceau tubulaire) ou évaporateur Dry-Ex. Ici le fluide frigorigène circule dans les tubes, à l’inverse de l’évaporateur multitubulaire noyé. Les tubes sont en général munis d’ailettes intérieures afin d’augmenter la surface d’échange. L’évaporateur est alimenté par un détendeur thermostatique, qui permet d’adapter le débit de fluide frigorigène entrant dans l’évaporateur et donc de contrôler la surchauffe des vapeurs. Cet évaporateur ne montre pas de problème de piégeage d’huile, car elle se dirige vers le carter du compresseur si elle est entraînée par le fluide frigorigène.

Évaporateurs à serpentin = Évaporateurs noyés

Dans ce cas, les tubes (le plus souvent en cuivre) de l’évaporateur sont noyés dans un réservoir d’eau (de nappe phréatique, d’étang, etc.). Ils sont enroulés en spirale ou suivant la forme du bac. L’eau pénètre dans le réservoir et peut déborder. Cette technique permet d’éviter les problèmes de gel car la glace se forme autour des tubes sans dégrader l’évaporateur.

Ce type d’évaporateur, facilement nettoyable, autorise l’usage d’eau de mauvaise qualité sur le plan de la propreté (sable, débris de feuilles,…). Par contre, les coefficients d’échange thermique sont assez faibles, ce qui nécessite de grandes longueurs de tubes et conduit à un encombrement important.

Condenseurs [Chauffage, PAC]

Condenseurs [Chauffage, PAC]


Le principe de fonctionnement du condenseur

Le condensation du fluide frigorigène transmet la chaleur à l’environnement à chauffer.

Trois phases se succèdent le long d’un échangeur de chaleur à contre-courant (le fluide frigorigène et le fluide à chauffer vont dans des sens opposés) : la désurchauffe, la condensation proprement dite et le sous-refroidissement.

  1. Pendant la désurchauffe, le fluide frigorigène à l’état de vapeur qui vient du compresseur se refroidit à pression constante en cédant de sa chaleur sensible au fluide extérieur.
  2. La condensation commence quand la première goutte de liquide frigorigène apparaît, et se produit à pression et température constantes. Lors de cette phase, les vapeurs qui se condensent cèdent leur chaleur latente de condensation au fluide extérieur qui se réchauffe.
  3. Lorsque toute la vapeur a été condensée, le liquide frigorigène va se sous-refroidir à pression constante en cédant de nouveau de la chaleur sensible au fluide extérieur.

Cependant, en pratique, les trois phases coexistent dans une même section de l’échangeur de chaleur. Le fluide frigorigène circule dans un tube en contact avec l’eau ou l’air. La partie du fluide frigorigène qui touche le tube est liquide et se sous-refroidit. Le fluide qui est en contact avec ce liquide condense à son tour. Le gaz frigorigène qui est au centre du tube désurchauffe simplement.

En résumé, la quantité de chaleur évacuée au condenseur comprend la chaleur sensible de la vapeur surchauffée, la chaleur latente de condensation du fluide frigorigène et la chaleur sensible de sous-refroidissement du liquide frigorigène.


Les condenseurs à air

On utilise ce type de condenseur lorsque le fluide extérieur à chauffer est de l’air. On se trouve alors dans le cas d’une pompe à chaleur air/air ou eau/air.

Le condenseur à air le plus couramment utilisé comprend des tubes à ailettes, un ventilateur centrifuge de brassage d’air et un filtre. Les tubes sont reliés parallèlement les uns aux autres entre deux collecteurs. Un de ces collecteurs alimente les tubes en vapeur frigorigène surchauffée, l’autre évacue le liquide.


Les condenseurs à eau

Dans ce cas la source chaude est de l’eau. On distingue quatre types de condenseurs à eau :

  • Les condenseurs à serpentins : Le serpentin en cuivre forme une spirale à l’intérieur d’une enveloppe d’acier soudé. L’eau de la source chaude circule dans le serpentin et le fluide frigorigène dans l’enveloppe d’acier. Le fluide frigorigène se condense dans l’enveloppe au contact de la surface du serpentin.
  • Les condenseurs à tubes coaxiaux : Les tubes concentriques en cuivre sont enroulés ensemble en forme de spirale. L’eau circule dans le tube intérieur et le fluide frigorigène se condense à l’extérieur.
  • Les condenseurs à plaques brasées : Cet échangeur se compose de plaques en acier inoxydable assemblées par brasage. Le fluide frigorigène en condensation circule dans une plaque sur deux, et l’eau à réchauffer dans les autres plaques.

  • Les condenseurs multitubulaires.

Un grand nombre de tubes, dans lequel circule l’eau à chauffer, sont placés à l’intérieur d’un anneau. La condensation du fluide frigorigène s’effectue sur la surface extérieure des tubes, à l’intérieur de l’enveloppe. À chaque extrémité de l’anneau se trouvent des boîtes à eau qui distribuent l’eau en série et parallèle dans les divers tubes. Les tubes sont souvent équipés de petites ailettes afin d’augmenter le coefficient d’échange thermique.

Compresseurs

Auteur : Manouane Dubois, relecture Laurent Georges

Mise en page – Sylvie (08.2010)

  • Titres page, navigation, titres normal
  • Antidote
  • Test liens
  • Mise en page globale : listes, tableaux, typographie, images, …

Les compresseurs volumétriques à pistons

Dans les compresseurs volumétriques à pistons, les vapeurs de fluide frigorigène sont comprimées à l’aide du mouvement alternatif de pistons dans des cylindres. Ces derniers sont pourvus de clapets d’aspiration et de refoulement. En plus de ces éléments, le compresseur se compose :

  • d’un excentrique, qui sert à transformer un mouvement circulaire en un mouvement rectiligne alternatif,
  • d’un carter, qui contient le moteur d’entraînement électrique et qui forme la réserve d’huile de graissage (car le compresseur a besoin d’être constamment lubrifié),
  • d’une pompe à huile, qui assure la distribution de l’huile aux paliers et bielles.

Quelques remarques sur les compresseurs à pistons :

  • Les gaz aspirés pénètrent dans le compresseur généralement à la partie haute du moteur électrique, évitant ainsi l’introduction de liquide frigorigène dans les cylindres en cas de fonctionnement anormal de l’installation. Le refoulement est effectué au travers d’une tuyauterie souple brasée à l’enveloppe.
  • Le compresseur à piston est très sensible à l’arrivée de fluide liquide : si quelques gouttes de liquide pénètrent au niveau des soupapes, elles en provoquent une usure lente. Si du fluide liquide pénètre en grande quantité, la destruction des clapets est immédiate. Il faut donc des protections anti-coups de liquide (ressort puissant sur le chapeau de cylindre, capable de se soulever en cas d’arrivée de liquide). Le carter joue aussi en quelque sorte un rôle analogue à celui d’une bouteille anti-coup de liquide, mais sa capacité est très limitée en volume et le rôle protecteur ne sera réel que pour de faibles admissions de liquide à l’aspiration.
  • Le fluide frigorigène et bien sûr l’huile de lubrification doivent être compatibles avec les matériaux qui composent le moteur.
  • La vitesse de rotation du moteur d’entraînement est de 3000 tours/min la plupart du temps, pour des raisons d’encombrement et de coût de fabrication. Certaines rares séries sont cependant encore réalisées avec des moteurs dont la vitesse de rotation est de 1500 tours/min.
  • Le moteur électrique est alimenté par des fils reliés à des bornes étanches.

Les compresseurs volumétriques à pistons sont de trois types :

  • hermétique  : le moteur et le compresseur sont situés à l’intérieur d’une cloche et ne sont pas accessibles. Ils sont généralement supportés par des ressorts pour éviter la transmission des vibrations. Le nombre de cylindres varie entre 1 et 4 suivant la puissance désirée (un seul cylindre entre 0 et 2 kW, 2 cylindres entre 2 et 5,5 kW et 4 cylindres entre 5,5 et 15 kW).

  • semi-hermétique : le moteur est accolé au compresseur et certaines parties du compresseur peuvent être démontées pour une réparation ou un entretien. Une des extrémités de l’arbre du vilebrequin porte le rotor du moteur qui entraîne le compresseur. Le moteur est refroidi en grande partie par le fluide frigorigène aspiré par le compresseur, mais aussi parfois par un ventilateur ou un serpentin d’eau enroulé autour du moteur. Le nombre de cylindres varie entre 1 et 16 et ils sont disposés en ligne, en V, en W ou en étoile. La puissance est réglée par mise hors service de certains cylindres ou par changement de régime du moteur d’entraînement.

  • ouvert : le compresseur est accouplé au moteur soit simplement en bout d’arbre par un manchon d’accouplement, ou bien à l’aide de poulies et courroies. Le nombre de cylindres varie entre 1 et 16 et ils peuvent être disposés en ligne, en V, en W ou en étoile. La vitesse de rotation est ajustable par exemple en changeant la poulie du moteur, en arrêtant certains cylindres ou en changeant le régime de fonctionnement du moteur.

Le compresseur volumétrique hermétique spiro-orbital (Scroll)

Un compresseur Scroll comprime un gaz en continu en faisant tourner une partie mobile en forme de spirale autour d’une autre spirale fixe identique à la première. Ces deux spirales sont déphasées de 180°. Elles forment plusieurs volumes qui se créent à l’aspiration, se réduisent progressivement au fur et à mesure du déplacement orbital de la spirale mobile pour déboucher vers l’orifice de refoulement central.

   

Le type de compresseur ne nécessite pas de clapets d’aspiration et de refoulement, mais un clapet existe cependant afin d’éviter l’équilibrage des pressions haute et basse au moment de l’arrêt et la rotation en sens inverse de la spirale mobile.
Le moteur d’entraînement est situé à l’intérieur du carter. L’huile de lubrification se trouve en fond de carter et est envoyée par pompage vers les pièces mobiles.
Les compresseurs Scroll encaissent facilement les coups de liquide à l’aspiration par désolidarisation radiale des deux spirales. Ceci est un avantage important pour les systèmes à inversion de cycle.
Pour les applications en pompe à chaleur à haute température, il est possible d’effectuer une injection de liquide intermédiaire au milieu des spirales dans le but d’abaisser la température de refoulement et d’augmenter la puissance et le COP.
Diverses méthodes de régulation de vitesse sont possibles :

  • Régulation « tout ou rien ».
  • Régulation par moteur à 2 vitesses.
  • Régulation par variateur de vitesse
Attention : en cas de rotation en sens contraire, il n’y a pas de compression et un bruit insolite avertit le technicien !

Le compresseur volumétrique à vis

Ces compresseurs peuvent comporter une ou deux vis et être du type semi-hermétique ou ouvert.

Compresseur à vis mono-rotor.

Le compresseur à vis bi-rotor est constitué de deux rotors à dentures hélicoïdales (un rotor mâle et un rotor femelle) tournants à grande vitesse. Le rotor mâle est entraîné par le moteur et entraîne à sa suite le rotor femelle.

Les deux rotors à dentures hélicoïdales d’un compresseur à vis.

Le volume du gaz frigorigène est réduit progressivement par la rotation qui provoque l’insertion des lobes du rotor mâle dans le rotor femelle. Quatre phases se succèdent lors de la compression du gaz frigorigène :

  • L’aspiration.
  • Le transfert : les dentures emprisonnent le gaz aspiré.
  • La compression : le gaz diminue de volume à cause de la rotation des dentures et est ainsi comprimé.
  • Le refoulement : le gaz s’échappe par l’orifice de refoulement lorsqu’il est découvert pendant la rotation.

Les variations de puissance s’obtiennent dans les grosses machines par l’action d’un « tiroir » qui décide de l’utilisation d’une plus ou moins grande longueur de vis dans la compression des gaz, et donc induit un plus ou moins grand taux de compression. Dans les petites machines (toujours très grandes comparées à des compresseurs à pistons), la modulation de puissance s’obtient par variation de la vitesse de rotation ou par utilisation de ports d’aspiration auxiliaires, soit par les deux.
Le compresseur à vis doit être abondamment lubrifié pour assurer l’étanchéité entre les pièces en mouvement et pour réduire le niveau sonore, mais aussi pour refroidir le fluide frigorigène. On peut alors atteindre des taux de compression élevés (jusqu’à 20) sans altérer le fluide frigorigène. Le circuit de graissage comprend un déshuileur, un réservoir d’huile, un refroidisseur d’huile et une pompe à huile.
Quelques caractéristiques des compresseurs à vis ouverts :

  • La garniture d’étanchéité au passage de l’arbre est indispensable.
  • Quelquefois (pour les plus gros compresseurs), les moteurs sont pourvus d’un refroidissement hydraulique permettant de récupérer également de la chaleur sur le circuit d’eau.

Dans la version semi-hermétique, le moteur électrique est accouplé directement sur l’arbre du rotor mâle, côté flasque de refoulement, et fait corps avec le compresseur. Le refroidissement du moteur est obtenu directement par les gaz de refoulement qui le traversent en totalité avant de pénétrer dans le séparateur d’huile.

> Pour connaître les avantages/inconvénients des compresseurs à vis, cliquer ici !

Le compresseur volumétrique rotatif

On rencontre deux technologies :

  • le compresseur rotatif à piston roulant,
  • le compresseur rotatif à palettes.

Compresseur rotatif à piston roulant et compresseur rotatif à palettes.

Dans les deux cas, un stator cylindrique renferme un rotor excentré par rapport à l’axe du stator. Un volume en forme de croissant est piégé. Du fluide frigorigène y est introduit (aspiration) et la rotation du rotor va comprimer cet espace jusqu’à atteindre la pression souhaitée (refoulement).
Les puissances frigorifiques atteignent 10 kW. Ils sont essentiellement utilisés pour les climatiseurs individuels et les petits refroidisseurs de liquide.

Le compresseur centrifuge

Les appareils centrifuges utilisés en pompes à chaleur dérivent des groupes centrifuges de production d’eau glacée. Ce sont tous des appareils du type eau/eau. Ils ne diffèrent des groupes à eau glacée que par leur régulation.
Les compresseurs centrifuges sont munis de roues qui tournent à grande vitesse, elles-mêmes pourvues d’aubages. L’entraînement est réalisé par un moteur électrique en version semi-hermétique ou par un autre type de moteur en version ouverte. L’énergie cinétique centrifuge est transformée en énergie de pression dans les roues et les aubages et cela comprime le gaz frigorigène. La première roue est précédée d’aubages de prérotation en acier inoxydable qui permettent de :

  • réguler la machine pour que la production calorifique corresponde aux besoins réels ;
  • donner aux gaz arrivant sur les aubes de la roue un angle d’attaque favorable ;
  • assurer un étranglement à l’aspiration.
Le corps du compresseur est réalisé soit en fonte spéciale étanche, soit en acier soudé, soit en alliage léger. Il comprend la buse d’aspiration convergente, les diffuseurs radiaux placés à la périphérie des roues, ainsi que le multiplicateur de vitesse éventuel. Les roues du rotor sont munies d’ailettes (en acier soudé ou en alliage léger coulé et usiné) qui sont couchées vers l’arrière. L’arbre du rotor est réalisé en fer forgé, il comporte sur son extrémité sortante une garniture d’étanchéité (cas uniquement du compresseur centrifuge type ouvert) et des paliers lisses.

Les organes à graisser sont les paliers, la butée et éventuellement le multiplicateur et la garniture d’étanchéité. Le dispositif de graissage se compose d’une pompe à engrenages ou à palettes, d’un réchauffeur électrique et d’un échangeur refroidisseur huile/eau. Il comporte aussi un dispositif de compensation de la poussée axiale.

Les variations de puissance s’obtiennent par réglage des vantelles à l’ouïe d’aspiration de la turbine. À faible charge, ils sont cependant plus délicats que les compresseurs à pistons. En effet, par faible débit, un phénomène de pompage apparaît : le débit oscille entre un débit nul et débit maximal, l’écoulement devient pulsatoire et engendre des vibrations qui peuvent endommager le compresseur. Les frais de réparation sont élevés. Les constructeurs prévoient généralement une mesure de sauvegarde de l’appareil par injection de gaz chauds. Ce n’est certainement pas une technique énergétiquement intéressante puisque la puissance absorbée reste constante. On évitera donc le surdimensionnement des équipements.
isolants écologiques dans le cadre d'une rénovation

Isolants biosourcés

Date :

  • Janvier 2009

Auteur :

  • B.J., corrigé par Arnaud Evrard et Sophie Trachte

Notes :

  • Conforme à la mode PEB août 2008
  • En attente des droits de publications des photos issues du livre de Oliva.
  • 26-03-2009 : Application des nouveaux styles de mise en page. Julien.

Source :

  • IBGE, Infos fiches-éco-construction, Mat05, Isolation thermique : Choisir des matériaux sains et écologiques. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Réseau éco-consommation, fiche n°79, Les matériaux d’isolation : les connaître pour bien les choisir. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Une isolation plus saine, conseil et fiches matériaux, de www.pie.dromenet.org. Consultable dans la farde ENERGIE+\2008\ISOLATION1

Antidote :

  • Oui

Photo : Aline Branders.

Pour s’inscrire dans une démarche d’éco-construction, il est nécessaire de ne pas choisir un isolant uniquement sur base de ses propriétés thermiques, techniques et économiques.
Il y a lieu d’évaluer son impact environnemental (et sur la santé) tout au long de sa vie :

  • en tenant compte de l’énergie grise (renouvelable et non renouvelable) consommée sur l’ensemble de son cycle de vie (traitement en fin de vie inclus) ;
  • en tenant compte des différentes émissions (gaz à effet de serre, gaz acidifiant, gaz à formation d’ozone…) sur l’ensemble du cycle de vie, qui auront un impact sur l’environnement et la santé ;
  • en tenant compte des matières premières et de l’eau consommée ;
  • en tenant compte des substances nocives utilisées lors de la fabrication et pendant la mise en œuvre (solvants, COV…) ;
  • en estimant les émissions de composés organiques volatiles (COV), formaldéhydes et autres produits nocifs durant sa vie en œuvre ;
  • en appréciant les possibilités de recyclage pour la phase de déconstruction.

La prise en compte de tous ces paramètres conduit à l’utilisation d’isolants dits « écologiques ». Nous parlerons dans la suite de cet article plus particulièrement des isolants dits « biosourcés », c’est-à-dire d’origine végétale ou animale.

Origines, traitements, transformations, domaines d’application et spécificités de chacun des isolants permettront d’approcher la notion de développement durable dans le bâtiment. Nous y verrons les isolants suivants :

  • Isolants à base de cellulose
  • Isolants sous forme de laine d’origine végétale ou animale
  • Isolants à base de fibre de bois
  • Isolants à base de liège
  • Isolants à base de chanvre
  • Isolants à base de paille
  • Isolants à base de textile recyclé

Ils seront passés en revue afin de donner un aperçu des avantages et inconvénients à prendre en compte dans le choix de l’isolant.

De l’approche classique à l’éco-construction

Certaines lignes directrices simples, énoncées dans le tableau suivant, permettent d’évoluer vers une démarche éco-constructive en partant d’une approche tout à fait classique.

Déconseillé Les isolants minces réfléchissants. Ces isolants sont difficiles à mettre en œuvre, leurs performances  sont réduites et il est très difficile de les recycler (assemblage de plusieurs matériaux)
Minimum Éviter les isolants synthétiques (mousses de polyuréthane, de polystyrène…) autant que possible. Dans les situations où ces isolants ne s’imposent pas, leur préférer les laines végétales et animales, les laines minérales, ou le verre cellulaire.
Conseillé Choisir des matériaux naturels à la place des matériaux courants : laines végétales ou animales et isolants à base de cellulose, de liège, de chanvre ou d’autres sources renouvelables…

Mais attention, beaucoup de ces isolants ne possèdent pas d’agrément technique belge ou européen

Tableau inspiré de la fiche « Matériaux d’isolation thermique : Choisir des matériaux sains, avec un écobilan favorable » de l’IBGE.

Les types d’isolants biosourcés classiques

Isolants à base de cellulose

Isolants à base de papier ou journal recyclé, leur conductivité est comparable à celle des laines minérales. Ce matériau possède la caractéristique de pouvoir absorber la vapeur d’eau et permet ainsi de réguler l’humidité. Son absorption acoustique est excellente.

Les flocons de cellulose sont soufflés sous pression soit dans des caissons fermés soit sur des surfaces horizontales. Certains critères ont été définis afin de garantir le non-tassement ultérieur des flocons dans les caissons.

Ces isolants à base de cellulose existent aussi sous forme de panneaux semi-rigides ou flexibles. Ils sont utilisés pour l’isolation des sols, des toitures, des cloisons légères et des murs à ossature bois.Bien qu’elle constitue un bon rempart contre l’humidité, l’ouate de cellulose n’est pas résistante au feu ! Par conséquent, un traitement chimique nécessaire dévalorise sa valeur écoresponsable. En effet, afin de protéger cet isolant des attaques d’insectes, de champignons ou du feu, un traitement au sel de bore est nécessaire. Aussi, si vous privilégiez ce type d’isolant, prenez soin de vous poser des questions relatives à la provenance et à la teneur en résidus d’encre dans l’ouate de cellulose afin d’anticiper les odeurs désagréables sur le long terme. Enfin, insufflée, elle provoque beaucoup de poussières et implique l’utilisation d’équipements de protection adéquats.

     

Panneaux de cellulose (doc. Homatherm) et flocons de cellulose humidifiés et projetés.

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants sous forme de laine d’origine végétale ou animale

Il existe de nombreux types de laine végétale ou animale disponibles en vrac, en feutre fin,  en rouleaux ou en panneaux semi-rigides. On trouve par exemple des laines en fibre de coco, de lin, de chanvre, de bois ou en mouton. Certains de ces isolants reçoivent un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu.
Ils possèdent la capacité d’absorber et de restituer l’humidité (la laine de mouton peut absorber jusqu’à 33% de son poids en eau((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015))), remplissant ainsi la fonction de régulateur d’humidité.

Son domaine d’application est l’isolation des murs, des combles et des rampants de toiture. Sa version conditionnée sous forme d’écheveaux sert à l’isolation de gaines et de tuyaux, mais également de calfeutrement. Sous forme de panneaux ou rouleaux, elle se pose de façon classique. Seul le soufflage de la laine en vrac demande l’intervention d’un professionnel spécialisé.

De par leur caractère fibreux, ces isolants possèdent aussi de très bonnes caractéristiques acoustiques. En plus de ses vertus d’isolant acoustique, elle est difficilement inflammable, ne dégage pas de gaz toxiques en cas d’incendie et est une ressource renouvelable.

En termes d’inconvénients, certains de ces isolants reçoivent, tout comme la cellulose, un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu. De plus, même si la laine (de type animale) subit un lavage et un pressage, elle pourrait, après sa pose, dégager une odeur désagréable.

Laine de lin en vrac, laine de lin en rouleaux et laine de lin en panneaux (doc. Textinap).

Laine de chanvre en rouleaux (doc. LCDA) et laine de chanvre en panneaux semi-rigides (doc. Haga).

Noix de coco sciée et panneaux et rouleaux de laine de coco (doc. EMFA).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de fibre de bois

Les panneaux de fibre de bois sont fabriqués à partir de déchets de scierie.

Après son sciage, le bois peut :

  • se transformer directement en matériaux pour structures portantes et bardages
  • être broyé ou défibré pour servir à la production de copeaux en vrac ou de fibre de bois pour la confection de la laine isolante
  • être déroulé, tranché et lié afin de servir à la fabrication de panneaux isolants solides pour la construction.

Les panneaux sont perméables à la vapeur, ils complètent très bien les autres isolants.

Son domaine d’application concerne principalement l’isolation thermique intérieure et extérieure de murs, combles et rampants de toiture lorsqu’il est sous forme de laine ou de fibres utilisées en partie aussi pour leurs qualités acoustiques.

Lorsque plusieurs panneaux sont collés ensemble pour obtenir une plus grosse épaisseur d’isolant, de la colle est utilisée, ce qui dévalorise son caractère écologique. Le bois peut aussi servir d’isolant sous son format en vrac, mais va alors nécessiter un traitement chimique préventif, fongicide et insecticide((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Panneaux de bois feutré (doc. Pavatex).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de liège

Cet isolant est extrait des écorces des chênes-liège ou du recyclage de bouchons, le liège est broyé pour former des granulats de liège en vrac, puis assemblé pour la fabrication de panneaux et de rouleaux qui nécessitent l’intervention d’un liant chimique.

Les panneaux en liège constituent une alternative écologique idéale pour l’isolation

  • des planchers
  • des murs par l’intérieur ou l’extérieur
  • des combles perdus
  • des rampants de toiture.

Tout comme le bois, les avantages en termes d’isolation thermique et acoustique sont incontestables. Ajoutons son imputrescibilité, cet isolant est également difficile inflammable.

Du point de vue des inconvénients, certains panneaux sont renforcés avec des colles synthétiques et dégagent du formaldéhyde, il est donc important de se renseigner avant l’achat afin d’éviter ce type d’isolants à base de liège. Mais le principal problème, en plus de son coût élevé, réside dans sa disponibilité. Il perd en effet de sa valeur écologique et locale à cause de son importation.

Liège.

Isolants à base de chanvre

Fabriqué à partir du défibrage de la tige de chanvre, on peut obtenir à partir de cette plante deux supports de base :

  • la fibre en vrac ou qui servira pour la laine ;
  • la chévenotte utilisée pour la fabrication de panneaux, enduits et bétons (composée d’un mélange de lient à base de chaux aérienne et de copeaux de chanvre).

Le chanvre est par ailleurs une plante à croissance rapide qui ne nécessite pas ou peu d’engrais.

Compressé, il sert pour l’isolation des murs, des sols, des façades intérieures et extérieures et des combles non aménageables après sa transformation en

  • Blocs de béton
  • Laine
  • Panneaux

En vrac, il sert dans l’isolation des murs et des combles non aménageables par soufflage.

Actuellement l’usage le plus fréquent de ce type d’isolant est le remplissage des murs à ossature bois (30 cm) ou d’enduits isolants (10 cm) sur un support existant.

Son coefficient d’isolation est proche de celui du bois massif (λ = ± 0.1), mais le matériau possède d’importantes qualités du point de vue de l’inertie thermique et de la régulation de la vapeur d’eau. Sa résistance au feu lorsqu’il est sous forme de béton, sa fourniture locale ainsi que ses caractéristiques naturellement insecticides constitue également des avantages non négligeables.

Isolants à base de paille

La paille, en tant que matériaux biosourcés, revêt différentes formes :

  • D’un mélange de terre et de paille naît un enduit appelé « terre/paille »
  • Sans pressage, elle se présente sous forme de bottes de paille compressée sous forme de ballot, forme utilisée depuis très longtemps  comme isolant à part entière ou au sein d’une structure propre.

Produit local, la paille constitue un isolant bon marché qui ne nécessite que très peu de traitement en usine ce qui lui confère une réelle valeur ajoutée dans la construction à caractère écologique. Aujourd’hui, ce type d’isolant est  de plus en plus documenté, référence et normalisé comme système de construction et comme isolant reconnu.

Le ballot de paille n’a pas des caractéristiques thermiques homogènes. L’orientation de ses fibres par rapport au flux de chaleur va impacter sur sa conductivité thermique. Celle-ci sera plus faible si les fibres sont perpendiculaires au flux (λ d’environ 0,05) et plus élevés si les fibres sont parallèles aux flux (λ variant autour de 0,07… 0,08). Il est en plus nécessaire de s’assurer des ballots de pailles de qualité pour rencontrer les exigences du monde de la construction.

Toutefois, suite à l’étude de construction paille en occupation, il a été montré que si elle est correctement mise en œuvre et à l’abri de pluies battantes, les risques de dégradations à long terme sont négligeables et la paille comme isolant est capable d’apporter de bonnes performances thermiques ainsi que les conforts d’été et d’hiver attendus.
En outre, la paille n’a pas seulement un rôle isolant, le ballot de paille peut également servir de support à un enduit voir de structure en soi sans en altérer ses caractéristiques. Ainsi, combiner plusieurs de ces rôles (isolant et mécanique et/ou structurel) permet de diminuer le bilan écologique de la paroi. Attention cependant, à utiliser une paille provenant de culture durable.

L’inconvénient de la paille réside dans l’inconfort de pose à cause du poids de chaque botte. De plus, son volume implique de concevoir des murs d’une épaisseur relativement conséquente à isoler.

Si vous souhaitez en savoir plus sur l’isolant à base de paille, consultez le site www.apropaille.be  qui réunit le monde pas si petit que ça de la paille en Belgique.

Isolants à base de textile recyclé

Né du recyclage des textiles usagés ou des déchets des fabricants de vêtements, le textile recyclé est traité en usine avant de devenir un matériau de construction en soi.

D’abord effiloché, on le métamorphose ensuite en panneaux et rouleaux isolants grâce à des techniques de pressage. Sa version en vrac permet, tout comme l’ouate, d’être insufflée et d’isoler les murs.

Alternative idéale pour isoler pour les murs et les combles non aménageables en priorisant l’économie circulaire, notez que les isolants et autres matériaux de construction en textile recyclé sont traités chimiquement pour résister aux flammes. Parmi les autres inconvénients, prenez en compte que son application verticale implique un tassement du matériau sur le long terme.

Par contre, ce matériau biosourcé reste très facile à poser et il ne nécessite pas de formation préalable ou obligatoire. Grâce à sa compression, le textile recyclé n’émet aucune poussière. Enfin, il peut absorber jusqu’à 25% de son poids en eau, ce qui constitue un isolant contre l’humidité très efficace((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Performances des isolants biosourcés

La performance thermique des isolants est renseignée par la valeur de la conductivité thermique  (λ). Plus celle-ci est élevée, moins le matériau sera isolant. Mais cela ne veut pas dire qu’il faut nécessairement abandonner l’utilisation d’un matériau qui aurait un λ élevé. En effet, il suffit d’augmenter l’épaisseur de la couche isolante pour obtenir une performance thermique globale équivalente!
Pour choisir son isolant, il faut donc tenir compte de plusieurs critères en même temps:

  • la conductivité thermique  (λ)
  • le coût (plus l’épaisseur augmente, plus le coût augmente)
  • l’encombrement

Les performances des isolants biosourcés sont reprises dans le tableau suivant.

Résistance mécanique Conductibilité thermique Conductibilité thermique Diffusion de la vapeur d’eau Diffusion de la vapeur d’eau Inflammable
ρ [daN/m³] λ [W/mK] λ [W/mK] μ [-] μ [-]
Selon la documentation Selon la norme NBN B62-002 (humide et sec) (humide et sec) selon la documentation
Perlite expansée pure 50-80 0.046 / 5 à 7 / Non
Vermiculite expansée pure <100 0.058 / 5 à 7 / Non
Argile expansée 0.103 à 0.108 / / / Non
Bois feutré en panneaux mous ± 160 ± 0.042 / / 3 à 4 Difficilement
Bois feutré en panneaux mi-durs ± 270 ± 0.07 / / 3 à 4
Cellulose en vrac 35-50 0.035 à 0.04 / / 1 à 2
Laine de cellulose en panneaux 70-100 0.04 / / / Auto-extingible
Liège expansé 18 0.04 à 0.045 / 4.5 à 29 / Difficilement
Liège expansé en panneaux 80-120 0.032 à 0.045 / / 5 à 30
Chanvre ou laine de chanvre 25-210 0.039 à 0.08 / / 1 à 2 Difficilement
Lin en vrac 18-35 0.037 à 0.045 / / 1à 2 Difficilement
Lin en panneaux 400-500 0.05 à 0.065 / / / Difficilement
Laine de coco 20-50 0.047 à 0.05 / / 1à 2 Ignifugé au sel de bore
Laine de coton 20-30 0.04 / / 1 à 2 Sans dégagement toxique
Panneaux de roseau ± 100 0.056 / / 1 à 1.5
Laine de mouton 10-30 0.035 à 0.045 / / 1 à 2 Sans dégagement toxique
Paille (dans le sens des tiges) rechercher valeurs 0.08 / / / /
Paille (perpendiculairement aux tiges) rechercher valeurs 0.052 / / / /
Valeurs issues de l’ouvrage L’isolation thermique de la toiture inclinée, ministère de la Région Wallone, L’isolation écologique de J-P. Olivia, éditions terre Vivante, 2001, ouverture d'une nouvelle fenêtre ! www.livios.be, ainsi que des documentations des fabricants.

La PEB impose, lors du calcul du coefficient de transmission des parois (U) que l’on utilise pour les différents constituants des valeurs de conductivité thermique (λ) certifiées (essais réalisés conformément aux normes européennes EN ISO 10456) ou les valeurs par défaut reprises dans l’annexe VII de la PEB.
Malheureusement, l’Annexe VII de la PEB ne fournit pas de valeur pour les matériaux repris dans le tableau ci-dessus. Si aucune certification (agréments techniques…) n’existe, la couche d’isolant ne pourra pas être prise en compte dans le calcul du U des parois pour la PEB  qui est d’application pour les travaux soumis à permis d’urbanisme.

Intérêts des isolants biosourcés

Comme le montre le tableau suivant, les isolants possédant une capacité thermique élevée, garante d’une diffusivité faible et d’une effusivité importante sont généralement les isolants « écologiques » :

ρ ρ * c
[kg/m³] [Wh/m³]
Laine de bois 160 90
Laine de bois 55 31
Liège expansé (vrac) 60 31
Ouate de Cellulose (insufflée) 60 31
Perlite expansée 80 22
Polyuréthane rigide 30 12
Laine de mouton 10 5
Polystyrène 7 3

Mais attention, si le confort d’été est amélioré, l’utilisation d’isolant permettant d’obtenir ces caractéristiques peut conduire à un autre problème. En effet, une trop grande effusivité produira dans la pièce une sensation de surface froide au toucher.

Pour aller plus profondeur sur ce sujet, n’hésitez pas également à visiter notre page consacrée à l’inertie thermique.

Stockage de CO2

Les isolants à base de végétaux, via le processus de photosynthèse, permettent de stocker le CO2 atmosphérique.

Performances hygrothermiques

Outre leur caractère “écologique”, les isolants biosourcés qui nous intéressent ici possèdent des propriétés hygrothermiques prometteuses. Par leur capacité plus ou moins grande à absorber l’humidité, les matériaux en contact avec l’ambiance intérieure peuvent stabiliser les conditions hygrothermiques d’un local et, de la sorte, avoir un impact positif sur le confort.

De nombreuses recherches ont été menées sur ce sujet. Comme par exemple celle réalisée par le département d’ingénierie de la Technical University of Denmark qui a conduit à la définition du paramètre appelé Moisture Buffer Value (valeur de régulation de l’humidité) qui indique la quantité d’eau que l’isolant absorbe et restitue par  unité de surface durant une certaine période quand il est soumis à des variations de l’humidité relative de son environnement. Ce paramètre permet d’analyser le rôle de régulateur d’humidité joué par l’isolant.

Certifications

C’est à ce niveau que se complique la démarche d’éco-construction ! Comme dit auparavant, lors du calcul du U des parois, la PEB implique que l’on utilise comme valeur de λ :

  • une valeur certifiée sur base de la norme de produit NBN EN ou d’un ATE (Agrément Technique Européen). Ces valeurs sont regroupées sur le site ouverture d'une nouvelle fenêtre ! www.epbd.be.
  • ou la valeur par défaut renseignée dans l’annexe VII de la PEB.

Cette manière de faire a pour but de protéger le consommateur, en garantissant la qualité des matériaux utilisés.

Le problème avec les matériaux d’isolations biosourcés est que ces derniers ne sont pas repris dans l’Annexe VII de la PEB et l’utilisation de ceux-ci nécessite donc la réalisation d’une certification pour tous travaux soumis à permis.

Labellisation

Comme annoncé précédemment, l’utilisation d’un matériau issu de sources renouvelables ne garantit pas en pratique le caractère “écologique” de l’isolant (ajout de colle, procédé de fabrication énergivore…). Pour s’assurer que l’isolant a été réalisé dans les règles de l’art, on peut se tourner vers les labels comme www.svanen.se en Suède www.blauer-engel.de en Allemagne ou encore www.certivea.fr en France.

Pour en savoir plus sur les normes en vigueur qui régissent l’utilisation de chacun de ces isolants, voici quelques sources qui peuvent être utiles :

Concernant les isolants à base de cellulose :

Concernant les isolants à base de laine d’origine végétale ou animale :

Concernant les isolants à base de fibre bois :

Concernant les isolants à base de liège :

Concernant les isolants à base de chanvre :

  • réglementation professionnelle et validation en laboratoire des enduits chaux/chanvre pour béton : construire-en-chanvre.fr

Concernant les isolants à base de paille :

Concernant les isolants à base de textile recyclé :

Dimensionner les pompes à chaleur les plus courantes

Dimensionner les pompes à chaleur les plus courantes

Les propos de cette page concernent surtout les installations domestiques …

L’objectif n’est pas ici de donner une méthodologie de dimensionnement, mais bien de mettre en évidence les points caractéristiques à prendre en compte lors de la conception.


Optimiser l’installation

Une évolution de la puissance en sens contraire de la demande

Prenons le cas d’une pompe dont la source froide est l’air extérieur. On constate que malheureusement, l’évolution de la puissance fournie par la PAC se fait en sens contraire de la puissance appelée par le bâtiment.

Dimensionner une PAC capable de fournir la chaleur nécessaire par – 10 °C extérieurs générerait une puissance beaucoup trop élevée en mi-saison. Elle serait coûteuse à l’investissement et fonctionnerait alors durant de courtes périodes, avec une performance réduite.

Mais choisir une petite pompe à chaleur suppose un appoint de chaleur fort important, ce qui n’est pas plus performant, surtout si l’appoint est électrique.

Il faut donc évaluer la situation au cas par cas et optimiser le système.

Température de dimensionnement, de bivalence et limite

Le diagramme représente, dans la partie supérieure, les courbes relatives au circuit de chauffage, et, dans la partie inférieure, les besoins calorifiques et la puissance de chauffage de la PAC, le tout en fonction des températures extérieures.

Trois paliers importants sont définis en fonction des températures extérieures :

  • La température de dimensionnement (ou de base) : le système de chauffage est dimensionné en fonction de cette température.
  • La température de bivalence : en cas de fonctionnement bivalent, c’est au-dessous de cette température que la chaudière est utilisée.
  • La limite du chauffage : au-dessous de cette température, un système de chauffage est nécessaire.

Dans le diagramme supérieur, on voit que la PAC tente de donner un ΔT° à l’eau de retour mais que en dessous de la température de bivalence, elle n’arrive plus à assurer le niveau de t° de départ souhaité.

Le diagramme inférieur présente 2 fonctionnements bivalent-parallèles dont les sources de chaleur sont fondamentalement différentes :

  • Puissance chauffage PAC à peu près constante : la température de sortie du condenseur évolue parallèlement à la température de retour du chauffage (source de chaleur : par exemple nappe phréatique).
  • Puissance chauffage PAC fortement variable : la différence de température dans le condenseur augmente si la température extérieure croît (source de chaleur : par exemple air extérieur).

Dimensionnement de la pompe à chaleur Air/Eau

La première chose à faire est d’estimer les besoins calorifiques du bâtiment Q selon les normes en vigueur. Comme estimation rapide, on peut multiplier la surface chauffée (en tertiaire) par les besoins calorifiques suivants :

  • bâtiment neuf, isolation au niveau passif : 10 W/m²
  • bâtiment neuf, isolation de très bonne qualité : 40 W/m²
  • bâtiment neuf, isolation de bonne qualité : 50 W/m²
  • bâtiment présentant une isolation normale : 80 W/m²
  • bâtiment ancien sans isolation spéciale : 120 W/m²

Les études techniques et économiques montrent que la pompe à chaleur bivalente financièrement optimale doit être dimensionnée à 70 – 80 % des besoins d’énergie calorifique maximaux.

La PAC fournit la totalité des besoins calorifique jusqu’à la température d’équilibre (température de bivalence) en dessous de laquelle l’installation fonctionne en mode bivalent (la pompe à chaleur augmente la température de retour du chauffage et le second générateur de chaleur assure le complément). Cette température d’équilibre peut être déterminée sur base des graphiques de performance des appareils fournis par les constructeurs.

Reprenons l’exemple d’un constructeur allemand :

Les besoins calorifiques sont de 9 kW par – 14 °C (remarque : en Belgique, on dimensionne généralement pour – 10 °) et la limite de chauffage est fixée à 15 °C. Le graphique de performance indique une puissance de 5 kW pour la pompe à chaleur à – 14 °C. Pour la PAC choisie, le point d’équilibre se trouve à – 4,5 °C et indique une puissance à installer de 6,1 kW.

La puissance du chauffage d’appoint se mesure par la différence entre la puissance calorifique à fournir et la puissance de la PAC à la température de dimensionnement. Ici, elle est de 9 – 5 = 4 kW.

En mode monovalent, la pompe à chaleur est le seul générateur de chaleur à couvrir les besoins du bâtiment. Il faudra donc, le cas échéant, prendre en compte les besoins en eau chaude sanitaire.

Pour les pompes à chaleur avec appoint, ce supplément ne sera pris en compte que si la somme de puissance de chauffage supplémentaire demandée par l’ECS dépasse de 20 % les besoins calorifiques calculés selon la norme. Dans le cas contraire, on comptera sur l’appoint pour fournir le surplus de puissance.


Dimensionnement de la pompe chaleur Eau/Eau

Comme pour la pompe à chaleur Air/Eau, les fournisseurs proposent des graphiques des performances en fonction de la température de la source froide. Il suffit, une fois la température de la source froide évaluée (par exemple une nappe phréatique à 10 °C), de choisir l’installation qui, pour cette température, peut fournir la puissance calorifique demandée par l’utilisateur.

Le débit d’eau nécessaire est fonction de la puissance pompée dans l’évaporateur. Un débit suffisant assurera la constance de la température de la source froide et des performances de la PAC. Une approximation du débit minimal nécessaire peut-être de 150 l/h par kW absorbé pour un refroidissement de 4 à 5 °C dans l’évaporateur. Le débit précis sera déterminé par les formules suivantes :

Qf = V x cv x (tESF – tSSF)

La puissance frigorifique à l’évaporateur Qf est la puissance de chauffage de la pompe à chaleur QPAC moins l’énergie électrique motrice PPAC.

Qf = QPAC – PPAC

où,

  • QPAC = Puissance de chauffage [kW]
  • Qf = Puissance frigorifique [kW]
  • V = Débit volumique [m³/h]
  • tESF = Température d’entrée de la source froide [K]
  • tSSF = Température de sortie de la source froide [K]
  • c= Capacité calorifique ou chaleur spécifique [kWh/m³.K]
  • PPAC = Puissance électrique absorbée [kW]

Exemple
Pour un débit d’eau de 2,5 m³/h et un refroidissement de 4 K, une puissance de 11,6 kW est absorbée à l’évaporateur (c’est-à-dire la puissance frigorifique).

Qf = 2,5 [m³/h] x 1,163 [kWh/m³.K] x 4 [K]

Pour les pompes à chaleur alimentées par des eaux de surface, on limite le refroidissement dans l’évaporateur à 2 °C. Il faudra donc s’assurer un débit double pour pomper la même quantité de chaleur. On peut donc prendre comme évaluation le chiffre de 300 l/h par kW.

Lorsque la vitesse d’écoulement est insuffisante pour assurer le débit demandé, il faudra augmenter la taille de l’échangeur de chaleur en compensation.

V = v x A

Où :

  • V = Débit volumique [m³/h]
  • v = vitesse d’écoulement [m/s]
  • A = surface d’échange [m²]

Le calcul du débit d’air dans un évaporateur de PAC Air/Air ou Air/Eau se fait exactement de la même façon.

Choisir le mode de fonctionnement d’une pac

 

Choix du mode de fonctionnement

Avant de se lancer dans le choix d’une pompe à chaleur, il faut déterminer son mode de fonctionnement : la PAC sera-t-elle utilisée seule (fonctionnement monovalent) ou conjointement avec une chaudière (fonctionnement bivalent) ou avec un appoint électrique ?

Monovalent

Dans ce cas, la PAC fonctionne seule et couvre tous les besoins en chauffage. Cette solution n’est évidemment envisageable que si la source de chaleur est suffisante pour la demande en chauffage du bâtiment. En pratique on choisira cette solution uniquement pour de nouvelles constructions bien isolées munies d’un système de chauffage basse température.

En fonctionnement monovalent, la PAC est dimensionnée pour couvrir la totalité des besoins de chaleur. Elle est donc trop puissante pendant une bonne partie de la saison de chauffe, tandis qu’elle n’est correctement dimensionnée que pour une température extérieure donnée.

Malgré cela, au vu des frais d’investissement plus élevés en installation bivalente (2 systèmes de chauffage pour le même bâtiment), on préférera en général les PAC monovalentes lorsque c’est possible, ou bien la solution « avec résistance d’appoint » (voir ci-dessous). En effet, la nécessité d’investir dans une chaudière traditionnelle en plus de la PAC n’est pas compensée par la diminution du coût de la PAC, diminution proportionnelle à la puissance moindre installée.

Avec résistance d’appoint électrique

Une installation avec appoint électrique constitue un compromis entre les fonctionnements monovalent et bivalent. Elle nécessite un faible investissement, mais contribue à la surcharge du réseau. Elle est aussi moins rationnelle au niveau écologique à cause de l’importante consommation de l’appoint électrique qui provoque un abaissement du COP annuel. Un enclenchement manuel est d’ailleurs conseillé pour éviter une durée de fonctionnement trop importante. Les appoints électriques permettent de préserver le confort lors des dégivrages ou des périodes de gel, lorsque la PAC (qui a été dimensionnée au plus juste pour limiter l’investissement) éprouve des difficultés.

Diagramme puissance/température :
La performance d’une pompe à chaleur est représentée, dans les catalogues des fabricants, par un diagramme température/puissance. Combien de puissance aura-t-on besoin pour l’appoint électrique ?

Schéma sur le diagramme puissance/température.

La figure montre les courbes de performance d’une pompe à chaleur air/eau pour 3 températures de condensation différentes.

La droite grise, qui représente les besoins calorifiques, est déterminée à partir de la température de dimensionnement (-10 °C) et de la température de limite de chauffage (15 °C).
Pour la température de limite de chauffage, les besoins calorifiques sont nuls. Mais à combien s’élèvent-t-ils pour la température de dimensionnement ? Cela dépend du type de bâtiment, de son isolation, de son orientation, etc. Ici ils sont de 7,8 kW.

Le point d’équilibre est déterminé par l’intersection entre la droite représentant les besoins calorifiques et la courbe de fonctionnement de la pompe à chaleur (donnée dans les catalogues des fabricants). En règle générale, le point d’équilibre se situe entre 0 °C et -5 °C.

La puissance de la pompe à chaleur est déterminée pour couvrir 100 % des besoins au point d’équilibre. Dans l’exemple, la puissance à prévoir est de 6,2 kW.

La puissance de l’appoint est déterminée par la différence entre les besoins calorifiques à la température de dimensionnement (-10 °C) et la puissance fournie par la PAC à cette température. Dans l’exemple, la puissance de l’appoint est de 7,8 – 5,6 = 2,2 kW.

Dans le secteur tertiaire, les apports internes compensent les pertes de puissance dues aux dégivrages, d’autant plus facilement que les dimensionnements de PAC réversibles sont souvent basés sur des puissances en froid, ce qui surdimensionne la puissance de chauffe. Les résistances d’appoint ne s’y justifient donc pas.

Bivalent

Lorsque la puissance à fournir est trop importante par rapport à une source froide limitée ou lorsque la température d’entrée dans le réseau de distribution doit être supérieure à 50 °C, les systèmes bivalents sont inévitables pour assurer le confort de l’occupant. C’est souvent le choix qui est fait en rénovation, lorsque les réseaux d’émissions ne sont pas modernisés et ne peuvent fonctionner qu’à haute température.

Le fonctionnement bivalent alternatif a l’avantage de la simplicité de compréhension et de régulation. La PAC est mise en marche lorsque la chaudière est à l’arrêt et inversement.

Schéma sur le fonctionnement bivalent alternatif.

Le fonctionnement parallèle par contre profite mieux de la pompe à chaleur puisqu’elle fonctionne toute la saison de chauffe. Ce deuxième mode permet donc une plus grande économie en frais de fonctionnement (même si, en période de grand froid, le COP de la PAC chute beaucoup) et un meilleur bilan écologique (avec un point de bivalence à 50 % de la puissance de chauffage, la PAC utilisée en bivalent-parallèle assure tout de même 80 % du besoin de chaleur).

Schéma sur le fonctionnement parallèle.


Avec ou sans accumulateur tampon ? De chaleur

Toute installation compte au moins un accumulateur tampon qui permet d’augmenter la quantité d’eau présente dans le circuit, ceci afin d’éviter l’enclenchement trop fréquent des producteurs de chaleur (courts cycles).

On reproche parfois à l’accumulateur tampon pour les petites installations d’être trop coûteux, trop volumineux, d’entraîner des pertes de chaleur. Mais rares sont les cas où son installation n’est pas justifiée. On ne peut y renoncer que si les conditions suivantes sont remplies :

  • puissance à peu près constante de la source de chaleur (max 5 K de variation de température);
  • volume d’eau de chauffage supérieur à 15 litres/kW;
  • grande capacité d’accumulation du système de distribution de chaleur (par exemple inertie de chauffage par le sol);
  • pas ou peu de vannes thermostatiques;
  • installation bien équilibrée.

Un accumulateur de chaleur est lui plus volumineux qu’un accumulateur tampon. Il sert couvrir les heures d’interruption de fourniture électrique. Il peut aussi compenser des variations temporaires de la source froide et permettre une plus grande utilisation du courant bas tarif. De plus, un accumulateur de chaleur permet de combiner plus facilement différents producteurs de chaleur, comme par exemple des capteurs solaires.


Choix de la régulation

Adaptation de la puissance

Pour de petites pompes à chaleur, la régulation de puissance a lieu par mise en ou hors service. Pour les plus grandes puissances, obtenues par combinaison de plusieurs unités de petites pompes à chaleur, la régulation a lieu par enclenchement-déclenchement de chaque unité. Si la puissance est obtenue par un compresseur à plusieurs cylindres, l’adaptation à la puissance demandée est effectuée par branchement et débranchement des différents cylindres. La combinaison de plusieurs modules est également une bonne solution, par exemple pour un quartier de villas, si on ne sait pas au départ combien de maisons seront raccordées au système de chauffage par pompe à chaleur.

De nouveaux concepts de régulation font usage de la possibilité de faire varier la vitesse de rotation du compresseur. De cette façon, il est possible d’adapter en tout temps la puissance au besoin momentané. De tels systèmes sont actuellement disponibles, également dans le domaine des fortes puissances. On ne saurait trop les recommander pour conserver une performance correcte tout au long de la saison.

Pour les installations travaillant par enclenchement-déclenchement, il faut éviter des démarrages trop fréquents, afin que le réseau électrique public ne soit pas surchargé et que la PAC ne subisse pas de dommages. Rappelons que ceci est réalisé au moyen d’un accumulateur technique (accumulateur tampon), auquel on ne peut renoncer que dans des cas exceptionnels.

Paramètres de régulation

Les régulateurs commandent la pompe à chaleur en fonction de la courbe de chauffe, après avoir obtenu les données du thermostat d’ambiance et la température de retour. Le thermostat est éventuellement doté de consignes « température de confort » et « température de nuit » réglables. Différentes commandes de fonctionnement sont possibles et s’organisent avec un ordre de priorité précis. Le dégivrage a toujours la priorité et s’effectue automatiquement si les sondes extérieures en indiquent le besoin. Viennent ensuite les alimentations de chauffage et d’ECS. La préparation de l’ECS peut être par exemple considérée comme un mode « été » alors qu’en hiver l’essentiel de la puissance de la pompe servirait au chauffage du bâtiment. Les équipements tels les piscines sont toujours derniers en priorité, à moins bien sûr que la pompe à chaleur ne leur soit spécifiquement destinée (piscines publiques,.)

La régulation de la température de sortie du condenseur est essentiellement liée au mode de chargement de l’accumulateur (étagé ou par stratification).

Adaptation des paramètres en fonctionnement

De nombreuses recherches menées en Suisse durant les premières années de fonctionnement ont montré que beaucoup d’installations ne travaillent pas du tout comme le concepteur du projet le souhaite, cette remarque est également valable pour des installations conventionnelles. Un contrôle des résultats pendant les premières années d’utilisation est donc conseillé pour s’assurer d’un bon fonctionnement de l’installation.

Stabilité du réglage

Les systèmes que l’on trouve pour la technique du bâtiment sont en général assez lents, ce qui permet une régulation stable et fiable. Certains circuits comprennent toutefois des parties où la vitesse de régulation est critique. C’est le cas de la température de départ du condenseur. Pour assurer une régulation rapide, diverses recommandations sont utiles : placer la vanne de régulation le plus près possible de la PAC pour réduire le temps mort, choisir une vanne de régulation à fermeture rapide, optimiser les paramètres de régulation de la vanne, utiliser des thermomètres de régulation à faible inertie.


Choix du chargement

Il existe deux méthodes de chargement de l’accumulateur de chaleur associé à la pompe à chaleur : le chargement étagé et à stratification.

Le chargement étagé est meilleur marché (pas de régulation de la charge) et entraîne un coefficient de performance annuel plutôt meilleur que le chargement par stratification puisque la PAC peut fonctionner avec une température de sortie du condenseur plus basse. Toutefois, ce système a différents désavantages :

Schéma sur le chargement étagé.   Schéma sur le chargement étagé.

Illustration du principe de chargement par étage.

  • Consommation électrique supplémentaire de la pompe du condenseur pour augmenter le débit et diminuer la température de départ.
  • Variations de la température de départ du chauffage difficiles à évaluer.
  • Température finale de l’accumulateur imprécise.
  • N’utilise pas pleinement les capacités de l’accumulateur.
  • Manque de capacité au premier passage.

Cette dernière difficulté pourrait être évitée si la différence de température dans le condenseur est suffisamment importante. De cette façon pourtant, la charge étagée est un non-sens, car dans le meilleur des cas, il ne se produirait qu’environ deux passages étagés à la limite du chauffage. Une charge étagée ne peut être recommandée que dans les situations suivantes :

  • Petite installation (surtout à cause de l’avantage du prix).
  • Un seul groupe de chauffage.
  • Pour accumulateur technique seulement.

À l’opposé, le chargement par stratification, malgré son COP plus faible et son coût plus élevé, permet :

  • Une maîtrise exacte de la température de l’accumulateur.
  • Une température constante de départ garantie.
  • Une puissance de la pompe du condenseur plus faible.
  • Une utilisation maximale de la capacité de l’accumulateur.

Schéma du chargement par stratification.   Schéma du chargement par stratification.

Illustration du chargement par accumulation.

Type de chargement de l’accumulateur

Le chargement étagé de l’accumulateur et, dans certains cas, le chargement par stratification en fonction des conditions météorologiques produisent un meilleur coefficient de performance annuel qu’un chargement par stratification avec consigne constante, car on peut sortir du condenseur avec des températures plus basses. Ce système ne fonctionne toutefois que si l’installation est réglée sur une petite différence de température dans le condenseur. En règle générale cela implique de doubler le débit, ce qui multiplie par 4 la perte de pression sur le condenseur. Ceci doit absolument être pris en considération.

L’influence sur le COP annuel est complexe, car il faut tenir compte non seulement de la température de sortie du condenseur, mais aussi de la consommation d’énergie auxiliaire et de la petite différence de température dans le condenseur lors du chargement étagé. La différence de COP entre une température de sortie du condenseur adaptée ou constante se situe à moins de 10 %.

Encore une fois, reprenons les installations décrites plus haut et supposons qu’au lieu de fonctionner 2 500 h à 47 °C, d’où ε = 3,4, on procède ainsi :

500 h à 45°C, d’où ε = 3,5

1 000 h à 42°C, d’où ε = 3,75

1 000 h à 39°C d’où ε = 4

Le coefficient de performance instantané moyen pondéré SPF s’améliore en passant de 3,4 à 3,8. Le coefficient de performance annuel (COPA) devrait suivre cette tendance et passer de 3 à 3,4. Mais en doublant le débit, la perte de pression dans le condenseur est quatre fois plus forte. Il en résulte pour la petite installation :

  • Ppompe condenseur = (100 kPa x 1,8 m³/h) – (25 kPa x 0,9 m³/h) / (3 600 x 0,10) = 0,438 kW
  • W = 2500 h x 0,438 kW = 1 095 kWh

COPApetit = 25 000 kWh / (25 000 / 3,4) + 1 095 kWh = 2,96

et pour la grande installation :

  • Ppompe condenseur = (100 kPa x 12 m³/h) – (25 kPa x 9 m³/h) / (3 600 x 0,25) = 1 750 kW
  • W = 2 500 h x 1 750 kW = 4 375 kW

COPAgrand = 250 000 kWh / (250 000 / 3,4) + 4 375 kWh = 3,21


Choix de la technique de dégivrage

Modes de dégivrage

On utilise deux modes de dégivrage :

  1. Le système « by-pass » de dégivrage par gaz chaud, par lequel une partie des gaz échauffés à la sortie du compresseur est dirigée vers l’évaporateur. Ce système exige une différence de pression minimale assurée par le compresseur.
  2. L’ inversion de la direction du circuit par une vanne à quatre voies. L’évaporateur devient alors condenseur et le givre est rapidement éliminé au prix d’un plus grand besoin de chaleur momentané.

Illustration du principe de dégivrage par inversion.

Lors du montage de l’évaporateur, il est indispensable de s’assurer que le fonctionnement du dégivrage n’est pas perturbé par un apport d’air froid dû à la circulation naturelle de l’air.

Le dégivrage des pompes Air/Air et Air/Eau

Les pertes provoquées par le dégivrage de l’évaporateur sont difficiles à évaluer avec précision, car elles sont variables en fonction de la programmation des paramètres de dégivrage. L’énergie dépensée pour la fonte du givre (EFG) est généralement fournie par la pompe à chaleur qui, pour l’occasion, fonctionne en sens inverse. Elle vaut environ l’énergie utile de fonte du givre EFGu (énergie pour élever la température du givre à 0 °C + chaleur latente de fusion du givre + énergie pour élever la température de l’eau de 0 °C à 10 °C pour éviter un regel immédiat) divisée par un rendement de 50 %. Cette énergie sera prélevée dans le bâtiment et devra en suite lui être restituée lorsque la pompe se remettra en mode chauffage. Pour des machines bien réglées avec des détections du givre optimales, la perte de COP peut valoir jusqu’à 10 % par temps froid.

Il n’est pas rare de voir des pompes à chaleur dont le système de détection du givre est mal réglé et la durée de dégivrage trop longue. Il s’en suit des consommations d’énergie excessives qui peuvent conduire à des COP inférieurs à 1.

Le graphique ci-contre, issu d’une fiche technique de constructeur, illustre l’influence du dégivrage sur la puissance calorifique et le COP d’une pompe à chaleur Air/Eau. On voit clairement la perte de COP survenant entre 3 et 10 °C. L’air extérieur est chargé d’eau et le fluide frigorigène est à une température inférieure à zéro degré. La glace qui se forme « colle » à l’évaporateur.

Par contre, lorsqu’il fait très froid, l’air extérieur est plus sec et le givre apparaît alors davantage sous forme de cristaux qui n’adhèrent plus sur la paroi de l’évaporateur.

Choix de la technique de dégivrage

Sur le plan énergétique, le dégivrage par inversion du cycle est plus avantageux que le chauffage par injection de gaz chauds. Mais quelle que soit la méthode choisie, c’est surtout la durée du dégivrage qui sera le facteur important pour l’évolution du COP. Le critère d’enclenchement et de déclenchement doit être choisi avec soin.

Le choix du paramètre qui décrit la couche de givre dans l’évaporateur peut être multiple. En utilisation industrielle, il faut choisir un paramètre robuste et assez sensible. Plusieurs choix pour le lancement du dégivrage peuvent être faits :

  • Perte de charge dans l’évaporateur : la mesure de cette grandeur peut provoquer des dérives lorsqu’il y a risque de « bouchonnement » par des impuretés (feuilles, animaux,.) ou par des variations de pression causées par les vents externes.
  • Température de surface des ailettes : la différence entre la température de surface des ailettes et la température de l’air indique bien si une couche de givre (= isolation thermique) s’est formée. Comme le développement de givre n’est pas uniforme sur la surface de l’évaporateur, il faut bien vérifier l’emplacement du capteur de température.
  • Pincement dans l’évaporateur : la couche de givre provoque un blocage du transfert de chaleur qui se traduit par une diminution de l’efficacité de l’échangeur. Par conséquent, il y a une augmentation de l’écart de température minimal entre la température d’évaporation du frigorigène et la température de l’air en sortie d’évaporateur, écart appelé « pincement ». Pour détecter ce pincement, il faudra en général une prise de température de l’air sortant ainsi que le calcul de la température de saturation correspondante à la pression de vaporisation.

De même pour le paramètre d’arrêt, définissant la durée de dégivrage, plusieurs mesures peuvent être considérées :

  • La température du réfrigérant à la sortie de l’évaporateur : pendant le dégivrage de la batterie par inversion de cycle, un film d’eau ruisselle sur l’échangeur en refroidissant le fluide frigorigène. Une fois le dégivrage achevé, une grande partie de l’évaporateur est libérée et le transfert de chaleur diminue, ce qui provoque une réaugmentation de la température de sortie du fluide frigorigène.
  • Température de la surface des ailettes : cette mesure indique directement si l’échangeur est libéré de la couche de givre. Il est cependant difficile de bien placer la sonde pour avoir une bonne représentativité globale de l’échangeur.
  • Optimisation globale par microprocesseur : en combinaison avec les critères étalonnés en usine, le calcul du bilan énergétique par cycle de chauffage permet d’optimiser les grandeurs limites imposées sur site et en cours de fonctionnement.

Ces critères, ainsi que le critère plus « archaïque » qu’est l’horloge, devront être étalonnés soigneusement et vérifiés.

Une fois le cycle de dégivrage achevé, l’enclenchement du ventilateur à plein régime sans mettre en route le compresseur permet de sécher l’évaporateur. À défaut, les gouttelettes restantes seront rapidement gelées.


Choix de l’emplacement de la pompe à chaleur

De façon générale, l’unité principale d’une pompe à chaleur se trouve à l’intérieur du bâtiment à chauffer.

Une PAC à l’intérieur du bâtiment

D’un point de vue acoustique, si l’unité principale d’une pompe à chaleur se trouve à l’intérieur du bâtiment, elle doit être placée dans un local suffisamment éloigné des pièces calmes. On la pose sur des plots antivibratiles (dans le cas où la PAC est bruyante), eux-mêmes placés sur une plateforme stable en béton ou en fer. Les parois du local peuvent également être construites dans des matériaux spéciaux qui atténuent la réverbération des sons.

L’installation d’une PAC doit évidemment répondre aux spécifications du constructeur.

L’air …
Si la PAC véhicule de l’air dans des conduites, l’air doit avoir une vitesse de maximum 4 m/s (circuits principaux). Dans les conduits secondaires, l’air doit avoir une vitesse de maximum 3 m/s. Ces conduits doivent être construits dans des matériaux absorbants et les grilles de prise et de rejet d’air doivent être équipées de grillage antivolatiles.

L’eau …
Si la PAC est à eau, les conduites seront fixées aux parois avec des supports de façon à éviter la transmission des vibrations au bâtiment. Il faudra utiliser des flexibles pour toutes les liaisons à la PAC.

Une PAC à l’extérieur du bâtiment

Il n’existe pas de distance minimale entre une unité extérieure de PAC et le voisinage. Attention par contre à la gêne que peut occasionner une PAC bruyante et aux litiges qui peuvent en découler. Le meilleur choix d’une PAC extérieure est celui d’une très peu bruyante. Si c’est nécessaire, penser aux écrans acoustiques tels que des parois ou bien des arbres à feuilles permanentes.

Choisir la source de chaleur [PAC]

Évaporateur à air d'une PAC domestique

Évaporateur à air d’une PAC domestique.


Introduction sur les sources froides

Les pompes à chaleur sont désignées en fonction du fluide dans lequel baignent les échangeurs de la PAC : d’abord côté évaporateur, ensuite côté condenseur. Pour comprendre ce qu’est une pompe chaleur ainsi que son principe de fonctionnement, cliquez ici !

Le tableau donne les types de PAC qui existent en fonction des combinaisons fluides côté source froide/côté source chaude.

Désignation Évaporateur Condenseur
PAC air extérieur / air air extérieur air
PAC air extérieur / eau air extérieur eau
PAC air extrait / air air extrait air
PAC air extrait / eau air extrait eau
PAC eau / air eau souterraine ou de surface air
PAC eau / eau eau souterraine ou de surface eau
PAC eau glycolée / eau tuyaux d’eau glycolée dans le sol eau
PAC sol / eau ou « fluide /eau » évaporation directe dans sol eau
PAC sol / sol ou « fluide /fluide » évaporation directe dans sol condensation directe dans sol

Dans le cas du chauffage de locaux, la source froide sera la source – qui n’est pas toujours inépuisable ! – où l’on captera la chaleur. Elle provient souvent du milieu extérieur du bâtiment à chauffer et est donc soumise à des variations de température en fonction des conditions climatiques.

Les sources de chaleur utilisables sont les suivantes :

  • l’air extérieur qui est simplement l’air atmosphérique ;
  • l’air extrait qui résulte des rejets thermiques gazeux ou de l’air venant de l’intérieur d’un bâtiment ;
  • l’eau, qui est soit de l’eau de surface, comme un étang ou un cours d’eau, soit de l’eau de nappe phréatique en sous-sol ;
  • le sol (très profond, profond, ou de surface) qui amène deux technologies distinctes, d’où deux appellations différentes pour la même source froide :
    • eau glycolée : mélange eau-glycol qui circule dans le circuit fermé entre le sol et l’évaporateur. C’est soit, de la géothermie de surface, soit verticale de profondeur.
    • fluide ou sol : on a affaire à une pompe à chaleur à détente directe (soit seulement du côté évaporateur, ou bien des deux côtés – évaporateur et condenseur), ce qui signifie qu’il n’y a pas de fluide intermédiaire entre le sol et le fluide frigorigène comme dans le cas à eau glycolée. Le fluide frigorigène circule directement dans des conduites placées dans le sol (qui joue donc le rôle d’évaporateur). On peut également appeler plus simplement cette source de chaleur sol.

Lors de la mise en marche d’un projet de pompe à chaleur, la tâche la plus ardue consiste à aligner les propriétés des pompes à chaleur avec des données telles que le débit et la température de la source de chaleur. Il faut que la quantité de chaleur disponible puisse supporter un prélèvement continu. Un mauvais dimensionnement par rapport au potentiel thermique de la source de chaleur peut avoir des retombées sur la puissance de l’exploitation et son rendement thermique.

Pour pouvoir comparer les COP des pompes à chaleur…

Le COP d’une pompe à chaleur, c’est le rapport entre la chaleur fournie par le condenseur et l’électricité consommée pour la produire (auxiliaires compris). Plus le COP est élevé, plus la pompe à chaleur est performante. Il est influencé par les températures des sources, leur différence et leur stabilité.

Afin de pouvoir comparer les coefficients de performance de différentes pompes à chaleur d’un même type, il faut bien évidemment que leurs températures à l’évaporateur soient identiques, et de même au condenseur. Dans les fiches techniques, on trouvera donc souvent une des dénominations abrégées suivantes selon le type de pompe à chaleur :

  • PAC air/eau : A2/W35 (« W » = water !). La source froide est de l’air à 2 °C (T°C à l’entrée de l’évaporateur) et la source chaude est une eau à 35°C (T°C à la sortie du condenseur).
  • PAC eau/eau : W10/W35. La source froide est de l’eau à 10 °C et la source chaude est de l’eau à 35 °C.
  • PAC eau glycolée/eau : B0/W35 ou S0/W35 (« B » =  eau glycolée – brine en anglais – et « S » = « sol » pour les références de produits en français). La source froide est le sol dans lequel circule de l’eau glycolée à 0 °C et la source chaude est de l’eau à 35 °C.
  • PAC sol/eau : S0/W35.

Classement des sources en fonction de leur efficacité

D’une manière générale, il faut utiliser en priorité les sources froides dont la température est la plus constante et élevée. Le coefficient de performance théorique des sources d’une pompe à chaleur dépend en effet de la différence entre la température de la source froide et la température de la source chaude :

ε ths = T2 / (T2 – T1)

où,

  • T1 est la température absolue (température en °C + 273,15°C) de la source froide et T2 la température absolue de la source « chaude ».

Pour obtenir un coefficient de performance acceptable, il faut donc que la différence T2-T1 soit faible. Autrement dit, la température de la source froide doit être la plus élevée possible (et, si possible, le niveau de température de la source chaude doit être bas).

Le classement des sources froides en fonction de ces deux critères (température élevée et constante), de la source la plus efficace à la moins efficace, se dresse comme suit :

  • les rejets thermiques (air vicié et eaux usées),
  • l’eau des nappes phréatiques,
  • l’eau de surface,
  • le sous-sol,
  • le sous-sol proche de la surface,
  • l’air extérieur.

Les rejets thermiques

Dans la plupart des cas, les rejets thermiques d’un bâtiment et son besoin de chaleur ne concordent pas. Une analyse exacte s’avère donc indispensable. Il s’agit de savoir si le problème peut être résolu par adjonction d’un accumulateur de chaleur (côté froid et/ou côté chaud). Une exploitation rationnelle de l’accumulateur permet une utilisation optimale lorsque les besoins thermiques sont moyens; elle permet également de limiter les pointes de puissance (avantage financier).

Il est aussi impératif de connaître la réglementation locale en terme de rejet.
Les eaux usées

  • pour des raisons de pollution, elles ne sont souvent qu’indirectement utilisables (attention au choix du matériel, prévoir un système automatique de nettoyage),
  • les quantités offertes sont souvent trop insignifiantes pour permettre une utilisation rentable,
  • l’utilisation du réseau public des eaux usées est soumise à autorisation.

L’air vicié est une source de chaleur très souvent employée dans les installations d’utilisation de rejets thermiques, et ceci, sans pompe à chaleur. Pour une utilisation indirecte avec pompe à chaleur, l’air pollué se révèle intéressant, surtout pour le chauffage de l’eau. Il peut cependant être corrosif (agriculture, industrie).


L’eau souterraine des nappes phréatiques

Pompes à chaleur "eau/eau", eau souterraine des nappes phréatiques.

Source : ef4.

L’eau des nappes phréatiques représente une source de chaleur intéressante, utilisée dans les pompes à chaleur « eau/eau ». L’eau de la nappe est remontée à la surface à l’aide de pompes de circulation et échange son énergie avec le fluide frigorigène à l’intérieur de l’évaporateur.

Quelle nappe ?

Certaines cartes des nappes phréatiques en Wallonie sont disponibles sur ouverture d'une nouvelle fenêtre ! le site de la Région Wallonne.

L’appellation « nappe phréatique » désigne toutes les eaux se trouvant dans le sous-sol. On entend donc par ce terme la partie saturée du sol, c’est-à-dire celle où les interstices entre les grains solides sont entièrement remplis d’eau, ce qui permet à celle-ci de s’écouler.

L’hydrogéologie distingue 2 types de nappes : les nappes aquifères à porosité d’interstices et les nappes aquifères fracturées.

Dans les nappes aquifères à porosité d’interstices, qui sont les nappes les plus fréquentes et les plus exploitées, l’eau circule dans les porosités de la roche constituée par des graviers, sables ou alluvions. Dans les nappes aquifères fracturées, la roche est imperméable et l’eau circule dans les fractures ou fissures de roches telles que le granit, le calcaire, la craie.

Minéraux des nappes aquifères à porosité d'interstices.

Le risque de réaliser des forages infructueux est plus élevé dans les nappes aquifères fissurées ou fracturées, et il dépend essentiellement de la connaissance locale de la fracturation. Dans les nappes aquifères à porosité d’interstices, le débit de la nappe est proportionnel à la perméabilité de la roche (taille des grains), à la pente et à la section de la nappe aquifère à cet endroit.

Un système de captage dans une nappe aquifère comprend deux parties :

  • La partie supérieure, la chambre de pompage, est un tubage en acier qui traverse les couches de sol où il n’y a pas de captage. Une cimentation permet d’éviter le mélange entre une éventuelle nappe supérieure polluée et la nappe de pompage. Elle évite également l’éboulement du trou. S’y trouvent les pompes à vitesse variable chargées d’évacuer et de ramener de l’eau à partir de ou vers la nappe concernée.
  • La partie inférieure, la chambre de captage, contient un massif de gravier filtrant (pour éviter l’encrassement par les matières fines), une crépine (tube en acier inoxydable inséré dans le fond du forage, comportant des ouvertures calibrées selon la granulométrie du sable), un tube de décantation et un capot qui ferme le puits.

Système de captage dans une nappe aquifère.

  1. Niveau de l’eau dans le puits.
  2. Tubage acier.
  3. Pompes à vitesse variable.
  4. Crépine.
  5. Massif filtrant.
  6. Tube de décantation et capot.

Quelle température ?

La température de l’eau phréatique (sans infiltration des eaux de surface) varie autour de la valeur de la température moyenne de l’air extérieur, si la PAC a une puissance de moins de 30 kW et si on considère les eaux souterraines en dessous de 10 mètres de profondeur. La température moyenne annuelle de l’air extérieur étant égale à 8,5 °C, la température phréatique vaudra une valeur entre 8,5 et 10 °C. Mais contrairement à l’air extérieur, l’eau souterraine a cette température approximative toute l’année.

Plus la profondeur est importante, moins la température de l’air exerce une influence sur la température de la nappe phréatique. L’écart saisonnier entre les valeurs maximales et minimales diminue avec la profondeur. La différence de température entre la température de départ et de retour est comprise entre 3 et 4 K pour les petits systèmes, ou plus pour les systèmes plus grands.

D’où provient l’énergie contenue dans le sol ?

Cette chaleur souterraine est due en majeure partie au rayonnement solaire. L’énergie géothermique provenant des profondeurs au sous-sol est à ce niveau de profondeur insignifiante. Les infiltrations des eaux de surface peuvent avoir une influence déterminante sur la température de la nappe phréatique, de même que des puits industriels.

Qualité physico-chimique de l’eau

Dans la plupart des cas, l’eau de nappe n’est pas agressive. Il est cependant vivement conseillé de pratiquer une analyse pour protéger le système de chauffage. Si le fabricant de la PAC (avec l’eau comme source froide) n’a pas indiqué de données pour la qualité de l’eau extraite, les valeurs suivantes doivent être respectées :

Composant et unité de mesure Valeur
Matériau organique (possibilité de sédimentation) aucune
pH 6,5 à 9
Conductivité thermique (µS/cm) 50 à 1 000
Chlorure (mg/l) < 300
Fer et manganèse (mg/l) < 1
Sulfate (mg/l) 0 à 150
Teneur en O2 (mg/l) < 2
Chlore (mg/l) 0 à 5
Nitrate (mg/l) 0 à 100

 Source : Norme prEN 15450:2007.

Une pollution mécanique (sable) ne peut se produire que si l’installation de filtration de l’eau n’est pas effectuée dans les règles de l’art. Il faut aussi se méfier du colmatage provoqué par une eau trop calcaire ou riche en boues fines. Le puits doit être garanti par l’entreprise spécialisée. En pratique les valeurs indicatives pour le diamètre de la foreuse sont :
  • 150 mm pour 50 à 150 l/min
  • 300 mm pour 150 à 300 l/min
  • 800 mm pour 600 à 1 200 l/min

Quel débit ?

Si aucune autre donnée n’est disponible, on considérera qu’il est nécessaire d’avoir un débit d’eau de 0,25 m3/h par kilowatt de puissance.

Rejet de l’eau

L’eau prélevée, après absorption de la chaleur, est parfois remise dans un cours d’eau de surface. Si, par contre, le réservoir d’eau souterraine est de faible capacité, ou si l’eau prélevée ne peut être remise en surface à cause de sa composition chimique, cette eau doit être réinjectée au moyen d’un second forage (forage de réinjection) dans la couche de prélèvement. Ce second forage doit être en aval et suffisamment éloigné du premier pour ne pas créer d’interférence thermique.

Il est néanmoins très rare de faire appel à cette deuxième solution (réinjection de l’eau dans la nappe) en Wallonie car le rejet est considéré comme étant beaucoup trop dangereux pour le milieu récepteur. Si un élément polluant infectait les nappes phréatiques, il serait quasiment impossible de l’en faire sortir. La Région wallonne refuse donc presque systématiquement le rejet d’eau en nappe.

Avantages et inconvénients

Les eaux de la nappe phréatique représentent une source de chaleur idéale pour les raisons suivantes :
  • niveau de température idéal,
  • température relativement constante,
  • importance des gisements,
  • propreté,
  • peu de place au sol.

Les inconvénients de ce type de captage sont toutefois nombreux :

  • permis environnemental requis,
  • connaissances géohydrauliques approfondies requises,
  • eau de qualité n’est pas disponible partout à une profondeur adéquate,
  • analyse de l’eau de nappe requise,
  • coûts d’installation élevés (travaux de terrassement, construction d’un, deux ou plusieurs puits, analyse de l’eau, pompe à eau dans le puits),
  • énergie nécessaire pour pomper l’eau hors du puits,
  • système ouvert,
  • nécessité de garantir une séparation parfaite entre l’eau d’origine souterraine et le fluide réfrigérant, si l’eau est réinjectée dans la nappe phréatique via un puits de recharge,
  • recharge de la nappe rarement implémentable.

De plus, avant d’installer une pompe à chaleur sur nappe phréatique, l’utilisateur doit obtenir les informations relatives à la puissance du puits de captage et d’absorption.

En résumé

  • Une étude du sol préalable au forage est conseillée. On doit être certain que la température de l’eau ne sera jamais inférieure à 8 °C.
  • À proximité d’un cours d’eau ou d’un lac, tenir compte d’une possible infiltration.
  • Le captage et la restitution de l’eau doivent respecter les principes hydrologiques.
  • Une analyse de l’eau est vivement recommandée, de façon à vérifier que l’eau n’est pas agressive, polluée ou qu’elle ne transporte pas d’alluvions.
  • Des autorisations officielles sont nécessaires (elles ne sont accordées que si l’eau n’est pas utilisée ultérieurement comme eau potable).
  • Le débit d’eau doit être suffisant et compatible avec les besoins du bâtiment à chauffer.

L’eau de surface

Pompes à chaleur, eau de surface.

Source : ef4.

Si l’on choisit ce type de source froide (qui doit bien évidemment se trouver à proximité du bâtiment à chauffer), il faut s’assurer que le débit d’eau disponible le sera toujours en quantité suffisante à l’avenir (donc attention aux débits variables des rivières et fleuves). Il faut également vérifier la qualité de l’eau et s’assurer que le prélèvement de chaleur n’a pas un impact néfaste sur le milieu.

L’investissement est raisonnable en comparaison aux pompes à chaleur géothermiques. Lors de la mise en œuvre d’une pompe à chaleur à captage de chaleur sur l’eau, il est recommandé de collaborer avec des installateurs qui ont une formation technique particulière, car la mise en œuvre est complexe. Il faudra entre autres calculer le débit d’eau nécessaire.

Une eau de surface mobile (rivière,…) ne gèlera jamais à cause de son mouvement. L’évaporateur doit être protégé des éboulis. S’il s’agit d’eau stagnante, cette solution n’est utilisable que sous certaines réserves, le principal inconvénient étant la diminution du coefficient de convection vu l’absence d’écoulement de l’eau. L’eau peut geler dans ce deuxième cas et ainsi diminuer les performances de la pompe à chaleur.

Deux choix de capteurs se présentent dans le cas de captage de chaleur sur source d’eau :

Capteurs statiques

L’évaporateur est alors complètement immergé dans le réservoir d’eau que représente la rivière, l’étang, … (ou dans un bac dans cette source d’eau). Une très grande quantité d’eau passe par l’échangeur et le Delta T° de refroidissement est proportionnellement très petit.

La température de l’eau de la source est plus constante qu’en surface ; le risque de gel s’en retrouve donc amoindri. Ceci constitue donc un gros avantage pour ce type de capteur. L’inconvénient principal réside dans l’encrassage de l’échangeur noyé par des plastiques, branchages,… De plus, avec un échangeur noyé, les procédures d’autorisation et l’entretien peuvent être coûteux et la réalisation est plutôt difficile.

Capteurs dynamiques

L’eau de la source froide est récoltée dans un puits filtrant puis pompée vers l’évaporateur.

La température varie beaucoup plus que pour le premier cas et peut être assez basse en hiver (2 à 4 °C), ce qui risque d’entraîner le gel de l’évaporateur et sa casse. L’évaporateur doit alors avoir une protection antigel. Par contre, ce système présente l’avantage de prélever de l’eau pratiquement propre grâce au puits filtrant. Il faut néanmoins souvent nettoyer le filtre en question.

Utilisation directe ou indirecte ?

Les importantes variations de température des eaux de surface ne permettent généralement pas une exploitation monovalente avec utilisation directe. On trouve donc davantage de cas d’utilisation indirecte : la source de chaleur transmet son énergie à un échangeur de chaleur lui-même relié à la PAC par un circuit intermédiaire. Ce dernier contient une solution antigel pour permettre à la température d’évaporation de descendre en dessous de 0 °C. Un circuit intermédiaire entraîne toutefois des températures plus basses et donc des coefficients de puissance moins élevés.

Paramètres de dimensionnement

Si l’on opte pour la solution de l’échangeur noyé, il est recommandé de tenir compte d’un écart de 5 à 6 °C entre la température de l’eau de la source et la température d’entrée du fluide caloporteur dans l’évaporateur. Pour dimensionner la surface de l’échangeur de chaleur, il est courant d’admettre un coefficient k de transmission thermique de 200 à 300 W/m²K (vitesse de courant supérieure à 0,5 m/s). Il est vivement conseillé de prévoir une marge de sécurité d’environ 25 % en cas d’encrassement de l’échangeur. D’autre part, l’écart entre les tubes de l’évaporateur doit être au minimum de 4 cm.

S’il s’agit d’eau stagnante, cette solution n’est utilisable que sous certaines réserves, le principal inconvénient étant la diminution du coefficient de convection vu l’absence d’écoulement de l’eau.


La géothermie très profonde

Géothermie très profonde.

Des forages profonds permettent de récupérer la chaleur géothermique (due à des activités volcaniques) à des températures plus élevées (plus de 150 °C). Selon leur température les eaux puisées à ces profondeurs peuvent être utilisées directement ou élevées par une pompe à chaleur au niveau voulu.

Pour garantir une solution économiquement rentable, le COP annuel ne doit pas se situer en dessous de 4.

L’utilisation géothermique de la chaleur appartient au domaine des technologies lourdes, et ne sera pas davantage développée ici. En effet, à moins d’être dans une région spécifique (la région de St Ghislain près de Mons en est une, grâce à la présence de failles dans la roche qui permettent à l’eau chaude de remonter et d’être accessible à une profondeur raisonnable), de telles températures ne s’atteignent qu’avec des forages dont la profondeur se mesure en kilomètres.

La géothermie profonde

Géothermie profonde.

Source : ef4.

Si la surface du terrain avoisinant le bâtiment à chauffer est insuffisante pour placer des capteurs géothermiques horizontaux (voir plus loin), on peut alors penser aux sondes thermiques verticales.

L’avantage de ces sondes est de profiter, dès 10 mètres de profondeur, d’une source de chaleur à peu près constante sur l’année. La température du sol augmente de 1 °C tous les 33 mètres, soit 3 °C par 100 mètres. Cette ressource géothermique est dite de très basse température. Les forages de sondes géothermiques ont un diamètre de 16 à 18 cm et une profondeur de 30 à 150 mètres.

 Pompe à chaleur à eau glycolée - géothermie verticale.

 Pompe à chaleur à eau glycolée – géothermie verticale.

Il existe deux technologies pour récupérer la chaleur du sous-sol profond : soit des capteurs d’eau glycolée sont infiltrés dans le sol et l’énergie sera transmise au fluide frigorigène via un échangeur de chaleur, soit les capteurs sont dits « à détente directe ». Dans ce cas, il n’y a pas d’eau glycolée : le fluide frigorigène est en contact direct avec la chaleur du sol.

Comment calculer la profondeur du forage à effectuer ? Tout dépend de la « charge de chaleur » nécessaire dans le bâtiment, qui représente la quantité de chaleur nécessaire pour le chauffer de façon suffisante au cours de la saison de chauffe. La longueur de la sonde sera d’autant plus faible que le bâtiment à chauffer a des besoins calorifiques réduits.

Si le bâtiment est une nouvelle construction « standard » (besoins calorifiques = 45 W/m2 environ) et que la surface à chauffer est de 150 m2, on aura besoin de +- 7 kW de puissance de chauffage. Si le COP vaut 4, alors il faut extraire 5,25 kW du sol.

Pour obtenir la longueur approximative de la sonde, il suffit de diviser ce résultat par l’extraction thermique, qui vaut entre 50 et 55 W/m linéaire de sonde (c’est cette valeur moyenne que l’on choisit d’habitude pour l’extraction thermique).

La sonde devra ainsi avoir une longueur d’environ 100 mètres.

On doit donc compter approximativement 15 mètres de sonde par kW de chauffage.
Si la profondeur nécessaire du forage est trop grande, on peut la diminuer en plaçant 2 sondes d’une profondeur deux fois moins importante. Il faut veiller à ce qu’il y ait une distance de 5 à 6 mètres entre les différents forages, pour éviter de refroidir excessivement les zones autour des sondes.

En refroidissant, le sol crée une sorte d’entonnoir de froid qui dépend de la puissance spécifique des sondes (W/m). Des soutirages intensifs provoquent une baisse de la température de la sonde et l’entonnoir s’agrandit. Au plus, le soutirage de chaleur (par mètre de longueur de sonde) est faible, au plus grand sera le COP annuel. Durant les arrêts de fonctionnement, la zone de terrain entourant la sonde se régénère à nouveau. Ce phénomène est absolument nécessaire, car le faible flux thermique provenant du sous-sol ne suffit pas à maintenir les conditions de dimensionnement. La détermination correcte de la longueur des sondes est donc d’une grande importance pour éviter une surexploitation qui empêcherait une régénération de la source.

Rafraîchissement

Les sondes géothermiques peuvent non seulement être utiles au chauffage de bâtiments, mais aussi à leur rafraîchissement en saison estivale. Si un système de pompe à chaleur permet la commutation chauffage/rafraîchissement, il est appelé « réversible ». Le rafraîchissement est actif ou passif. Dans le cas du rafraîchissement actif, le compresseur de la pompe à chaleur est utilisé pour abaisser le niveau de température de l’ambiance intérieure et la commutation est réalisée à l’aide d’une vanne à 4 voies. Le compresseur n’est par contre pas utilisé dans le cas d’un rafraîchissement passif ; ici un niveau de température existant (de la nappe phréatique ou du sous-sol) est transmis au système de chauffage et la pompe à chaleur n’est pas activée. De cette façon, la consommation énergétique reste faible (mais il faut néanmoins toujours alimenter les pompes de circulation d’eau).

Avantages/inconvénients

La surface d’installation de ce type de captage d’énergie est réduite et la technologie est utilisable presque partout (il faut néanmoins procéder à une analyse de la composition du sol pour déterminer la faisabilité de l’ensemble). De plus, la chaleur récupérée à la source froide est disponible en quantité quasiment illimitée. Le niveau de température de la source froide est relativement élevé et les variations de température sont faibles. Pendant la saison hivernale, il y a tout de même une diminution du niveau de température. Pour finir, le système est fermé mais on doit bien faire attention à ce qu’il soit étanche au glycol.

Le principal inconvénient de ce type de captation d’énergie est le coût d’investissement élevé ainsi que la mise en œuvre qui est assez lourde.


La géothermie de surface

Géothermie de surface.

Source : ef4.

On peut envisager ce mode de captation de chaleur si on possède un terrain exempt de grosses plantations. Les calories contenues dans le sol juste en dessous de la surface sont récupérées via des serpentins horizontaux en polyéthylène qui contiennent soit un mélange d’eau et de glycol, soit le fluide frigorigène (système à détente directe – les tuyaux sont dans ce cas en cuivre et non en polyéthylène). Les pompes à chaleur utilisant cette source froide sont désignées sous les termes « eau glycolée » ou « sol ».

Les serpentins, qui jouent le rôle d’évaporateur du système, sont enfouis à une profondeur de 60 cm minimum pour éviter le gel. L’avantage d’un tel type de chauffage réside dans la relative stabilité de la température d’évaporation (ce qui augmente les performances). La température varie néanmoins plus ou moins fortement, à cause justement de la présence d’une pompe à chaleur…

Evolution de la t° du sol à 60 cm de profondeur.

Origine de la chaleur du sol ?

Il y a une diminution de la température du sol pendant l’automne, et une augmentation pendant le printemps. Cette évolution est directement liée au rayonnement solaire qui chauffe la partie du sol directement sous la surface (jusqu’à une profondeur d’environ 2 mètres). La chaleur géothermique ne représente que quelques pourcents à cet endroit.

Potentiel du sol

Le pouvoir calorifique du sous-sol dépend de la nature du sol et surtout de sa teneur en eau. En effet, l’eau possède une capacité calorifique élevée, i.e. sa température varie très lentement sous une action extérieure. La quantité de pluie infiltrée est donc un facteur essentiel dans l’extraction de chaleur du sol.

Potentiel du sol, minéraux.

Les pouvoirs calorifiques de divers sous-sol sont les suivants :
  • sol sablonneux sec : 10 à 15 W/m²
  • sol argileux sec : 20 à 25 W/m²
  • sol argileux humide : 25 à 30 W/m²
  • sol marécageux : 30 à 35 W/m²
Pour une température de sol minimale de 2 °C (une plus grande absorption de chaleur pourrait créer des cristaux de glace autour des serpentins et diminuer leur efficacité), l’extraction thermique par mètre courant « q » est environ de :
  • sol sablonneux sec : 10 W/m
  • sol argileux humide : 25 W/m
  • sol argileux saturé : 35 W/m
  • roche dure : 50 W/m
  • granit : 55-70 W/m
Pour limiter le refroidissement excessif du sol, un écartement minimal entre les tuyaux doit être respecté (une pose trop serrée pourrait provoquer le gel de l’eau autour des tuyaux et une fermeture hermétique) :
  • 1 m en cas de sol sec
  • 0,7 m en cas de sol humide
  • 0,5 m en cas de sol sablonneux ou caillouteux saturé

Dimensionnement

Les capteurs enterrés, malgré leur configuration simple qui ne nécessite pas d’auxiliaires, requièrent des surfaces de terrain de l’ordre de 1,5 fois la surface des locaux à chauffer. Pour beaucoup de bâtiments du secteur tertiaire, ce type de technologie demande donc de très grandes surfaces extérieures et engendre donc un coût de terrassement élevé.

Exemple d’installation

Les déperditions calorifiques d’une habitation domestique construite sur sol argileux s’élèvent à 12 kW.

On prévoit un chauffage par le sol avec une température d’entrée de 45 °C.

En choisissant une PAC dont la puissance de chauffe est de 13,3 kW pour une puissance électrique absorbée de 3,85 kW (valeur fournisseur), il faudra extraire du sol 13,3 – 3,85 = 9,45 kW. Il faudra donc 9 450 W/ 25 W/m = 378 m soit 4 serpentins de 100 m.

Lors du dimensionnement de l’installation, il convient de tenir compte de la configuration du site (il est donc recommandé d’établir un plan qui comporte les constructions, arbres, piscines, fosses septiques et réseaux souterrains en plus, bien évidemment, de la localisation des capteurs) et de la durée annuelle de fonctionnement.

Pour les gros projets, une compréhension des flux thermiques des sols près de la surface est nécessaire pour un calcul assez précis des échangeurs de chaleur du sol.  Avant le revêtement, il faudrait opérer une expertise/analyse du sol afin de déterminer la situation géologique de celui-ci à l’endroit de la construction. On tiendra compte des dates de l’analyse (été/hiver – pluies récentes – …) pour obtenir les paramètres thermiques de sol nécessaires pour le calcul et la simulation exacts de la configuration.

Les COP de ce type de pompe à chaleur sont intéressants (de l’ordre de 4). On pourrait néanmoins s’attendre à plus étant donné les avantages de ce système (pas d’auxiliaire, pas de dégivrage). De plus, il faut faire très attention à ce qu’il n’y ait pas de fuites de fluide frigorigène, car il possède un impact environnemental élevé.

En pratique, les échangeurs horizontaux ne sont intéressants que lorsqu’il faut entreprendre de grands travaux, qui permettent un placement économique des tuyaux dans le sous-sol ou à l’intérieur d’une couche de propreté.

Les serpentins peuvent aussi être intégrés en alternance, entre les fondations. Le placement sous le bâtiment permet d’éviter la sensibilité aux conditions météorologiques d’été (sécheresse) mais comporte le risque de gel des fondations en hiver…

Les applications en secteur tertiaire paraissent donc réduites pour cette technique…


L’air extérieur

Le choix de l’air extérieur comme source froide conduit à un choix entre deux technologies très différentes : le système dynamique et le système statique. Dans le premier cas, la PAC ventile mécaniquement l’air de l’environnement extérieur, qui se retrouve donc en mouvement pour améliorer l’échange de chaleur avec le fluide frigorigène au niveau de l’évaporateur. Dans le second cas, l’air reste « statique » et le transfert de chaleur avec le fluide frigorigène est réalisé grâce à la convection naturelle. De grandes surfaces d’échange (ailettes) seront alors nécessaires pour assurer l’efficacité.

Pompe à chaleur à air dynamique

La pompe à chaleur sur air dynamique peut être installée à l’extérieur ou à l’intérieur du bâtiment à chauffer. Dans le premier cas (système Split), le raccordement au système de chauffage est effectué via deux tubes isolés qui se trouvent dans le sol (un pour l’aller et l’autre pour le retour). Il y a également un câble électrique dans le sol et des fonctions antigel. Dans le second cas, la pompe à chaleur est reliée à l’air extérieur par des conduites d’air.

Ce type de pompe à chaleur permet de chauffer les locaux, mais aussi l’eau sanitaire. Un rafraîchissement actif est également possible.

 Pompe à chaleur à air dynamique.

Exemple de pompe à chaleur à air dynamique : présence d’un ventilateur.

Pompe à chaleur à air statique

Les PAC à air statique ne sont pas fort présentes sur le marché malgré leurs avantages en termes de bruit et de performances. De l’eau glycolée, ou le fluide frigorigène, passe dans les ailettes des capteurs statiques extérieurs. Le reste de la PAC, qui se trouve à l’intérieur du bâtiment, comprime alors le fluide frigorigène pour le faire monter en température.

Pompe à chaleur à air statique.

Exemple de pompe à chaleur à air statique.

Avantages/inconvénients

L’air extérieur comme source de chaleur présente les avantages suivants :

  • il est disponible quasiment partout en quantité illimitée,
  • il est facilement exploitable,
  • l’extraction de chaleur sur l’air extérieur ne nécessite pas l’octroi d’une autorisation, sauf peut-être un permis d’urbanisme,
  • cette source froide génère des coûts d’installation limités par rapport aux autres types de pompes à chaleur.

Il présente toutefois quelques inconvénients qui remettent en cause son utilisation en système monovalent :

  • évolution contraire de la température de la source de chaleur et de la température du système de chauffage,
  • les températures de la source froide sont très variables et peuvent être fort basses, ce qui abaisse le coefficient de performance ; la performance globale annuelle est faible.

Les PAC à air dynamique montrent les deux inconvénients suivants par rapport aux PAC à air statique :

  • à une température extérieure de 6 à 7 °C, l’eau issue de la condensation de l’air ambiant commence à geler et nécessite un dégivrage ;
  • problèmes de bruit dus à la grande quantité d’air déplacé. Il est indispensable de se renseigner sur les techniques de protection phonique, dans tous les cas, qu’il s’agisse d’une installation intérieure ou extérieure. L‘ordonnance sur la protection contre le bruit et les prescriptions locales doivent être soigneusement étudiées. Au besoin, un spécialiste en acoustique devra être consulté.

Performances des PAC sur air extérieur

En général, les COP des pompes à chaleur sur air extérieur sont donnés pour une température extérieure de 2 °C. La moyenne des températures extérieures sur la saison de chauffe (de début octobre à fin avril) pour la station d’Uccle est cependant d’environ 6 °C. Le seasonal performance factor (SPF), qui représente la moyenne théorique du coefficient de performance sur la saison de chauffe, sera donc plus élevé que le COP indiqué dans la fiche technique de la pompe à chaleur. Mais lorsque la température extérieure est effectivement très basse, le COP chute et la pompe à chaleur peut très bien ne plus être suffisante pour subvenir aux besoins de chaleur du bâtiment. Dans ce cas on l’utilise conjointement à un système d’appoint ou à une chaudière (voir les modes de fonctionnement).


PAC géothermique : rechargement de la source froide par l’énergie solaire

Les soutirages de chaleur fréquents provoqués par la présence d’une PAC géothermique mènent à une baisse relativement importante de la température du sous-sol. La chaleur n’y est en effet pas renouvelée suffisamment rapidement.

Pour résoudre ce problème, si la surface des capteurs n’est pas trop grande, on peut combiner la PAC avec un système de recharge : des absorbeurs solaires (avec ou sans vitre). Le collecteur solaire se refroidira d’abord dans la PAC pour éviter que l’environnement du serpentin ne se dessèche trop et perde de sa puissance d’échange.

Le rendement du panneau solaire s’améliore, lui, si la température de l’eau qui y circule diminue. Une PAC dont l’évaporateur est lié au circuit des collecteurs solaires permettra de travailler à plus basse température dans les collecteurs, ce qui double leur rendement (et divise donc par 2 la surface nécessaire et l’investissement) et allonge leur durée annuelle de fonctionnement. La PAC disposera, elle, d’une source froide à température plus élevée. Les deux appareils voient donc leur fonctionnement optimisé. Un chauffage d’appoint sera nécessaire en hiver, par température extérieure très basse et ensoleillement limité.

Reste le coût de l’ensemble qui semble difficile à amortir…


Comparaison des sources froides

Chaque source de chaleur possède ses avantages et inconvénients, c’est pourquoi seule une analyse minutieuse du projet peut préciser le type de source froide qu’il vaut mieux choisir.

La capacité thermique de l’eau plaide incontestablement en faveur d’une source liquide :

  • le gain de chaleur provenant de 1 m³ d’eau refroidie d’environ 5 K se monte à 5,8 kWh.
  • pour un gain de chaleur identique, il faudrait comparativement refroidir environ 3 500 m³ d’air de 5 K !

Mais le débit d’eau reste important. Imaginons un bâtiment de 5 000 m². On peut tabler sur un besoin de chaleur limité à 45 W/m² (par – 10°C extérieur) s’il est bien isolé. Ceci représente une puissance totale installée de 225 kW. La puissance à capter à l’évaporateur sera de 150 kW (si COP = 3).

Sur base d’un refroidissement de l’eau de 5 K, le débit d’eau nécessaire sera de

150 kW / 5,8 kWh/m³ = 26 m³/h !

Le tableau ci-dessus reprend les caractéristiques à prendre en compte lors de la conception d’une installation de pompe à chaleur :

Source Caractéristiques de la source Coût d’installation COP saisonnier moyen COP selon la norme EN14511 (suivi de la condition de mesure) Conditions d’installation Remarques
Rejets thermiques de procédés industriels ou de systèmes de climatisation

Faibles variations de température.

Possible variation de débit.

Bas.

Comparable à celui des PAC air/eau ou eau/eau selon les propriétés de la source froide.

Installation plus ou moins importante selon la configuration de la source.

Système courant pour la production d’eau chaude sanitaire.

Eau de nappe phréatique

Faibles variations de température (+6°C à +10°C).

Élevé.

3 à 4,5.

5 à 6

(W10/W35)

Besoin de suffisamment d’eau souterraine de qualité.

Restrictions légales locales.

Des puits existants peuvent réduire les coûts.

Coût d’entretien faible.

Dimensionnement très rigoureux.

Eau de surface Faibles variations de température.

Variable selon la proximité de l’eau.

3 à 4,5.

5 à 6

(W10/W35)

Proximité d’eau en quantité adéquate nécessaire.

Système de protection contre le gel.

L’évaporateur sera conçu en fonction de la qualité de l’eau.

 

Passage par un circuit d’eau intermédiaire dans le cas de capteurs dynamiques.

Encrassage possible.

Tuyaux d’eau glycolée dans le sol Faibles variations de température (plus fortes si usage de serpentins à faible profondeur).

Connaissance des propriétés thermiques du sol requise.

Moyen à élevé. 3 à 4.

4 à 5

(B0/W35)

Besoin de surface si échangeur de chaleur horizontal et d’une solution antigel. Échangeurs verticaux ou horizontaux.

Les conditions de sol et de surface influencent la conception.

Coûts d’entretien faibles.

Dimensionnement très rigoureux.

Air extérieur

Larges variations de température (0°C à + 15°C).

Bas.

2,5 à 3,5.

3 à 4

(A2/W35)

Système universel, source disponible en grande quantité.

Dégivrage et parfois chauffage auxiliaire nécessaires.

Système à évaporation directe : le fluide frigorigène passe dans le sol (tuyaux verticaux et horizontaux) Faibles variations de température.

3 à 4.

Pas de circuit intermédiaire du côté évaporateur.

Grandes quantités de fluide frigorigène nécessaire.

* Les valeurs des coefficients de performance dépendent des modèles de pompes à chaleur choisies. Les valeurs données ici sont des ordres de grandeur permettant la compréhension de l’influence de la source froide.

Les pompes à chaleur les plus répandues sont les pompes à chaleur air extérieur/eau, ensuite viennent les pompes à chaleur eau glycolée/eau qui tirent leur énergie du sol.

Réglementation et permis

Suivant le type de PAC, sa puissance et la quantité de fluide frigorigène présente dans le circuit, l’installation d’une pompe à chaleur requiert ou non l’octroi de permis d’environnement ou d’urbanisme. Bien souvent, la PAC devra uniquement être « déclarée ».

Les réglementations en vigueur sont susceptibles de changer régulièrement. À titre d’illustration, voici un tableau qui reprend ces réglementations pour l’année 2009 :

Condition (2009) Classe
Si puissance frigorifique nominale utile comprise entre 12 et 300 kW et charge en FF > 3 kg. 3 – déclaration.
Si puissance frigorifique nominale >= 300 kW. 2 – permis d’environnement.
Pompe à chaleur sur air
Si air statique. Peut-être permis d’urbanisme – vérifier avec la commune.
Si air dynamique. Peut-être permis d’urbanisme – vérifier avec la commune.
Pompe à chaleur sur eau souterraine
Opération de forage et opération de sondage ayant pour but l’exploitation future d’une prise d’eau,… (hormis les forages inhérents à des situations d’urgence ou accidentelles). 2 – permis unique.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement inférieure ou égale à 10 m3/jour et à 3 000 m³/an. 3 – déclaration.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement supérieure à 10 m³/jour et à 3 000 m³/an et inférieure ou égale à 10 000 000 m³/an. 2 – permis d’environnement ou permis unique.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement de plus de 10 000 000 m³/an. 1 – permis d’environnement ou permis unique avec étude
d’incidences sur l’environnement obligatoire.
Installation pour la recharge ou les essais de recharge artificielle des eaux souterraines. 1 – permis unique avec étude d’incidences sur l’environnement obligatoire.
Déversement d’eaux usées industrielles telles que définies à l’article D.2, 42°, du Livre II du Code de l’Environnement, contenant le Code de l’Eau, dans les eaux de surface, les égouts publics ou les collecteurs d’eaux usées :
rejets supérieurs à 100 équivalent-habitant par jour ou comportant des substances dangereuses visées aux annexes Ire et VII du Livre II du Code de l’Environnement, contenant le Code de l’Eau.
2 – permis d’environnement ou permis unique.
PAC sur eaux de surface Autorisation du gestionnaire de l’eau de surface nécessaire. Peut-être permis d’urbanisme – voir avec la commune.
Déversement d’eaux usées industrielles telles que définies à l’article D.2, 42°, du Livre II du Code de l’Environnement, contenant le Code de l’Eau, dans les eaux de surface, les égouts publics ou les collecteurs d’eaux usées : rejets supérieurs à 100 équivalent-habitant par jour ou comportant des substances dangereuses visées aux annexes Ire et VII du Livre II du Code de l’Environnement, contenant le Code de l’Eau. 2 – permis d’environnement ou permis unique.
PAC à captation verticale dans le sol
Opération de forage et opération de sondage pour le stockage des déchets nucléaire ou pour un usage géothermique. 2 – permis unique.
PAC à captation horizontale dans le sol Non classé, mais peuvent l’être si quantité FF > 3kg.

Source : Synthèse sur les réglementations et permis relatifs à l’installation
et à l’exploitation de pompes à chaleur en Région wallonne – Document EF4.

Performance énergétique des bâtiments (PEN 2017)

Performance énergétique des bâtiments (PEN 2017)

Nouveau !
Depuis le 1er janvier 2018, les labels EcoDesign sont valorisés pour le chauffage. – voir textes réglementaires.

Depuis le 1er janvier 2017, les exigences PEB ont été renforcées. De plus une nouvelle méthode de détermination du niveau de consommation d’énergie primaire pour les unités non résidentielles neuves a été mise en vigueur.

Vous pouvez vous informer utilement sur l’évolution de la réglementation PEB à l’adresse suivante :

http://energie.wallonie.be/fr/exigences-peb-du-1er-janvier-2017-au-31-decembre-2020.html?IDC=7224&IDD=114085

Le Parlement wallon a par ailleurs adopté un décret annonçant l’entrée en vigueur au niveau wallon des exigences sur l’électromobilité au 11 mars 2021. A partir de cette date, en cas de rénovation important ou de nouvelle construction, des exigences de pré-raccordement et/ou d’installation de bornes de recharge pour véhicules électriques doivent être respectées.

Pour les professionnels, toutes les informations concernant les nouvelles exigences PEB sont accessibles via la rubrique « La réglementation wallonne – PEB ».


Introduction

Faisant suite aux engagements de l’Europe face au Protocole de Kyoto, le Parlement et le Conseil de l’Union Européenne ont adopté, en 2002, la Directive européenne (2002/91/CE) sur la performance énergétique et le climat intérieur des bâtiments. La directive européenne dans laquelle la réglementation PEB wallonne s’inscrit  actuellement est ce qu’on appelle communément la directive PEB recast (refonte) : Directive 2010/31/UE du parlement européen et du conseil du 19 mai 2010 sur la performance énergétique des bâtiments.

Lien vers la directive

Cette directive évalue la Performance Energétique des Bâtiments comme :« La quantité d’énergie calculée ou mesurée nécessaire pour répondre aux besoins énergétiques liés à une utilisation normale du bâtiment, ce qui inclut entre autres l’énergie utilisée pour le chauffage, le système de refroidissement, la ventilation, la production d’eau chaude et l’éclairage. »

Elle impose que :

  • pour le 31 décembre 2018 tous les nouveaux bâtiments occupés par une autorité publique soient à consommation d’énergie quasi nulle : NZEB (Nearly Zero Energy Building) = Q-ZEN (quasi – Zéro ENergie).
  • pour le 31 décembre 2020  tous les nouveaux bâtiments soient à consommation d’énergie quasi nulle : NZEB (Nearly Zero Energy Building) = Q-ZEN (Quasi – Zéro ENergie).

Un bâtiment à consommation d’énergie quasi nulle est :

« un bâtiment qui a des performances énergétiques très élevées. La quantité quasi nulle ou très basse d’énergie requise devrait être couverte dans une très large mesure par de l’énergie produite à partir de sources renouvelables, notamment l’énergie produite à partir de sources renouvelables sur place ou à proximité »

L’énergie produite à partir de sources renouvelables désigne ici :

« Une énergie produite à partir de sources non fossiles renouvelables, à savoir l’énergie éolienne, solaire, aérothermique, géothermique, hydrothermique, marine ou hydroélectrique, biomasse, gaz de décharge, gaz des stations d’épuration d’eaux usées et biogaz »

La directive impose à chacun des États-Membres de définir en droit national ou régional :

  • une méthode de calcul de la Performance Energétique des Bâtiments ;
  • des exigences minimales relatives à la performance énergétique des bâtiments neufs et des bâtiments existants faisant l’objet de travaux de rénovation importants;
  • des systèmes de certification de la P.E.B.;
  • des exigences concernant l’inspection régulière des chaudières et des systèmes de climatisation.

Conformément à la Directive, un certificat attestant la performance énergétique doit ainsi être délivré à chaque moment-clé de la vie des bâtiments résidentiels ou non résidentiels :

  • lors de leur construction ;
  • lors de leur vente ;
  • lors de leur location.

Le certificat a une durée de validité de 10 ans.

Tous les bâtiments de plus de 250 m² occupés par les pouvoirs publics et fréquemment visités par le public doivent être certifiés et le certificat de performance énergétique doit être affiché à un emplacement et d’une manière clairement visible pour le public.

En Belgique, ce sont les autorités régionales qui sont compétentes en matière d’énergie. Ainsi, chacune des régions a dû implémenter la dernière version de la directive. En Région Wallonne, un nouveau décret PEB (recast) fixait, en 2013,  le cadre global de l’application de la directive sur la Performance Energétique des bâtiments.

Lien vers le décret du 28 novembre 2013 relatif à la performance énergétique des bâtiments

Un arrêté du Gouvernement wallon (AGW) met en application concrète le décret. Depuis 2014, il a été modifié et complété par trois nouveaux AGW :

  • AGW Méthode 2016 : Arrêté du Gouvernement wallon du 19 novembre 2015, qui vise uniquement à remplacer l’annexe A1 Méthode PER 2016).
  • AGW NZEB : Arrêté du Gouvernement wallon du 28 janvier 2016, qui vise principalement à définir les exigences d’un bâtiment quasi zéro énergie (Q-ZEN), à insérer les annexes A3 (Méthode PEN) et C4 (exigences systèmes), ainsi qu’à remplacer l’annexe C1 (exigences U/R des parois.
  • AGW Méthode 2017 : Arrêté du Gouvernement wallon du 15 décembre 2016, qui vise principalement à remplacer l’annexe A1 (Méthode PER 2017), l’annexe A3 (Méthode PEN 2017) et annexe B1 (DRT 2017).

L’AGW PEB coordonné est disponible via ce lien


La méthode PEN

La méthode PEB pour déterminer le niveau de consommation d’énergie primaire des unités non résidentielles neuves est appelée méthode PEN.

Depuis le 1er janvier 2017, cette méthode est d’application pour toutes les destinations autres que le logement individuel. Les unités industrielles ne sont cependant pas concernées par la méthode PEN.

A partir de 2017, la réglementation prévoit une subdivision supplémentaire des secteurs énergétiques en parties fonctionnelles. Elles sont caractérisées par des fonctions qui ont des paramètres différents :

  • les horaires d’occupation ;
  • les températures intérieures de consigne ;
  • les gains internes dus aux personnes et aux appareils ;
  • les besoins nets annuels pour l’eau chaude sanitaire ;
  • la quantité d’humidité à produire ;
  • le temps de fonctionnement de la ventilation ;
  • le nombre d’heures d’utilisation par mois (en périodes diurne et nocturne) pour l’éclairage ;
  • le niveau de confort lumineux.

Les équations utilisées dans la méthode PEN contiennent pour chaque partie fonctionnelle des valeurs dépendant de la fonction.


Exigences

  •  Umax : coefficient de transmission thermique maximal pour chaque paroi de déperdition [W/m²°K].  Plus la paroi est isolée, plus la valeur U est faible. Les valeurs maximales à satisfaire sont renseignées dans l’Annexe C1 de la PEB.
  • Niveau K : niveau global d’isolation. Ce niveau K définit l’isolation thermique globale d’un bâtiment. Plus il est petit, meilleur est l’isolation. Le niveau K est déterminé par les caractéristiques d’isolation thermique des éléments de construction et la compacité du bâtiment. (Annexe 3).
  • Niveau E : niveau de consommation en énergie primaire du bâtiment (Annexes 1 et 2).
  • Ventilation : débits minimaux et dispositifs à prévoir (Annexes C2 et C3).
  • Surchauffe : Pour le résidentiel un critère sur le risque de surchauffe est aussi à respecter. Une probabilité d’avoir un refroidissement actif doit être calculé sur base d’un indicateur de surchauffe.

Les exigences sont renforcées en 2019 pour les bâtiments publics et en 2021 pour les autres bâtiments.

Les bâtiments soumis à permis d’urbanisme en Région Wallonne doivent, au Ier janvier 2017, répondre aux exigences suivantes :

NATURE DES TRAVAUX SOUMIS À PERMIS
Valeurs
U
Niveau
K
Niveau
EW
Consommation
spécifique
Ventilation Surchauffe
U K EW Espec V S
Procédure
AVEC
responsable PEB
Bâtiment neuf
ou
assimilé
PER Maisons
unifamiliales
Appartements
< Umax < K35
+ nœuds constructifs
65
(a)
115
kWh/m²an
(b)
Annexe
C2
< 6  500
kh
PEN Bureaux
Services
Enseignement
Hôpitaux
HORECA
Commerces
Hébergements
collectifs
90/65

(1)(c)

Annexe
C3
I Industriel

< K55
+ nœuds constructifs

Rénovation
importante
uniquement
éléments modifiés
(2)
Procédure
SANS
responsable PEB
Déclaration
PEB
simplifiée

Rénovation simple y compris
changement d’affectation

chauffé > chauffé

< Umax
des éléments modifiés et
neufs
(2)

Changement d’affectation

non chauffé > chauffé

< K65
+ nœuds
constructifs
Annexe
C2 ou C3

(1) La performance de l’unité PEN est calculée au prorata des exigences (90 ou 65) propre à chacune des parties fonctionnelles.

(2) Amenées et extraction d’air dans les nouveaux locaux et amenées d’air dans les locaux existants si porte et/ou fenêtre remplacée.

(a) Devient 45 à partir du 1er janvier 2021

(b) Devient 85 kWh/m²an à partir du 1er janvier 2021

(c) Devient 90/45 à partir du 1er janvier 2019 pour les bâtiments publics, à partir du 1er janvier 2021 pour les autres bâtiments.

Tableau des exigences des valeurs Umax :

Élément de construction Umax [W/m²K]
Parois délimitant le volume protégé
Toitures et plafonds 0.24
Murs (1) 0.24
Planchers (1) 0.24
Portes et portes de garage 2.00

Fenêtres:
– Ensemble de châssis et vitrage
– Vitrage uniquement

1.50
1.10

Murs-rideaux :
– Ensemble de châssis et vitrage
– Vitrage uniquement
2.00
1.10
Parois transparentes / translucides autres que le verre :
– Ensemble de châssis et partie transparente
– Partie transparente uniquement
(ex: coupole de toit en polycarbonate, …)
2.00
1.40
Brique de verre 2.00
Parois entre 2 volumes protégés situés sur des parcelles adjacentes (2) 1.00
Parois opaques à l’intérieur du volume protégé ou adjacentes à un volume protégé sur la même parcelle (3) 1.00

(1) Pour les parois en contact avec le sol, la valeur U tient compte de la résistance thermique du sol et doit être calculée conformément aux spécifications fournies à l’annexe 3 de l’Arrêté. Les exigences Rmin n’existent plus.

(2) A l’exception des portes et fenêtres.

(3) Parois opaques (à l’exception des portes et portes de garage):

  • entre unités d’habitation distinctes ;
  • entre unités d’habitation et espaces communs (cage d’escaliers, hall d’entrée, couloirs, …) ;
  • entre unités d’habitation et espaces à affectation non résidentielle ;
  • entre espaces à affectation industrielle et espaces à affectation non industrielle.

Méthode de calcul EW des unités PEN

ou :

  • EW :  l’exigence de niveau EW pour l’unité PEN
  • Ach,fct f :  la surface de plancher chauffé ou climatisé de chaque fonction f
  • Ech,fct f :  l’exigence EW pour chaque fonction f
  • Ach : la surface de plancher chauffé ou climatisé de l’unité PEN

Il faut faire la somme de toutes les fonctions de l’unité PEN.

Fonctions dans l’unité PEN EW, fct f
Hébergement 90
Bureau 65 (a)
Enseignement 65 (a)
Soins de santé Avec occupation nocturne 90
Sans occupation nocturne 90
Salle d’opération 90
Rassemblement Occupation importante 90
Faible occupation 90
Cafétéria / réfectoire 90
Cuisine 90
Commerce / service 90
Installations sportives Hall de sport / Salle de gymnastique 90
Fitness / Danse 90
Sauna / Piscine 90
Locaux techniques 90
Communs 90
Autre 90
Inconnue 90

(a) devient 45 à partir du 1er janvier 2019 pour les bâtiments publics, à partir du 1er janvier 2021 pour les autres bâtiments.

Exigences des systèmes

Depuis le 1er mai 2016, des exigences s’appliquent aux systèmes (chauffage, eau chaude sanitaire, climatisation, ventilation).

Travaux soumis à permis ou non Performance Calorifugeage Comptage énergétique
Bâtiments existants Installation
Modernisation
Remplacement

Exigence systèmes – Annexe C4

– Chaudières gaz
– Chaudières mazout
– Pompes à chaleur
– Chauffage électrique direct
– ECS électrique

– Machines à eau glacée

– Récupérateur de chaleur

 

– Conduites d’eau chaude

– Conduites d’eau glacée

– Conduits d’air

– Comptage par installation

– Comptage entre bâtiments

– Comptage entre unités PEB

Bâtiments à reconstruire et assimilés(2) Installation

Uniquement(1):

– Comptage entre bâtiments

– Comptage entre unités PEB


En pratique

La procédure administrative relative aux exigences P.E.B. pour bâtiment neuf est essentiellement liée à la procédure de permis d’urbanisme. Elle est divisée en deux étapes :

  • la déclaration P.E.B initiale avec étude de faisabilité
  • la déclaration P.E.B. finale avec établissement du certificat PEB.
Moment

 

Etapes de la procédure Définition
Dépôt de la demande de permis1.

DÉCLARATION PEB INITIALE

Document qui reprend une description succincte des principaux dispositifs et une estimation de la performance énergétique du bâtiment.
Au plus tard dans les 12 mois de l’occupation du bâtiment ou de l’achèvement du chantier et, en tout cas au terme du délai de validité du permis. DÉCLARATION PEB FINALE Document qui reprend le résultat final et réel de la performance énergétique du bâtiment et décrit les mesures réellement mises en œuvre pour atteindre cette performance.

1 Une étude de faisabilité  technique, environnementale et économique de systèmes alternatifs doit être réalisée avant l’introduction de la demande de permis d’urbanisme.

Quatre acteurs (définis dans le code wallon) interviennent dans la procédure P.E.B. :

  • Déclarant P.E.B. : il est la personne physique ou morale tenue de respecter les exigences P.E.B. Il est en général le maître d’ouvrage ou l’acquéreur.
  • Responsable P.E.B. : il est la personne, physique ou morale, désignée par le déclarant  (soit, par défaut, l’architecte, soit une personne agréée par le Gouvernement Wallon). Il est le responsable de la conception et des mesures mises en œuvre pour atteindre les exigences P.E.B. jusqu’à l’exécution des travaux. Il est aussi responsable de la rédaction de ces engagements.
  • Auteur de l’étude de faisabilité (agréé par le GW et désigné par le déclarant). Ce peut être le responsable PEB lorsque le bâtiment compte moins de 1000 m² de surface utile.
  • Le certificateur P.E.B. (agréé par le GW et désigné par le déclarant) pour bâtiments existants.

Des dispositifs de contrôle et des sanctions ont été prévus (Annexe E):
Les contrôles sont effectués par la commune (contrôle succinct lors de l’introduction de la demande de permis) ou la Division de l’Énergie (SPW Territoire, Logement, Patrimoine, Energie) par coups de sonde sur chantier.
En cas de non respects des exigences, des amendes administratives (vers le demandeur, déclarant et/ou responsable PEB) sont de mises. On évaluera aussi la possibilité de réaliser des travaux de mise en conformité.


Documents de référence

La réglementation actuelle comprend 9 annexes déterminant les exigences et les différentes méthodes de calcul :

  • ANNEXE 1 – Méthode PER : Méthode de détermination du niveau de consommation d’énergie primaire des unités résidentielles.
  • ANNEXE 2 – Méthode PEN : Méthode de détermination du niveau de consommation d’énergie primaire des unités non résidentielles
  • ANNEXE 3 – DRT : Document de référence pour les pertes par transmission. Règles pour le calcul des pertes par transmission dans le cadre de la réglementation PEB. Calcul du coefficient de transmission thermique des parois des bâtiments (valeur U) et du coefficient de transfert thermique par transmission dans les bâtiments (valeur H).
  • ANNEXE B2 – NC : Traitement des nœuds constructifs.
  • ANNEXE C1 – UR : Valeurs U maximales admissibles ou valeurs R minimales à réaliser.
  • ANNEXE C2 – VHR : Dispositifs de ventilation dans les bâtiments résidentiels.
  • ANNEXE C3 – VHN : Dispositifs de ventilation dans les bâtiments non résidentiels.
  • ANNEXE D – CRE : Méthode de détermination de la consommation spécifique des bâtiments résidentiels dans le cadre de la certification PEB.
  • ANNEXE E – SCT : Détermination des amendes administratives.

L’ensemble de ces documents sont accessibles sur le site : http://energie.wallonie.be/fr/performance-energetique-des-batiments.html?IDC=6148

De manière accessible et pratique, le guide sur la Performance Énergétique des Bâtiments réalisé par l’ULg (CIFFUL) et avec le soutien du SPW est disponible sur le site : http://www.leguidepeb.be/

Annexe C3 de la PEB: dispositifs de ventilation des immeubles non résidentiels

Date : juin 2008
Auteur : B.J.
Sources :
* L’annexe VI de la PEB
* Confer farde sur les normes

Passée sous antidote?

* Oui

Compléter la biblio!!!!

 

Mise en page ok : Sylvie

30-03-2009 : Application des nouveaux styles de mise en page. Julien.

 

Domaine d’application

La réglementation wallonne en matière de ventilation est désormais intégrée à l’arrêté sur la performance énergétique des bâtiments (PEB), d’application depuis le 1er septembre 2008.
Depuis lors, les bâtiments résidentiels (habitations et appartements) doivent respecter l’annexe C2 qui se base sur la NBN D 50-001 (Dispositifs de ventilation dans les bâtiments d’habitation) en en modifiant ou en précisant certains articles.
Les bâtiments non résidentiel, quant à eux (immeubles de bureaux et de services, les bâtiments destinés à l’enseignement, hébergement, horeca,… hors industrie), doivent respecter l’annexe C3 qui se base essentiellement sur la NBN EN 13779 (ventilation dans les bâtiments non-résidentiels).
Les bâtiments doivent satisfaire, lors de leur construction, aux exigences de ventilation telles que déterminées à l’annexe C2 ou C3. Les bâtiments ou parties de bâtiments qui, par changement d’affectation, acquièrent une nouvelle destination, sont également soumis à ces exigences pour la partie du bâtiment subissant le changement d’affectation. Les bâtiments faisant l’objet de travaux de rénovation (importants ou simples), doivent satisfaire aux exigences de ventilation relatives aux amenées d’air telles que déterminées à l’annexe C2 ou C3 pour les locaux où les châssis de fenêtres ou de portes extérieurs sont remplacés.

Sommaire

1

Objet

2 Domaine d’application

3

Références normatives

4

Définitions

5

Symboles et unités

6

Expression des exigences et détermination des performances des systèmes de ventilation

6.1

Expression des exigences

6.2

Détermination des performances

6.3

Expressions d’exigences complémentaires

6.3.1

Conditions de pression

6.3.2

ventilation des espaces de toilette

6.4

Ventilation des espaces spéciaux

7

Niveaux de performance minimaux

7.1

Qualité de l’air intérieur

7.2

Débits de ventilation

7.2.1

Dans les espaces destinés à l’occupation humaine

7.2.2

Dans les espaces non destinés à l’occupation humaine

7.3

Qualité de l’air des débits d’alimentation

7.4

Régulation de la qualité de l’air

7.5

Conditions de pression dans les espaces ou les bâtiments

7.6

Consommation d’énergie des ventilateurs

7.7

Dimensionnement des bouches d’air
7.8 Possibilité de réglage des bouches d’air
7.9 Évacuation pour ventilation naturelle
7.10 Nature des dispositifs de transfert d’air montés en intérieur
7.11 Pénétration d’animaux indésirables par les bouches d’alimentation d’un système de ventilation naturelle ou de ventilation mécanique simple flux par extraction
7.12 Pénétration d’eau par les bouches d’alimentation des systèmes de ventilation naturelle ou de ventilation mécanique simple flux par extraction
7.13 Diffusion de l’air dans la zone d’occupation

Conditions de pression

Pour calculer les conditions de pression, dans un bâtiment ou une partie de bâtiment, résultant de la différence entre le débit d’air fourni et le débit d’air repris, la formule suivante doit être utilisée :

Δq = qv,supply – qv,extract
PC = sign (Δq).(abs(Δq)/V50)1/0,65.50
où,
  • PC = conditions de pression [Pa]
  • qv,supply = débit d’air fourni [m³.h-1]
  • qv,extract = débit d’air repris [m³.h-1]
  • V50 = débit de fuite d’air du bâtiment ou d’une partie du bâtiment à 50 Pa, déterminé conformément à la norme NBN EN 13829 [m³.h-1]

Dans un bâtiment, les conditions de pression ne peuvent pas être inférieures à -5 Pa ou supérieures à 10 Pa. Pour effectuer le calcul, on prend une valeur de débit de fuite V50 égale au volume (V) calculé sur base des dimensions extérieures en m ou de la partie de bâtiment considérée.

Qualité de l’air intérieur et débit de conception minimal

L’annexe C3 impose une qualité d’air minimale correspondant à la catégorie « INT3 » telle que défini dans la norme NBN EN 13779. Cette exigence revient à imposer les débits de conception minimaux suivant :

Pièce servant à une occupation humaine type

Dans le cas d’un travail normal dans un bureau ou dans une maison avec un rapport métabolique voisin de 1,2, le débit minimal devra être de :

  • 6 l.s-1 soit 22 m³.h-1.personne-1 dans les zones non-fumeurs
  • 12 l.s-1 soit 43 m³.h-1.personne-1 dans les zones fumeurs

Ces débits tiennent compte du métabolisme humain aussi bien que des émissions types dans les bâtiments à faible pollution. Si l’activité métabolique est élevée (met>1,2), il convient d’augmenter les débits fournis d’un facteur met/1,2.

Pièce non destinée à l’occupation humaine

Dans ce cas, le débit minimal s’exprime en mètre cube par heure et par surface de plancher :

  • 0,35 l.s-1 soit 1,3 m³.h-1.m-2

Cette valeur a été déterminée sur base d’une période d’activité de 50 % et une hauteur de plafond de 3 mètres. Pour des périodes d’activités plus courtes et des hauteurs de plafond plus élevées, il convient que le débit d’air soit plus élevé.

Espace de toilette

On détermine le débit de conception des espaces de toilette en fonction du nombre de WC (y compris les urinoirs).
Si le nombre de WC n’est pas connu, le débit de conception des toilettes sera déterminé sur base de leur surface au sol.
Le débit de conception devra être de :

  • 25 m³.h-1 par WC
  • 15 m³.h-1 par m² au sol si le nombre de WC n’est pas connu au moment du dimensionnement du système de ventilation

Salle de douche et salle de bain

Le débit de conception minimal est déterminé par la surface plancher :

  • 5 m³.h-1.m-2

Avec un minimum de 50m³.h-1 par espace.

Détermination de l’occupation humaine d’un local

Le débit de conception minimal dans les espaces destinés à l’occupation humaine doit être déterminé sur base du tableau 11 de l’annexe A de la norme NBN EN 13779 (Taux d’air neuf par personne). Pour cela, on se base sur l’occupation prévue par l’équipe de conception du bâtiment.
Toutefois,

  • si l’occupation prévue d’un espace est inférieure à la valeur déterminée selon le tableau ci-dessous,
  • ou si l’équipe de conception elle-même ne détermine pas l’occupation prévue,

alors la détermination du débit de conception minimal devra prendre en considération l’occupation déterminée selon le tableau ci-dessous. Lorsque l’on détermine l’occupation à l’aide de ce tableau, il faut déterminer l’occupation à l’aide de ce tableau, il faut arrondir le nombre de personnes obtenu à l’unité supérieure.

Type d’occupation Surface au sol par personne [m²/personne]
Horeca
Restaurants, cafétéria, buffet rapide, cantine, bars, cocktail-bar
1.5
Cuisines, kitchenettes
10
Hôtels, motels, centres de vacances
Chambres à coucher d’hôtel, de motel, de centre de vacances, …
10
Dortoirs de centres de vacances
5
Lobby, hall d’entrée
2
Salle de réunion, espace de rencontre, salle polyvalente
2
Immeubles de bureaux
Bureau
15
Locaux de réception, réception, salles de réunions
3.5
Entrée principale
10
Lieux publics
Hall des départs, salle d’attente
1
Bibliothèque
10
Lieux de rassemblement publics
Église et autres bâtiments religieux, bâtiments gouvernementaux, salles d’audience, musées et galeries
2.5
Commerce de détail
Local de vente, magasin (sauf centres commerciaux)
7
Centre commercial
2.5
Salon de coiffure, institut de beauté
4
Magasins de meubles, tapis, textiles…
20
Supermarché, grand magasin, magasin spécialisé pour animaux
10
Laverie automatique
5
Sports et loisirs
Hall de sport, stades (salle de jeu), salle de gymnastique
3.5
Vestiaires
2
Espace de spectateurs, tribunes
1
Discothèque/dancing
1
Club sportif : salles d’aérobic, salle de fitness, club de bowling
10
Locaux de travail
Studio de photographie, chambre noire…
10
Pharmacie (local de préparation)
10
Salle des guichets dans les banques / salle des coffres destinée au public
20
Local de photocopie / local des imprimantes
10
Local informatique (sans local des imprimantes)
25
Établissements d’enseignement
Salles de cours
4
Salle polyvalente
1
Soins de santé
Salle commune
10
Salles de traitement et d’examen
5
Salles d’opération et d’accouchement, salle de réveil et soins intensifs, salle de kinésithérapie, de physiothérapie
5
Établissements pénitentiaires
Cellules, salle commune
4
Postes de surveillance
7
Inscription / enregistrement / salle de garde
2
Autres espaces
Magasin de stockage
100
Autres espaces
15

Qualité de l’air des débits intérieurs

Le débit d’alimentation de conception minimal doit être réalisé avec de l’air neuf. Tous les débits supplémentaires peuvent être réalisés avec de l’air neuf, de l’air recyclé ou de l’air transféré.
Les espaces non destinés à l’occupation humaine font exception à cette règle. Dans ce cas, selon la norme NBN13779, le débit d’alimentation de conception peut être entièrement réalisé avec de l’air repris possédant :

  • un niveau de pollution faible (REP 1) : Air des pièces où les sources d’émission principales sont les structures et les métaux du bâtiment, et l’air provenant des pièces occupées où les sources principales sont le métabolisme humain et les matériaux et structures du bâtiment. Les pièces où il est autorisé de fumer sont exclues.
  • un niveau de pollution modéré (REP 2) : Air provenant de pièces occupées qui contiennent plus d’impuretés que la catégorie 1 provenant des mêmes sources et/ou également des activités humaines. Pièces devant autrement faire partie de la catégorie REP 1 mais où il est permis de fumer.

Régulation de la qualité de l’air

Les systèmes de ventilation mécaniques équipés d’un système de régulation appartenant à l’une des catégories suivantes sont interdits :

  • Sans régulation, le système fonctionne constamment
  • Régulation manuelle, le système fonctionne selon une commutation manuelle

De même, les systèmes de régulation basés sur la température de l’air et qui permettent de réduire le débit de ventilation sous le débit minimal ne sont pas autorisés.

Consommation d’énergie des ventilateurs

La puissance spécifique des ventilateurs doit appartenir à l’une de ces 3 catégories :

  • catégorie 1 : moins de 500 W.m-3.s
  • catégorie 2 : entre 500 et 750 W.m-3.s
  • catégorie 3 : entre 750 et 1250 W.m-3.s

Dimensionnement des bouches d’air

Bouche d’alimentation

Les bouches d’alimentation d’un système de ventilation naturelle ou d’un système de ventilation mécanique simple flux par extraction sont dimensionnées pour une différence de pression :

  • de 2 Pa maximum dans le cas général
  • pouvant être de 10 Pa maximum si l’espace est pourvu d’une extraction mécanique. Sauf si cet espace accueille un appareil à chambre de combustion ouverte raccordé à un conduit d’évacuation.

Bouche d’extraction

Les bouches d’extraction d’un système de ventilation naturelle ou d’un système de ventilation mécanique simple flux par insufflation sont dimensionnées pour une différence de pression :

  • de 2 Pa maximum dans le cas général
  • pouvant être de 10 Pa maximum si l’espace est pourvu d’une alimentation mécanique

Dispositifs de transferts d’air montés en intérieur

Ceux-ci doivent être dimensionnés pour une différence de pression maximale de :

  • 2 Pa en général
  • 10 Pa si un des deux espaces au moins est pourvu d’un système de ventilation mécanique

Possibilité de réglage des bouches d’air

Les dispositifs de transfert d’air montés en intérieur doivent être fixes (non réglables).
Les bouches d’alimentation pour système de ventilation naturelle ou système de ventilation mécanique simple flux par extraction et les bouches d’évacuation pour systèmes de ventilation naturelle ou système de ventilation mécanique simple flux par insufflation doivent être dotées d’un réglage manuel ou automatique. Elles doivent pouvoir être réglées en suffisamment de positions intermédiaires entre les positions « Fermée » et « Complètement ouverte ». Ce réglage peut se faire soit en continu, soit via au moins 3 positions intermédiaires entre les positions « Fermée » et « Complètement ouverte ».

Évacuation pour ventilation naturelle

Les bouches d’évacuation destinées à la ventilation naturelle sont raccordées à un conduit d’évacuation qui débouche au-dessus du toit. Les conduits d’évacuation doivent avoir un tracé vertical autant que possible. Des déviations de maximum 30° par rapport à la verticale sont admises.
Les conduits d’évacuation et les accessoires sont dimensionnés par une vitesse maximale de l’air de 1 m.s-1.

Nature des dispositifs de transfert d’air monté en intérieur

Les fentes sous les portes intérieures peuvent être considérées comme des dispositifs de transfert d’air pour autant que la plus petite dimension de la fente soit au moins de 5 mm (la hauteur de la fente est mesurée à partir du niveau du plancher fini ; si la finition de plancher n’est pas connue, on suppose qu’elle a une épaisseur de 10 mm). Dans ce cas, il faut tenir compte d’un débit de:

  • 0,36 m³.h-1 par cm² de fente pour une différence de pression de 2 Pa ;
  • 0,80 m³.h-1 par cm² de fente pour une différence de pression de 10 Pa.

Pénétration d’eau par les bouches d’alimentation des systèmes de ventilation naturelle ou de ventilation mécanique simple flux par extraction

Pour empêcher dans la mesure du possible l’infiltration d’eau par une bouche d’alimentation d’un système de ventilation naturelle ou par une bouche d’alimentation d’un système de ventilation mécanique simple flux par extraction, il est recommandé de ne pas avoir de pénétration d’eau possible pour une différence de pression inférieure ou égale à 150 Pa en position « Fermée » et pour une différence de pression inférieure ou égale à 20 Pa en position « Complètement ouverte ».
Pour les fenêtres qui sont spécifiquement conçues comme bouche d’alimentation, la position « Complètement ouverte » doit être comprise comme la position d’ouverture maximale pour la ventilation (et non la position d’ouverture maximale de la fenêtre).
En l’absence de normes spécifiques, la détermination de l’étanchéité à l’eau des bouches d’alimentation s’effectue selon la norme NBN EN 13141-1.
Les prescriptions suivantes sont en outre d’application :

  • La bouche d’alimentation doit être installée conformément aux instructions du fournisseur dans un panneau qui présente l’épaisseur du support sur lequel la bouche d’alimentation sera placée en conditions réelles, par exemple :
    • panneau d’une épaisseur de 20mm dans le cas d’un vitrage ;
    • panneau d’une épaisseur de 60mm dans le cas d’un châssis de fenêtre ;
    • panneau d’une épaisseur de 300mm dans le cas d’un mur.
  • L’épaisseur du panneau sera mentionnée dans le rapport.
  • Conformément à la norme NBN EN 13141-1, les tests sont effectués selon la norme NBN EN 1027. La méthode d’essais retenue est la méthode 1A.
  • Pour les bouches d’alimentation qui ont des dimensions variables, les tests doivent être effectués sur un échantillon dont la mesure-jour de chaque dimension variable est de 1 m. Si la dimension maximale disponible est plus petite que 1 m, le test doit être effectuée sur un échantillon dont la dimension est maximale.

Pénétration d’animaux indésirables par les bouches d’alimentation d’un système de ventilation naturelle ou de ventilation mécanique simple flux par extraction

Pour empêcher dans la mesure du possible la pénétration d’animaux indésirables par une bouche d’alimentation d’un système de ventilation naturelle ou par une bouche d’alimentation d’un système de ventilation mécanique simple flux par extraction, il est recommandé qu’il ne soit pas possible de faire passer les objets suivants à travers la bouche d’alimentation, soit depuis l’intérieur vers l’extérieur, soit dans l’autre sens :

  • une petite boule en métal avec un diamètre de 4 mm
  • un petit disque en métal avec un diamètre de 10 mm et une épaisseur de 3 mm

Cette exigence est valable pour chaque position d’ouverture.

Diffusion de l’air dans la zone d’occupation

Pour éviter dans la mesure du possible des problèmes de confort, il est recommandé que la partie inférieure des bouches d’alimentation d’un système de ventilation naturelle et des bouches d’alimentation d’un système de ventilation mécanique simple flux par extraction soit placée à une hauteur d’au moins 1.80 m au dessus du niveau du plancher fini.

Ateliers

Ateliers


Éclairage naturel et baies vitrées

Dans les ateliers, les tâches de travail peuvent vite devenir dangereuses lorsque le risque d’éblouissement est important. Intuitivement, on essayera d’ouvrir les façades orientées au nord pour la simple raison que la lumière naturelle côté nord est essentiellement une lumière diffuse avec un niveau d’éclairement relativement continu en journée. Mais les contraintes d’orientation ne peuvent pas toujours être maîtrisées :

  • En rénovation, les façades orientées au nord ne sont pas toujours disponibles à l’ouverture vers la lumière naturelle.
  • En conception nouvelle, le bâtiment ne peut pas toujours être orienté avec ses larges façades au nord.

Des alternatives intéressantes à considérer sont les ouvertures de toiture :

Photo ouvertures de toiture.

Les ouvertures de type coupole représentent un potentiel important d’éclairage naturel mais avec son lot d’inconvénients comme, par exemple, l’éblouissement zénithal et la surchauffe en été.

Photos baies vitrées de type sheds.

Les baies vitrées de type sheds orientées au nord permettent de maîtriser la surchauffe et l’éblouissement d’été. Elles offrent bien d’autres avantages comme, par exemple, la possibilité de coupler l’éclairage naturel côté nord aux panneaux photovoltaïques placés sur le versant des sheds côté sud.


Les ouvertures verticales en toiture

Ouvertures verticales en toiture.

Début du siècle dernier, voire bien avant, ce type d’ouverture existait déjà. Nos ancêtres étaient bien inspirés en regard du confort visuel. Cependant, d’un point de vue thermique, les performances du simple vitrage et l’étanchéité des châssis ne permettaient pas des performances énergétiques géniales !

À l’heure actuelle, les performances thermiques des sheds deviennent très bonnes, ce qui permet à ceux-ci de pouvoir jouir d’une seconde jeunesse !

La mise en œuvre des sheds en conception nécessite quand même de respecter l’orientation nord-sud, et ce dans une « fourchette angulaire » relativement restreinte de manière à éviter les surchauffes et les éblouissements directs. De plus, d’un point de vue conceptuel, les sheds doivent être alignés sur la trame de la structure portante (alignement parallèlement ou perpendiculairement au rythme des poutres principales par exemple). Cette remarque montre la limite que l’on peut vite atteindre en cas de rénovation simple.

Schéma ouvertures verticales en toiture.

Les ouvertures verticales orientées vers le nord de type sheds apparaissent comme une solution très intéressante si l’on parvient à maîtriser le rayonnement solaire direct en début de matinée.

Le shed est intéressant sur plusieurs aspects. Il présente des avantages et inconvénients résumés dans le tableau suivant :

Avantages Inconvénients
  • Éclairage naturel uniforme et constant sans risque d’éblouissement pour les expositions au nord.
  • Ventilation intensive naturelle possible et efficace en règle générale.
  • Possibilité de combinaison d’une ventilation naturelle avec la fonction de désenfumage (exutoire de fumée sur certain châssis vitrés.
  • Support d’éventuels panneaux solaires photovoltaïques.
  • Récupération de surfaces internes contre les façades (pour le stockage par exemple).
  • Meilleure isolation que les voutes filantes ou les coupoles en général.
  • Une surface de déperdition plus importante.
  • Coûts de mise en œuvre de la toiture plus importants (cependant, partiellement compensés par la réduction des surfaces vitrées en façade).
  •  …

Les lanterneaux

Photo lanterneaux.

Les lanterneaux étaient et restent les ouvertures zénithales les plus répandues. On peut arriver à des performances énergétiques proches de celles des doubles vitrages plans par l’utilisation de polycarbonates double voire triple couche. Cependant, la surchauffe et l’éblouissement sont les ennemis du lanterneau. Pour limiter le risque d’éblouissement direct et la surchauffe, un vitrage opalin est recommandé. La transmission lumineuse du vitrage est cependant fortement diminuée et la relation avec l’extérieur altérée (plus de possibilités d’analyser la couleur du ciel).

De manière générale, l’ouverture zénithale avec un lanterneau présente des avantages et inconvénients résumés dans le tableau suivant :

Avantages Inconvénients
  • Éclairage naturel intéressant pour toutes les expositions.
  • Ventilation intensive naturelle possible et efficace en règle générale.
  • Possibilité de combinaison d’une ventilation naturelle avec la fonction de désenfumage (exutoire de fumée sur certains châssis vitrés.
  • Récupération de surfaces internes contre façades (pour le stockage par exemple).
  • Une surface de déperdition plus importante.
  • Coûts de mise en œuvre de la toiture plus importants (cependant, partiellement compensés par la réduction des surfaces vitrées en façade).
  • Risque de surchauffe et d’éblouissement direct.

Quantification de l’apport en éclairage naturel

Nous proposons ici, une étude théorique de l’apport en éclairage naturel de plusieurs solutions qui peuvent être envisagées dans un ateliers.

Quantitativement, l’apport en lumière naturelle au travers de différents types de baies vitrées passe par l’appréciation :

  • Du FLJ ou Facteur de Lumière du Jour. Le FLJ permet d’objectiver la qualité de la baie vitrée indépendamment de l’orientation, des conditions climatiques… On peut en tirer des enseignements quant à l’homogénéité de l’éclairage naturel, de la performance de la baie vitrée par rapport à sa taille, sa position dans la façade ou dans la toiture…
  • De l’autonomie en lumière du jour qui donne une idée relativement précise des consommations d’éclairage artificiel comme complément à l’éclairage naturel.

Un FLJ compris entre 3 et 5 % est en général un gage de bonne qualité de la lumière naturelle dans le local considéré. Dans la même optique, une autonomie en lumière naturelle de l’ordre de 50-60 % augure une bonne indépendance vis-à-vis de la lumière artificielle.

La quantification ne peut se réaliser que par l’utilisation d’outils de simulation dynamique en éclairage naturel. Des logiciels comme ECOTECH et DAYSIM.

Hypothèses de modélisation

La modélisation s’effectue en tenant compte de la volumétrie du projet de conception et des hypothèses sur :

  • L’horaire d’occupation : 06h00 à 22h00 ;
  • Le niveau d’éclairement : 300 lux à 0,80 m ;
  • Transmission lumineuse du vitrage : 70 % ;
  • Les coefficients de réflexion des parois internes :
  • Plafond : 40 %
  • Murs : 40 %
  • Dalle : 20 %

Simulation 1 : ouvertures verticales vers le nord en toiture

Schéma ouvertures verticales vers le nord en toiture.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 99 m²
  • Surface nette éclairante/surface de la pièce : 10 %
  • Réflecteurs du plafond des sheds : 80 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

1 < FLJ < 2 %

DA < 20 %

(*)

  • FLJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

 Une zone d’ombre au niveau de la façade nord réduit fortement la performance globale du système de « sheds ».

Simulation 2 : Ouvertures verticales vers le nord en toiture + fenêtre verticale en façade

Schéma ouvertures verticales vers le nord en toiture.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 124 m²
  • Surface nette éclairante/surface de la pièce : 13 %
  • Réflecteurs du plafond des sheds : 80 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2 < FLJ < 3 %

DA < 40 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Le placement d’un bandeau vitré en façade nord améliore permet de gommer les zones d’ombre. Globalement, le résultat est meilleur. Ceci dit, de manière pratique, tout dépend la hauteur à laquelle se situe ce bandeau, sachant que dans les ateliers toute surface vitrée en façade reste un inconvénient en termes d’exploitation des m² utiles.

Simulation 3 : ouvertures verticales vers le nord en toiture + fenêtre verticale en façade + optimisation

Schéma ouvertures verticales vers le nord en toiture - 2.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 124 m² ;
  • Surface nette éclairante/surface de la pièce : 13 % ;
  • Réflecteurs du plafond des sheds : 80 % ;
  • Transmission lumineuse du vitrage 80 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2,5 < FLJ < 5 %

DA < 40 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Tout en évitant l’éblouissement et les surchauffes, les sheds à vitrages clairs proposent une solution intéressante pour les ateliers. Le confort visuel y est assuré ! Pour autant que le système d’éclairage artificiel soit géré de manière efficace, les consommations électriques peuvent être réduites de manière significative.

Simulation 4 : voute filante – vitrage opalin  (TL 22 %)

Schéma voûte filante.

Caractéristiques propres aux lanterneaux

  • Surface nette éclairante : 157 m² ;
  • Surface nette éclairante/surface de la pièce : 16,3 % ;
  • Transmission lumineuse du vitrage : 22 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

1 < FLJ < 2 %

DA < 30 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Ce type de configuration ne donne pas lieu à des résultats encourageants. D’autant plus, qu’avec les lanterneaux, on n’évite pas les éblouissements et les surchauffes d’été. En pratique, les occupants des espaces de travail sont obligés de se protéger par des toiles horizontales. Lorsqu’elles sont fixes, l’effet d’éclairage naturel est perdu. La mise en place d’un système de gestion automatique coûte très cher !

Simulation 5 : voute filante – vitrage opalin  (TL 35 %)

Schéma voûte filante - 2.

Caractéristiques propres aux lanterneaux

  • Surface nette éclairante : 157 m² ;
  • Surface nette éclairante/surface de la pièce : 16,3 % ;
  • Transmission lumineuse du vitrage : 35 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2 < FLJ < 3 %

DA < 45 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % .
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

L’augmentation de la transmission lumineuse améliore la situation, mais amplifie aussi l’inconfort d’éblouissement et l’inconfort thermique en été.

Conclusions

De manière générale, les sheds donnent des résultats très intéressants. D’autant plus que la qualité de la lumière naturelle captée par les sheds est excellente pour les raisons déjà évoquées précédemment, à savoir :

  • la source d’éclairage naturel diffuse est relativement constante et pas éblouissante ;
  • les surchauffes dues aux apports directs sont évitées.

Envisager le placement d’un bandeau vitré en façade nord et une augmentation du coefficient de réflexion du plafond amélioration les performances des sheds ;

L’utilisation des lanterneaux permet d’approcher les critères de FLJ et ALJ envisagés (FLJ compris entre 3 et 5 %, ALJ > 50 %). Cependant, l’éblouissement doit être maîtrisé sachant que le rayonnement solaire direct est limité, mais toujours présent. De plus, les surchauffes potentielles ne seront pas évitées.


Quantification en éclairage artificiel

Partant du principe que le confort lumineux doit être assuré en présence ou pas d’éclairage naturel, un complément d’éclairage artificiel est nécessaire. Normativement, le dimensionnement de l’éclairage artificiel s’effectue sans les apports de lumière naturelle. La démarche énergétique d’un système d’éclairage artificiel réside donc dans sa capacité à moduler la puissance installée en fonction de l’éclairage naturel. En effet, pour autant qu’il n’y ait pas d’éblouissement, meilleure l’autonomie en lumière du jour sera, moins fort sera le poids des consommations d’éclairage artificiel pour donner le complément de confort nécessaire.

Dans le cas de l’atelier considéré, le choix du type d’éclairage artificiel et surtout du type de luminaire, passe par une étude de type Dialux permettant de comparer des luminaires entre eux.

Choix du type de luminaire

Quel type de lampe ?

Dans l’atelier de hauteur inférieure à 7-8 m, deux types de source lumineuse ont été envisagées, à savoir :

  • les lampes aux halogénures métalliques ;
  • les tubes fluorescents.

Photo lampes aux halogénures métalliques.

Luminaire à lampe aux halogénures métalliques.

Photo luminaire à lampe aux halogénures métalliques.

Luminaire à tubes fluorescents.

 Quel type de luminaire ?

Luminaire à lampe aux halogénures métalliques.

Luminaire à tubes fluorescents.

Une étude technico-économique peut être réalisée de façon à pouvoir sélectionner la meilleure solution. Il en ressort, que les luminaires à tubes fluorescents sont à préférer. Les principales raisons sont les suivantes :

  • Une grande efficacité énergétique,
  • Un très bon rendu des couleurs,
  • Une durée de vie importante,
  • Un faible coût d’investissement.

De plus, si on les compare aux lampes aux halogénures métalliques, on constate que :

  • Leur faible flux lumineux (4.300 lm pour une lampe de 49 W) les rend moins éblouissantes que les lampes aux halogénures ;
  • De même, elles nécessitent l’installation d’un plus grand nombre de lampes. On obtiendra ainsi une plus grande uniformité d’éclairement qu’avec des lampes à décharge haute pression et une réduction des ombres portées ;
  • Vu le grand nombre de points lumineux, si une lampe est défectueuse, elle ne laissera pas une tache sombre au sol en attendant d’être remplacée ;
  • Elles peuvent être dimées facilement et permettent donc une gestion de commande plus perfectionnée.

Choix du système d’éclairage

En fonction de la géométrie de l’atelier et pour des raisons de modularité, de flexibilité et de rendement, une solution est privilégiée :

  • Une base de 4 rails de ligne lumineuse (utilisé à titre d’exemple dans la modélisation) traversant le hall. Ces rails ont été fixés au-dessus du pont roulant ;
  • Les luminaires sont alors attachés simplement par des verrous quart de tour.

Le câblage spécialement conçu et intégré d’usine dans le rail porteur du luminaire révolutionne la méthode d’installation, la rend variable, nettement plus rapide et plus simple.

 

Coupe transversale d’un rail précablé et luminaire adapté au rail profilé pour un montage rapide.

  

Source : Zumtobel.

Évaluation du niveau d’éclairage artificiel

Modélisation

Schéma modélisation.

La modélisation de l’éclairage artificiel est réalisée pour un niveau d’éclairement souhaité de 300 lux sur base des hypothèses suivantes :

  • Hauteur du plan de travail : 0,80 m
  • Facteur d’entretien : 0,70
  • Facteur de réflexion :
  • Sol : 0,2
  • Mur : 0.5
  • Toit : 0,5
  • Niveau d’éclairement souhaité de 300 lux

 Simulation

  

liste des luminaires
Quantité Désignation (Facteur de maintenance) φ (lm) P (W)
1 60 Tubes fluorescents sur rails lumineux 2 x 49 W T16 8 600 109
Total 516 000 6 540
Puissance installée spécifique : 6,81 W/m² (surface au sol 960 m²)
Puissance installée spécifique : 2,12 W/m²/100 lux (surface au sol 960 m²)

Adaptabilité

La principale caractéristique de ce type d’installation sur rail est de pouvoir accepter tous les luminaires de la gamme et donc on peut alterner différente puissance et dimension de tube.

Il est donc possible d’adapter le nombre et le type de luminaire pour augmenter le niveau d’éclairement souhaité en un point en fonction de l’activité.

Évaluation des consommations d’énergie

L’influence d’une gestion en fonction de la lumière du jour est évaluée, à partir du logiciel LIGHTSWITCH, selon le niveau d’éclairement souhaité et selon le type d’ouverture prévue en toiture.

On considère que l’éclairage est allumé tout les jours de la semaine de 6h00 à 22h00. Le niveau d’éclairement maintenu est de 300 lux sur l’ensemble de l’espace.

Lumière du jour

En conception, l’éclairage est dimensionné sans prendre en compte l’apport de lumière naturelle. Par contre, une gradation automatique commandée en fonction de la lumière du jour permet d’adapter la puissance de l’éclairage en fonction de l’apport de l’éclairage naturel. Un capteur enregistre la quantité de lumière du jour et réduit le flux lumineux de l’éclairage en fonction de leur position par rapport à la fenêtre.

Maintenance control

Les installations d’éclairage doivent être surdimensionnées pour pouvoir remplir les dispositions de la norme EN 12464 en matière d’éclairement minimal à maintenir durant toute l’utilisation. C’est pourquoi on calcule généralement une réserve très large, vu que l’éclairement diminue au fur et à mesure du vieillissement, de l’encrassement des luminaires, de l’encrassement de la pièce et de la durée de vie de la lampe.

Des installations de gestion centralisée permettent de piloter les lampes de manière à maintenir toujours le niveau d’éclairement à la valeur requise. Ainsi seule l’énergie absolument nécessaire est consommée. Des éclairements plus élevés permettent en plus d’optimiser les intervalles de maintenance.

Sans maintenance Control
Un flux lumineux trop élevé et une forte consommation en permanence.

Avec maintenance Control
Un flux lumineux constant et une consommation réduite.
Calculé sur une période de 15 ans, cette fonction permet d’économiser
jusqu’à un tiers des frais d’exploitation des luminaires et en même temps de rallonger sensiblement les intervalles d’entretien.

Le facteur de maintenance considéré pour le dimensionnement de l’éclairage est de 0,70. L’éclairage est donc surdimensionné de 30 %. Le maintien d’un flux constant permet d’économiser de l’ordre de 10 %.

Consommations énergétiques

Suivant les différentes configurations d’éclairage naturel envisagées ci-dessus, les consommations énergétiques de l’éclairage artificiel sont simulées :

Puissance installée : 7 W/m² Consommation annuelle théorique d’éclairage artificiel selon le type de gestion
Gestion en fonction d’un horaire Gestion automatique de la lumière du jour sur bas d’un Heliomètre positionné Gestion automatique de la lumière du jour sur bas d’un Heliomètre positionné + maintient du flux constant
Alt 1 Éclairage zénithal nord – vitrage sélectif 30,0 kWh/m².an 25,0 kWh/m².an 16,7 % 22,7 kWh/m².an 24,3 %
Alt 2 Éclairage zénithal nord + bandeau lumineux en façade nord – vitrage sélectif 30,0 kWh/m².an 22,4 kWh/m².an 25,3 % 20,4 kWh/m².an 32,0 %
Alt 3 Éclairage zénithal nord + bandeau lumineux en façade nord – vitrage clair – parois claires 30,0 kWh/m².an 20,2 kWh/m².an 32,7 % 18,5 kWh/m².an 38,3 %
Alt 4 Éclairage zénithal coupole  – vitrage translucide (TL 22 %) + parois claires 30,0 kWh/m².an 24,3 kWh/m².an 19 % 22,1 kWh/m².an 26,3 %
Alt 5 Éclairage zénithal coupole  – vitrage translucide (TL 35 %) + parois claires 30,0 kWh/m².an 19,6 kWh/m².an 34,7 % 18 kWh/m².an 40 %

 

D’un point de vue consommation énergétique, les alternatives 3 et 5 avec une gestion automatique par rapport à la lumière du jour et un maintien du flux constant sont intéressantes. Cependant, il faut rappeler que d’un point de vue confort visuel (éblouissement) et thermique (surchauffe d’été), l’alternative 3 avec les sheds orientés au nord est celle qui donne les meilleurs résultats.

Choisir l’emplacement des luminaires dans les commerces

Les situations sont tellement nombreuses dans les commerces qu’il est impossible de donner une règle générale permettant de positionner idéalement les luminaires.

Parmi les caractéristiques à ne pas perdre de vue, la hauteur des rayons est d’une grande importance. Elle influencera les niveaux d’éclairement et l’uniformité de l’éclairage général. Dans le cas de rayonnage haut, comme ceux que l’on retrouve dans les supermarchés, il faudra bien tenir compte de la position relative des luminaires par rapport aux rayonnages. Le dimensionnement devra être réalisé par un logiciel de calcul permettant de prendre en compte la position et la taille de ces meubles.

Prescriptions relatives à l’éclairage dans les commerces

Prescriptions relatives à l'éclairage dans les commerces


Zone de rangement en rayonnage

Il est utile de pouvoir connaître les niveaux d’éclairement recommandé suivant l’ergonomie de travail (le confort de la tâche de travail).

Dans la norme NBN EN 12464-1, on établit une nomenclature dans laquelle on retrouve pour différents locaux des bâtiments du tertiaire, entre autres, les paramètres suivants :


Zone de rangement en rayonnage

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Remarques
Allées centrales : non occupées 20 0,40 40

Eclairement au niveau du sol.

Allées centrales : occupées 150 22 0,40 60 Eclairement au niveau du sol.

Magasin de vente au détail

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra

Remarques

Zones de vente 300 22 0,40 80
Zones des caisses 500 19 0,60 80
Table d’emballage 500 19 0,60 80

Parcs de stationnement de voitures (couvert)

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra

Remarques

Rampes d’entrée et de sortie (de jour) 300 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Rampes d’entrées et de sortie (de nuit) 75 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Voies de circulation 75 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Choisir entre les différents types de programme de maintenance

Planifier la maintenance, pourquoi ?

Lorsque l’on planifie une maintenance, on désire définir :

  • le surdimensionnement initial de l’installation
  • l’intervalle de temps entre deux nettoyages des luminaires
  • l’intervalle de temps entre deux nettoyages des parois
  • l’intervalle de temps entre deux relamping (remplacement de toutes les lampes)

La détermination de ses valeurs passent par le calcul des paramètres suivants :

  • LLMF = facteur de maintenance du flux lumineux de la lampe
  • LSF = facteur de survie de la lampe
  • LMF = facteur de maintenance du luminaire
  • RSMF = facteur de maintenance des parois du local
  • MF = facteur de maintenance de l’installation (MF=LLMF.LSF.LMF.RSMF)

En effet, il est toujours nécessaire de surdimensionner un système d’éclairage. La  quantité de lumière émise va en effet diminuer au cours du temps, et cela pour plusieurs raisons (vieillissement de l’appareillage, encrassement des luminaires…). Dans les calculs, ce surdimensionnement est pris en compte via le facteur de maintenance MF :

Emoyen initial = Emoyen requis / MF

Avant de procéder à un relamping, il sera possible d’améliorer l’efficacité en service de l’installation, de retrouver une partie de son efficacité en pratiquant un nettoyage des luminaires ou des parois du local.

Enfin, quand l’efficacité du système sera devenue trop faible, il y aura lieu d’effectuer un relamping. Celui-ci devra permettre de restituer à l’installation une efficacité proche de celle qu’il avait initialement.

Le processus menant à la détermination de ces différents facteurs peut être schématisé comme suit :

Le but du jeu étant d’optimiser la valeur du facteur de maintenance tout en définissant des intervalles de temps cohérents. Ce processus devra être réalisé pour toute nouvelle conception. En effet, il n’existe malheureusement pas de recette miracle pour planifier la maintenance.

Une fois la valeur de facteur de maintenance déterminée, celle-ci peut être utilisée dans un logiciel de simulation de l’éclairage (par exemple Dialux) pour définir le nombre de lampes et de luminaires utilisés. À partir de ces valeurs, il est possible de faire l’étude économique de chaque système et de son programme de maintenance, et ainsi de déterminer le meilleur d’entre eux.

À défaut des valeurs issues des catalogues, le CSTC et la CIE ont publié des rapports reprenant les valeurs (LLMF, LSF, LMF, RSMF) à utiliser pour planifier la maintenance d’un système d’éclairage. Ces dossiers donnent les valeurs moyennes à utiliser et, comme expliquer par la suite, il y a lieu de modifier ses valeurs pour tenir compte de la valeur de la durée de vie moyenne d’une lampe en particulier.


La maintenance préventive

Application

Ce type de programme peut être envisagé pour les grandes installations, lorsqu’il est acceptable qu’un certain nombre de lampes des lampes soit hors services.

Procédure

Le renouvellement des lampes (relamping) est réalisé avant la fin de leur durée de vie moyenne et un nettoyage des luminaires est planifié de manière régulière. La périodicité de ce renouvellement peut être fixée en fonction de deux critères de planification complémentaires. Le système est composé de deux catégories de lampes, celles hors services et celles ayant brulé un certain nombre d’ heures.

Critères de planification

Deux critères complémentaires peuvent être utilisés ici :

  • Le flux lumineux minimum émis par l’ensemble de l’installation (produit du facteur de maintenance du flux lumineux de la lampe (LLMF) et du facteur de survie des lampes (LSF).

 

  • Le pourcentage admissible de lampes défectueuses.  Ce critère, en plus d’influencer l’efficacité du système d’éclairage, a un impact certain sur l’esthétique de l’installation. Si on opte pour ce type de programme de maintenance, il faut garder à l’esprit qu’il ne sera pas possible de conserver un système sans lampes défectueuses pendant toute la période précédent le relamping.

La maintenance curative

Application

Ce type de programme est en général utilisé pour les installations où il n’est pas acceptable que certaines lampes soient hors service. Il sera facilement mis en œuvre pour de petites installations. Un relamping complet de l’installation sera néanmoins tôt ou tard obligatoire (vieillissement de l’appareillage, notamment électrique, équipement dépassé, …)

Procédure

Les lampes défectueuses et l’appareillage électrique défaillant sont remplacés au coup par coup et un nettoyage des luminaires est planifié de manière régulière. Le système est donc constamment constitué de lampes ayant brulé un nombre d’heures différent.


La maintenance mixte

Application

Ce type de programme est en général mis en place dans le cas d’installation où il n’est pas acceptable que certaines lampes soient hors service et où l’on désire planifier un relamping régulier.

Procédure

Une combinaison des deux procédures précédentes. Les lampes défectueuses sont remplacées au coup par coup et un nettoyage des luminaires est planifié de manière régulière. Le système est donc constamment constitué de lampes ayant brûlé un nombre d’heures différent. Un relamping est prévu à intervalle fixe.

Critère de planification

Étant donné que les lampes hors services sont continuellement remplacées, le flux lumineux restant de l’ensemble de l’installation (cf. ci-dessus) tendra vers une certaine valeur. Cette valeur est dans la plupart des cas acceptable, comme le montre le graphique suivant (1 000 h de fonctionnement par an). Cette valeur ne servira généralement pas de critère de planification.

LLMF : facteur de maintenance du flux lumineux de l’installation

(flux en service) = (flux initial) . LLMF

Les valeurs indiquées ici sont des moyennes.

Les lampes aux halogénures métalliques font exception. Dans ce cas, pour contrer les effets de la diminution de leur flux lumineux, il serait par exemple nécessaire de surdimensionner l’installation (sensée fonctionner au moins 18 000 h) de 35 %, ce qui du point de vue de l’énergie est inacceptable. Dans ce cas, un relamping devra être envisagé avant que le facteur de maintenance du flux lumineux ne descende sous une certaine valeur (NB : énergétiquement les lampes fluocompactes deviendraient dans le cas contraire plus efficaces, avec une efficacité lumineuse moyenne en service de 56.07 lm/W (0.89*63) contre 55.42 lm/W (0.68*81.5) pour les halogénures métalliques).

Pour les autres lampes, le critère de planification sera plutôt le pourcentage de lampes changées avant relamping. Ce critère influencera essentiellement le bilan économique de l’installation. Il peut par exemple sembler naturel d’effectuer un relamping juste avant la fin de vie moyenne des lampes. En effet, c’est vers cette période que le plus grand nombre de lampes devra être remplacé. Une autre manière de faire est d’envisager un relamping avant que X % des lampes n’ait été changé. C’est ce que montre le graphique suivant dans le cadre d’un système fictif.


Éviter les consommations excessives liées au surdimensionnement

La surconsommation initiale n’est pas une fatalité. Les choix relatifs au mode de gestion de l’éclairage ou le recours à des technologies proposées par certains constructeurs permettent d’économiser l’énergie liée au surdimensionnement. Le principe est à chaque fois le même, dimmer les luminaires de manière à ne fournir que le niveau d’éclairement nécessaire :

Gestion classique : les luminaires sont alimentés à puissance constante, le niveau d’éclairement varie d’une valeur excessive à la valeur à maintenir.

Gestion avancée : les luminaires sont alimentés à puissance variable de manière à toujours fournir exactement le niveau d’éclairement nécessaire. La puissance est déterminée soit en temps réel par mesure de la luminance, soit par calcul théorique.

Mesure de la luminance au niveau de chaque luminaire

Une manière de lier l’éclairage artificiel à l’éclairage naturel est d’équiper chaque luminaire muni d’un ballast électronique dimmable d’un capteur qui mesure la luminance. Le capteur agit directement sur le ballast du luminaire et régule le flux lumineux pour maintenir en permanence l’éclairement recommandé. (Il existe également des systèmes à régulation centrale, mais ce système a l’avantage d’être très simple et bon marché. Il faudra néanmoins réaliser la phase de réglage initiale avec soin !)

Quand ce genre de système est choisi, il permet de limiter la surconsommation initiale. En effet, le réglage sera réalisé de manière à fournir les lux suffisant sur le plan de travail. Le vieillissement et l’encrassement des appareils conduiront à une baisse du niveau d’éclairement qui sera compensée par l’augmentation du flux émis par la lampe.

Bien sûr il est toujours nécessaire de surdimensionner l’installation et donc de réaliser une planification correcte de la maintenance.

Par calcul théorique

Certaines firmes proposent des solutions basées sur des calculs théoriques. Les ballasts à commande numérique sont alors commandés selon une fonction qui assure un niveau d’éclairement constant et consomment uniquement l’énergie minimale nécessaire.

Selon un des constructeurs, sur 15 ans, cette méthode permet d’économiser jusqu’à un tiers des frais d’exploitation des luminaires. Nous n’avons pu nous procurer les études ayant conduit à la détermination des modèles théoriques, il nous est donc difficile de nous prononcer plus favorablement pour ce genre de solution. Quoi qu’il en soit, cette piste d’économie très intéressante est à explorer.

À noter que ce genre de fonction, comme il se base sur des calculs théoriques, sera moins précis que la technique de mesure de la luminance. En effet, à l’intérieur d’une famille de lampes, les différents spécimens posséderont déjà des caractéristiques pouvant être fortement différentes.

Choisir les ballasts et les « drivers »

Choisir les ballasts et les "drivers"


Les ballasts pour lampes fluorescentes

Techniques

En conception, choix s’effectue entre 3 types de ballasts :

  • électronique avec préchauffage,
  • électronique sans préchauffage,
  • électronique gradable ou dimmable.

BE pour tube T8, BE pour tube T5, BED pour tube T5.

  • BE : ballast électronique
  • BED : ballast électronique « dimmable »

En fonction de la durée d’utilisation

En conception, il est illusoire de vouloir faire une comparaison de performance entre un ballast électromagnétique et un ballast électronique. En effet, le ballast électronique a une consommation propre plus faible que le ballast électromagnétique et augmente la durée de vie des lampes. Le ballast électromagnétique à très faible perte reste sur le marché uniquement pour des circonstances où le ballast électronique n’est pas à recommander (p.ex. certains environnements industriels).

Il faut cependant savoir qu’un ballast électronique implique un risque de défectuosité plus grand qu’un ballast électromagnétique. Ceci est normal étant donné le nombre de composants de ces ballasts. Il faut donc choisir des ballasts de qualité, éprouvés sur le marché.

Des ballasts électroniques à préchauffage doivent être placés dès que l’installation est susceptible d’être allumée et éteinte plus de 2 fois par jour.

Ce n’est que dans le cas d’une utilisation absolument continue des lampes que le ballast électronique sans préchauffage peut être utilisé. En outre, toutes les marques de lampe ne peuvent fonctionner correctement avec tous les ballasts électroniques. Chaque ballast est conçu pour une résistance donnée des électrodes du tube fluorescent. On peut ainsi avoir un taux de défectuosité important des lampes uniquement parce que la marque des tubes fluorescents utilisés n’est pas compatible avec la marque du ballast choisi. Au moment de l’installation, il est difficile de vérifier si ce problème est présent. On peut cependant se renseigner auprès du fabricant (de luminaires ou de ballasts) pour savoir si le ballast proposé a été développé pour les lampes choisies.

En fonction de l’apport de lumière naturelle

Lorsque les locaux bénéficient d’un pourcentage standard d’ouverture dans la façade de 40 .. 60 %, le fait de placer des ballasts électroniques dimmables permet de tabler sur des économies d’énergie de l’ordre de 30 .. 50 % pour la rangée de luminaires proche des fenêtres et 15 .. 30 % pour la rangée contiguë en cas de gestion appropriée.

La rentabilité du système de gestion dépendra bien entendu, du tarif électrique appliqué au bâtiment.

Calculs

Pour estimer le gain réalisé en plaçant des ballasts électroniques dimmables : cliquez ici !

Par rapport à la classe énergétique définie dans la directive 2000/55/CE

Pour les ballasts électroniques, on impose que la catégorie énergétique soit au minimum A3.

Pour assurer plusieurs niveaux d’éclairements et/ou éviter le suréclairement

Dans certaines situations, il est intéressant de placer des ballasts électroniques dimmables. Ceux-ci, raccordés à un simple dimmer permettent, après installation, d’ajuster le niveau d’éclairement en fonction des réactions des utilisateurs ou des besoins réels. Par exemple, dans les salles de sports utilisées pour la compétition, on doit assurer plusieurs niveaux d’éclairement.

Si les luminaires ne sont pas prévus pour allumer un nombre différent de lampes par luminaire, les différents niveaux peuvent être atteints par « dimming« . Dans ce cas, on devra opter pour des ballasts électroniques dimmables.

Ceux-ci permettent d’ajuster le niveau d’éclairement en fonction des besoins. En outre, on limite ainsi le surdimensionnement inévitable des nouvelles installations.

Pour assurer une plus grande sécurité

Beaucoup de machines, dans les ateliers, ont des mouvements périodiques. L’utilisation de lampes fluorescentes ou à décharge (au sodium haute pression, aux iodures métalliques,…) risquent, si elles sont alimentées à la même fréquence que les machines, de provoquer des illusions d’optiques très dangereuses pour l’utilisateur. Ce phénomène s’appelle l’effet stroboscopique : si une machine tourne à la même fréquence que le clignotement des lampes (par exemple 50 Hz), on aura l’impression qu’elle est immobile, ce qui peut provoquer des accidents très graves.

Machine tournante éclairée par une lampe avec ballast haute fréquence (à gauche) et éclairée par une lampe avec ballast 50 Hz (à droite).

Pour éviter cela, on choisira de nouveau les ballasts électroniques qui, contrairement aux ballasts électromagnétiques traditionnels, fonctionnent eux à haute fréquence (plus de 25 kHz).

En cas d’hésitation

Certains constructeurs proposent des luminaires intelligents possédant un grand nombre de fonctions qui sont initialement bloquées (gradation, régulation en fonction de la lumière du jour, …). Celles-ci peuvent être activées par après grâce à l’utilisation de l’interface standard DALI.

Ce genre de système présente deux gros avantages :

  • Le coût de base du luminaire correspond aux fonctions disponibles initialement. Chaque ajout de fonctions devra être payé par après.
  • Lorsque l’on veut ajouter des fonctions au système d’éclairage, il n’est plus nécessaire de réaliser des travaux importants et coûteux de remplacement des luminaires et de câblage. La fonction est simplement débloquée grâce à une extension logicielle.

Particularité des hôpitaux

La lampe fluorescente et son ballast produisent des ondes électromagnétiques. Celles-ci sont accentuées avec l’utilisation de ballasts électroniques. Elles peuvent perturber le fonctionnement des appareils électroniques de précision (électro-encéphalogramme, électro-cardiogramme, …). C’est pourquoi leur utilisation peut parfois poser des problèmes dans les salles d’opération, les soins intensifs, … Ce problème est encore plus critique pour les lampes fluocompactes à ballast incorporé car celui-ci n’est pas déparasité.

Pour limiter les risques, on peut :

  • exiger la garantie du fabricant du luminaire quant à l’utilisation de son matériel dans ces circonstances particulières, et exiger la conformité aux normes concernant les ballasts électroniques :
    • EN 60928        sécurité
    • EN 60929        fonctionnement
    • EN 61547        compatibilité électromagnétique
    • EN 61000-3-2  harmoniques
  • éloigner le plus possible les appareils de mesure des luminaires, les perturbations diminuant avec la distance,
  • sortir tous les ballasts de la zone de travail,
  • utiliser, à défaut, des lampes halogène.


En tout cas, les luminaires devront, au minimum, porter un label garantissant la limitation des émissions parasites.

Concevoir

Choix des auxiliaires.

Les ballasts pour lampes à décharge

  • Ballast électronique, pour lampe à vapeur de sodium HP.
  • Ballast électronique pour lampe aux iodures métalliques.

En fonction de la durée de vie de la lampe

Pour les lampes à décharge au sodium haute pression ou aux iodures métalliques, les ballasts électroniques s’imposent, car ils peuvent accroître la durée de vie des lampes à décharge jusqu’à 30 %.

En fonction de la sécurité

Ici aussi, les ballasts électroniques sont recommandés pour la simple raison qu’ils éliminent les problèmes de clignotement et, par conséquent, d’effet stroboscopique.

En fonction de l’apport de lumière naturelle

À l’heure actuelle, certains constructeurs proposent des ballasts électroniques dimmables pour les lampes à décharge à vapeur de sodium HP et à iodure ou halogénure métallique (surcoût de 20 % par rapport aux ballasts électroniques). Certains constructeurs proposent même des ballasts électroniques dimmables et programmables de type DALI. Avec ce type de ballast, les flux sont réglables jusqu’à 50 % de la valeur nominale. Mais le dimming des lampes à iodure ou halogénure risque encore de poser des problèmes (changement de couleur).


Les ballasts DALI

À l’heure actuelle, les ballasts électroniques de type DALI ont le même ordre de grandeur de prix que les ballasts électroniques dimmables analogiques. Dans les bâtiments de taille moyenne ou importante et avec des apports de lumière naturelle corrects, on a tout intérêt à orienter le choix d’un ballast vers un type DALI. Il offre beaucoup plus de possibilités :

  • de gestion centralisée par groupe adressable de façon à générer facilement des zonages. Les zonages seront très flexibles et permettront au bâtiment d’évoluer sans grand investissement comme le recâblage ;
  • de contrôle des lampes à distance ;
  • d’interfaçage facile avec des bus de type IEB (KNX) ;

Les drivers des LEDs

 En général, chaque LED à sa propre alimentation ; c’est un gage de qualité ! Les LEDs étant souvent commandées en très basse tension et en faible courant, il faut se méfier des chutes de tension en ligne entre le driver et la lampe. Pour cette raison, il est nécessaire de limiter les longueurs de câble. Pour tout système d’éclairage à LED, le choix de l’alimentation prendra en compte de la concordance entre celle-ci et la source d’éclairage :

  • des tensions et courants de commande ;
  • de la puissance ;
  • de la classe d’isolation électrique (classe I à III ou de la simple isolation à la double en très basse tension).

Driver dimmable de lampe LED et driver  à courant constant de lampe LED.

Choisir les cables du réseau de distribution

Choisir les cables du réseau de distribution

Influence de la section des câbles

Pour les circuits d’éclairage fortement chargés, où le courant absorbé est de l’ordre de 10 A, il est intéressant de dimensionner les câbles de distribution en 2.5 mm2 plutôt qu’en 1.5 mm2. En effet, la réduction des pertes par effet joule (et donc de la consommation) compense le surcoût dû à l’augmentation de section.

Exemple

Soit l’installation suivante :

  • Des luminaires de 58 W chacun.
  • Le premier luminaire est séparé d’un mètre de l’alimentation 230 V.
  • Les luminaires suivants sont séparés entre eux de 1 mètre.
  • Chaque luminaire est parcouru par un courant de l’ordre de 0.3 A et donc la première section du circuit d’éclairage est parcourue par un courant de l’ordre de 10 A, le second 9.7 A, etc …

 

On bénéficie aussi des données suivantes :

  • le prix du kWh est de 0.17 €,
  • le surcoût du câble en 2.5² par rapport au 1.5² est de l’ordre de 3,67 €/m.

On prend les hypothèses suivantes :

  • la perte des ballasts est négligeable par rapport à la puissance consommée par les lampes ;
  • l’installation fonctionne 2 500 heures par an.

On obtient les résultats suivants :

Interprétation

Le choix d’une section de 2.5 mm² au lieu de 1,5 mm² est assez peu rentable quel que soit le nombre de luminaires (entre 10 et 30 ans). Le temps de retour simple est, exprimé comme le rapport entre le surcoût d’une section 2.5 mm² par rapport à une section de 1,5 mm² et le coût de la réduction de consommation par effet joule (moins de perte dans une section de 2,5 mm² que dans 1,5 mm²).

Conclusion

Sur la durée de vie de l’installation d’éclairage (> 30 ans), on a intérêt à légèrement surdimensionner les sections de câbles. C’est le prix du cuivre qui réduit fortement la rentabilité.

Identifier les critères du confort visuel en un coup d’œil !

Pour les bureaux

Identifier les critères du confort visuel pour les bureaux.

rendu des couleurs uniformité et absence d'ombres présence de reflets niveau d'éclairement risques d'éblouissement uniformité de l'éclairement

Pour les salles de sports

Identifier les critères du confort visuel pour les salles de sports.

niveau d'éclairement uniformité et absence d'ombres risques d'éblouissement qualité de la lumière : température, indice de rendu couleur des lignes de jeux

Pour les ateliers

Identifier les critères du confort visuel pour les ateliers.


risques d'éblouissement niveau d'éclairement présence de reflets uniformité et absence d'ombres rendu des couleurs

Pour les hôpitaux et les immeubles de soins

Identifier les critères du confort visuel pour les hôpitaux.


niveau d'éclairement risques d'éblouissement présence d'ombres gênantes qualité de la lumière présence de réflexions

Pour les commerces

Identifier les critères du confort visuel pour les commerces.

uniformité et absence d'ombres  risques d'éblouissement présence de reflets rendu des couleurs uniformité de l'éclairement niveau d'éclairement

Pour les espaces extérieurs

Identifier les critères du confort visuel pour les espaces extérieurs.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Comment améliorer l’installation de froid alimentaire ?

Comment améliorer l'installation de froid alimentaire ?


Améliorer l’étanchéité du bâtiment

   

De manière générale, toute infiltration d’air génère une consommation supplémentaire de chaleur en hiver, de froid en été. Elle peut être estimée en considérant qu’elle augmente la consommation liée au taux d’air neuf du magasin.

En particulier pour les magasins où le froid alimentaire est présent :
  • en période froide, on serait tenté de dire que c’est une bonne chose de laisser « entrer le froid » et ce afin de réduire les apports thermiques aux applications de froid (et donc réduction des consommations énergétiques). Mais bien évidemment, le confort dans les zones tempérées comme les caisses, le « no food », …, ne serait pas assuré. Pour les courageux dans les commerces de détail, on pourrait envisager un fonctionnement comme sur les marchés (boucherie, crémerie, …);
  • en période chaude, de manière générale, le manque d’étanchéité du magasin cause des surconsommations d’énergie électrique au niveau des compresseurs des productions de froid. En effet, la température externe (via l’ambiance du magasin) augmente indirectement les apports thermiques. Quant à l’humidité, indirectement aussi, elle générera de la condensation au niveau des points froids, mais surtout le givrage des évaporateurs des installations de froid alimentaire.

Pour les commerces, c’est principalement par les entrées que l’étanchéité est rompue.

Les portes d’entrée

De manière générale, le problème des commerces réside dans les ouvertures et fermetures incessantes des portes par les clients. Bien vite s’installe une habitude de laisser les portes ouvertes en permanence, été comme hiver, afin de faciliter l’accès à l’intérieur et, tout aussi important pour le commerçant d’améliorer son marketing (comme dirait un commerçant béninois : « entre, c’est ouvert, tout est gratuit jusqu’à la caisse !).

Les impacts énergétiques et de confort ne sont pas les mêmes suivant qu’il s’agit d’un commerce de type « no food » ou « food » :

  • Pour les commerces type « no food », en période froide, les ouvertures devraient être fermées afin d’éviter les pertes de chaleur vers l’extérieur. En période caniculaire, il faudrait garder les portes fermées en journée, limiter les éclairages, éviter la climatisation, … et la nuit tenter de refroidir par un free cooling de nuit (refroidissement naturel par l’air);
  • Pour les commerces type « food », en période froide, au détriment  peut-être du confort (surtout ne faites pas fuir vos clients), certains pourraient ouvrir leurs portes (comme l’adopte si souvent les commerces « non-food » afin de réduire la sollicitation de la machine frigorifique (pour autant que le chauffage ne soit pas à fond). En mi-saison et en période chaude, par contre, il est impératif de fermer ses portes afin de réduire les apports externes vers les comptoirs ou les meubles frigorifiques.

On voit bien que les comportements des deux types de commerces sont assez différents.

Pour les grandes et moyennes surfaces, type « food »

Vu qu’il y a plus de place, en général, les améliorations possibles sont principalement la mise en place :

  • de sas d’entrée (coûts relativement importants);
  • de tourniquets;
  • d’une surpression contrôlée au niveau de la ventilation hygiénique afin d’éviter les courants d’air incontrôlés entre les entrées principales et les accès fournisseurs;

La fermeture des accès en mi-saison et en période chaude est importante.

Pour les commerces de détail, type « food »

Pour ce type de commerces, les solutions ne sont pas légion. La fermeture des accès en mi-saison et en période chaude est importante.

En période froide, mais c’est une question de motivation, quand la température externe correspond à la température de travail dans les boucheries, par exemple, pourquoi ne pas soulager la production frigorifique en laissant les portes ouvertes (vu à plusieurs reprises dans d’autres pays); il faudra naturellement tenir compte de la qualité de l’air externe.

Un exemple frappant : sur les marchés, en période froide, les besoins en froid sont très faibles.

Améliorer

Pour en savoir plus sur l’amélioration de l’étanchéité des bâtiments

Limiter les apports tant internes qu’externes

En froid alimentaire, les ennemis des meubles frigorifiques, des ateliers et des chambres froides sont les apports thermiques tant externes qu’internes.

Les apports externes

Quand on parle d’apports externes, on pense généralement aux apports solaires (rayonnement solaire direct). Ces apports solaires au travers des vitrages contribuent :

  • à réchauffer, directement ou indirectement via l’ambiance, les applications de froid (augmentation des apports);
  • à dégrader les denrées exposées à un rayonnement solaire direct au travers des baies vitrées.

Les vitrages

Photo vitrages de toiture.  Photo vitrages de toiture.

Baie vitrée orientation est-ouest (source : Bioshanti).

« Shede » orienté nord (source Delhaize).

Dans les bâtiments tertiaires avec apports internes élevés, il faut limiter les surfaces vitrées au Sud et surtout à l’Ouest, et prendre la lumière naturelle au Nord afin de profiter du rayonnement diffus (dans la limite des possibilités urbanistiques).

On entend par rayonnement diffus, le rayonnement émit par le ciel. Cette valeur de rayonnement a l’avantage de rester relativement constante au cours de l’année, du moins en Belgique.

Les protections solaires

Photo protections solaires.   Photo protections solaires.   Photo protections solaires.

Pour que les protections solaires soient efficaces, il est nécessaire de concilier la protection contre les surchauffes et un apport en éclairage naturel suffisant, quelle que soit la saison.

Les apports internes

   

L’apport des occupants

Les occupants apportent de la chaleur sensible (température du corps) et latente (respiration, transpiration). En période froide cet apport contribue à l’amélioration du bilan thermique du chauffage de l’ambiance de vente. Il est bien entendu que le bilan thermique des meubles frigorifiques est d’autant meilleur que les apports internes sont faibles. Néanmoins, le confort du personnel et des clients doit être assuré; ce qui signifie que les apports internes sont les biens venus en période froide si on considère que le confort thermique doit être assuré (« c’est un soulagement pour la chaudière ! »).

En période chaude, les évaporateurs des meubles frigorifiques condensent la transpiration du corps humain; ce qui défavorise le bilan thermique des évaporateurs et, par conséquent, celui de la machine de froid. Outre la fermeture des ouvertures des meubles frigorifiques, une manière d’améliorer leur bilan énergétique est de réduire au maximum les températures ambiantes à leur proximité immédiate de manière à réduire la transpiration des clients (attention au confort des consommateurs).

L’apport des équipements

Toute charge électrique (éclairage, caisse électronique, TV, Hifi, …) dans un local où le froid alimentaire est présent est payée plus d’une fois :

  • une fois pour effectuer le travail attendu (consommation électrique pour produire de la lumière par exemple),
  • plus une partie pour évacuer cette énergie qui s’est transformée en chaleur et qui doit être évacuée par l’évaporateur et, in fine, par la machine frigorifique.

L’éloignement des sources de chaleur tel que les fours de boulangerie, rôtissoires, … des comptoirs frigorifiques est nécessaire. En ce qui concerne les éclairages à proximité immédiate des meubles frigorifiques, s’ils sont nécessaires à la vente, la sélection d’une source lumineuse énergétique efficace est de mise.


Améliorer le confort thermique

Illustration améliorer le confort thermique.

On sait que le travail dans les ambiances froides des commerces doit-être adapté. Le seul moyen d’améliorer son confort est d’adapter son habillement et son temps de travail à la température qu’il y règne.

A proximité des meubles frigorifiques ouverts ou dans les « allées froides », le message doit être très clair : le confort des clients et du personnel de réapprovisionnement des meubles ouverts est quasi incompatible avec la performance énergétique du froid alimentaire et, dans une moindre mesure avec l’efficacité thermique, à moins de fermer les frigos.

Le tout est de savoir ce que l’on veut !

Dans les allées froides des meubles frigorifiques ouverts

Fermer les ouvertures

Le simple fait de fermer une ouverture de meuble frigorique ouvert, réduit considérablement les déperditions typiques à ce type de meuble (par induction d’air et par rayonnement) de l’ordre de 30 à 40 %. Lorsque les ouvertures des meubles sont obturées, l’air d’ambiance à leur proximité immédiate se refroidit moins, les échanges radiatifs entre les parois froides et le corps humain sont réduits, d’où l’impression de confort accrue.

Photo frigos fermés.   Photo frigos fermés.

Meuble négatif et meuble positif (source Bioshanti).

Faut-il chauffer les allées froides ?

À cette question délicate on aurait tendance à répondre ceci :

« Êtes-vous bien sûr de ne pas vouloir fermer les ouvertures même en journée ? »

Dans la négative, une seconde question vient tout de suite à l’esprit :

« Pensez-vous, si vos clients sont sensibilisés, que réduire la température de confort dans les espaces de froid alimentaire va les faire fuir ? »

Dans l’affirmative, il vaut mieux chauffer les allées froides à l’aide d’un système de chauffe performant à haut rendement.

Dans les zones froides

Adapter l’habillement et le temps de travail

L’adaptation de sa tenue vestimentaire et de son temps de travail dans les zones réservées au personnel (atelier chambre froide, …) est nécessaire pour améliorer le confort et la sécurité thermique.


Améliorer le confort acoustique

Schéma améliorer le confort acoustique.

Évaluer

Après l’analyse de la situation sur le terrain, la logique à suivre est basée sur le type de bruit.

Soit le bruit est aérien

Puisqu’il est produit par l’écoulement de l’air et les turbulences qui y sont liées, on peut envisager de réduire la source du bruit, par exemple en diminuant la vitesse du ventilateur, en améliorant l’écoulement dans les bouches, dans les coudes,…

À défaut, puisque ce bruit dispose d’un spectre développé surtout dans les hautes fréquences, il est possible d’absorber le bruit par des matériaux fibreux : silencieux, parois de gaines absorbantes,…

Si ce bruit est transmis entre deux locaux, c’est l’isolation phonique de ces parois qu’il faut améliorer.

Soit le bruit est solidien (bruit d’impact)

Puisque ce sont les vibrations des équipements qui sont transmises à la masse du bâtiment, la diminution de vitesse permettra également de réduire les vibrations. Certaines sociétés de maintenance peuvent enregistrer les vibrations émises à l’arbre d’un ventilateur et dire si un balourd serait responsable du bruit en cause.

A défaut, on cherchera à couper toute transmission du bruit par le placement d’un matériau résilient entre l’équipement et son environnement : plots antivibratiles, manchettes souples, plancher flottant,…

Réaliser le doublage acoustiques des parois

Lorsqu’un local est adjacent à un local technique, différentes dispositions peuvent être prises afin de réduire la transmission du bruit tel que le dédoublement des parois de carton-plâtre, …

Renforcer l’isolation acoustique des baies vitrées

Si l’objectif est de se protéger d’un bruit extérieur (bruit de condenseur sur une plate-forme, par exemple), une amélioration de la qualité acoustique des baies peut être envisagée. Et le premier regard doit se porter sur l’étanchéité à l’air (davantage que sur la vitre elle-même). En effet, le bruit passe essentiellement par l’inétanchéité des joints. C’est ce qui fait la médiocre qualité des fenêtres coulissantes…


Diminuer les consommations énergétiques des meubles

La principale consommation énergétique des meubles frigorifiques ouverts est issue de l’échange entre l’ambiance de la zone de vente et l’intérieur du meuble au travers :

  • du rideau d’air par induction et rayonnement;
  • des parois de la « carcasse » du meuble par conduction et convection. Il constitue les apports externes.

Cependant, il ne faut pas négliger les apports internes constitués par l’éclairage internes des denrées, la production de chaleur des ventilateurs, des cordons chauffants et des systèmes de dégivrage.

La solution radicale

 

Meuble frigorifique ouvert et confinement et isolation légère (double vitrage).

Confinement et isolation importante (enceinte opaque).

Quel que soit le type d’application de froid alimentaire, le confinement des denrées dans des espaces fermés est la règle d’or.

Il faut bien reconnaître que dans la pratique, ce n’est pas tout à fait le cas vu la recrudescence des meubles frigorifiques ouverts afin de favoriser la vente. Néanmoins, certains magasins ont appliqué cette excellente résolution avec succès sans impact sur le chiffre d’affaire en plaçant des protections devant les meubles.

Par exemple, le placement de fermetures en plexyglass sur les gondoles négatives a permis à une chaîne alimentaire de notre pays de réduire les consommations énergétique de l’ordre de 30 à 35 % (source DAPESCO).

D’autres encore ont opté pour des solutions encore plus radicales, à savoir le confinement global ou partielle d’une grande partie des produits frais dans des chambres froides avec libre passage des clients au travers d’ouvertures contrôlées.

Optimiser l’efficacité du rideau d’air

Pour les irréductibles des meubles ouverts, l’optimisation du rideau d’air est impératif. Ce mal nécessaire limite les apports de chaleur par induction de l’air ambiant, à hauteur de 50 à 66 % de la puissance frigorifique nécessaire à l’évaporateur et, in fine, à la machine frigorifique.

Ces échanges de chaleur entre l’ambiance des zones de vente et les denrées doivent être réduits au maximum. Pour atteindre ce but, un optimum est à trouver au niveau du débit du rideau d’air. On conseille en pratique de limiter les vitesses des rideaux d’air :

  • pour les meubles horizontaux, à 0,5 m/s;
  • pour les meubles verticaux, entre 0,6 et 0,7 m/s.

Réduire les pertes par rayonnement

Surtout pour les meubles frigorifiques horizontaux négatifs (« bacs à frites », « bacs à glace », …), l’échange par rayonnement entre les parois des meubles et le plafond peut représenter de l’ordre de 40 % de l’appel de puissance à l’évaporateur. La réduction des consommations énergétiques passe par le placement de « baldaquins » qui permettent de réduire les températures des denrées en surface de l’ordre de 3 à 5 °C. De même, la création « d’allée froide » (meubles verticaux ouverts positifs placés en vis à vis) réduit aussi les apports par rayonnement. Attention seulement au confort.

Baldaquins pour les meubles horizontaux ouverts.

Limitation du rayonnement vers le plafond

Placer ou optimiser les protections de nuit

Le simple placement de couvertures de nuit pour les meubles ouverts horizontaux ou de rideaux de nuit pour les meubles ouverts verticaux permet de réduire les consommations énergétiques de l’ordre de 8 à 30 % selon le cas.

Photo couvertures de nuit pour les meubles ouverts horizontaux.

Optimiser ou supprimer l’éclairage des tablettes

Le placement d’éclairage dans l’enceinte même du meuble frigorifique est une très mauvaise idée puisque le commerçant puise deux fois et peut-être plus à sa propre caisse :

  • une première fois parce que l’éclairage proprement dit consomme de l’électricité;
  • une seconde fois pour la simple raison qu’une grande partie de l’énergie consommée par les luminaires est transformée en chaleur et doit être évacuée par l’évaporateur;
  • enfin, vu que la plupart des luminaires utilisés en froid commercial sont des lampes fluorescentes (TL), à basse température, ce type de lampes a un mauvais rendement lumineux (de l’ordre de 40 %).

Une nette amélioration passe par la coupure des éclairages à l’intérieur de l’enceinte du meuble et l’optimisation ou le placement d’un éclairage performant à l’extérieur du meuble comme par exemple en dehors du rideau d’air.


Optimiser le dégivrage

L’air ambiant autour de l’évaporateur contient de l’eau. Cette eau givre au contact des surfaces froides de l’évaporateur lorsque la température du fluide à l’intérieur de celui-ci est inférieure à 0°C.

Du côté de la chambre froide ou du meuble frigorifique fermé ou mixte négatif, le givre diminue le transfert thermique entre l’air et la surface extérieure de la batterie. L’apport de froid vers la chambre se fait moins bien. La température de la chambre froide monte quelque peu.

D’autre part, du côté du circuit frigorifique, le compresseur de la machine frigorifique travaille avec une mauvaise efficacité énergétique : la couche de glace sur l’évaporateur peut être comparée à une couverture posée sur un radiateur (pour obtenir la même chaleur, il faudra augmenter la température de l’eau et diminuer le rendement en chaudière).

Il faut donc débarrasser périodiquement l’évaporateur du givre formé : c’est le dégivrage.

La chambre froide, les meubles frigorifiques, les vitrines, …doivent  donc être équipées d’un dégivrage automatique.

Le personnel d’exploitation, s’il n’effectue pas lui-même le dégivrage, doit cependant en vérifier le bon déroulement et surtout s’assurer périodiquement que les dégivrages sont effectués complètement. Aucune trace de givre ne doit subsister sur la surface froide à la fin du dégivrage.

Amélioration du dégivrage au niveau des chambres froides

Pour une question d’efficacité et de limitation du nombre de dégivrages, l’évaporateur doit être placé le plus loin possible de l’entrée de la chambre ou des bouches de reprise des meubles frigorifiques. Si dans votre situation existante ce n’est pas le cas, il faut envisager de la déplacer. De plus, pour les opérations de dégivrage proprement dites, on vérifie qu’une vanne magnétique sur le circuit réfrigérant est présente (début de l’opération de dégivrage). Dans la négative, à voir avec le frigoriste l’intérêt de la placer. Le placement d’un manchon peut s’avérer intéressant.

Précautions à prendre au niveau de l’utilisation de l’enceinte

Il est un fait certain que moins il y aura d’ouvertures des portes du meuble fermé ou de la chambre froide (organisation rationnelle), moins on gaspillera de l’énergie nécessaire :

  • pour le dégivrage,
  • pour le refroidissement et le séchage de l’air extérieur entré par la porte,
  • pour évacuer la chaleur produite au niveau de l’évaporateur par l’opération de dégivrage.

Amélioration ou remplacement de la régulation du dégivrage

Vu que le dégivrage est une source de dépense énergétique, l’optimisation du dégivrage prend toute son importance en terme de fréquence et de longueur de cycle. Parmi les types de dégivrage, les plus courants, du moins au plus efficace, sont les systèmes :

  • par horloges (difficulté d’optimisation par rapport à l’organisation de la cuisine) – -> +;
  • électroniques contrôlant la présence de glace par l’analyse de la courbe de remontée en température de l’évaporateur (plateau de t° = fusion) –> ++;
  • électroniques contrôlant l’écart de température entre l’ambiance et l’évaporateur –> +++.

Les systèmes électroniques sont en plus capables d’accepter des niveaux d’alarme, de contrôler un délestage, …

Dans le cadre d’une rénovation conséquente, il serait intéressant, si la régulation existante est vétuste, de la moderniser.

Les meubles fermés ou mixtes négatifs

Les principes généraux de dégivrage des chambres froides s’appliquent assez bien aux meubles frigorifiques fermés ou mixtes négatifs car l’évaporateur subit le même type d’agression hygrothermique lors des ouvertures des portes. En ce qui concerne les meubles frigorifiques ouverts négatifs horizontaux (gondoles par exemple), ils subissent les agressions hygrothermiques de manière moins forte vu que l’influence de l’induction de l’air de la zone de vente n’est pas prépondérante. Néanmoins, pour ce type de meubles, le dégivrage par résistance électrique ou injection de gaz chaud est souvent nécessaire. A vérifier sa présence et son efficacité par un contrôle du niveau de givrage.

Les meubles ouverts positifs

Ce type de meubles, quant à lui, subit les agressions hygrothermiques en permanence de par l’induction de l’air de l’ambiance de vente de manière naturelle ou au travers d’un rideau d’air en ventilation forcée. L’induction d’air apportant irrémédiablement de la vapeur d’eau contenue dans l’air ambiant sur l’évaporateur, le dégivrage est plus que nécessaire mais, vu les températures d’échange au niveau de l’air sur les ailettes de l’évaporateur sont proches de 0°C, un dégivrage naturel sans apport de chaleur (pas de résistance électrique) est suffisant dans la plupart des applications en laissant tourner la ventilation forcée au niveau de l’évaporateur.

Il est nécessaire d’adapter les périodes de dégivrage de chaque groupe de meuble en cas de présence massive de linéaires afin de réduire la pointe quart horaire.


Améliorer la machine frigorifique

 Remarques :

  • Pour les actions développées ci-dessous, il est difficile et pas forcément nécessaire d’établir de savants calculs de rentabilité ! Souvent, la méthode par essais successifs (modification de la consigne, …) entraîne des économies importantes, sans même que l’utilisateur ne s’en aperçoive…
  • Il est cependant toujours utile de consulter préalablement le fournisseur du matériel.
  • Vous trouvez qu’il y a bien trop de choses à lire : mettez un compteur de COP sur l’installation, imposez une valeur minimale et laissez la société de maintenance se débrouiller, c’est son boulot après tout.

Les principes à suivre

Les projets d’amélioration peuvent poursuivre plusieurs objectifs :

  • Réduire la consommation d’énergie,
  • limiter la pointe de puissance quart-horaire,
  • améliorer la maintenance de l’installation.

Améliorer la régulation de puissance du compresseur

En partant du constat que les groupes frigorifiques sont surpuissants lors du dimensionnement de l’installation un technicien peu agir à plusieurs niveaux pour réguler la puissance du ou des compresseurs en fonction de la charge réelle :

  • Mieux contrôler les cascades si l’installation comporte plusieurs compresseurs ou plusieurs étages de compression;
  • Adapter la puissance de la machine en faisant varier la vitesse du compresseur ou en mettant hors service certains cylindres tout en sachant que les bas régimes ne sont pas énergétiquement profitables;
  • Supprimer la régulation par injection des gaz chauds à l’évaporateur (destruction de l’énergie).
  • Augmenter le seuil de déclenchement de la haute pression du compresseur.

Une supervision par régulation numérique

Photo régulation numérique.

La régulation numérique (ou digitale) est en plein essor ces dernières années. Cette fois, ce n’est plus le câblage qui va déterminer les séquences, mais bien le programme inclus dans l’automate programmable ou le régulateur du groupe.

Il s’agit en fait une gestion globale du système qui vient se superposer à celle des équipements frigorifiques.

Améliorer le fonctionnement du condenseur

Photo condenseur.   Photo condenseur.

Le principe de base est l’abaissement de la température de condensation. Pour y arriver, on peut :

  • Positionner et configurer le condenseur dans un endroit où la fraîcheur de l’air extérieur est mise à profit en évitant les recirculations d’air extrait;
  • Favoriser l’échange de chaleur par un entretien régulier des ailettes des condenseurs à air et par un détartrage régulier des condenseurs à eau;
  • Réguler la vitesse des ventilateurs des condenseurs à air en fonction de la charge réelle;
  • Travailler avec des détendeurs électroniques plutôt qu’avec des thermostatiques.

Placer des compteurs sur l’installation existante

Le placement de compteurs horaires sur l’alimentation électrique du compresseur permet d’évaluer la puissance moyenne au cours de l’année en fonction du nombre d’heures de fonctionnement et du dimensionnement de la machine. Le calcul du COPfroid au cours de l’année nécessite de mesurer la consommation électrique du compresseur.

Récupérer l’eau de pluie et les condensats des évaporateurs

Il faut garder à l’esprit qu’une partie de l’énergie prise à l’ambiance par les évaporateurs des meubles frigorifiques est perdue. À l’heure actuelle, les condensats qui se forment au niveau de l’évaporateur sous forme d’eau, de givre, … sont mis à l’égout en permanence ou lors des dégivrages. On estime la quantité d’eau glacée mis à l’égout aux alentours de 0.6 à 1 litre d’eau par mètre linéaire de meuble et par heure. Elle représente une source de refroidissement du condenseur qui peut être intéressante à récupérer dans certains cas. A méditer !

Il pleut beaucoup en Belgique. Alors, pourquoi ne pas récupérer l’eau de pluie. On estime à 0,06 m³/m².mois la quantité d’eau qui tombe. Pour les grandes surfaces pourquoi ne pas combiner la récupération d’eau de pluie pour les sanitaires du personnel avec un refroidissement adiabatique des condenseurs.

Schéma récupération eau de pluie.   Schéma récupération condensats des évaporateurs.


Récupération de chaleur au condenseur

La récupération de la chaleur de réjection (au condenseur) dans une installation existante doit être considérée comme une intervention importante; ce qui signifie, tout comme les projets de conception, qu’elle doit passer entre les mains expertes d’un bureau d’étude spécialisé sachant qu’une récupération mal étudiée pourrait, sous certaines conditions s’avérer devenir une « catastrophe énergétique » comme le chauffage du magasin par l’équivalent d’un chauffage électrique direct.

Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite du bâtiment vers l’extérieur.

Il semble dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique. Par la même occasion, on améliore le rendement du groupe de froid en abaissant la température de condensation.

Application au chauffage du magasin ou des annexes par l’air

En première approche, il est indispensable de garder à l’esprit que la récupération de chaleur au condenseur passe après :

  • la limitation des apports tant externes (rayonnement solaire direct, meubles frigorifiques ouverts, …) qu’internes (éclairage d’étagères, ventilateur peu performant, …);
  • l’isolation de l’enveloppe du magasin par rapport aux rigueurs du climat;
  • la fermeture des meubles frigoriques ouverts

Si vraiment toutes ces améliorations sont impossibles à réaliser pour des questions budgétaires, architecturales, …, des calculs simplifiés purement théoriques montrent que la récupération directe de chaleur dans l’enceinte du magasin est intéressante lorsqu’elle est importante et permettrait, par exemple, de compenser les déperditions d’un magasin peu isolé.

Récupération de la chaleur de condensation.

Evacuation de la chaleur de condensation à l’extérieur.

On voit tout de suite d’après les figures ci-dessus, qu’en période froide, la récupération est maximale lorsque la chaleur des condenseur est récupérée dans le magasin. Dans cette configuration, on réduit théoriquement les consommations de chauffage par 3.

Il est évident que la mise en œuvre d’un tel système n’est pas simple. En effet, en période chaude, la chaleur à évacuer des condenseurs est excédentaire et doit donc être évacuée à l’extérieur.

Un grand distributeur en Belgique a effectué plusieurs essais d’installations comme montré ci-dessous :

  • en pérode froide, la chaleur est récupérée;
  • en période chaude, la chaleur est évacuée.

 Récupération de la chaleur de condensation.

Evacuation de la chaleur de condensation à l’extérieur.

Application au chauffage du magasin ou des annexes par l’eau

Une idée novatrice, serait de récupérer une partie de la chaleur de réjection d’un condenseur à eau et de l’injecter dans un chauffage au sol. Le confort dans les allées froides devrait être meilleur. À l’heure actuelle, les systèmes mis en œuvre n’ont pas encore fournit de résultats de bilans énergétiques chiffrés et validés.

Exemple de schéma de principe.

Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été).

Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique comme par exemple dans les cuisines.


Améliorer la maintenance de l’installation

Il est impossible de reprendre ici toutes les règles d’entretien pour toutes les installations frigorifiques. Cependant, on peut attirer l’attention sur les interventions qui influencent la facture énergétique.

Machine frigorifique

Une check-list du groupe frigorifique est reprise dans les pages de détails; en voici les principaux points :

  • Température et régime d’eau glacée,
  • intensité mesurée au compresseur,
  • écart de température entre le condenseur et le fluide refroidissant,

Un contrôle régulier de ces points de mesure améliore le rendement, les consommations et la durée de vie de l’installation.

Boucle frigoporteur

La mesure régulière des températures d’eau glycolée permettra de mettre en évidence des pertes d’efficacité des groupes frigorifiques dues principalement :

  • à des températures de boucle trop élevées;
  • à des écarts de températures entre l’entrée et la sortie de l’évaporateur trop faible traduisant des débits d’eau trop importants;

Aérorefroidisseurs

Le contrôle de l’état d’encrassement et de corrosion des ailettes, le suivi de la régulation de l’aérorefroidisseur telle que la régulation de la pression de condensation en vérifiant le fonctionnement des ventilateurs.

Déclenchements du compresseur par forte température extérieure

L’augmentation temporaire du niveau de déclenchement de la haute pression (avec accord du constructeur) permet dans un temps limité de pallier au manque de puissance de l’installation.

Nuisances acoustiques

Si la nuisance sonore est surtout importante aux basses fréquences, il est possible que les machines tournantes (ventilateur du condenseur, moteur du compresseur,…) soient mal équilibrées. Ce défaut s’accentue avec l’usure des équipements; des solutions sont possibles …


Évaluer l’installation de froid alimentaire

Évaluer l'installation de froid alimentaire


La qualité de la chaîne du froid

Depuis le stade de la production jusqu’à celui de la consommation, la limitation de la dégradation des denrées alimentaires passe par le maintien de la « chaîne du froid « . Que les denrées arrivent dans les commerces au stade « en l’état » (ne subissent pas de transformation depuis leur culture, leur pêche, …) ou « manufacturées (fromage, yaourt, …), la température de conservation, l’humidité sont des données essentielles pour ralentir leur dégradation. En effet, il faut garantir aux consommateurs une qualité des denrées au niveau hygiénique, nutritionnel et organoleptique.

Deux techniques de conservation prédominent, à savoir :

  • la réfrigération ou froid positif (> 0 °C, 4 à 8 °C, >8 °C);
  • la congélation ou froid négatif (-24 °C,-18 °C, -12 °C).

Les équipements frigorifiques doivent donc assurer l’hygiène dès l’arrivée des denrées dans les magasins de distribution et durant tout leur cycle de vie depuis les zones de stockage jusqu’à leur distribution.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 12 à – 24 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Réglementation

Deux réglementations européennes décrivent principalement les dispositions à prendre pour les conservations des denrées alimentaires classiques  (CE 852/2004) et d’origine animale (CE 853/2004) (PDF).

Deux Arrêtés royaux (AR 57470 paru au moniteur belge du 22.12.2005 et AR 57449 paru au moniteur belge du 22.12.2005) traduisent respectivement les réglementations européennes en droit belge.

Recommandation

Les réglementations en matière d’hygiène alimentaire ne précisent que très peu les températures de conservation à respecter durant toute la chaîne alimentaire froide. Aussi, la plupart se réfèrent au code de bonne pratique HACCP (Hazard Analysis Critical Control Point).

Les Guides HACCP pour les PME et les artisans représentent une source importante d’informations concernant les températures réglementées en fonction du type de denrée.

Comment évaluer sa situation ?

L’évaluation de la qualité de la chaîne de froid passe principalement par le respect et le contrôle :

  • des températures de conservation et des fluctuations autour de la valeur moyenne de ces températures;
  • des durées de conservation;
  • de la qualité des emballages;

Du point de vue énergétique, la mesure des températures de conservation est essentielle.

Évaluer

Pour en savoir plus sur l’évaluation de la qualité de la chaîne du froid alimentaire

Le confort thermique et acoustique

 Le confort thermique

Le confort thermique du corps humain est complexe car différents paramètres l’influencent; à savoir principalement :

  • la température de l’air;
  • la température de rayonnement du milieu qui l’entoure;
  • l’humidité de l’air;
  • la vitesse de l’air;
  • son métabolisme et le type de vêtements qui le recouvre.

Dans les commerces, la présence du froid alimentaire complexifie la perception du confort thermique puisque les travailleurs peuvent se retrouver confrontés à des températures variables dans des laps de temps assez courts comme passer d’une température de -18 °C dans les chambres froides à 18 °C dans les réserves et vice versa.

Effet du froid sur le corps humain ?

Le corps humain est prévu pour fonctionner à une température constante de 37 °C. Quand il est soumis à des températures externes basses, des mécanismes complexes internes adaptent le métabolisme afin de rétablir l’équilibre thermique. Le froid, dans des conditions extrêmes de température peut devenir vite dangereux pour la santé.

Quels risques pour la santé ?

L’exposition à des basses températures se rencontre fréquemment dans la chaîne de froid alimentaire que ce soit au niveau du personnel ou des clients. Les principaux effets sur la santé d’une exposition directe et prolongée au froid sont :

  • l’hypothermie;
  • l’engelure;
  • un risque accru de troubles musculosquelettiques (TMS) en cas d’exposition prolongée.

Dans les commerces, ce dernier risque est le plus représentatif des problèmes liés au travail dans le froid. Une exposition prolongée des extrémités du corps (mains principalement) au froid entraîne une perte de dextérité liant les basses températures aux risques d’accident du travail.

Quels facteurs de risque ?

Les facteurs de risque sont de différents types :

  • climatiques ou ambiants tels que la température, l’humidité et la vitesse de l’air. En dessous de 15 °C l’inconfort est présent, sous les 5 °C, il y a un risque pour la santé, au-dessus d’une vitesse de déplacement de l’air de 0,2 m/s, la sensation d’inconfort s’accroît, …
  • liés au poste de travail ou à la tâche à exécuter. Le type d’habillement, la pénibilité du travail (transpiration ou pas), … prennent toute leur importance par rapport au risque d’inconfort et d’accidents liés au froid;
  • individuels tels que le type d’alimentation, l’état de fatigue, le sexe, …

Comment évaluer sa situation ?

L’évaluation du confort passe par l’élaboration d’une méthode de quantification de l’équilibre thermique du corps humain en fonction des contraintes externes et de l’habillement. L’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index) permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être utilisé lorsque la température est inférieure à 10 °C. Un IREQ couramment rencontré est 2,6.

L’évaluation de la « température cutanée du dos de la main » permet d’établir un seuil en dessous duquel la dextérité des mains se réduit; c’est le cas en dessous de 24 °C. Dès cet instant, il est nécessaire d’adapter son temps de travail et exposé et de choisir un type de gant adapté à la tâche.

Une tenue vestimentaire composée :

  • de sous-vêtements;
  • d’un caleçon long;
  • d’un pantalon;
  • d’une veste isolante;
  • d’un surpantalon ;
  • de chaussettes ;
  • de chaussures;
  • d’un bonnet;
  • de gants;

permet d’atteindre un IREQ de l’ordre de 2,6.

Attention que la couche la plus proche de la peau doit être isolante et perméable à la transpiration de manière à éloigner l’humidité de la peau afin de la maintenir sèche.

Recommandations, normes et règlementations

  • La norme EN 511 définit les exigences et les méthodes d’essai des gants de protection contre le froid, d’origine climatique ou artificielle, transmis par convection ou par conduction jusqu’à – 50 °C;
  • Le prEN 342 spécifie les exigences et les méthodes d’essais de performance des vêtements de protection contre le froid à des températures inférieures à – 5 °C.

L’inconfort des bouches de pulsion d’air

Lorsque l’air pulsé entre dans la zone d’occupation du local, il se réchauffe au contact de l’air ambiant. Si la différence de température entre cet air et l’air ambiant dépasse encore 1 °C en pulsion froide on risque de ressentir une sensation de « masse d’air » lorsque l’on se déplace dans le local.

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, ce sur une hauteur de 1,8 m. Dans cette zone, à 1.8 m du sol, la vitesse de l’air ne devrait pas dépasser 0,2 m/s et le long des murs 0,4 m/s.

Dans l’évaluation du confort, on veillera ce que l’effet COANDA (effet plafond) ne soit pas perturbé par des obstacles au plafond (retombée, poutre, luminaires, …)

Schéma effet coanda

Locaux requérant une attention particulière

> Les chambres froides

Il n’y pas vraiment de confort dans ces locaux sachant que les températures sont basses, les mouvements d’air important, … Heureusement pour le travailleur, il n’y passe que très peu de temps. De plus, il est nécessaire qu’il s’habille en conséquence pour limiter les risques liés au froid intense.

> Les zones climatisées

La liaison froide est en général recommandée par HACCP (Hazard Analysis Critical Control Point) lorsque l’activité dans les commerces nécessite de transformer les denrées alimentaires; c’est le cas par exemple des boucheries, des traiteurs, … Ces zones sont occupées par du personnel qui doit travailler dans une ambiance où la température ne peut pas dépasser 12 °C. Comme on peut s’y attendre, l’inconfort est un souci majeur.

> Les allées froides des meubles frigorifiques ouverts

L’ouverture permanente des meubles frigorifiques dans les « allées froides » perturbe le confort du personnel et des clients d’autant plus que dans un souci d’une part de vente et d’autre part d’efficacité énergétique, les meubles frigorifiques verticaux sont en vis-à-vis et, par conséquent augmentent l’inconfort au point de devoir chauffer la partie centrale des allées. Dans la pratique, les températures au centre des « allées froides peuvent descendre à 16 °C.

Évaluer

Pour en savoir plus sur l’évaluation du confort thermique.

Le confort acoustique

Un faible niveau sonore améliore la qualité de l’ambiance de travail et réduit la fatigue.

Outre le confort thermique, certaines ambiances des locaux liés au froid alimentaire sont souvent inconfortables. On se référera, par exemple, aux ateliers de boucherie où les ventilateurs des évaporateurs peuvent être, si on n’y prend pas garde, de véritables sources de nuisance sonore. Idem dans les surfaces de vente, les meubles frigorifiques ouverts ont des rideaux d’air qui peuvent, faute d’entretien, devenir bruyants perturbant le confort sonore des clients.

Attention qu’il faut bien distinguer les zones de présence permanence (par exemple les ateliers, les espaces de vente, … ) des zones où la présence des travailleurs est momentanée (chambre froide de stockage par exemple).

Valeurs recommandées

Quel confort acoustique est à atteindre dans les locaux, quel niveau de bruit maximum est acceptable ?

Dans les commerces, une valeur souvent rencontrée est de l’ordre de 35-45 dB.

Comment évaluer sa situation ?

Avant de l’évaluer, il est primordial de déterminer les sources en différenciant les bruits aériens (transmission des vibrations par l’air) des solidiens (transmission des vibrations, des impacts par la masse du bâtiment par exemple).

On veille aussi à prendre soin de l’isolation des bâtiments par rapport aux bruits extérieurs (notamment, les fenêtres sont un point faible dans la façade). Une fois la source sonore nuisible isolée, on peut évaluer sa valeur par l’utilisation d’un sonomètre.


L’efficacité énergétique des meubles frigorifiques, des chambres froides, …

 Les meubles frigorifiques ouverts et fermé

Schéma principe meuble frigorifique-01.  Schéma principe meuble frigorifique-02.  Schéma principe meuble frigorifique-03.  Schéma principe meuble frigorifique-04.

Les efficacités thermique et énergétique des meubles frigorifiques ouverts ou fermés sont intimement liées. Dans les deux cas, il est nécessaire de maintenir à température les denrées tout en optimisant les consommations énergétiques.

Dans les commerces où le froid alimentaire est très présent, les consommations qui lui sont liées (y compris la production frigorifique) représentent en direct de l’ordre de 30 à 55 % du total des consommations électriques.

Attention qu’à l’heure actuelle des consommations parallèles (ou indirectes) peuvent être générées par le refroidissement excessif des ambiances des magasins (quantité de linéaire ouvert très importante) en augmentant les consommations HVAC (Heating Ventilation Air Conditioning). C’est le cas notamment pour assurer le confort comme le réchauffement des « allées froides ».

La principale consommation énergétique :

  • des meubles frigorifiques fermés provient de l’échange d’air entre l’ambiance de la zone de vente et l’intérieur du meuble lors de l’ouverture des portes;
  • celle des meubles frigorifiques ouverts est issue de l’échange d’air entre l’ambiance de la zone de vente et l’intérieur du meuble à travers le rideau d’air ou l’interface entre les deux ambiances climatiques.

Certifications et normes

La performance énergétique des meubles frigorifiques peut être déterminée dans le cadre d’une certification EUROVENT. La plupart des grandes marques adhèrent à cette certification qui permet de comparer des pommes avec des pommes au niveau des consommations énergétiques des équipements.

Des tests sont réalisés en laboratoire dans des classes de fonctionnement tendant à se rapprocher le plus possible de la réalité du terrain. Les fourchettes de consommation moyenne totale TEC/TDA des meubles certifiés par EUROVENT sont :

  • pour la réfrigération (froid positif) comprise entre 5 et 15 kWh/m².jour* selon l’application;
  • pour la congélation (froid négatif) comprise entre 20 et 35 kWh/m².jour* selon l’application.

* : consommation électrique totale du meuble par m² de surface totale d’exposition et par jour.

Attention que ces valeurs ne sont pas des critères d’efficacité énergétique, mais simplement des mesures de consommations énergétiques selon un même protocole de mesures.

Apports thermiques

Les apports thermiques des meubles ouverts et fermés influencent leur bilan énergétique. Ils proviennent des apports internes et externes :
  • les apports internes sont principalement dus à l’éclairage, la chaleur des ventilateurs en convection forcée, les cycles de dégivrage, …;

  • les apports externes eux proviennent de l’ambiance de la zone de vente par induction et rayonnement au niveau de l’ouverture, par pénétration au niveau des parois, …

Bilans thermique et énergétique

> Les meubles ouverts

Le bilan thermique des meubles permet de dégager les consommations énergétiques de la production frigorifique (consommations électriques des compresseurs principalement). En effet, le bilan thermique des apports tant internes qu’externes détermine la puissance frigorifique de l’évaporateur des meubles qui, elle, conditionne au cours du temps le bilan énergétique de la machine frigorifique :

  • pour les applications de froid positif, on retiendra que l’évaporateur doit fournir les 2/3 de son énergie frigorifique pour combattre principalement l’induction au travers de l’ouverture du meuble.
  • Pour les applications de froid négatif, la plupart des consommations énergétiques proviennent surtout des apports externes (induction, rayonnement et pénétration) mais aussi du dégivrage. Il faudra donc en tenir compte dans une démarche énergétique URE (Utilisation Rationnelle de l’Énergie).

Exemple d’apports énergétiques d’un meuble ouvert vertical positif d’apports énergétiques d’un meuble ouvert horizontal négatif.

> Les meubles fermés

Le même exercice pour les meubles fermés :

  • en journée, l’évaporateur doit fournir une énergie frigorifique pour combattre principalement l’induction au travers de l’ouverture des portes du meuble. Cette induction représente 25 % des apports internes et externes tandis que les dégivrages nécessaires par résistances électriques représentent, quant à eux, 25 % des apports;
  • en dehors des périodes d’occupation, la moitié des apports proviennent de la pénétration au travers des vitres.

Exemple d’apports énergétiques de jour d’un meuble fermé vertical négatif et d’apports énergétiques de nuit d’un meuble fermé vertical négatif.

Dans certains cas, la consommation moyenne des meubles fermés peut être de l’ordre de 50 % du même modèle de meuble ouvert.

Puissances frigorifiques spécifiques et températures

La classification des meubles frigorifiques s’articule principalement sur des valeurs de puissance frigorifique par mètre linéaire [W/ml] :

  • pour les meubles ouverts :
    • pour les applications de froid positif, les puissances spécifiques oscillent en général entre 0,2 kW/ml (vitrine service par le personnel en convection naturelle) et 1,3 kW/ml (meuble vertical self service à convection forcée);
    • pour les applications de froid négatif, les puissances spécifiques, quant à elle, varient entre 0,4 et 2,1 kW/ml (respectivement pour les gondoles horizontales self-service en convection forcée et les meubles verticaux à convection forcée).
  • Pour les meubles frigorifiques fermés, les valeurs de puissance frigorifique par mètre linéaire sont de l’ordre de 0,8 à 0,9 [kW/ml]. On rencontre la plupart des meubles fermés dans les applications à froid négatif. Imaginez ce que serait la consommation des meubles à froid positif fermés.

Influence sur le bilan frigorifique du rideau d’air, du givrage, …

> Les rideaux d’air

Rideau d’air d’un meuble vertical ouvert positif.

Rideau d’air d’un meuble horizontal ouvert négatif.

Le point faible des meubles frigorifiques ouverts est naturellement la difficulté de maintenir une température interne basse au sein du meuble par rapport à une ambiance des zones de vente de l’ordre de 20 °C, soit un écart de température pouvant aller jusqu’à 50 °C, voire plus dans certaines conditions. Le rideau d’air vient au secours de ce type de meubles.

Pour évaluer l’efficacité d’un rideau d’air, on définit en général le taux d’induction X par le rapport de la masse d’air ambiant mélangée à celle du rideau d’air du meuble par unité de temps.

Le taux d’induction optimal est :

  • de l’ordre de 0,05 à 0,06 pour les meubles horizontaux;
  • de l’ordre de 0,1 à 0,2 pour les verticaux.

Le mélange de l’air ambiant et de l’air du rideau et de l’air interne au meuble entraîne deux phénomènes :

  • le refroidissement et la déshumidification de l’air ambiant externe au meuble (zones de vente);
  • le réchauffement et l’humidification à la reprise du rideau d’air. Ce deuxième phénomène est la cause principale de la consommation énergétique de l’évaporateur et, par conséquent de la production de froid (énergie nécessaire au refroidissement et au dégivrage).

Intuitivement, les déperditions par induction seront plus grandes pour les meubles frigorifiques verticaux de par un taux d’induction plus important.

> Le givrage

Formation de givre.

La formation de givre entraîne une réduction de la puissance frigorifique P0 suite à :
  • une réduction du débit d’air passant au travers de l’évaporateur;
  • et par conséquent une augmentation des pertes de charge dans le circuit de refroidissement;
  • une augmentation de la résistance thermique de la surface de refroidissement;
  • une chute de la température du fluide frigorigène.

Aussi, il découle de la réduction de débit que l’efficacité du rideau d’air sera moindre en favorisant l’augmentation des apports par induction, le passage accru de l’humidité de l’air ambiant et l’augmentation de la température de l’intérieur du meuble, …

Un dégivrage est donc nécessaire : pour les applications négatives, il faut tenir compte dans le bilan énergétique de la consommation de la résistance électrique de dégivrage.

Rappelons que de l’ordre de 23 % de l’énergie nécessaire à l’évaporateur pour combattre les apports sont dus au dégivrage lorsque l’on effectue 2 dégivrages de 30 minutes par jour.

> L’éclairage
Photo éclairage meuble frigorifique - 01. Photo éclairage meuble frigorifique - 02. Photo éclairage meuble frigorifique - 03.

Le placement d’éclairage directement dans l’enceinte du meuble augmente la consommation d’énergie à l’évaporateur de l’ordre de 10 %.

> Les protections de nuit

Photo protections de nuit meuble frigorifique - 01.   Photo protections de nuit meuble frigorifique - 02.

Les rideaux de nuit sont primordiaux dans la lutte contre les apports thermiques des meubles ouverts.

Sur une journée, avec des périodes d’inoccupation de 12 à 14 heures, on peut réduire de l’ordre de :

  • 8 à 45 % les consommations des meubles horizontaux suivant le type de protection (simple rideau à couvercle isolé par exemple);
  • 12 à 30 % les consommations des meubles verticaux.
> Les cordons chauffants

Photo cordons chauffants meuble frigorifique.

La chaleur générée par les cordons chauffants représente un apport de l’ordre de 1 %.

Évaluer

Pour en savoir plus sur l’évaluation de la performance énergétique des meubles ouverts.

Évaluer

Pour en savoir plus sur l’évaluation de la performance énergétique des meubles fermés.

 Les chambres froides

Photo chambres froides - 01.  Photo chambres froides - 02.

Analyse quantitative

Elle est purement indicative et n’est valable que si elle est complétée par l’analyse qualitative et comparée à une valeur de référence (de l’ordre de 200 Wh/m² de surface de vente pour la conservation par exemple). Bien que parfois difficile, l’évaluation de sa propre consommation peut se faire en mesurant les consommations électriques sur plusieurs jours au niveau de l’alimentation électrique :

  • du compresseur;
  • des ventilateurs de l’évaporateur et du condenseur;
  • des éclairages;
  • des cordons chauffants;

Analyse qualitative

La consommation (en général électrique) du poste froid dépend essentiellement du rendement de la production frigorifique, de la quantité de froid nécessaire pour refroidir les denrées et de la perte de froid. En décortiquant différents indices d’anomalie de consommation consignés dans une grille d’évaluation, on peut réaliser une analyse qualitative. Les indices sont entre autres : le type de refroidissement du compresseur, le transfert de froid dans la chambre froide, les fuites d’énergie par déperdition, …


L’efficacité énergétique et environnementale de la distribution du froid et de la production frigorifique

La distribution du froid

Circuit simple à détente directe.

Centrale à détente directe.

Centrale avec circuit caloporteur bi-tube (eau glycolée par exemple).

Centrale avec circuit caloporteur mono-tube (eau glycolée par exemple).

Détentes directe et indirecte : principe

Les diverses réglementations et normes accentuent la pression afin de diminuer l’utilisation massive des fluides frigorigènes ayant un impact sur l’effet de serre et la couche d’ozone (comme le R22 par exemple).

La solution qui vient directement à l’esprit est la détente directe (c’est le fluide frigorigène qui produit directement le froid avec un seul circuit) avec groupe frigorifique incorporé au meuble. Cette solution est intéressante pour les commerces de détail avec toutefois un bémol quant au niveau de la performance énergétique de l’installation (la température de condensation est en permanence élevée de part la température élevée régnant généralement dans les magasins).

Dans les moyennes et grandes surfaces, la détente directe est toujours envisageable, mais avec une production frigorifique centralisée à l’extérieur des zones de vente. Des quantités plus importantes de fluide frigorigène sont mises en jeu; ce qui grève l’efficacité environnementale de l’installation (on parle régulièrement de 600 kg de fluide frigorigène pour un supermarché par exemple). Pour cette raison, des solutions ont été développées pour réduire la quantité de fluides dans les circuits frigorifiques. Par exemple, l’utilisation de circuits primaires de fluides frigorifiques classiques en production centralisée et des circuits secondaires à fluide frigoporteur en distribution « utiles » (boucle secondaire d’eau glycolée par exemple) sont des solutions actuellement proposées aux responsables des grandes surfaces.

Réglementations et normes

En matière de sécurité, la norme NBN EN 378-1 traitant des « Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1 : Exigences de base, définitions, classification et critères de choix » est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.

Détente directe pour groupe incorporé

Les groupes incorporés dans les meubles frigorifiques ont des faibles charges de fluide frigorigène; ce qui limite l’impact de ce type de distribution sur l’environnement. Par contre, au niveau de l’efficacité énergétique, la détente directe de « proximité » est réservée au faible puissance frigorifique. Indirectement, de par un risque d’investissement trop conséquent par rapport à la puissance mise en jeu, les auxiliaires de régulation sont souvent peu performants et, par conséquent réduise l’efficacité énergétique de l’ensemble.

Détente directe pour production centralisée

Dans ce cas, le groupe frigorifique ne se trouve pas nécessairement à proximité des applications (meubles, chambre froide, …). La quantité de fluide frigorigène augmente donc et influence défavorablement l’impact sur l’environnement. En 2004, on comptait encore de l’ordre de 10 à 22 % de taux d’émission de fluide frigorigène dans l’atmosphère. Au niveau énergétique, il est nécessaire :

  • de limiter les pertes de charge tant dans les conduites d’aspiration que liquides (entre le condenseur et le détendeur);
  • d’isoler les conduites d’aspiration afin de faciliter le travail du compresseur;
  • d’isoler les conduites liquides afin d’éviter le risque de « flash gaz » et d’augmenter la puissance frigorifique de l’évaporateur.

Circuit frigoporteur

Les circuits frigoporteurs ne sont pas encore très courants dans le froid alimentaire au niveau de la distribution. Cependant, l’impact sur l’environnement et la sécurité des usagers pourraient voir apparaître des solutions comme les boucles frigoporteurs. Ce type de circuit secondaire permet de limiter les quantités de fluide frigorigène pour les grandes installations.

Actuellement, on trouve des installations dont le fluide frigoporteur est de l’eau glycolée, du CO2, ….

Évaluer

Pour en savoir plus sur l’efficacité de la distribution de froid.

La production de froid

Photo production de froid - 01. Photo production de froid - 02. Photo production de froid - 03.

L’efficacité de la production frigorifique

De l’analyse du fonctionnement thermodynamique de la machine frigorifique, on déduit son efficacité énergétique instantanée ou COPfroid. C’est le rapport entre la quantité de chaleur absorbée par l’évaporateur et la quantité d’énergie électrique totale absorbée par l’installation, soit principalement le compresseur, mais également les équipements annexes (ventilateurs, pompes de circulation d’eau, … ). On trouve dans les catalogues des valeurs de COPfroid de l’ordre de 2,5 à 5. Plusieurs méthodes d’évaluation de la performance énergétique d’un groupe de froid sont disponibles dont la lecture des puissances sur la plaque signalétique et la mesure des différences de température aux échangeurs.

Le bilan énergétique annuel

Si l’estimation ponctuelle du COPfroid de la machine frigorifique n’est déjà pas simple, réaliser le bilan énergétique annuel de l’appareil est vraiment complexe et long.

Pour déterminer la consommation d’énergie d’une installation, il est nécessaire d’intégrer tout au long de l’année les puissances absorbées à chaque régime de marche de tous les éléments consommant de l’énergie. Pour cela, il faut déterminer la variation des besoins de froid et le nombre d’heures correspondant à chacun de ses besoins; ceux-ci seront spécifiques à chaque installation. Le calcul est donc complexe …

En pratique, c’est un compteur électrique qui pourra totaliser les consommations, et l’historique du régulateur numérique qui pourra établir le fonctionnement sur une saison.

Le diagnostic d’une installation existante

Les signes de dysfonctionnement d’une installation frigorifique tels que les augmentations du temps de fonctionnement ou de démarrage du compresseur, le givrage de l’évaporateur, … entraînent des surconsommations. Les moyens de les mettre en évidence sont la mesure des puissances électriques et à l’évaporateur (calcul du COP) ou la mesure des temps de fonctionnement, du nombre de démarrages, … et d’effectuer la comparaison avec les valeurs nominales fournies par le constructeur.

La rentabilité énergétique des interventions de maintenance

Certaines sources (SECA) montrent que des économies peuvent être générées en nettoyant les ailettes des condenseurs à air (10 à 30 %) ou l’intérieur des échangeurs fluide frigorigène/eau côté eau (15 à 25 %). À l’inverse, le manque d’entretien peut entrainer des surconsommations de l’installation.

L’analyse de la puissance frigorifique installée

Une installation surdimensionnée génère des pertes de fonctionnement supplémentaires… Il est donc conseillé de « coller le plus possible aux besoins frigorifiques des applications :

  • Les applications de réfrigération comme les meubles, les vitrines … ont des puissances installées comprises entre 200 et 1 300 W/ml* suivant le type d’application. Le relevé du nombre de mètres linéaires installés dans le magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces meubles;
  • Les applications de congélation comme les meubles, les gondoles, … ont des puissances installées comprises entre 400 et 2 100 W/ml suivant le type d’application. De nouveau, le relevé du nombre de mètres linéaires installés dans le magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces meubles et gondoles;
  • Les chambres froides, quant à elles ont des puissances installées comprises entre 60 et 90 W/m³ suivant le type d’application (réfrigération, congélation). Le relevé du nombre de m³ des chambres froides considérées dans les réserves du magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces chambres.

* : W/ml ou des watts par mètre linéaire de meuble frigorifique.

L’intérêt d’une récupération de chaleur au condenseur

La récupération de chaleur sur le condenseur ne fonctionne que si les besoins de chaud et de froid sont nécessaires simultanément. Cela peut être le cas des magasins d’alimentation. Cependant, il faut s’assurer que les besoins de chaleur sont à basse température comme par exemple le préchauffage de l’eau chaude sanitaire, le chauffage au sol, … Dans le cas contraire (régime de température de 90-70 °C ou même 70-50 °C), on en arrive à des paradoxes où l’on se chauffe à l’électricité en direct avec une « usine à gaz » (c’est le cas de le dire).


Les fluides frigorigènes : impact environnemental et énergétique

Le fluide frigorigène utilisé à un impact :

Concevoir

Pour en savoir plus sur le choix d’un fluide frigorigène.

Outre le bon choix de fluide, il faudra veiller aux contrôles d’étanchéité tels qu’imposés par la réglementation.

Mesures

Pour en savoir plus sur comment mesurer les fuites de fluides frigorigènes.

Choisir le type d’éclairage : direct, mixte ou indirect ?

Éclairage direct

C’est l’éclairage direct qui donne les meilleurs résultats en termes de conception énergétique. On peut arriver à des valeurs de puissance spécifique sous certaines conditions de l’ordre de 1,5 W/m²/100 lux. Suivant l’usage des locaux ou des espaces dans les locaux, trois types d’éclairage ou un mixte des trois seront envisagés :

  • un éclairage général uniforme ;
  • un éclairage général orienté ;
  • un éclairage ponctuel.

Éclairage général uniforme

L’éclairage général uniforme  permet d’avoir une grande flexibilité des postes de travail. Attention toutefois que ce genre de considération conduit souvent à un surdimensionnement inutile des installations d’éclairage. La dernière version de la norme NBN EN 12464-1 palie à ce risque de surdimensionnement. En effet, dans la zone dite « de fond », le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1. Ce qui permet d’envisager un éclairage général uniforme de faible niveau d’éclairement et de prévoir des zones de travail mobiles et flexibles avec l’uniformité et le niveau d’éclairement requis. Énergétiquement parlant, c’est acceptable et vivement conseillé.

Exemple
Soit un hall d’usinage qui demande une très grande flexibilité par rapport à la position des postes de travail. Le niveau d’éclairement pour certains postes de travail pourrait être de 750 lux. Selon la NBN EN 12464-1, le niveau d’éclairement moyen devrait s’élever à 250 lux.

 

Cette configuration de luminaires permet d’envisager :

  • De modifier complètement la disposition du hall sans toucher à l’éclairage ;
  • Une disposition variable des postes de travail sur toute la surface du hall ;
  • L’installation de nouveaux équipements.

Les caractéristiques des luminaires peuvent être les suivantes :

  • Une répartition de façon non préférentielle ;
  • Des luminaires à caractéristiques modifiables (position des lampes, type de réflecteur, …) ;
  • Des luminaires montés sur rails porteurs, donc facilement déplaçables ; ce qui avait été envisagé dans l’étude de cas réalisée.

Éclairage général orienté

Lorsque la position des zones de travail est fixe (tableau d’une salle de cours, écran d’une salle de réunion, machines-outils fixes, …), localiser l’éclairage près des zones de travail est une excellente méthode pour limiter la puissance installée.
Attention toutefois au recommandation de la norme NBN EN 12464-1 :  Éviter des contrastes trop élevés. Dans la zone dite « de fond »,  le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1.
De manière générale, ce type d’éclairage permet :

  • D’envisager un niveau d’éclairement plus faible pour les circulations.
  • D’éviter de trop éclairer des zones où la lumière naturelle est présente en abondance sachant que lorsqu’il fait noir dehors, l’éclairage de la zone devant la baie vitrée n’est pas nécessaire.
  • Par le choix de luminaires asymétriques, obtenir un éclairement suffisant sur des plans verticaux comme dans les rayonnages des archives par exemple.

Le choix de l’éclairage général orienté devra aussi composer avec la structure du plafond et l’emplacement des poutres de structures qui risquent de faire écran à la disposition de la lumière ; à méditer !

Attention toutefois qu’un éclairage orienté mal positionné provoque des ombres indésirables et peut être dangereux notamment dans les ateliers où les postes de travail sont, par exemple, des machines tournantes.
Lorsqu’un atelier comporte des machines-outils dangereuses, des marquages appropriés doivent délimiter les zones de circulation et de travail, ainsi que les zones de danger. L’éclairage doit alors appuyer ces mesures en insistant sur les trois types de zone.

Éclairage ponctuel

Ce type d’éclairage permet de disposer d’un éclairement important au niveau des postes de travail de précision, sans augmenter exagérément le niveau d’éclairement général. Cette solution est toute profitable d’un point de vue énergétique.

Les luminaires individuels complémentaires  peuvent augmenter localement le niveau d’éclairement et accentuer certains contrastes.

Leur emplacement doit être approprié pour ne pas générer des situations dangereuses de travail :

Soit le ou les luminaires sont placés dans les allées encadrant les postes de travail, et ce en veillant à ce que la lumière provienne des côtés et qu’il n’y ait ni ombre ni d’éblouissement gênant.
Soit le ou les luminaires sont placés contre les postes de travail. Idéalement, ces luminaires devraient être équipés d’un gradateur de lumière. La position et l’orientation de ces luminaires doivent être réglables pour éviter les réflexions sur les objets éclairés.

Conseil : pensez  éventuellement à placer un interrupteur ou un détecteur de présence/d’absence à chaque poste de travail pour éviter que ces lampes restent allumées inutilement à des postes non-occupés.

Pour éviter de trop grandes variations de luminance dans le champ de vision des utilisateurs, maintien d’un niveau d’éclairement général suffisant par rapport à l’éclairement de la tâche :

Éclairement général = 3 x (Éclairement ponctuel)½

 Exemple dans les commerces

Dans les commerces d’ancienne génération, on se souvient tous, même les plus jeunes, du surdimensionnement de l’éclairage général uniforme de manière à couvrir l’ensemble de la surface de vente avec des niveaux d’éclairement de l’ordre de 750 lux. « Question de marketing, disaient les vendeurs ! »

Cependant, cet éclairage présente le risque de créer des zones d’ombre qui peuvent se révéler gênantes. Ce risque est d’autant plus important que la hauteur sous plafond est grande et que l’on utilise des luminaires suspendus. De plus, énergétiquement parlant, ce n’était pas la meilleure manière de travailler.

Le système direct à deux composantes est à préférer au système direct lorsque l’on veut mettre en valeur des objets, créer des contrastes de luminosité. On réalisera des économies d’énergie d’autant plus importantes que le niveau d’éclairement à assurer est supérieur au niveau d’éclairement général nécessaire (censé permettre un déplacement par exemple). On économisera de l’énergie en augmentant l’éclairage localement via un deuxième circuit plus intensif que le premier. Dans la pratique, on vérifiera ce constat théorique en réalisant une étude comparative des systèmes « directs »  et « à deux composantes ».

Éclairage indirect

Un éclairage indirect via le plafond a l’avantage de ne pas provoquer d’éblouissement par la vue directe des lampes. La probabilité d’ombre est inférieure. Mais son efficacité énergétique est faible et fort dépendante des coefficients de réflexion des parois (généralement le plafond).  Comme ceux-ci n’atteignent que rarement les 0.85, il faudra surdimensionner l’installation d’éclairage (en première approximation entre 15 et 30% voire 50% dans locaux où la hauteur sous plafond est importante) pour réaliser un éclairement équivalent à celui fourni par un éclairage direct. Ce système sera fortement dépendant de l’état de propreté des parois du local (ceci peut aussi conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple dans les commerces

Ce type d’éclairage sera proscrit sachant que, typiquement dans les commerces de type grande surface, les plafonds sont parcourus par des gaines de ventilation, des chemins de câbles électriques, … La tendance actuelle, bien comprise par un certain nombre de responsables énergie de magasin de grande distribution, est de prescrire un éclairage direct bien positionné avec un plafond sombre pour masquer sensiblement les techniques spéciales apparentes.

Éclairage mixte

Du point de vue efficacité énergétique, ce système se situe entre les systèmes directs et indirects. Plus la composante directe sera prépondérante, moins énergivore le système sera.

Il est à noter que les pertes complémentaires dues à la partie indirecte de l’éclairage seront en partie compensées par un rendement total du luminaire mixte souvent plus important que celui du luminaire direct.

En ce qui concerne le confort, ce type de système peut trouver son utilité dans le cas de locaux possédant une grande hauteur sous plafond, pour éviter la création d’une zone d’ombre trop importante. Ce constat est d’autant plus marqué si l’on utilise des luminaires suspendus. Dans ce cas, une faible proportion de flux lumineux dirigée vers le haut suffira.

Bien entendu, si la hauteur sous plafond est raisonnable, la réflexion sur les murs et le sol suffira à éclairer suffisamment le plafond.

Comme dans le cas du système indirect, ce système sera dépendant de l’état de propreté des parois du local (ceci peut conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple des commerces

Lorsque les plafonds ou faux plafonds sont de qualité acceptable et ne sont pas encombrés par des techniques spéciales apparentes, on pourra envisager ce type d’éclairage en favorisant la composante directe des luminaires, la composante indirecte donnant un « look » commercial intéressant.
« Il en faut pour tous les goûts ! »
Un autre exemple éclairant

On peut considérer que seul le flux dirigé vers le bas est efficace. En effet, la plupart du temps les luminaires sont situés au-dessus de la marchandise à éclairer. La plupart du temps seulement, car dans certains cas, la lumière émise vers le haut peut avoir un effet utile (éviter la présence d’une ombre gênante au niveau du plafond…).

Si l’on considère que seule la lumière dirigée vers le bas est utile, alors on peut introduire la notion de rendement utile du luminaire. Soit un appareil possédant les rendements suivants :

Rendement vers le bas : 30 %
Rendement total : 90 %
Rendement vers le haut : 60 %

La lumière dirigée vers le haut, avant d’atteindre la marchandise, devra être réfléchie par le plafond. Si on considère que cette surface possède un coefficient de réflexion de 0.7, alors 30 % de la lumière émise vers le haut sera « perdue ». On peut donc estimer que le luminaire possède les rendements utiles suivants :

Rendement vers le bas : 30 % Rendement total : 72 %
Rendement vers le haut :
60 * 0.7 = 42 %

Le rendement du luminaire a ainsi diminué de 20 %.

La figure suivante donne le facteur par lequel il faut multiplier le rendement pour trouver son équivalent « utile » en fonction du type d’éclairage choisi et pour un coefficient de réflexion de 0.7 pour le plafond. Notez que cette valeur est celle prise de manière standard. Cette valeur est assez élevée puisqu’elle correspond à un plafond peint en blanc. La valeur de ce coefficient descend à 0.25 si la peinture est brune et à 0 dans le cas d’un plafond noir.

Bien entendu, ce calcul est simplifié. Pour être exact, on devrait tenir compte de l’influence du système d’éclairage sur l’uniformité des niveaux d’éclairement, des autres réflexions sur les murs du local, …

Le but de cet exemple est de montrer qu’il est essentiel, lorsque l’on vise l’efficacité énergétique de limiter la composante supérieure du flux émis.

Comparaison en termes d’efficacité énergétique

Un point de comparaison s’impose entre les différents éclairages :

Comparaison de trois systèmes d’éclairage pour une même puissance installée :

6 luminaires de 2 x 36 W (et ballast électronique),
pour une classe de 7 m x 8 m x 3,2 m, soit 7,7 W/m²,
coefficients de réflexion : 0,7 (plafond); 0,5 (murs); 0,3 (sol).

Système d’éclairage

Direct Mixte Indirect

Éclairement sur le plan de travail

348 lux 350 lux 231 lux

Éclairement au sol

310 lux 304 lux 207 lux

Type de lampes

Tubes fluo Tubes fluo Tubes fluo

Puissance spécifique/100 lux sur le plan de travail

2,2 W/m2 2,2 W/m2 3,3 W/m2

Parmi les choix énergétiquement corrects, on retiendra le direct et le mixte. L’indirect sera juste réservé pour créer des ambiances bien spécifiques lorsque ce choix se révèle incontournable comme dans certains locaux d’hôtel (bar, accueil, …), des chambres d’hôpital, …

Découvrez ces exemples de rénovation de l’éclairage : un établissement scolaire au centre de Liège et une fabrique de peinture à Lausanne.

Choisir la cellule de refroidissement ou de congélation rapide [Concevoir – Froid alimentaire]

Quand doit-on choisir une cellule de refroidissement rapide ?

Dans tout atelier traiteur par exemple où l’on a opté pour une liaison froide, il est recommandé d’abaisser la température au cœur des aliments de + 65 °C à + 10 °C en moins de 2 heures. La cellule de refroidissement rapide est l’équipement idéal pour atteindre ces performances.

Il ne s’agit pas d’une obligation, mais d’une bonne pratique de fabrication qui est recommandée si l’on veut refroidir des aliments cuits en toute sécurité et si on veut prouver que des procédures de sécurité sont appliquées conformément à l’art. 3 et 4 de l’A.R du 07/02/97.

Cette bonne pratique provient, en fait, d’une réglementation qui s’applique aux établissements de transformation de la viande : A.R. du 4 juillet 1996 relatif aux conditions générales et spéciales d’exploitation des abattoirs et d’autres établissements / annexe chapitre V point 5, qui dépendent de l’IEV (Institut d’Expertise Vétérinaire).

Il convient de noter que le choix de la liaison froide peut se faire pour l’ensemble des menus ou pour une partie seulement. Il existe, par exemple, certaines cuisines collectives qui proposent chaque jour des plats végétariens en plus du menu du jour, mais pour ne pas avoir à fabriquer chaque jour deux plats, les plats végétariens sont préparés un jour par semaine, par exemple, en liaison froide.


Choix du procédé de production du froid

Il existe deux procédés de production du froid dans une cellule de refroidissement rapide :

Les coûts d’utilisation d’une cellule de froid mécanique sont nettement (10 x) plus faibles que ceux d’une cellule de froid cryogénique. Par contre, les coûts d’investissement pour une cellule cryogénique sont nettement plus faibles que pour une cellule mécanique.

Pour une utilisation régulière de la cellule, la cellule mécanique sera donc beaucoup plus intéressante. Dans le seul cas d’une utilisation occasionnelle, une cellule cryogénique peut être intéressante.

Lorsque le refroidissement rapide est utilisé régulièrement, il paraît risqué de n’avoir qu’une seule cellule. En cas de panne, la préparation est bloquée. On peut alors songer à investir dans une cellule de refroidissement mécanique principale et une deuxième cellule cryogénique de dépannage.

Parmi les fluides utilisés pour le froid cryogénique, vu la très faible température d’ébullition de l’azote, celui-ci est utilisé lorsque les distances à parcourir entre le lieu de stockage du fluide et le lieu de production du froid sont grandes.

Il faut cependant veiller à bien calorifuger les conduites. Le dioxyde de carbone (CO2) sera utilisé lorsque ces distances sont plus courtes.


Précautions d’utilisation

Pour obtenir un fonctionnement satisfaisant et économique, on place les préparations sur les clayettes ou les supports prévus à cet effet, afin de favoriser la circulation de l’air, et d’utiliser la cellule à sa capacité nominale.

Capacité et puissance frigorifique des cellules

La capacité (kg)

Elle doit correspondre à celle des appareils de cuisson, c’est-à-dire qu’elle doit permettre de refroidir le nombre de préparations qui peuvent être préparées en une seule fois par les autres appareils de cuisson.

L’ensemble des mets préparés pourra ainsi être refroidi dès la fin de la cuisson. En effet, selon la réglementation, « la durée de refroidissement entre la fin de la cuisson et une température à cœur de 10°C doit être inférieure ou égale à deux heures. »

D’autre part, la cellule pourra ainsi être utilisée à sa pleine capacité. Ce qui permet de travailler au meilleur rendement possible.

La puissance frigorifique

de l’appareil dépend de la durée que prend le refroidissement ou la congélation, de la capacité désirée et de la température à atteindre. Le besoin en frigories est donné par la quantité de chaleur qu’il faut retirer des aliments pour les faire passer de 65°C à 10 °C (ou – 18 °C).

Le calcul ci-dessous est statique et purement théorique. Il est donné à titre indicatif. En réalité, pour correspondre à la réalité, le calcul devrait être fait en dynamique. Statique, le bilan ci-dessous néglige les apports de chaleur au travers des parois, relativement négligeables par rapport à la chaleur à extraire des aliments.
En refroidissement rapide

Q = m x Cs x δt

Où :

  • Q = besoin en frigories (en kWh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs= chaleur spécifique des aliments (kWh/kg°C),
  • δt = différence entre la température à l’entrée et à la sortie des aliments (10°C) (K).

En congélation rapide

Q = (m x Cs x δt) + (m x Cl) + (P1 x Cs‘ x δt’)

Où :

  • Q = besoin en frigories (en Wh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs = chaleur spécifique au-dessus de 0°C des aliments (Wh/kg°C),
  • Cl = chaleur latente nécessaire au changement d’état du constituant liquide des aliments (passage à l’état solide) (Wh/kg),
  • Cs‘ = chaleur spécifique en-dessous de 0°C des aliments (Wh/kg°C),
  • δt = différence entre la température à l’entrée des aliments et 0°C (K),
  • δt’ = différence entre 0°C et la température de sortie des aliments (-18°C) (K),

La puissance frigorifique de l’évaporateur

P(W) = Q (Wh) / t (h)

Où :

  • t = temps maximum légal – temps nécessaire au conditionnement des aliments.

Temps maximum légal = 2 h pour le refroidissement de 65 °C à 10 °C et 3 h pour le passage de 10 °C à -18 °C (congélation).

Exemple.

1. Soit une cellule de congélation rapide, d’une capacité de 20 kg; la congélation doit se faire en 4 h.

Q = 20 x 1,04 x 65 + 20 x 80 + 20 x 0,53 x 18 = 3 143 (Wh) (soit 157 Wh par kg)
P =  3 143  /  4 = 785 W (soit 40 W/ kg.)

2. Soit une cellule de refroidissement rapide, d’une capacité 20 kg; le refroidissement doit se faire en 1h30.

Q = 20 x 1,04 x 55 = 1 144 Wh (soit 57 Wh/kg.)
P = 1 144/1h30 = 762 W (soit 38 W/kg).

En réalité la puissance calculée ci-dessus en statique est une moyenne. Or, la puissance nécessaire varie en fonction du temps, selon une courbe d’allure exponentielle, et la puissance maximale est demandée à l’évaporateur en début de processus (c’est alors que les Δt sont les plus importants). La puissance frigorifique des cellules correspond donc à cette puissance maximale.

Voici les puissances électriques que nous avons relevées dans la documentation d’un fournisseur :

Remarque : entre la puissance frigorifique et la puissance électrique, il y a le COP.

Cellule à clayette – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
7 2 100
15 2 280/450*
25 4 000/580*
50 6 100/580*

* version équipée sans groupe frigorifique (à distance).

Cellule à chariots – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
En surgélation En refroidissement
65 65 3 200/900*
80 110 5 400/4 300*
160 220 9 600/6 600*
240 330 11 500*
320 440 14 000*
480 660 20 000*

* version équipée sans groupe non comprise l’alimentation du groupe frigorifique (à distance).

Évaluer le confort thermique des ambiances froides

Évaluer le confort thermique des ambiances froides


Effet du froid sur le corps humain

Photo chambre froide.

Travailler dans des températures froides comme en boucherie peut être dangereux pour la santé pouvant même, à l’extrême, entraîner la mort (au risque de faire sourire certain, rester bloqué dans une chambre de congélation pendant un temps prolongé peut être fatal). Le corps doit absolument maintenir sa température corporelle à 37 °C pour préserver la santé des personnes et aussi fournir l’énergie nécessaire aux activités physiques. Le métabolisme sert au corps humain à s’adapter aux conditions difficiles de travail dans des ambiances froides.

Afin de maintenir son équilibre thermique en zone froide, le corps dispose de mécanismes de régulation :

  • Un mécanisme très complexe de régulation physiologique qui a pour but d’adapter le métabolisme et l’échange de chaleur au niveau de la peau et des poumons en fonction des conditions intra et extracorporelles. Pour demeurer actif dans une zone froide, le corps compense la perte constante de chaleur par la production équivalente de chaleur en « brûlant » le glycogène qui est notre carburant vital. Les frissons, par exemple, augmentent la production de chaleur de notre corps de l’ordre de 500 %. À ce niveau de consommation, notre corps s’épuise en quelques heures; raison pour laquelle le risque de s’endormir dans des ambiances froides est non négligeable.
  • Des mécanismes comportementaux qui permettent à l’humain d’améliorer sa tolérance au froid. Il peut très bien adapter son alimentation, son hydratation, sa tenue vestimentaire, ses attitudes posturales et physiques.

Quels risques pour la santé ?

L’exposition aux basses températures se rencontre fréquemment dans la chaîne de froid alimentaire que ce soit au niveau du personnel que des clients. Les principaux effets sur la santé d’une exposition directe et prolongée au froid sont :

  • l’hypothermie;
  • l’engelure;
  • un risque accru de troubles musculosquelettiques (TMS) en cas d’exposition prolongée;

Il faut être particulièrement vigilant dès que la température ambiante devient inférieure à 5 °C; ce qui se rencontre assez régulièrement dans les commerces (boucherie, poissonnerie, …)

Hypothermie

L’hypothermie est une des principales causes de mortalité liée à l’exposition directe au froid. Dans les commerces, ce risque est uniquement présent dans les chambres froides à 4 °C et – 18 °C. Pour cette raison, les portes des chambres froides sont toujours équipées de moyens d’ouverture des portes de l’intérieur.

Le tableau suivant montre les différents stades de l’hypothermie :

Manifestation clinique de l’hypothermie
Niveau

Température corporelle

Symptômes
Léger
35 – 32 °C
  • Confusion minime.
  • Frissons.
  • Perte de la coordination motrice.
  • Augmentation de la fréquence cardiaque et pression artérielle.
  • Vasoconstriction périphérique.
Modéré
 < 32,2 – 28 °C
  • Coma vigile.
  • Rigidité musculaire.
  • Disparition des frissons.
  • Hypoventilation.
Sévère
< 28 °C
  • Coma aréactif.
  • Rigidité.
  • Apnée.
  • Disparition des pouls.
  • Fibrillation ventriculaire.

Engelure

C’est le premier degré de la gelure. Dans les zones froides des commerces, c’est surtout les extrémités et surtout les mains qui sont les plus exposées au froid lors des manutentions des denrées alimentaires congelées par exemple.

Douleurs

La sensation de froid suivie de douleurs dans les parties exposées du corps est l’un des signes de gelures ou d’une hypothermie légère.

Acrosyndrome et syndrome de Raynaud

Le syndrome de Raynaud est le résultat d’une diminution du diamètre des artérioles des mains et des orteils lors d’une exposition prolongée au froid. La diminution du diamètre entraîne une réduction de l’irrigation sanguine dans les extrémités et se traduit par l’apparition d’une pâleur de deux à trois doigts de chaque main.

Troubles musculosquelettiques

Des études ont mis en évidence une relation entre des troubles musculosquelettiques et les situations de travail dans le froid associées à des facteurs tels que :

  • des mouvements répétitifs;
  • des amplitudes articulaires importantes;
  • des postures extrêmes;
  • des vibrations;
  • du temps de repos insuffisant;
  • du stress;

Quels facteurs de risque ?

Les risques dépendent de différents facteurs :

  • climatiques ou ambiants tels que la température, l’humidité et la vitesse de l’air;
  • liés au poste de travail ou à la tâche à exécuter;
  • individuels.

Facteurs climatiques ou ambiants : la température

La température et l’humidité de l’air sont deux des 6 paramètres qui influencent la sensation de confort thermique. On retrouve en effet :

  • Le métabolisme, qui est la production de chaleur interne au corps humain permettant de maintenir celui-ci autour de 36,7 °C. Un métabolisme de travail correspondant à une activité particulière s’ajoute au métabolisme de base du corps au repos.
  • L’habillement, qui représente une résistance thermique aux échanges de chaleur entre la surface de la peau et l’environnement.
  • La température ambiante de l’air Ta.
  • La température moyenne des parois Tp.
  • L’humidité relative de l’air (HR), qui est le rapport exprimé en pourcentage entre la quantité d’eau contenue dans l’air à la température Ta et la quantité maximale d’eau contenue à la même température.
  • La vitesse de l’air, qui influence les échanges de chaleur par convection.

En général le couple température-humidité est indissociable dans des conditions climatiques normales sous nos latitudes.

Le problème des températures au niveau de la chaîne de froid alimentaire est conditionné par le respect des températures de conservation tout au long de la chaîne. Nécessairement, ces températures sont basses et n’entrent pas dans les températures de confort pour le corps humain.

À partir de températures inférieures à :

  • 15 °C, notamment pour les postes statiques ou de pénibilité légère, l’inconfort a des fortes chances de se ressentir mais varie selon les individus;
  • 5 °C et en particulier à des températures négatives, le risque pour la santé est immédiat comme dans le cas de travail dans les chambres froides de stockage positives ou négatives.

Clairement, les ambiances froides dans lesquelles évoluent les travailleurs sont inconfortables; elles sont dues principalement aux basses températures et à l’humidité.

Par rapport à la plage de confort hygrothermique habituellement présentée (extrait de l’article de R. Fauconnier L’action de l’humidité de l’air sur la santé dans les bâtiments tertiaires paru dans le numéro 10/1992 de la revue Chauffage Ventilation Conditionnement), on voit tout de suite qu’au niveau de nombreux postes de travail l’inconfort est souvent présent :

  • dans les allées froides, les températures peuvent descendre sous les 16 °C, ce qui signifie qu’en été, par exemple, le choc thermique peut être important vu que les clients passent rapidement d’une ambiance chaude (rayon « no food »), voire surchauffée (boulangerie), à une ambiance réfrigérée;

  • dans les zones climatisées basses (12 °C) et en chambre froide (0 °C, 4 °C et -18 °C).

  1. Zone à éviter vis-à-vis des problèmes de sécheresse.
  2. et 3 : Zones à éviter vis-à-vis des développements de bactéries et de microchampignons.
  3. Zone à éviter vis-à-vis des développements d’acariens.
  4. Polygone de confort hygrothermique.

Le schéma suivant représente des polygones de fonctionnement classiques des meubles frigorifiques dans les zones de vente. Le polygone « rose » représente l’ambiance de la zone (température, hygrométrie) dans laquelle le meuble frigorifique fonctionne correctement. C’est aussi en grande partie la zone de confort des usagers. On voit tout de suite que l’inconfort se situe à l’extrême gauche du polygone de confort. En pratique, dans les allées froides, cette limite est souvent atteinte.

La zone hachurée correspond à la zone de confort.

Facteurs climatiques ou ambiants : l’humidité

L’humidité relative influence le confort du corps humain dans le sens où la perte de chaleur du corps humain augmente dans des conditions humides. Cependant, le taux d’humidité présent aux températures basses de la chaîne de froid dépend de plus en plus :

  • de l’échange hygrothermique qui s’opère avec l’ambiance extérieure;
  • de l’occupation (respiration des personnes dans l’ambiance froide).

En effet, à part les fruits et les légumes, les denrées alimentaires sont souvent conditionnées dans des emballages qui réduisent ou évitent leur échange hygrométrique avec l’ambiance froide. De plus, l’humidité résiduelle présente dans l’ambiance froide va en grande partie se condenser et geler sur les ailettes de l’évaporateur qui agissent comme déshumidificateur. Il en résulte que l’humidité absolue dans les ambiances froides reste sensiblement basse. Toutefois, même dans une ambiance relativement froide avec une humidité absolue faible, l’inconfort peut aussi être présent pour des humidités relatives élevées.

Accumulation de l’humidité ambiance sur les ailettes de l’évaporateur (« prise en glace »).

Facteurs climatiques ou ambiants : la vitesse

La vitesse de l’air est un facteur qui renforce la sensation d’inconfort. On parle souvent d’une vitesse de l’ordre de 0.2 m/s maximum pour ne pas augmenter l’inconfort dans les zones à basse température.

Grille des températures ressenties en fonction de la vitesse du vent et niveau de danger d’une exposition au froid
Indice de refroidissement éolien

Vitesse de l’air [m/s]

La température réellement mesurée correspond à une vitesse de vent nulle [°C]
0
5 0

-5

-10

-15 -20 -25 -30
1,4
4 -2 -7 -13 -19 -24 -30 -36
2,8
3 -3 -9 -15 -21 -27 -33 -39
4,2
2 -4 -11 -17 -23 -29 -35 -41
5,6
1 -5 -12 -18 -24 -31 -37 -43
7 1 -6 -12 -19 -25 -32 -38 -45
8,3
0 -7 -13 -20 -26 -33 -39 -46
9,7
0 -7 -14 -20 -27 -33 -40 -47

11,1

-1 -7 -14 -21 -27 -34 -41 -48
12,5
-1 -8 -15 -21 -28 -35 -42 -48
13,9
-1 -8 -15 -22 -29 -35 -42 -49
Risque faible. Risque modéré. Risque élevé.
Risque faible.
  • peu de danger pour les expositions au froid de moins d’une heure avec peau sèche;
  • risque d’engelure faible, mais inconfort;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque modéré.
  • risque croissant pour des températures comprises entre – 25 et – 30°C;
  • la peau peut geler en 10 à 30 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque élevé.
  • risque élevé pour des températures comprises entre – 40 et – 49°C;
  • gelures graves en moins de 10 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque sérieux d’hypothermie pour les expositions de longue durée.

Photo chambre froide.Source : Commission de la Santé et de la Sécurité au Travail (CSST/Canada) : Contrainte thermique : Le froid; Service Météorologique du Canada : le refroidissement éolien.

Facteurs inhérents au poste de travail ou à la tâche à exécuter

Il est clair que certains facteurs de condition de travail ou d’exposition au froid peuvent augmenter les risques. On pointera principalement :

  • la prolongation de la durée d’exposition en continu au froid;
  • L’absence de salle de repos chauffée;
  • Exécution d’une tâche à des cadences ou d’un travail physique intense ou moyen mettant le sujet exposé en transpiration. La peau humide est plus sensible au froid et des vêtements humides sont inconfortables et isolent mal du froid;
  • L’insuffisance des poses de récupération;
  • Le port de vêtements non adapté au froid, ou ne procurant pas un niveau d’isolation thermique suffisant.
  • La possibilité de contact direct de la peau nue avec des surfaces métalliques froides à des températures inférieures à -7 °C;
  • L’utilisation de gants peu adaptés à la tâche à réaliser sachant que des gants épais réduisent la dextérité et augmentent l’effort à fournir.

Facteurs individuels

En général, la réaction au froid varie d’un individu à l’autre. Cependant, certaines caractéristiques individuelles contribuent à majorer les conséquences d’une exposition au froid comme :

  • l’age : les personnes âgées sont plus sensibles;
  • le sexe : la vitesse de refroidissement des pieds et des mains chez la femme (égalité avez-vous dit ?);
  • la morphologie : rapport entre la surface de peau et le volume du corps;
  • la condition physique : les personnes en bonne santé supportent mieux la sensation de froid;
  • la présence de trouble de la circulation;
  • la fatigue;
  • les apports alimentaires et liquides insuffisants (contribuant à la production de chaleur par l’organisme et limitant la déshydratation).

Certains facteurs de risque peuvent favoriser la survenue de symptômes liés au froid comme par exemple :

  • les médicaments comme l’insuline peuvent être responsable d’hypothermie;
  • l’alcool est un vasodilatateur qui accroît la perte de chaleur du corps, réduit la régulation thermique interne et modifie le métabolisme du sucre dans le sang;
  • lors de la grossesse, la femme est plus vulnérable;

Acclimatation au froid

En fait, il n’y a pas vraiment d’acclimatation au froid. Cependant, certaines parties du corps comme les mains peuvent développer une certaine résistance au froid (cas des bouchers qui peuvent sans problème couper de la viande froide sans gants).

Conclusion

La conservation des denrées alimentaires fixant les températures qu’il doit régner dans les enceintes froides, impose au personnel de s’habiller en conséquence. Le temps de travail doit être aussi adapté sous peine de voir le risque d’accident augmenter et l’efficacité du travail diminuer rapidement.


Comment évaluer sa situation ?

Confort en ambiance froide

L’évaluation du confort dans des ambiances froides se révèle beaucoup plus difficile que dans les zones des commerces qui sont à température ambiante classique (de l’ordre de 20 °C). En effet, la plupart des études sur le confort se cantonnent dans des valeurs de température au dessus de 15 °C. Or les températures que l’on rencontre dans les commerces au niveau de la chaîne de froid alimentaire se trouvent plutôt dans la fourchette de – 20 °C à 12 °C avec comme cas particulier les températures comprises entre 10 et 12 °C pour des conditions de travail prolongé.

La notion du confort peut être exprimée par l’équilibre thermique du corps. En effet, placé dans une ambiance thermique froide le corps humain perd de sa chaleur. Si la production de la chaleur liée au métabolisme est égale aux pertes de chaleur à travers les vêtements et les extrémités non protégées, le bilan thermique est nul et l’occupant est en équilibre thermique.

L’évaluation du confort passe donc par l’élaboration d’une méthode de quantification de l’équilibre thermique du corps humain en fonction des contraintes externes et de l’habillement.

Indices d’isolation vestimentaire

Vu la nécessité de se vêtir correctement dans les ambiances froides, la notion de confort et de sécurité passe par un indice intéressant qui a été introduit dans un document de travail ISO (ISO/TR 11 079) portant sur l’évaluation des ambiances thermiques froides; c’est l’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index). Il permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être utilisé lorsque la température est inférieure à 10 °C.

Le port d’un vêtement dont l’isolement est inférieur à l’indice IREQ requis, implique qu’une durée d’exposition limite doit être calculée (DLE). Il en résulte que si la durée d’exposition est inférieure à la durée DLE calculée, il n’y a pas de risque d’hypothermie. Pour les travailleurs en chambre froide, l’indice IREQ est en général compris entre 2,5 et 4 [clo]. Actuellement, les meilleurs vêtements de protection contre le froid offrent une isolation thermique comprise entre 3 et 4 [clo].

Clo : c’est l’unité d’isolement thermique où 1 [clo] correspond à 1,155 [K.m²/W].

Pratiquement parlant, il est admis que plusieurs couches de vêtements valent mieux qu’un seul vêtement épais.

Exemple

Une tenue vestimentaire composée :

  • de sous-vêtements;
  • d’un caleçon long;
  • d’un pantalon;
  • d’une veste isolante;
  • d’un sur-pantalon;
  • de chaussettes ;
  • de chaussures;
  • d’un bonnet;
  • de gants;

permet d’atteindre un IREQ de l’ordre de 2,6.

Attention que la couche la plus proche de la peau doit être isolante et éloigner l’humidité de la peau afin de la maintenir sèche.

Attention qu’il ne faut pas oublier, lors d’un travail en ambiance froide, qu’il est nécessaire d’adapter l’isolement vestimentaire à la pénibilité de la charge de travail. Ainsi, la valeur de l’indice IREQ peut être réduite de l’ordre de :

  • 10 % pour un travail léger;
  • 20 % pour les travaux plus intenses.

Contrainte ou astreinte thermique

Les conditions climatiques de l’ambiance froide sont évaluées en mesurant différents paramètres physiques :

  • la température de l’air avec un thermomètre. Les équipements faisant partie de la chaîne de froid (chambre froide, chambre climatisée, meuble frigorifique ouvert, …) sont souvent équipés de leur propre thermomètre ou même un enregistreur de température. L’évaluation n’est donc pas difficile en soi;
  • la température de rayonnement avec par exemple un thermomètre de contact pour la température de paroi;
  • l’humidité avec un hygromètre;
  • la vitesse de l’air avec un anémomètre.

Une bonne image du confort thermique est donnée par la température opérative, moyenne arithmétique entre la température de l’air et la température des parois.

Topérative = (Tair + Tparois) / 2

  • La mesure de la température de l’air se fait à l’aide d’un thermomètre protégé du rayonnement solaire et du rayonnement des parois du local.
  • La température de surface d’une paroi se fait à l’aide d’une sonde de contact ou sonde à rayonnement infrarouge.

Malheureusement, la température de rayonnement des parois est celle ressentie par l’occupant à l’endroit où il se trouve. Elle doit en principe être « individualisée » sur base de la position de l’occupant et de sa relation avec l’ensemble des parois. Mais ne soyons pas plus catholiques que le pape.

Dépense énergétique

Pour produire 1 [Joule] de travail, l’organisme en produit entre 5 et 90 Joules de chaleur. Dans les ambiances froides, l’activité physique « protège » le corps humain en brûlant de l’énergie fournie entre autres par l’alimentation. À titre indicatif, la norme ISO 8996 [32] détaille les différentes méthodes d’évaluation de la dépense énergétique.

Température corporelle : température cutanée du dos de la main

Le travail prolongé au niveau de la chaîne alimentaire nécessite que l’on adapte les conditions de travail pour maintenir un confort relatif et surtout une sécurité optimale des occupants.

Dans des températures habituelles de travail, le refroidissement corporel et le risque d’hypothermie sont faibles. Il n’en est pas de même pour le refroidissement des extrémités. Dans la plupart des cas de condition d’ambiance froide dans le secteur des commerces, la température de peau des extrémités du corps constitue une bonne évaluation de l’impact des basses températures sur le confort et la sécurité. Plus particulièrement, la mesure de la température cutanée du dos de la main représente un critère de dextérité conservée.

En général, on associe la température du dos de la main à une durée d’exposition.

L’INRS (Institut National de Recherche Scientifique : M. Aptel, Le travail au froid artificiel dans l’industrie alimentaire : description des astreintes et des recommandations, Cahier des notes documentaires n°126, 1er trimestre 1987) a montré l’influence de la température cutanée du dos de la main, du temps d’exposition au froid et de la répartition des alternances chaud/froid sur la dextérité des mains.

Les schémas ci-dessous montrent l’évolution de la contrainte thermique cutanée en fonction des répartitions des périodes d’exposition au froid au cours d’une journée de travail entre chambre froide (- 23°C) et en chambre climatisée (5°C).

Les expériences menées à l’INRS ont montré plusieurs choses :

  • Au-dessus d’un seuil de température cutanée de 24 °C, la dextérité des doigts des mains n’est altérée. À ce seuil, le refroidissement de la main n’entraîne qu’un inconfort thermique. Mais dès que le seuil des 24 °C est franchi, la capacité à effectuer des tâches de précision est réduite.
  • Une pause d’environ 25 minutes n’est pas suffisante pour réchauffer les mains.
  • Le réchauffement de la main pendant la pause est d’autant plus important que le refroidissement est plus intense.
  • Le refroidissement du travailleur en chambre climatisée est plus important que celui en chambre froide.

La mesure de la température cutanée du dos de la main est la méthode qui semble la plus intéressante pour les conditions de travail en ambiance froide, mais elle ne constitue pas un indice permettant de prévoir le refroidissement des travailleurs à partir des mesures des paramètres physiques des conditions climatiques des zones froides. Cependant, cet indicateur est le plus facilement exploitable car :

  • spontanément les occupants adaptent leur tenue vestimentaire en fonction de la sévérité des conditions d’ambiance; ce qui simplifie l’évaluation de l’impact du froid sur la personne;
  • lorsque la température cutanée de la main descend sous 23-24 °C , la dextérité diminue;
  • la perception du refroidissement des extrémités varie d’un individu à l’autre. Seul un indicateur d’astreinte peut la prendre en compte;
  • enfin, il peut être mesuré facilement.

Recommandations, normes et règlements

Les recommandations et normes se concentrent essentiellement sur la protection des travailleurs exposés au froid. La notion de confort est moins perceptible par rapport à la sécurité, mais est néanmoins bien présente puisqu’elle influence l’efficacité du travail et, par conséquent, le bien-être et la sécurité.

Les vêtements de protection

Les vêtements de protection contre le froid sont considérés comme des équipements de protection individuelle (EPI).

Les vêtements contre le froid offrent une barrière entre la peau et le milieu ambiant, modifiant aussi bien les échanges de chaleur convectifs et radiatifs, que ceux par évaporation. Il se crée autour de la peau couverte, un microclimat caractérisé par une température d’air et par une pression partielle de vapeur d’eau. La température de rayonnement caractéristique du microclimat est celle de la face interne du vêtement. L’influence du vêtement sur les échanges de chaleur, comme on l’a vu ci-dessus est très complexe.

Le port d’un vêtement de protection freine les échanges thermiques, ce qui est bénéfique en ambiance froide.

Classes des vêtements de protection

La majorité des vêtements contre le froid appartiennent à la classe II. Mais les vêtements, les accessoires (détachables ou non) et tous les équipements destinés à la protection de tout ou d’une partie du visage, du pied, de la jambe, de la main, du bras et conçus pour permettre l’intervention dans les ambiances froides dont les effets sont comparables à ceux d’une température d’air inférieure ou égale à -50°C appartiennent à la classe III. Quant aux vêtements et aux accessoires (détachables ou non) qui sont conçus pour protéger contre les conditions atmosphériques qui ne sont ni exceptionnelles ni extrêmes et à usage professionnel, ils appartiennent à la classe I.

La norme EN 511

La norme EN 511 définit les exigences et les méthodes d’essai des gants de protection contre le froid, d’origine climatique ou artificielle, transmis par convection ou par conduction jusqu’à -50 °C.

Les principaux sujets traités sont repris dans le tableau suivant :

Sujet Définition
Froid convectif
TR [°C.m²/W] représente la résistance à la perte de chaleur sèche de la main.
Niveau d’isolement thermique

R en m² °C/W)

Froid de contact
est fondée sur la résistance thermique du matériau composant le gant lorsqu’il est en contact avec un objet froid
Imperméabilité à l’eau

 

facteur de pénétration du gant par l’eau

La norme prEN 342

Le prEN 342 spécifie les exigences et les méthodes d’essais de performance des vêtements de protection contre le froid à des températures inférieures à -5 °C.

L’isolation thermique du vêtement de protection est évaluée en combinaison avec les sous-vêtements standards :

  • maillot à manches longues;
  • caleçons longs;
  • chaussettes;
  • pantoufles en feutre;
  • gilet isolant;
  • caleçons isolants;
  • gants tricotés;
  • passe-montagne.

L’isolation thermique d’un ensemble de vêtements (vêtements de protection et sous-vêtements) est classée en fonction de la valeur de l’isolation de base résultante mesurée (Iclr).

La performance d’un ensemble vestimentaire, en termes de maintien de l’équilibre thermique du corps à la température normale, dépend de la production de chaleur métabolique interne. C’est pourquoi la valeur de protection d’un ensemble vestimentaire est évaluée en comparant sa valeur d’isolation mesurée et la valeur d’isolation requise calculée (IREQ) comme montré dans le tableau ci-dessous :

Icl. r.
Activité
très légère : 90 W/m² légère : 115 W/m² modérée 170 W/m²
temps d’exposition [heures]
[m².°C/W] clo
8
1
8
1
8
1
0,15
1,0
-3
3
-5
0,23
1,5
4
8
-13
-7
-18
0,31
2,0
10
-4
1
-23
-18
-31
0,38
2,5
4
-12
-6
-33
-29
-44
0,46
3,0
-1
-21
-13
-43
-39
-57
0,54
3,5
-7
-30
-20
-53
-49
-70
0,62
4,0
-13
-39
-28
-63
-60
0,70
4,5
-19
-48
-35
  • Les valeurs Icl. r. sont seulement valables avec des gants, chaussures et couvre-chef adéquats et une vitesse d’air compris entre 0,3 m/s et 0,5 m/s;
  • Des vitesses d’air plus élevées augmenteront les températures indiquées dans le tableau à cause de l’effet de refroidissement par le vent (WCI). Un niveau adapté de l’isolation de tout le corps peut ne pas être suffisant pour éviter le refroidissement des parties sensibles du corps (par exemple les mains, les pieds, le visage) et le risque concomitant de gelures.

Le projet de norme ISO/TR 11079

Le projet de norme ISO /TR 11079 Évaluation des ambiances froides – Détermination de l’isolement requis des vêtements (IREQ) décrit la procédure d’évaluation des ambiances froides et de détermination de l’isolement requis des vêtements à mettre à la disposition des travailleurs.

Par ailleurs, en ce qui concerne les autres vêtements de protection contre le froid, les chaussures de protection utilisées dans les enceintes froides, en plus des protections générales contre les chutes d’objets, les coupures, l’humidité, …, doivent également assurer une isolation contre le froid (indiquée par le symbole CL).

Quant aux sous-vêtements isolants, ils sont également soumis au marquage CE.

Pour plus d’informations : Le travail dans le froid artificiel, Ministère fédéral de l’Emploi et du Travail, 1998, 35 p.


L’inconfort des bouches de pulsion d’air

Zone tempérée

En climatisation classique, la source d’inconfort est principalement liée :

  • à l’emplacement de la bouche dans le local considéré;
  • la température de pulsion;
  • le débit de pulsion;

Lorsque l’air pulsé entre dans la zone d’occupation du local et que la différence de température entre cet air et l’air ambiant dépasse encore 1°C en pulsion froide, on risque de ressentir une sensation de « masse d’air » lorsque l’on se déplace dans le local.

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, et ce sur une hauteur de 1,8 m. Dans cette zone, la vitesse de l’air ne peut dépasser 0,2 m/s (0,28 dans les locaux de passage) et le long des murs, à 1,8 m, elle ne peut dépasser 0,4 m/s :

L’inconfort éventuel est lié au choix des bouches de pulsion ou à la température de pulsion :

  • diffuseurs trop proches l’un de l’autre entraînant une retombée rapide du jet d’air vers le sol, avant son brassage correct avec l’air ambiant,
  • diffuseurs ne présentant pas assez d’induction par rapport à la hauteur du local (pas assez de brassage avec l’air ambiant),
  • différence entre la température de consigne de l’air pulsé et la température ambiante trop grande.

Inconfort par effet Coanda rompu

Lorsque l’air est soufflé à proximité d’une surface (ex : soufflage horizontal à proximité du plafond), il se produit un effet d’adhérence du jet à la paroi : c’est l’effet « COANDA ».

L’effet Coanda est très utile quand on pulse de l’air froid, car il facilite la bonne pénétration du jet dans le local (augmentation de 30 % de la portée).

Problème 1

La présence d’un obstacle perpendiculaire au jet d’air (poutre, luminaire) peut faire dévier prématurément le jet vers la zone occupée et engendrer un courant d’air désagréable.

En conséquence :

  • Il faut souffler soit à partir de l’obstacle, soit parallèlement à celui-ci et diviser le local en zones correspondantes.
  • L’éclairage au plafond doit être soit encastré, soit suspendu avec une longueur de suspension de 0,3 m minimum.
  • On tiendra compte de la présence éventuelle de colonnes qui ne pourront se situer dans la trajectoire du jet.

Problème 2

Lorsqu’une bouche plafonnière pulsant de l’air froid est surdimensionnée, la vitesse de sortie de l’air risque d’être trop faible (< 2 m/s) pour créer un effet Coanda. Le jet d’air tombera alors directement vers le sol, risquant de provoquer un courant d’air froid sous la bouche. Paradoxalement, pour éviter le courant d’air, il faudra augmenter la vitesse de l’air en réduisant la taille du diffuseur.

Problème 3

Les diffuseurs utilisent dans les systèmes de climatisation à débit d’air variable (VAV ou climatiseurs à plusieurs vitesses) doivent être spécifiquement dimensionnés pour conserver l’effet Coanda même aux faibles débits.

Concevoir

Pour plus d’infos : choix des bouches de pulsion et d’extraction en climatisation.

Zone de froid alimentaire

Dans les zones où il est nécessaire de maintenir des températures de conservation de l’ordre de quelques degrés au dessus de 0 °C en application positive voire franchement sous les 0 °C en froid négatif (congélation), outre l’inconfort dû à la température, les débits d’air sont souvent importants; l’inconfort est par conséquent accru.

Pour les zones de travail telles que les ateliers de boucherie, par exemple, l’évaluation de l’inconfort dû aux bouches de pulsion se complexifie de par l’augmentation des débits d’air pour atteindre des températures de l’ordre de 12 °C. La limitation des vitesses de déplacement d’air plus froid doit être inférieure à 0,4 m/s.

Attention que plus l’air est froid moins l’effet « COANDA » est présent vu que la densité de l’air augmente et nécessairement l’alourdit.


Cas particulier des chambres froides

Les chambres froides sont des locaux de stockage dans les commerces. L’ambiance à l’intérieur des chambres est refroidie dans une gamme de températures classiques variant de -30 à +4 °C. Nécessairement, l’inconfort règne et exige que les travailleurs y pénétrant soit habillés de manière appropriée. En général, c’est le genre de local où l’on s’attarde peu.


Cas particulier des ateliers

Les zones climatisées sont les espaces où l’on procède à la transformation des produits (préparation de sous-produits du poulet pour le traiteur par exemple). Les ateliers de boucherie, de poissonnerie, … sont les plus couramment rencontrés au niveau des commerces que ce soit de détail ou en grande surface. Les ateliers ne sont qu’une étape de transformation des produits qui interviennent entre le stockage et la distribution et se caractérisent par la nécessité de maintenir les températures de la chaîne du froid en dessous de 12 °C. De plus, ces zones climatisées, contrairement à la chambre de stockage, abritent une activité humaine importante et souvent longue.

L’évaluation du confort pour ces zones est donc primordiale et nécessite de déterminer, en fonction principalement de la température ambiante et de la vitesse de l’air :

  • le type d’habillement;
  • le temps de travail des personnes exposées;
  • leur temps de pose entre leurs périodes de travail.

Une attention toute particulière sera prise par rapport à la vitesse de l’air dans ces zones qui peut générer très vite un inconfort au niveau des extrémités découvertes du corps (la tête et les mains par exemple).

Photo travailleur dans chambre froide.

Afin de créer le froid nécessaire, des ventilo convecteurs sont couramment utilisés. Ils ont des débits importants qui peuvent induire, s’ils sont mal positionnés, des vitesses d’air supérieures à 0,2 m/s à 1,8 m de hauteur par rapport au sol. Une manière d’évaluer la vitesse de l’air est d’utiliser un anémomètre en différents endroits du local dans différentes directions notamment au niveau des postes de travail.

À noter d’emblée que les manchettes ou chaussettes, … à air sont des moyens de diffuser des débits d’air froid importants en garantissant des vitesses d’air faibles tout assurant les températures voulues.


Cas particulier des allées froides

Photo allée froide

Marché oblige, les meubles frigorifiques ouverts, et principalement les meubles frigorifiques verticaux « MFV », sont de plus en plus nombreux dans les commerces. Dans un souci commercial et énergétique, ces meubles sont régulièrement placés en vis à vis créant ainsi des « allées froides » totalement inconfortables au point que les responsables techniques sont tentés de réchauffer par n’importe quel moyen le centre des allées. L’évaluation du problème s’effectue au moyen d’un thermomètre et d’un hygromètre en différents endroits de l’allée.

Des mesures de température et d’humidité ont été réalisées dans plusieurs commerces de grande surface. En moyenne, les températures relevées ne dépassaient pas les 16 °C avec une humidité relative de l’ordre de 35 %.

Planifier un programme de maintenance de l’éclairage

Planifier un programme de maintenance de l'éclairage


Cette page montre comment utiliser les fichiers permettant de planifier un programme de maintenance en utilisant la durée de vie moyenne annoncée par le fabricant.


Déterminer les valeurs du facteur de survie catalogue

Les valeurs utilisées par défaut pour planifier la maintenance sont des valeurs moyennes issues d’un rapport de la ouverture d'une nouvelle fenêtre ! CIE. Quand on parcourt le catalogue de l’un ou l’autre des constructeurs de lampes, on se rend compte qu’à l’intérieur d’une catégorie de lampe, il existe une grande diversité de valeur de durée de vie moyenne (exception faite des lampes incandescentes et halogènes qui présentent une durée de vie moyenne toujours proche de 1 000 heures pour les premières et de 2 000 heures pour les secondes).

À l’aide de ce fichier Excel, il est possible de déterminer les valeurs du facteur de survie correspondant à la durée de vie moyenne catalogue et de les utiliser dans les deux fichiers Excel présentés dans la suite de cette page et qui permettent de planifier un programme de maintenance. En effet, la durée de vie moyenne est définie comme étant la durée de fonctionnement pour laquelle le facteur de survie de la lampe est de 0.5.

Dans ce fichier Excel, deux couleurs ont été utilisées pour les tableaux :

  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Tableau 1 : type de lampe et durée de vie moyenne catalogue

Le premier tableau présenté dans le fichier Excel vous permet d’indiquer le type de lampe que vous voulez choisir ainsi que la durée de vie moyenne annoncée par le constructeur.

Tableau 2 : résultats

Le tableau 2 reprend :

  • la durée de vie moyenne telle que définie par la ouverture d'une nouvelle fenêtre ! CIE
  • les valeurs du facteur de survie ouverture d'une nouvelle fenêtre ! CIE et catalogue en fonction de la durée de fonctionnement

Il vous est alors possible de copier les valeurs de facteur de survie catalogue pour les insérer dans l’un des deux fichiers Excel présentés ci-dessous. Pour insérer les valeurs, il vous faudra sélectionner les cellules correspondantes, appuyer sur le bouton droit de la souris, sélectionner l’option « Collage spécial », puis l’option « Valeurs ».

1 : Copie des valeurs

2 : Collage spécial des valeurs


Planifier une maintenance préventive

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement…).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Trois graphiques, basés sur les valeurs de la ouverture d'une nouvelle fenêtre ! CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux (pourcentage du flux initial émis en service) de chaque type de lampe au cours des années.

Plus la pente est horizontale, plus la lampe conserve son flux initial. Cela permet de réduire le surdimensionnement initial et donc de :

  • limiter l’investissement et les coûts énergétiques de fonctionnement
  • et/ou de rallonger la période entre deux relamping et de diminuer les frais de maintenance.

Le deuxième graphe donne l’évolution du facteur de survie des lampes (la chance qu’elle continue à marcher jusque-là) en fonction des années de fonctionnement.

Plus la pente est horizontale, et moins il est nécessaire de remplacer souvent les lampes. Il est intéressant de noter que la hiérarchie des lampes fonctionnant le plus longtemps est très proche celle des lampes opérant le mieux durant toute leur durée de vie.

Le troisième tableau donne l’évolution du pourcentage de lampe hors services pour le nombre d’années de fonctionnement.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit précédemment.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF*LSF (c’est-à-dire la proportion du flux initial du système maintenu en service) et du pourcentage de lampe hors service. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de votre choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus celui-ci sera efficace et peu sensible à l’encrassement du local.

Pour ce qui est de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui possédera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de prévoir celui-ci tous les deux ans.


Planifier une maintenance curative

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement, …).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Deux graphiques, basés sur les valeurs de la CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux du système (tient compte en même temps du LSF et du LLMF de chaque sorte de lampe), pour chaque type de lampe, au cours des années.

Pour pouvoir interpréter correctement ce graphe, il est nécessaire de l’analyser en parallèle avec le deuxième graphique.

Le deuxième graphe donne le nombre (cumulé) de lampes changées tout au long du fonctionnement du système.

Il faut bien se rendre compte qu’ici, contrairement à ce qui a été dit dans le cas d’une maintenance préventive, il ne faut pas simplement rechercher le type de lampe qui présentera une courbe de LLMF la plus horizontale possible.

En effet, une telle logique conduirait à choisir des lampes incandescentes ou halogènes. Mais si on regarde le second graphique, on s’aperçoit que pour maintenir un flux acceptable tout au long de la durée de fonctionnement de l’installation à l’aide de ces lampes, il sera nécessaire de les remplacer très souvent. Ceci amènera à des surcoûts importants par rapport aux autres types de lampes.

Si on analyse correctement ces deux graphiques, on se rend compte que les lampes fluorescentes triphosphores constituent généralement le maître achat :

  • très bon maintien du flux lumineux,
  • très bonne durée de vie moyenne.

Deux qualités auxquelles il ne faut pas oublier de rajouter :

  • large gamme de température de couleur envisageable,
  • bon indice de rendu des couleurs,
  • et surtout haute efficacité lumineuse.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit en premier.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF (c’est-à-dire la proportion du flux initial du système entier maintenu en service) et du pourcentage de lampe ayant été changée. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de ce choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus le système sera efficace et peu sensible à l’encrassement du local.

Au niveau de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui proposera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de le prévoir tous les deux ans.

Choisir le programme de maintenance [Eclairage]

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, combinaison de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages successifs des parois
  • L’intervalle de temps entre deux nettoyages successifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

Dans la suite de cette page vous trouverez une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance, cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive ou mixte (curative et préventive), cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de réaliser cette comparaison, cliquez ici !

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel accessible ci-dessus ;
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux qui permet de tenir compte du facteur de maintenance de l’installation ;
  3. faire l’étude économique du système ;
  4. comparer les différents systèmes à l’aide du troisième fichier Excel référencé ci-dessus.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.103 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe,
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe,
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire.

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ ouverture d'une nouvelle fenêtre ! ICEDD et disponible sur le site de la ouverture d'une nouvelle fenêtre ! CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3.
  • Catégorie d’environnement : normale.
  • Durée de fonctionnement par an : 3100 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7,
    • Murs : 0.5,
    • Sol : 0.2.
  • Lampes utilisées :
    • Type : fluorescente triphosphore,
    • Coût hors taxe :6.85 €/lampe,
    • Puissance : 28 W/lampe.
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement),
    • Coût hors taxe : 150 €/luminaire,
    • Puissance (lampe incluse) : 32 W/luminaire.
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous supposons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.84.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 6.03 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
0.94
LMF
0.91
RSMF
0.83
MF
0.64
Simulation dialux

L’installation sera composée de :

  • 110 luminaires,
  • 110 lampes.

Caractéristiques du système :

  • Puissance installée : 3 520 W.
Étude économique du système
Investissement
Achat des luminaires 110*150 = 16 500 €
Achat des lampes 110*6.85 = 753.50 €
Installation des luminaires 110*30 = 3 300 €
Total
20 553.50 €
Coût de fonctionnement
Énergie consommée par le système 3 100*3.520 = 10 912 kWh/an
Coût de fonctionnement 10 912*0.103 = 1123.936 €/an
Coût de la maintenance
Achat lampes 110*6.85 = 753.5 €
Remplacement lampes 110*5 = 550 €
Total sur 5 ans 1303.5 €
Total par an
260.7 €/an

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 2 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 0.93 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.92
LSF
0.99
LMF
0.91
RSMF
0.83
MF
0.69
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 168 W.
Étude économique du système
Investissement
Achat des luminaires 99*150 = 14 850 €
Achat des lampes 99*6.85 = 678.15 €
Installation des luminaires 99*30 = 2 970 €
Total
18 498
Coût de fonctionnement
Énergie consommée par le système 3 100*3.168 = 9 820.80 kWh/an
Coût de fonctionnement 9 820.80*0.103 = 1011.542 €/an
Coût de la maintenance
Achat lampes 99*6.85 = 678.15 €
Remplacement lampes 99*5 = 495 €
Total sur 2 ans 1 173.15 €
Total par an
586.575 €/an

Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans

Calcul du facteur de maintenance

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, cette valeur est de 104.89 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 10 ans
100*(104.89/100)*6.85 = 718.497 €/(10 ans)
  • Sur 1 an
718.497/10 = 71.497 €/an
Remplacement lampes  

 

  • Sur 10 ans
100*(104.89/100)*15 = 1 573.35 €/(10 ans)
  • Sur 1 an
1 573.35/10 = 157.335 €/an
Coût de fonctionnement 1 250.945 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 10 ans 1 185 €
Total par an
118.5 €/an

Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important

Calcul du facteur de maintenance

Entre 6.5 et 6.8 ans, le service de maintenance devra remplacer un peu plus de 50 % des lampes dans le cadre d’une maintenance curative. Il semble naturel de réaliser une maintenance préventive au bout de 6.5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est de 0.90, comme dans le cas précédent.

Ce graphique permet également de déterminer le pourcentage de lampe changée avant intervention. Dans le cas présent, ce dernier vaut 50.13 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 6.5 ans
100*(50.13/100)*6.85 = 343.391 €/(6.5 ans)
  • Sur 1 an
343.391/6.5 = 52.829 €/an
Remplacement lampes  
  • Sur 6.5 ans
100*(50.13/100)*15 = 751.95 €/(6.5 ans)
  • Sur 1 an
751.95/6.5 = 115.684 €/an
Coût de fonctionnement 1 190.274 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 6.5 ans 1 185 €
Total par an
182.308 €/an

Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les 4.5 ans

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF est encore une fois de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, ce dernier vaut 3.3 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 4.5 ans
100*(3.3/100)*6.85 = 22.605 €/(4.5 ans)
  • Sur 1 an
22.605/4.5 = 5.023 €/an
Remplacement lampes  
  • Sur 4.5 ans
100*(3.3/100)*15 = 49.5 €/(4.5 ans)
  • Sur 1 an
49.5/4.5 = 11 €/an
Coût de fonctionnement 1 037.783 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 4.5 ans 1 185 €
Total par an
263.33 €/an

Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans ce cas, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est encore une fois de 0.95.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.95
LSF
1
LMF
0.91
RSMF
0.83
MF
0.72
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 128 W.
Étude économique du système

L’installation sera donc la même que celle du programme 2. Les coûts d’investissement et de fonctionnement seront donc identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

 

Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110 99 100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique(€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33  

Le graphique suivant permet de comparer les différents programme de maintenance :

 

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il montre également l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

EUROVENT 2/2 : taux de fuite dans les conduits de distribution d’air en métal

EUROVENT 2/2 : taux de fuite dans les conduits de distribution d'air en métal


EUROVENT ?

Comment comparer les rendements de 2 machines frigorifiques si les valeurs annoncées ont été mesurées dans des conditions différentes (température intérieure et extérieure, niveau acoustique, …) ?

Certains gros fabricants du secteur ventilation et climatisation, irrités de la concurrence exercée par des producteurs peu scrupuleux de la qualité du matériel, ont décidé de définir des références communes de comparaison.

Le logo « EUROVENT » n’est pas un label de qualité en soi. Il certifie que le matériel a été testé dans des conditions standards admises par les différents membres de l’association.


Le standard EUROVENT 2/2

Le standard EUROVENT 2/2 est basée sur des tests réalisés en laboratoire et sur site sur des conduits mis en œuvre suivant les codes de bonne pratique. Elle concerne le taux de fuite dans les conduits allant de la sortie de la centrale de traitement d’air aux éléments terminaux.

Un certain degré de fuite dans les réseaux de ventilation est inévitable (et toléré sauf évidemment dans les réseaux transportant des gaz dangereux). Il est en outre reconnu que le transport, le stockage et la mise en œuvre est source d’aggravation des risques de fuite.

Le standard EUROVENT 2/2 définit des classes d’étanchéité basées sur le rapport entre la quantité de fuite dans les conduits et la surface du réseau de distribution d’air, bien que les fuites proviennent principalement des joints.

Classe d’étanchéité à l’air des conduits de ventilation selon le standard EUROVENT 2/2

Mesure sur des conduits installés

Taux de fuite
[s-1.m-2]
p = pression statique d’essai [Pa]

Surface de fuite équivalente en cm² par m² de conduit

Classe EUROVENT

0.009 x p0,65 <…< 0.027 x p0,65 0.21 <…< 0.64 A
0.003 x p0,65 <…< 0.009 x p0,65 0.07 <…< 0.21 B
< 0.003 x p0,65 < 0.07 C

Mesure en laboratoire

Taux de fuite
[s-1.m-2]
p = pression statique d’essai [PA]

Surface de fuite équivalente en cm² par m² de conduit

Classe EUROVENT

0.0045 x p0,65 <…< 0.0135 x p0,65 0.21 <…< 0.64 A
0.0015 x p0,65 <…< 0.0045 x p0,65 0.07 <…< 0.21 B
< 0.0015 x p0,65 < 0.07 C

Classe d’étanchéité à l’air des conduits de ventilation selon le standard EUROVENT 2/2.

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Le type de lampe

Il y a lieu de considérer ici sept grandes catégories de sources lumineuses  :

En ce qui concerne les deux autres types de lampes :

  • Les lampes à induction présentent un prix et une durée de vie élevés. Elles seront utilisées quand la maintenance est difficile, ou coûteuse, et dans des situations requérant de longues périodes de fonctionnement.
  • Les lampes au sodium haute pression possèdent un très mauvais IRC. Elles sont principalement utilisées pour l’éclairage des autoroutes, car l’efficacité lumineuse doit être très élevée et que le rendu des couleurs n’est pas primordial.

Du point de vue de la maintenance, les différents types de lampes vont se distinguer par leur :

  • facteur de survie
  • facteur de maintien de flux lumineux

Il est important de noter que les tables permettant de calculer le facteur de maintenance d’une installation reprennent des valeurs moyennes par catégorie de lampe. Dans les faits, il existe une grande dispersion autour de ces valeurs moyennes.

Par exemple, les halogénures métalliques possèdent les caractéristiques suivantes :

  • Une durée de vie moyenne comprise entre 10 000 et 18 000 heures et donc un facteur de survie (LSF) variant fortement d’une lampe à l’autre (la durée de vie moyenne est définie par un LSF de 0.5).

durée de vie moyenne de lampes aux iodures métalliques

Le schéma ci-dessus montre la chute du flux lumineux de différents lots de lampes aux iodures métalliques d’un fabricant donné.

  • Une durée de vie utile comprise entre 6 000 et 10 000 heures et donc un facteur de maintien du flux lumineux variant fortement d’une lampe à l’autre (la durée de vie utile est définie par un LLMF de 0.8).

Evolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d'un fabricant donné.

Le schéma ci-dessus indique l’évolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d’un fabricant donné.

Les différents types de lampes sont également définis par leur efficacité moyenne. En pratique, il y aura lieu de comparer le produit de ces trois facteurs, comme le montre le graphique suivant :

Il est essentiel de garder à l’esprit que ce graphe se base sur les valeurs moyennes de l’efficacité, du facteur de maintenance du flux lumineux et du facteur de survie de chaque type de lampes.

Ce graphique montre que selon la durée de fonctionnement (avant relamping ou remplacement complet du luminaire) souhaitée, le type de lampe le plus efficace sera différent.

Par exemple si l’installation est sensée fonctionner 13 000 heures, alors le type de lampes le plus efficace (en moyenne) sera celui des fluorescentes triphosphores (1.12 fois plus efficace que les lampes sodium haute pression et 1.71 fois plus que les lampes aux halogénures métalliques).

Si le système est sensé fonctionner 3 000 heures, alors le type de lampes le plus efficace sera celui des halogénures métalliques, qui sera 1.06 fois plus efficace que le type fluorescente triphosphore et 1.25 fois plus efficace que les types flocompacte et sodium haute pression.

Il est essentiel de garder à l’esprit que les courbes donnant le pourcentage de flux lumineux restant en fonction de la durée de fonctionnement n’auront pas toutes la même allure. Ce serait donc une erreur de s’intéresser uniquement à l’efficacité lumineuse initiale des lampes.

Ce diagramme permet également de voir simplement que les lampes incandescentes classiques et halogènes possèdent de très mauvaises caractéristiques (faible efficacité, diminution rapide du flux lumineux, et facteur de survie très bas).

Calculs

Si vous voulez comparer des lampes de type différent en fonction de leur efficacité lumineuse. (xls)

Lampes halogènes classiques ou lampes aux halogénures métalliques

Méthodologie

L’étude présentée ici se base sur quatre étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer les valeurs du facteur de survie des lampes choisies en fonction de la durée de vie annoncée par le constructeur ;
  2. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel ;
  3. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux ;
  4. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe ;
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe ;
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 7*6*2.8 m³.
  • Catégorie d’environnement : propre.
  • Durée de fonctionnement par an : 2 580 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2.
  • Luminaires utilisés :
    • Luminaires à ventilation forcée de type downlight pouvant accueillir des lampes halogènes ou des lampes à halogénures métalliques
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 1 an. Ceci correspond (pour les luminaires choisis et la catégorie d’environnement) à un facteur de maintenance des luminaires de 0.99.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous considérons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Les lampes utilisées

Comme dit précédemment, les luminaires choisis ici peuvent aussi bien accueillir des halogènes ou des halogénures métalliques. Les luminaires, peu importe le type de lampes qu’ils accueillent, présentent le même rendement et la même courbe photométrique (distribution à caractère intensif).

Si la topologie du système d’éclairage est imposée par des critères esthétiques, il y a lieu de choisir des lampes possédant des flux lumineux équivalents. Ce choix est de plus conforté par le fait que nous utiliserons le même type de luminaire et donc la même courbe photométrique (à peu de chose près) à caractère intensif. Augmenter le flux des lampes aura pour conséquence première d’augmenter l’éclairement dans l’axe du luminaire et ne permettra donc pas d’utiliser moins de luminaires.

Notre choix se portera donc sur les lampes suivantes :

Lampe halogène
Lampe aux halogénures métalliques
Puissance luminaire (W)
300
82
Flux lumineux (lm)
5 600
5 900
Efficacité lumineuse (lm/W)
18.67
71.95
Température de couleur (K)
2 900
4 200
Indice de rendu des couleurs
100
85
Durée de vie moyenne (h)
2 000
9 000
Prix lampe (€ HTVA)
5.36
28
Prix luminaire (€ HTVA) 147
159.25

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.9

Il n’est malheureusement pas possible de satisfaire ce critère avec les lampes halogènes, à moins de les remplacer tous les 4 mois.

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.76

> Système réalisé à base de lampes halogènes

Dans ce cas, il est nécessaire de réaliser un relamping tous les 6 mois.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 22 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.76.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF
0.97
LSF
0.78
LMF
0.99
RSMF
0.94
MF
0.7
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 2 400 W
Étude économique du système
Investissement
Achat des luminaires 8*147 = 1 176 €
Achat des lampes 8*5.36 = 42.88 €
Installation des luminaires 8*30 = 240 €
Total
1 458.88
Coût de fonctionnement
Énergie consommée par le système 2 400*2.58 = 6 192 kWh/an
Coût de la consommation électrique 6 192*0.103 = 637.776 €/an
Coût de fonctionnement 637.776 €/an
Coût de la maintenance
Achat lampes 8*5.36 = 42.88 €
Remplacement lampes 8*5 = 40 €
Total sur 0.5 an 82.88 €
Total par an
165.76 €/an

> Système réalisé à base de lampes à halogénures métalliques

Dans ce cas, il est nécessaire de réaliser un relamping tous les 1.5 ans.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 9.51 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.81.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF 0.89
LSF
0.90
LMF 0.99
RSMF 0.94
MF 0.75
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 656 W
Étude économique du système
Investissement
Achat des luminaires 8*159.25 = 1 274 €
Achat des lampes 8*28 = 224 €
Installation des luminaires 8*30 = 240 €
Total
1 738
Coût de fonctionnement
Énergie consommée par le système 656*2.58 = 1 692.48 kWh/an
Coût de la consommation électrique 1 692.48*0.103 = 174.325 €/an
Coût de fonctionnement 216.197 €/an
Coût de la maintenance
Achat lampes 8*28 = 224 €
Remplacement lampes 8*5 = 40 €
Total sur 1.5 an 264 €
Total par an
176 €/an
Comparaison

Schéma, comparaison économique des différents programmes.

Cet exemple montre à quel point les halogènes donnent des résultats médiocres tant du point de vue énergétique qu’économique. L’utilisation d’halogénures métalliques à leur place permet de diminuer la consommation énergétique du système de près de 75 %. Et cela, pour un surcoût à l’investissement d’environ 230 €.

Il est à noter que les 5 % gagné sur la valeur du facteur de maintenance n’ont pas permis de réduire le nombre de luminaires. Cela est dû à la topologie du système (disposition rectiligne, dimensions du local…) et à la nécessité de satisfaire les critères de confort visuel (un facteur de maintenance de 0.84 aurait permis de limiter le nombre de luminaires à halogénures métalliques à 6).

Cela montre bien que la planification de la maintenance ne se limite pas à la détermination du facteur de maintenance. Elle permet également de déterminer la périodicité de la maintenance et les coûts qui lui sont liés. Dans le cas qui nous occupe, les surcoûts rattachés à l’achat d’halogénures métalliques, une dizaine d’euros par an, sont largement compensés par la diminution de la facture électrique.

Comme le montre le graphique suivant, l’utilisation d’halogénures métalliques plutôt que d’halogènes est rentabilisée en un an. On aura ainsi économisé (investissement compris) 160 € en un an, 922 en deux.

Les résultats calculés ici se basent sur l’emploi de lampes aux halogénures métalliques possédant une dure de vie moyenne (9 000 heures) assez faible si on la compare aux standards de sa catégorie. En effet, la plupart des halogénures métalliques possèdent une durée de vie moyenne de 18 000 heures.

Ces lampes présentent tout de même un bon indice de rendu des couleurs ainsi qu’une température de couleur plus proche de celle de la lumière naturelle.

Les fichiers ayant permis la réalisation de cette étude sont accessibles ici :

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour déterminer les valeurs du facteur de survie catalogue.

Calculs

Pour planifier une maintenance préventive ou mixte.

Le graphique suivant montre qu’il existe une grande dispersion autour de ces valeurs moyennes :

Pour finir, il ne faut pas oublier que d’autres facteurs jouent également dans le choix d’une lampe :

  • Indice de Rendu des Couleurs
  • Spectre lumineux complet et régulier

Le type de luminaire

Il y a lieu de considérer ici 7 grandes catégories de luminaires :

Illustration luminaire tube nu.

Tube nu.

Illustration luminaire ouverts sur le dessus.

Luminaires ouverts sur le dessus
(ventilés naturellement).

Illustration luminaire fermé sur le dessus.

Luminaires fermés sur le dessus
(non ventilés).

Illustration luminaires fermés IP2X.

Luminaires fermés IP2X,
protégés contre les corps solides
supérieurs à 12 mm.

Illustration luminaires fermés IP5X.

Luminaires fermés IP5X,
protégés contre la poussière.

Illustration luminaires assurant un éclairage indirect ou vers le haut.

Luminaires assurant
un éclairage indirect
ou vers le haut.

Illustration luminaires à ventilation forcée.

Luminaires à ventilation forcée.

Le choix du type de luminaire revêt d’une importance capitale, surtout dans les locaux de catégorie « normal  » et « sale « . Ce choix influence directement la valeur du facteur de maintenance des luminaires (LMF).

Par exemple, si la catégorie d’environnement est sale et que les luminaires sont nettoyés tous les 3ans, les pertes engendrées par l’empoussièrement de ceux-ci seront de :

  • 15 % si l’on utilise des luminaires à ventilation forcée.
  • 21 % si l’on utilise des luminaires fermés IP5X.
  • 27 % si l’on utilise des tubes nus.
  • 32 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 35 % si l’on utilise des luminaires fermés IP2X.
  • 48 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 55 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un même intervalle de nettoyage des luminaires, mais pour un environnement normal cette fois, les pertes engendrées seront de :

  • 10 % si l’on utilise des luminaires à ventilation forcée.
  • 16 % si l’on utilise des luminaires fermés IP5X.
  • 21 % si l’on utilise des tubes nus.
  • 26 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 27 % si l’on utilise des luminaires fermés IP2X.
  • 39 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 45 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un environnement propre, les pertes vont de 5 à 26 % et pour un très propre de 2 à 15 %.

En règle générale, le classement des luminaires en fonction du facteur de maintenance (LMF) donnera :

Type de luminaire
LLMF moyen
Luminaires à ventilation forcée. 0.948
Luminaires fermés IP5X, protégés contre la poussière. 0.890
Tube nu. 0.874
Luminaires ouverts sur le dessus (ventilés naturellement). 0.845
Luminaires fermés IP2X, protégés contre les corps solides supérieurs à 12 mm. 0.820
Luminaires fermés sur le dessus (non ventilés). 0.781
Luminaires assurant un éclairage indirect ou vers le haut. 0.757

Comme dans le cas du choix du type de lampe à utiliser, il y a lieu de faire attention au rendement des luminaires. Il est cependant plus difficile ici de tirer des conclusions générales étant donné la dispersion de la valeur des rendements dans une gamme donnée.


Le système d’éclairage

On distingue ici trois types de systèmes d’éclairage :

  • Les systèmes directs.
  • Les systèmes indirects.
  • Les systèmes mixtes.

Pour ce qui est des systèmes mixtes, il existe théoriquement une infinité de possibilités. Nous ne nous occuperons ici que des trois cas types suivants :

  • Cas 1 : 100 % direct, 0 % indirect.
  • Cas 2 : 50 % direct, 50 % indirect.
  • Cas 3 : 0 % direct, 100 % indirect.

Du point de vue de l’énergie, plus la composante directe de l’éclairage est importante et plus l’efficacité du système est grande. En effet, dans un système à composante indirecte non nulle, avant d’atteindre la tâche à éclairer, la lumière est réfléchie. Ce mode d’éclairage a donc un moins bon rendement et demande, à niveau d’éclairement égal, une puissance installée supérieure à celle du système direct.

L’éclairement dépend dans ce cas fortement des coefficients de réflexion des parois sur lesquelles la lumière est réfléchie. L’état de propreté des parois aura donc une influence directe sur les valeurs d’éclairement atteintes (via le RSMF), comme le montre l’exemple suivant :

Exemple montrant l’influence du système d’éclairage sur les valeurs de RSMF à utiliser.

Soit un système possédant les caractéristiques suivantes :

  • Environnement normal
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2

Les valeurs de RSMF vont alors suivre les évolutions suivantes :

Valeurs de RSMF.

Si on planifie un nettoyage des parois tous les 3 ans, les pertes engendrées par l’empoussièrement du local seront de :

  • 10 % dans le cas d’un système d’éclairage direct
  • 17 % dans le cas d’un système d’éclairage 50 % indirect et 50 % direct
  • 28 % dans le cas d’un système d’éclairage indirect

Il est à noter que du point de vue du confort, l’utilisation d’un système d’éclairage mixte va conduire à des différences de luminance nettement moins marquées que dans le cas d’un éclairage direct. Le système mixte est surtout avantageux dans des pièces à plafond haut et évite la perception d’une zone sombre au plafond. Il est cependant nécessaire de garder à l’esprit qu’une faible proportion de flux vers le haut suffit généralement et qu’une proportion de 50 % vers le haut est certainement une valeur trop importante.

À ce sujet, il peut être intéressant de se tourner vers les réglementations. Celle relative aux lieux de travail indique que pour un éclairement de la tâche de 500 lux, les zones environnantes immédiates (bande de 0.5 m autour de la zone de travail) doivent présenter un éclairement de 300 lux, soit 60 % de la première valeur. Il est donc évident que l’éclairement du plafond devra être largement inférieur à 50 % de la valeur d’éclairement de la tâche. La composante indirecte ne devra servir qu’à éviter la création d’une ombre sur le plafond.


La catégorie d’environnement

Catégorie d’environnement

Les coefficients de réflexion des parois d’un local jouent un rôle important sur l’éclairage. L’empoussièrement de celui-ci va conduire à la réduction des facteurs de réflexion du local, et donc à la réduction du niveau d’éclairement atteint. Cette déperdition va dépendre :

  • des proportions du local
  • du facteur de réflexion de chacune des parois du local
  • du type d’éclairage choisi (direct, indirect…)
  • et surtout de la catégorie d’environnement dans laquelle on se trouve (la nature et la densité de la poussière étant des facteurs prépondérants)

On distingue quatre catégories d’environnement :

Très propre Hôpitaux (zones d’interventions), centres informatiques.
Propre Bureaux, écoles, hôpitaux (zones communes), magasins, laboratoires, restaurants, salles de conférence.
Normal Salles d’assemblage.
Sale Ateliers mécaniques, fonderies, laboratoires chimiques.

Le type d’environnement a une grande importance, mais il ne résulte malheureusement pas vraiment d’un choix.

Par exemple pour un système possédant les caractéristiques suivantes :

  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Système d’éclairage 50 % direct, 50 % indirect
  • Nettoyage des  parois du local tous les deux ans

Les pertes du à l’empoussièrement des parois seront de :

Pertes du à l'empoussièrement des parois.

Soit en résumé :

  • 5 % dans le cas d’un environnement très propre
  • 9 % dans le cas d’un environnement propre
  • 17 % dans le cas d’un environnement normal
  • 25 % dans le cas d’un environnement sale

La catégorie d’environnement va donc influencer directement la valeur du facteur de maintenance du local (RSMF). Mais comme le montre le graphique précédent, de manière générale, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Ce qui dans la pratique ne semble pas envisageable.

La catégorie d’environnement joue également sur le taux d’encrassement des luminaires. Si l’on analyse plus en détail l’évolution du facteur de maintenance des luminaires (LMF) on s’aperçoit qu’il est intéressant de pratiquer un nettoyage des luminaires tous les 6 mois, comme le montre le graphe suivant (catégorie d’environnement « sale « ) :


Le nombre d’heure de fonctionnement

Le tableau suivant indique, dans le cadre d’activités typiques, le nombre d’heures de fonctionnement de l’installation d’éclairage :

Activité Période d’occupation Gestion en fonction de la lumière du jour Heures de fonctionnement
Shift inclus Nombre de jours Heures/jour Oui/non Heures/an
Industrie
  Continu

365

24

Non

8760

  Process

365

24

Oui

7300

  2 shifts

310

16

Non

4960

  6 jours/semaine

310

16

Oui

3720

  1 shift

310

10

Non

3100

  6 jours/semaine

310

10

Oui

1760

  1 shift

258

10

Non

2580

  5 jours/semaines

258

10

Oui

1550

Commerce
  6 jours/semaine

310

10

Non

3100

Bureaux
  5 jours/semaine

258

10

Non

2580

258

10

Oui

1550

Écoles
  5 jours/semaine

190

10

Non

1900

190

10

Oui

1140

Hôpitaux
  7 jours/semaine

365

16

Non

5840

365

16

Oui

3504


Planification du programme de maintenance

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, mix de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages consécutifs des parois
  • L’intervalle de temps entre deux nettoyages consécutifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

  • Sur le type de lampes utilisé
  • Sur le type de luminaires utilisé
  • Sur le système d’éclairage utilisé
  • Et dans une certaine mesure sur les coefficients de réflexion des parois du local

Dans la suite de cette page, vous trouverez le résumé d’une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Pour accéder à l’étude complète, est accessible dans la page « Exemple de choix du programme ».

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance mixte (curative et préventive).

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel.
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux.
  3. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh
  • Coût de la main-d’œuvre : 30 €/h
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3
  • Catégorie d’environnement : normale
  • Durée de fonctionnement par an : 3100 h
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Lampes utilisées :
    • Type : fluorescente triphosphore
    • Coût hors taxe :6.85 €/lampe
    • Puissance : 28 W/lampe
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement)
    • Coût hors taxe : 150 €/luminaire
    • Puissance (lampe incluse) : 32 W/luminaires
  • Pas de nettoyage des parois du local
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous estimons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures (ce qui correspond au pas de simulation).

Les différents programmes de maintenance

  • Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale
  • Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale
  • Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans
  • Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important
  • Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
  • Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans le cas du programme 6, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Le remplacement des lampes devra dans ce cas être effectué tous les ans.

L’installation sera donc la même que celle du programme 2, avec des coûts d’investissement et de fonctionnement identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet, cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

    Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110

99

100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique (€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33    

Le graphique suivant permet de comparer les différents programmes de maintenance :

Calculs

 Pour accéder au fichier Excel permettant de réaliser cette comparaison.

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Au bout de 15 ans, ce programme permet une économie de :

  • 800 € par rapport au programme 3
  • 1 100 € par rapport au programme 4
  • 1 700 € par rapport au programme 2
  • 2 200 € par rapport au programme 1

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si l’on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il met également en exergue l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

Niveau d’isolation thermique : niveau K

Niveau d'isolation thermique : niveau K


La méthode de calcul

Les 3 Régions du pays imposent un niveau d’isolation thermique global des bâtiments minimum pour les constructions nouvelles ou rénovations lourdes.

Voici en résumé les principes de ce calcul. Pour obtenir tous les détails réglementaires de la méthode, on consultera utilement  l’annexe VII de la réglementation relative à la P.E.B.

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Étape 1 : délimiter le volume protégé V

Le volume protégé V d’une construction est constitué par l’ensemble des locaux chauffés (directement ou non).

Délimiter le volume protégé revient à séparer ces locaux d’autres locaux non chauffés. En général, c’est la couche isolante qui détermine ce volume. Un grenier qui sert de chambre fait donc partie du volume protégé, même s’il n’y a pas de radiateur installé.

Dans le premier cas, la cave et le garage ne sont pas chauffés; dans le deuxième cas, il s’agit de deux locaux utilisés et chauffés. En toute logique, on souhaite que ce soit l’ensemble de la frontière de ce volume chauffé qui réponde à un minimum de qualité thermique.

Étape 2 : repérer la superficie de déperdition thermique At

La superficie de déperdition At est la somme de toutes les superficies de toutes les parois qui séparent le volume protégé :

  • de l’ambiance extérieure (1),
  • du sol (2),
  • des espaces voisins qui n’appartiennent pas à un volume protégé (3).

Remarque : les parois mitoyennes ne sont donc pas comptabilisées (puisque le delta de température est considéré comme nul ou négligeable).

Étape 3 : calculer le coefficient de transfert thermique par transmission du bâtiment Ht

HT = HD+Hg+HU    [W/K]

 où :

  • HD = coefficient de transfert thermique par transmission à travers les parois directement en contact avec l’extérieur [W/K] ;
  • Hg= coefficient de transfert thermique par transmission à travers les parois en contact avec le sol [W/K];
  • HU=coefficient de transfert thermique par transmission à travers les parois en contact avec des espaces non-chauffés [W/K];

Chacun de ces coefficients est calculé, pour chaque paroi, de manière générique par la formule suivante :

 où :

  • α : coefficient de pondération tenant compte de l’environnement de la paroi [0<α<1 (environnement extérieur)]La valeur de ce coefficient de pondération « a » a pour but de diminuer les déperditions des parois qui ne sont pas directement en contact avec la température extérieure. Ainsi, en toute logique, on considérera des déperditions différentes selon qu’un même mur soit en contact avec le sol, un espace non chauffé ou l’environnement extérieur.
  • Ai : surface de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [m²];
  • Ui : valeur U de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [W/m²K];
  • lk : longueur du pont thermique linéaire k présent determinée avec les dimensions extérieures [m];
  • k : coefficient de transmission thermique linéique du pont thermique linéaire k [W/mK];
  • l : coefficient de transmission thermique ponctuel du pont thermique ponctuel l [W/K].

Étape 4 : déterminer le coefficient de transfert de chaleur moyen du bâtiment « Um »

Um=Ht/At [W/m²K]

Le coefficient Um est donc obtenu par le rapport entre le coefficient de transfert thermique total (Ht) et la surface de déperditions du volume protégé (At). Cette valeur nous donne une idée de la déperdition énergétique moyenne par m² de surface déperditive.

Étape 5 : déterminer la compacité volumique du bâtiment V/At

La compacité volumique est le rapport entre le volume protégé V et la superficie de déperditions At du bâtiment.

C=V/At [m]

Plus grande est la compacité, plus petite est la perte d’énergie par m³ chauffé. La réglementation sera dès lors moins sévère pour des bâtiments avec grande compacité (ex : bloc d’appartements).

À noter que l’on peut en déduire une réflexion sur le plan de la composition architecturale : l’habitation « 4 façades » entourée d’un jardin n’est pas une bonne solution sur le plan environnemental (déperditions par m² élevées…).

Étape 6 : déterminer le niveau K du bâtiment

La réglementation définit conventionnellement le niveau K par la relation :

K= 100 Um/Um,réf

Compacité Um,réf
V/At < 1 m Um,réf = 1
1 m < V/At < 4 m Um,réf = (C+2) / 3
4 m < V/At Um,réf = 2

Le niveau K est donc directement fonction de la compacité volumique V/At et du coefficient moyen de transmission thermique Um.

 Exemple.

Si le Umoyen de l’enveloppe (= Um) est de 0,6 et que la compacité est de 0,9 m , le niveau « K » du bâtiment est « K60 ».
Mais un même Umoyen pour un bâtiment de compacité volumique 5 (immeuble d’appartements) entraîne une valeur « K30 ».
Et si la compacité volumique est de 2, K = (300 x 0,6) / (2 + 2) = 45, soit un bâtiment déclaré « K45 ».

Il est alors possible de comparer ce niveau à celui exigé par la Réglementation :

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Remarques

  • Comme ce logiciel vous le montre, à partir du « K », il est possible d’établir un bilan énergétique très simplifié du bâtiment.
  • Un logiciel beaucoup plus complet Le logiciel PEB est accessible


Exemple chiffré

Voici les données de ce bâtiment très simplifié :

Mur extérieur avec 5 cm laine min.
U= 0,55 [W/m²K] .

Toiture avec 6 cm PS.
U= 0,48 [W/m²K].

Plancher avec 3 cm PS.
U= 0,82 [W/m²K] sur terre-plein
U= 0,73 [W/m²K] sur garage.

Porte extérieure : Ud = 3,5 [W/m²K]
Châssis bois + Double Vitrage : Uw = 2,69 [W/m²K].

Calculs

Pour accéder un exemple du logiciel de calcul du K d’un bâtiment.

Traiter les bois attaqués par les champignons

Traiter les bois attaqués par les champignons


Travaux à réaliser sur les bois attaqués

Le traitement curatif et préventif du bois comprend les opérations suivantes

Le bois doit d’abord être dégagé pour le rendre accessible et contrôlable.

Les fructifications du champignon sont éliminées.

Tous les bois sont ensuite contrôlés. Les pièces n’offrant plus de résistance mécanique suffisante sont éliminées et remplacées.

Les éléments conservés sont soigneusement nettoyés à la brosse métallique.

Toutes les pièces de section supérieure à 64 cm², sont traitées en forant des trous espacés de 30 cm et en y injectant sous pression un produit fongicide non délavable. Ce traitement est appliqué jusqu’à 1 m au-delà de la zone visible de l’attaque.

Tous les bois sont ensuite aspergés sous pression, d’un produit fongicide non délavable, ayant des propriétés curatives et préventives, tant fongicide qu’insecticide.

On veille lors des forages à affaiblir le moins possible les pièces et on vérifie si leur stabilité reste assurée.

Finalement, les trous de forage sont bouchés à l’aide de chevilles traitées.

Attention !
Même si aucune attaque ne s’est déjà produite, lors de la mise à nu du bois pour une transformation, ou lorsque des travaux, liés par exemple à une amélioration de l’isolation, vont cacher des ouvrages en bois, il faut impérativement en profiter pour le traiter de façon préventive.

Travaux à réaliser sur les maçonneries

Le traitement curatif et préventif des maçonneries comprend les opérations suivantes.

Le plafonnage est éliminé en dépassant la zone attaquée d’au moins 50 cm.

Toutes les surfaces infectées sont nettoyées soigneusement à la brosse métallique.

Les surfaces sont ensuite brûlées au chalumeau.

Des trous sont forés dans le mur tous les 20 cm en découpant la zone attaquée en carrés de +/- 60 cm de côtés.

Les trous de forage sont remplis au moyen d’un fongicide puissant.

Toutes les surfaces traitées sont finalement aspergées.


Bois de remplacement

Tous les bois de remplacement seront traités dans une station agréée, travaillant sous contrôle permanent de l’UBAtc.

Un certificat officiel, établi suivant le modèle UBAtc, mentionnera :

  • le relevé des pièces traitées,
  • le mode opératoire utilisé,
  • le nom du produit de traitement, homologué par l’Association Belge pour la protection du bois.

Table de correspondance température/pression pour quelques fluides frigorigènes

Table de correspondance température/pression pour quelques fluides frigorigènes


Température Pression relative [bar]

[°C]

R22 R134A

R407c

-20 1,43 0,31 1,79
-18 1,62 0,43 2,02
-16 1,83 0,56 2,25
-14 2,05 0,69 2,50
-12 2,28 0,84 2,77
-10 2,52 0,99 3,05
-8 2,78 1,15 3,34
-6 3,05 1,33 3,65
-4 3,33 1,51 3,98
-2 3,63 1,71 4,32
0 3,95 1,91 4,68
2 4,28 2,13 5,06
4 4,63 2,36 5,46
6 5,00 2,60 5,88
8 5,38 2,85 6,31
10 5,78 3,12 6,77
12 6,20 3,40 7,25
14 6,64 3,70 7,75
16 7,10 4,01 8,27
18 7,58 4,34 8,81
20 8,08 4,68 9,38
25 9,42 5,61 10,91
30 10,91 6,66 12,60
35 12,55 7,82 14,46
40 14,35 9,11 16,50
45 16,33 10,53 18,75
50 18,49 12,10 21,20
55 20,84 13,83 23,87
60 23,40 15,73 26,78
65 26,17 17,80 29,94

Ces valeurs ont été calculées à partir de petits programmes accessibles gratuitement sur le site fridgetech.com.

 

Rendement des appareils de cuisson

Rendement des appareils de cuisson

De l’énergie totale nécessaire à la cuisson des aliments, seule une part parvient finalement sur la table. L’autre part est utilisée au chauffage et au maintien en température des appareils pendant la cuisson. Le rapport entre l’énergie absorbée par la charge et l’énergie totale consommée est désigné par rendement. Ce dernier dépend du genre de procédé de cuisson, du mode de transmission de la chaleur, de la température utile, de la pression, de l’humidité et de la quantité de charge traitée.

Pour les procédés de cuisson et étuvage à la vapeur, il peut atteindre approximativement 90 %. Alors que pour les procédés de rôtissage ou de cuisson au four, il est considérablement inférieur.

L’énergie non transmise à la charge est désignée par énergie perdue. Elle réchauffe le local, fuit à l’extérieur ou dans les locaux adjacents plus froids au travers des parois, fenêtres, installations de ventilation ou s’écoule à la canalisation avec l’eau de cuisson inutilisée. L’énergie perdue contribue au réchauffement de la cuisine, donc à la détérioration du climat ambiant.

L’installation de ventilation et les machines frigorifiques sont mises à rude contribution pour en assurer l’équilibre.

Pour des charges nominales, on peut caractériser chaque appareil de cuisson par son rendement.

Il peut s’exprimer par :

h = P2 / P1

Où :

  • P1 : puissance absorbée (W),
  • P2 : puissance utile (W).
Rendement approximatif des appareils de cuisson les plus courants

Fourneau électrique :

plaque en fonte : 60 %
plaque vitrocéramique : 75 %
plaque à induction : 90 %

Fourneau à gaz :

feu ouvert : 58 %
plaque de mijotage : 60 %
plaque vitrocéramique : 75 %

Sauteuse :

électrique : 30 %
à gaz : 25 %

Grill :

électrique : 20 %
à gaz : 15 %

Salamandre :

électrique : 20 %
à gaz : 15 %

Marmite :

électrique : 50 %
à gaz : 50 %

Four à air pulsé :

électrique : 80 %
à gaz : 70 %

Four statique :

électrique : 45 %
à gaz : 40 %
Cuiseur à la vapeur électrique : 80 %

Bain-marie :

électrique : 50 %
à gaz : 45 %

Friteuse :

électrique : 50 %
à gaz : 45 %

Pour un même type d’appareil, le rendement dépend principalement des facteurs suivants :

  • l’inertie de l’élément chauffant
  • la qualité d’isolation pour les enceintes fermées
  • l’efficacité des dispositifs de réglage.

Choisir le système de régulation de la machine frigorifique

Variateur de vitesse.  (Source : Delhaize).

Critères de choix de la régulation

Dans le cas du froid alimentaire, les critères de choix de la régulation sont :

  • la puissance frigorifique disponible au niveau de l’évaporateur;
  • l’efficacité énergétique du compresseur (consommation électrique, COP).

Il va de soi que les deux critères sont intimement liés. On observe par exemple qu’en maîtrisant la surchauffe à la sortie de l’évaporateur, non seulement la puissance frigorifique augmente (remplissage optimal de l’évaporateur) mais la consommation électrique du compresseur diminue. Globalement, ces deux effets sont cumulatifs et sont mis en évidence par des valeurs d’efficacité énergétique élevées (COP).

La puissance frigorifique de l’évaporateur

La charge frigorifique disponible pour l’application au niveau de l’évaporateur conditionne non seulement le choix :

  • de l’évaporateur en premier;
  • du compresseur, du condenseur et du détendeur et des auxiliaires;

mais aussi, et c’est l’objet de ce chapitre, le choix :

  • des types de régulation;
  • des organes d’entrée des régulateurs comme les capteurs de pression et de température (la pression de condensation à l’entrée du condenseur par exemple);
  • des organes de sortie des régulateurs comme les variateurs de fréquence et les détendeurs asservis(régulation de la vitesse du compresseur par exemple);
  • des superviseurs éventuels.

La régulation de la puissance frigorifique à l’évaporateur, suivant la charge de l’application, est primordiale. En effet, elle conditionne la stabilité de la température au niveau de la zone à refroidir, celle-ci étant impérative pour la conservation des denrées alimentaires.

Consommation énergétique des compresseurs et des auxiliaires

Si pour le même prix, à savoir une puissance frigorifique optimalisée au niveau de l’évaporateur, on peut réduire les consommations électriques du compresseur, des ventilateurs des évaporateurs et des condenseurs, des cycles de dégivrage, … tout le monde est gagnant tant pour le portefeuille du commerçant que pour la planète.

À titre indicatif, un grand constructeur d’élément de régulation annonce des économies d’énergie (essentiellement une réduction des consommations électriques) variant de 20 à 30 % par le choix d’une régulation :

  • de l’ouverture du détendeur électronique donnant une gestion de la surchauffe et, par conséquent du remplissage de l’évaporateur;
  • du débit du compresseur par variation de sa vitesse;
  • du dégivrage de l’évaporateur;
  • de la pression de condensation (régulation en pression flottante);

La répartition des consommations énergétiques moyennes du froid alimentaire dans des supermarchés se répartit comme suit :

répartition des consommations énergétiques moyennes du froid alimentaire

Tous les postes de consommations énergétiques sont importants, d’accord, mais celui des compresseurs doit revêtir une attention toute particulière. En effet, la plupart des choix qui seront effectués sur la régulation des différents équipements de la machine frigorifique influenceront de près ou de loin la consommation électrique du compresseur contribuant à améliorer sa performance énergétique :

Exemple.

L’investissement dans une régulation associée avec un détendeur électronique permet de prédire, selon un fabricant, une réduction des consommations énergétiques du compresseur de l’ordre de 25 % soit 12 % des consommations énergétiques totales du poste froid alimentaire.

réduction des consommations énergétiques du compresseur de l'ordre de 25 %


Les régulations

Le choix de la régulation d’une installation frigorifique doit être considéré :

  • dans un premier temps, au niveau global, c’est la supervision;
  • dans un second temps au cas par cas par rapport aux différents équipements, ce sont les régulateurs dédicacés.

Supervision

La gestion technique centralisée (GTC)

GTC d’un supermarché (source : Delhaize).

Avec la venue de l’électronique, et plus particulièrement de la régulation numérique, tout est pratiquement réalisable au niveau de la régulation du cycle d’une installation de froid alimentaire sachant que les équipements individuels peuvent se trouver souvent à des distances non négligeables.

Pour les installations de froid alimentaire importantes, une gestion globale de tous les points critiques tels qu

  • les températures des différents meubles frigorifiques;
  • les pressions de condensation, d’évaporation, …;
  • les phases de dégivrages,

peut s’avérer très intéressante tant pour le responsable commercial du magasin que pour les responsables techniques et de la maintenance des équipements.

On nomme couramment ce type de superviseur une Gestion Technique Centralisée (GTC) qui est capable à la fois  :

  • d’effectuer des campagnes de mesure de traçabilité, de « benchmarking » (analyse des tendances de consommations énergétiques par exemple);
  • de modifier des paramètres de régulateur individuel (modification de consigne de température de meuble frigorifique, …);
  • La gestion technique centralisée offre les avantages et inconvénients suivants :

(+)

  • une meilleure vue globale de l’installation;
  • gestion des alarmes possible;
  • programmation aisée de la maintenance;
  • maîtrise plus facile du dépannage des installations;
  • benchmarking possible entre différents magasins d’une même chaîne de distribution;

(-)

  • Investissement important. Ne conviens que pour des installations importantes (pour le commerçant de détail, cela semble du luxe);
  • les systèmes de supervision et de régulation sont souvent propriétaires et, par conséquent, la note reste souvent « salée » en cas d’implémentation ou de modification de l’installation;

Schéma d'une installation de supermarché.

Une installation de supermarché est régulièrement configurée de la manière suivante :

  • les meubles frigorifiques sont dans les zones de ventes;
    les compresseurs sont dans un local technique annexe (pas toujours à proximité);
  • les condenseurs sont sur le toit.
    Dans ce cas, une gestion technique centralisée permet de voir globalement comment se comporte l’installation.

Les réseaux

Les réseaux de communication entre le superviseur et les régulateurs locaux sont souvent de types LON. Attention de nouveau que les protocoles de communication entre les différents équipements peuvent être propriétaires.

Régulation individuelle des équipements

Dans le cadre d’une démarche URE (Utilisation Rationnelle de l’Énergie), le choix de régulateurs individuels de qualité s’impose. En conception, il va de soi aussi qu’une régulation qui vise à réduire les consommations énergétiques de l’installation au maximum doit être envisagée globalement. En effet, le choix d’une régulation performante :

  • de la surchauffe ne devrait se concevoir qu’en association avec une variation de débit pour le compresseur (variateur de fréquence contrôlant la vitesse du moteur électrique du compresseur).
  • de pression flottante au niveau du condenseur, en fonction du climat externe, ne devrait aussi se concevoir qu’en association avec un détendeur électronique performant de manière à continuer à alimenter de manière optimale l’évaporateur en fluide frigorigène.

De manière générale, une somme de choix d’équipements adéquats associés à des régulateurs de qualité, permet d’améliorer sensiblement les performances énergétiques de la machine.

À l’heure actuelle, les fabricants de régulation en froid alimentaire offre les possibilités principales de régulation suivantes :

  • Régulation de la surchauffe à la sortie de l’évaporateur permettant le remplissage optimal de l’évaporateur quelle que soit la charge frigorifique de celui-ci.
  • Régulation du débit de réfrigérant en fonction de la demande de l’évaporateur.
  • Régulation de la pression de condensation au niveau du condenseur (pression flottante) dans le but de réduire le travail du compresseur (taux de compression HP/BP optimisé).

Surchauffe

La régulation moderne de la surchauffe se réalise au moyen de régulateur intégrant un algorithme de contrôle de la valeur minimale de surchauffe stable. Afin de garantir la pleine maîtrise de la surchauffe, le régulateur sera associé avec un détendeur électronique.

Schéma régulateur associé a un détendeur électronique.

Un fabricant de régulateurs annonce une réduction de l’ordre de 12 % de la consommation énergétique du compresseur et un temps de retour sur investissement de 1,5 à 2,5 ans. En effet, meilleur sera le remplissage de l’évaporateur moins long sera le temps de fonctionnement du compresseur.

Techniques

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Consigne flottante de basse pression

Le choix d’une consigne flottante de basse pression (ou température flottante à l’évaporateur) permet, outre les nombreux avantages au niveau de la qualité de conservation des denrées alimentaires, de réduire les consommations énergétiques par la simple augmentation de la consigne de température d’évaporation en période creuse des zones de vente. On sait que l’augmentation de la température d’évaporation conditionne le travail du compresseur. On estime, en général, qu’une augmentation de la consigne de température d’évaporation de 1 K réduit la consommation énergétique du compresseur de l’ordre de 2 à 3 %.

On est souvent amené à choisir ce genre de régulateur au même moment que le choix de l’équipement à placer dans les zones de vente comme les meubles frigorifiques, les chambres froides, …

Il existe sur le marché un grand choix de modules de régulation permettant par exemple de combiner les fonctions :

  • de régulation de température par commande des ventilateurs de l’évaporateur;
  • de dégivrage;
  • de monitoring de température;
  • de commande directe de compresseur dans les installations simples;
  • d’alarme température haute;

N’hésitez donc pas à bien négocier la qualité de votre régulateur au même moment que le choix des meubles et/ou chambres frigorifiques.

Débit du fluide frigorigène

Auparavant, la variation du débit du fluide frigorigène, et par conséquent l’adaptation de la puissance de la machine frigorifique à la charge nécessaire à l’évaporateur, était obtenue, par exemple, en enclenchant en « tout ou rien » une cascade de compresseurs en fonction de la pression d’aspiration Pa à l’entrée de la centrale.

Régulation en cascade de plusieurs compresseurs.

La mission était plus délicate encore pour un compresseur seul. Les moyens de régulation du débit frigorigène étaient limités et parfois très gourmands en énergie pour le compresseur (injection des gaz chauds par exemple).

La venue des variateurs de vitesse et surtout ces derniers temps la maîtrise des perturbations qu’ils engendraient auparavant au niveau des harmoniques, a permis de les adapter au compresseurs :

Régulation par variation de fréquence de la vitesse du compresseur.

Sur base d’une mesure en continu fiable de la pression d’aspiration (Pa) du compresseur, la  régulation par variation de fréquence du moteur d’entrainement du compresseur permet d’adapter le débit de fluide réfrigérant en fonction de la demande de l’évaporateur (le compresseur se comporte comme une pompe volumétrique).

Les principaux avantages et inconvénients du choix de ce type de régulation sont :

(+)

  • le COP est optimisé en permanence;
  • la pression d’aspiration est plus stable;
  • le compresseur peut être dimensionné plus petit;
  • les courants de démarrage sont plus faibles;
  • la durée de vie du compresseur est prolongée de par la diminution du nombre des démarrages/arrêts;

(-)

  • l’investissement est plus important;
  • il faut maîtriser les problèmes d’harmoniques;

De manière générale, l’évaluation des temps de retour simple sur investissement est, à l’heure actuelle, assez difficile à objectiver, car, des installations équipées de ce genre de régulation :

  • peu sont réellement monitorées (une fois l’installation terminée, il n’y a pas de réel contrat de maintenance ou de « benchmarking »);
  • si elles le sont, le temps de monitoring est souvent court.

Il est donc difficile de valider les temps de retour annoncé par les fabricants. L’équipe d’Energie+ serait tout à fait ravie de pouvoir disposer d’études de cas pertinentes.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Pression de condensation flottante

Schéma pression de condensation flottante.

La régulation de la pression de condensation en fonction des conditions climatiques externes est de loin celle qui permet de réduire fortement les consommations énergétiques du compresseur. En effet, tout comme l’augmentation de la basse pression à l’évaporateur améliore les performances du compresseur (une augmentation de température de 1 K réduit les consommations du compresseur de + 3 %), la diminution de la pression de condensation réduit aussi de + 3 % les mêmes consommations. Cependant, autant la réduction de la pression d’évaporation est limitée de par la température de l’application à respecter, autant la pression de condensation pourrait être abaissée au plus bas essayant de « coller » au maximum à la température extérieure pour un condenseur à air par exemple.

Schéma sur la diminution de la pression de condensation.

La diminution de la pression de condensation augmente l’efficacité du compresseur et de l’évaporateur.

S’il n’y avait pas de limite mécanique, par exemple la nécessité de maintenir une certaine pression haute sur le détendeur afin qu’il fonctionne correctement, on pourrait envisager des pressions de condensation proche de celles d’évaporation. La limite basse actuelle de pression de condensation est souvent fixée à 20 °C.

Vu que la plupart du temps la température externe, sous nos latitudes, est comprise entre 5 et 15°C, le pouvoir rafraichissant de l’air doit être utilisé au maximum. C’est pour cette raison qu’il est important de choisir une régulation de la pression de condensation flottante. Elle permet donc l’abaissement de la pression de condensation par la régulation du débit d’air externe (variation de la vitesse des ventilateurs des condenseurs).

graffique sur la régulation de la pression de condensation flottante.

On y arrive grâce à des régulateurs qui prennent en compte en permanence la température d’entrée d’air (dans le cas d’un condenseur à air) et la pression de condensation et l’introduise dans un algorithme de régulation de la vitesse du ventilateur d’air afin moduler son débit.

La régulation flottante de la pression (ou température) de condensation chez certains fabricants est réalisée en prenant en compte :

  • la température de l’air entrant dans le condenseur (= température externe) tair;
  • la pression de condensation (température de condensation) pc;
  • une information de la puissance frigorifique du compresseur est nécessaire Pf. Elle peut être obtenue lorsque que le compresseur est lui-même équipé d’un régulateur.

L’algorithme du régulateur recalcule la pression de condensation adéquate en fonction des différents paramètres d’entrée (pc, tair, Pf). La figure ci-dessus donne un exemple de loi de régulation imaginée par un constructeur spécialisé dans le domaine.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Négocier le meilleur tarif

Négocier le meilleur tarif


Les trois étapes de la recherche d’un éventuel nouveau fournisseur

Une négociation avec un fournisseur d’électricité passera nécessairement par trois étapes: une phase de préparation, la négociation proprement dite et le suivi du contrat souscrit.

Étape 1 – La phase de préparation

Il s’agit de rassembler et de compiler l’ensemble des éléments constitutifs du cahier des charges. La précision des informations fournies permettra aux fournisseurs consultés de cerner au mieux les activités de votre institution, le produit recherché et votre profil de consommation. Ce cahier des charges comportera essentiellement deux parties.

Un volet administratif reprenant

  • une description des activités de l’institution,
  • les contraintes d’exploitation,
  • les caractéristiques du point de prélèvement au réseau,
  • la procédure et les critères d’attribution du marché
  • et le produit recherché (durée du contrat, niveau de service souhaité, garanties, possibilité de révision des prix, modalités de paiement,…).

On y adjoindra un volet technique qui présentera le fonctionnement de l’institution à travers le profil de ses consommations et la structure de sa consommation, par exemple l’historique des consommations des trois dernières années. Plus ces éléments seront précis et détaillés, mieux le fournisseur pourra prévoir vos consommations et plus il sera en mesure de vous proposer un prix intéressant.

Comme votre fournisseur achète l’électricité qu’il vous délivre auprès d’un producteur, ces éléments aideront ce dernier à connaître la puissance à injecter sur le réseau, afin de satisfaire la demande et donc à affiner son prix.

Le fournisseur s’efforcera dès lors de signaler au producteur la courbe de charge jour par jour pour l’ensemble de ses clients. Tout en sachant qu’en cas de non-concordance, une pénalité lui sera imposée… qu’il répercutera sur le prix du kWh chez le client dont les prévisions de consommation se seront avérées incorrectes.

Par exemple : vous commandez un certain nombre de kWh à un prix donné. Une canicule apparaît. La consommation de vos machines frigorifiques dépasse vos prévisions. Vous pourrez obtenir des kWh supplémentaires … mais à un prix très élevé parce que votre fournisseur l’achètera lui-même au prix fort auprès du producteur !

Si vous ne disposez pas de telles mesures, vous pouvez éventuellement reconstituer schématiquement votre profil de consommation sur base des factures mensuelles (idéalement des trois dernières années), de vos pointes de puissance et consommations électriques en heures creuses et pleines.

Si vous disposez d’un compteur électronique, votre GRD doit vous fournir sur demande le profil de charge que vous lui demanderiez. En principe, les 80 derniers jours sont mémorisés dans l’historique.

Voici 3 profils de consommation bien différents :

Mais une analyse de charge plus rigoureuse et détaillée peut vous permettre de mieux comprendre la source de votre consommation.

Un technicien spécialisé peut venir enregistrer le profil de demande électrique sur les principaux départs de votre bâtiment (cafétéria, buanderie, machine frigorifique, etc…) au moyen de pinces ampèremétriques placées autour des principaux câbles. Vous découvrirez l’origine de vos pointes de puissance et pourrez peut-être envisager un délestage de certains consommateurs (ne pas faire fonctionner simultanément lave-vaisselle et friteuse) ou même un report vers les périodes creuses (le chauffage du ballon d’eau chaude sanitaire, par exemple). Il vous en coûtera de 1000 à 2000 Euros, montant partiellement subsidié par des primes régionales. Certains fournisseurs, dans le cadre une démarche commerciale, peuvent financer le complément.

Il est parfois utile de consulter l’ensemble des fournisseurs lors de l’appel d’offre pour envisager toutes les possibilités : ainsi, si votre pointe ¼ horaire se fait en Heures Creuses (c’est rare !), il existe des fournisseurs qui n’en tiennent pas compte et facturent la pointe ¼ horaire de jour uniquement.

Étape 2 – La phase de négociation

Reste à analyser et à comparer les offres des différents fournisseurs d’électricité. Cette comparaison peut se révéler délicate et difficile dans la mesure où chaque fournisseur a sa propre structure de tarification.

D’une manière générale, il faudra notamment être attentif aux conditions générales de vente, aux différentes surcharges applicables, à des redevances fixes éventuelles, à la nature de l’énergie fournie (p.ex. de l’électricité verte), à la formule de révision des prix, …

Le prix peut être décomposé ou non en postes constitutifs :

  • 3 composants : un prix pour la pointe de puissance en kW, un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses.
  • 2 composants : un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses, ces deux valeurs incluant la pointe.
  • 1 composant : formule « all-in », un prix pour les kWh, tout compris.

A priori, le tarif le moins cher sera celui à 3 composants, puisque le moins risqué pour le fournisseur.

Les deux autres, qui vous permettent de ne pas vous soucier du profil de votre charge, comprennent donc un risque que le fournisseur va anticiper. D’ailleurs, il mettra généralement des valeurs minimales et maximales à sa proposition, ce que l’on appelle des valeurs « tunnel ». Par exemple, s’il s’agit d’un prix « all-in », il sera basé sur une répartition forfaitaire entre kWh HP et kWh HC (du type 55 % – 45 %). Si la réalité s’écarte de cette estimation, le prix peut être modifié…

Vous devrez choisir entre des prix avec ou sans révision mensuelle. A nouveau, votre sécurité (vous avez fixé le prix du kWh durant 2 ans) … se traduira par une augmentation initiale du prix, pour couvrir le risque d’inflation. Un parallèle avec la logique d’intérêt fixe ou indexé des prêts hypothécaires peut avoir lieu ici.

Enfin, certains fournisseurs proposeront des services associés, tels que :

  • des courbes mensuelles de consommation,
  • la détection d’anomalies éventuelles de fonctionnement,
  • voire même la réalisation d’un audit de vos consommations électriques en vue de leur rationalisation.
Exemple d’une difficulté d’appréciation.

Il est difficile de comparer entre le prix « fixe » proposé par un fournisseur et un prix variable fixé par un autre. En effet, le prix variable sera indexé en fonction de 2 indices : les paramètres Nc et Ne publiés par le Ministère des Affaires Économiques. Or Nc est l’indice des coûts de combustible. Celui-ci fluctue, avec retard, en fonction du prix du baril de pétrole mondial. Qui peut en évaluer le coût dans 12 mois ??? Il est donc impossible de comparer mathématiquement des offres indexées et non indexées : on peut juste faire des hypothèses d’évolution raisonnable…

 Le fournisseur qui veut comparer son prix fixe au prix variable de son concurrent aura tendance à augmenter, peut être plus que de nécessaire, la valeur du paramètre Nc et mettre son prix ainsi en évidence…

Trucs et ficelles des « acheteurs »

  • On n’est jamais aussi fort que lorsque l’on change de fournisseur… puis qu’on fait mine de pouvoir revenir … sous de meilleures conditions ! A égalité d’offre de prix entre 2 fournisseurs, il est donc parfois préférable de changer… pour être plus fort dans un an ou deux, lors de la nouvelle négociation.
  • Il est aujourd’hui possible d’additionner les consommations de plusieurs sites financées par la même source et de négocier un prix « de gros » pour ces différents sites. Voire de s’associer avec d’autres entités similaires pour constituer un poids plus important (association de communes, d’établissements scolaires, …). Face à la concentration des producteurs, pourquoi pas une concentration des clients ?
  • Demander un prix global tout postes compris, sur base de la demande des 12 derniers mois.
  • Si le profil est régulier, les marges d’écart entre fournisseurs seront faibles. Celui qui avait un tarif « Binôme A Éclairage » aura plus intérêt à réévaluer son tarif que celui qui était en « Binôme A Force Motrice ».

Les pièges à éviter

  • Les amateurs du « All-in » se disent sans doute qu’ils seront ainsi à l’abri de toute dérive impromptue de leur pointe de puissance… Pas si sûr ! Attention aux valeurs tunnels qui sont peut-être écrites dans le contrat… Attention également à la valeur du kW ¼ horaire annuel (= kWa) pris en compte par le GRD dans sa formule tarifaire. Et ce poste kWa est fort élevé dans le bilan final.
  • Suivant les fournisseurs, le prix proposé est « tout compris » ou « coût des certificats verts » non compris (composante encore appelée « contribution Énergie Renouvelable ») …
  • Attention aux « obligations de consommer » : il est possible qu’il soit prévu dans les clauses du contrat de payer au minimum les ¾ de la consommation prévue, qu’elle soit consommée ou non !
  • Attention à l’existence ou non de « prix plafond » dans la formule tarifaire : certains fournisseurs additionnent le coût des kW et des kWh HP, qu’ils divisent par le nombre de kWh HP. Si ce montant est trop élevé (parce que la pointe ¼ horaire est vraiment très forte), ils rabotent leur prix. D’autres ne le font pas… Les écoles avec réfectoire sont souvent dans ce cas : peu de consommation en journée et une pointe élevée pour les frites de midi !

Étape 3 – Le suivi du contrat

Le contrat signé, il vous faudra chaque mois vérifier l’exactitude de la facturation. Dans le cadre du marché libéralisé, les durées des contrats de fourniture sont de l’ordre de une à deux années maximum. Il s’agira donc de renouveler l’appel d’offres en actualisant le cahier des charges, en fonction de l’évolution du marché et du fonctionnement de votre institution.

Fini donc le contrat de fourniture qui s’empoussière au fond d’un tiroir: l’électricité devient un bien de consommation comme un autre, soumis à la volatilité du marché. Plus question de se fier à un simple contrôle des tarifs. La libéralisation ouvre la porte à de nouvelles opportunités économiques, mais pour en faire votre profit, une nouvelle vigilance s’impose, ainsi qu’un brin de créativité.

En Allemagne et en France où le marché de l’électricité est déjà libéralisé depuis quelques années, on assiste ainsi à des regroupements de petits consommateurs pour former des cercles d’achat. Histoire de négocier aussi sur un plus grand volume de consommation et de mutualiser les services d’un consultant.

En principe, environ 2 mois avant la fin du contrat, votre fournisseur vous fait une nouvelle proposition pour l’année ou les 2 ans à venir…


Comment changer de fournisseur ?

Chaque fois qu’un contrat est conclu avec un nouveau fournisseur, c’est celui-ci qui est chargé d’informer le gestionnaire de réseau qui informera à son tour le fournisseur précédent de la signature du contrat.

Votre changement de fournisseur deviendra effectif après la période de préavis applicable.

Il semble cependant correct d’avertir également vous-mêmes par recommandé la non-reconduction du contrat avec votre ancien fournisseur.


Des primes pour analyser le profil de charge

Il existe des primes et subsides de la Région Wallonne pour la réalisation d’une analyse du profil de vos consommations électriques ainsi que pour la mise en place d’une comptabilité énergétique.


Faire appel aux « pros » de la négociation ?

La transition vers le marché libéralisé n’est pas une mince affaire: volatilité des prix, multitude de fournisseurs, rédaction de cahier des charges, appels d’offres, contraintes contractuelles, nombreuses variables influençant le prix, suivi du marché, …

Faute de temps, de moyen et/ou de compétence en interne pour aborder et affronter la préparation et la négociation de votre premier contrat d’approvisionnement, la meilleure solution pourrait consister à confier une partie ou la totalité des démarches à des professionnels. Certains bureaux d’études se sont spécialisés dans la consultance en négociation de contrat de fourniture d’électricité.

Ces consultants peuvent à la carte vous aider dans la rédaction de votre cahier des charges, donc définir précisément vos besoins, vous assister pour comparer les offres et vous orienter vers le fournisseur répondant au mieux à vos besoins et contraintes, ainsi que vous tenir informé sur l’évolution du marché.

On considère actuellement qu’un consommateur d’1 GWh ( = 1.000.000 de kWh) gagne à faire appel à un consultant. Son coût sera probablement bien remboursé par l’économie qu’il vous procurera. Mais vous n’êtes pas obligé de lui confier “tout le paquet”. Une intervention ponctuelle sur l’une ou l’autre étape peut être suffisante. Et rien ne vous empêche d’agglomérer les consommations de l’ensemble de vos bâtiments dans le cadre d’un seul appel d’offres.

Il peut être également intéressant de confier simultanément la mission de suivi énergétique et de négociation des tarifs à un consultant extérieur. Il vous informera de toute dérive de vos consommations et sera très au courant de votre profil de consommateur lors de la négociation.

Pour plus d’informations sur ce sujet, contactez le facilitateur tertiaire de la Région Wallonne.


Acheter de l’électricité verte ?

Par le système mis en place, tout consommateur achète donc de l’électricité « verte« , intégrée pour quelques pour cents dans le courant distribué. Mais il lui est aussi possible d’acheter directement son électricité à un fournisseur d’électricité verte, c.-à-d. à un fournisseur qui s’est engagé à ce que au minimum 50,1 % de son électricité soit verte (en pratique, ce ratio est proche des 100 %). C’est la meilleure manière de soutenir le développement de ces techniques propres.

Pare-vapeur

Pare-vapeur


Généralités

Toutes les matières sont plus ou moins perméables à la vapeur.

Sous l’influence de la différence de pression de vapeur d’eau des deux côtés d’une paroi, la vapeur a tendance à vouloir migrer par diffusion à travers celle-ci.

Pour éviter les phénomènes de condensation interne, il est parfois nécessaire de placer du côté chaud de l’isolant d’une paroi, une couche de matériau relativement étanche à la vapeur d’eau.

Cette couche de matériau est appelée « écran pare-vapeur ».

Le pare-vapeur remplit les fonctions suivantes :

  • Éviter une condensation excessive.
  • Empêcher, dans l’isolant thermique, l’absorption d’eau par capillarité en provenance des éléments de construction contigus.
  • Assurer l’étanchéité provisoire à l’eau de pluie lors de la construction.
  • Assurer l’étanchéité à l’air.

Selon les exigences :

Classe Résistance à la diffusion de vapeur Exemples de matériaux utilisables comme pare-vapeur
E1 2 m < µd < 5 m Papier bitumé
Film en PE 0,2 mm
Papier de tapisserie plastifié
Peinture à l’huile
Peinture au caoutchouc chloré
E2 5 m < µd < 25 m Carton-plâtre recouvert d’une feuille d’aluminium
Film de PE 0,2 mm et laminé d’aluminium
Voile de polyester bitumineux P150/16
Voile de verre bitumineux V50/16
Membrane en PVC épaisseur > 1 mm
E3 25 m < µd < 200 m Bitume armé P3 ou P4 ou V3 ou V4
Bitume polymère APP ou SBS
Film PIB
E4 200 m < µd Bitumes armés avec film métallique (alu 3)
Système bitumineux multicouche ( ³ 8 mm)

Pare-vapeur, freine vapeur ou membranes intelligentes ?

Le risque principal de condensation est lié à la diffusion de vapeur en hiver, ou quand la pression de vapeur est plus importante à l’intérieur qu’à l’extérieur et que la vapeur a donc tendance à traverser la paroi de l’intérieur vers l’extérieur.

Les modèles d’évaluation statiques (comme celui de Glaser) entraînent presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur.

Néanmoins, essayer d’éviter le risque principal de condensations internes par diffusion en choisissant une membrane totalement étanche à la vapeur peut engendrer un risque secondaire à cause de la difficulté qu’a le mur pour sécher du côté intérieur

Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant.

On parle alors de « freine-vapeur ». La valeur μd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par exemple 50 ou même 100 m) alors que la valeur μd des freine-vapeur ne sera que de quelques mètres seulement (par exemple 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

Les membranes intelligentes

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré sur l’illustration ci-contre. Dès lors, elles freinent le passage de la vapeur quand l’air intérieur est plus sec (généralement en hiver), et permettent le séchage du mur, lorsque l’humidité relative intérieure est plus élevée (généralement en été ou au printemps).

Principe de fonctionnement d’une membrane intelligente.

Source : Proclima.

Plusieurs types de membranes intelligentes existent avec une valeur  μd moyenne allant de quelques mètres à une dizaine de mètres. Remarquons que ces changements de μd ne sont pas instantanés et que le choix de la membrane doit d’abord se faire sur base de l’ambiance globale du local pour éviter le risque principal de condensations internes par diffusion. On pense ici au cas des salles d’eau qui sont le lieu des charges d’humidité élevées, mais ponctuelles dans temps.


Le placement

Le pare-vapeur doit être placé de manière continue et avec des joints étanches.

Les films seront posés autant que possible sans joint. Les joints inévitables et les jonctions avec d’autres éléments de construction sont à réaliser par collage ou soudage avec recouvrement, de manière à assurer la continuité du pare-vapeur.

La classe E4 exige une mise en œuvre sur support continu.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air (et des pertes de chaleur associées) et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Attention !
Un matériau pare-vapeur placé à un mauvais endroit peut fortement perturber le comportement hygrothermique de la toiture (entre autres augmenter les condensations internes ou empêcher l’élimination de l’humidité de construction).

Source : certains passages de cette feuille sont extraits du guide Isolation thermique par l’intérieur des murs existants en briques pleines réalisé par Arnaud Evrard, Aline Branders et André De Herde (Architecture et Climat-2010) dans le cadre de la recherche ISOLIN, financée par le département Énergie et Bâtiment durable du Service Public de Wallonie. Disponible sur le site : energie.wallonie.be

 

Tableau de bord, consommation d’électricité

Tableau de bord, consommation d'électricité


Un suivi annuel via un relevé sur Excel

Pour faciliter l’analyse, il est préférable de retranscrire l’évolution des consommations électriques sous forme de graphes plutôt que sous forme de tableaux de chiffres.

De plus, en tarification Haute Tension, il est intéressant de suivre non seulement le montant total des factures mensuelles, mais également des autres paramètres de la facture électrique sur lesquels il y a moyen d’agir :

La répartition financière des postes consommateurs, entre puissance (kW) et énergie (kWh).

La répartition des consommations de jour et de nuit (si compteur bihoraire) ou en Heures Creuses (nuit + week-end) et en Heures Pleines (jour en semaine), si régime Haute Tension. Le double relevé en kWh et en Euro est utile.

L’évolution de la pointe de puissance quart-horaire (pour les institutions soumises au régime Haute Tension).

L’évolution du « facteur de puissance » ou « cos phi »(pour les institutions soumises au régime Haute Tension).

Calculs

Pour accéder à un exemple de logiciel sur Excel pour suivre la comptabilité énergétique annuelle de bâtiments.

Il comprend une fiche par année + un récapitulatif sur 10 ans.

Toutes les cases bleues sont à remplir, toutes les cases jaunes + rouges sont calculées automatiquement.

Un fichier exemple « test » avec quelques valeurs « bidons » sont jointes afin de visualiser le type de résultat.

Calculs

Pour accéder à un fichier exemple afin de visualiser le type de résultat.

Études de cas

Si vous souhaitez parcourir la mise en place d’une comptabilité énergétique au Collège du Sacré Cœur.

Tout dernièrement, sur l’impulsion de la Région wallonne, les Facilitateurs URE de Wallonie ont crée un modèle de cadastre énergétique mis a disposition en ligne pour les communes et institutions désireuses de suivre et gérer leur consommations.

Calculs

Pour accéder au modèle de cadastre énergétique édité par les Facilitateurs.


Un tableur pour accompagner un projet de sensibilisation dans un bâtiment tertiaire  !

Des projets de sensibilisation voient le jour actuellement avec un retour partiel vers les occupants des économies générées.

Ainsi, avec les économies d’énergie, le collège Saint Louis de Liège a décidé d’engager un peintre, chômeur de longue durée, pour rafraîchir couloirs et classes. Les élèves sont aujourd’hui conscients que son emploi est lié à leur motivation, jour après jour… Pour plus d’infos sur ce projet.

Autre projet : une commune bruxelloise a décidé de motiver ses écoles en redistribuant pour partie les économies d’électricité, de chauffage et d’eau réalisées : 1/3 pour l’école (avec totale liberté d’affectation), 1/3 pour l’école (avec affectation dans des outils économiseurs du type ferme-porte automatique, vannes thermostatiques, …) et 1/3 pour la commune.

Un fichier Excel spécifique a été établi pour le suivi des consommations, avec un diagramme comparant chaque mois la consommation à celle de l’année précédente.

Un diagramme similaire est établi pour les consommations électriques.

Si vous souhaitez accéder au fichier Excel établi dans ce cadre (xls compressé).

Si vous souhaitez visionner une application de ce logiciel pour un bâtiment particulier (xls compressé).

Si vous souhaitez parcourir le mode d’emploi de ce logiciel.  (PDF)

Si vous recherchez des informations complémentaires à propos de ce logiciel, n’hésitez pas à contacter J. Claessens de la cellule Architecture et Climat (jacques.claessens@uclouvain.be).


Informer les services techniques et responsables des bâtiments

Qui connaît la consommation du bâtiment dans lequel il travaille ? Comment s’étonner alors qu’il soit si peu motivé à éteindre la lumière…?

Pire : quel est le technicien d’entretien qui connaît l’évolution de la consommation de son bâtiment ses dernières années ? C’est un outil de base pour le motiver à agir. C’est une photographie de la qualité de son travail !

Il est donc très utile que le service comptable diffuse ces informations, sous forme d’un bilan général des consommations annuelles. Idéalement, il pourrait informer le service technique dès qu’il perçoit une dérive de consommation.


Aller plus loin ?

Audit

Pour comprendre et analyser les paramètres de la facture électrique.

Audit

Pour définir le(s) bâtiment(s) prioritaire(s).

Audit

Pour comparer le bâtiment aux autres bâtiments du secteur.

Audit

Pour repérer les mesures les plus rentables.

Confort thermique : Les classes de climats intérieurs

Confort thermique : Les classes de climats intérieurs


Qu’entend-t-on par classe de climat intérieur ?

Pour évaluer les risques de condensation dans les matériaux ou à la surface de ceux-ci, il est nécessaire de connaître les conditions de climat intérieur qui sont présumées exister dans les locaux limités par les parois.
En fonction des valeurs moyennes annuelles de température et d’humidité relative de l’air intérieur des bâtiments, le CSTC dans ses publications distingue différentes classes de climat intérieur en fonction de la valeur annuelle moyenne de pression de vapeur d’eau pi à l’intérieur du bâtiment.


Quelles sont les classes de climat intérieur?

En fonction des pressions de vapeur moyennes annuelles (pi), le tableau suivant (extrait de la NIT 183 du CSTC) indique la classe de climat intérieur du local situé sous la toiture.

Définition du bâtiment Exemples pi Classe
Bâtiment avec une production de vapeur nulle ou faible.
  • lieux de stockage pour marchandises sèches
  • églises
  • salles de sport d’utilisation modérée
1 100 < p< 1 165 I
Bâtiment bien ventilé avec une production de vapeur limitée.
  • habitations de grande dimension
  • écoles
  • magasins
  • bureaux non climatisés
  • unités de soins hospitaliers
1 165 < pi < 1 370 II
Bâtiment d’utilisation intense.
  • habitations sociales
  • flats
  • maisons de soins
  • bâtiments faiblement climatisés (HR < 60 %)
1 370 < pi < 1 500 III
Bâtiment avec une production de vapeur élevée.
  • piscines
  • locaux industriels humides
  • blanchisseries
  • bâtiments fortement climatisés (HR > 60 %)
1 500 < pi < 3 000 IV

Luminaires extérieurs

Luminaires extérieurs


Classification des luminaires extérieurs

Luminaires fonctionnels Luminaires décoratifs Projecteurs

Type 1 : asymétriques (type éclairage public).

Type 3 : asymétriques.

Type 5 : asymétriques.

Type 2 : symétriques avant-arrière.

Type 4 : symétriques avant-arrière.

Type 6 : symétriques.

   

Distribution lumineuse des luminaires asymétriques et des luminaires symétriques.

Les projecteurs se distinguent des autres luminaires parce qu’ils sont orientables en azimut et en inclinaison. Un luminaire d’éclairage public éclaire grosso modo une bande d’une largeur égale à la hauteur de feu. Cette largeur peut atteindre 2,5 fois la hauteur pour un projecteur.

     

Distribution lumineuse des luminaires et des projecteurs.

  

Orientation d’un projecteur.

Pour éviter toute pollution lumineuse, on évitera d’utiliser des luminaires décoratifs éclairant vers le ciel.


Matériaux utilisés

Matériaux pour armatures

Matériaux pour armature

Traitement de surface

Finition

Avantages

Inconvénients

Acier inoxydable

Aucun

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussières, grand choix des couleurs.

Coût, poids.

Acier

Galvanisation

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussière, grand choix des couleurs.

Veiller à ce que la couche de galvanisation soit suffisante, poids.

Aucune

Bonne tenue dans le temps.

Surface moins lisse, plus salissante, couleur unique.

Aluminium et alliages

Chromatation

Peinture cuite au four

Très bonne tenue dans le temps, poids, limitation du dépôt de poussières, grand choix des couleurs.

Anodisation

Aucune

Bonne tenue dans le temps.

Couleur unique, plus salissante.

Cuivre

Aucun

Aucune

Moins coûteux que les autres.

Oxydation naturelle.

Polissage

Vernis

Maintien de l’aspect initial dans le temps.

Oxydation

Aucune

Bonne tenue dans le temps.

Couleur noire uniquement, impossibilité de voir si c’est du cuivre.

Bronze

Aucun

Aucun

Matériau noble.

Coût, poids, oxydation naturelle.

Couche de primer

Peinture liquide

Bonne tenue dans le temps, limitation du dépôt de poussières, grand choix de couleurs.

Coût, poids.

Matières synthétiques

Peintes dans la masse

Aucun

Légèreté, pas de risque de couple galvanique.

Faible résistance mécanique et thermique, choix de couleurs limité.

Couche de primer

Peinture liquide

Légèreté, pas de risque de couple galvanique, grand choix de couleurs.

Faible résistance mécanique et thermique,  risque de décollement de la peinture.

Matériaux pour réflecteurs

Matériaux pour réflecteurs

Procédé de fabrication

Traitement

Avantages

Inconvénients

Aluminium

Emboutissage

Anodisation

Légèreté, très répandu, coût, très bonnes qualités de réflexion.

Toutes les formes ne sont pas permises.

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Extrusion

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Matière synthétique

Injection

Métallisation

Légèreté, grande liberté des formes, qualités de réflexion optimales.

Coût, limitation thermique, fragilité mécanique du traitement.

Verre

Soufflage

Aucun

Esthétique lorsque le réflecteur est visible, la vasque et le réflecteur peuvent ne faire qu’un.

Poids, coût.

Matériaux pour protecteurs

Matériaux pour protecteurs

Aspect

Avantages

Inconvénients

Métacrylate (PMMA ou polymétacrylate de méthyle)

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, pas de jaunissement avec les UV.

Cassant.

Structuré

Coût, légèreté, très faible perturbation de la distribution de la lumière, moins éblouissant que le clair.

Opalin

Coût, légèreté, éblouissement très faible.

Cassant, distribution de la lumière tout à fait diffusante (réflecteur inutile).

Polycarbonate

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, très résistant aux chocs.

Nécessite, pour éviter le jaunissement, un traitement anti-UV dans la masse, voire un film protecteur supplémentaire lorsqu’on utilise des sources qui émettent beaucoup d’UV comme les lampes à induction et les iodures métalliques.

Structuré

Comme le métacrylate, mais très résistant aux chocs.

Opalin

Comme le métacrylate, mais très résistant aux chocs.

Comme le métacrylate.

POND (Partially Obscured Non Diffusing)

Traitement de surface qui ne perturbe que très faiblement la distribution de la lumière ; malgré un aspect légèrement opalin.

Coût.

Verre

Clair

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas.

Coût, poids, matériau très cassant sauf quand il est trempé ou feuilleté et qu’il a une forme étudiée pour résister (p.e. bombé, cintré).

Strié

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas, les stries permettent une distribution améliorée selon le besoin.

Sablé

Ne perturbe pas la distribution de la lumière, ne s’altère pas, comparable à l’opalin des matières synthétiques.

Distribution de la lumière plus aléatoire comme pour les opalins.

Matériaux pour poteaux et consoles

Matériaux pour poteaux

Avantages

Inconvénients

Aluminium

Légèreté.
Pas besoin nécessairement de peinture.
Coût.

Très grande transmission des vibrations.
Apparition de déformations permanentes lors de chocs.
Limitation au niveau des formes.

Acier

Très grande résistance mécanique.
Transmet peu les vibrations.
Résistance aux chocs.
Grande variété de formes et d’adaptations.
Très grandes hauteurs possibles.

Nécessite un grand soin de traitement de surface : galvanisation + nettoyage.

Fonte

Grande variété de formes.
Matériau noble.
Rendu des détails excellent (ex : armoiries, détails végétaux,…).

Poids, coût, limitation en hauteur, poteaux en plusieurs pièces.
Nécessite un grand soin de traitement de surface : métallisation + peinture riche en zinc.
Matériau cassant sauf les fontes nodulaires.


Contrôle de l’éblouissement

Les luminaires extérieurs sont classés en fonction de leur contrôle de l’éblouissement et de la pollution lumineuse :

Classe Intensité lumineuse maximale pour tous les demi-plans C (en cd/klm) Maîtrise de l’éblouissement et de la pollution lumineuse
à γ = 70° à γ = 80° à γ = 90°
G1 200 50 Maîtrise très réduite.
G2 150 30 Réduite.
G3 100 20 Faible.
G4 500 100 10 Moyenne.
G5 350 100 10 Bonne.
G6 350 100 0 Excellente.

Évaluer la rentabilité d’une rénovation [ventilation]

Évaluer la rentabilité d'une rénovation


Rentabilité du confort

Il est difficile de calculer la rentabilité d’un investissement ayant pour but de rétablir le confort des occupants. On sait cependant que confort et productivité sont liés. Si on ne regarde que l’aspect financier du confort, on peut « se risquer » au calcul suivant

  • Un service administratif est occupé par 60 personnes.
  • On estime que la mauvaise qualité de l’air entraîne, par jour, une perte de « productivité » équivalente à 5 minutes.
  • Un employé administratif coûte en moyenne 25 €/h.
  • L’inconfort coûte donc annuellement : 60 [pers] x 220 [jours/an] x 5/60 [h/jour] x 25 [€/h] = 27 500 [€/an].
  • Si on se fixe un temps de retour de 5 ans, on peut se permettre un investissement de 137 500 € pour solutionner l’inconfort.

Évaluation de la rénovation d’une installation de ventilation existante

Exemple.

Considérons un bureau paysager de 250 m². Ce bureau est ventilé 10 h par jour, 250 jours/an par un système double flux (pulsion et extraction mécanique).

Le débit d’air neuf recommandé du local est de 2,5 m³/h.m², soit 625 m³/h.

La consommation d’énergie nécessaire au chauffage de cet air durant la saison de chauffe (du 15 septembre au 15 mai) est estimée à :

0,34 [Wh/m³.K] x 625 [m³/h] x (20[°C] – 8[°C]) x 1 700 [h/an] / 0,7 = 6 193 [kWh/an]

  • 20[°C] = température de consigne intérieure.
  • 8[°C] = température extérieure moyenne diurne durant la saison de chauffe (Uccle).
  • 1 700 [h/an] = durée de fonctionnement de la ventilation durant la saison de chauffe.

La consommation électrique des ventilateurs dépend du rendement global du système « moteur, transmission, ventilateur » et des pertes de charge du circuit de distribution de l’air (pulsion et extraction). Celles-ci varient en fonction de la configuration du réseau. Prenons dans un premier temps une valeur moyenne couramment rencontrée de 1 500 Pa (1 000 Pa pour la pulsion et 500 Pa pour l’extraction).

La consommation énergétique des ventilateurs est de :

0,174 [m³/s] x 1500 [Pa]  x 2500 [h/an] / 0,65 =  1 004 [kWh/an]

  • 0.174 m³/s] = 625 [m³/h].
  • 0,65 = rendement global des systèmes « moteur, transmission, ventilateur ».
  • 2 500 [h/an] = durée de fonctionnement annuelle des ventilateurs.
Récapitulatif
Chauffage de l’air Transport de l’air
Consommation annuelle. 6 193 kWh/an 1 004 kWh/an
% consommation totale. 86 % 14 %
Coût de l’énergie. 0,0622 €/kWh 0,16 €/kWh
Coût annuel. 385,20 €/an 160,64 €/an
% coût total. 71 % 29 %

Par rapport à cette situation, qu’apporteraient certaines améliorations ?

Diminution de la consommation Diminution du coût
Diminution du débit de ventilation de 10 %. 12 % * 16 %
Amélioration du rendement du système de ventilation de 10 %. 2 % 5 %
Réduction du temps de fonctionnement de 10 %. 10 % 10 %

*Lorsque le débit diminue dans le réseau de distribution, les pertes de charge diminuent comme le carré de celui-ci (règles de similitude).

Ces calculs rapides peuvent être affinés puisqu’ils ne tiennent pas compte du fait qu’une partie de la consommation du ventilateur de pulsion est souvent récupérée sous forme de chaleur dans l’air neuf.

Vous pouvez adapter ces données à votre propre situation et estimer l’investissement maximum permis pour garantir la rentabilité financière d’un projet de rénovation :

Calculs

Pour estimer l’investissement maximum permis

Check-list pour une installation [Chauffage à eau chaude URE]

Voici un résumé des points essentiels qui garantissent une installation de chauffage énergétiquement efficace et confortable.

On sera attentif à 4 aspects du projet :

Paramètres de dimensionnement

Exigences

Pour en savoir plus

La puissance utile des chaudières doit être calculée se base des prescriptions de la norme NBN B62-003 en tenant compte de la température de base de la région correspondante.

Concevoir

Dans les installations équipées de radiateurs, la puissance électrique d’un circulateur en [W] doit être proche de la puissance thermique du réseau qu’il alimente Pth en [kW].

Concevoir 

Dans le cas d’une installation fonctionnant au gaz, les radiateurs doivent au minimum être dimensionnés en régime 80°/60° (ou mieux encore en régime 70°/50°) pour pouvoir optimaliser le fonctionnement des chaudières à condensation.

Concevoir 

Dans le cas d’une installation fonctionnant au fuel, les radiateurs sont dimensionnés en régime inférieur ou égal à 80°/60° pour bénéficier d’une certaine surpuissance à la relance.

Concevoir 


Choix de matériel

Exigences

Pour en savoir plus

Si le gaz naturel est disponible, la chaudière est une chaudière à condensation, de préférence ne demandant pas de débit minimal et équipée d’un brûleur modulant (10 .. 100 %).

Concevoir

Pour les grosses puissances, la chaudière à condensation peut être couplée à une chaudière traditionnelle très basse température.

Concevoir 

Si le gaz naturel n’est pas disponible, la chaudière est une chaudière fuel traditionnelle très basse température équipée d’un brûleur Low NOx.

Concevoir 

Au-delà d’une puissance de 150 kW, le brûleur des chaudières traditionnelles sera à deux allures vraies régulées en cascade.

Concevoir 

Les brûleurs fuel doivent être équipés d’origine d’un compteur de combustible.

Concevoir 

Les chaudières à condensation sont raccordées à un circuit hydraulique favorisant les retours à température la plus froide possible et approuvé par le fabricant de la chaudière.

Concevoir 

Dans le cas de chaudières ne demandant pas de débit minimal et pouvant travailler à très basse température, le collecteur primaire est un collecteur ouvert sans pompe primaire.

Concevoir 

Les circuits de distribution secondaires correspondent à des zones d’activités homogènes et disposent de leur régulation propre.

Concevoir 

Les conduites parcourant des locaux non chauffés sont isolées avec une épaisseur d’isolant fonction de leur diamètre.

Concevoir 

Les vannes et brides disposées dans des locaux non chauffés sont isolées au moyen de coquilles isolantes amovibles.

Concevoir 

Les circulateurs sont à vitesse variable et leur débit maximal est ajusté aux besoins réels.

>Concevoir 

La courbe caractéristique maximale d’un circulateur doit se trouver juste en dessous du point de fonctionnement théorique calculé du circuit correspondant.

Concevoir 

Chaque circuit secondaire est équipé d’un organe d’équilibrage (correctement dimensionné) permettant une répartition correcte du débit dans l’installation.

Concevoir 

Un chauffage par le sol ne peut être installé dans des locaux à occupation variable, à forte occupation ou fortement ensoleillé.

Concevoir 

Le chauffage par le sol est à déconseillé au dessus du sol ou de caves non chauffées.

Concevoir 

Des radiateurs ne peuvent être installés devant des vitrages.

Concevoir 

Des corps de chauffe de types différents ne peuvent être raccordés sur un même circuit de distribution avec un réglage de la température d’eau unique.

Concevoir 


Régulation

Exigence

Pour en savoir plus

Les chaudières multiples sont régulées en cascade par action sur le brûleur, leur vanne d’isolement et leur circulateur éventuel.

Concevoir

Chaque zone d’occupation et de besoin homogènes dispose de son propre circuit de distribution dont la température d’eau est régulée en fonction d’un thermostat d’ambiance ou d’une sonde extérieure.

Concevoir 

La température des chaudières suit au plus près la température des circuits secondaires de distribution (sauf si la chaudière ne peut descendre en température, si une production instantanée d’eau chaude sanitaire est combinée à la chaudière ou si le collecteur primaire est un collecteur bouclé).

Concevoir 

L’intermittence est gérée par un optimiseur qui assure une coupure complète des circuits de distribution et éventuellement des chaudières et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures.

Concevoir 

Chaque circuit dispose un thermostat d’ambiance qui permet de gérer la température d’inoccupation et éventuellement d’ajuster le réglage de la courbe de chauffe dans le cas d’une régulation en fonction de la température extérieure.

Concevoir 

Si nécessaire, le régulateur doit comprendre une possibilité de dérogation au régime de ralenti avec retour au mode automatique sans intervention manuelle.

Concevoir 

Les locaux profitant d’apports de chaleur plus importants que les autres sont équipés d’une régulation locale (par exemple, pour les radiateurs, des vannes thermostatiques, « institutionnelles » dans les lieux publics).

Concevoir 

Dans les installations de taille importante, les régulateurs sont de type digital, communiquant, de manière à pouvoir être raccordés sur une centrale de gestion centralisée.

Concevoir 

Les équipements de régulation doivent être accompagnés d’un mode d’emploi clair (plus clair que le simple mode d’emploi des régulateurs), comprenant l’explication du principe de régulation et de l’utilisation des équipements.

Concevoir 

La régulation doit mettre à l’arrêt les circulateurs en absence de besoin de chauffage (en fonction de la fermeture des vannes et en fonction de la température extérieure).

Concevoir 


Chaufferie

Exigence

Pour en savoir plus

La section de la cheminée doit être adaptée à la puissance et au type de chaudière installée.

Concevoir

La cheminée doit être équipée d’un régulateur de tirage.

Concevoir 

La cheminée raccordée à une chaudière à condensation doit être étanche à l’humidité et résister à la corrosion.

Concevoir 

La chaufferie doit être équipée d’une ventilation haute et d’une ventilation basse, respectant la norme NBN B61-001.

Concevoir 

Choisir le pare-vapeur pour une toiture plate existante

Quel pare-vapeur choisir ?

Les toitures inversées ne nécessitent pas de pare-vapeur, l’étanchéité en faisant office.

Pour les toitures chaudes, le choix du type et de la classe d’écran pare-vapeur dépend de plusieurs facteurs.

La classe de l’écran pare-vapeur nécessaire se calcule. Dans les cas les plus courants, il est fait usage de tableaux pour déterminer cette classe.

Le tableau suivant (extrait de la NIT 215 du CSTC) indique la classe de pare-vapeur à choisir en fonction de la classe de climat intérieur, du support et de l’isolant.

Support ou forme de pente Classe de climat intérieur PURPIREPSPF MWEPBICB CG
Techniques de pose de l’étanchéité
Fixation mécanique (a) Autres Fixation mécanique (a) Autres
Béton coulé in situ, éléments préfabriqués en béton (b) (c) I

II

III

IV

E3

E3

E3

X

E3

E3

E3

E4

E3

E3

E3

X

E3

E3

E3

E4

(h)

(h)

(h)

(d)

Voligeage ou panneaux à base de bois résistant à l’humidité (e) (f) I

II

III

IV

E1 (g)

E2

X

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Tôles profilées en acier I

II

III

IV

(i)

E1 (g)

E2

X

(i)

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Panneaux sandwiches autoportants I – III

IV

voir remarques

Non autorisé

(a) Afin d’éviter un “effet de pompage” résultant de l’action du vent, l’étanchéité à l’air du complexe toiture dont le support est perméable à l’air doit toujours être assurée, et ce de l’une des façons suivantes :

  • par la pose d’un pare-vapeur de classe E1 ou supérieure
  • par l’utilisation de panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces), d’épaulements sur les quatre bords et mis en œuvre sur un support permettant une bonne fermeture des emboîtements. Ces mêmes panneaux à bords droits ou coupés peuvent également assurer l’étanchéité à l’air du complexe toiture, pour autant que les joint entre les panneaux, ainsi que les raccords avec les rives de toiture (voir NIT 191) soient rendus étanches à l’air
  • en rendant étanches à l’air les joints entre les éléments d’un plancher de toiture.

(b) Pour la rénovation des toitures avec un plancher de toiture étanche à l’air en béton sec, on ne prévoit pas de pare-vapeur dans les classes de climat intérieur I, II et III.

(c) Dans les classes de climat intérieur I, II et III, on ne pose pas d’écran pare-vapeur complémentaire sur les planchers de toiture en béton léger (p. ex. béton cellulaire) sans couche d’isolation thermique complémentaire, si la membrane d’étanchéité est adhérente ou lestée. Dans le cas contraire, il est nécessaire de rendre étanches les joints entre les éléments en béton. Dans des climats de la classe IV, une condensation résiduelle annuelle peut entraîner des dégâts aux éléments (corrosion des armatures, p. ex.), de sorte qu’une isolation thermique complémentaire posée sur un pare-vapeur non perforé est indispensable.

(d) Pour les bâtiments de la classe de climat IV, il convient d’examiner avec le fabricant de l’isolation si un pare-vapeur complémentaire est éventuellement nécessaire.

(e) Préalablement au collage d’un isolant thermique au moyen de bitume sur un plancher en bois, les joints (y compris le joint périphérique) sont rendus étanches au moyen d’une membrane du type P 150/16. Lorsque les joints de cette membrane sont collés, celle-ci peut être assimilée à un pare-vapeur de la classe E2.

(f) Lorsque l’isolation est posée sur un panneautage, les joints de ce dernier ainsi que les joints aux rives sont rendus étanches par la pose d’une bande de “pontage”.

(g) La résistance à la diffusion de vapeur des panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces) équivaut au minimum à celle offerte par un pare-vapeur de classe E1, lorsque les panneaux sont à épaulement sur les quatre bords et qu’ils sont mis en oeuvre sur un support permettant une bonne fermeture des emboîtements.

(h) La pose d’un écran pare-vapeur n’est pas requise, si les joints entre les panneaux d’isolation sont entièrement remplis de bitume (voir l’ATG pour cette application).

(i) Dans le cas d’une isolation en PF, on pose une couche de désolidarisation continue.

X La fixation mécanique au travers du pare-vapeur n’est pas autorisée en classe de climat IV.

REMARQUES

Compatibilité

Lorsque l’étanchéité est de type bitumineux, on pose de préférence un pare-vapeur bitumineux. Lorsque l’étanchéité est de type synthétique, on pose de préférence un pare-vapeur synthétique. Les deux types de matières peuvent être combinées à condition d’être compatibles entre elles, car elles sont en contact au droit des rives et des lignes de compartimentage de l’isolant.

Rénovation

Dans le cas d’une rénovation, l’étanchéité existante peut être conservée et faire office de pare-vapeur. Dans ce cas, il convient de vérifier si ce pare-vapeur possède une classe suffisante.

Panneaux sandwiches

Les panneaux sandwiches de toiture avec âme isolante appartiennent généralement, dès la fabrication, à la classe de pare-vapeur E1. Les dispositions relatives à la résistance au passage de la vapeur d’eau, à prendre en fonction de la classe de climat intérieur, sont prévues dans l’agrément technique des panneaux.

Toitures plates légères isolées à l’intérieur de la structure

Un freine vapeur est toujours nécessaire. Son choix est particulièrement délicat. On recommandera souvent le placement d’un pare-vapeur « intelligent ». Néanmoins, le choix étant particulièrement délicat on conseillera de se référer à l’avis (et aux calculs dynamiques!) d’un bureau d’études spécialisé.


Comment poser le pare-vapeur d’une toiture chaude ?

Un écran pare-vapeur mal posé où posé à un mauvais endroit peut causer de graves dégâts. Son action peut être insuffisante ou même, dans certains cas, peut créer des désordres ou les aggraver.

Le pare-vapeur se pose toujours du côté chaud par rapport à l’isolant.

On sera attentif à ne pas emprisonner d’eau dans les couches situées entre l’écran pare-vapeur et la membrane d’étanchéité.

Le pare-vapeur sera continu. Les joints seront soignés. Le pare-vapeur ne sera pas percé (accident mécanique ou passage de canalisations).

Aux rives et raccords, l’étanchéité et le pare-vapeur sont reliés en emprisonnant complètement l’isolant.

Le mode de pose du pare-vapeur dépend :

Du mode de pose et de fixation de l’isolant et de l’étanchéité

Lorsque l’étanchéité est posée en indépendance totale ou fixée mécaniquement, le pare-vapeur peut être posé en indépendance totale. Il est toutefois préférable de le poser en semi-indépendance pour faciliter la mise en œuvre. Le pare-vapeur est ainsi maintenu en place pendant la phase de mise en œuvre et en attendant le lestage final.

Lorsque l’étanchéité et l’isolant sont collés, le pare-vapeur doit également être collé de façon à ce que l’ensemble puisse résister au vent.

– Du support

Sur les supports en bois

Sur des panneaux, le pare-vapeur est collé (après pontage des joints), soudé ou cloué.

Sur des voliges, le pare-vapeur est cloué.

Sur les supports en tôles profilées

Pour les classes de climat intérieur < III, les lés du pare-vapeur sont posés parallèlement aux ondes.
Tous les joints sont réalisés par recouvrement.
Les joints longitudinaux doivent se trouver sur une nervure supérieure des tôles.
Sur une nervure supérieure, le pare-vapeur peut être perforé par les fixations mécaniques de l’isolant (et de l’étanchéité).

Pour la classe de climat intérieur IV, il faut poser le pare-vapeur sur un support intermédiaire plan.

Schéma classe de climat intérieur IV, pose du pare-vapeur.

Sur les autres supports

La pose est identique à celle des membranes d’étanchéité posées directement sur les mêmes supports (voir Choix du mode de pose de l’étanchéité), c’est-à-dire en indépendance, en semi-indépendance ou en adhérence totale.

Friteuse au gaz

Friteuse au gaz


Description

Une friteuse est un appareil comportant un bac à huile ou à graisse chauffé par un ou plusieurs brûleurs.

Actuellement, la majorité des friteuses sont dites « à zone froide », c’est-à-dire que la forme de la cuve et l’emplacement des brûleurs permettent de ménager dans le bain d’huile une zone à plus faible température (inférieure d’au moins 60°C à celle du bain). Cette disposition présente l’avantage de permettre le dépôt des particules d’aliments détachées lors de la cuisson par suite d’une baisse très sensible des courants de convection. La durée d’utilisation de l’huile s’en trouve ainsi prolongée et, de plus, cela évite la transmission de goûts et d’odeurs sous l’effet de la carbonisation de ces particules.

Il existe principalement deux types de friteuse à zone froide :

  • Dans l’une le chauffage se fait par le fond. L’entretien est aisé, mais le rendement est moins bon.
  • Dans l’autre, les gaz brûlés produits par le brûleur passent dans un tube qui est immergé dans le bain d’huile. Le rendement est meilleur, mais l’entretien est plus difficile.


Utilisation

Les friteuses sont utilisées non seulement pour la cuisson des pommes de terre frites, mais aussi pour la préparation des beignets, poissons, …

Elles sont adaptées aux aliments frais et aux aliments congelés.

Les aliments sont placés dans des paniers en fil d’acier chromé. Deux paniers utilisés dans la même cuve permettent une plus grande souplesse d’utilisation. Des friteuses à panier « transfert » donnent une productivité accrue. Il s’agit d’un système permettant l’abaissement/élévation, puis la translation du panier. Le fond du panier est généralement composé de volets perforés, facilement ouverts en manœuvrant une poignée. On peut ainsi faire passer rapidement et sans effort les aliments depuis la friteuse jusqu’à un plateau ou bac de réception. Un tel dispositif peut être associé à deux éléments de cuisson, chaque panier se déversant à tour de rôle dans une structure porte-plats disposée entre les deux friteuses.

Pour choisir le matériel adapté à ses besoins, on déterminera, en fonction du mode de distribution et de la régularité de la consommation, la production horaire qu’il convient d’obtenir. On compte environ 300 grammes de frites par personne. La production horaire annoncée par le constructeur pourra être différente dans la réalité, notamment lors de l’utilisation de frites déjà cuites, elle sera largement supérieure.


Gamme

Les capacités des friteuses vont d’environ 6 à 80 litres avec des puissances se situant entre 7,5 et 60 kW.


Efficacité énergétique

Plusieurs fabricants ont développé des friteuses optimisant leur rendement. Cette amélioration se base sur l’utilisation du brûleur séquentiel, une meilleure isolation, un meilleur transfert de chaleur et un allumage électronique.

Le meilleur transfert s’obtient par le choix du matériau pour l’échangeur (cuivre bon conducteur) et par le choix de la géométrie des parois d’échange thermique  : trajet des gaz chauds plus long, plus turbulent (ailettes, tétons).

Exemple: l’air brûlé est poussé par des ventilateurs dans des carnots se trouvant tout autour de la cuve mais à l’extérieur de celle-ci (rendant son entretien plus facile).

L’allumeur électronique est plus facile à manipuler que le piezzo. On arrêtera donc plus volontiers l’appareil.

Grâce à ces techniques, il existe une friteuse au gaz à haut rendement (88 %) fabriquée en Hollande. Ce rendement est à comparer aux 45 % d’une friteuse au gaz classique.

Norme NBN EN 378 : les systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement

Norme NBN EN 378 : les systèmes de réfrigération et pompes à chaleur - Exigences de sécurité et d'environnement


Famille des normes NBN EN 378

Numéro Ann. Pub. Titre Langue ouverture d'une nouvelle fenêtre !Moniteur Belge EUR
NBN EN 378-1/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1 : Exigences de base, définitions, classification et critères de choix FR,EN 27/04/2004 10.80
NBN EN 378-1:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix FR,EN 26/10/2000 63.30
NBN EN 378-2:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 2: Conception, construction, essais, marquage et documentation FR,EN 26/07/2000 51.00
NBN EN 378-3:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3: Installation in situ et protection des personnes FR,EN 26/07/2000 31.40
NBN EN 378-3/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3 : Installation in situ et protection des personnes FR,EN 27/04/2004 10.80
NBN EN 378-4:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4: Fonctionnement, maintenance, réparation et récupération FR,EN 26/07/2000 34.80
NBN EN 378-4/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4 : Fonctionnement, maintenance, réparation et récupération FR,EN 27/04/2004 10.80
NBN EN 3788:2002 2002 Série aérospatiale – Système de raccordement 8°30′ – Capuchons de protection EN 15/05/2002 37.60
NBN EN 3789:2002 2002 Aerospace series – Pipe coupling 8°30′ – Protective plugs with external threads EN 12/03/2002 37.60

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-1 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-1:2000
Année de publication : 2000 – Date de publication  2000-09-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix.
Résumé

(si disponible)

This standard specifies the requirements relating to safety of persons and property, but not goods in storage, and the local and global environment for: a) stationary and mobile refrigerating systems of all sizes, including heat pumps; b) secondary cooling or heating systems; c) the location of these refrigerating systems.
Domaine d’application No records returned.
Langue(s) : Français et Anglais.
ICS : 01.040.27; 27.080; 27.200.
Prix : 63.30 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-2 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-2:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 2: Conception, construction, essais, marquage et documentation.
Résumé

(si disponible)

Is applicable to the design and construction of refrigerating systems and the components and materials used including piping. It also specifies requirements for testing, commissioning, marking and documentation.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-3 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-3:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3: Installation in situ et protection des personnes.
Résumé

(si disponible)

Is applicable to the installation site (design of plant space and services) and personal protective equipment.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : 31.40 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-4 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-4:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4: Fonctionnement, maintenance, réparation et récupération.
Résumé

(si disponible)

Specifies requirements for safety and environmental aspects in relation to operation, maintenance, repair of refrigerating systems and the recovery, reuse and disposal of all types of refrigerant.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : 34.80 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.

Suivi des consommations énergétiques du CH Psychiatrique du Chêne aux Haies

Suivi des consommations énergétiques du CH Psychiatrique du Chêne aux Haies


Introduction

Implanté à Mons sur un domaine de 25 hectares, le Centre Hospitalier Psychiatrique du Chêne aux Haies compte un ensemble de 15 bâtiments. Établissement qui depuis sa création s’est considérablement étendu avec la construction de près de 12 660 m² supplémentaires sur les deux dernières décennies avec aujourd’hui une capacité d’accueil de 455 lits. Un patrimoine bâti dont l’équipe technique doit assurer le suivi de la maintenance et des nouveaux projets, mais aussi le suivi des consommations énergétiques afin de garder un œil sur leurs évolutions.


La traçabilité des consommations

Le suivi des consommations et de la facturation des 15 bâtiments du Centre Psychiatrique, d’une superficie totale de 33 150 m², n’est pas chose aisée d’autant plus qu’au fil des nouvelles constructions les raccordements se sont multipliés et parfois ont été opérés par repiquage sur des collecteurs, des conduites ou des cabines électriques existantes sans qu’un sous compteur y soit systématiquement placé. Cette identification relève aujourd’hui d’un véritable jeu de piste. Difficile dans ces conditions de mener un suivi précis.

Un exemple qui traduit bien l’intérêt d’assurer le suivi des consommations est cette fuite d’eau chaude sanitaire apparue courant 2004 dans un vide technique d’un des pavillons. Ce n’est que bien des semaines après que l’incident fut repéré et alors immédiatement corrigé. En attendant, ce sont plusieurs m³ d’eau chaude à 50°C inutilement gaspillés.


Niveau de consommation et suivi actuels

La société de maintenance désignée pour assurer l’entretien de l’ensemble des chaufferies et des équipements techniques du site réalise déjà un relevé des compteurs existants tous les quinze jours. Cette action permet d’obtenir une première approche de l’évolution des consommations, mais est limitée à une analyse globale et non pas dichotomique.

Pour se donner une idée de la taille du patrimoine bâti, voici les chiffres de consommations globales du site pour l ‘année 2003 : 630 000 m³ de gaz, 2 125 MWh d’électricité, 293.000 litres de mazout et 40 000 m³ d’eau. La facture énergétique globale s’élevait quant à elle à 520 000 € TVAC. On comprend dès lors l’importance d’effectuer un suivi rapproché.


Projet à l’étude

Afin de mettre en place une comptabilité énergétique efficace, le bureau d’études du service technique compte s’équiper de 88 compteurs à impulsions qui placés judicieusement permettront le suivi en direct des consommations d’eau, de gaz, de fuel et d’électricité. Le rapatriement des données s’effectuerait à travers le réseau téléphonique du site vers les bureaux du service technique où elles seront traitées et analysées.


Les objectifs

Plusieurs raisons conduisent aujourd’hui la Direction à se tourner vers cet investissement afin de disposer d’un outil de comptabilité énergétique performant :

  • Certains bâtiments du site doivent avoir une gestion totalement indépendante du centre hospitalier d’où la nécessité d’une comptabilité énergétique spécifique à chaque entité afin de répartir les coûts.
  • La buanderie et la cuisine sont deux entités très énergivores dont la Direction souhaite connaître précisément le coût de revient du kg de linge nettoyé et de chaque repas préparé en cuisine afin d’évaluer au mieux les frais réels d’hospitalisation.
  • C’est également un outil de supervision de la bonne maintenance des équipements (éventuelle dégradation des rendements) et de fixer le cas échéant un objectif d’économie à la société de maintenance de x% par poste et/ou par bâtiment qui pourra être aisément vérifié.
  • Détection de fuites éventuelles sur le réseau d’eau de ville du site, sur les réseaux d’ECS des bâtiments, de conduites de gaz enterrées ou de cuves à mazout.
  • Suivi de l’évolution des consommations de chauffage à travers le tracé de la signature énergétique de chaque bâtiment afin de s’assurer de la concordance des consommations en fonction des rigueurs climatiques. Une variation de la signature énergétique peut être synonyme d’une dérive des consommations (déréglage des courbes de chauffe, encrassement du brûleur et/ou de la chaudière,…).
  • Établissement d’un budget énergie pour chaque entité.
  • Mesure de l’impact d’investissement URE (Utilisation Rationnelle de l’Énergie) afin de valider les économies prévues et de montrer ainsi les résultats chiffrés à la Direction.

En détail

Économique

L’investissement est estimé pour l’acquisition du matériel et le placement à près de 146 000 € TVAC.

On peut estimer raisonnablement que l’on devrait générer environ 5 à 10 % d’économie globale à travers ce suivi des consommations soit entre 25 000 et 50 000 € TVAC sur le coût annuel actuel.

Description du comptage Quantité Prix unitaire HTVA Montant en €
Eau DN 80 17 1 500 25 500
Eau DN 100 4 2 000 8 000
Eau DN 160 2 2 500 5 000
Gaz DN 50 10 1 750 17 500
Gaz DN 160 1 4 500 4 500
Électricité 24 1 000 24 000
Mazout de chauffage 6 1 500 9 000
Eau de Chauffage 4 1 250 5 000
Eau de chauffage sanitaire 19 1 000 19 000
Logiciel de traitement des données 1 2 500 2 500
Total des points de comptage 88 120 000
TVA 21% 25 200
Total TVAC avec système de rapatriement des données 145 200

Tableau : détails des coûts d’investissement.

Des subsides peuvent être sollicités auprès de la DGTRE (UREBA) pour ce type d’investissement.


Informations complémentaires

Philippe PIERARD
Directeur Service Technique
CHP du Chêne aux Haies
Tél. : 065 381 111
Email : philippe.pierard@chpchene.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Choisir le modèle d’isolation pour le versant du toit

L’efficacité énergétique

L’efficacité énergétique de l’isolation d’une toiture inclinée dépend évidemment de l’épaisseur et du coefficient de conductivité thermique de l’isolant (λ).

Elle dépend aussi de la continuité de l’isolant. Ainsi une isolation posée entre chevrons de 6 cm d’épaisseur écartés de 30 cm ne couvre que 80 % de la toiture, le reste étant couvert par les chevrons nettement moins isolants.

De ce point de vue, il est bon de poser l‘isolant sous les chevrons. On limite ainsi le pont thermique au niveau des pannes. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La meilleure solution si on veut éviter complètement les ponts thermiques, est d’isoler la toiture par l’extérieur, par la méthode « sarking » ou en posant des éléments autoportants à isolation continue (c-à-d sans raidisseurs).


La complexité de la toiture

Dans le cas d’une toiture compliquée (pentes variables, formes complexes, hors équerre, fenêtres et pénétrations nombreuses), il est préférable d’utiliser de petits éléments pour réaliser le système de toiture.

Par contre, l’isolation par panneaux autoportants convient bien pour des toitures simples.


Le type de charpente

L’entre-axe des chevrons et l’épaisseur des gîtes de versant ou des arbalétriers de fermettes peuvent rendre difficile la mise en œuvre de certaines techniques d’isolation, notamment l’isolation par l’extérieur de type « sarking« .

En effet, avec ce type de toiture, la largeur minimale des supports de l’isolant (chevrons, gîtes de versant, arbalétriers) est de 38 mm pour pouvoir réaliser une pose correcte. (Dimensions plus importantes des vis et clous, précision avec laquelle doivent être réalisés les assemblages).

Les chevrons carrés ont généralement une épaisseur de 6 à 8 cm. Dans le cas d’une isolation posée entre chevrons, l’épaisseur de l’isolant est limitée à celle des chevrons. S’il est fait usage de laine minérale, l’isolation de la toiture est insuffisante et la pose d’une couche isolante sous les chevrons s’impose.

Par contre lorsque la charpente comprend des gîtes de versant ou des arbalétriers de fermettes d’une hauteur plus importante, 12 cm par exemple, l’isolation entre ces éléments de charpente peut être suffisante.

Schéma de l'isolation entre chevrons ou gîtes.

Des gîtes de versant permettent de poser en une seule couche 12 cm d’isolant.


Les performances acoustiques souhaitées

Les laines minérales sont de bons isolants acoustiques. Elles « piègent » les sons provenant du bruit aérien extérieur ou de l’impact des gouttes de pluie ou des grêlons sur la couverture. Une isolation entre chevrons à l’aide de laine minérale convient donc particulièrement lorsque de bonnes performances acoustiques sont souhaitées.

Le modèle d’isolation par l’extérieur (Toiture « Sarking » ou isolation par panneaux autoportants) peut poser des problèmes acoustiques, surtout si l’isolant est du polystyrène expansé.


Souhait de garder la charpente apparente

Lorsque l’on désire garder la charpente apparente, y compris les chevrons, il est nécessaire de poser l’isolant au-dessus de ceux-ci. Dans ce cas la toiture « sarking » est la plus appropriée. Les panneaux isolants peuvent éventuellement être posés sur un support décoratif (plaques, planchettes, …) assurant la finition du plafond entre les chevrons.

Si seules les pannes et fermes doivent rester apparentes, l’isolant peut être placé entre les chevrons. Il peut également être fait usage de panneaux autoportants.

Charpente apparente d’une toiture isolée.


Le souhait de faire réaliser les travaux par un non professionnel

Dans ce cas la pose de l’isolation doit se faire sans influence sur l’organisation des travaux des corps de métiers intervenant sur la toiture (charpentier, couvreur, zingeur, maçon …).

La pose de l’isolant devrait donc se faire après l’achèvement de leurs travaux.

L’isolant est posé par l’intérieur entre les chevrons, gîtes de versant ou fermettes, ou il est posée sous les chevrons de façon continue si la perte de place provoquée par cette technique est acceptable. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La finition du plafond des combles ne pourra se faire qu’après la mise en place de l’isolant et du pare-vapeur éventuel.

Inertie thermique

Inertie thermique

Les matériaux lourds de la construction tels que béton, brique, pierre, etc. ont une grande capacité à stocker de la chaleur. Le rayonnement solaire irradiant une paroi de brique ou de béton est, en partie, absorbé par celui-ci, transformé en chaleur et accumulé en son sein.
Cette paroi peut aussi prendre de la chaleur à de l’air plus chaud qu’elle.
La chaleur sera restituée dès que la température de l’air environnant est plus basse que celle de la surface du matériau (par convection) ou/et dès que la température de surface d »objets avoisinants descend en-dessous de celle de la paroi en question (par rayonnement).
L’inertie thermique peut simplement être définie comme la capacité d’un matériau à stocker de la chaleur et à la restituer petit à petit. Cette caractéristique est très importante pour garantir un bon confort notamment en été, c’est-à-dire pour éviter les surchauffes.

Cette capacité permet de limiter les effets d’une variation « rapide » de la température extérieure sur le climat intérieur par un déphasage entre la température extérieure et la température de surface intérieure des murs et par amortissement de l’amplitude de cette variation. Un déphasage suffisant permettra par exemple que la chaleur extérieure « n’arrive » qu’en fin de journée dans l’habitat, période où il est plus facile de le rafraîchir grâce à une simple ouverture des fenêtres.

L’inertie thermique d’un matériau est évaluée à l’aide des deux paramètres suivants :

  • la diffusivité : α = λ / (ρ * c) [m²/s]
  • l’effusivité : E = √ (λ * ρ * c) [ J.K-1.m-2.s-1/2]

où :

  • ρ la masse volumique du matériau en [kg.m-3]
  • c la capacité thermique massique du matériau en [J.kg-1.K-1]

Physiquement, la diffusivité thermique détermine la vitesse avec laquelle la température d’un matériau va évoluer en fonction des sollicitations thermiques extérieures.

L’effusivité d’un matériau est sa capacité à échanger de l’énergie thermique (L’énergie thermique est l’énergie cinétique d’un objet, qui est due à une agitation désordonnée de ses molécules et de…) avec son environnement (L’environnement est tout ce qui nous entoure. C’est l’ensemble des éléments naturels et artificiels au sein duquel se…). Lorsqu’on marche sur du sable chaud, on ressent une sensation de brûlure. Le sable impose sa température à notre corps, de manière plus importante que notre corps impose sa température au sable, car il possède une plus grande effusivité que le pied.

Pour garantir le confort d’été (éviter les surchauffes) on essaiera d’utiliser un matériau possédant les caractéristiques suivantes :
  • une faible diffusivité, pour que l’échange d’énergie thermique entre le climat extérieur et le climat intérieur se fasse le plus lentement possible (inertie en transmission).
  • une forte effusivité thermique pour que le mur stocke au maximum la fraîcheur dans les éléments en contact avec l’intérieur du bâtiment (inertie par absorption).

Exemple de l’évolution des températures intérieures lors d’une journée d’été dans un bâtiment à forte inertie et dans un bâtiment à faible inertie.

Remplacer les ballasts électroniques

Remplacer les ballasts électroniques


Remplacement des ballasts électromagnétiques existants par des ballasts électroniques

Avant / après …

Dans une installation possédant déjà des optiques et des lampes performantes, il est cependant peu rentable de remplacer uniquement les ballasts électromagnétiques par des ballasts électroniques. En effet, ceci nécessite une main d’œuvre importante : pose et dépose des luminaires, démontage des ballasts, modification du câblage interne et placement du nouveau ballast.

Concevoir

Pour choisir le type de ballast.

Remplacement des ballasts existants par des ballasts électroniques dimmables

Dans des locaux où la lumière naturelle est présente, il est légitime de se poser la question du remplacement des ballasts des luminaires par des ballasts électroniques dimmables qui géreront le niveau d’éclairement artificiel en fonction de l’apport en lumière naturelle.

Si les ballasts existants sont déjà des ballasts électroniques, l’investissement consenti pour le remplacement des ballasts n’engendrera plus d’économie. Au contraire, les ballasts électroniques dimmables présentent une perte légèrement supérieure aux ballasts électroniques traditionnels. Dans ce cas, l’installation du système de gestion ne sera jamais rentabilisée dans un temps raisonnable. Toutefois, si les ballasts existants sont en fin de vie et qu’un remplacement est nécessaire, alors on peut éventuellement envisager de les remplacer par des ballasts électroniques dimmables et un système de gestion simple de gradation en fonction de la lumière du jour (pour autant qu’il y ait un apport de lumière naturelle).

Si les ballasts existants sont électromagnétiques, on réalise déjà une économie d’énergie d’environ 20 % par leur remplacement, ce qui diminue les temps de retour.

Pour limiter la main d’œuvre, un fabricant commercialise un système de remplacement des ballasts sans démontage du luminaire et sans câblage. A première vue, ce kit permet à la fois de remplacer:

  • un tube fluorescent T12 (38 mm) ou T8 (26 mm) par un tube T5 (16 mm);
  • un ballast électromagnétique par un ballast électronique gradable ou pas.
Exemple de solution proposée par un fabricant

Composition

  • Châssis « enclipsable » à la place d’un tube T12 ou T8;
  • Ballast électronique éventuellement dimmable;
  • Lampe T5.

Avantages

A priori, le constructeur annonce les avantages suivants :

  • Remplacement rapide de la lampe T12 ou T8 par le kit T5;
  • Si le réflecteur et les ventelles sont incompatibles avec le kit, le fabricant propose une palette de réflecteurs adaptés;
  • En déconnectant le ballast existant, le starter et le condensateur, on bénéficie directement de l’association d’une lampe performante et d’un ballast électronique.

Inconvénient

Il faut rester prudent avec ce type d’équipement « miracle ». on retiendra donc que :

  • Le kit ne s’adapte pas nécessairement à tous les luminaires;
  • On risque de ne plus bénéficier de l’efficacité optimale du réflecteur existant vu que l’on change la position de la lampe dans le luminaire;
  • Les réflecteurs de remplacement proposés par le fabricant sont-ils adaptés aux luminaires ?
  • on risque de changer les angles de défilement du luminaire.

Conclusion

Ce type d’initiative est intéressante car elle permet de remplacer indirectement des ballasts traditionnels par des ballasts électroniques sans grands frais de maintenance.

S’il y a des expériences en la matière, elles sont les bienvenues !

Choisir le système de ventilation dans les bureaux

© Architecture et climat 2023.

Système de ventilation double flux dans les bureaux.


Configurations les plus courantes pour les immeubles de bureaux

Les bureaux ou zones de bureaux sont généralement desservis par des circulations donnant également accès à un ou plusieurs complexes sanitaires.

Ce type d’agencement très généralisé donne aux différents principes de ventilation retenus une orientation commune :

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

L’introduction d’air neuf dans les bureaux,
le transfert des volumes d’air introduits via les circulations,
l’évacuation vers l’extérieur de l’air vicié dans les locaux sanitaires.


Ventilation simple flux avec extraction sanitaire

Lorsque l’ambiance extérieure (bruit et pollution limités) le permet, la solution la plus simple à mettre en œuvre est le système simple flux avec extraction sanitaire.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié
  • L’air neuf est de préférence introduit dans les bureaux au moyen de grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie.

Grille intégrée entre le vitrage et la menuiserie.

Grille verticale intégrée dans la menuiserie.

  • L’air vicié est évacué dans les sanitaires au moyen d’un ventilateur d’extraction.
  • Les transferts d’air entre bureaux et sanitaires se font, soit par un détalonnage des portes, soit par des passages appropriés avec grilles à chevrons ou autre.

Grille de transfert d’air.

Les circuits d’extraction (conduits et ventilateurs) sont dans la plupart des cas communs à plusieurs niveaux. Ils sont généralement conçus suivant le principe du « parapluie ». Les conduits verticaux empruntent les gaines techniques également verticales et les conduits horizontaux passent dans l’épaisseur des faux plafonds. Ces ensembles desservent à chaque niveau une ou plusieurs zones sanitaires. Pour peu que l’extraction d’air soit limitée aux zones sanitaires (pas d’extraction complémentaire dans les couloirs ou certains locaux spécifiques à des fins d’équilibrage), ce réseau horizontal restera limité en ampleur.

Étant donné l’absence de conduit de distribution vers chaque bureau, l’espace nécessaire aux conduits d’air est peu important. Ceci prend toute son importance en rénovation en regard des hauteurs de faux plafond qui ne doivent pas tenir compte du passage de conduits d’air.

Cependant, cette configuration souffre de certaines limites :

  • pour limiter l’influence du vent et des circulations d’air parasites, ce type d’installation ne s’applique qu’aux immeubles de taille moyenne et peu élevés : pour les nouveaux immeubles de plus de 13 m de haut (hauteur du plancher au dernier étage), la réglementation wallonne, demande ainsi, la preuve, étude à l’appui, qu’il est possible de garantir les débits d’air neufs recommandés au moyen d’amenées d’air naturelles.
  • ce type d’installation ne permet ni traitement de l’air (préchauffage ou rafraîchissement, gestion de l’humidité) ni récupération d’énergie. Il pourrait donc ne pas correspondre aux attentes de confort ou de performance énergétique.


Ventilation double flux avec extraction sanitaire

Le système de ventilation double flux, c’est-à-dire équipé d’une pulsion et d’une extraction mécanique est le meilleur en terme de maîtrise des débits dans les locaux : on a la garantie que les bureaux sont alimentés en air neuf et que l’air vicié des sanitaires est directement évacué vers l’extérieur.

© Architecture et climat 2023.

Ce système est pratiquement indispensable dans les immeubles de bureaux importants en site urbain.

La distribution de l’air neuf est assurée par un réseau de conduits placé dans les faux plafonds des zones de circulation.

La diffusion de l’air neuf à l’intérieur de chaque bureau est obtenue par une ou plusieurs bouches, soit murales dans le cas d’une retombée des faux plafonds des circulations, soit plafonnières s’il existe un faux plafond dans le local.

© Architecture et climat 2023.

  1. Bureau
  2. Couloir

Pulsion mécanique dans les bureaux soit via le faux plafond des bureaux,
soit via la retombée du faux plafond des couloirs.

L’extraction et le transfert se font comme pour le système simple flux.

Concrètement, le choix du double flux par rapport au simple flux sera guidé par

Études de cas

Une ventilation double flux a été mise en œuvre dans le bâtiment PROBE du CSTC à Limelette.
Etancheité à l'air

Améliorer l’étanchéité du bâtiment

Etancheité à l'air

 

Un problème : les portes d’entrée

De manière générale, le problème des commerces est l’ouverture et fermeture incessantes des portes par les clients. Bien vite s’installe une habitude de laisser les portes ouvertes en permanence été comme hiver afin de faciliter l’accès à l’intérieur et, tout aussi important pour le commerçant, pour raison de marketing (comme dirait un commerçant béninois : « c’est ouvert, tout est gratuit jusqu’à la caisse !).

Les commerces « no-food »

Photo de façade, l'étanchéité du bâtiment   Photo de façade, l'étanchéité du bâtiment

Pour ce type de commerce, le « syndrôme » de la porte ouverte en permanence risque d’entraîner :

  • En période froide des déperditions importantes de chaleur. Lorsque les portes sont fermées, on peut considérer que les apports internes nécessaires suffisent pratiquement à chauffer l’ambiance. À l’inverse, une porte ouverte en permanence laisse s’échapper la chaleur et, par conséquent augmente les consommations de chauffage.
  • En période chaude, tant les apports de chaleur internes (éclairage, occupant, …) que les apports externes sont présents. Le simple fait de laisser la porte du magasin ouverte suffit à créer une surchauffe à l’intérieur; d’où la motivation des commerçants de s’équiper d’une climatisation.

En période froide

La perte peut être estimée en considérant qu’elle augmente la consommation liée au taux de renouvellement d’air neuf du bâtiment.
Dans ces conditions, la chaleur s’échappe joyeusement ! Le coût généré par cette fuite est variable en fonction de la durée d’ouverture.

À titre de repère, une porte ouverte en permanence de 2 m² dans une enveloppe peut générer un passage d’air à la vitesse moyenne de 1 m/s. Ces 2 m³ qui s’échappent par seconde entraîneraient une consommation hivernale de :

2  [m³/s] x 3 600 [s/h] x 214 [jour/saison chauffe] x 12 [h/jour] x 0,34 [Wh/m³.K] x (15° – 6°) / 1 000 = 56 578  [kWh/an]

ou encore 56 578 / 2 = 28 289 [kWh/an.m²]

où :

  • 15° est la température moyenne intérieure, tenant compte d’un abaissement nocturne et d’un apport équivalent de 3° au minimum par les apports « gratuits »,
  • 6° est la température moyenne extérieure hivernale dans le centre de la Belgique,
  • 0,34 Wh/m³.K est la capacité thermique de l’air.

Soit un équivalent de +/- 1 414 € par an et par m² d’ouverture permanente, si la chaleur est fournie par du combustible fuel à 0,5 €/litre. En ces périodes de spéculation énergétique, à vous d’adapter le calcul au prix du combustible.

En mi-saison

Lorsque les températures externes sont plus clémentes, l’idée de la porte ouverte prend du sens. En effet, pour éviter le recours à la climatisation, l’ouverture de la porte d’entrée permet de juste compenser les apports internes. Cela dit, ce n’est pas une raison pour ne pas conjointement réduire les apports internes par la mise en place d’un éclairage performant et peu gourmand en énergie.

En période chaude

Pour des températures extérieures caniculaires, l’idéal est de pouvoir « décharger » le commerce par « free cooling » de nuit ou tôt le matin à l’ouverture du magasin. Par contre en pleine journée, que le magasin soit équipé en climatisation ou pas, il est nécessaire de refermer les portes et de réduire, dans des limites tolérables pour la vente, les apports internes.

Les commerces « food »

Il est frappant de voir comme la modernité nous complique la vie alors que la technique devrait-être là pour la simplifier. Il existe malgré tout des commerçants qui font preuve de bon sens sans grand moyen technique. Par exemple, une boucherie pourrait regrouper toutes les astuces nécessaires à la chasse au gaspillage énergétique et basée sur la gestion de sa vitrine amovible.
En effet :

  • En période très froide (par gel), la vitrine pourrait être fermée, sachant qu’il n’y a pas de chauffage à l’intérieur. L’impact énergétique est faible.
  • En période froide, une vitrine amovible pourrait être enlevée. Tout se passe donc comme si le commerce était dans la rue. Cela se justifie dans le sens où les clients sont habillés chaudement et qu’ils ne restent pas suffisamment de temps à l’intérieur de la boucherie pour se dévêtir. Il est vrai que le confort du commerçant ne serait pas assuré, mais on s’avance un peu vite.
  • En période chaude, outre l’auvent naturel des arcades (comme ci-dessous) qui préserve la boucherie des apports solaires directs, le commerçant pourrait refermer sa vitrine pour limiter l’impact de sa climatisation (de par ses vitrines semi-ouvertes) sur ses consommations électriques.

Photo d'arcades, l'étanchéité du bâtiment

Dans l’absolu et de manière un peu utopique, si l’on considère que sous nos latitudes, la température moyenne annuelle est de 6°C, le fait d’ouvrir son magasin sur l’extérieur en permanence permet de n’avoir qu’à refroidir l’ambiance du magasin de quelques degrés pour arriver à la température de conservation des denrées.
Attention toutefois que ce type de démarche devrait être appliquée au cas par cas sachant que des critères autres que ceux énergétiques et de confort interviennent, par exemple la sécurité, la pollution, …


Des solutions pour les grandes et moyennes surfaces type « food »

Pour pallier partiellement à cette débauche d’énergie, l’étanchéité des ouvertures contrôlées, tant du côté des entrées clients que du côté des accès aux réserves et des portes de service, est importantes.
Les améliorations possibles sont :

  • les sas d’entrée (investissements de l’ordre de 11 000 €);
  • les tourniquets (investissements de l’ordre de 25 000 €);
  • la mise en surpression des zones de vente par rapport à l’extérieur. Elle évite la formation de courant d’air incontrôlé entre plusieurs zones;

Photo de sas d'entrée, l'étanchéité du bâtiment   Photo de tourniquet, l'étanchéité du bâtiment  Photo de sas d'entrée, l'étanchéité du bâtiment

Le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.


Des solutions pour les commerces de détail type « food »

Le problème est le même que pour les grandes surfaces à la différence près qu’il y a très rarement de la place en suffisance pour prévoir des sas de grandes dimensions
Les améliorations possibles sont :

  • le placement de portes étanches;
  • la mise en place d’un mini sas avec portes automatiques.

Photo de portes étanches, l'étanchéité du bâtiment   Photo de mini sas, l'étanchéité du bâtiment

Tout comme les grandes et moyennes surfaces, le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.

Chauffage électrique à accumulation

Chauffage électrique à accumulation


Les appareils à accumulation

Les accumulateurs renferment un noyau accumulant la chaleur; celui-ci est constitué de briques en magnésite, féolite, forstérite, fonte ou autres… pouvant être chauffées à des températures de 650 à 800°C.

Les briques peuvent avoir des formes diverses, en fonction de la conception du noyau et du mode d’installation des résistances entre les briques. Le noyau est entouré de matériau isolant approprié afin de limiter la température des parois.

  1. Vermiculite isolante.
  2. Briques magnétiques.
  3. Eléments chauffants.
  4. Contrôleur de charge.
  5. Borne de branchement.
  6. Sortie d’air.
  7. Entrée d’air.
  8. Ventilateur.

La température du noyau est le reflet de la charge contenue dans l’appareil et est contrôlée par un thermostat de charge.

Différents types d’accumulateurs

Accumulateurs statiques

Ils ne sont pas équipés d’un système de réglage de restitution de chaleur. Celle-ci s’effectue sous forme de rayonnement et de convection naturelle par les parois de l’appareil.

Accumulateurs statiques à restitution de chaleur réglable

En plus de la restitution de chaleur par les parois, ces appareils émettent également de la chaleur par convection naturelle de l’air entre les briques du noyau de l’accumulateur. Le réglage de la restitution de chaleur s’opère au moyen de clapets thermostatiques montés sur l’évacuation d’air dans la partie supérieure de l’appareil.

Accumulateurs statiques compensés

Il s’agit d’accumulateurs statiques pourvus d’un chauffage auxiliaire direct sous forme de convecteur. Ces appareils sont caractérisés par une puissance de raccordement plus faible et une capacité d’accumulation relativement limitée, qui permet néanmoins de réaliser au moins 60 % de la consommation annuelle au tarif de nuit.

Accumulateurs dynamiques

À l’opposé des accumulateurs statiques, la restitution de chaleur s’effectue essentiellement par une convection forcée de l’air à travers des canaux prévus entre les briques du noyau d’accumulation.

Dans ce cas, les accumulateurs sont équipés d’un ou plusieurs ventilateurs commandés par un thermostat d’ambiance.

Accumulateurs dynamiques à résistance d’appoint

Il s’agit d’accumulateurs dynamiques équipés d’une résistance de chauffe auxiliaire qui, en cas de restitution insuffisante de chaleur par le noyau d’accumulation, est enclenchée par le thermostat d’ambiance. La résistance d’appoint se situe dans le flux d’air.

Une distinction suivant le mode de restitution de la chaleur

Les accumulateurs « 9 heures »

Les accus 9 heures sont construits de telle façon que la capacité d’accumulation et la résistance électrique soient suffisamment importantes pour charger en neuf heures l’énergie nécessaire au chauffage pendant toute la journée. L’usage de ces appareils est optimalisé en tarification exclusive de nuit.

Les accus dynamiques 9 heures peuvent être équipés d’une résistance d’appoint.

Les accumulateurs « Hors-Pointes »

Les accumulateurs « Hors-pointes » sont des appareils dynamiques sans résistance d’appoint.

Leurs résistances de charge se trouvent dans le circuit d’air qui traverse le noyau. Cette caractéristique constructive permet un chauffage rapide même en cas de décharge complète du noyau.

La durée de charge nocturne et diurne de ces accumulateurs atteint au moins 16 heures par jour.

Les avantages par rapport à l’accu 9 heures se concrétisent par une puissance de raccordement plus faible et des dimensions plus réduites.

Le dimensionnement et la régulation de charge permettent de limiter la charge diurne à un strict minimum. L’usage de ces appareils est optimalisé en tarification trihoraire ou en EHP.


L’accumulation dans le sol

Photo chauffage par le sol.

L’assurance d’obtenir un chauffage de qualité commence par le choix du conducteur chauffant. Les écarts de température à la surface du sol, même lors de l’emploi d’un recouvrement céramique, doivent rester en dessous de la valeur normalisée de 1,5 K.

Le câble étant incorporé dans le béton accumulateur, la chaleur qu’il dégage se disperse dans tous les sens et chauffe ainsi la masse accumulatrice. La température limite du béton accumulateur mesurée à hauteur des conducteurs chauffants se situe entre 50 et 60°C.

Le chauffage par le sol est dimensionné de telle sorte qu’on obtient une température de contact au sol limitée à 26,5°C. Il est ainsi en mesure de dissiper 70 W au m².

Si la puissance requise n’est pas disponible par le sol, le complément sera obtenu par un chauffage additionnel (convecteurs ou chauffage d’appoint dans le sol le long des murs). Le cas échéant, lors de l’emploi de chauffage additionnel dans le sol, limité aux zones périphériques de la pièce, la température de contact au sol pourra atteindre 34°C, permettant ainsi de dissiper une puissance de 150 W au m².

Pour éviter des pertes de chaleur importante vers le dessous du plancher, celui-ci doit présenter une isolation suffisante.

Calculs

 Pour estimer la perte d’un chauffage par le sol situé au-dessus d’une cave, en fonction du degré d’isolation.

La dalle est subdivisée au moyen de joints de dilatation et de mouvement afin d’absorber les contraintes mécaniques dues aux phénomènes de dilatation et de mouvement inhérents à une dalle flottante.

Le chauffage à accumulation par le sol est normalement complété par un chauffage d’appoint direct dont la puissance diminue en fonction des heures de charge complémentaires disponibles pendant la journée.

En matière de restitution de la chaleur, l’accumulation par le sol est assimilable à un appareil à accumulation statique.

Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…

  1. Revêtement de sol.
  2. Dalle en béton accumulateur (6,5 à 14 cm selon l’inertie du local, le recouvrement du sol et la durée de charge; une valeur moyenne de 10 à 12 cm pour une durée de charge de 8h, et de 6,5 cm pour une alimentation en 7 h + 9 h de charge).
  3. Tube de protection à embout cuivre pour sonde de mesure.
  4. Nappe chauffante – profondeur d’encastrement : dans le tiers inférieur de la couche de béton – minimum 3 cm au dessus de la couche d’étanchéité.
  5. Couche d’étanchéité : 0,2 (0,5) mm pe ou apprêt de bitume de 250 gr.
  6. Isolation (résistante à une température de 85 °C).
  7. Couche d’étanchéité habituelle.
  8. Infrastructure porteuse.
  9. Chauffage d’appoint éventuel dans le sol.
  10. Plinthe.
  11. Ruban souple d’étanchéité.

 Source : d’après Le code de bonne pratique pour la réalisation des installations de chauffage électrique – Communauté de l’Electricité – CEG.

Évaluer la consommation de la climatisation

Évaluer la consommation de la climatisation


Généralités

Précisons d’entrée de jeu que la consommation d’été est très variable d’un bâtiment à l’autre puisqu’elle est directement fonction de l’importance des vitrages, du niveau d’équipement intérieur, du système de climatisation, de la température de consigne,… À titre d’exemple : comment évaluer la consommation d’une salle de réunion si le profil d’occupation n’est pas précisément connu ?

À défaut d’une étude précise avec simulation informatique du bâtiment (taux de vitrage par façade, inertie des parois,…) et relevé détaillé de son mode d’occupation (taux d’occupation effectif, niveau d’équipement bureautique,…), personne ne peut prédire la consommation.

Les choses se compliquent également par le fait que les hypothèses de départ de l’évaluation ne sont pas toujours les mêmes. Exemple : dans l’évaluation des coûts de refroidissement, tient-on compte des coûts de transport de l’air froid (ventilateurs) ?
Les ratios globaux sont donc très aléatoires…

Données

Pour connaitre les ratios de consommation rencontrés des bâtiments.

Évaluation de la consommation frigorifique basée sur la puissance frigorifique installée

En France, une technique grossière est parfois utilisée pour fixer les ordres de grandeur : partir de la puissance frigorifique nominale installée et estimer que l’installation fonctionne 1 000 heures par an à cette puissance (Collection des guides de l’AICVF : Calcul prévisionnel des consommations d’énergie – Bâtiments non résidentiels).

On prendra plutôt 800 heures lorsque l’énergie frigorifique est surtout liée à la compensation des apports solaires (fonctionnement surtout en plein été), et plutôt 1 200 heures lorsque la charge est plus permanente parce qu’issue des équipements électriques… Bien sûr, si l’installation a été fortement surdimensionnée, le ratio horaire va lui diminuer fortement !

On tiendra compte d’une efficacité frigorifique moyenne de …2,5… c.-à-d. que 1 kWh froid va générer 0,4 kWh au compresseur, et puis d’un prix du kWh adapté à la période d’utilisation de la climatisation (tarifications jours/nuits).

Exemple.

Une installation de climatisation de bureaux dont la puissance frigorifique nominale est de 80 W/m², va demander :

  • 80 W/m² x 800 h/an = 64 000 Wh/m² ou 64 kWh frigorifiques par m² traité;
  • soit encore 26 kWh/m² électriques au compresseur (64/2,5);
  • soit 4,3 €/m².an si la consommation se fait en journée (coût considéré : 0,16 €/kWh).

Attention : il s’agit là d’une estimation très grossière et elle ne reprend que la consommation liée au refroidissement des locaux !


Évaluation liée au fonctionnement

Lorsque le fonctionnement dépend très peu des conditions climatiques extérieures et que les apports internes sont connus, la consommation est directement liée à la durée de fonctionnement.

Par exemple, pour estimer la consommation d’un centre informatique, on peut multiplier la puissance moyenne par la durée de fonctionnement. De même, pour une salle de spectacle, on peut approcher les consommations à partir de l’occupation et de la puissance dégagée par occupant, de la durée et du nombre de représentations.

Diminuer les consommations énergétiques des meubles frigorifiques

Diminuer les consommations énergétiques des meubles frigorifiques


La solution radicale

Une ou des solutions radicales ?

Il en existe une ou plusieurs ! Le problème est qu’elles sont évidentes mais semblent bloquer les commerçants et les responsables « marketing » des grandes et moyennes surfaces. Peu importe les moyens et techniques mis en œuvre, mais il suffit de confiner ou enfermer le froid dans une boîte isolée pour améliorer directement l’efficacité énergétique du froid alimentaire. Certains magasins (ils se reconnaîtront) appliquent ce principe depuis déjà longtemps, d’autres se lancent timidement.

Solutions locales

Fermeture des meubles frigorifiques négatifs horizontaux

Photo meubles frigorifiques négatifs horizontaux fermés - 01.   Photo meubles frigorifiques négatifs horizontaux fermés - 02.   Photo meubles frigorifiques négatifs horizontaux fermés - 03.

Le placement de fermeture simple en plexiglas sur les gondoles négatives montre une solution rapidement rentable car elle permet de réduire les consommations énergétiques de l’ordre de 30 à 40 %. C’est cette solution qui a été retenue par une chaîne de distribution belge sans observer de baisse significative du chiffre d’affaire.

Fermeture des meubles frigorifiques positifs verticaux

C’est là que les anciens Belges s’empoignèrent car le client roi doit pouvoir apprécier les denrées sans contrainte d’ouverture et de fermeture de porte. La question qui se pose immédiatement est de savoir pourquoi une méthode qui semble marcher avec le froid négatif ne fonctionne pas pour le froid positif. Est-ce une question :

  • d’éducation à la consommation : on comprend que le froid négatif doit être confiné parce que les crèmes glacées fondent s’il n’y a pas de confinement du froid et que le froid positif peut être assimilé à la climatisation où les fenêtres peuvent rester ouvertes;
  • d’investissement : le nombre de mètres linéaires de ce type de meubles frigorifiques étant important cela peut éventuellement rebuter les gérants de se lancer;

C’est une des questions du 21ème siècle en suspend.

  

Source : Magasin alimentation Bioshanti.

Une des solutions intéressantes dans un magasin biologique d’une commune bruxelloise est le placement de lamelles en matière plastique quasi transparentes. Cette technique, selon le gérant du magasin n’a pas l’air de freiner l’achat de denrées. Pour être tout à fait objectif, il est hésitant à protéger l’ensemble de ces meubles par ce type de confinement.

Si on considère que ces lamelles arrivent au même degré de protection que les rideaux de nuit, on peut considérer que les réductions de consommations énergétiques peuvent atteindre aussi 30 à 40 %.

Exemple.

En analysant le graphique suivant issu d’une simulation (TRNSYS) de 50 mètres linéaires de meubles frigorifiques ouverts et verticaux maintenant aux frais des produits laitiers, on constate qu’en retirant les 7 000 [W] d’apport interne dû à l’éclairage, le simple fait de placer des rideaux de nuit, on réduit de l’ordre de 40 % la demande en puissance de l’évaporateur à la machine de froid.

Graphique simulation (TRNSYS).

Si l’on considère que les protections de jour peuvent être assimilées à celle de nuit au niveau de la performance, on peut effectivement réduire au maximum de 40 % (dans ce cas-ci) les consommations énergétiques de l’installation de froid alimentaire sachant que la nuit il n’y a pas d’ouvertures et fermetures incessantes des lamelles synthétiques.

Solutions globales

Confinement des produits frais dans une enceinte bien isolée

Photo enceinte bien isolée - 01.   Photo enceinte bien isolée - 02.

Meuble frigorifique ouvert et confinement et isolation légère (double vitrage).

Confinement et isolation importante (enceinte opaque).

Là où on arrive à l’optimum énergétique et thermique, c’est lorsque les produits frais sont confinés dans des espaces réfrigérés et isolés des zones de vente classique. En terme de confort, naturellement, ce n’est pas l’idéal bien que finalement ce n’est qu’une question d’organisation (prévoir une petite laine en été ne pose pas beaucoup de problème). Les pionniers dans ce domaine sont bien connus et adoptent ce principe depuis des années voire plus d’une décennie. on peut dire que ce concept est passé dans les mœurs aujourd’hui.

Confinement des produits frais dans une enceinte légèrement isolée et vitrée

Un autre concept a vu le jour il n’y a pas longtemps. Dans un premier temps, on pourrait dire que la solution est mauvaise. A bien y regarder, elle se situe juste entre :

  • les meubles frigorifiques ouverts qui absorbent un maximum de chaleur de l’ambiance de vente globale au point que même en période chaude dans certains commerces on soit obligé de chauffer;
  • et l’enceinte fermée et isolée du reste de l’ambiance globale de vente.

Ce concept serait-il le bon vieux compromis à la Belge ?

(+)

  • confinement des denrées dans une enceinte séparée du reste des surfaces de vente réduisant ainsi le risque de devoir chauffer ces surfaces par apport de froid trop important comme on l’observe pour l’instant avec la prolifération des meubles frigorifiques ouverts;
  • la « cage » de verre est une approche marketing intéressante. Bien qu’il y fasse froid, l’impression d’inconfort est moins présente que dans une ambiance totalement occulte;
  • si l’on pousse le concept plus loin, on pourrait envisager de placer l’éclairage en dehors de l’espace en verre et, par conséquent, de réduire les apports de chaleur produits par les luminaires.

(-)

  • l’isolation du vitrage est relativement faible. On pourrait espérer réaliser un coefficient de transmission thermique U des parois de l’ordre de 1,1 [W/m².K]. À noter qu’une isolation de 6 cm donne, elle, de l’ordre de 0,4 [W/m².K];
  • les ouvertures auraient pu être des lamelles verticales ou des portes automatiques, mais pas des rideaux d’air mettant en jeu des consommations électriques supplémentaires au niveau des ventilateurs.

Optimisation du rideau d’air

On ne le dira jamais assez, le rideau d’air est le point faible des meubles frigorifiques ouverts. A lui seul, par induction de l’air ambiant de la zone de vente, il représente de l’ordre des 2/3 de la puissance frigorifique nécessaire. De l’optimisation du rideau d’air dépend les consommations énergétiques des groupes frigorifiques.

Apports de chaleur par induction

Taux d’induction

L’apport de chaleur par induction dépend de beaucoup de facteurs. L’apport de chaleur par induction Pind est donné par la relation suivante :

 Pind  = ma x (hambiance – hinterne) x 1000 [W] (1)

où :

Pind  = Xrideau_air x mrideau_air x (hambiance – hinterne) x 1000 [W] (2)

Où :

  • Xrideau_air : taux d’induction du rideau d’air. Celui-ci représente l’efficacité du rideau d’air et est défini comme le rapport m/ mrideau_air où :

    • ma = débit massique d’air de l’ambiance externe entrainé et induit par le rideau d’air en [kg/s];
    • mrideau_air = débit massique du rideau d’air en [kg/s];
  • (hambiance – hinterne) : différence d’enthalpie entre l’ambiance externe et interne au meuble en [kJ/kg].

Si l’on veut optimiser les consommations dues à l’induction par le rideau d’air, il est nécessaire de réduire la masse ma de l’air de l’ambiance induite par le rideau d’air (1). La quantification de la masse ma est très difficile à préciser.

La formule (2) permet de mettre en évidence le taux d’induction Xrideau_air comme étant la quantité d’air ambiant entrainé dans le flux du rideau d’air.

L’exemple suivant permet de mettre en valeur l’utilité de déterminer le taux d’induction

Exemple.

En prenant un rideau d’air d’un meuble frigorifique vertical ouvert, la littérature nous apprend que le taux d’induction peut être exprimé par la relation suivante :

Xrideau_air = h2 – h1 / ((ha – h2) – (h2 – h1))

Où :

  • h1 : enthalpie à la buse de soufflage [kJ/kg];
  • h2 : enthalpie à la bouche de reprise[kJ/kg];
  • ha : enthalpie de l’ambiance de la zone de vente [kJ/kg].

Hypothèse

  • ha = 55 [kJ/kg];
  • h1 est +ou- constant et faible.

Calculs

L’équation ci-dessus peut être exprimée plus simplement par :

Xrideau_air = h2  / (ha – 2h2)

Pour différentes valeurs de h2 variant de 5 à 20 [kJ/kg], le taux d’induction varie et est représenté sur le graphique suivant :

D’après les équations (1) et (2), l’induction d’air extérieur :

ma = Xrideau_air x  mrideau_air

ou

ma = h2  / (ha – 2h2) x  mrideau_air

Conclusions

Pour que les apports dus à l’induction soient faibles, il faut que :

  • le débit du rideau d’air mrideau_air soit faible;
  • le transfert de chaleur de l’ambiance vers la bouche de reprise soit faible. On y arrive en réduisant au maximum la turbulence du rideau d’air.

En analysant cet exemple, on serait tenté d’en conclure que la présence du rideau d’air ne sert à rien. En fait, le rideau d’air étant nécessaire pour maintenir le froid dans le meuble, un débit minimum est nécessaire. De plus, le rideau d’air sert aussi à refroidir le meuble. L’air par son passage sur l’évaporateur est refroidi. Or, plus le débit d’air sur l’évaporateur est important plus l’échange thermique est grand. Il y a donc un optimum à trouver !

Des études extrêmement sophistiquées réalisées par les fabricants permettent d’établir un optimum afin de tenir compte à la fois :

  • de la nécessite de maintenir les denrées froides et de confiner le froid dans le meuble;
  • de l’optimisation de l’induction afin de limiter les apports externes venant de la zone de vente.

Suivant l’application et la géométrie du meuble, il existe toujours un débit d’air et une vitesse d’air optimaux au niveau du rideau.

Déformation du rideau d’air

L’effet « bilame » est connu pour affecter et déformer les rideaux d’air verticaux ou faiblement inclinés. Les différences de températures de part et d’autre du rideau d’air provoquent une différence de densité de l’air au niveau des faces intérieures et extérieures. Pour autant que la vitesse du rideau d’air devienne insuffisante, la différence de densité de l’air sur la profondeur du rideau génère des forces transversales de déformation du rideau. On observe que le rideau se déforme vers l’intérieur du meuble allant jusqu’à le briser.

Schéma "bilame" sur rideau d'air.

Briser le rideau d’air équivaut à augmenter les apports externes et, par conséquent dégrader le bilan thermique et énergétique. Cet effet peut être réduit par :

  • l’utilisation de meuble de type « cascade »;
  • le positionnement correct des étagères en fonction du profil du rideau d’air;
  • l’optimisation du chargement des denrées (pas de trou et pas de meuble vide);
  • une vitesse d’air suffisante qui va naturellement affecter le bilan thermique et énergétique du meuble (donc attention à trouver l’optimum;
  • l’utilisation d’un double rideau d’air.

    

Soufflage arrière de type « cascade » et double rideau d’air.

Les vitesses d’air recommandées pour les rideaux d’air

Comme on l’a vu ci-dessus, les échanges de chaleur entre l’ambiance des zones de vente et les denrées doivent être réduites au maximum. L’augmentation de la vitesse du rideau d’air devrait les limiter mais un débit trop important entraine une recrudescence des apports par induction, une augmentation des consommations des ventilateurs et, par conséquent, des apports internes des moteurs des ventilateurs. On conseille en pratique de limiter les vitesses des rideaux d’air :

  • pour les meubles horizontaux, à 0,5 m/s;
  • pour les meubles verticaux, entre 0,6 et 0,7 m/s.

Diminuer les apports par rayonnement

Apports de chaleur par rayonnement

Les apports de chaleur par rayonnement peuvent être importants notamment lorsque l’application est négative. Dans ce cas, ils peuvent représenter de l’ordre de 40 % du total des apports internes et externes. Ils sont essentiellement produits par le rayonnement dans l’infrarouge lointain des surfaces « chaudes » faisant face à l’ouverture des meubles dont la température des faces internes et des emballages des denrées est froide (application positive : température de 0° à 8°C) voire très froide (application négative : température de -18 ° à -35°C).

On évalue l’apport de chaleur par rayonnement Pray par la relation suivante :

Pray = hro x Aouverture (Tparoi – T i) x φ1 x φ2 [W]

où :

  • A ouverture : surface d’ouverture du meuble en [m²];
  • (tparoi – ti) : l’écart de température entre l’intérieur du meuble et la température des parois vues par l’ouverture du meuble en [K];
  • hro : coefficient équivalent d’échange par rayonnement hro de deux corps noir parallèles en [W/m².K];
  • φ1 : facteur de correction d’émission mutuelle entre deux corps gris (thermiquement) de surface parallèle;
  • φ2 : facteur d’angle associé à φ1 lorsque les surfaces ne sont pas parallèles.

Dans une situation existante, des améliorations sont possibles en jouant sur le choix des parois faisant face à l’ouverture des meubles. En effet, chaque matériau possédant un coefficient d’émissivité, le placement entre les parois et l’ouverture du meuble d’une paroi à basse émissivité, permet de réduire de manière substantielle les apports par rayonnement.

Par exemple, les matériaux polis, notamment les métaux, ont vis-à-vis du rayonnement infrarouge (IR) des coefficients d’émissivité assez faibles; ce qui veut dire qu’ils ne réémettent pas ou peu le rayonnement visible et infrarouge proche et qu’ils réfléchissent le rayonnement infrarouge lointain (matériaux de construction dans notre cas).

L’émissivité des tôles d’aluminium ou d’alliages à base d’aluminium est de l’ordre de 0,1 à 0,15 pour les longueurs d’onde allant du visible à l’infrarouge.

Spectre visible et Infrarouge proche.

Dans l’infrarouge lointain, le même type d’aluminium passe d’une émissivité 0,1 à 0,8 et a tendance à se comporter comme un corps noir et par conséquent à réémettre le rayonnement.

Les meubles horizontaux

Réduction des apports

Les meubles horizontaux, de par leur position par rapport aux parois du magasin, sont des cibles privilégiées pour réduire les apports par rayonnement. En effet, en grande partie, ce sont les plafonds qui interagissent avec ce type de meubles.

L’emploi d’un « baldaquin » de forme concave au-dessus des gondoles à froid négatif et dont la face inférieure est recouverte d’un aluminium de type poli miroir non anodisé, peut, dans certains cas et selon le type de meuble, réduire la température des denrées positionnées en surface de l’ordre de 3 à 5 °C.

Gondole avec baldaquin.

Différentes configurations de gondole.

Et le confort ?

Pour les meubles frigorifiques horizontaux, de par la position des clients par rapport à l’ouverture, le fait ou non de placer des baldaquins ne modifie pas tellement le confort.

Les meubles verticaux

Les ouvertures des meubles verticaux quant à elles subissent les agressions par rayonnement venant des plafonds, des murs ou des rayons leur faisant face et dont les températures sont plus chaudes.

Réduction des apports

Un moyen simple de réduire les apports par rayonnement est de positionner (s’il y en a beaucoup) les meubles frigorifiques en face à face. Cette solution simple permet d’éliminer partiellement l’effet d’émissivité mutuelle vu que les températures des parois internes des meubles sont plus ou moins égales.

Allée froide en convection naturelle.

Tunnel froid.

Allée froide en convection forcée.

Et le confort ?

Ce type de composition des meubles est souvent appelé « allée froide » pour la simple raison qu’elles sont inconfortables ». En effet l’introduction d’un corps à 36 °C entre deux parois dont la température de surface est de l’ordre de 0°C implique que le corps chaud échange par rayonnement sa chaleur et, par conséquent, l’impression de froid est grande.

Performances des réflecteurs

Des essais ont été réalisés afin de déterminer la pertinence de ce type d’action. La comparaison est réalisée en prenant un meuble frigorifique horizontal possédant les caractéristiques suivantes :

  • convection forcée;
  • chargée d’une seule couche de paquets d’essais en emballage carton de couleur blanche.

Essai en laboratoire

Dans un local obscur, maintenu dans des conditions d’ambiance à 25°C pour un taux d’humidité de 60 %, et équipé d’un plafond type « corps noir », on effectue un monitoring des températures de chaque paquet test. En régime stable, la moyenne des températures atteint – 15°C.

Dans les mêmes conditions d’ambiance, on place une paroi en aluminium poli entre le meuble et le plafond. La moyenne de la distribution des températures des paquets tests donne – 19°C.

On observe donc un abaissement des températures de l’ordre de 4°C. Les apports par rayonnement sont donc réduits et, par conséquent, les consommations énergétiques à l’évaporateur.

Pour être certain que ce ne soit pas un phénomène de réduction d’apports convectifs, toute chose restant égale, la tôle d’aluminium est peinte en blanc. On constate que les températures remontent aux alentours des – 15°C; la réduction d’apport est donc uniquement radiative.

Essai en magasin

La mise en place d’un baldaquin au dessus du même meuble donne un abaissement des températures de l’ordre de 3 à 5°C.

La variation des températures résulte de la manipulation et des déplacements fréquents des denrées par les clients ainsi que des opérations de dégivrages.


Placer ou optimiser les protections de nuit

Les rideaux de nuit, comme le montre le tableau ci-dessous donnent des résultats très intéressants au niveau de la réduction des apports externes par induction au travers du rideau d’air.

Il ne faut quand même pas oublier que pendant minimum 12 heures par jour (après la fermeture du magasin), cette protection, si elle existe, réduit de manière importante les apports par induction et aussi par rayonnement au meuble.

Type de meuble Type d’application Période de jour période de nuit Réduction des consommations énergétiques
Horizontal négative rideau d’air rideau de nuit 8 à 15 %
couvercle simple 15 à 30 %
couvercle isolé 25 à 45 %
Vertical positif rideau d’air rideau de nuit 12 à 30 %
porte vitrée
négatif porte vitrée porte vitrée 25 à 30 %

Meubles verticaux

Dans le cas où les protections de nuit n’existent pas, leur placement s’impose. Attention toutefois qu’il faut se renseigner de la faisabilité du placement auprès du constructeur. En effet, la configuration du meuble ne le permet pas toujours, car il faut que le rideau de nuit se trouve à l’extérieur par rapport au rideau d’air.

Photo rideaux de nuit.

L’optimisation des rideaux de nuit manuels peut passer par l’automatisation des ouvertures et fermetures. Pour autant que cela soit possible (au cas par cas), l’automatisation permet au personnel de ne plus se soucier de la gestion. Un oubli une nuit implique que les apports par induction et rayonnement continuent à influencer le meuble au niveau de ces consommations, même si les apports nocturnes diminuent (ralenti de nuit, apports réduits par l’absence d’occupant, d’éclairage de vente, …).

Attention aussi que l’automatisation rend le personnel moins responsable. En effet dans certains commerces, vu que le personnel ne voit plus la descente des rideaux de nuit, on se rend compte au matin (ou pas du tout) que certains rideaux ne sont pas descendus à fond par la présence de porte-prix dans l’axe du rideau par exemple.

Meubles Horizontaux

Avec les meubles horizontaux, les possibilités de fermeture des ouvertures en période nocturne sont diverses. On épinglera les fermetures coulissantes qui peuvent être utiles de jour comme de nuit.

Photo fermetures coulissantes sur meuble horizontaux.


Optimiser ou supprimer l’éclairage des tablettes

Problème ?

On sait que les consommations énergétiques dues à l’éclairage sont payées deux fois et même plus :

  • une première fois à travers les consommations électriques nécessaires pour mettre en valeur visuellement les denrées;
  • une seconde fois parce que les lampes réchauffent l’ambiance interne du meuble se traduisant par une consommation électrique supplémentaire au niveau des groupes de froid;
  • un peu plus même pour la simple raison que l’efficacité du tube en ambiance froide est réduite au moins de 40 %. Pour les accrocs de l’éclairage, ils seraient, au vu de l’effet médiocre de l’éclairage des étagères, de renforcer la puissance installée pour compenser le manque d’efficacité des lampes.

   Photo éclairage meubles horizontaux - 01.   Photo éclairage meubles verticaux - 01.   Photo éclairage étal.

Emplacement de l’éclairage

L’emplacement de l’éclairage est sûrement la clef du problème. Un test a été réalisé dans une grande surface. L’idée était de couper l’éclairage des tablettes et de ne plus se servir, comme source lumineuse, que des tubes fluorescents en dehors de la partie réfrigérée du meuble. Cette initiative a pour avantage de :

  • réduire la puissance installée des luminaires;
  • réduire les apports internes défavorables au bilan thermique et frigorifique du meuble;
  • augmenter l’efficacité des lampes puisqu’elles travaillent à température plus élevée.

Ceci est d’autant plus remarquable, que le magasin n’a pas enregistré de baisse du chiffre d’affaires pendant le test.

Gestion de l’éclairage

Simplement, une horloge peut assurer la coupure des luminaires pendant les heures de fermeture du magasin. On pourrait aussi arriver à un degré de sophistication en utilisant un superviseur (GTC ou Gestion Technique Centralisée) donnant des alarmes lorsque l’éclairage n’est pas éteint.

Photo écran de Gestion Technique Centralisée.


Adapter la vitesse des ventilateurs

On serait tenté de le faire ! En fonction de l’évolution des apports, réduire ou pas la vitesse des ventilateurs est tentant. Il faut rester prudent sachant que le rideau d’air doit sa stabilité au débit donné par les ventilateurs. Les moyens pour contrôler cette stabilité à notre connaissance n’existent pas et donc il n’y a pas moyen de réguler le débit par rapport à l’efficacité du rideau d’air.

Auditer rapidement sur base de la comptabilité énergétique

Facture gaz ou fuel

 

Repérer le problème

 

 

Projet à étudier

 

 

Rentabilité

 

 

Consommation annuelle de chauffage par m² de plancher brut ?

Repères (bureaux) :

– si construction < 1975, consom. de 100 à 180 kWh/an/m².

– si construction > 1975, consom. de 40 à 150 kWh/an/m²  (bureaux).
(1 m³ de gaz = 1 litre de fuel = 10 kWh)

Affiner l’évaluation via les ratios dans Énergie+.

 

 

Se situer par rapport au secteur.

Définir la priorité d’amélioration entre chauffage et électricité.

Établir les priorités d’audit et d’intervention entre les bâtiments d’un même parc.

 

 

 

 

 

S’il n’y a pas d’ECS produite par l’installation de chauffage, les consommations de chauffage sont-elles nulles en été ?

Comment sont gérés la mise en route et l’arrêt des installations en été ?

 

 

Placer un régulateur qui interrompt la chaudière et les circulateurs si la température extérieure dépasse 15°C.

 

 

+ +

S’amortit aussi en mi-saison car la T°ext est > à 15°C durant 400 h  de la saison de chauffe.

 


Facture électrique

Repérer le problème

Projet à étudier

Rentabilité

Consommation annuelle d’électricité du bâtiment par m² de plancher brut ?

Repères :

– si non climatisé, consommation 30 à 100 kWh/an/m²  (bureaux publics) et de 60 à 120 kWh/an/m² (bureaux privés).

– si climatisé, consommation 100 à 160 kWh/an/m² (bureaux).

Affiner l’évaluation via les ratios dans Énergie+.     

Se situer par rapport au secteur.

Définir la priorité d’amélioration entre chauffage et électricité.

Établir les priorités d’audit et d’intervention entre les bâtiments d’un même parc.

 

Si tarif Basse Tension, présence d’un compteur bi-horaire ?

 

 

Installer un compteur bi-horaire dans pratiquement tous les bâtiments tertiaires.

+ + +

La consommation de nuit = …15…20… % de la cons. tot.

Le pourcentage des consommations consommées en heures creuses (nuit + WE) correspond-il à une logique de fonctionnement du bâtiment ? Analyser l’origine des consommations de nuit et de WE, placer des horloges sur les circuits à arrêter la nuit.

+ + +

Le kWh électrique est 2 à 3 x plus cher que le kWh chauffage.


Facture électrique haute tension

Repérer le problème

Projet à étudier

Rentabilité

Facteur de puissance ou cos « phi » > 0,9 ?

Pénalité pour « Puissance Réactive » ?

Placement de condensateurs de compensation.

+ + +

Rentable en 1 an.

Pointe de puissance 1/4 horaire anormale ?

Repères :

– si pointe supérieure à 20 W/m², c’est anormal pour un bâtiment de type bureaux non climatisé.

– si le ratio « consommation en Heures Pleines (kWh) /
pointe 1/4 horaire (kW) »
est compris entre 80 et 200 heures, une gestion de la pointe peut être rentable.

Analyser s’il existe des équipements à délester.

Empêcher ces équipements de fonctionner durant la pointe par une horloge ou en plaçant un délesteur de charges électriques.

Étudier la possibilité d’une réorganisation du travail qui empêcherait la simultanéité de certaines tâches (ex : arrêt du lave-vaisselle lors du fonctionnement des friteuses).

+ +

Surtout rentable si charges thermiques que l’on peut interrompre (ballon électrique d’ECS, groupe frigorifique, chauffes-plats des cuisines collectives, …) en parallèle avec des charges que l’on ne peut couper (friteuses, lave-vaisselle, …).

« Tarif » adéquat ?

La consommation électrique est-elle élevée en été ?

Il n’existe plus de tarifs « officiels » mais il est possible de négocier un prix plus intéressant si la consommation est élevée en été.

Demander un diagramme de charge au distributeur électrique.

+ + +

Coût nul, simple changement de tarif.

Rentabilité encore plus forte si délestage de charges en hiver.


Suivi des consommations

Repérer le problème

Projet à étudier

Rentabilité

Assure-t-on un suivi des consommations électriques, de combustible et d’eau (chaude) sanitaire ? Les consommations de combustibles sont-elles rectifiées en fonction des conditions météo ? Mettre en place une comptabilité énergétique.
À défaut d’un compteur sur l’eau chaude, le suivi des consommations d’eau reste très utile.

+ +

… si on utilise les résultats !

Dispose-t-on de compteurs spécifiques pour analyser les consommations ?

Les factures sont-elles associées à un compteur spécifique

Placer un compteur :

  • sur l’eau chaude sanitaire,
  • sur le compresseur de la machine frigorifique,
  • sur un départ vers un bâtiment annexe,
  • sur un groupe de ventilation

et améliorer les stratégies d’intervention et de gestion des factures.

+ +

… si on utilise les résultats !

Les services techniques, les décideurs et les utilisateurs sont-ils mis au courant si la consommation est anormale par rapport à l’année précédente ? Organisation interne à mettre en place pour réagir rapidement lorsqu’une dérive apparaît.

+ + +

Pour comprendre la cause du problème, il faut l’analyser rapidement après son apparition.

Les utilisateurs sont-ils motivés à économiser l’électricité, les combustibles, l’eau sanitaire, … ? Envisager une « rétribution » de l’effort consentit : reconnaissance morale et écologique,  ristourne financière, avantage matériel, …

+ + +

Solution « tout le monde gagnant », dynamique interne, …

Y a-t-il production et/ou consommation d’électricité verte ou d’énergie renouvelable ? Penser à installer des systèmes producteurs d’énergie renouvelable

Suivi des installations

Repérer le problème

Projet à étudier

Rentabilité

Y a-t-il une personne dans le bâtiment (interne à l’établissement ou société de maintenance) qui a en charge la conduite des installations et à qui on peut signaler un problème ? Nommer un responsable de la conduite.

+ +

… à terme.

Cette personne connaît-elle le fonctionnement de l’installation et de sa régulation, peut-elle assurer une gestion optimale au niveau énergétique ? Assurer sa formation de Responsable Énergie.

Assurer sa formation technique.

+ +

… à terme.

Dans le cas d’installations conduites par une société de maintenance, y a-t-il un contrôle de la bonne qualité de cette conduite en matière d’efficacité énergétique ? Réaliser un audit de la maintenance par un bureau spécialisé.

Utiliser le cahier des charges à la maintenance énergétique de l’IBGE

+ +

… à terme.

Si la maintenance est confiée à une entreprise extérieure, celle-ci a-t-elle un label de qualité ? Choisir une entreprise de maintenance disposant d’un label de qualité ISO 9002 ou un label d’environnement ISO 14000
Accède-t-on facilement aux schémas de l’installation et à la logique de régulation ? Mettre à disposition

– les schémas techniques « as built »

– les fiches techniques « as built » des équipements.

– la logique de régulation et les paramètres de réglage « as built ».

Créer un carnet de gestion qui reprend les entretiens, remplacements d’éléments, pannes, etc…

Indiquer les références des circuits sur les équipements (vannes, sondes, éléments de régulation, …).

Reconstituer l’ensemble de ces documents si ceux-ci sont absents.

+ +

… à terme.

Existe-t-il un journal de bord de gestion des installations qui reprend l’ensemble des actions entreprises : entretien, installation, remplacement de pièces, régulation, etc. Mettre en place un suivi de la gestion des installations consignée

+ +

… à terme.

Découvrez cet exemple de comptabilité énergétique au Collège du Sacré Cœur de Charleroi.

Choisir la couche isolante du plancher des combles [Améliorer]

Performances thermiques à atteindre – la réglementation

Outre un niveau de performance global à atteindre (Kglobal ou Be 450), la réglementation wallonne en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique (Umax) des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si un mur n’est pas directement touché par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (Kglobal ou Be 450).

Élément de la surface de déperdition

Umax (W/m²K) (Annexe C1 de la PEB)
Toiture entre le volume protégé et l’ambiance extérieure ou ensemble de plafond + grenier + toiture. 0,3

Performances thermiques à atteindre – les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U (anciennement k) de 0,3 [W/m²K] est requis pour les toitures. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde fou que la Région a voulu imposer aux constructeurs.

En pratique, l’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

Quelques considérations complémentaires :

  • Ci-dessus, nous avons suivi une logique de rentabilité financière. Si une logique de rentabilité écologique était prise, la lutte contre 2>le CO2 nous pousserait vers une isolation plus forte !

 

  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau troué. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau . En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, . notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses ,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Epaisseur de l’isolant pour atteindre les performances recommandées :

Pour une toiture inclinée, l’épaisseur d’isolant à poser en fonction du coefficient de conductivité thermique est donnée sur le graphique ci-dessous. Pour chaque isolant, il existe un intervalle de valeurs possibles pour la conductivité thermique. Le diagramme ci-dessous permet de déterminer dans quel intervalle d’épaisseur il faudra se situer en fonction du type d’isolant choisi. Les valeurs présentées font références à une toiture standard dont le détail technique est donné ci-dessous.

À droite : Épaisseur d’isolant nécessaire pour atteindre U = 0.3 W/m²K dans le cas d’une toiture inclinée de référence en fonction de la conductivité thermique (λ) ou du type d’isolant choisi (les intervalles de valeurs pour chaque isolant correspondent aux valeurs certifiées).

À gauche : Détail technique de la toiture inclinée prise comme référence.

Les isolants considérés ici sont ceux qui sont habituellement retenus lors de la réalisation d’une toiture inclinée.

Pourquoi une isolation plus poussée en toiture que dans les murs ?
Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en ouvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.

Pourquoi une isolation moins poussée sur le sol ?
En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.


Type d’isolant

L’isolation des différents types de planchers des combles non aménageables.
Les matériaux isolants peuvent présenter différentes formes, raideurs et résistances à la compression :

Formes

Matériaux

Matelas semi-rigide ou souple :

La laine de roche, la laine de verre, les fibres traitées organiques (chanvre, …) ou animales (laine, ….) …

Panneaux rigides :

La mousse de polyuréthane, de polystyrène expansé ou extrudé, le verre cellulaire, les panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …), le liège

Les flocons ou granulés :

Les granulés de perlite ou de vermiculite, les granulés de polystyrène expansé, les granulés de liège, les flocons de laine minérale insufflés, les flocons de papier recyclé …

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait. La valeur de calcul de la conductivité thermique (λ U) d’un isolant possédant ce type d’agrément est connu avec précision. Il est certifié par le fabricant. Il est régulièrement vérifié par des essais. Il peut être utilisé pour calculer les performances de la paroi à la place des coefficients moins favorables tabulées dans les normes (Annexe B1 de la PEB).

  • l’efficacité isolante,
  • l’adéquation avec le support,
  • le comportement au feu,
  • le prix.

C’est au concepteur de choisir ceux qui sont prioritaires.

L’efficacité isolante

La valeur isolante du matériau dépend de son coefficient de conductivité thermique λ . Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

L’adéquation avec le support

Un isolant semi-rigide :
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable).

Un isolant souple :

  • peut suivre la forme très compliquée d’un plancher (contournement des gîtes);
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable);
  • doit être supporté (par le plafond).

Un isolant rigide :

  • résiste mieux à la compression (peut éventuellement supporter une aire de foulée);
  • calfeutre moins facilement (entre les gîtes ou lambourdes);
  • s’adapte plus difficilement à des formes compliquées.

Les flocons ou granulés :

  • s’intercalent facilement dans les espaces qui leur sont réservés (pose entre les gîtes);
  • calfeutrent correctement les raccords (autour de l’isolant);
  • ne résistent pas à la compression (non circulable);
  • doivent être supporté (par le plafond);
  • se déplacent facilement.

Le choix de l’isolant dépend des caractéristiques énumérées ci-dessus et du modèle d’isolation choisi en fonction du type de plancher (lourd ou léger).

Plancher lourd

Le plancher lourd sera idéalement isolé par le haut afin de lui maintenir une température constante. On évite ainsi des contraintes internes dans la structure et les désordres qu’elles risquent de provoquer. Le volume protégé profite également de l’inertie thermique importante du plancher lourd.

Non circulable

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.

Si, en outre, la face supérieure du plancher est compliquée ou irrégulière, on préférera les matelas d’isolant souples qui épousent mieux la forme.
Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Circulable

Si le plancher doit être circulable, tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (voir plancher léger, isolation entre gîtes).

Plancher léger

Non circulable, avec plafond mais sans plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.
On peut également utiliser des flocons ou granulés. Ils sont plus faciles à poser mais risquent d’être déplacés avec le temps par des facteurs mécaniques extérieurs (vent, circulation intempestive, rongeurs, oiseaux, …)
Dans les deux cas, la pose d’un pare-vapeur est difficile.

Isolation autour des gîtes

On utilisera exclusivement un matelas souple épousant bien la forme du support. Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Non circulable, sans plafond mais avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Non circulable, avec plafond et avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On insuffle des flocons ou granulés d’isolant entre les gîtes, dans l’espace situé entre le plafond et le plancher.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Circulable

Le plancher léger circulable sera généralement isolé dans son épaisseur pour des raisons d’économies d’espace et de matériaux.

 

Dans ce cas, on utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer. On les posera par le haut ou par le bas si respectivement l’aire de foulée ou le plafond n’existent pas encore.
Lorsque le plafond est posé, on peut utiliser des flocons ou granulés d’isolant, éventuellement insufflés si l’aire de foulée existe déjà.

Dans certains cas, pour des raisons de facilité, ou lorsqu’il n’y a pas de plafond ou lorsque des appareils volumineux sont encastrés dans celui-ci, on pose l’isolant sur une plaque de support reposant sur le gîtage.
Tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (Voir plancher léger, isolation entre gîtes).

Attention !

Certains isolants sont incompatibles avec d’autres éléments du plancher en contact avec l’isolant.
Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.

Le comportement au feu

Lorsque le support résiste mal au feu (plancher en bois, tôles profilées métalliques), l’inflammabilité de l’isolant joue un rôle important.
Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.
La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant (solution à éviter), les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant mais aussi de sa mise en œuvre.
Lorsqu’ils sont posés dans les planchers, les isolants correctement posés et protégés des agressions extérieures, ne nécessitent aucun entretien et leurs durées de vie ne posent pas de problème particulier.


Épaisseur calculée de l’isolant

Remarque.

Les calculs ci-dessous sont faits avec l’hypothèse que le plancher est étanche à l’air. Dans le cas contraire, les mêmes épaisseurs d’isolant peuvent mener à une valeur U (anciennement k) 2,5 fois plus élevée que celle prévue.
Un plancher lourd ne pose généralement pas de problème de courant d’air.
Pour éviter les courants d’air à travers les planchers légers on choisira une finition inférieure de type :

  • plafonnage;
  • plaques de carton-plâtre correctement rejointoyées;
  • ou des panneaux de fibres de bois liées au ciment, avec enduit.

Le plafond n’est, par contre, pas rendu étanche par une finition en lambris ou planchettes.
Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

 

1/U

= [1/hi + d11 + d22 + … + di/λi + Ru + 1/he]
<=> di = λi [(1/U) – (1/hi + d11 + d22 + … + Ru + 1/he)]

où,

  • λi est le coefficient de conductivité thermique de l’isolant,
  • U est le coefficient de transmission thermique de l’ensemble « plancher des combles + versants de toiture » à atteindre (exemple : 0,3 W/m²K),
  • he et hi les coefficients d’échange thermique entre le toit et les ambiances extérieure et intérieure valant respectivement 23 W/m²K et 8 W/m²K,
  • dx la résistance thermique des autres couches de matériaux,
  • Ruest la résistance thermique des combles. Elle comprend la résistance thermique de l’espace d’air et la résistance thermique de la toiture (en pente).

Le tableau ci-dessous donne les résultats des calculs pour des toitures sans sous-toiture et pour différents modèles d’isolation de plancher.

+

Valeur U sans isolation [W/(m² x K)]

 

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,4 W/(m² x K)

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,3 W/(m² x K)

plancher  :

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

MW, EPS

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

Plancher léger étanche à l’air; sans aire de foulée.

4 > 101 > 79 > 90 > 139 > 108 > 123
Plancher léger étanche à l’air; avec aire de foulée.

1.8 > 88 > 68 > 78 > 125 > 97 > 111
Plancher lourd étanche à l’air. 3.3 > 99 > 77 > 88 > 136 > 106 > 121

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.
La formule devient alors :

e= λi ((1/ U) – (1/h+ 1/hi) [m]

Pour U = 0,3 W/m²K,

ei = λi ((1/ 0,3) – (1/23 + 1/8 )) m
 

= λx 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λ i.
L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR)

Son λi vaut 0.039 W/mK (suivant NBN B62-002)

ei = 0.039 x 3.16 = 0.12324 m

L’épaisseur commerciale : 13 cm (par exemple : 6 + 7 cm).

calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant, cliquez ici !

Conseils généraux de mise en œuvre de la couche isolante

> L’isolant est mis en œuvre conformément aux prescriptions de son agrément technique.

> L’isolant doit être placé sur toute la surface du plancher sans oublier les éventuelles parties verticales, les trapes d’accès, etc.

> Les joints entre les différents panneaux isolants et entre les panneaux isolants et les gîtes (planchers légers) doivent être bien fermés.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

> Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé. Par exemple :

  • L’isolant du plancher doit être en contact avec l’isolant des murs extérieurs et des éventuels murs intérieurs du grenier;
  • Il doit être dans le prolongement et en contact avec le dormant du trapillon isolant des accès.
  • Il doit être en contact avec l’isolant autour du conduit de cheminée.

> Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.

> Les panneaux isolants doivent être protégés et manipulés avec précaution pour éviter les écrasements, les déchirures, l’eau, la boue.

Cuisiner ou assembler ?

Cuisiner ou assembler ?

Les gammes de produits

Produits de première gamme

Il s’agit des produits bruts traditionnels, c’est-à-dire :
  • crus et non épluchés pour les fruits et les légumes,
  • en carcasse, quartier ou muscles pour les viandes,
  • à vider ou prêts à cuire pour les poissons et les volailles…

Ces produits nécessitent des conditions de stockage précises en termes de température,d’hygrométrie. Pour éviter des souillures éventuelles et des transferts d’odeurs, ils doivent être isolés.

Produits de deuxième gamme

Ce sont tous les produits aseptisés (conserves et semi-conserves), c’est-à-dire des aliments conditionnés en emballage étanche aux liquides, aux gaz, aux micro-organismes et ayant subi un traitement thermique susceptible de détruire ou d’inhiber « d’une part les enzymes et d’autre part les micro-organismes et leurs toxines « .

Produits de troisième gamme

Sont rassemblés dans cette catégorie les produits conservés en froid négatif (congélation et surgélation).
Ils ont généralement subis des traitements préliminaires (épluchages, blanchiment… ), sont conditionnés en emballage non étanche (carton poche plastique) et se conservent à -18°C.

Produits de quatrième gamme

Ce sont des produits végétaux ayant subi des traitements d’épluchage, de parage, de coupage. Ils sont prêts à l’emploi pour les préparations de crudités ou prêts à la mise en cuisson dans des plats cuisinés ou potages. Conditionnés en emballage étanche, sous atmosphère contrôlée ou raréfiée (« sous vide »), ils se conservent à une température inférieure à +4°C.

Produits de cinquième gamme

Cette catégorie qui est apparue plus récemment sur le marché, regroupe les produits cuisinés prêts à être servis. Ils sont conditionnés en atmosphère raréfiée (avant ou après cuisson) et se conservent à +3°C.

Produits semi élaborés

Enfin et pour être complet, il faut ajouter une famille de produits appartenant au secteur de l’épicerie sèche, très souvent déshydratée, qui permet de réaliser des préparations culinaires ou pâtissières en « sautant  » certaines étapes du cycle normal de production.


Cuisiner ou assembler ?

La cuisine d’assemblage consiste à réaliser une production culinaire (hors d’œuvre, plats garnis, dessert), à partir de produits achetés dans un état déjà plus ou moins élaboré, en les assemblant dans le cadre de la recette, avec ou sans cuisson.

Elle a pour effet de transférer vers l’amont, en l’occurrence les industries agro-alimentaires, certaines phases de la production classique d’une cuisine, notamment les étapes préliminaires, permettant ainsi la réalisation d’effets d’échelle et de gain de productivité.

Schéma cuisine traditionnelle / cuisine assemblage.

Moteur à courant continu

Moteur à courant continu


 

Généralité

On rencontre encore régulièrement des moteurs à courant continu à excitation indépendante dans les salles des machines des immeubles d’un certain âge. En général, ils font partie d’un groupe Ward-Leonard qui permet d’aisément faire varier la vitesse de rotation.

Actuellement, du groupe Ward-Leonard, on ne conserve que le moteur à courant continu qui, cette fois, est associé à un variateur de vitesse statique (variateur électronique) dont la technologie est plus simple et peu onéreuse tout en demandant peu d’entretien et en offrant des performances élevées dans une plage de vitesse très large (de 1 à 100 %).


Principe de fonctionnement

Le moteur à courant continu se compose :

  • de l’inducteur ou du stator,
  • de l’induit ou du rotor,
  • du collecteur et des balais.

Lorsque le bobinage d’un inducteur de moteur est alimenté par un courant continu, sur le même principe qu’un moteur à aimant permanent (comme la figure ci-dessous), il crée un champ magnétique (flux d’excitation) de direction Nord-Sud.

Une spire capable de tourner sur un axe de rotation est placée dans le champ magnétique. De plus, les deux conducteurs formant la spire sont chacun raccordés électriquement à un demi collecteur et alimentés en courant continu via deux balais frotteurs.

D’après la loi de Laplace (tout conducteur parcouru par un courant et placé dans un champ magnétique est soumis à une force), les conducteurs de l’induit placés de part et d’autre de l’axe des balais (ligne neutre) sont soumis à des forces F égales mais de sens opposé en créant un couple moteur : l’induit se met à tourner !

Schéma principe de fonctionnement.

Si le système balais-collecteurs n’était pas présent (simple spire alimentée en courant continu), la spire s’arrêterait de tourner en position verticale sur un axe appelé communément « ligne neutre ». Le système balais-collecteurs a pour rôle de faire commuter le sens du courant dans les deux conducteurs au passage de la ligne neutre. Le courant étant inversé, les forces motrices sur les conducteurs le sont aussi permettant ainsi de poursuivre la rotation de la spire.

Dans la pratique, la spire est remplacée par un induit (rotor) de conception très complexe sur lequel sont montés des enroulements (composés d’un grand nombre de spires) raccordés à un collecteur « calé » en bout d’arbre. Dans cette configuration, l’induit peut être considéré comme un seul et même enroulement semblable à une spire unique.


Caractéristiques

Les avantages et inconvénients du moteur à courant continu sont repris ci-dessous :

(+)

  • accompagné d’un variateur de vitesse électronique, il possède une large plage de variation (1 à 100 % de la plage),
  • régulation précise du couple,
  • son indépendance par rapport à la fréquence du réseau fait de lui un moteur à large champ d’application,

(-)

  • peu robuste par rapport au machine asynchrone,
  • investissement important et maintenance coûteuse (entretien du collecteur et des balais,

Machine réversible

Dans le régime de fonctionnement des ascenseurs à traction, le treuil à courant continu peut :

  • Tantôt fonctionner en moteur lorsque le système cabine et contre-poids s’oppose au mouvement de rotation (charge dite « résistante »); le moteur prend de l’énergie au réseau.
  • Tantôt travailler en générateur lorsque le même système tend à favoriser la rotation (charge dite « entrainante »); le générateur renvoie de l’énergie au réseau.

Type de moteur à courant continu

Suivant l’application, les bobinages du l’inducteur et de l’induit peuvent être connectés de manière différente. On retrouve en général :
Des moteurs à excitation indépendante.

Des moteurs à excitation parallèle.

Des moteurs à excitation série.

Des moteurs à excitation composée.

La plupart des machines d’ascenseur sont configurées en excitation parallèle ou indépendante. L’inversion du sens de rotation du moteur s’obtient en inversant soit les connections de l’inducteur soit de l’induit.


L’inducteur

L’inducteur d’un moteur à courant continu est la partie statique du moteur. Il se compose principalement :

  • de la carcasse,
  • des paliers,
  • des flasques de palier,
  • des portes balais.

   

Inducteur.

Le cœur même du moteur comprend essentiellement :

  • Un ensemble de paires de pôles constitué d’un empilement de tôles ferro-magnétiques.
  • Les enroulements (ou bobinage en cuivre) destinés à créer le champ ou les champs magnétiques suivant le nombre de paires de pôles.

Pour des moteurs d’une certaine puissance, le nombre de paires de pôles est multiplié afin de mieux utiliser la matière, de diminuer les dimensions d’encombrement et d’optimaliser la pénétration du flux magnétique dans l’induit.


L’induit

L’induit du moteur à courant continu est composé d’un arbre sur lequel est empilé un ensemble de disques ferro-magnétiques. Des encoches sont axialement pratiquées à la périphérie du cylindre formé par les disques empilés. Dans ces encoches les enroulements (bobines de l’induit) sont « bobinés » selon un schéma très précis et complexe qui nécessite une main d’œuvre particulière (coûts importants). Pour cette raison, on préfère, en général, s’orienter vers des moteurs à courant alternatif plus robuste et simple dans leur conception.

   

Induit.

Chaque enroulement est composé d’une série de sections, elles même composées de spires; une spire étant une boucle ouverte dont l’aller est placé dans une encoche de l’induit et le retour dans l’encoche diamétralement opposée. Pour que l’enroulement soit parcouru par un courant, ses conducteurs de départ et de retour sont connectés aux lames du collecteur (cylindre calé sur l’arbre et composé en périphérie d’une succession de lames de cuivre espacée par un isolant).

Composition de l’induit.

L’interface entre l’alimentation à courant continu et le collecteur de l’induit est assuré par les balais et les porte-balais.


Les balais

Les balais assurent le passage du courant électrique entre l’alimentation et les bobinages de l’induit sous forme d’un contact par frottement. les balais sont en graphite et constituent, en quelques sortes, la pièce d’usure. Le graphite en s’usant libère une poussière qui rend le moteur à courant continu sensible à un entretien correct et donc coûteux.

L’ensemble balais, porte-balais et collecteur.

Le point de contact entre les balais et le collecteur constitue le point faible du moteur à courant continu. En effet, c’est à cet endroit, qu’outre le problème d’usure du graphite, la commutation (inversion du sens du courant dans l’enroulement) s’opère en créant des micros-arcs (étincelles) entre les lamelles du collecteur; un des grands risques de dégradation des collecteurs étant leur mise en court-circuit par usure.


Pilotage de la vitesse de rotation

Relation Vitesse et force contre-électromotrice à flux constant

Lorsque l’induit est alimenté sous une tension continue ou redressée U, il se produit une force contre-électromotrice E.
On a :

E = U – R x I [volts]

Où,

  • R = la résistance de l’induit [ohm].
  • I = le courant dans l’induit [ampère].

La force contre-électromotrice est liée à la vitesse et à l’excitation du moteur.
On a :

E = k  x  ω x Φ[volt]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • ω = la vitesse angulaire de l’induit [rad/s].
  • Φ= le flux de l’inducteur [weber].

En analysant la relation ci-dessus, on voit, qu’à excitation constante Φ, la force contre-électromotrice E est proportionnelle à la vitesse de rotation.

Relation Couple et flux

Quant au couple moteur, il est lié au flux inducteur et au courant de l’induit par la relation suivante.

On a :

C = k x Φ x I [N.m]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • Φ= le flux de l’inducteur [weber].
  • I = le courant dans l’induit [ampère].

En analysant la relation ci-dessus, on voit qu’en réduisant le flux, le couple diminue.

Variation de la vitesse

Au vu des relations existant entre la vitesse, le flux et la force contre-électromotrice, il est possible de faire varier la vitesse du moteur de deux manières différentes. On peut :

  • Augmenter la force contre-électromotrice E en augmentant la tension au borne de l’induit tout en maintenant le flux de l’inducteur constant. On a un fonctionnement dit à « couple constant ». Ce type de fonctionnement est intéressant au niveau de la conduite d’ascenseur.
  • Diminuer le flux de l’inducteur (flux d’excitation) par une réduction du courant d’excitation en maintenant la tension d’alimentation de l’induit constante. Ce type de fonctionnement impose une réduction du couple lorsque la vitesse augmente.


Le groupe Ward-Leonard

Le groupe Ward-Léonard représente l’ancienne génération des treuils d’ascenseur à traction à câbles. Ce système permettait de faire varier la vitesse d’un moteur à courant continu à excitation indépendante en réglant la tension de l’induit par l’intermédiaire d’une génératrice à courant continu dont on faisait varier l’excitation; la génératrice étant entraînée mécaniquement par un moteur à courant alternatif classique.

Pour une faible variation du courant d’excitation de la génératrice, il était possible de maîtriser des puissances énormes de moteurs à courant continu dans une plage de variation de vitesse très étendue.

L’électronique de régulation de vitesse est venue supplanter le système du groupe Ward-Léonard où le variateur de vitesse électronique vient contrôler :

  • soit directement un moteur à courant alternatif,
  • soit le moteur à courant continu seul rescapé du groupe Ward-Léonard.

 

Exemple de réglage d’une courbe de chauffe

Exemple de réglage d'une courbe de chauffe

Voici un exemple de réglage d’une courbe de chauffe (réglage de la pente et du déplacement parallèle) dans 4 situations. Il se base sur la méthodologie de réglage décrite dans « Régulateurs climatiques et réglage des courbes de chauffe« .


Situation 1 – Premier réglage

Monsieur M. est responsable technique d’une institution située à Namur. L’installation de chauffage qu’il avait pour mission de gérer ne comprenait quasiment aucune régulation :

  • la chaudière était maintenue en permanence à température grâce à son aquastat,
  • seul le circuit de la façade sud est équipé d’une vanne trois voies manuelle

Installation avant rénovation.

Au plus fort de l’hiver, Monsieur M. réglait par expérience la température de la chaudière sur 80°C. En effet une température plus élevée engendrait l’apparition de plaintes de la part des occupants qui souffraient d’un excédent de chaleur.
Malheureusement, lorsque le soleil était présent, les locaux situés au sud étaient vite surchauffés.
Récemment, les responsables de l’institution ont décidé d’investir dans la régulation de l’installation.
Les circuits sont équipés de vannes mélangeuses avec servomoteur et sont régulés chacun au départ de leur propre sonde extérieure.

Installation après rénovation.

Il s’agit maintenant pour Monsieur M. de régler les courbes de chauffe de chaque régulateur.

1. Définir les besoins

> Pour l’hiver, Monsieur M. reprend les réglages qu’il appliquait avant rénovation au niveau de la chaudière :

  • T° extérieure de base = – 9°C (a)
  • T° maximale de l’eau = 80°C (b)

> Pour la saison chaude, Monsieur M. considère une valeur couramment reconnue dans nos régions :

  • T° extérieure de non chauffage = 15°C (c)
  • T° minimale de l’eau = 35°C (d)

2. Calcul de la pente

Pente = [(b) – (d)] / [(c) – (a)] = [80°-35°] / [15° – (- 9°)] = 1,9 (e)

3. Connaître le point pivot de base du régulateur

Le point pivot préréglé sur le régulateur est :

  • T° extérieure de non chauffage = 20°C (f)
  • T° minimale de l’eau = 20°C (g)

4. Calculer le déplacement parallèle

Température de l’eau pour une pente égale à 1,9, le point pivot de base du régulateur [20°, 20°] et une température de non chauffage égale à 15° = (g) + [(f) – (c)] x (e) = 20° + [20° – 15°] x 1,9 = 29,5 (h)
Déplacement parallèle = (d) – (h) = 35° – 29,5° = 5,5° (i).

Calculs

Déterminer votre propre réglage.

Situation 2 – Ajustement en mi-saison

Au printemps et en automne, les occupants des locaux nord se plaignent unanimement : il fait trop froid !

Monsieur M. décide donc de rehausser la température de l’eau du circuit nord durant l’entre-saison. Pour cela, il revoit progressivement le déplacement parallèle à la hausse tout en rectifiant simultanément la pente de la courbe.

1. Connaître les réglages actuels

Avant toute modification, Monsieur M. prit soin de noter les paramètres de réglage existant du régulateur.

  • Pente = 1,9 (a)
  • Déplacement parallèle = 5,5° (b)

2. Définir le nouveau déplacement parallèle

  • Nouveau déplacement parallèle = 10° (c)

3. Connaître le point pivot de base du régulateur

  • T° extérieure de non chauffage = 20° (d)
  • T° minimale de l’eau = 20° (e)

4. Connaître la température extérieure minimum de base

  • Température de base = – 9° (f)

5. Calculer la nouvelle pente

Pente = [(b) – (c)] / [(d) – (f)] + (a) = [5,5° – 10°] / [20° – (- 9°)] + 1,9 = 1,7 (g)

Calculs

Déterminer votre propre réglage.

Situation 3 – Ajustement en hiver

L’hiver venu, les plaintes se multiplient, de façon uniforme dans les locaux orientés au sud: il fait trop chaud, même en absence d’ensoleillement.

Il s’agit donc de diminuer la pente de la courbe de chauffe de ce circuit.
Plusieurs abaissements successifs sont nécessaires pour arrêter la gronde des occupants. La pente est ramenée à 1,4.

Calculs

Déterminer votre propre réglage.

Situation 4 – Isolation de l’enveloppe

Récemment, un programme de rénovation des châssis de la façade nord est entrepris. On passe de simples vitrages à des doubles vitrages.

Les besoins en énergie de l’aile devenant moindres, la température de l’eau du circuit nord peut être abaissée.

1. Connaître les paramètres de l’actuelle courbe de chauffe

  • Pente actuelle = 1,7 (a)
  • Déplacement parallèle actuel = 10° (b)

2. Connaître le point pivot de base du régulateur

  • T° extérieure de non-chauffage = 20° (c)
  • T° minimale de l’eau = 20° (d)

3. Déterminer la température moyenne de l’eau en plein hiver avant rénovation

  • Température de base = – 9° (e)
  • T° de l’eau de départ en plein hiver = (b) + (d) + (a) x [(c) – (e)] = 10° + 20° + 1,7 x [20° – (- 9°)] = 80° (f)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

T° moyenne de l’eau = 71° (g)

 4. Connaître le facteur d’émission des corps de chauffe

T moy eau – T amb
0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79

0,81

0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Facteur d’émission des corps de chauffe courants en fonction de la différence (T° moyenne de l’eau – T° ambiante).

Exemple : si Tmoyenne = 71°C, Tambiante = 20°C, Tmoyenne – Tambiante = 51°C (= 50°C + 1°C), f = 0,81

Différence de température corps de chauffe – ambiance intérieure = (g) – 20° = 71° – 20° = 51° (h)
Facteur d’émission des corps de chauffe avant rénovation = 0,81 (i)

5. Déterminer le pourcentage de réduction des déperditions d’un local suite aux rénovations

Réduction des déperditions = 0,3 (j)

Bureau Rénovation Réduction des déperditions
Classique Double vitrage 30 à 40 %
Sous toiture Isolation 55 à 65 %
Sous combles Isolation 30 à 40 %

 6. Déterminer la température moyenne de l’eau dans le corps de chauffe

Nouveau facteur d’émission = (i) x [1 – (j)] = 0,81 x (1 – 0,3) = 0,57 (k)

T moy eau – T amb

0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79 0,81 0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Différence de température corps de chauffe – ambiance intérieure (suivant le tableau ci-dessus) = 39° (=30° + 9°) (l)

7. Déterminer la température de départ de l’eau pour la température de base

Température moyenne de l’eau du corps de chauffe = (l) + 20° = 39° + 20° = 59° (m)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

Température de départ de l’eau en plein hiver = 66° (n)

Calculs

déterminer votre propre réglage.

Machine frigorifique à compression [Climatisation]

Machine frigorifique à compression


L’installation frigorifique, vue de l’extérieur

Dans les installations de climatisation, la machine frigorifique permet d’évacuer vers l’extérieur la chaleur excédentaire des locaux.

En pratique, elle prépare de l’air froid ou de l’eau froide qui viendront compenser les apports de chaleur du soleil, des équipements de bureautique, des occupants,… de telle sorte que le bilan chaud-froid soit à l’équilibre et que la température de consigne soit maintenue dans les locaux.

La technique la plus simple consiste à préparer de l’air froid qui sera diffusé via des gaines de distribution.

Distribution de l’air froid dans le bâtiment.

Traitement de l’air dans des caissons de climatisation.

Pour le groupe frigorifique, on distingue deux modes principaux d’action :

  • Soit le fluide frigorigène refroidit l’air en passant directement dans la batterie de refroidissement : on parle de « système à détente directe » parce que l’évaporateur de la machine frigorifique prend la place de la batterie de froid dans le caisson de climatisation.

Réfrigération « à détente directe ».

  • Soit l’installation frigorifique prépare de l’eau froide à …6°C… (généralement appelée « eau glacée »), eau qui alimentera la batterie de refroidissement du caisson de traitement d’air.

Réfrigération par circuit d’eau glacée.

Mais le transport de froid par l’air est très coûteux à l’investissement (gainage).

À titre d’exemple, comparons l’encombrement demandé pour le transfert de 10 kW de froid :

Transport par air Transport par eau
Delta T° : 9°C (de +16° pulsé à +25°C d’ambiance, par ex.) Delta T° : 5°C ( boucle d’eau glacée au régime 7° – 12°C, par ex.)
Débit d’air : 3 270 m³/h Débit d’eau : 1,72 m³/h
Vitesse : 15 m/s Vitesse : 0,8 m/s
Section de gaine : 300 x 220 mm ( ou Ø 300 mm) Diamètre de conduite : Ø 40 mm

De plus, à l’exploitation, la consommation des ventilateurs représente de 10 à 30 % de l’énergie transportée contre 2 % pour la consommation des pompes de circulation.

Circuit d’eau glacée pour l’air neuf et les ventilo-convecteurs.

Aussi, on rencontre souvent des installations où le refroidissement des locaux est principalement assuré par de l’eau glacée alimentant les batteries froides des ventilo-convecteurs.

Un complément de froid peut être donné par le rafraîchissement de l’air neuf de ventilation.

Bien sûr, « produire du froid » sous-entend évacuer de la chaleur. Aussi, à l’extérieur du bâtiment, souvent en toiture, on trouvera un équipement chargé de refroidir.

  • soit le fluide frigorigène directement : c’est le condenseur de l’installation frigorifique.
  • soit de l’eau, qui elle-même sert à refroidir le fluide frigorigène : c’est la tour de refroidissement.

On distingue trois types de tour :

La tour ouverte

l’eau est pulvérisée devant un ventilateur et le refroidissement est alors renforcé par la vaporisation partielle de cette eau (la chaleur de la vaporisation est « pompée » sur la goutte d’eau qui reste et qui donc se refroidit). Après refroidissement, cette eau sera conduite vers un condenseur à eau se trouvant près du compresseur.

Schéma principe tour ouverte.

La tour fermée
l’eau venant du condenseur reste à l’intérieur d’un circuit tubulaire fermé, mais se fait « arroser » par un jet d’eau de refroidissement. Cette eau s’évaporant partiellement, sera également fortement refroidie. Mais cette fois, l’eau qui a été au contact de l’air extérieur (son oxygène et ses poussières), n’est plus en contact direct avec le condenseur à eau évitant de bien pénibles ennuis de corrosion…

Schéma principe tour fermée.

Le dry cooler
il s’agit d’une tour fermée, que l’on n’arrose pas, que l’on refroidit simplement par l’air extérieur pulsé par des ventilateurs. Cette batterie d’échange convient en toute saison, puisque en ajoutant un antigel (type glycol), elle est insensible au gel. Elle n’est pas aussi performante que les précédentes puisque la température de refroidissement est limitée à la température de l’air extérieur…

Pour davantage d’informations :

Techniques

Pour connaître la technologie des condenseurs et des tours de refroidissement, cliquez-ici !

L’installation frigorifique, vue de l’intérieur

Le transfert de chaleur, entre intérieur et extérieur, ne peut se faire que si un équipement rehausse le niveau de température entre le milieu où la chaleur est prise (air ou eau) et le milieu où la chaleur est évacuée (air extérieur) : c’est le rôle de la machine frigorifique.

Elle se compose au minimum des 4 éléments suivants :

  • 1 évaporateur
  • 1 condenseur
  • 1 compresseur
  • 1 organe de détente

Voici le fonctionnement de chacun de ces composants.

Tout est basé sur les propriétés physiques du fluide frigorigène

La machine frigorifique est basée sur la propriété des fluides frigorigènes de s’évaporer et de se condenser à des températures différentes en fonction de la pression.

Pour expliquer le fonctionnement, nous prendrons les caractéristiques du R 22 parce c’est le fluide le plus couramment utilisé en climatisation. Mais ce n’est plus celui que l’on choisira dans les installations nouvelles.

A la pression atmosphérique :

Le R22 est liquide à – 45°C et se met à « bouillir » aux alentours de – 40°C.

>  Si du fluide R 22 à -45°C circule dans un serpentin et que l’air à 20° C passe autour de ce tuyau, l’air se refroidira : il cédera sa chaleur au fluide qui lui s’évaporera. C’est le rôle de l’évaporateur de la machine frigorifique.

A la pression de 13 bars :

cette fois, le R 22 ne va « bouillir » qu’à 33°C. Autrement dit, si de la vapeur de fluide à 13 bars et à 65°C circule dans un serpentin et que de l’air à 20° C passe autour de ce tuyau, le fluide se refroidira et à partir de 33°C, il se liquéfiera, il se condensera. En se condensant, il va libérer énormément de chaleur. C’est le rôle du condenseur de la machine frigorifique.

> Si l’on souhaite donc que le fluide puisse « prendre » de la chaleur : il doit être à basse pression et à basse température sous forme liquide, pour lui permettre de s’évaporer.

>  Si l’on souhaite qu’il puisse céder sa chaleur : il doit être à haute température et à haute pression, sous forme vapeur, pour lui permettre de se condenser.

Pour réaliser un cycle dans lequel de la chaleur est extraite d’un côté et donnée de l’autre, il faut compléter l’installation par 2 éléments :

  1. Le compresseur, qui comprime le gaz en provoquant l’augmentation de température jusqu’à + 65°C.
  2. Le détendeur, qui, au départ d’un fluide à l’état liquide, « lâche » la pression : le fluide se vaporise partiellement et donc se refroidit. Le liquide retombe à la température de – 40°C (bien sûr, on choisira – 40°C pour faire de la congélation, et entre 0°C et + 5°C pour de la climatisation).

Si ces différents équipements sont bouclés sur un circuit, on obtient une machine frigorifique.

En pratique, suivons le parcours du fluide frigorigène dans les différents équipements et repérons le tracé de l’évolution du fluide frigorigène dans le diagramme des thermo-dynamiciens, le diagramme H-P, enthalpie (ou niveau d’énergie) en abscisse et pression en ordonnée.

Dans l’évaporateur

Le fluide frigorigène liquide entre en ébullition et s’évapore en absorbant la chaleur du fluide extérieur. Dans un deuxième temps, le gaz formé est encore légèrement réchauffé par le fluide extérieur, c’est ce qu’on appelle la phase de surchauffe (entre 7 et 1).

Fonctionnement de l’évaporateur.

Dans le compresseur

Le compresseur va tout d’abord aspirer le gaz frigorigène à basse pression et à basse température (1). L’énergie mécanique apportée par le compresseur va permettre d’élever la pression et la température du gaz frigorigène. Une augmentation d’enthalpie en résultera.

Fonctionnement du compresseur.

Dans le condenseur

Le gaz chaud provenant du compresseur va céder sa chaleur au fluide extérieur. Les vapeurs de fluide frigorigène se refroidissent (« désurchauffe »), avant l’apparition de la première goutte de liquide (point 3). Puis la  condensation s’effectue jusqu’à la disparition de la dernière bulle de vapeur (point  4). Le fluide liquide peut alors se refroidir de quelques degrés (sous-refroidissement) avant de quitter le condenseur.

Fonctionnement du condenseur.

Dans le détendeur

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Fonctionnement du détendeur.

Fonctionnement complet

Le cycle est fermé, le fluide frigorigène évolue sous l’action du compresseur dans les quatre éléments constituant la machine frigorifique.

Cycle frigorifique élémentaire.

L’ensemble du cycle peut être représenté dans le diagramme enthalpie-pression. Sous la courbe en cloche se situent les états de mélange liquide-vapeur; à gauche de la cloche, le fluide est à l’état liquide (il se « sous-refroidit »), à droite, le fluide est à l’état vapeur (il « surchauffe »).

Diagramme enthalpique du cycle frigorifique.


Un fonctionnement de la machine frigorifique en équilibre permanent

Le cycle réel de fonctionnement d’une machine frigorifique se stabilise à partir des températures du milieu qu’il faut refroidir, de l’air extérieur où la chaleur est rejetée, et des caractéristiques dimensionnelles de l’appareil.

Ainsi, la température d’évaporation se stabilisera quelques degrés en dessous de la température du fluide refroidi par l’évaporateur. De même, la température de condensation se stabilisera quelques degrés au-dessus de la température du fluide de refroidissement du condenseur.

Or, les besoins de froid évoluent en permanence et la température extérieure varie toute l’année !

Tout cela va bien sûr entraîner une modification du taux de compression et une variation de la puissance absorbée. En fonction du régime d’évaporation et de condensation, le compresseur aspirera un débit masse plus ou moins grand de fluide frigorigène définissant ainsi la puissance frigorifique à l’évaporateur et calorifique au condenseur.

Exemple

Afin d’imaginer ces évolutions, partons d’un cas concret.

Évaporateur

Évolution des fluides dans l’évaporateur.

La boucle d’eau glacée fonctionne au régime 5°-11°. L’échange de chaleur s’effectue en deux phases :

  • ébullition du fluide
  • surchauffe des vapeurs

La température d’évaporation qui s’établit est de 0°C. Dans le cas du R22, ceci correspond à une basse pression de 4 bar (lecture du manomètre), soit 5 bar absolu (comparé au vide).

Condenseur

Évolution des fluides dans le condenseur.

Le condenseur est directement refroidi par l’air extérieur. Supposons que celui-ci entre à 30°C dans le condenseur. L’échange de chaleur s’effectue en trois phases :

  • désurchauffe des gaz chauds provenant du compresseur,
  • condensation du fluide,
  • sous-refroidissement du liquide.

La température de condensation qui s’établit est de 40°C. Dans le cas du R 22, ceci correspond à une haute pression de 14,5 bar, soit 15,5 bar absolu.

Analysons le comportement du compresseur sur base des caractéristiques nominales données par le fournisseur.

Extrait d’un catalogue de compresseurs.

On constate que pour une température d’évaporation de 0°C et pour une température de condensation de 40°C,

  • la puissance électrique absorbée par le compresseur sera de 6,3 kW
  • la puissance frigorifique donnée à l’évaporateur sera de 21,9 kW

Remarque : en réalité, une adaptation de quelques pour cent devrait avoir lieu car le constructeur fournit des indications pour un fonctionnement normalisé de son appareil (surchauffe de 0K, sous-refroidissement de 25 K selon DIN 8928 et bientôt la CEN) mais ceci dépasse la portée de ces propos.

Supposons à présent que le condenseur soit mal entretenu. L’échange de chaleur se fait moins bien, la température au condenseur augmente, le compresseur va travailler davantage et va augmenter la pression de sortie des gaz. Une nouvelle température de condensation va se mettre en place : supposons qu’elle atteigne une température de 50°C. Comme la température du liquide s’élève à l’entrée du détendeur, la température d’évaporation s’élève également de 1 ou 2°. Le diagramme constructeur prévoit une augmentation de la puissance électrique absorbée : 7 kW, pour une puissance frigorifique diminuée : 18,2 kW…

Le « rendement » de la machine s’est dégradé :

> AVANT : (21,9 kW produits) / (6,3 kW absorbés) = 3,5.

> APRES : (18,2 kW produits) / (7 kW absorbés) = 2,6.

On dira que « l’efficacité énergétique » de la machine frigorifique a diminué de 25 %. À noter que l’on serait arrivé au même résultat si la température extérieure s’était élevée de 10°.


Plusieurs régulations imbriquées dans la machine frigorifique

On peut voir la machine frigorifique comme un ensemble d’équipements, réunis par le réseau de fluide frigorigène et régulés chacun en poursuivant divers objectifs en parallèle.

Adapter la puissance fournie à la puissance requise : la régulation du compresseur

Une machine frigorifique est dimensionnée pour vaincre les apports thermiques maximum (ciel bleu, soleil éclatant et 32°C de température, par exemple). Elle est donc la plupart du temps sur-puissante. Il faut donc pouvoir adapter la puissance frigorifique du compresseur à la charge partielle réelle.

Diverses techniques de régulation du compresseur sont possibles :

  • arrêter le compresseur par « tout ou rien » ou par étages,
  • réduire sa vitesse de rotation,
  • le mettre partiellement hors service (décharge de cylindres,…),
  • prévoir un bypass refoulement-aspiration,
  • obturer l’orifice d’aspiration,

Limiter la pression maximale à la sortie du compresseur : le pressostat HP

La plus importante partie d’une installation frigorifique est sans aucun doute le compresseur. Il doit maintenir la quantité nécessaire d’agent frigorifique en circulation; il opère ainsi donc comme une pompe. La pression différentielle entrée-sortie est très importante et, selon le point de travail et le fluide frigorifique, elle se situe entre 5 et 20 bar, environ.

Imaginons une panne du ventilateur du condenseur ou une période de forte chaleur de l’air extérieur. Le refroidissement des gaz chauds dans le condenseur est insuffisant, la température à l’évaporateur va augmenter, la pression à l’entrée du compresseur augmente. Le compresseur pourrait alors développer une pression de sortie supérieure au niveau permis. Afin de protéger l’installation, il est prévu sur cette partie Haute Pression (HP) un pressostat qui déclenche le moteur d’entraînement lorsque la pression dépasse le niveau maximal permis par le constructeur.

Limiter la pression minimale à l’entrée du compresseur : le pressostat BP

La basse pression avant le compresseur est également surveillée. Par exemple, en cas de demande de froid insuffisante à l’évaporateur, la chaleur d’évaporation transmise au fluide frigorifique n’est pas suffisante. Cela conduit à une diminution de la pression du côté basse pression du compresseur avec pour conséquence une diminution de la température d’évaporation ainsi que le givrage de la batterie de froid ou le gel de l’eau glacée.

Or quand une batterie givre, le coefficient d’échange diminue, la température d’évaporation diminue encore et le phénomène s’accélère. C’est pourquoi la basse pression est contrôlée et le compresseur est déclenché par le pressostat BP lorsque la Basse Pression descend en dessous d’une valeur minimale. Ainsi, en cas de fuite de réfrigérant, il est important de faire déclencher le compresseur, autrement il tournera sans réfrigérant et se détériorera en très peu de temps. Normalement la pression dans l’évaporateur est largement supérieure à la pression atmosphérique.

Éviter la surchauffe du moteur

Il faut éviter que la machine ne démarre et ne s’arrête trop souvent. En effet, des enclenchements répétitifs entraînent la surchauffe du moteur (le courant de démarrage est plus élevé que le courant nominal). Un temps de fonctionnement minimal est nécessaire pour évacuer cet excédent de chaleur.

Un dispositif, appelé « anti-court-cycle », limite la fréquence de démarrage des compresseurs et assure un temps minimal de fonctionnement.

Lubrifier le compresseur

Les pistons d’un moteur de voiture nécessitent une lubrification constante pour éviter aux anneaux de piston d’être « rongés ». Il existe le même problème dans les compresseurs frigorifiques. L’huile qui lubrifie le compresseur suit également la vapeur du fluide frigorigène et se trouve ainsi dans le système de circulation. Le technicien de service doit contrôler que l’huile retourne bien au compresseur, par la pose adéquate des tuyauteries frigorifiques, le cas échéant en incorporant un séparateur d’huile.

Lorsque le compresseur n’est pas en service, un réchauffage du carter est réalisé. En effet, en cas de faibles températures ambiantes, l’huile peut absorber un peu de vapeur du fluide frigorigène. Comme cette huile se trouve principalement dans la cuvette du carter, il peut y avoir à cet endroit une concentration importante d’agent frigorigène dans l’huile. Lorsque l’installation est mise en service, une très rapide chute de pression apparaît, l’agent frigorigène tente de se vaporiser et de se séparer de l’huile. Celle-ci commence à mousser, ce qui peut provoquer des coups de liquide et un manque d’huile dans le compresseur. Afin d’empêcher l’huile d’absorber du fluide frigorigène, la cuvette du carter est, lors du déclenchement de l’installation, réchauffée à l’aide d’une résistance électrique.

Éviter les coups de liquide réfrigérant

Le compresseur a pour fonction de comprimer un gaz. Les liquides étant pratiquement incompressibles, le compresseur sera endommagé si le réfrigérant le traverse en phase liquide plutôt que vapeur. Si le piston pousse contre un agent non compressible, il s’ensuit un « coup de liquide », et donc la casse du piston et des clapets.

Lorsque l’installation est hors service, le liquide peut s’accumuler avant le compresseur et lors du ré-enclenchement provoquer un coup de liquide. Pour éviter cela, une vanne magnétique est souvent placée avant le détendeur. La vanne magnétique se ferme lorsque l’installation est déclenchée et évite à l’agent réfrigérant de retourner à l’évaporateur. Le raccordement électrique est effectué de telle sorte que le compresseur puisse fonctionner après la fermeture de cette vanne. Le compresseur s’arrête lorsque le pressostat basse pression déclenche. Aussitôt que la pression augmente à nouveau, le processus est répété. Ce processus est parfois appelé « le pump down ».

Remarque : les coups de liquides ne concernent quasiment que les compresseurs à pistons. Les profils des vis ou des labyrinthes de Scroll peuvent s’écarter en cas d’aspiration de liquide. Et les turbocompresseurs ne sont pas des compresseurs volumétriques.


L’efficacité énergétique ou COP-froid

Un climatiseur est énergétiquement efficace s’il demande peu d’énergie électrique au compresseur pour atteindre une puissance frigorifique donnée.

En comparant les offres, on établit le rapport entre puissance frigorifique fournie et puissance électrique absorbée par le compresseur.

Exemple : voici les spécifications techniques d’un climatiseur réversible présent sur le marché.

Unité intérieure FHYB35FJ
Unité extérieure RY35D7
Puissance frigorifique kcal/h 3 100
Btu/h 12 300
kW 3,60

Puissance calorifique

kcal/h 3 500
Btu/h 14 000
kW 4,10

Puissance absorbée

rafraîchissement

kW 1,51

chauffage

kW 1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4

  • energy efficiency ratio, E.E.R

puissance frigorifique / puissance absorbée =
12,3 Btu/h / 1,5 kW
= 8,2

Et si l’on souhaite utiliser l’appareil en mode chauffage :

  • le coefficient de performance au condenseur, COPchaud

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Remarques.

  1. Il ne faut pas confondre COPfroid et COPchaud ! Le COPchaud est le rapport entre l’énergie thermique délivrée au condenseur et l’énergie électrique demandée par le compresseur (c’est un terme qui vient de l’évaluation du rendement d’une pompe à chaleur). Alors que le COPfroid part de la chaleur captée à l’évaporateur. La confusion étant fréquente, il n’est pas inutile lorsque l’on compare le rendement des machines dans les documentations de constructeurs, de vérifier ce qui se trouve derrière l’appellation COP.
  2. Il est intéressant de s’inquiéter également de l’efficacité globale de la machine frigorifique installée, c’est à dire du rapport entre le froid produit et l’ensemble de toutes les consommations électriques engendrées, y compris les ventilateurs aux échangeurs, les pompes… Une machine frigorifique, avec une efficacité excellente, placée sur le toit d’un immeuble de plusieurs étages, peut voir son efficacité fortement chuter si la machine est placée en cave et que le condenseur est refroidi via un gainage d’air traversant les étages ! La consommation du ventilateur sera importante dans le bilan final.
  3. Il est très important de se rendre compte que l’énergie mécanique des ventilateurs et des pompes se dégradera en chaleur. Cette chaleur vient en diminution de la puissance frigorifique pour les éléments du côté froid. Ce n’est donc pas seulement le COP ou l’EE qui se dégradent par la consommation électrique supplémentaire, c’est aussi la puissance frigorifique qui diminue.

Détendeurs [Climatisation]

Détendeurs [Climatisation]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement du détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Différentes technologies de détendeurs

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Photo détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).

Des économies gratuites sur la facture d’électricité

Des économies gratuites sur la facture d'électricité


Introduction

En cherchant, on peut parfois faire de belles économies d’énergie et financières sans investissement. Comme par exemple, une ventilation qui fonctionne 24h/24 alors qu’une coupure de nuit est envisageable, les circulateurs de chauffage qui tournent toute l’année alors que la chaudière est coupée à la bonne saison, des compteurs hors service dont on paye toujours une redevance, l’éclairage extérieur d’un bâtiment ou d’un parking qui reste allumé de jour comme de nuit, … C’est ce qu’a réalisé le Responsable Énergie de la Ville de Namur. Il s’est penché sur les origines des différentes consommations électriques de l’Hôtel de Ville et s’est rapidement aperçu que certaines améliorations pouvaient facilement réduire les consommations et donc la facture électrique globale.

Cette analyse date du début des années 2000 et n’effectue pas de retour sur les mesures mises en place et leur impact réel. Toutefois, même si 2016 diffère de l’époque, les mesures envisagées sont toujours valables.


Un point de départ : les ratios de consommation

Afin de se donner une idée du niveau de consommation de son bâtiment, une bonne démarche est de le comparer à la moyenne des consommations des bâtiments de même affectation en Région wallonne. On peut ainsi rapidement situer sa consommation comme étant supérieure ou inférieure à la moyenne wallonne de x kWh/m² et par an.

Évaluer

Pour situer sa consommation électrique par rapport au secteur.

Dans le cas de l’Hôtel de ville de Namur, on se situait bien au-delà de la moyenne. Une analyse fine suite à des mesures sur le terrain a permis de vérifier l’origine des consommations pour les différentes ailes et si effectivement ces kWh « excédentaires » étaient justifiés ou pas.


D’autres indicateurs

Il existe d’autres indicateurs de la bonne utilisation d’une installation électrique que l’on citera brièvement et qui ont été évalués par le Responsable Énergie dans sa démarche :

  • la puissance spécifique qui correspond à la puissance de pointe maximale annuelle sur la surface totale du bâtiment (une puissance spécifique élevée est source de consommation excédentaire);
  • la durée d’utilisation de l’installation qui se calcule en ramenant l’énergie consommée en heures pleines sur la puissance de pointe quart-horaire annuelle;
  • le rapport des consommations en heures creuses et en heures pleines.


L’analyse de terrain

Force fut de constater que la consommation électrique en heures creuses équivalait étrangement à 42% de la consommation totale. Est-il normal dans un bâtiment administratif qui n’ouvre que la journée de consommer autant la nuit ? Certes pas ! Mais qui est là pour s’en rendre compte en pleine nuit ? D’où l’importance et la nécessité d’effectuer des mesures de courant afin d’évaluer qui consomme et quand.

Résumé des modifications à apporter pour générer les économies estimées

Investissement TVAC Économie d’énergie Modif. Pointe kW Économie financière générée annuellement Temps retour brut
MWhPL MWhCR Hr.PL Hr.Cr Pointe Total
a.1 Mieux gérer l’éclairage des sanitaires et des couloirs. 0 5.5 61.5 0 423 € 3 158 € 0 3 581 € 0
a.2 Couper l’éclairage des parkings. 815 € 14 102 0 1 078 € 5 238 € 0 6 316 € 0,13 an
a.3 Horaire de l’éclairage extérieur. 0 21 0 0 1 078 € 0 1 078 € 0
a.4 Couper le transfo de 400kVA. 2.3 2.9 0 177 € 149 0 326 € 1,7 an
a.5 Couper les halogènes de l’accueil. 5.5 0.5 – 1.5 423 € 25 12 x 15 € 628 € 0
b.1 Couper l’éclairage des sanitaires et des couloirs plus tôt. 1 800 € 5.75 5.75 0 442 € 295 0 737 € 1,6 an
b.2 Éclairage manuel dans les sanitaires. 0 5 0 0 38 € 0 385 €
b.3 Couper les prises de courant durant la nuit et les week-ends. 3 755 € 12 74 0 924 € 3 800 € 0 4 724 € 0,8 an
c.1 Ballasts électroniques écl. bureaux. 50 000 € 50 0 – 20 3 850 € 0 12 x 203 € 6 286 € 8 ans
c.2 Ballasts électroniques écl. parkings. 5 000 € 6.5 1.5 – 2 500 € 77 12 x 20 € 597 € 8.5 ans

Sur base de l’analyse des mesures, des anomalies de programmation d’horloge ont été décelées comme par exemple le fonctionnement 24h/24 des ventilateurs d’extraction des parkings ainsi que leur éclairage alors qu’ils sont inaccessibles la nuit. De plus, le patio et le jardin, fermés aussi au public durant la nuit, sont illuminés alors qu’ils ne sont pas visibles depuis la voirie, dès lors une meilleure programmation de l’horloge permettrait une économie de 21 MWh par an. Également, une meilleure gestion de l’éclairage des couloirs et des sanitaires apporte des économies substantielles.

Plusieurs actions ont été finalement proposées par le Responsable Énergie qui ne manqueront pas d’interpeller les mandataires tant ces économies sont pour la plupart directes et sans investissement.

Faites le tour de vos bâtiments et vous constaterez peut être que ces consommations inutiles additionnées représentent vite quelques milliers d’euros sur une année.


En détail

Potentiel d’économie d’énergie

Si les actions a.1 à b.3 sont mises en œuvre :

  • Gain sur la facture électrique : 17 775 € / an
  • Investissement : 6 920 €
  • Temps de retour : 5 mois

Des subsides peuvent être sollicités auprès de la DGTRE (UREBA) pour ce type d’investissement.

Informations complémentaires

David GOFFIN
Responsable Énergie
Ville de Namur
Service Électromécanique
Tél : 081/248 503
Email : david.goffin@ville.namur.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Détendeurs [Froid alimentaire]

Détendeurs [Froid alimentaire]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

La régulation de la surchauffe à la sortie de l’évaporateur conditionne l’ouverture ou la fermeture du détendeur. Cette régulation « auto-adaptative » se base sur le principe que l’évaporateur a une valeur minimale de surchauffe stable qui évolue en fonction des variations de sa charge Q0. Entre d’autres termes, la valeur minimale de surchauffe stable est celle qui permet, quelle que soit la charge, de vaporiser la dernière goutte liquide du fluide frigorigène juste à la sortie de l’évaporateur.

Surchauffe minimale (source : Danfoss).

  • Si la dernière goutte de fluide est vaporisée juste avant la sortie de l’évaporateur, la surchauffe mesurée en température est élevée et ne permet pas à l’évaporateur d’évacuer la chaleur Q0 complètement et, par conséquent, le travail de l’évaporateur n’est pas optimum.
  • Si la dernière goutte de fluide est vaporisée après la sortie de l’évaporateur ou ne se vaporise simplement pas, la surchauffe mesurée en température est faible. La présence de liquide à l’aspiration du compresseur risque de l’endommager.


Différentes technologies de détendeurs

Le détendeur thermostatique

C’ est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Schéma détendeur thermostatique.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Schéma détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.
Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).


Comparaison entre les détendeurs thermostatiques et électroniques

La régulation des détendeurs est surtout liée à leur technologie : jusqu’il y a peu, la technologie vraiment éprouvée était le détendeur thermostatique.

À l’heure actuelle, la plupart des installations de petite à moyenne puissance utilisent encore cette technologie. La régulation du débit d’alimentation de l’évaporateur et, par conséquent, de la surchauffe obéit à une loi proportionnelle en fonction de la charge frigorifique demandée à l’évaporateur.

Le détendeur thermostatique

Lorsqu’un détendeur thermostatique est utilisé pour réguler l’injection de fluide frigorigène, il réagit de manière linéaire en fonction de la demande de froid Q0.

Le réglage de l’injection de fluide réfrigérant au départ doit garantir une surchauffe quelle que soit la charge afin d’éviter que du fluide se retrouve en phase liquide à la sortie de l’évaporateur. Ce réglage s’effectue au niveau d’une vis agissant sur le ressort d’équilibrage de pression.

La courbe de réglage du détendeur thermostatique étant une droite proportionnelle à la différence entre les températures mesurées par le bulbe à la sortie de l’évaporateur et la température d’évaporation (traduite par la pression régnant en sortie du détendeur), pour garantir la surchauffe, elle doit se situer à droite (en bleu) de la courbe de surchauffe minimale stable (en rouge). Dans ces conditions, la surchauffe est garantie, mais exagérée se traduisant par :

  • une efficacité de l’évaporateur réduite pour certaines charges;
  • une durée de marche accrue du compresseur pour conserver la température souhaitée à l’évaporateur; d’où une augmentation de la consommation énergétique.

À l’inverse, un réglage trop à gauche de la courbe de surchauffe minimale (en noir) provoque un fonctionnement de l’évaporateur en surchauffe insuffisante et risquerait d’être dommageable pour le compresseur à certaines charges (liquide présent à la sortie de l’évaporateur).

Le détendeur électronique

Les nouvelles technologies permettent de suivre au plus près la courbe des valeurs minimales de surchauffe stable en associant des détendeurs électroniques à des régulateurs analogiques ou digitaux. Le schéma suivant montre une régulation électronique optimisée qui assure en permanence un bon remplissage de l’évaporateur. On remarquera que la régulation assure toujours que le fluide reste bien vaporisé dans l’évaporateur en évitant d’envoyer du liquide au niveau du compresseur (on reste à droite de la courbe).

À l’heure actuelle, les fabricants de régulateurs y arrivent facilement par le développement d’algorithmes sophistiqués prenant en compte les différents types de fluide frigorigène indépendamment des caractéristiques initiales de l’évaporateur et de leur évolution en fonction de la charge. Comme le montre la figure ci-dessus, le régulateur calcule l’ouverture du détendeur en fonction :

  • de la température en sortie de l’évaporateur (capteur de température par contact sur la tuyauterie);
  • de la pression d’évaporation (capteur de pression sur la conduite d’aspiration du compresseur) traduite en température d’évaporation par le régulateur.

La différence entre ces deux valeurs représente la valeur réelle de la surchauffe et est comparée à la courbe de surchauffe minimale.

Classement énergétique de plusieurs bâtiments : cadastre énergétique

Classement énergétique de plusieurs bâtiments : cadastre énergétique


Bâtiment prioritaire ou mesure prioritaire ?

Après avoir relevé et normalisé les consommations de chauffage des différents bâtiments du parc, il est classique de sélectionner celui qui sera prioritaire en terme d’amélioration. C’est l’objet de la méthode du cadastre énergétique ci-dessous. Elle sélectionnera le bâtiment à auditer ou à faire auditer par un spécialiste.

Mais il est peut-être utile de prendre en considération les alternatives ci-dessous:

Alternative 1 : plutôt que de se focaliser sur un seul bâtiment, il est possible de décider d’actions transversales prioritaires, c.-à-d. de mesures très rentables qui seront appliquées à tous les bâtiments en parallèle. Par exemple, appliquer toutes les mesures « + + + + » du classement des mesures les plus rentables.

Évaluer

Pour repérer les mesures les plus rentables.

Alternative 2 : à défaut de pouvoir réaliser un audit du bâtiment, ou en plus de cette démarche, il est possible d’intégrer dans le cahier des charges de la société de maintenance les mesures qui sont les plus rentables et de son ressort.

Gérer

Pour repérer les améliorations de la maintenance des installations.

Le cadastre énergétique

Le cadastre énergétique permet de classer différents immeubles d’un patrimoine en fonction de leur qualité énergétique et donc de l’urgence d’entreprendre des interventions URE.

Tout dernièrement, sur l’impulsion de la Région wallonne, les Facilitateurs URE de Wallonie ont crée un modèle de cadastre énergétique mis a disposition en ligne pour les communes et institutions désireuses de suivre et gérer leur consommations.

Calculs

Pour accéder au cadastre énergetique Facilitateurs URE.

Méthode simplifiée

Si le calcul ne doit pas faire l’objet d’une réglementation, une méthode simplifiée est accessible :

  1. On divisera la consommation de chaque bâtiment par sa surface chauffée, exprimée en m². Le ratio en kWh/m² le plus élevé sera l’indice du bâtiment le plus « mauvais » sur le plan énergétique. Au passage, on pourra alors déjà se comparer aux consommations du secteur.
  2. Il se peut que le plus mauvais bâtiment… soit très petit, et que donc le potentiel d’économie d’énergie soit faible. Il sera alors plus opportun d’attaquer d’abord un bâtiment d’un peu meilleure qualité, mais dont la consommation importante amortira beaucoup mieux les investissements (un appareil de régulation représente le même investissement dans un petit bâtiment que dans un grand). Dans ce but, on multiplie le ratio trouvé précédemment par la consommation du bâtiment. On fait donc (consommation /surface chauffée) x consommation, exprimé en [kWh²/m²]. Le plus grand nombre trouvé est sans signification, mais c’est celui dont le potentiel d’économie d’énergie est le plus grand.

Ancienne méthode portant sur l’indice énergétique E et ECaPi

Cette méthode n’est plus appliquée, mais reste interessante dans son approche.  Elle est plus rigoureuse que la méthode simplifiée et tente d’approcher au plus près la performance énergétique exacte d’un bâtiment.

Dans cette méthode, deux critères vont mettre en évidence les immeubles les plus déficients :

  • l’indice énergétique E,
  • l’indice énergétique pondéré ECaPi.

L’indice énergétique E

L’indice E est un critère estimatif de la qualité énergétique d’un immeuble.

Un indice E élevé est donc le reflet, soit d’une enveloppe thermique mal isolée et peu étanche, soit d’une installation de chauffage défectueuse, soit encore de la présence simultanée des deux phénomènes.
Il devrait donc être donné par un ratio du type :

E = kglm / ηexpl.

où,

  • ηexpl. = rendement saisonnier de l’installation (en décimales).

Plus l’enveloppe est une passoire, plus kglm est élevé. Plus l’installation de chauffage est défectueuse, plus ηexpl. diminue. Dans les deux cas, E augmente.

Hélas, un tel calcul semble complexe puisque ces valeurs sont inconnues et difficiles à mesurer…

Astuce ! on peut retrouver ce même ratio en partant de données beaucoup mieux maîtrisées. En effet, l’indice E peut aussi être calculé par la formule suivante :

   Consommation x PCI
E =  
Se x ΔT°m x durée saison

dont les différents coefficients sont connus :

Consommation =

Consommation annuelle en unités physiques de combustible (m³ de gaz, litre de fuel,…). Idéalement, on prendra la moyenne sur trois années consécutives des consommations normalisées (c’est-à-dire ramenées à un climat type moyen).

PCI  =

Pouvoir Calorifique Inférieur du combustible, exprimé en Wh par unité de combustible.

Se  =

Surface extérieure de l’enveloppe du bâtiment (attention, c’est bien la surface totale des façades extérieures, du  plancher et de la toiture et non la surface au sol du bâtiment).

Δm  =

T°IntMoy – T°ExtMoy = écart entre la température moyenne intérieure du bâtiment, et la température extérieure moyenne du lieu.

Durée saison  =

Durée de la saison de chauffe = du 15 septembre au 15 mai = 242 jours x 24 h/j =± 5 800 h.

À noter que le produit : Δx durée saison, peut encore se calculer par la méthode des « degrés-jours corrigés », pour arriver au même résultat.

A quelle valeur de E s’attendre ?

Pour le coefficient kglm, k global moyen d’une enveloppe (y compris la ventilation du bâtiment), on peut s’attendre aux valeurs suivantes :

  • valeur souhaitable : kmoy < 1,2 W/m²K
  • valeur relativement élevée : 1,2 < kmoy < 1,7 W/m²K
  • valeur élevée : kmoy > 1,7 W/m²K

Pour le rendement d’exploitation saisonnier :

  • valeur actuelle pour un bâtiment performant : ηexpl > 0,8
  • valeur moyenne : 0,7 < ηexpl < 0,8
  • valeur basse : ηexpl < 0,6

Dès lors, E varie de 1,5 à 4 :

1,5

pour un bâtiment dont système et enveloppe ne posent pas de problème énergétique,

4

pour un bâtiment où diverses actions doivent être entreprises, tant sur le système que sur l’enveloppe.

L’indice énergétique pondéré ECaPi

Faut-il forcément investir dans un immeuble ayant un indice E élevé (donc très mauvais) ?

Si la consommation du bâtiment est faible, non. Un immeuble présentant un indice E plus moyen mais une consommation importante sera sans doute prioritaire !

Aussi, un deuxième classement est possible, basé sur le produit de l’indice E pondéré par la consommation annuelle. C’est l’indice ECaPi. Un indice ECaPi élevé est le reflet d’un potentiel d’économie d’énergie important.

ECaPi = E x Consommation x PCI

où la consommation est exprimée en unité de combustible.

À titre d’exemple : économiser 50 % d’énergie dans un immeuble consommant 10 000 l de fuel par an est plus difficile que d’économiser 15 % dans un immeuble consommant 50 000 l de fuel par an ! Et en plus, le gain financier est plus important dans le deuxième cas.

Il s’agit donc d’un critère quantitatif d’aide à la décision.


Un exemple

Soit deux bâtiments de bureaux, situés dans le Brabant, que l’on souhaite classer :

Cons. 125 067 litres 40 020 litres
Se 14 376 m² 3 200 m²
T°Int Moy  20°C – 3°C – 3°C = 14°C 20°C – 3°C – 3°C = 14°C
E 125 067 l x 9 950 Wh

14 376 m² x (14°C – 6,5°C) x 5 800 h= 2,0
40 020 l x 9 950 Wh

3 200 m² x (14°C – 6,5°C) x 5 800 h= 2,9
ECaPi 2,0 x 125 067 x 9 960 = 2,5 10 (exposant 9) 2,9 x 40 020 x 9 960 = 2,2 10 (exposant 9)

Conclusion : le premier bâtiment est thermiquement meilleur que le deuxième, mais le potentiel d’énergie récupérable y est plus important.

Études de cas

Pour parcourir l’exemple du cadastre énergétique des bâtiments du CBTJ, cliquez ici !

Plus de détails sur l’écart de température T°Int Moy-T°Ext Moy

La température intérieure moyenne équivalente T°Int Moy

Int Moy =

  • La température intérieure équivalente du bâtiment sur la saison de chauffe.
  • La température moyenne des locaux en journée  réduction pour les coupures de nuit et de week-end  réduction pour les apports gratuits.

La réduction pour les coupures (nuits, W.E., congés scolaires) est donnée approximativement dans le tableau suivant :

Hôpitaux, homes, maisons de soins

0°C

Immeuble d’habitation avec réduction nocturne

2°C

Bâtiments administratifs, bureaux

3°C

Écoles avec cours du soir

4,5°C

Écoles sans cours du soir et de faible inertie thermique

6°C
(Remarque : nous devrions écrire 2 K (2 Kelvins) pour respecter les conventions d’écriture en matière d’écart de température, mais nous tenons surtout à conserver nos lecteurs !)

La réduction pour les apports « gratuits » (équipements internes, personnes, soleil, …) est estimée en moyenne entre 2 et 3°C dans les anciens bâtiments. Elle peut être nettement plus élevée dans les bâtiments récents, bien isolés.

Cette réduction doit donc être adaptée en fonction des caractéristiques physiques du bâtiment : elle doit être augmentée si l’inertie thermique et l’isolation sont fortes et les apports internes sont grands (ordinateurs, éclairage, occupation, …), et diminuée si le bâtiment est peu vitré, par exemple.

Application

Prenons des bureaux maintenus à 20°C durant la journée, la température intérieure moyenne choisie pour les calculs sera de :

20°C – 3°C  – 3°C = 14°C

Attention ! Cette température intérieure équivalente est fictive. En réalité, elle est bien de 17°C mais 3°C sont « fournis » par les apports « gratuits » et ne sont donc pas comptabilisés dans la facture de chauffage (à noter que les apports des appareils électriques sont payés… mais sur une autre facture). Les 14°C constituent donc une température équivalente fictive pour dimensionner la chaleur « consommée ».

La température extérieure moyenne équivalente T°Ext Moy

Ext Moy est la température extérieure moyenne équivalente durant la saison de chauffe. Voici sa valeur entre le 15 septembre et le 15 mai pour quelques endroits de notre région :

Uccle 6,5°C
Hastière 5,5°C
Libramont 3,5°C
Mons 6°C
Saint-Vith 2,7°C

Cette température est obtenue via la valeur des degrés-jours 15/15 du lieu, divisée par la durée standardisée de la saison de chauffe (242 jours, du 15 septembre au 15 mai).

Exemple.

Pour Uccle :

  • Degrés-jours 15/15 = 2 074 D°J,
  • 2 074 / 242 jours = 8,5°C -> l’écart moyen de la température extérieure est donc de 8,5°C par rapport à 15 °C,
  • La température extérieure moyenne est donnée par : (15°C – 8,5°C) = 6,5°C.

Plus de détails sur la méthode de calcul

Comment est-on passé de :

E = kglm / ηexpl.

Vers

   Consommation x PCI
E =     
se x ΔTx durée saison

Il faut repartir de l’évaluation de la consommation d’un bâtiment.
Décomposons :

Consommation en Wh =

Consommation en unités physiques (litres, m³,…) x PCI du combustible

Qu’est-ce que la consommation en unités physiques ?

Consommation en unités physiques =

Puissance moyenne de chauffe x durée saison de chauffe / Rendement saisonnier installation

Or la puissance moyenne de chauffe est donnée par :

Puissance moyenne de chauffe =

Puissance moyenne des pertes par les parois + Puissance moyenne des pertes par ventilation

où :

  • Puissance moyenne des pertes par les parois =

ks x Se x (T°Int Moy – T°Ext Moy )

  • Puissance moyenne des pertes par ventilation =

0,34 xβ x Volume du bâtiment x (T°Int Moy – T°Ext Moy )

où :

  • β est lui-même le taux de renouvellement d’air horaire du bâtiment et 0,34 correspond à la capacité volumique de l’air (0,34 Wh/m³.K).

Si l’on appelle « ΔTm » l’écart moyen entre intérieur et extérieur et « kglm » le coefficient global moyen de déperdition du bâtiment :

kglm = (KSe + 0,34 x β x V)/ Se

On peut alors avoir l’expression de la consommation sous la forme :

Consommation x PCI = kglm x Se x ΔTm x durée saison / ηexpl

En regroupant les termes plus faciles à déterminer du même côté de l’équation, on isole le ratio des deux termes difficiles à connaître et caractéristiques de la mauvaise performance du bâtiment :

Consommation x PCI / Se x ΔTm x durée saison = kglm / ηexpl = E

Ce qu’il fallait démontrer !


Une variante sur base des Degrés-Jours Pondérés

Il est possible de remplacer le produit Δx durée de la saison de chauffe par la valeur des degrés-jours pondérés x 24 h. C’est la méthode officielle préconisée par l’Université de Mons-Hainaut.

Exemple :

Prenons un immeuble de bureaux maintenu à 20°C durant la journée, la température intérieure moyenne choisie pour les calculs est de

20°C – 3°C  – 3°C = 14°C 

Imaginons qu’il soit situé à Mons, la température extérieure moyenne sera de 6°C.

Le produit « ΔT°x durée de la saison de chauffe » sera de :

(14° – 6°) x 5 800 h = 46 400 D°h

Soit encore (en divisant par 24 h) :

1 933 D°J x 24 h

Dans le cadre du programme de subventions UREBA, l’Université de Mons-Hainaut propose une série de degrés-jours pondérés en fonction du lieu et du type d’activité.

C’est pour cela que l’indice E exprimé ci-dessus :

     Consommation x PCI
E =    
     Se x ΔT°x durée saison

Peut-être encore donné sous la forme :

     Consommation x PCI
E =     
     Se x Degrés-Jours pondérés x 24

Ou encore, si le PCI est exprimé en Joules :

     Consommation x PCI
E =    
     Se x Degrés-Jours pondérés x 24 x 3 600

Découvrez ces exemples de cadastre énergétique des bâtiments : le Centre belge du Tourisme des Jeunes (actuellement Kaleo), les bâtiments de la Ville de Chimay et les bâtiments de la Ville de Mons.

Choisir l’étanchéité [isolation de la toiture plate]

Membranes bitumineuses bicouches

Toutes les membranes bitumineuses utilisées seront toujours du type bitume amélioré APP ou SBS.

Les deux produits sont équivalents en qualité. Les membranes APP résistent mieux à la chaleur, mais sont plus difficiles à poser par temps froid. Les membranes SBS doivent être protégées des rayonnements UV (généralement par des paillettes d’ardoise).

Il existe des membranes bitumineuses, dont le comportement au feu est amélioré.

Les systèmes multicouches offrent plus de garanties en cas d’erreur de mise en œuvre au niveau de l’assemblage des lés.

La plupart des entreprises spécialisées dans la pose d’étanchéités bitumineuses sont capables de poser correctement une étanchéité multicouche (par opposition à une étanchéité monocouche).

Lorsque le bâtiment doit être mis à l’abri alors qu’il n’est pas encore achevé, et que la toiture risque d’être abîmée par la fin des travaux, le système multicouche offre la possibilité de protéger provisoirement le bâtiment avec la première couche, et de n’achever le travail par la pose de la dernière couche, que lorsque le bâtiment est complètement achevé.

Lorsqu’en cas de fuite les dégâts risquent d’être très importants, on préférera une étanchéité multicouche qui présente moins de risques d’infiltration.

Si l’on perçoit qu’une rénovation ultérieure de la toiture sera difficile ou coûteuse, on optera, dès le départ, pour un système plus fiable. Une rénovation peut être rendue difficile par la présence d’une couche de protection impossible ou lourde à déplacer, des difficultés d’accès, etc.

Si pour accéder à des appareillages, il est nécessaire de circuler souvent sur la toiture, mieux vaut prévoir une étanchéité multicouche qui résiste mieux au poinçonnement accidentel.


Membranes bitumineuses monocouches

La pose d’un système monocouche requiert de l’entreprise chargée de l’ouvrage une grande expérience et une bonne formation.

Lorsqu’on souhaite un investissement minimal (tout en sachant que l’entretien après quelques années risque de nécessiter de gros frais), on peut se contenter d’une étanchéité bitumineuse monocouche.

Lorsque l’on peut contrôler facilement l’exécution des recouvrements et pratiquer un essai d’étanchéité à l’eau en mettant la toiture sous eau, on peut se contenter d’une étanchéité bitumineuse monocouche.


Membranes synthétiques

Les membranes synthétiques en hauts polymères offrent des résistances mécaniques élevées, des résistances au feu, et des résistances chimiques qui varient d’un matériau à l’autre. On choisira une membrane synthétique principalement pour ses caractéristiques particulières.

Parmi celles-ci, deux seulement sont utilisées de manière significative, un plastomère : le PVC, et un élastomère : l’EPDM.

Le comportement au feu du PVC et de l’EPDM traité « NO-FLAM » est satisfaisant.

Le prix des membranes synthétiques (suffisamment épaisses pour garantir des qualités mécaniques suffisantes) est généralement plus élevé que celui des membranes bitumineuses. Pour réduire le prix de ces membranes, on en réduit parfois l’épaisseur, ce qui les fragilise malgré leurs qualités évidentes.

Ces membranes étant monocouches, leur mise en œuvre nécessite un soin particulier. De plus, les techniques de soudage et de fixation étant particulières à chaque matériau, le personnel chargé de poser les membranes doit être formé à ces techniques et être hautement qualifié.

Certaines membranes nécessitent des conditions atmosphériques très favorables pour pouvoir être mises en œuvre.


Que faire dans certains cas ?

Type d’étanchéité
Ma toiture a des formes compliquées. oui bitumineuse
non pas de préférence
L’étanchéité est facile à remplacer en cas de problème. oui pas de préférence
non bitumineuse bicouche
On prévoit une circulation technique fréquente sur la toiture. oui bitumineuse bicouche ou synthétique épaisse
non pas de préférence
Je veux payer le moins possible. oui bitumineuse monocouche
non pas de préférence
Je peux contrôler facilement l’exécution. oui pas de préférence
non bitumineuse bicouche
Une fuite aurait des conséquences graves. oui bitumineuse bicouche
non pas de préférence
Je dispose d’un personnel qualifié et expérimenté pour réaliser la toiture. oui pas de préférence
non bitumineuse bicouche
Je dois protéger provisoirement mon bâtiment avant la fin des travaux. oui bitumineuse bicouche en deux phases
non pas de préférence
Je suis dans un environnement particulier. oui synthétique adapté
non pas de préférence
Les conditions atmosphériques risquent d’être mauvaises pendant le chantier. oui je vérifie les limites de mise en œuvre de la membrane choisie
non pas de préférence
Les risques liés à un incendie sont importants. oui synthétique ou bitumineux « ANTI-FEU »
non pas de préférence

Concevoir les détails : la trappe d’accès [isolation]

Trappe d’accès

Schéma trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.

Détails

Schéma détails isolation trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.
  5. Finition intérieure (plâtre, bois, …).
  6. Charnière.
  7. « Elément décoratif de finition ».
  8. Joint mousse synthétique.

L’isolant choisi pour être placé à l’intérieur de l’ouvrant est peu perméable à la vapeur : il s’agit d’une mousse synthétique, par exemple.

« Un élément décoratif de finition » placé entre la finition intérieure et la structure en bois de la trappe assure l’étanchéité à l’air entre ces deux éléments. Cette étanchéité est complétée par des joints de mousse synthétique.

Isoler un mur par l’intérieur

Isoler un mur par l'intérieur

Attention ! L’isolation par l’intérieur est la seule technique possible lorsque l’aspect extérieur de la façade doit rester inchangé. Cependant, cette technique d’isolation est délicate et peut engendrer des problèmes. Ainsi, beaucoup d’architectes belges l’évitent.

Les vérifications préliminaires et précautions ci-dessous permettent simplement de se mettre le plus possible du côté de la sécurité !


Vérifications et mesures préliminaires

Le mur doit être en bon état

Lorsqu’on isole un mur plein par l’intérieur, les variations de température hiver-été et au cours d’une même journée, deviennent plus importantes. Ce qui augmente les contraintes dans la maçonnerie et peut mener à des fissurations.
Si le mur est déjà fissuré, on peut s’attendre à des dégradations suite à l’apport d’une isolation par l’intérieur.

Le mur doit être sec et protégé contre toute pénétration d’eau

Le mur doit être sec et protégé de toute pénétration d’eau de pluie, protégé contre les remontées capillaires et ne plus contenir d’humidité de construction.

L’étanchéité à l’eau de pluie d’un mur plein dépend de son type et de son état.

Lorsque le mur est isolé par l’intérieur, l’eau à l’intérieur de la maçonnerie engendre les 2 désagréments suivants :

  • Vu l’abaissement de la température moyenne d’hiver d’un mur isolé par l’intérieur, le séchage est ralenti. L’humidification prolongée de la maçonnerie peut favoriser une dégradation de la maçonnerie par le gel.

   

Gel de la maçonnerie.

En outre, lorsqu’une maçonnerie humide a fait l’objet d’une intervention pour la protéger, il y a lieu d’attendre son séchage (6 mois à plusieurs années selon le type et l’épaisseur du mur) avant d’entamer son isolation par l’intérieur.

La disposition doit permettre de traiter les ponts thermiques

  • Les dormants des châssis doivent être suffisamment grands pour pouvoir prolonger l’isolant sur la partie latérale de la baie, en dessous du linteau, sous la tablette de fenêtre. À défaut, les châssis devront être remplacés. On profitera de l’occasion pour choisir des vitrages à haut rendement.
  • On doit vérifier la possibilité d’envisager une isolation du sol, du plafond et des murs de refend ou simplement une prolongation de l’isolant sur ces parois.

Le climat intérieur doit être « normal »

Le climat intérieur doit correspondre au plus à la classe III.
Dans des bâtiments de classe de climat intérieur IV, le risque de condensation à l’interface maçonnerie-isolant est trop important. Dans ce cas des précautions lourdes doivent être prises : une étude approfondie du système et de chaque détail doit être réalisée par un bureau d’étude spécialisé; un soin particulier doit être apporté à la mise en œuvre; les matériaux devront être judicieusement choisis etc.

L’inertie thermique doit être suffisante

On vérifiera que la capacité thermique des locaux reste suffisante malgré l’apport de l’isolation du côté intérieur des murs de façade.

Voici des indices d’un risque important de surchauffe en été :

Schéma indices d'un risque important de surchauffe en été.

  • Les cloisons intérieures sont en matériaux légers (ex. : plaques de plâtre sur structure en bois ou métallique).
  • Les plancher sont en bois.
  • Il y a beaucoup d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont grandes et ont une orientation autre que « Nord ».

Voici des indices d’un risque faible de surchauffe en été :

Schéma indices d'un risque faible de surchauffe en été.

  • Les cloisons intérieures sont en matériaux lourds (béton, brique, …).
  • Les plancher sont en béton.
  • Il y a peu d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont petites ou orientées au Nord.

Cependant, une faible inertie thermique peut être favorable dans le cas de locaux occupés durant de courtes périodes.


Choix du système

Il existe de nombreux systèmes d’isolation par l’intérieur.

Choix du système à panneaux isolants collés

Lorsque le mur est sec et sain et présente une surface plane, on choisit le système des panneaux collés.

Les défauts de planéité ne peuvent pas dépasser 15 mm sur une règle de 2 m. Ce système ne peut être utilisé sur des supports ayant connu l’humidité car des sels peuvent apparaître.
Ce système est le moins onéreux et demande le moins d’espace.
Il demande le décapage complet du revêtement (papier-peint, peinture, …) ou du moins aux endroits des plots ou bandes de colle.

Choix d’un système à structure

Lorsque le mur n’est pas suffisamment plan, on choisit un des deux systèmes à structure.

Ceux-ci sont plus chers mais permettent de rattraper les défauts de planéité du mur. Ces systèmes peuvent aussi être choisis si l’on ne souhaite pas enlever le papier peint ou la peinture.

Le système à panneaux composites posés sur lattage possède l’avantage, par rapport au système à panneaux isolants entre lattes, d’apporter une isolation continue. En particulier, lorsque les profilés utilisés sont métalliques, il évite les ponts thermiques au droit de chaque profilé.
Ce système permet également d’apposer une couche plus épaisse d’isolant.

Remarque.

Avec un système à panneaux isolant entre profilés métalliques, ces derniers doivent, dans certains cas, pour des raisons de résistance, être placés avec l’ouverture du « u » vers le mur. On doit veiller, dans ce cas, à ce que ceux-ci soient remplis d’isolant.

Photo système à panneaux isolant entre profilés métalliques.

Remarque.

Les deux systèmes à structure permettent de laisser un vide entre le mur extérieur et l’isolant (lorsque l’isolant est placé entre les montants, il peut être accolé à la plaque de plâtre; lorsque la hauteur n’est pas trop importante, la structure peut être auto-portante et ne doit pas être fixée contre le mur mais uniquement au sol et au plafond en laissant un espace derrière celle-ci).
Les fabricants proposent dès lors ces solutions lorsque le mur est humide.

Le CIFFUL, dans la brochure Méthodes de modification du gros-œuvre / Isolation thermique d’un bâtiment existant » relue par le CSTC ne recommande pourtant pas de laisser un vide car celui-ci, s’il y le moindre espace entre les panneaux isolants, favorise les courants de convection et engendre non seulement des pertes énergétiques mais également des risques de condensation du côté interne du mur extérieur.

En France, on recommande, dans le cas des murs humides, de ventiler la lame d’air (par l’ouverture de joints dans le haut et le bas des maçonneries).
Mais cette solution est insuffisante pour sécher efficacement la face intérieure des murs extérieurs et augmente les courants de convection.

L’isolation par l’intérieur, dans le cas d’une maçonnerie humide, reste fortement déconseillée.

Choix du système avec isolation derrière contre-cloison maçonnée

L’isolation derrière contre-cloison maçonnée permet de rajouter un matériau lourd devant l’isolant et donc de remplacer, en partie du moins, l’inertie thermique perdue.
Il demande néanmoins un plancher pouvant le supporter. Il ne pourra pas, en principe, être choisi dans le cas d’un plancher entre étages en bois.


Choix de l’isolant

Le choix d’un isolant dépend des performances à atteindre et de l’espace disponible dans les locaux à isoler. Ces critères permettent de déterminer l’épaisseur et le type d’isolant à mettre en œuvre.

Il est toujours recommandé de choisir un isolant disposant d‘un agrément technique.

Les produits minces réfléchissants font l’objet d’une polémique importante ces dernières années.

Photo produits minces réfléchissants.   Photo produits minces réfléchissants.

Qu’en penser ? Nous reproduisons en annexe le compte-rendu détaillé de l’étude du CSTC((Isolation des murs existants par l’intérieur : systèmes et dimensionnement, Les Dossiers du CSTC 2013/2.4, p.4)) à ce sujet, étude confirmée par plusieurs études scientifiques dans divers pays européens. L’affirmation des fabricants d’un équivalent de 20 cm de laine minérale est fantaisiste. Dans le meilleur des cas, un équivalent de 4 à 6 cm peut être obtenu, ce qui est souvent insuffisant.

Si ce produit connaît malgré tout un certain succès commercial, c’est parce que sa pose est très rapide (agrafage sous pression), donc intérêt de l’entrepreneur qui aime à en faire la publicité, et que le produit se présente en grandes bandes continues, assurant une très grande étanchéité au passage de l’air, donc impression d’une certaine qualité pour l’occupant.


Choix du pare-vapeur

Quand doit-on prévoir un pare-vapeur ?

Lorsqu’on utilise un isolant perméable à la vapeur (laine minérale, par exemple) celui-ci doit être précédé, côté intérieur, par un pare-vapeur de manière à éviter le risque de condensation interne.

L’utilisation d’un isolant peu ou pas perméable à la vapeur (EPS, XPS, PUR, CG) collé sur la maçonnerie, ne nécessite pas l’interposition d’un pare-vapeur pour autant que de l’air intérieur NE puisse PAS circuler entre isolant et maçonnerie.
Aussi, si ce type d’isolant est mis en œuvre entre lattes, la pose du pare-vapeur reste indispensable. Celui-ci couvre alors l’ensemble du système « isolant + lattes ».

Quel pare-vapeur choisir ?

L’évaluation du risque principal de condensation par modèle statique (comme celui de Glaser) entraîne presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur. On les appelle souvent les « pare-vapeurs ». Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant. On parle alors de « freine-vapeur ». La valeur Sd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par ex. 50 ou même 100 m) alors que la valeur Sd des freine-vapeur ne sera que de quelques mètres seulement (par ex. 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré ici.

Outre les risques de condensations, il est important de faire remarquer que certains matériaux dits hygroscopiques, comme le bois et les matériaux dérivés du bois, mais aussi d’autres matériaux comme la terre crue, ont le pouvoir de réguler l’humidité de l’ambiance intérieure en captant l’humidité en excès pour la restituer plus tard, atténuant ainsi les effets désagréables d’ambiances trop sèches ou trop humides. On parle alors parfois d’inertie hydrique par analogie avec l’inertie thermique. Malheureusement, peu de valeurs sont disponibles. Ce domaine devrait faire l’objet de recherches complémentaires et dépasse le cadre d’Énergie+. Remarquons seulement que la présence d’une membrane atténue fortement l’effet hygroscopique des couches sous-jacentes, et notamment celui de l’isolant.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Comment assurer la continuité de la fonction « pare-vapeur » :

Lorsque la fonction « pare-vapeur » est assurée par les panneaux, la continuité de la fonction « pare-vapeur » est assurée en fermant les joints entre panneaux ou entre panneaux et raccords au moyen :

  • soit, de bandes adhésives,
  • soit, de mousse injectée,
  • soit, de mastic.

Lorsque le système nécessite un pare-vapeur indépendant, celui-ci doit être placé avec recouvrements. Les recouvrements et les raccords doivent être fermés au moyen :

  • soit, de bandes adhésives,
  • soit, de joints comprimés.

Il faut vérifier auprès des fabricants que le produit assurant la continuité du pare-vapeur proposé corresponde à la classe du pare-vapeur demandé.


Pose de l’isolation par l’intérieur

Principes à respecter

  • L’isolant doit être posé de manière continue, en particulier aux angles des parois, afin de ne pas créer de pont thermique et d’éviter ainsi la condensation superficielle.
  • Le pare-vapeur doit également être posé de manière continue, les raccords doivent être rendus étanches.
  • Il faut prévoir une finition intérieure étanche à l’air sur toute la surface.
    De manière à éviter la condensation interne par convection, il faut fermer toutes les ouvertures qui permettraient à l’air intérieur de circuler derrière la couche isolante. Les points délicats sont :

    • La jonction entre mur et plafond.
    • La jonction entre mur et plancher (les panneaux isolants sont, en général, butés en tête sous le plafond. Il s’ensuit que le jeu nécessaire à la pose du panneau se retrouve en pied. Cet espace doit être calfeutré avant la pose de la plinthe).
    • La jonction avec les baies.
    • Les percements pour le passage des gaines et canalisations diverses, incorporations des boîtiers, etc.

Le calfeutrement de ces points est également indispensable pour éviter les infiltrations d’air de l’extérieur vers l’intérieur du bâtiment.

Remarque : les paragraphes ci-dessous s’inspirent de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Panneau isolant composite – pose par collage

  1. Mur existant.
  2. Panneau composite.
  3. Plots de colles.
  4. Isolant.
  5. Pare-vapeur éventuel.
  6. Finition

Panneau isolant entre lattes

1. Latte, ayant l’épaisseur de l’isolant,
fixée mécaniquement à la maçonnerie et réglée à l’aide de cales.
L’entre axe des lattes est d’environ 40 cm.

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Isolant légèrement compressible afin de remplir aussi complètement que possible l’espace disponible entre lattes et entre le mur et le pare-vapeur.
  3. Pare-vapeur. La technique la plus aisée est d’agrafer, sur les lattes, un film en matière plastique (d’épaisseur > 0,2 mm) qui correspond à un pare-vapeur de classe E2. Le recouvrement entre lés est agrafé et recouvert d’une bande adhésive.
  4. Panneau de finition : par exemple, plaque de plâtre enrobé de carton. Les joints entre plaques et les têtes de vis sont fermés et recouverts au moyen d’un enduit de finition.

Panneau isolant composite – pose sur lattage

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Un isolant légèrement compressible est posé entre les lattes fixées mécaniquement à la maçonnerie et dont le réglage est assuré à l’aide de cales.
  3. Les panneaux composites sont fixés mécaniquement sur les lattes à l’aide de vis. La pose des panneaux doit être bien jointive et les joints bien fermés à l’aide d’un enduit de finition.

Détails d’exécution

Remarque : cette partie s’inspire de la brochure Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant.

Isolation autour de la baie

Pour ne pas provoquer de pont thermique et de risque de condensation superficielle autour de la baie, l’isolation thermique doit être prolongée jusqu’à la menuiserie.

      

  1. Mur existant avec enduit de finition.
  2. Isolant thermique (posé entre latte par exemple).
  3. Pare-vapeur éventuel.
  4. Panneau de finition.
  5. Retour d’isolation collé à la maçonnerie (épaisseur de minimum 2 cm).Si après avoir disqué l’enduit de finition existant, il n’y a pas assez de place pour le retour d’isolation, il faut remplacer le châssis par un châssis à dormant plus large.
  6. Prolongement du pare-vapeur jusqu’à la menuiserie ou pose d’un isolant peu perméable à la vapeur (mousse synthétique, par exemple).
  7. Joint souple d’étanchéité pour empêcher toute infiltration d’air intérieur derrière l’isolant.
  8. Nouvelle tablette.

Pour augmenter les performances thermiques du retour d’isolation, la finition autour de la baie peut être réalisée en bois (ébrasement et tablette).

  1. Joint souple d’étanchéité.
  2. Ebrasement et chambranle en bois.
  3. Finition angle.

Plancher en bois entre étages

Dans le cas d’un plancher en bois, l’extrémité du gîtage de celui-ci qui vient s’encastrer dans la maçonnerie atteint des températures plus basses qu’avant isolation par l’intérieur. Alors qu’il est possible d’éviter le transfert de vapeur interne au travers du mur par l’usage d’un pare-vapeur, il n’existe pas de moyen efficace pour éviter ce transfert au niveau du plancher. Ainsi, il y a risque de condensation à proximité des têtes de gîtes ou de solives et possibilité de pourrissement.

  1. Plancher.
  2. Solive.
  3. Condensation.

Jonction avec murs de refend (ou plancher béton entre étages)

Pour supprimer le pont thermique au droit des murs de refend, il faut éventuellement prolonger l’isolation du mur de façade contre le mur de refend.

Pont thermique non traité

Pont thermique traité

  1. ED = 80 mm (polystyrène expansé, mousse de polyuréthane ou laine minérale).
  2. ER = 30 mm (polystyrène expansé ou laine minérale).
  3. ER = 20 mm (mousse de polyuréthane).
  4. R = 30 cm.

Ce retour d’isolation peut être cependant très contraignant au niveau esthétique.

De plus, cette mesure concerne plus spécifiquement les logements avec les températures et les productions d’humidité qui leur sont propres. Dans les immeubles de bureaux, par exemple, où la production de vapeur est moins importante et qui, en général, sont équipés d’une ventilation, il faut reconsidérer la nécessité de cette mesure. Il faut évaluer le risque de condensation superficielle sans retour d’isolation à partir des conditions réelle.

Évaluer

Savoir comment évaluer le risque de condensation à partir des données propres à votre bâtiment.

Évaluer

Voir, par un exemple, comment évaluer concrètement le risque de condensation au droit d’un pont thermique dans un immeuble de bureau.

Travaux annexes

Remarque : cette partie s’inspire de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Déplacement des équipements existants

Les installations électriques (prises et interrupteurs)

  1. Espace technique.

Les canalisations d’eau

Elles sont disposées dans un espace technique (1) ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Détail en plan et en coupe :

     

  1. Isolant posé entre lattes
  2. Pare-vapeur placé sans interruption
  3. Latte fixée à la maçonnerie
  4. Latte supplémentaire servant d’entretoise
  5. Tube électrique
  6. Boîtier électrique

Les canalisations d’eau

Les canalisations encastrées avant rénovation (isolation par l’intérieur) sont réchauffées par l’ambiance intérieure.

Si aucune précaution n’est prise lorsqu’on isole par l’intérieur, la maçonnerie, et avec elle, la canalisation sont directement exposées au climat extérieur et donc au gel.

Il existe différentes solutions pour protéger la canalisation contre le gel.
Solution n°1 : déplacer le tuyau et le laisser apparent.

Solution n° 2 : (peu pratique) agrandir la saignée dans laquelle se trouve la canalisation et introduire un isolant thermique (mousse expansée, par exemple.)

Solution n° 3 : déplacer le tuyau et le placer dans un espace technique ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Attention : ne pas traverser le pare-vapeur avec le tuyau !

Les radiateurs

Les radiateurs doivent être déplacés et fixés à la nouvelle paroi. Dans ce cas, la structure doit être renforcée.
Le radiateur peut également être posé sur un pied fixé au sol.

  1. Tablette
  2. Isolant imperméable à la vapeur collé à la maçonnerie
  3. Isolation entre lattes
  4. Pare-vapeur
  5. Radiateur
  6. Joint d’étanchéité (mastic)
  7. Canalisation de chauffage
  8. Renfort (lattes bois)

Remplacement des châssis

Lorsqu’on améliore l’isolation du mur de façade, on profitera de l’occasion pour remplacer les châssis anciens par des châssis avec double vitrage à basse émissivité.
On choisit des châssis avec de larges dormants de manière à avoir de la place pour l’isolant.

Sol

Lorsque l’isolation des murs est prolongée par l’isolation du sol, cela exige de créer une marche au niveau de l’accès aux autres locaux.

Ventilation

Une ventilation suffisante doit être assurée dans le local isolé par l’intérieur de manière à éviter les problèmes de condensation.

Concevoir

Pour savoir comment assurer une ventilation suffisante.

N’hésitez pas également à consulter notre page consacrée aux isolants biosourcés.

Comparer les critères de choix [protection solaire]

Récapitulatif des protections et des critères de choix

+ + Très bon + Bon 0 Moyen – Mauvais – – Très mauvais

Protections extérieures

Brise-soleil

+ + + + + + – – + + 0 + + 0 – – + +

Stores
vénitiens

+ + + + + – – + + + + + + +
Stores
enroulables
+ + + + 0 – – + + + + + + + +
Eléments
architecturaux
+ + + + + + – – + + 0 + + – – – – + + +
Auvents + + + + + + – – – – + + + + + + – – +
Stores
projetés à
l’italienne
+ + + + + – – – – + + + + + + +

Protections intérieures

Stores
enroulables
et plissés

en tissu
+ + 0 0 + + + – – + + + + +
Stores
enroulables
et plissés
réfléchissants
+ + + + + 0 + + – – + + + +
Stores
vénitiens
et à lamelles
verticales
– – + + + + – – + + + + + + +
Films
adhésifs
– – à + + – à + + – à + – – à + + + + – – + + + + – à + + + +

Protections intégrées au vitrage

Stores
vénitiens
+ + + + + + + + + + + + + – – + – –
Stores
enroulables
+ + + + + + + + + + + + – – + + – –

Outil PROSOLIS, comparaison des complexes vitrages-protections solaire

copie écran PROSOLIS

Vous devez choisir une protection solaire spécifique ? un type de vitrage et une protection solaire ? L’outil PROSOLIS est là pour vous aider !

Développé par l’UCL (Architecture et Climat) et le Centre Scientifique et Technique de la Construction (CSTC) en 2015, cet outil est accessible gratuitement à l’adrese : www.prosolis.be

Il permet de comparer facilement et en fonction du contexte (orientation – type de bâtiment) les performances thermiques et visuelles de différents complexes « vitrages – protections solaires parallèles au vitrage « .

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
22-09-2008 : WinMerge ok – Sylvie

Lampes à décharge : généralités

Lampes à décharge : généralités

On reprend généralement sous la dénomination « lampes à décharge »

Mais les tubes fluorescents, les lampes fluocompactes et les lampes à induction sont aussi des lampes à décharge (la lumière y est aussi produite par une décharge électrique dans un gaz).


Principe de fonctionnement

 Schéma principe de fonctionnement lampes à décharge.

Une lampe dite « à décharge » fonctionne par décharge d’un courant électrique dans une atmosphère gazeuse. La décharge se fait au travers d’un tube à décharge qui se trouve lui-même dans une ampoule vide.

Schéma principe de fonctionnement lampes à décharge.

Lorsqu’on met la lampe sous tension, des électrons sont émis par les deux électrodes de tungstène. Lors de leur trajet au travers du tube à décharge, ils entrent en collision avec les atomes de gaz. Il en résulte une libération d’énergie soit sous forme de lumière visible, soit sous forme de rayonnement ultraviolet invisible (principalement pour les lampes au mercure haute pression). Ce dernier est absorbé par le revêtement fluorescent présent sur la face interne de la lampe et converti en rayonnement visible.

Selon la pression du gaz dans le tube ou l’ampoule, on distingue les lampes à basse et à haute pression.

Les lampes à décharge ont besoin des éléments suivants pour fonctionner :

Photo amorceur.

– d’un amorceur (l’équivalent du starter des lampes fluorescentes),

Photo ballast.   Photo condensateur.

– d’un ballast  et d’un condensateur.

Ces trois éléments sont nécessaires pour :

  • atteindre pendant un court instant la tension élevée d’amorçage de la décharge électrique dans le gaz ionisé ou dans la vapeur de métal,
  • limiter le courant après l’amorçage pour empêcher la destruction de la lampe,
  • garder un cos φ proche de 1.

Principales dénominations commerciales

Type de lampe / Marques *

Philips

Osram

Sylvania

Sodium basse pression SOX SOX SLP
Sodium haute pression SDW
SON
NAV SHP
SHX
Mercure haute pression HPL HQL
HWL
HSL
HSB
Halogénures ou iodures métalliques HPI
MHN/MHW
CDM
HQI
HCI
HSI
MS
MP
Induction QL

 * Liste non exhaustive.

Données

 Pour connaitre les caractéristiques des lampes à décharge

Données

 Pour consulter un récapitulatif des caractéristiques des différents types de lampe.