Évaluer les besoins du froid

Évaluer les besoins du froid


Les quatre impératifs en présence

Photo champ de culture.   Photo assiette avec nourriture.

Le froid alimentaire au niveau des commerces, qu’ils soient de détail ou de moyenne/grande surface, occupe une place prépondérante dans notre société actuelle. Notre souci permanent d’amélioration de la qualité des denrées alimentaires passe impérativement et principalement par le respect des températures de conservation des aliments pendant depuis leur production jusque dans l’assiette du consommateur.

La distribution fait naturellement partie de la chaîne de froid depuis l’approvisionnement par camions frigorifiques jusqu’au « caddie » ou le sac « récupérable » (nous insistons) du ou de la consommatrice.

À ce niveau de la chaîne alimentaire, le souci d’éviter de « casser » la chaîne du froid est un défi difficile à maîtriser d’autant plus qu’il faut concilier les impératifs de vente qui ont tendance pour la plupart à ouvrir les espaces de réfrigération (4 à 6°C) et de congélation (-18°C par exemple) à l’ambiance de vente (18, …, 20, …24 °C) et le respect des règles de conservation des denrées.

A cela vient s’ajouter le problème très présent du confort du personnel dans les ambiances froides des réserves et des ateliers et du confort du personnel et des clients dans les espaces de vente.

Et « last but not least », n’oublions pas ce pour quoi Énergie+ doit exister, à savoir l‘énergie. Cette énergie qui, à première vue est en contradiction totale avec les trois autres impératifs sous nos latitudes tempérées.

Nous avons donc affaire à un « quadrinôme » d’impératifs indissociables et cohabitant difficilement ensemble.


La qualité du froid alimentaire

La certitude que la vente de denrées au niveau des commerces ne représente pas risque pour la santé des consommateurs est sans conteste l’élément le plus important à respecter.

La partie visible de l’iceberg est naturellement les surfaces de vente où les marchandises sont exposées dans des comptoirs frigorifiques. À l’écart des regards des clients, la chaîne de froid est bien présente que ce soit :

  • avant le stockage dans les chambres frigorifiques;
  • pendant le stockage;
  • après le stockage.

Avant le stockage

Photo camion et caisses de salades.

Les transferts entre le camion frigorifique et la chambre froide influencent naturellement la pérennité des denrées alimentaires à cause du contact possible avec les ambiances internes et externes au magasin (climat, gaz d’échappement en ville, déchet de toutes sortes à proximité, …). En général, les principaux facteurs qui peuvent influencer les denrées sur le plan thermique sont :

  • le temps de transfert;
  • la différence de température entre les denrées et l’air extérieur;
  • leur masse;
  • leur type de conditionnement (emballée ou pas, type d’emballage, …);
  • leur teneur en eau;

Pratiquement, les commerçants se contentent simplement d’effectuer un transfert le plus rapide possible du camion vers les chambres de conservation. Sachant qu’à l’heure actuelle, la plupart des denrées sont conditionnées dans des emballages dès la production, une ambiance extérieure « hostile » (déchet à proximité, gaz d’échappement, …) influence moins la pérennité des denrées. Néanmoins, les commerçants devront toujours éviter que les flux « propres et sales » ne se croisent dans les réserves.

L’évaluation de la qualité du transfert relève d’une procédure interne à mettre en place en s’inspirant par exemple de l’HACCP (Hazard Analysis Critical Control Point = Analyse des dangers et points critiques pour leur maîtrise).

Pendant le stockage

Photo GTC (Gestion Technique Centralisée)  

Mis à part le contrôle du temps de stockage, le respect des températures de conservation constitue le principal gage de qualité dans la chaîne du froid. Cette température est monitorée en permanence à l’aide d’un enregistreur dédicacé à la chambre froide ou d’une GTC (Gestion Technique Centralisée) qui regroupe tous les enregistrements de température des installations plus complexes de froid alimentaire.

La conservation des denrées en phase de stockage dépend essentiellement du contrôle :
  • des ouvertures de portes;
  • du dégivrage des évaporateurs.

Influence des ouvertures et fermetures des portes

Le contrôle d’accès aux chambres froides des réserves est primordial pour pouvoir maintenir les températures de conservation et éviter la prise en glace trop rapide des évaporateurs. A l’heure actuelle, l’isolation des chambres froides est relativement bonne et la principale source d’échange thermique avec l’ambiance extérieure est liée :

  • au temps pendant lequel la porte reste ouverte;
  • à l’étanchéité de la porte.

L’impact de l’ouverture de porte ou du manque d’étanchéité du joint de porte est double dans le sens où la température et l’humidité au sein de la chambre augmentent, ce qui, d’une part risque de réduire la qualité de conservation en température et, d’autre part de solliciter les évaporateurs par rapport aux opérations de dégivrage.

Influence du dégivrage des évaporateurs

L’air ambiant humide provenant des zones de réserves va naturellement se condenser en grande partie sur les ailettes des évaporateurs des chambres froides. Si aucun dispositif de régulation ou de dégivrage n’est présent, on dit que l’évaporateur « prend en glace ». Il s’ensuit une perte d’efficacité de l’évaporateur qui en l’occurrence ne peut plus assurer le maintien à température des denrées alimentaires.

Transfert après stockage

photo rayon froid supermarché

Le temps de transfert des chambres de stockage vers les rayons ou les ateliers de transformation, tout comme le trajet entre le camion frigorifique et les chambres de stockage, doit rester le plus court possible sachant que les chariots de transfert sont rarement équipés d’un groupe frigorifique embarqué afin de maintenir la température.


La vente

Un des critères de vente des denrées alimentaires est que le client puisse « toucher », « soupeser », …, « sentir » très facilement les produits. Au niveau des denrées réfrigérées (produits laitiers, fruit, légumes, …) et surgelées (frites, soupe, crèmes glacées, …), l’approche « marketing » est complexe. Tant au niveau du froid positif que négatif, l’impact sur la qualité du froid et les consommations énergétiques est énorme sachant que l’on doit garder en permanence une température de l’ordre :

  • de 0-4 voire 8 °C (pour le froid positif);
  •  et -18 °C voire moins (pour le froid négatif);

dans les meubles frigorifiques ouverts (conditions de fonctionnement extrêmes) dans une ambiance de vente de 20-24 °C avec comme « isolation » entre les deux un rideau d’air plus ou moins efficace.

« Le client est roi », c’est bien connu. Mais à quel prix !


Le confort du personnel et des clients

Non seulement l’ouverture permanente des meubles frigorifiques réchauffe les denrées alimentaires au risque de « casser la chaîne du froid » mais l’ambiance de vente se refroidit en réduisant le confort. La tentation est forte de pallier à l’inconfort des clients par le chauffage permanent des allées froides :

Il y a donc « destruction » de l’énergie !

La sonnette d’alarme doit être tirée à ce niveau, car on voit de plus en plus « fleurir » des systèmes de chauffage des allées froides afin de réduire l’inconfort.

Périodes chaudes

En période chaude, la sensibilité au confort de la clientèle est aiguisée par les paramètres suivants :

  • l’écart des températures est important entre d’une part l’extérieur et l’intérieur du magasin et d’autre part entre les zones de vente classique et celles où se trouvent les rayons de froid alimentaire (devant les meubles frigorifiques), le pire étant les allées froides (allées en deux rangées de meubles frigorifiques linéaires);
  • le faible habillement des clients.

Ces deux paramètres combinés entraînent nécessairement un inconfort pouvant friser, dans certains cas, le choc thermique.

Périodes froides

Lors des périodes froides, l’inconfort est moins grand. La raison en est simple, les clients s’habillent en conséquence (pull, manteau, …) tout en considérant aussi que le corps s’habitue à la longue aux températures plus basses régnant à l’extérieur et, par conséquent, le « désensibilisant » partiellement lorsque le client passe à proximité des meubles frigorifiques ouverts.


L’énergie

« Le client est roi », c’est bien connu. Mais à quel prix ! Non seulement l’ouverture permanente des meubles frigorifiques réchauffe les denrées alimentaires au risque de « casser la chaîne du froid » mais aussi l’ambiance de vente se refroidit au point de se retrouver dans la situation où l’on doit réchauffer l’air devant les comptoirs afin de réduire l’inconfort qui y règne. À l »inverse, l’ambiance tempérée du magasin augmente les apports externes aux enceintes frigorifiques.

Le respect de la chaîne du froid dans les commerces au sens large du terme (commerces de détail et moyennes/grandes surfaces) est un sujet où les ingénieurs et techniciens de tous bords s’arrachent les cheveux. En effet, comment concilier des points de vue qui, à première vue, sont antinomiques ?
à savoir :

  • le besoin de garantir des basses températures les plus constantes possible dans le temps aux denrées tout au long de la chaîne alimentaire;
  • la nécessité de vendre le plus possible et donc de favoriser un maximum le contact visuel et tactile des denrées par le client en imposant de laisser une interface ouverte entre les deux ambiances.

Cette approche purement « marketing » a des répercussions énormes non seulement sur la qualité du froid à assurer, mais aussi sur les consommations énergétiques des comptoirs de vente réfrigérés.

Sans grande observation scientifique, on se rend tout de suite compte que les échanges thermiques ou plus généralement enthalpiques (influence de la température et de l’humidité de l’air), entre les deux ambiances, c’est-à-dire entre les meubles frigorifiques et l’ambiance de vente, sont importants. Au travers du rideau d’air des meubles frigorifiques :

  • l’air de la surface de vente à température ambiante (24°C par exemple) et à taux d’humidité de l’ordre de 50 % réchauffe et humidifie l’intérieur des meubles frigorifiques;
  • à l’inverse, l’air froid du meuble (4°C par exemple) refroidit et déshumidifie l’ambiance de vente

A l’heure actuelle, des réglementations et des méthodes d’analyse de risques élaborées telles que le HACCP (Hazard Analysis Critical Control Point)  permettent de garantir, ou du moins de tendre vers le respect de la qualité du froid alimentaire. La garantie de protection de la santé publique tout en assurant la vente des denrées a imposé le développement de techniques de réfrigération sophistiquées au niveau :

  • des rideaux d’air des meubles frigorifiques ouverts;
  • du dégivrage des évaporateurs.

Entendons-nous bien, ce n’est pas la mission d’Énergie+ que de mettre en cause les techniques mises en œuvre ni d’évaluer si ces techniques de vente sont ou ne sont pas pertinentes. Par contre, c’est de notre compétence d’analyser, de constater, de critiquer positivement, d’établir des bilans, … afin de concilier le respect de la qualité du froid avec le confort humain pour une consommation énergétique optimisée.

Queen’s Building de l’université de Montfort

Entrée (orientation nord-est).

Façade sud-est.

Façade nord-ouest .


Introduction

Le Queen’s Building est un bâtiment de la faculté d’ingénieur de l’université de Montfort regroupant auditoires, salles de cours, bureaux, laboratoires et ateliers. Les gestionnaires du bâtiment l’ont voulu faible consommateur d’énergie. Il a donc été conçu pour :

  1. limiter la consommation due à l‘éclairage artificiel :
    L’enveloppe du bâtiment est pensée pour apporter un maximum d’éclairage naturel à tous les locaux, soit directement par des fenêtres en façade et en toiture, soit indirectement par des fenêtres intérieures donnant sur l’atrium central.
    Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire.
    Éliminer les consommations de refroidissement et de ventilation.
  2. Les apports calorifiques d’été sont limités par la protection de certaines ouvertures extérieures.
    Une ventilation naturelle est organisée dans tout le bâtiment : l’air est introduit par les fenêtres et extrait, selon les locaux, par des fenêtres (en façade ou en toiture), ou par des cheminées. Dans un souci de simplicité, les équipements accessibles sont commandés manuellement. La ventilation est exclusivement diurne pour l’ensemble des locaux à l’exception des auditoires dans lesquels une ventilation nocturne est également organisée. L’inertie thermique du bâtiment combinée à cette ventilation permet de réduire la température de pointe en été.

Ces moyens ont réellement permis de limiter la consommation annuelle moyenne à 145 kWh/m², ce qui est un très bon résultat pour ce type de bâtiment en Angleterre.


Description

Le Queen’s Building regroupe différents locaux de la faculté d’ingénieur de l’université de Monfort : 2 auditoires, des salles de cour, des salles de séminaires, des bureaux, des laboratoires et des ateliers. Il est situé à Leicester, dans un site urbain, et fut mis en service au début du mois de décembre 1993. D’une surface totale de 10 000 m², il est susceptible d’accueillir simultanément 1 000 occupants, tandis que le nombre total d’utilisateurs se chiffre à environ 2 000 (étudiants et personnel).

Plan du premier niveau :
1. ateliers d’électricité 2. salles de cours 3. atrium
4. auditoires 5. laboratoire de mécanique.

Principes de conception

La conception du bâtiment repose sur :

  1. une étude approfondie de l’éclairage, naturel et artificiel;
  2. la ventilation du bâtiment de façon naturelle.

Éclairage

Éclairage naturel

Un maximum d’éclairage naturel est apporté à tous les locaux, afin de :

  • limiter la consommation directe d’éclairage artificiel,
  • de limiter les charges internes en été.

La forme complexe du bâtiment résulte de cette contrainte. En effet, contrairement à ce qui se fait couramment pour ce genre de bâtiment (bâtiment compact de forme simple, avec laboratoires aveugles au centre et bureaux éclairés naturellement en périphérie), les locaux s’articulent les uns aux autres pour aller chercher de la lumière, par les façades ou par la toiture.

 

Formes architecturales (puits de lumière, articulation des locaux)
pour capter un maximum de lumière naturelle.

En plus de ces apports de lumière directe, de nombreux locaux bénéficient d’un apport de lumière indirecte, par des fenêtres intérieures, donnant sur un hall de distribution central. Ce hall, sorte d’atrium, est fortement éclairé, notamment par la toiture.

 

Apport de lumière dans le hall central, sorte d’atrium.

Dans le hall, les circulations sont organisées à l’aide d’escaliers et de passerelles métalliques avec planchers de verre, afin de laisser passer un maximum de lumière vers les niveaux inférieurs.

 

Passerelles métalliques avec plancher de verre dans le hall central.

Des fenêtres intérieures transmettent la lumière de l’atrium vers les locaux périphériques.

 

 

Fenêtres intérieures dans l’atrium.

 

Exemple de laboratoire éclairé en partie naturellement :
fenêtres intérieures transmettant la lumière de l’atrium, et fenêtres extérieures

Éclairage artificiel

Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire. De nombreux luminaires (ateliers, atrium) fonctionnent avec des lampes industrielles à basse consommation.

Une gestion de l’éclairage par détection de présence avait été installée mais elle a été abandonnée suite à son fonctionnement « capricieux » : le matériel choisi n’était malheureusement pas de bonne qualité.


Ventilation naturelle

La ventilation du bâtiment est entièrement naturelle. L’air est :

  • introduit par les fenêtres ou par des grilles,
  • extrait par des fenêtres de façade ou de toiture, ou des grilles en tête de cheminée.

Les gestionnaires du bâtiment ont opté pour des équipements simples, avec aussi peu de maintenance que possible. Les fenêtres accessibles sont donc manipulées manuellement, tandis que seules les fenêtres non accessibles sont commandées automatiquement.

 

Ouverture des fenêtres manuelle et automatique.

La ventilation est exclusivement diurne (à l’exception des auditoires), pour deux raisons :

  1. les fenêtres ne sont pas protégées par des grilles, ce qui poserait des problèmes de sécurité si elles étaient laissées ouvertes toute la nuit.
  2. l’organisation d’une ventilation de nuit avec un système qui n’est pas totalement automatisé demande une participation des occupants difficile à imposer dans ce cas : les occupants sont très nombreux, et la population des étudiants change souvent.

Les différents types de ventilation naturelle possibles sont représentés dans le bâtiment :

  • Ventilation avec effet de cheminée : l’air réchauffé monte naturellement vers la sortie de la cheminée ou vers l’ouverture de toiture. Pour les cheminées, l’air extérieur passant dans la toiture de la cheminée renforce l’effet de tirage.

 

  • Ventilation transversale entre façades opposées, par exemple dans les deux ailes formant la cour d’entrée.
  • Ventilation unilatérale d’un local individuellement par une seule fenêtre verticale (l’air frais entre dans la partie basse de la fenêtre, se réchauffe à l’intérieur du local et ressort en partie haute).

Le bâtiment est compartimenté pour que les flux d’air soient canalisés autant que possible. Ce compartimentage a également un rôle au niveau acoustique en limitant la transmission de bruit et au niveau de la prévention incendie.


Refroidissement et chauffage

Refroidissement

Il n’y a pas de refroidissement mécanique dans le bâtiment.

Le pouvoir rafraichissant de l’air extérieur est exploité pour réduire la température de pointe en été : le bâtiment présente une importante inertie thermique, réalisée par de grandes surfaces de maçonnerie apparente, et une ventilation naturelle diurne est organisée.

Pour permettre ce fonctionnement, les apports solaires d’été sont limités par la protection de certaines baies.

Les types de protection sont les suivants :

  • avancée de toiture,
  • relief de façade,
  • ombre portée du bâtiment,
  • panneaux d’ombrage,
  • stores extérieurs fixes (toiture de l’atrium notamment).

Pour chaque baie, la protection a été choisie après comparaison des apports favorables d’hiver avec les apports indésirables de l’été.

 

Avancées de toiture.

 

Reliefs de façade.

Cour d’entrée ombragée naturellement :
elle constitue un réservoir d’air frais (- 2°C qu’ailleurs en été).

Remarque concernant l’encombrement :

Un système de conditionnement d’air peut prendre jusqu’à environ 20 % de l’espace d’un bâtiment (locaux techniques, réseau de ventilation,…). Ici, cet espace a été consacré à 12 cheminées de ventilation. Afin de limiter l’encombrement de ces cheminées, elles reposent sur des piliers, ce qui permet de libérer l’espace du rez-de-chaussée.

 

Support des cheminées des auditoires sur colonnes,
exploitation de l’espace sous les gradins.

Chauffage

Les équipements et l’occupation représentent une partie importante du chauffage des locaux, ainsi que les apports solaires par les vitrages, notamment en toiture. Certaines fenêtres ne sont d’ailleurs pas protégées pour bénéficier de ces apports gratuits, au détriment de la limitation des charges d’été (bilan comparatif réalisé entre apports d’hiver et d’été).

L’installation de chauffage regroupe un système de cogénération (gaz – 38 kW électrique et 70 kW chauffage), une chaudière à condensation et deux chaudières conventionnelles. La gestion de la fourniture de chaleur se fait en fonction des conditions de fonctionnement du bâtiment. La cogénération est choisie si la majorité de la production d’électricité et de chaleur est utilisée dans le bâtiment, et si, à ce moment, cela coûte moins cher que d’acheter l’électricité.


Fonctionnement

Atrium

Outre son utilité au niveau de l’éclairage, le hall central sert également de zone de transfert pour l’apport d’air frais dans certains locaux.

Par exemple, la salle informatique (destinée lors de la conception à être une salle de dessin) est ventilée de cette manière.

  
Entrée de l’air dans l’atrium et transfert vers la salle informatique.
  
Extraction par la toiture de la salle.

Auditoire

Les 2 auditoires de 150 places chacun sont ventilés naturellement. Ils sont gérés automatiquement par un système informatique (GTC : gestion technique centralisée).
Photo auditoire.
L’air extérieur est introduit dans le local via un absorbant acoustique et une batterie de préchauffe. Une partie est distribuée directement au niveau de l’orateur, l’autre partie est répartie sous les gradins et introduite dans l’auditoire par des grilles au niveau des pieds des auditeurs.

Il est extrait via deux cheminées de 13.5 m. Un ventilateur est prévu dans chaque cheminée pour aider la ventilation naturelle, mais aucun n’a jamais été utilisé à ce jour.

   

Grille d’amenée d’air avec absorbant acoustique et batterie de préchauffe.

Grille d’amenée d’air avec absorbant acoustique et batterie de préchauffe.

La gestion automatique règle le débit de ventilation naturelle et le débit d’eau chaude dans les batteries de préchauffe en fonction des mesures relevées continuellement par 7 capteurs (5 mesureurs de température et 2 sondes CO2).

En hiver, les auditoires sont maintenus à 20°C pendant les heures d’occupation et à 16°C le reste du temps.

En été, une ventilation nocturne est organisée afin de décharger le local des apports de chaleur de la journée et limiter la température de pointe pendant l’occupation.

Enfin, une attention particulière est portée sur la qualité  : la ventilation pendant l’occupation est réglée de l’air
pour limiter la concentration de CO2 à 600 ppm.

Les charges internes maximales du local sont les suivantes :

  • occupation 8 heures par jour,
  • 5 jours par semaine,
  • 100 W par occupant,
  • 150 personnes,
  • 15 W/m² pour l’éclairage
  • 500 W pour l’équipement

Soit des gains internes de 18.3 kW, ou 80 W/m².
Pour assurer en même temps le confort acoustique et thermique, un compromis a dû être trouvé entre les surfaces absorbantes acoustiques, et les surfaces destinées au stockage thermique.

Photo briques apparentes.

Les briques apparentes de la partie supérieure du mur assurent l’inertie thermique. La partie inférieure du mur est recouverte d’absorbant acoustique.

Les auditoires fonctionnent bien globalement. On constate néanmoins dans celui où l’orateur se trouve côté extérieur (et non du côté de l’atrium) des problèmes de courants d’air au premier rang de l’auditoire, et quelques problèmes de bruit provenant de la rue.

Laboratoire de mécanique

Laboratoire de mécanique.

Les activités du laboratoire peuvent être assez bruyantes. Les concepteurs ont donc pris des précautions acoustiques au niveau de l’introduction de l’air dans le local, pour éviter des nuisances aux bâtiments voisins.

L’air passe dans les contreforts verticaux en maçonnerie ajourée remplis d’absorbant acoustique avant d’être introduit dans le local.

  

Contreforts délimitant des espaces tampons acoustiques sur le passage de l’air entre l’extérieur et l’intérieur.

La gestion du débit d’air introduit se fait par ouverture manuelle de panneaux en bois.

Remarque : certains utilisateurs ont placé des meubles devant ces ouvertures, ce qui rend la ventilation partiellement non utilisable.

L’air est extrait par les fenêtres de la toiture, commandées par GTC.

Gestion du débit d’air introduit par des panneaux mobiles en bois.

Extraction de l’air par les fenêtres de la toiture.

Les charges internes du local (personnes + équipements) sont évaluées à 100 W/m². Les apports solaires d’été en façade sont limités par le prolongement de la toiture.

Le local est chauffé par des panneaux rayonnants suspendus à la toiture.

Laboratoires d’électricité

Les laboratoires d’électricité sont installés dans les locaux étroits des deux « ailes » entourant la cour d’entrée. Les locaux sont longs et étroits,ce qui permet un bon éclairage naturel réparti uniformément, et une ventilation transversale.

Laboratoire d’électricité.

Les fenêtres hautes et basses sont dimensionnées pour pouvoir éliminer les apports internes par ventilation : ordinateurs, autres appareils fonctionnant généralement en continu, et l’occupation, soit environ 85 W/m². En été, la cour d’entrée ombragée constitue un réservoir d’air frais qui aide au refroidissement efficace des locaux.

  

Cour d’entrée : fenêtres donnant sur les laboratoires d’électricité.

La lumière naturelle est en partie contrôlée par des « étagères à lumière » (light shelves) qui protègent les occupants de l’éclairage direct et réfléchissent la lumière vers le plafond afin de fournir au local un éclairage diffus.

  
« Étagère à lumière » dans un laboratoire d’électricité.

Le confort thermique des laboratoires semble satisfaisant. On note néanmoins, par moments, quelques problèmes de courants d’air…

Le fonctionnement devrait donc être mieux expliqué aux occupants pour leur permettre d’utiliser le système correctement.

Classes

Certaines classes sont ventilées par ventilation unilatérale, d’autres par effet de cheminée. Dans le premier cas, l’air est introduit par les fenêtres basses et extrait, après s’être réchauffé dans le local, par des fenêtres ou une grille de ventilation haute.

Dans le second cas, l’air est introduit par les fenêtres et extrait par une cheminée.

  

Classe ventilée par effet de cheminée.
Celle-ci se trouve derrière la grille ajourée de la photo de droite.

Bureaux

Les bureaux paysagers sont ventilés par effet de cheminée : l’air rentre par les fenêtres murales, et est extrait par la toiture.

Lors de la conception, la hauteur des meubles de séparation entre bureaux avait été définie pour que la ventilation soit efficace et confortable. À l’utilisation, les occupants ont désiré des séparations plus hautes, et même des cloisons délimitant des bureaux individuels : le service n’est pas adapté à un fonctionnement en bureau paysager (entretiens avec des étudiants qui demandent de l’intimité). Ces adaptations perturbent donc la ventilation, et le confort dans les locaux n’est pas atteint.

  

Bureau paysager : le meuble blanc de gauche a la hauteur idéale étudiée à la conception, les cloisons rouges ont été ajoutées par après.

Les caisses montrent la volonté des utilisateurs de créer des zones plus intimes.


Sécurité

Sécurité incendie

Le bâtiment est séparé en de nombreux compartiments, la plupart renfermant un seul local. Chacun a son ou ses issues de secours individuelle(s).

 

 

Issues de secours extérieures et intérieures.

Sécurité

C’est justement ce nombre important d’issues de secours qui pose certains problèmes d’intrusions. Ceux-ci ne viennent donc pas directement du système de ventilation.


Performance

Confort thermique

Le confort thermique semble atteint en été comme en hiver dans les divers locaux, à l’exception des bureaux paysagers cloisonnés dans lesquels la ventilation n’est pas efficace.

Consommation

La consommation annuelle moyenne actuelle est de 145 kWh/m², répartis comme suit :

  • 100 kWh/m2/an en chauffage : bonne valeur comparée à d’autres bâtiments du même type, et ce grâce aux apports solaires gratuits.
  • 45 kWh/m2/an en électricité : très bon niveau (un bon niveau en Angleterre est de 90 kWh/m²/an pour ce type de bâtiment) grâce à l’absence totale de climatisation, et à l’éclairage naturel qui limite l’éclairage artificiel.

(Il est possible de comparer ceci avec les consommations énergétiques moyennes rencontrées chez nous dans les écoles ou dans les bureaux).

Le budget d’investissement était de 845 £/m² soit environ 1318,2 €/m² au taux de 2002 (1,56 €/£).

  • Architectes : Short Ford & Associates
  • Ingénieurs stabilité : YRM Anthony Hunt
  • Ingénieurs techniques spéciales : Max Fordham Associates

Centre administratif du Powergen

Façade est .

Façade nord.

Façade sud.


Résumé

Le centre administratif de Powergen (compagnie de production d’électricité en Angleterre) se situe à Westwood, dans un site suburbain à proximité de Coventry. Il regroupe principalement des bureaux paysagers, sur trois niveaux, autour d’un atrium, ainsi que des salles de réunion et de conférence, une cafétéria et des locaux techniques.

Dans les bureaux paysagers, une ventilation naturelle (donc gratuite) de jour et/ou de nuit est organisée pour limiter la température intérieure en été et en mi-saison.

L’air entre par les fenêtres supérieures des bureaux, et est extrait par les fenêtres hautes de l’atrium. L’ouverture et la fermeture de ces fenêtres sont commandées automatiquement en fonction des conditions extérieures et intérieures.

  • En mi-saison, le refroidissement des locaux se fait par ventilation diurne, l’air extérieur étant plus frais que l’air intérieur.
  • En été, le refroidissement des locaux se fait principalement par ventilation nocturne. Les dalles de plafond en béton sont refroidies pendant la nuit par l’air frais extérieur. En journée, ces dalles agissent comme des « radiateurs de froid ».

Pour que le refroidissement par ventilation soit efficace, il a fallu réduire les apports du bâtiment.

  1. Limitation de l’éclairage artificiel :
    • L’apport de lumière naturelle de l’atrium permet de limiter le besoin en éclairage artificiel.
    • Les luminaires installés ont un très bon rendement et sont groupés, par plateau, en fonction de l’éclairage naturel disponible.
    • Une gestion automatique de l’éclairage artificiel permet d’éviter les gaspillages.
  1. Les équipements informatiques les plus importants (serveurs, imprimantes laser, etc.), ainsi que les photocopieuses, sont regroupés dans des locaux séparés, refroidis séparément.
  2. Les apports solaires sont limités grâce à des pare-soleil fixes sur la façade sud et des stores extérieurs sur les façades du volume vitré et sur les vitrages inclinés de l’atrium.

D’autres équipements URE sont prévus sur le reste des équipements. Par exemple :

  • En hiver, une ventilation mécanique complémentaire assure l’apport d’air hygiénique et le chauffage des bureaux paysagers. L’air est pulsé par des bouches de sol intégrées dans les faux-planchers, et extrait par 4 grandes bouches dans la partie supérieure de l’atrium. L’air extrait est récupéré jusqu’à concurrence de 90 % pour limiter la consommation d’énergie de chauffage.
  • Tout au long de l’année, les locaux à fortes charges internes (cuisine de la cafétéria, locaux avec ordinateurs, photocopieuses, etc.) sont refroidis mécaniquement. Tant qu’elle peut être utile dans le bâtiment, la chaleur dispersée au condenseur de la machine frigorifique est récupérée pour le préchauffage de l’air ou le chauffage de certains locaux.

Résultats

La ventilation naturelle permet de maintenir la température intérieure 3°C en dessous de la température extérieure et la consommation du bâtiment est inférieure de 20 % par rapport à celle du bâtiment voisin, de même type et équipé d’air conditionné.


Description

Powergen est une compagnie de production d’électricité en Angleterre. Son centre administratif se situe à Westwood, dans un site suburbain à proximité de Coventry.

Construit en 1994, le bâtiment est rectangulaire, étroit, orienté nord-sud, et a une surface brute totale de 13 600 m² sur 3 niveaux (12 700 m² net), pour une occupation d’environ 600 personnes. Dans le volume principal, chaque niveau réunit deux plateaux de 12 m de profondeur de chaque côté d’un grand atrium, chaque plateau étant divisé en 2 zones de bureaux paysagers. À l’est, un volume vitré regroupe le hall d’entrée, la salle de conférence et la cafétéria. À l’ouest sont concentrés les locaux techniques et informatiques.

Plan bâtiment.


Refroidissement par ventilation naturelle

La particularité de ce bâtiment réside dans le mode de refroidissement des bureaux paysagers, par ventilation naturelle, diurne en mi-saison et nocturne en été. La ventilation est organisée grâce à des fenêtres commandées automatiquement et permet de limiter la température intérieure grâce à l’inertie du bâtiment.

Principe de fonctionnement

Schéma principe de fonctionnement.

Ventilation naturelle.

Le principe de ventilation combine la ventilation transversale, d’une façade à l’autre (à partir d’une vitesse de vent de 2.5 à 3 m/s), et la ventilation par effet de cheminée utilisant l’atrium.

L’air est introduit par les fenêtres des bureaux. Celles-ci sont divisées horizontalement en trois parties : les fenêtres des deux rangées inférieures sont commandées manuellement pour une ventilation locale au niveau des occupants, et les fenêtres de la rangée supérieure sont commandées automatiquement pour la ventilation globale de jour ou de nuit.

L’air est extrait par les fenêtres hautes de l’atrium, autour de la coursive du quatrième niveau qui sont également commandées automatiquement.

 

Fenêtre des bureaux :

  • les grandes fenêtres des rangées inférieures sont ouvertes manuellement,
  • les petites fenêtres de la rangée supérieure sont commandées par la GTC

Photo fenêtres hautes d'extraction.  Photo fenêtres hautes d'extraction, détail.

Au 4 ème niveau, fenêtres hautes d’extraction, commandées par la GTC.

Une gestion technique centralisée (GTC) commande l’ouverture et la fermeture de ces fenêtres en fonction des températures extérieures et intérieures, ainsi que de la vitesse du vent et de la nébulosité. Elle intervient également dans la gestion de l’éclairage, du chauffage et du refroidissement, ainsi que dans la gestion des stores extérieurs.

Enfin, les dalles de plafond en béton, apparentes et de forme particulière, permettent un refroidissement efficace et confortable par ventilation.

L’absence de faux plafond permet l’accessibilité de la masse thermique aux charges internes. Elles fournissent donc une certaine inertie thermique au bâtiment. Celle-ci est particulièrement importante pour le refroidissement en été par ventilation nocturne : les charges internes de la journée sont stockées dans la dalle et évacuées la nuit par l’air frais extérieur de ventilation. La journée suivante, la dalle rafraîchie agit comme un « radiateur de froid ».

Les dalles présentent des creux de section elliptique qui guident l’air perpendiculairement aux façades et permettent d’éviter les courants d’air froid au niveau des occupants en ventilation diurne. Ces creux reçoivent un élément technique suspendu regroupant les équipements de plafond : luminaires, capteurs d’éclairement, détecteurs et alarmes incendie, sprinklers, et un absorbant acoustique.

Dalle de plafond.

Régulation de la ventilation

Ventilation nocturne

L’ouverture de toutes les fenêtres supérieures des bureaux et des fenêtres verticales de l’atrium (« 4 ème niveau ») est commandée par la GTC lorsque les conditions suivantes sont réunies :

  1. la température moyenne des bureaux à la fin de la journée dépasse 23°C,
  2. la température extérieure maximale de la journée dépasse 21°C,
  3. le système de chauffage est coupé.

Les fenêtres sont refermées, zone par zone, dès que la température des bureaux de la zone est redescendue à 18°C ou est inférieure ou égale à la température extérieure.

Certaines fenêtres sont également refermées en cas de pluie ou en fonction de la vitesse du vent :

  • En cas de pluie, les fenêtres de la façade face au vent sont fermées.
  • Si la vitesse du vent dépasse 5 m/s, les fenêtres sur la façade au vent sont progressivement refermées pour être complètement fermées quand la vitesse du vent atteint 15 m/s; au-dessus de 20 m/s, les fenêtres de l’autre façade sont également refermées.

Ventilation diurne

Quand le chauffage fonctionne, les fenêtres de bureau de la rangée supérieure sont fermées. Les occupants ont néanmoins la liberté d’ouvrir manuellement les fenêtres des deux rangées inférieures.

Quand le chauffage ne fonctionne pas, et que la température d’une zone dépasse 23°C, les fenêtres hautes de cette zone sont ouvertes automatiquement ainsi que les fenêtres de l’atrium qui leur font face. Les fenêtres sont refermées si la température extérieure est supérieure à la température intérieure et si la vitesse du vent est trop importante (2.5 m/s pour la façade au vent et 5 m/s pour l’autre)


Mesures prises pour limiter les charges internes

Pour que le refroidissement par ventilation garantisse un confort correct dans le bâtiment, les charges internes ont dû être limitées.

Apports internes

Éclairage

L’apport de lumière naturelle de l’atrium permet de limiter le besoin en éclairage artificiel.

Photo lumière naturelle de l'atrium.  Photo lumière naturelle de l'atrium.

Les luminaires suspendus sont conçus de façon à maximaliser le rendement de l’éclairage : 95 % de la lumière est dirigée vers le bas, et seulement 5 % vers le haut; ces 5 % sont récupérés par le local sous forme de lumière diffuse par réverbération dans les creux elliptiques de la dalle. Ils comportent chacun un tube fluorescent de 36 W (T8) et des lampes fluorescentes compactes biaxiales (2L) avec ballast électronique haute fréquence.

Pour augmenter la souplesse de gestion de l’éclairage, les luminaires sont groupés, par plateau, de chaque côté de l’atrium, en trois zones longitudinales :

  1. extérieure, près des façades vitrées,
  2. centrale, au milieu du plateau de bureau,
  3. intérieure, côté atrium.

On peut donc par exemple éteindre les luminaires près de la fenêtre où l’éclairage naturel suffit et les allumer plus en profondeur dans le bâtiment.

Luminaires intégrés dans les équipements suspendus.

Une gestion centralisée de l’éclairage artificiel en fonction des horaires élimine les gaspillages en dehors des heures d’occupation. De plus, l’éclairage est régulièrement éteint suivant les indications des détecteurs de présence. Enfin, certaines zones sont gérées en fonction de l’éclairage naturel disponible : bureaux proches des fenêtres extérieures, atrium, parkings et jardins. La possibilité de régler le niveau d’éclairement est néanmoins laissée aux occupants. L’économie réellement réalisée sur l’éclairage n’est donc pas aussi importante qu’elle ne pourrait l’être théoriquement.

Dans les salles de réunion, la commande de l’éclairage est manuelle.

À l’encontre de ces mesures, des arbres à l’intérieur de l’atrium sont éclairés par éclairage artificiel en dehors des heures de bureau (de 0h00 à 6h00) car ils ne reçoivent pas suffisamment de lumière naturelle. Cet apport d’énergie non indispensable est sans doute critiquable au niveau consommation d’énergie, mais il prouve qu’on peut faire des bâtiments à faible consommation énergétique tout en se permettant certaines « fantaisies architecturales ».

Arbres éclairés une partie de la nuit, dans l’atrium.

Equipements de bureau

Les équipements informatiques les plus importants (serveurs, imprimantes laser, etc.), ainsi que les photocopieuses, sont regroupés dans des locaux séparés, en dehors des bureaux paysagers. On peut donc traiter ces locaux séparément et diminuer la charge interne des bureaux.

Remarque : une étude sur la puissance réelle des équipements de bureaux type utilisés par Powergen a été réalisée. Les puissances relevées se sont révélées bien inférieures aux chiffres habituellement utilisés pour le dimensionnement des équipements de climatisation : environ 7 W/m² de bureau contre 30 W/m². Par mesure de sécurité, la valeur utilisée pour les simulations et le dimensionnement est de 14 W/m².

Apports solaires

Différents éléments participent à la limitation des apports solaires :

> L’orientation nord/sud des façades principales du bâtiment limite le problème posé par les apports de chaleur dus à l’ensoleillement :

  • Il n’y a pas d’apports sur la façade nord.
  • La façade sud, exposée à un soleil haut, peut être protégée efficacement par des éléments fixes.

> Les pare-soleils fixes de la façade sud : grilles métalliques horizontales.

Auvents métalliques fixes sur la façade sud.

> Les stores intérieurs déroulants :

  • Complètent les auvents dans leur le rôle de protection contre les apports de chaleur en façade sud.
  • Permettent d’éviter l’éblouissement des utilisateurs sur les deux façades.

Stores intérieurs déroulants.

> On trouve des stores extérieurs autour du volume vitré à l’est du bâtiment, ainsi que sur les vitrages inclinés de l’atrium.

  • Le volume est du bâtiment, reprenant le hall d’accueil, la cafétéria et la salle de conférences, est protégé par des stores déroulants sur les façades sud et est. Ils sont abaissés et remontés automatiquement en fonction de l’ensoleillement, du vent et des intempéries.

 

Stores extérieurs en façade est et sud,
pour protéger la cafétéria des apports solaires.

Volume vitré à l’est du bâtiment.

  • Les vitrages inclinés de l’atrium sont orientés au sud et sont protégés par des stores extérieurs à lamelles. Leur position sur la longueur du bâtiment est modifiée manuellement selon les saisons.

Stores extérieurs à lamelles au-dessus des vitrages
de l’atrium inclinés, orientés au sud.


Équipements

Ventilation

Une ventilation mécanique complémentaire assure :

  1. l’apport en air hygiénique,
  2. une partie du chauffage des bureaux en hiver,
  3. un apport de froid limité pour les journées de forte chaleur.

Le système de ventilation mécanique est divisé en 4 réseaux, chacun desservant le quart du bâtiment sur ses trois niveaux. L’air est préparé dans 4 locaux techniques, situés aux 4 coins du dernier étage. Il est pulsé par des bouches de sol intégrées dans les faux planchers (diamètre d’environ 25 cm), et extrait par 4 grandes bouches dans les parois des locaux techniques (environ 4 m²). Pour limiter la consommation d’énergie destinée au chauffage des bureaux, l’air extrait est récupéré jusqu’à concurrence de 90 %.

 

Bouches de pulsion et grille d’extraction intérieures.

Vue extérieure d’un des locaux de préparation de l’air,
avec sa grille de reprise et d’extraction d’air.

Chauffage

Le chauffage des bureaux est assuré par :

  1. le chauffage de l’air pulsé (batteries à eau dans les groupes de préparation de l’air, et post-chauffe électrique par étage),
  2. des résistances électriques de faible puissance sous les fenêtres,
  3. la dissipation de la chaleur du condenseur de la machine frigorifique dans les radiateurs de l’atrium.

L’atrium (lieu de réunion) et le hall d’entrée sont chauffés par le sol, la cafétéria est chauffée par des radiateurs traditionnels. Les salles de réunions sont chauffées et refroidies par des ventilo-convecteurs.

Remarque : Le chauffage est dimensionné pour un fonctionnement quasi continu, et tient compte des apports internes; Le bâtiment connaît donc un problème de relance en cas de fermeture exceptionnelle du bâtiment pendant un congé prolongé. Par exemple, lors de la semaine de congé à l’occasion du passage à l’an 2000 (fermeture exceptionnelle), les équipements n’ont été stoppés que quelques jours. Le chauffage a été relancé dès le milieu de la semaine de congé.

Refroidissement

Les locaux à fortes charges internes (cuisine de la cafétéria, locaux avec ordinateurs, photocopieuses, etc.) sont refroidis mécaniquement par des unités de traitement d’air une grande partie de l’année.

Les bureaux sont refroidis par ventilation naturelle comme décrit ci-dessus. En complément, pour les quelques journées les plus chaudes de l’année (utilisé jusque maintenant environ 5 jours par an), l’air pulsé dans les locaux peut être refroidit par une batterie à eau.

Préparation de chaleur et de froid

La boucle d’eau chaude peut prendre sa chaleur à trois sources différentes :

  1. récupération de chaleur sur le condenseur de la machine frigorifique,
  2. pompe à chaleur air/eau qui prépare de l’eau à basse température,
  3. chaudière au mazout pour les besoins exceptionnels de pointe.

Exemples.

  1. Lorsqu’il fait chaud, et qu’une ventilation naturelle est organisée, l’eau de refroidissement du condenseur de la machine frigo est utilisée pour chauffer l’eau sanitaire, et est ensuite refroidie dans les radiateurs de l’atrium. Ces radiateurs chauffent l’air devant les fenêtres d’extraction, pour améliorer l’effet de tirage et favoriser la ventilation. Le reste de la chaleur est évacuée dans des refroidisseurs à air.
  2. Quand des demandes de chaleur apparaissent, l’eau chauffée au condenseur sert :
    • au chauffage de locaux comme la cafétéria, la partie inférieure de l’atrium, le hall d’entrée, etc..,
    • au chauffage de l’air pulsé dans les bureaux,
    • au chauffage de la partie haute de l’atrium pour empêcher les coulées de froid.

Lorsque la demande de chaud augmente, la pompe à chaleur air/eau est mise en fonction et produit de l’eau à basse température qui vient en complément de l’eau du condenseur. Enfin, en cas de forte demande, la chaudière peut également fournir de la chaleur.

Equipement techniques extérieurs.

Radiateurs sous les fenêtres d’extraction de l’atrium : ils empêchent les « coulées de froid » en hiver, et favorisent l’effet de tirage quand les fenêtres sont ouvertes.

Encombrement du système

Le système de ventilation mécanique prend peu de place :

  • Il n’y a pas de gainage de reprise d’air grâce à l’atrium.
  • Les gaines de pulsion sont peu encombrantes : 4 gaines verticales aux 4 coins du bâtiment, le gainage horizontal de pulsion est inclus dans le faux plancher (hauteur de 45 cm, et il n’y a pas de gainage d’extraction, celle-ci étant réalisée via l’atrium.

L’installation pour le refroidissement mécanique est moins importante que dans un bâtiment climatisé.

Néanmoins, le 4 ème niveau (le niveau a une surface réduite par rapport au trois premiers niveaux puisqu’il se résume à une coursive) et l’atrium ont un encombrement non négligeable. Mais l’atrium participe également à l’apport de lumière naturelle, à l’aspect architectural global et au fonctionnement du bâtiment.

Le bilan comparatif du point de vue encombrement entre un bâtiment climatisé et ce bâtiment est donc difficile à faire.


Confort et sécurité

Températures

La ventilation naturelle permet de maintenir la température intérieure 3°C en-dessous de la température extérieure. Cela s’est vérifié même durant l’été très chaud de 1995.

Confort acoustique

Les éléments techniques suspendus aux plafonds ont des « ailes » qui sont des absorbants acoustiques. La forme elliptique des creux dans le plafond focalise les ondes sonores vers ces absorbants.

De plus, dans les zones où apparaît une source de bruit importante, une onde est diffusée pour noyer ce bruit, sorte de « bruit de fond parasite » non perceptible. Les diffuseurs, comme les autres éléments techniques de plafond, sont intégrés dans les éléments complexes suspendus.

Sécurité incendie

Le concept d’un seul et même espace pour la quasi-totalité du bâtiment est en principe contraire à la réglementation incendie en vigueur dans notre pays. En Belgique, chaque étage doit être séparé par des cloisons Rf 1 ou 2 heures en fonction des cas. Cependant, la nouvelle législation belge (AR de 97) prévoit la possibilité de contourner cette exigence si des moyens adéquats sont prévus pour assurer le désenfumage. Appliquer le concept de ce bâtiment chez nous demande donc une étude approfondie de la sécurité incendie, étude qui devra être approuvée par les pompiers. Il faudra, par exemple, être attentif à ne pas utiliser les balcons comme chemin d’évacuation, peut-être prévoir des écrans de fumée automatiques entre les étages, étudier correctement le désenfumage (amenée d’air de compensation, fermetures automatiques des amenées d’air naturelles, …), … En gros, il faudra convaincre les pompiers !

Dans l’exemple présenté ici, les équipements de sécurité incendie sont les suivants :

  • nombreux escaliers de secours extérieurs (trois par façade),
  • détecteurs de fumée,
  • système d’alarme incendie relié aux centrales de préparation d’air et aux commandes des fenêtres,
  • sprinklers.

En cas d’incendie, les fenêtres automatiques au niveau des bureaux sont fermées, le système de ventilation est coupé, mais les fenêtres hautes de l’atrium sont ouvertes pour évacuer les fumées.

 

Escaliers de secours sur la façade sud .


Coût et consommation

Coût global de 900 £/m² (hors mobilier de bureau) (environ 1 404 €/m²), soit parmi les plus bas pour un tel type de bâtiment de bureaux.

Coûts relatifs

£/m²

%

Fondations

19.5

2.2

Structure

383.9

42.6

Finitions internes

74.4

8.3

Mobilier

10.4

1.1

Équipements techniques

348.7

38.7

Divers

63.7

7.1

TOTAL

900.6

100

La consommation du bâtiment peut être comparée avec celle du bâtiment voisin, équipé d’air conditionné. Il est nouveau, de même type d’architecture et de même type d’occupation. La consommation annuelle au m² du bâtiment ventilé naturellement est inférieure de 20 % à celle du bâtiment conditionné.

Remarque : ce nouveau bâtiment, occupé pour le moment par Powergen, risque d’être loué ou revendu à plus ou moins long terme. C’est pour cette raison que le choix a été fait de le construire de façon plus traditionnelle, et de l’équiper d’air conditionné.

Nouveau bâtiment de Powergen.


Commentaires

Il semble que le choix de conception d’un bâtiment « basse énergie » résulte plus d’un souci d’image de marque de la société que d’une préoccupation énergétique.

Vont notamment à l’encontre de cette préoccupation énergétique

  • L’éclairage la nuit des arbres de l’atrium.
  • Le pompage de l’eau des étangs extérieurs pour maintenir les chutes entre les mares construites à différents niveaux.

 

Malgré tout, le bâtiment fonctionne bien : la consommation est inférieure à celle d’un bâtiment conditionné, les occupants semblent satisfaits, et l’aspect architectural n’a pas été négligé.

Il faut noter deux éléments importants qui ont permis la réalisation d’un tel projet, et qui font qu’il ne peut être généralisé partout :

  • L’organisation des bureaux est essentiellement paysagère, cette organisation ne peut convenir à tous les bâtiments.
  • Le site suburbain permet l’ouverture des fenêtres sans gêne pour les utilisateurs (bruit, pollution,…).

Remarque : si l’implantation sur un site à l’extérieur de la ville permet une ventilation naturelle de jour, elle entraîne une consommation en déplacements. Cet aspect devrait entrer dans une réflexion plus globale.


Conclusion

Avec des aménagements pour respecter la législation incendie en Belgique (ou des négociations…), la ventilation naturelle de bureaux paysagers dans des sites suburbains est une bonne solution pour diminuer la consommation d’énergie d’un bâtiment.

  • Architectes : Bennetts Associates
  • Ingénieurs stabilité : Curtins Consulting Engineers
  • Ingénieurs techniques spéciales : Ernest Griffith & Son Consulting Engineers

Le Queen’s Building est un bâtiment de la faculté d’ingénieur de l’université de Montfort regroupant auditoires, salles de cours, bureaux, laboratoires et ateliers. Les gestionnaires du bâtiment l’ont voulu faible consommateur d’énergie. Il a donc été conçu pour :

  1. limiter la consommation due à l‘éclairage artificiel :L’enveloppe du bâtiment est pensée pour apporter un maximum d’éclairage naturel à tous les locaux, soit directement par des fenêtres en façade et en toiture, soit indirectement par des fenêtres intérieures donnant sur l’atrium central.Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire.
  2. Eliminer les consommations de refroidissement et de ventilation.Les apports calorifiques d’été sont limités par la protection de certaines ouvertures extérieures.Une ventilation naturelle est organisée dans tout le bâtiment : l’air est introduit par les fenêtres et extrait, selon les locaux, par des fenêtres (en façade ou en toiture), ou par des cheminées. Dans un souci de simplicité, les équipements accessibles sont commandés manuellement. La ventilation est exclusivement diurne pour l’ensemble des locaux à l’exception des auditoires dans lesquels une ventilation nocturne est également organisée. L’inertie thermique du bâtiment combinée à cette ventilation permet de réduire la température de pointe en été.

Ces moyens ont réellement permis de limiter la consommation annuelle moyenne à 145 kWh/m², ce qui est un très bon résultat pour ce type de bâtiment en Angleterre.
Pour découvrir le fonctionnement du bâtiment, consultez les détails du projet.

Boucles frigoporteuses

Boucles frigoporteuses

Boucle frigoporteur à eau glycolée (source : Delhaize).


Définitions

Détente directe

On parle de détente directe lorsque le fluide frigorigène assure lui-même le transfert de chaleur « utile » aux applications de froid alimentaire (meubles frigorifiques, les ateliers de boucherie, les chambres de stockage, …).

 Refroidissement par détente directe.

Refroidissement indirect

Le refroidissement est indirect lorsque le transfert de chaleur « utile » n’est pas assuré par le fluide frigorigène lui-même, mais plutôt par un fluide intermédiaire appelé frigoporteur.

 Refroidissement indirect par boucle secondaire monotube.

Frigoporteur

En raison de la simplicité avec laquelle les frigoporteurs assurent le transfert de chaleur « utile » entre deux points sans gros risque de toxicité et d’inflammabilité et dans un souci de réduire les fuites de fluide frigorigène (néfastes à la couche d’ozone et à l’effet de serre), ce type de configuration revient en force dans le domaine du froid alimentaire.


Les types de frigoporteur

On retrouve 2 principaux types de frigoporteur :

  • Les frigoporteurs monophasiques composés d’un liquide incongelable dans la gamme des températures standard du froid alimentaire (-3 à – 38 °C par exemple).
  • Les frigoporteurs biphasiques composés :
    • d’un liquide et d’un solide;
    • d’un liquide et de sa vapeur.

Frigoporteurs monophasiques

L’eau glacée constitue le plus connu des frigoporteurs monophasiques. Tout le transfert de la chaleur est effectué par la variation de la température (chaleur sensible) du frigoporteur.

Des débits importants sont nécessaires pour travailler en chaleur sensible. Ceci signifie que les boucles de distribution utilisent des sections de passage importantes et constituent donc une dépense énergétique non négligeable pour faire circuler le frigoporteur.

On retrouve sur le marché différents frigoporteurs :

  • les substances pures telles que l’eau, les hydrocarbures liquides, les alcools simples (méthanol, éthanol), les polyalcools (éthylène glycol, propylène glycol, …);
  • les mélanges tels que l’eau + sel (saumure), l’eau + ammoniac (alcali), …

Il est clair qu’en froid alimentaire, le type de frigoporteur ne doit pas altérer les denrées et ne pas constituer un risque de toxicité et d’inflammabilité pour les personnes; ce qui limite le choix.

Pour donner un ordre de grandeur, on parle pour les frigoporteurs monophasiques de transfert de chaleur de  ~ 20 [kJ/kg] en chaleur sensible.

Avantages

  • Équipements de boucle simples.

Inconvénients

  • Débit important.
  • Dimensionnement conséquent.
  • Dépense énergétique non négligeable.

Frigoporteurs diphasiques (liquide + solide)

On rencontre ce type de frigoporteur sous forme de « coulis » ou « sorbet » dans les applications de froid positif. On parle ici de chaleur latente de fusion dans les transferts de chaleur; ce qui permet d’augurer des réductions de débits pour évacuer la même quantité de chaleur qu’un frigoporteur fonctionnant en chaleur sensible.

De même, un ordre de grandeur acceptable de transfert de chaleur est de  ~ 250 [kJ/kg].

Avantages

  • Chaleur latente de fusion importante.
  • Débit réduit par rapport à la solution type chaleur sensible.
  • Dimensionnement réduit des conduites et des pompes.
  • Consommation énergétique plus faible qu’avec un frigoporteur à chaleur latente.

Inconvénients

  • Coût élevé de l’évaporateur.

Frigoporteurs diphasiques (liquide + vapeur)

On rencontre ce type de frigoporteur dans les applications de froid négatif par exemple les installations à frigoporteur au CO2. On parle ici de chaleur latente de vaporisation dans les transferts de chaleur. Cette chaleur de vaporisation est en général fort importante.

Pour une température d’application de -40°C, sachant que l’évaporation n’est pas totale, sur une chaleur totale de vaporisation de ~ 322 [kJ/kg], on peut envisager disposer de 107 [kJ/kg] (pour un titre à la sortie de l’évaporateur de l’ordre de 33 %).

Avantages

  • Chaleur latente de vaporisation importante.
  • Bon coefficient d’échange thermique.
  • Faibles volumes massiques du liquide et de la vapeur.
  • Tuyauterie de faible diamètre.
  • Absence d’huile.
  • Prix faible.
  • Peu d’influence sur l’environnement.
  • Très faible impact sur l’effet de serre (GWP = 1). À titre de comparaison, le GWP du R404A est de 3 800 et celui du R134a est de 3 260.
  • Frigoporteur naturel, largement disponible.
  • Applications pouvant aller jusqu’à -54°C.
  • Aux basses températures, sa viscosité reste faible évitant des pertes de charge importantes.

Inconvénients

  • Danger d’asphyxie au-delà de concentration > 8 %.
  • Les dégivrages demandent des précautions particulières.
  • Peu de techniciens formés.
  • Nécessite une déshydratation très poussée de la boucle (sinon formation d’acide avec l’eau).
  • En cas d’arrêt prolongé, perte de charge de CO2 (dégazage).
  • Fortes pressions de service.

Les types de boucle

Ces types de boucle utilisent les technologies monotube et bitube.

Technologie monotube

Cette technologie, comme son nom l’indique est composée d’une boucle à un seul tuyau qui alimente les évaporateurs terminaux en série. Le même tube dessert les entrée et sortie de chaque évaporateur.

Schéma de principe Technologie monotube.

Avantages

  • Très modulable en exploitation.
  • Débit pratiquement constant dans la boucle frigoporteur.
  • Pas de nécessité de variateur de fréquence sur les pompes de mise en circulation du frigoporteur (investissement réduit).

Inconvénients

  • Coût important.
  • Maintenance des circulateurs des applications terminales alors que dans le cas du bitube, il n’y a que des électrovannes sans beaucoup d’entretien (augmentation de l’ordre de 10 % des coûts d’entretien).
  • La non-variation du débit entraîne des pertes énergétiques lorsque la demande frigorifique est faible.

Technologie bitube simple

Cette technologie positionne les évaporateurs terminaux en parallèle sur la boucle frigoporteur.

Schéma de principe technologie bitube simple

Avantages

  • Une simple vanne suffit à alimenter un évaporateur terminal.
  • Le débit variable des pompes de circulation du frigoporteur permet de réduire les consommations énergétiques.

Inconvénients

  • Mise en œuvre plus conséquente de par la nécessité d’adapter les sections des tuyauteries tout au long de l’aller et du retour de boucle.
  • Pertes de charge variables nécessitant une régulation du débit des pompes de circulation (investissement dans des variateurs de fréquence).

Technologie bitube avec vannes 3 voies montées en décharge

Cette technique permet de remédier au problème de débit variable grâce au placement de « by-pass » des évaporateurs terminaux.

Schéma de principe technologie bitube avec vannes 3 voies montées en décharge.

Avantages

  • Débit constant au niveau des pompes de circulation du frigoporteur.

Inconvénients

  • Sans débit variable au niveau des pompes, les pertes énergétiques sont plus importantes.
  • Les coûts d’investissement sont importants.

Des ascenseurs équipés d’un système de gestion de trafic

Des ascenseurs équipés d'un système de gestion de trafic


Introduction

Le Centre Hospitalier Universitaire André Vésale à Montigny-le-Tilleul compte un parc de 22 ascenseurs visiteurs et monte malades. En 1999, après 20 années de loyaux services, il était temps d’entreprendre une grande rénovation de la machinerie et des cabines. Lors de cette modernisation, l’équipe du service technique s’est penchée sur l’intérêt du placement de variateurs de fréquence associés à un système de gestion du trafic.


Quelques chiffres pour se donner des idées

On dénombre quelques 74 000 ascenseurs en Belgique dont 61% ont plus de 20 ans et 17% plus de 45 ans. Bref, il existe chez nous un grand potentiel en terme de rénovation et d’amélioration des équipements voire de renouvellement complet du système.

Au CHU André Vésale, on comptabilise :

  • 320 000 à 650 000 démarrages par an et par ascenseurs pour les ascenseurs visiteurs;
  • 268 000 à 385 000 démarrages par an et par ascenseurs pour les ascenseurs monte-malades. Soit un trafic important mais certes normal pour une institution hospitalière.


Les objectifs fixés lors de la rénovation

Prolonger la durée de vie de l’ensemble des ascenseurs via une modernisation des cabines et un remplacement des moteurs, améliorer le confort d’utilisation et les délais d’attente, réduire les coûts d’entretien via des équipements plus performants, mettre les installations en règle avec la dernière Directive Européenne et accessoirement diminuer la consommation d’énergie globale du poste ascenseurs. Tous ces objectifs furent atteints en final.


La variation de fréquence sur les moteurs

Aujourd’hui, en matière d’ascenseurs, toutes les nouvelles installations sont dorénavant équipées d’une variation de fréquence sur les moteurs entraînant les cabines. Les intérêts de la régulation en fréquence par rapport à la régulation en tension sont nombreux : précision d’arrêt au niveau des seuils d’étage, fonctionnement plus souple, réduction de l’usure mécanique, diminution des pointes de démarrage ainsi que de la consommation électrique globale.


La gestion de trafic

De plus en plus fréquemment, on verra implanter un système de gestion de trafic pour les ascenseurs fortement sollicités. L’intérêt de cette gestion est de réduire le temps d’attente des ascenseurs aux étages et de réduire la durée du parcours (en général, il y a de fortes chances qu’en se rendant du 1er au 6ème, l’ascenseur opère une halte à chaque étage).

Petite mise en situation pour expliquer le principe : sur un palier où traditionnellement un visiteur appuie habituellement sur les 3 boutons d’appel des 3 ascenseurs dans le but d’en obtenir un rapidement, il est demandé au visiteur de composer le numéro de l’étage auquel il souhaite se rendre. Le système de gestion, après évaluation, indique alors sous forme d’un affichage (A, B ou C) lequel des 3 ascenseurs le conduira dans les plus brefs délais à sa destination même si ce n’est pas le premier qui ouvrira ses portes au niveau du palier.


Énergie

Au CHU André Vésale, des mesures ont été effectuées sur 24h pour une journée type avant et après la rénovation afin de chiffrer l’intérêt en termes d’économie d’énergie de l’association des variateurs de fréquence au système de gestion de trafic.

  • Avant : pointes de démarrage de 140 ampères
  • Après : pointes de démarrage de 60 ampères
  • Avant : consommation journalière de 122,73 kWh
  • Après : consommation journalière de 61,15 kWh

On constate une économie d’énergie de l’ordre de 50 % sur le poste ascenseur suite aux travaux de modernisation effectués. Les variateurs de fréquence diminuent le niveau des pointes de démarrage par rapport à l’ancien système et le système de gestion de trafic permet une réduction du nombre de démarrage et une optimisation des déplacements des cabines.


En détail

Économique

Investissements consentis pour la rénovation des ascenseurs et la mise en place du système de gestion de trafic : 530 000 € TVAC.

Informations complémentaires

Dominique TESSE
Directeur Technique
ISPPC
Tél : 071 924 460
Email : dominique.tesse@chu-charleroi.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Choisir le type d’éclairage : direct, mixte ou indirect ?

Éclairage direct

C’est l’éclairage direct qui donne les meilleurs résultats en termes de conception énergétique. On peut arriver à des valeurs de puissance spécifique sous certaines conditions de l’ordre de 1,5 W/m²/100 lux. Suivant l’usage des locaux ou des espaces dans les locaux, trois types d’éclairage ou un mixte des trois seront envisagés :

  • un éclairage général uniforme ;
  • un éclairage général orienté ;
  • un éclairage ponctuel.

Éclairage général uniforme

L’éclairage général uniforme  permet d’avoir une grande flexibilité des postes de travail. Attention toutefois que ce genre de considération conduit souvent à un surdimensionnement inutile des installations d’éclairage. La dernière version de la norme NBN EN 12464-1 palie à ce risque de surdimensionnement. En effet, dans la zone dite « de fond », le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1. Ce qui permet d’envisager un éclairage général uniforme de faible niveau d’éclairement et de prévoir des zones de travail mobiles et flexibles avec l’uniformité et le niveau d’éclairement requis. Énergétiquement parlant, c’est acceptable et vivement conseillé.

Exemple
Soit un hall d’usinage qui demande une très grande flexibilité par rapport à la position des postes de travail. Le niveau d’éclairement pour certains postes de travail pourrait être de 750 lux. Selon la NBN EN 12464-1, le niveau d’éclairement moyen devrait s’élever à 250 lux.

 

Cette configuration de luminaires permet d’envisager :

  • De modifier complètement la disposition du hall sans toucher à l’éclairage ;
  • Une disposition variable des postes de travail sur toute la surface du hall ;
  • L’installation de nouveaux équipements.

Les caractéristiques des luminaires peuvent être les suivantes :

  • Une répartition de façon non préférentielle ;
  • Des luminaires à caractéristiques modifiables (position des lampes, type de réflecteur, …) ;
  • Des luminaires montés sur rails porteurs, donc facilement déplaçables ; ce qui avait été envisagé dans l’étude de cas réalisée.

Éclairage général orienté

Lorsque la position des zones de travail est fixe (tableau d’une salle de cours, écran d’une salle de réunion, machines-outils fixes, …), localiser l’éclairage près des zones de travail est une excellente méthode pour limiter la puissance installée.
Attention toutefois au recommandation de la norme NBN EN 12464-1 :  Éviter des contrastes trop élevés. Dans la zone dite « de fond »,  le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1.
De manière générale, ce type d’éclairage permet :

  • D’envisager un niveau d’éclairement plus faible pour les circulations.
  • D’éviter de trop éclairer des zones où la lumière naturelle est présente en abondance sachant que lorsqu’il fait noir dehors, l’éclairage de la zone devant la baie vitrée n’est pas nécessaire.
  • Par le choix de luminaires asymétriques, obtenir un éclairement suffisant sur des plans verticaux comme dans les rayonnages des archives par exemple.

Le choix de l’éclairage général orienté devra aussi composer avec la structure du plafond et l’emplacement des poutres de structures qui risquent de faire écran à la disposition de la lumière ; à méditer !

Attention toutefois qu’un éclairage orienté mal positionné provoque des ombres indésirables et peut être dangereux notamment dans les ateliers où les postes de travail sont, par exemple, des machines tournantes.
Lorsqu’un atelier comporte des machines-outils dangereuses, des marquages appropriés doivent délimiter les zones de circulation et de travail, ainsi que les zones de danger. L’éclairage doit alors appuyer ces mesures en insistant sur les trois types de zone.

Éclairage ponctuel

Ce type d’éclairage permet de disposer d’un éclairement important au niveau des postes de travail de précision, sans augmenter exagérément le niveau d’éclairement général. Cette solution est toute profitable d’un point de vue énergétique.

Les luminaires individuels complémentaires  peuvent augmenter localement le niveau d’éclairement et accentuer certains contrastes.

Leur emplacement doit être approprié pour ne pas générer des situations dangereuses de travail :

Soit le ou les luminaires sont placés dans les allées encadrant les postes de travail, et ce en veillant à ce que la lumière provienne des côtés et qu’il n’y ait ni ombre ni d’éblouissement gênant.
Soit le ou les luminaires sont placés contre les postes de travail. Idéalement, ces luminaires devraient être équipés d’un gradateur de lumière. La position et l’orientation de ces luminaires doivent être réglables pour éviter les réflexions sur les objets éclairés.

Conseil : pensez  éventuellement à placer un interrupteur ou un détecteur de présence/d’absence à chaque poste de travail pour éviter que ces lampes restent allumées inutilement à des postes non-occupés.

Pour éviter de trop grandes variations de luminance dans le champ de vision des utilisateurs, maintien d’un niveau d’éclairement général suffisant par rapport à l’éclairement de la tâche :

Éclairement général = 3 x (Éclairement ponctuel)½

 Exemple dans les commerces

Dans les commerces d’ancienne génération, on se souvient tous, même les plus jeunes, du surdimensionnement de l’éclairage général uniforme de manière à couvrir l’ensemble de la surface de vente avec des niveaux d’éclairement de l’ordre de 750 lux. « Question de marketing, disaient les vendeurs ! »

Cependant, cet éclairage présente le risque de créer des zones d’ombre qui peuvent se révéler gênantes. Ce risque est d’autant plus important que la hauteur sous plafond est grande et que l’on utilise des luminaires suspendus. De plus, énergétiquement parlant, ce n’était pas la meilleure manière de travailler.

Le système direct à deux composantes est à préférer au système direct lorsque l’on veut mettre en valeur des objets, créer des contrastes de luminosité. On réalisera des économies d’énergie d’autant plus importantes que le niveau d’éclairement à assurer est supérieur au niveau d’éclairement général nécessaire (censé permettre un déplacement par exemple). On économisera de l’énergie en augmentant l’éclairage localement via un deuxième circuit plus intensif que le premier. Dans la pratique, on vérifiera ce constat théorique en réalisant une étude comparative des systèmes « directs »  et « à deux composantes ».

Éclairage indirect

Un éclairage indirect via le plafond a l’avantage de ne pas provoquer d’éblouissement par la vue directe des lampes. La probabilité d’ombre est inférieure. Mais son efficacité énergétique est faible et fort dépendante des coefficients de réflexion des parois (généralement le plafond).  Comme ceux-ci n’atteignent que rarement les 0.85, il faudra surdimensionner l’installation d’éclairage (en première approximation entre 15 et 30% voire 50% dans locaux où la hauteur sous plafond est importante) pour réaliser un éclairement équivalent à celui fourni par un éclairage direct. Ce système sera fortement dépendant de l’état de propreté des parois du local (ceci peut aussi conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple dans les commerces

Ce type d’éclairage sera proscrit sachant que, typiquement dans les commerces de type grande surface, les plafonds sont parcourus par des gaines de ventilation, des chemins de câbles électriques, … La tendance actuelle, bien comprise par un certain nombre de responsables énergie de magasin de grande distribution, est de prescrire un éclairage direct bien positionné avec un plafond sombre pour masquer sensiblement les techniques spéciales apparentes.

Éclairage mixte

Du point de vue efficacité énergétique, ce système se situe entre les systèmes directs et indirects. Plus la composante directe sera prépondérante, moins énergivore le système sera.

Il est à noter que les pertes complémentaires dues à la partie indirecte de l’éclairage seront en partie compensées par un rendement total du luminaire mixte souvent plus important que celui du luminaire direct.

En ce qui concerne le confort, ce type de système peut trouver son utilité dans le cas de locaux possédant une grande hauteur sous plafond, pour éviter la création d’une zone d’ombre trop importante. Ce constat est d’autant plus marqué si l’on utilise des luminaires suspendus. Dans ce cas, une faible proportion de flux lumineux dirigée vers le haut suffira.

Bien entendu, si la hauteur sous plafond est raisonnable, la réflexion sur les murs et le sol suffira à éclairer suffisamment le plafond.

Comme dans le cas du système indirect, ce système sera dépendant de l’état de propreté des parois du local (ceci peut conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple des commerces

Lorsque les plafonds ou faux plafonds sont de qualité acceptable et ne sont pas encombrés par des techniques spéciales apparentes, on pourra envisager ce type d’éclairage en favorisant la composante directe des luminaires, la composante indirecte donnant un « look » commercial intéressant.
« Il en faut pour tous les goûts ! »
Un autre exemple éclairant

On peut considérer que seul le flux dirigé vers le bas est efficace. En effet, la plupart du temps les luminaires sont situés au-dessus de la marchandise à éclairer. La plupart du temps seulement, car dans certains cas, la lumière émise vers le haut peut avoir un effet utile (éviter la présence d’une ombre gênante au niveau du plafond…).

Si l’on considère que seule la lumière dirigée vers le bas est utile, alors on peut introduire la notion de rendement utile du luminaire. Soit un appareil possédant les rendements suivants :

Rendement vers le bas : 30 %
Rendement total : 90 %
Rendement vers le haut : 60 %

La lumière dirigée vers le haut, avant d’atteindre la marchandise, devra être réfléchie par le plafond. Si on considère que cette surface possède un coefficient de réflexion de 0.7, alors 30 % de la lumière émise vers le haut sera « perdue ». On peut donc estimer que le luminaire possède les rendements utiles suivants :

Rendement vers le bas : 30 % Rendement total : 72 %
Rendement vers le haut :
60 * 0.7 = 42 %

Le rendement du luminaire a ainsi diminué de 20 %.

La figure suivante donne le facteur par lequel il faut multiplier le rendement pour trouver son équivalent « utile » en fonction du type d’éclairage choisi et pour un coefficient de réflexion de 0.7 pour le plafond. Notez que cette valeur est celle prise de manière standard. Cette valeur est assez élevée puisqu’elle correspond à un plafond peint en blanc. La valeur de ce coefficient descend à 0.25 si la peinture est brune et à 0 dans le cas d’un plafond noir.

Bien entendu, ce calcul est simplifié. Pour être exact, on devrait tenir compte de l’influence du système d’éclairage sur l’uniformité des niveaux d’éclairement, des autres réflexions sur les murs du local, …

Le but de cet exemple est de montrer qu’il est essentiel, lorsque l’on vise l’efficacité énergétique de limiter la composante supérieure du flux émis.

Comparaison en termes d’efficacité énergétique

Un point de comparaison s’impose entre les différents éclairages :

Comparaison de trois systèmes d’éclairage pour une même puissance installée :

6 luminaires de 2 x 36 W (et ballast électronique),
pour une classe de 7 m x 8 m x 3,2 m, soit 7,7 W/m²,
coefficients de réflexion : 0,7 (plafond); 0,5 (murs); 0,3 (sol).

Système d’éclairage

Direct Mixte Indirect

Éclairement sur le plan de travail

348 lux 350 lux 231 lux

Éclairement au sol

310 lux 304 lux 207 lux

Type de lampes

Tubes fluo Tubes fluo Tubes fluo

Puissance spécifique/100 lux sur le plan de travail

2,2 W/m2 2,2 W/m2 3,3 W/m2

Parmi les choix énergétiquement corrects, on retiendra le direct et le mixte. L’indirect sera juste réservé pour créer des ambiances bien spécifiques lorsque ce choix se révèle incontournable comme dans certains locaux d’hôtel (bar, accueil, …), des chambres d’hôpital, …

Découvrez ces exemples de rénovation de l’éclairage : un établissement scolaire au centre de Liège et une fabrique de peinture à Lausanne.

Choisir la cellule de refroidissement ou de congélation rapide [Concevoir – Froid alimentaire]

Quand doit-on choisir une cellule de refroidissement rapide ?

Dans tout atelier traiteur par exemple où l’on a opté pour une liaison froide, il est recommandé d’abaisser la température au cœur des aliments de + 65 °C à + 10 °C en moins de 2 heures. La cellule de refroidissement rapide est l’équipement idéal pour atteindre ces performances.

Il ne s’agit pas d’une obligation, mais d’une bonne pratique de fabrication qui est recommandée si l’on veut refroidir des aliments cuits en toute sécurité et si on veut prouver que des procédures de sécurité sont appliquées conformément à l’art. 3 et 4 de l’A.R du 07/02/97.

Cette bonne pratique provient, en fait, d’une réglementation qui s’applique aux établissements de transformation de la viande : A.R. du 4 juillet 1996 relatif aux conditions générales et spéciales d’exploitation des abattoirs et d’autres établissements / annexe chapitre V point 5, qui dépendent de l’IEV (Institut d’Expertise Vétérinaire).

Il convient de noter que le choix de la liaison froide peut se faire pour l’ensemble des menus ou pour une partie seulement. Il existe, par exemple, certaines cuisines collectives qui proposent chaque jour des plats végétariens en plus du menu du jour, mais pour ne pas avoir à fabriquer chaque jour deux plats, les plats végétariens sont préparés un jour par semaine, par exemple, en liaison froide.


Choix du procédé de production du froid

Il existe deux procédés de production du froid dans une cellule de refroidissement rapide :

Les coûts d’utilisation d’une cellule de froid mécanique sont nettement (10 x) plus faibles que ceux d’une cellule de froid cryogénique. Par contre, les coûts d’investissement pour une cellule cryogénique sont nettement plus faibles que pour une cellule mécanique.

Pour une utilisation régulière de la cellule, la cellule mécanique sera donc beaucoup plus intéressante. Dans le seul cas d’une utilisation occasionnelle, une cellule cryogénique peut être intéressante.

Lorsque le refroidissement rapide est utilisé régulièrement, il paraît risqué de n’avoir qu’une seule cellule. En cas de panne, la préparation est bloquée. On peut alors songer à investir dans une cellule de refroidissement mécanique principale et une deuxième cellule cryogénique de dépannage.

Parmi les fluides utilisés pour le froid cryogénique, vu la très faible température d’ébullition de l’azote, celui-ci est utilisé lorsque les distances à parcourir entre le lieu de stockage du fluide et le lieu de production du froid sont grandes.

Il faut cependant veiller à bien calorifuger les conduites. Le dioxyde de carbone (CO2) sera utilisé lorsque ces distances sont plus courtes.


Précautions d’utilisation

Pour obtenir un fonctionnement satisfaisant et économique, on place les préparations sur les clayettes ou les supports prévus à cet effet, afin de favoriser la circulation de l’air, et d’utiliser la cellule à sa capacité nominale.

Capacité et puissance frigorifique des cellules

La capacité (kg)

Elle doit correspondre à celle des appareils de cuisson, c’est-à-dire qu’elle doit permettre de refroidir le nombre de préparations qui peuvent être préparées en une seule fois par les autres appareils de cuisson.

L’ensemble des mets préparés pourra ainsi être refroidi dès la fin de la cuisson. En effet, selon la réglementation, « la durée de refroidissement entre la fin de la cuisson et une température à cœur de 10°C doit être inférieure ou égale à deux heures. »

D’autre part, la cellule pourra ainsi être utilisée à sa pleine capacité. Ce qui permet de travailler au meilleur rendement possible.

La puissance frigorifique

de l’appareil dépend de la durée que prend le refroidissement ou la congélation, de la capacité désirée et de la température à atteindre. Le besoin en frigories est donné par la quantité de chaleur qu’il faut retirer des aliments pour les faire passer de 65°C à 10 °C (ou – 18 °C).

Le calcul ci-dessous est statique et purement théorique. Il est donné à titre indicatif. En réalité, pour correspondre à la réalité, le calcul devrait être fait en dynamique. Statique, le bilan ci-dessous néglige les apports de chaleur au travers des parois, relativement négligeables par rapport à la chaleur à extraire des aliments.
En refroidissement rapide

Q = m x Cs x δt

Où :

  • Q = besoin en frigories (en kWh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs= chaleur spécifique des aliments (kWh/kg°C),
  • δt = différence entre la température à l’entrée et à la sortie des aliments (10°C) (K).

En congélation rapide

Q = (m x Cs x δt) + (m x Cl) + (P1 x Cs‘ x δt’)

Où :

  • Q = besoin en frigories (en Wh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs = chaleur spécifique au-dessus de 0°C des aliments (Wh/kg°C),
  • Cl = chaleur latente nécessaire au changement d’état du constituant liquide des aliments (passage à l’état solide) (Wh/kg),
  • Cs‘ = chaleur spécifique en-dessous de 0°C des aliments (Wh/kg°C),
  • δt = différence entre la température à l’entrée des aliments et 0°C (K),
  • δt’ = différence entre 0°C et la température de sortie des aliments (-18°C) (K),

La puissance frigorifique de l’évaporateur

P(W) = Q (Wh) / t (h)

Où :

  • t = temps maximum légal – temps nécessaire au conditionnement des aliments.

Temps maximum légal = 2 h pour le refroidissement de 65 °C à 10 °C et 3 h pour le passage de 10 °C à -18 °C (congélation).

Exemple.

1. Soit une cellule de congélation rapide, d’une capacité de 20 kg; la congélation doit se faire en 4 h.

Q = 20 x 1,04 x 65 + 20 x 80 + 20 x 0,53 x 18 = 3 143 (Wh) (soit 157 Wh par kg)
P =  3 143  /  4 = 785 W (soit 40 W/ kg.)

2. Soit une cellule de refroidissement rapide, d’une capacité 20 kg; le refroidissement doit se faire en 1h30.

Q = 20 x 1,04 x 55 = 1 144 Wh (soit 57 Wh/kg.)
P = 1 144/1h30 = 762 W (soit 38 W/kg).

En réalité la puissance calculée ci-dessus en statique est une moyenne. Or, la puissance nécessaire varie en fonction du temps, selon une courbe d’allure exponentielle, et la puissance maximale est demandée à l’évaporateur en début de processus (c’est alors que les Δt sont les plus importants). La puissance frigorifique des cellules correspond donc à cette puissance maximale.

Voici les puissances électriques que nous avons relevées dans la documentation d’un fournisseur :

Remarque : entre la puissance frigorifique et la puissance électrique, il y a le COP.

Cellule à clayette – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
7 2 100
15 2 280/450*
25 4 000/580*
50 6 100/580*

* version équipée sans groupe frigorifique (à distance).

Cellule à chariots – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
En surgélation En refroidissement
65 65 3 200/900*
80 110 5 400/4 300*
160 220 9 600/6 600*
240 330 11 500*
320 440 14 000*
480 660 20 000*

* version équipée sans groupe non comprise l’alimentation du groupe frigorifique (à distance).

Évaluer le confort thermique des ambiances froides

Évaluer le confort thermique des ambiances froides


Effet du froid sur le corps humain

Photo chambre froide.

Travailler dans des températures froides comme en boucherie peut être dangereux pour la santé pouvant même, à l’extrême, entraîner la mort (au risque de faire sourire certain, rester bloqué dans une chambre de congélation pendant un temps prolongé peut être fatal). Le corps doit absolument maintenir sa température corporelle à 37 °C pour préserver la santé des personnes et aussi fournir l’énergie nécessaire aux activités physiques. Le métabolisme sert au corps humain à s’adapter aux conditions difficiles de travail dans des ambiances froides.

Afin de maintenir son équilibre thermique en zone froide, le corps dispose de mécanismes de régulation :

  • Un mécanisme très complexe de régulation physiologique qui a pour but d’adapter le métabolisme et l’échange de chaleur au niveau de la peau et des poumons en fonction des conditions intra et extracorporelles. Pour demeurer actif dans une zone froide, le corps compense la perte constante de chaleur par la production équivalente de chaleur en « brûlant » le glycogène qui est notre carburant vital. Les frissons, par exemple, augmentent la production de chaleur de notre corps de l’ordre de 500 %. À ce niveau de consommation, notre corps s’épuise en quelques heures; raison pour laquelle le risque de s’endormir dans des ambiances froides est non négligeable.
  • Des mécanismes comportementaux qui permettent à l’humain d’améliorer sa tolérance au froid. Il peut très bien adapter son alimentation, son hydratation, sa tenue vestimentaire, ses attitudes posturales et physiques.

Quels risques pour la santé ?

L’exposition aux basses températures se rencontre fréquemment dans la chaîne de froid alimentaire que ce soit au niveau du personnel que des clients. Les principaux effets sur la santé d’une exposition directe et prolongée au froid sont :

  • l’hypothermie;
  • l’engelure;
  • un risque accru de troubles musculosquelettiques (TMS) en cas d’exposition prolongée;

Il faut être particulièrement vigilant dès que la température ambiante devient inférieure à 5 °C; ce qui se rencontre assez régulièrement dans les commerces (boucherie, poissonnerie, …)

Hypothermie

L’hypothermie est une des principales causes de mortalité liée à l’exposition directe au froid. Dans les commerces, ce risque est uniquement présent dans les chambres froides à 4 °C et – 18 °C. Pour cette raison, les portes des chambres froides sont toujours équipées de moyens d’ouverture des portes de l’intérieur.

Le tableau suivant montre les différents stades de l’hypothermie :

Manifestation clinique de l’hypothermie
Niveau

Température corporelle

Symptômes
Léger
35 – 32 °C
  • Confusion minime.
  • Frissons.
  • Perte de la coordination motrice.
  • Augmentation de la fréquence cardiaque et pression artérielle.
  • Vasoconstriction périphérique.
Modéré
 < 32,2 – 28 °C
  • Coma vigile.
  • Rigidité musculaire.
  • Disparition des frissons.
  • Hypoventilation.
Sévère
< 28 °C
  • Coma aréactif.
  • Rigidité.
  • Apnée.
  • Disparition des pouls.
  • Fibrillation ventriculaire.

Engelure

C’est le premier degré de la gelure. Dans les zones froides des commerces, c’est surtout les extrémités et surtout les mains qui sont les plus exposées au froid lors des manutentions des denrées alimentaires congelées par exemple.

Douleurs

La sensation de froid suivie de douleurs dans les parties exposées du corps est l’un des signes de gelures ou d’une hypothermie légère.

Acrosyndrome et syndrome de Raynaud

Le syndrome de Raynaud est le résultat d’une diminution du diamètre des artérioles des mains et des orteils lors d’une exposition prolongée au froid. La diminution du diamètre entraîne une réduction de l’irrigation sanguine dans les extrémités et se traduit par l’apparition d’une pâleur de deux à trois doigts de chaque main.

Troubles musculosquelettiques

Des études ont mis en évidence une relation entre des troubles musculosquelettiques et les situations de travail dans le froid associées à des facteurs tels que :

  • des mouvements répétitifs;
  • des amplitudes articulaires importantes;
  • des postures extrêmes;
  • des vibrations;
  • du temps de repos insuffisant;
  • du stress;

Quels facteurs de risque ?

Les risques dépendent de différents facteurs :

  • climatiques ou ambiants tels que la température, l’humidité et la vitesse de l’air;
  • liés au poste de travail ou à la tâche à exécuter;
  • individuels.

Facteurs climatiques ou ambiants : la température

La température et l’humidité de l’air sont deux des 6 paramètres qui influencent la sensation de confort thermique. On retrouve en effet :

  • Le métabolisme, qui est la production de chaleur interne au corps humain permettant de maintenir celui-ci autour de 36,7 °C. Un métabolisme de travail correspondant à une activité particulière s’ajoute au métabolisme de base du corps au repos.
  • L’habillement, qui représente une résistance thermique aux échanges de chaleur entre la surface de la peau et l’environnement.
  • La température ambiante de l’air Ta.
  • La température moyenne des parois Tp.
  • L’humidité relative de l’air (HR), qui est le rapport exprimé en pourcentage entre la quantité d’eau contenue dans l’air à la température Ta et la quantité maximale d’eau contenue à la même température.
  • La vitesse de l’air, qui influence les échanges de chaleur par convection.

En général le couple température-humidité est indissociable dans des conditions climatiques normales sous nos latitudes.

Le problème des températures au niveau de la chaîne de froid alimentaire est conditionné par le respect des températures de conservation tout au long de la chaîne. Nécessairement, ces températures sont basses et n’entrent pas dans les températures de confort pour le corps humain.

À partir de températures inférieures à :

  • 15 °C, notamment pour les postes statiques ou de pénibilité légère, l’inconfort a des fortes chances de se ressentir mais varie selon les individus;
  • 5 °C et en particulier à des températures négatives, le risque pour la santé est immédiat comme dans le cas de travail dans les chambres froides de stockage positives ou négatives.

Clairement, les ambiances froides dans lesquelles évoluent les travailleurs sont inconfortables; elles sont dues principalement aux basses températures et à l’humidité.

Par rapport à la plage de confort hygrothermique habituellement présentée (extrait de l’article de R. Fauconnier L’action de l’humidité de l’air sur la santé dans les bâtiments tertiaires paru dans le numéro 10/1992 de la revue Chauffage Ventilation Conditionnement), on voit tout de suite qu’au niveau de nombreux postes de travail l’inconfort est souvent présent :

  • dans les allées froides, les températures peuvent descendre sous les 16 °C, ce qui signifie qu’en été, par exemple, le choc thermique peut être important vu que les clients passent rapidement d’une ambiance chaude (rayon « no food »), voire surchauffée (boulangerie), à une ambiance réfrigérée;

  • dans les zones climatisées basses (12 °C) et en chambre froide (0 °C, 4 °C et -18 °C).

  1. Zone à éviter vis-à-vis des problèmes de sécheresse.
  2. et 3 : Zones à éviter vis-à-vis des développements de bactéries et de microchampignons.
  3. Zone à éviter vis-à-vis des développements d’acariens.
  4. Polygone de confort hygrothermique.

Le schéma suivant représente des polygones de fonctionnement classiques des meubles frigorifiques dans les zones de vente. Le polygone « rose » représente l’ambiance de la zone (température, hygrométrie) dans laquelle le meuble frigorifique fonctionne correctement. C’est aussi en grande partie la zone de confort des usagers. On voit tout de suite que l’inconfort se situe à l’extrême gauche du polygone de confort. En pratique, dans les allées froides, cette limite est souvent atteinte.

La zone hachurée correspond à la zone de confort.

Facteurs climatiques ou ambiants : l’humidité

L’humidité relative influence le confort du corps humain dans le sens où la perte de chaleur du corps humain augmente dans des conditions humides. Cependant, le taux d’humidité présent aux températures basses de la chaîne de froid dépend de plus en plus :

  • de l’échange hygrothermique qui s’opère avec l’ambiance extérieure;
  • de l’occupation (respiration des personnes dans l’ambiance froide).

En effet, à part les fruits et les légumes, les denrées alimentaires sont souvent conditionnées dans des emballages qui réduisent ou évitent leur échange hygrométrique avec l’ambiance froide. De plus, l’humidité résiduelle présente dans l’ambiance froide va en grande partie se condenser et geler sur les ailettes de l’évaporateur qui agissent comme déshumidificateur. Il en résulte que l’humidité absolue dans les ambiances froides reste sensiblement basse. Toutefois, même dans une ambiance relativement froide avec une humidité absolue faible, l’inconfort peut aussi être présent pour des humidités relatives élevées.

Accumulation de l’humidité ambiance sur les ailettes de l’évaporateur (« prise en glace »).

Facteurs climatiques ou ambiants : la vitesse

La vitesse de l’air est un facteur qui renforce la sensation d’inconfort. On parle souvent d’une vitesse de l’ordre de 0.2 m/s maximum pour ne pas augmenter l’inconfort dans les zones à basse température.

Grille des températures ressenties en fonction de la vitesse du vent et niveau de danger d’une exposition au froid
Indice de refroidissement éolien

Vitesse de l’air [m/s]

La température réellement mesurée correspond à une vitesse de vent nulle [°C]
0
5 0

-5

-10

-15 -20 -25 -30
1,4
4 -2 -7 -13 -19 -24 -30 -36
2,8
3 -3 -9 -15 -21 -27 -33 -39
4,2
2 -4 -11 -17 -23 -29 -35 -41
5,6
1 -5 -12 -18 -24 -31 -37 -43
7 1 -6 -12 -19 -25 -32 -38 -45
8,3
0 -7 -13 -20 -26 -33 -39 -46
9,7
0 -7 -14 -20 -27 -33 -40 -47

11,1

-1 -7 -14 -21 -27 -34 -41 -48
12,5
-1 -8 -15 -21 -28 -35 -42 -48
13,9
-1 -8 -15 -22 -29 -35 -42 -49
Risque faible. Risque modéré. Risque élevé.
Risque faible.
  • peu de danger pour les expositions au froid de moins d’une heure avec peau sèche;
  • risque d’engelure faible, mais inconfort;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque modéré.
  • risque croissant pour des températures comprises entre – 25 et – 30°C;
  • la peau peut geler en 10 à 30 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque élevé.
  • risque élevé pour des températures comprises entre – 40 et – 49°C;
  • gelures graves en moins de 10 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque sérieux d’hypothermie pour les expositions de longue durée.

Photo chambre froide.Source : Commission de la Santé et de la Sécurité au Travail (CSST/Canada) : Contrainte thermique : Le froid; Service Météorologique du Canada : le refroidissement éolien.

Facteurs inhérents au poste de travail ou à la tâche à exécuter

Il est clair que certains facteurs de condition de travail ou d’exposition au froid peuvent augmenter les risques. On pointera principalement :

  • la prolongation de la durée d’exposition en continu au froid;
  • L’absence de salle de repos chauffée;
  • Exécution d’une tâche à des cadences ou d’un travail physique intense ou moyen mettant le sujet exposé en transpiration. La peau humide est plus sensible au froid et des vêtements humides sont inconfortables et isolent mal du froid;
  • L’insuffisance des poses de récupération;
  • Le port de vêtements non adapté au froid, ou ne procurant pas un niveau d’isolation thermique suffisant.
  • La possibilité de contact direct de la peau nue avec des surfaces métalliques froides à des températures inférieures à -7 °C;
  • L’utilisation de gants peu adaptés à la tâche à réaliser sachant que des gants épais réduisent la dextérité et augmentent l’effort à fournir.

Facteurs individuels

En général, la réaction au froid varie d’un individu à l’autre. Cependant, certaines caractéristiques individuelles contribuent à majorer les conséquences d’une exposition au froid comme :

  • l’age : les personnes âgées sont plus sensibles;
  • le sexe : la vitesse de refroidissement des pieds et des mains chez la femme (égalité avez-vous dit ?);
  • la morphologie : rapport entre la surface de peau et le volume du corps;
  • la condition physique : les personnes en bonne santé supportent mieux la sensation de froid;
  • la présence de trouble de la circulation;
  • la fatigue;
  • les apports alimentaires et liquides insuffisants (contribuant à la production de chaleur par l’organisme et limitant la déshydratation).

Certains facteurs de risque peuvent favoriser la survenue de symptômes liés au froid comme par exemple :

  • les médicaments comme l’insuline peuvent être responsable d’hypothermie;
  • l’alcool est un vasodilatateur qui accroît la perte de chaleur du corps, réduit la régulation thermique interne et modifie le métabolisme du sucre dans le sang;
  • lors de la grossesse, la femme est plus vulnérable;

Acclimatation au froid

En fait, il n’y a pas vraiment d’acclimatation au froid. Cependant, certaines parties du corps comme les mains peuvent développer une certaine résistance au froid (cas des bouchers qui peuvent sans problème couper de la viande froide sans gants).

Conclusion

La conservation des denrées alimentaires fixant les températures qu’il doit régner dans les enceintes froides, impose au personnel de s’habiller en conséquence. Le temps de travail doit être aussi adapté sous peine de voir le risque d’accident augmenter et l’efficacité du travail diminuer rapidement.


Comment évaluer sa situation ?

Confort en ambiance froide

L’évaluation du confort dans des ambiances froides se révèle beaucoup plus difficile que dans les zones des commerces qui sont à température ambiante classique (de l’ordre de 20 °C). En effet, la plupart des études sur le confort se cantonnent dans des valeurs de température au dessus de 15 °C. Or les températures que l’on rencontre dans les commerces au niveau de la chaîne de froid alimentaire se trouvent plutôt dans la fourchette de – 20 °C à 12 °C avec comme cas particulier les températures comprises entre 10 et 12 °C pour des conditions de travail prolongé.

La notion du confort peut être exprimée par l’équilibre thermique du corps. En effet, placé dans une ambiance thermique froide le corps humain perd de sa chaleur. Si la production de la chaleur liée au métabolisme est égale aux pertes de chaleur à travers les vêtements et les extrémités non protégées, le bilan thermique est nul et l’occupant est en équilibre thermique.

L’évaluation du confort passe donc par l’élaboration d’une méthode de quantification de l’équilibre thermique du corps humain en fonction des contraintes externes et de l’habillement.

Indices d’isolation vestimentaire

Vu la nécessité de se vêtir correctement dans les ambiances froides, la notion de confort et de sécurité passe par un indice intéressant qui a été introduit dans un document de travail ISO (ISO/TR 11 079) portant sur l’évaluation des ambiances thermiques froides; c’est l’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index). Il permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être utilisé lorsque la température est inférieure à 10 °C.

Le port d’un vêtement dont l’isolement est inférieur à l’indice IREQ requis, implique qu’une durée d’exposition limite doit être calculée (DLE). Il en résulte que si la durée d’exposition est inférieure à la durée DLE calculée, il n’y a pas de risque d’hypothermie. Pour les travailleurs en chambre froide, l’indice IREQ est en général compris entre 2,5 et 4 [clo]. Actuellement, les meilleurs vêtements de protection contre le froid offrent une isolation thermique comprise entre 3 et 4 [clo].

Clo : c’est l’unité d’isolement thermique où 1 [clo] correspond à 1,155 [K.m²/W].

Pratiquement parlant, il est admis que plusieurs couches de vêtements valent mieux qu’un seul vêtement épais.

Exemple

Une tenue vestimentaire composée :

  • de sous-vêtements;
  • d’un caleçon long;
  • d’un pantalon;
  • d’une veste isolante;
  • d’un sur-pantalon;
  • de chaussettes ;
  • de chaussures;
  • d’un bonnet;
  • de gants;

permet d’atteindre un IREQ de l’ordre de 2,6.

Attention que la couche la plus proche de la peau doit être isolante et éloigner l’humidité de la peau afin de la maintenir sèche.

Attention qu’il ne faut pas oublier, lors d’un travail en ambiance froide, qu’il est nécessaire d’adapter l’isolement vestimentaire à la pénibilité de la charge de travail. Ainsi, la valeur de l’indice IREQ peut être réduite de l’ordre de :

  • 10 % pour un travail léger;
  • 20 % pour les travaux plus intenses.

Contrainte ou astreinte thermique

Les conditions climatiques de l’ambiance froide sont évaluées en mesurant différents paramètres physiques :

  • la température de l’air avec un thermomètre. Les équipements faisant partie de la chaîne de froid (chambre froide, chambre climatisée, meuble frigorifique ouvert, …) sont souvent équipés de leur propre thermomètre ou même un enregistreur de température. L’évaluation n’est donc pas difficile en soi;
  • la température de rayonnement avec par exemple un thermomètre de contact pour la température de paroi;
  • l’humidité avec un hygromètre;
  • la vitesse de l’air avec un anémomètre.

Une bonne image du confort thermique est donnée par la température opérative, moyenne arithmétique entre la température de l’air et la température des parois.

Topérative = (Tair + Tparois) / 2

  • La mesure de la température de l’air se fait à l’aide d’un thermomètre protégé du rayonnement solaire et du rayonnement des parois du local.
  • La température de surface d’une paroi se fait à l’aide d’une sonde de contact ou sonde à rayonnement infrarouge.

Malheureusement, la température de rayonnement des parois est celle ressentie par l’occupant à l’endroit où il se trouve. Elle doit en principe être « individualisée » sur base de la position de l’occupant et de sa relation avec l’ensemble des parois. Mais ne soyons pas plus catholiques que le pape.

Dépense énergétique

Pour produire 1 [Joule] de travail, l’organisme en produit entre 5 et 90 Joules de chaleur. Dans les ambiances froides, l’activité physique « protège » le corps humain en brûlant de l’énergie fournie entre autres par l’alimentation. À titre indicatif, la norme ISO 8996 [32] détaille les différentes méthodes d’évaluation de la dépense énergétique.

Température corporelle : température cutanée du dos de la main

Le travail prolongé au niveau de la chaîne alimentaire nécessite que l’on adapte les conditions de travail pour maintenir un confort relatif et surtout une sécurité optimale des occupants.

Dans des températures habituelles de travail, le refroidissement corporel et le risque d’hypothermie sont faibles. Il n’en est pas de même pour le refroidissement des extrémités. Dans la plupart des cas de condition d’ambiance froide dans le secteur des commerces, la température de peau des extrémités du corps constitue une bonne évaluation de l’impact des basses températures sur le confort et la sécurité. Plus particulièrement, la mesure de la température cutanée du dos de la main représente un critère de dextérité conservée.

En général, on associe la température du dos de la main à une durée d’exposition.

L’INRS (Institut National de Recherche Scientifique : M. Aptel, Le travail au froid artificiel dans l’industrie alimentaire : description des astreintes et des recommandations, Cahier des notes documentaires n°126, 1er trimestre 1987) a montré l’influence de la température cutanée du dos de la main, du temps d’exposition au froid et de la répartition des alternances chaud/froid sur la dextérité des mains.

Les schémas ci-dessous montrent l’évolution de la contrainte thermique cutanée en fonction des répartitions des périodes d’exposition au froid au cours d’une journée de travail entre chambre froide (- 23°C) et en chambre climatisée (5°C).

Les expériences menées à l’INRS ont montré plusieurs choses :

  • Au-dessus d’un seuil de température cutanée de 24 °C, la dextérité des doigts des mains n’est altérée. À ce seuil, le refroidissement de la main n’entraîne qu’un inconfort thermique. Mais dès que le seuil des 24 °C est franchi, la capacité à effectuer des tâches de précision est réduite.
  • Une pause d’environ 25 minutes n’est pas suffisante pour réchauffer les mains.
  • Le réchauffement de la main pendant la pause est d’autant plus important que le refroidissement est plus intense.
  • Le refroidissement du travailleur en chambre climatisée est plus important que celui en chambre froide.

La mesure de la température cutanée du dos de la main est la méthode qui semble la plus intéressante pour les conditions de travail en ambiance froide, mais elle ne constitue pas un indice permettant de prévoir le refroidissement des travailleurs à partir des mesures des paramètres physiques des conditions climatiques des zones froides. Cependant, cet indicateur est le plus facilement exploitable car :

  • spontanément les occupants adaptent leur tenue vestimentaire en fonction de la sévérité des conditions d’ambiance; ce qui simplifie l’évaluation de l’impact du froid sur la personne;
  • lorsque la température cutanée de la main descend sous 23-24 °C , la dextérité diminue;
  • la perception du refroidissement des extrémités varie d’un individu à l’autre. Seul un indicateur d’astreinte peut la prendre en compte;
  • enfin, il peut être mesuré facilement.

Recommandations, normes et règlements

Les recommandations et normes se concentrent essentiellement sur la protection des travailleurs exposés au froid. La notion de confort est moins perceptible par rapport à la sécurité, mais est néanmoins bien présente puisqu’elle influence l’efficacité du travail et, par conséquent, le bien-être et la sécurité.

Les vêtements de protection

Les vêtements de protection contre le froid sont considérés comme des équipements de protection individuelle (EPI).

Les vêtements contre le froid offrent une barrière entre la peau et le milieu ambiant, modifiant aussi bien les échanges de chaleur convectifs et radiatifs, que ceux par évaporation. Il se crée autour de la peau couverte, un microclimat caractérisé par une température d’air et par une pression partielle de vapeur d’eau. La température de rayonnement caractéristique du microclimat est celle de la face interne du vêtement. L’influence du vêtement sur les échanges de chaleur, comme on l’a vu ci-dessus est très complexe.

Le port d’un vêtement de protection freine les échanges thermiques, ce qui est bénéfique en ambiance froide.

Classes des vêtements de protection

La majorité des vêtements contre le froid appartiennent à la classe II. Mais les vêtements, les accessoires (détachables ou non) et tous les équipements destinés à la protection de tout ou d’une partie du visage, du pied, de la jambe, de la main, du bras et conçus pour permettre l’intervention dans les ambiances froides dont les effets sont comparables à ceux d’une température d’air inférieure ou égale à -50°C appartiennent à la classe III. Quant aux vêtements et aux accessoires (détachables ou non) qui sont conçus pour protéger contre les conditions atmosphériques qui ne sont ni exceptionnelles ni extrêmes et à usage professionnel, ils appartiennent à la classe I.

La norme EN 511

La norme EN 511 définit les exigences et les méthodes d’essai des gants de protection contre le froid, d’origine climatique ou artificielle, transmis par convection ou par conduction jusqu’à -50 °C.

Les principaux sujets traités sont repris dans le tableau suivant :

Sujet Définition
Froid convectif
TR [°C.m²/W] représente la résistance à la perte de chaleur sèche de la main.
Niveau d’isolement thermique

R en m² °C/W)

Froid de contact
est fondée sur la résistance thermique du matériau composant le gant lorsqu’il est en contact avec un objet froid
Imperméabilité à l’eau

 

facteur de pénétration du gant par l’eau

La norme prEN 342

Le prEN 342 spécifie les exigences et les méthodes d’essais de performance des vêtements de protection contre le froid à des températures inférieures à -5 °C.

L’isolation thermique du vêtement de protection est évaluée en combinaison avec les sous-vêtements standards :

  • maillot à manches longues;
  • caleçons longs;
  • chaussettes;
  • pantoufles en feutre;
  • gilet isolant;
  • caleçons isolants;
  • gants tricotés;
  • passe-montagne.

L’isolation thermique d’un ensemble de vêtements (vêtements de protection et sous-vêtements) est classée en fonction de la valeur de l’isolation de base résultante mesurée (Iclr).

La performance d’un ensemble vestimentaire, en termes de maintien de l’équilibre thermique du corps à la température normale, dépend de la production de chaleur métabolique interne. C’est pourquoi la valeur de protection d’un ensemble vestimentaire est évaluée en comparant sa valeur d’isolation mesurée et la valeur d’isolation requise calculée (IREQ) comme montré dans le tableau ci-dessous :

Icl. r.
Activité
très légère : 90 W/m² légère : 115 W/m² modérée 170 W/m²
temps d’exposition [heures]
[m².°C/W] clo
8
1
8
1
8
1
0,15
1,0
-3
3
-5
0,23
1,5
4
8
-13
-7
-18
0,31
2,0
10
-4
1
-23
-18
-31
0,38
2,5
4
-12
-6
-33
-29
-44
0,46
3,0
-1
-21
-13
-43
-39
-57
0,54
3,5
-7
-30
-20
-53
-49
-70
0,62
4,0
-13
-39
-28
-63
-60
0,70
4,5
-19
-48
-35
  • Les valeurs Icl. r. sont seulement valables avec des gants, chaussures et couvre-chef adéquats et une vitesse d’air compris entre 0,3 m/s et 0,5 m/s;
  • Des vitesses d’air plus élevées augmenteront les températures indiquées dans le tableau à cause de l’effet de refroidissement par le vent (WCI). Un niveau adapté de l’isolation de tout le corps peut ne pas être suffisant pour éviter le refroidissement des parties sensibles du corps (par exemple les mains, les pieds, le visage) et le risque concomitant de gelures.

Le projet de norme ISO/TR 11079

Le projet de norme ISO /TR 11079 Évaluation des ambiances froides – Détermination de l’isolement requis des vêtements (IREQ) décrit la procédure d’évaluation des ambiances froides et de détermination de l’isolement requis des vêtements à mettre à la disposition des travailleurs.

Par ailleurs, en ce qui concerne les autres vêtements de protection contre le froid, les chaussures de protection utilisées dans les enceintes froides, en plus des protections générales contre les chutes d’objets, les coupures, l’humidité, …, doivent également assurer une isolation contre le froid (indiquée par le symbole CL).

Quant aux sous-vêtements isolants, ils sont également soumis au marquage CE.

Pour plus d’informations : Le travail dans le froid artificiel, Ministère fédéral de l’Emploi et du Travail, 1998, 35 p.


L’inconfort des bouches de pulsion d’air

Zone tempérée

En climatisation classique, la source d’inconfort est principalement liée :

  • à l’emplacement de la bouche dans le local considéré;
  • la température de pulsion;
  • le débit de pulsion;

Lorsque l’air pulsé entre dans la zone d’occupation du local et que la différence de température entre cet air et l’air ambiant dépasse encore 1°C en pulsion froide, on risque de ressentir une sensation de « masse d’air » lorsque l’on se déplace dans le local.

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, et ce sur une hauteur de 1,8 m. Dans cette zone, la vitesse de l’air ne peut dépasser 0,2 m/s (0,28 dans les locaux de passage) et le long des murs, à 1,8 m, elle ne peut dépasser 0,4 m/s :

L’inconfort éventuel est lié au choix des bouches de pulsion ou à la température de pulsion :

  • diffuseurs trop proches l’un de l’autre entraînant une retombée rapide du jet d’air vers le sol, avant son brassage correct avec l’air ambiant,
  • diffuseurs ne présentant pas assez d’induction par rapport à la hauteur du local (pas assez de brassage avec l’air ambiant),
  • différence entre la température de consigne de l’air pulsé et la température ambiante trop grande.

Inconfort par effet Coanda rompu

Lorsque l’air est soufflé à proximité d’une surface (ex : soufflage horizontal à proximité du plafond), il se produit un effet d’adhérence du jet à la paroi : c’est l’effet « COANDA ».

L’effet Coanda est très utile quand on pulse de l’air froid, car il facilite la bonne pénétration du jet dans le local (augmentation de 30 % de la portée).

Problème 1

La présence d’un obstacle perpendiculaire au jet d’air (poutre, luminaire) peut faire dévier prématurément le jet vers la zone occupée et engendrer un courant d’air désagréable.

En conséquence :

  • Il faut souffler soit à partir de l’obstacle, soit parallèlement à celui-ci et diviser le local en zones correspondantes.
  • L’éclairage au plafond doit être soit encastré, soit suspendu avec une longueur de suspension de 0,3 m minimum.
  • On tiendra compte de la présence éventuelle de colonnes qui ne pourront se situer dans la trajectoire du jet.

Problème 2

Lorsqu’une bouche plafonnière pulsant de l’air froid est surdimensionnée, la vitesse de sortie de l’air risque d’être trop faible (< 2 m/s) pour créer un effet Coanda. Le jet d’air tombera alors directement vers le sol, risquant de provoquer un courant d’air froid sous la bouche. Paradoxalement, pour éviter le courant d’air, il faudra augmenter la vitesse de l’air en réduisant la taille du diffuseur.

Problème 3

Les diffuseurs utilisent dans les systèmes de climatisation à débit d’air variable (VAV ou climatiseurs à plusieurs vitesses) doivent être spécifiquement dimensionnés pour conserver l’effet Coanda même aux faibles débits.

Concevoir

Pour plus d’infos : choix des bouches de pulsion et d’extraction en climatisation.

Zone de froid alimentaire

Dans les zones où il est nécessaire de maintenir des températures de conservation de l’ordre de quelques degrés au dessus de 0 °C en application positive voire franchement sous les 0 °C en froid négatif (congélation), outre l’inconfort dû à la température, les débits d’air sont souvent importants; l’inconfort est par conséquent accru.

Pour les zones de travail telles que les ateliers de boucherie, par exemple, l’évaluation de l’inconfort dû aux bouches de pulsion se complexifie de par l’augmentation des débits d’air pour atteindre des températures de l’ordre de 12 °C. La limitation des vitesses de déplacement d’air plus froid doit être inférieure à 0,4 m/s.

Attention que plus l’air est froid moins l’effet « COANDA » est présent vu que la densité de l’air augmente et nécessairement l’alourdit.


Cas particulier des chambres froides

Les chambres froides sont des locaux de stockage dans les commerces. L’ambiance à l’intérieur des chambres est refroidie dans une gamme de températures classiques variant de -30 à +4 °C. Nécessairement, l’inconfort règne et exige que les travailleurs y pénétrant soit habillés de manière appropriée. En général, c’est le genre de local où l’on s’attarde peu.


Cas particulier des ateliers

Les zones climatisées sont les espaces où l’on procède à la transformation des produits (préparation de sous-produits du poulet pour le traiteur par exemple). Les ateliers de boucherie, de poissonnerie, … sont les plus couramment rencontrés au niveau des commerces que ce soit de détail ou en grande surface. Les ateliers ne sont qu’une étape de transformation des produits qui interviennent entre le stockage et la distribution et se caractérisent par la nécessité de maintenir les températures de la chaîne du froid en dessous de 12 °C. De plus, ces zones climatisées, contrairement à la chambre de stockage, abritent une activité humaine importante et souvent longue.

L’évaluation du confort pour ces zones est donc primordiale et nécessite de déterminer, en fonction principalement de la température ambiante et de la vitesse de l’air :

  • le type d’habillement;
  • le temps de travail des personnes exposées;
  • leur temps de pose entre leurs périodes de travail.

Une attention toute particulière sera prise par rapport à la vitesse de l’air dans ces zones qui peut générer très vite un inconfort au niveau des extrémités découvertes du corps (la tête et les mains par exemple).

Photo travailleur dans chambre froide.

Afin de créer le froid nécessaire, des ventilo convecteurs sont couramment utilisés. Ils ont des débits importants qui peuvent induire, s’ils sont mal positionnés, des vitesses d’air supérieures à 0,2 m/s à 1,8 m de hauteur par rapport au sol. Une manière d’évaluer la vitesse de l’air est d’utiliser un anémomètre en différents endroits du local dans différentes directions notamment au niveau des postes de travail.

À noter d’emblée que les manchettes ou chaussettes, … à air sont des moyens de diffuser des débits d’air froid importants en garantissant des vitesses d’air faibles tout assurant les températures voulues.


Cas particulier des allées froides

Photo allée froide

Marché oblige, les meubles frigorifiques ouverts, et principalement les meubles frigorifiques verticaux « MFV », sont de plus en plus nombreux dans les commerces. Dans un souci commercial et énergétique, ces meubles sont régulièrement placés en vis à vis créant ainsi des « allées froides » totalement inconfortables au point que les responsables techniques sont tentés de réchauffer par n’importe quel moyen le centre des allées. L’évaluation du problème s’effectue au moyen d’un thermomètre et d’un hygromètre en différents endroits de l’allée.

Des mesures de température et d’humidité ont été réalisées dans plusieurs commerces de grande surface. En moyenne, les températures relevées ne dépassaient pas les 16 °C avec une humidité relative de l’ordre de 35 %.

Planifier un programme de maintenance de l’éclairage

Planifier un programme de maintenance de l'éclairage


Cette page montre comment utiliser les fichiers permettant de planifier un programme de maintenance en utilisant la durée de vie moyenne annoncée par le fabricant.


Déterminer les valeurs du facteur de survie catalogue

Les valeurs utilisées par défaut pour planifier la maintenance sont des valeurs moyennes issues d’un rapport de la ouverture d'une nouvelle fenêtre ! CIE. Quand on parcourt le catalogue de l’un ou l’autre des constructeurs de lampes, on se rend compte qu’à l’intérieur d’une catégorie de lampe, il existe une grande diversité de valeur de durée de vie moyenne (exception faite des lampes incandescentes et halogènes qui présentent une durée de vie moyenne toujours proche de 1 000 heures pour les premières et de 2 000 heures pour les secondes).

À l’aide de ce fichier Excel, il est possible de déterminer les valeurs du facteur de survie correspondant à la durée de vie moyenne catalogue et de les utiliser dans les deux fichiers Excel présentés dans la suite de cette page et qui permettent de planifier un programme de maintenance. En effet, la durée de vie moyenne est définie comme étant la durée de fonctionnement pour laquelle le facteur de survie de la lampe est de 0.5.

Dans ce fichier Excel, deux couleurs ont été utilisées pour les tableaux :

  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Tableau 1 : type de lampe et durée de vie moyenne catalogue

Le premier tableau présenté dans le fichier Excel vous permet d’indiquer le type de lampe que vous voulez choisir ainsi que la durée de vie moyenne annoncée par le constructeur.

Tableau 2 : résultats

Le tableau 2 reprend :

  • la durée de vie moyenne telle que définie par la ouverture d'une nouvelle fenêtre ! CIE
  • les valeurs du facteur de survie ouverture d'une nouvelle fenêtre ! CIE et catalogue en fonction de la durée de fonctionnement

Il vous est alors possible de copier les valeurs de facteur de survie catalogue pour les insérer dans l’un des deux fichiers Excel présentés ci-dessous. Pour insérer les valeurs, il vous faudra sélectionner les cellules correspondantes, appuyer sur le bouton droit de la souris, sélectionner l’option « Collage spécial », puis l’option « Valeurs ».

1 : Copie des valeurs

2 : Collage spécial des valeurs


Planifier une maintenance préventive

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement…).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Trois graphiques, basés sur les valeurs de la ouverture d'une nouvelle fenêtre ! CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux (pourcentage du flux initial émis en service) de chaque type de lampe au cours des années.

Plus la pente est horizontale, plus la lampe conserve son flux initial. Cela permet de réduire le surdimensionnement initial et donc de :

  • limiter l’investissement et les coûts énergétiques de fonctionnement
  • et/ou de rallonger la période entre deux relamping et de diminuer les frais de maintenance.

Le deuxième graphe donne l’évolution du facteur de survie des lampes (la chance qu’elle continue à marcher jusque-là) en fonction des années de fonctionnement.

Plus la pente est horizontale, et moins il est nécessaire de remplacer souvent les lampes. Il est intéressant de noter que la hiérarchie des lampes fonctionnant le plus longtemps est très proche celle des lampes opérant le mieux durant toute leur durée de vie.

Le troisième tableau donne l’évolution du pourcentage de lampe hors services pour le nombre d’années de fonctionnement.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit précédemment.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF*LSF (c’est-à-dire la proportion du flux initial du système maintenu en service) et du pourcentage de lampe hors service. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de votre choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus celui-ci sera efficace et peu sensible à l’encrassement du local.

Pour ce qui est de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui possédera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de prévoir celui-ci tous les deux ans.


Planifier une maintenance curative

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement, …).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Deux graphiques, basés sur les valeurs de la CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux du système (tient compte en même temps du LSF et du LLMF de chaque sorte de lampe), pour chaque type de lampe, au cours des années.

Pour pouvoir interpréter correctement ce graphe, il est nécessaire de l’analyser en parallèle avec le deuxième graphique.

Le deuxième graphe donne le nombre (cumulé) de lampes changées tout au long du fonctionnement du système.

Il faut bien se rendre compte qu’ici, contrairement à ce qui a été dit dans le cas d’une maintenance préventive, il ne faut pas simplement rechercher le type de lampe qui présentera une courbe de LLMF la plus horizontale possible.

En effet, une telle logique conduirait à choisir des lampes incandescentes ou halogènes. Mais si on regarde le second graphique, on s’aperçoit que pour maintenir un flux acceptable tout au long de la durée de fonctionnement de l’installation à l’aide de ces lampes, il sera nécessaire de les remplacer très souvent. Ceci amènera à des surcoûts importants par rapport aux autres types de lampes.

Si on analyse correctement ces deux graphiques, on se rend compte que les lampes fluorescentes triphosphores constituent généralement le maître achat :

  • très bon maintien du flux lumineux,
  • très bonne durée de vie moyenne.

Deux qualités auxquelles il ne faut pas oublier de rajouter :

  • large gamme de température de couleur envisageable,
  • bon indice de rendu des couleurs,
  • et surtout haute efficacité lumineuse.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit en premier.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF (c’est-à-dire la proportion du flux initial du système entier maintenu en service) et du pourcentage de lampe ayant été changée. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de ce choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus le système sera efficace et peu sensible à l’encrassement du local.

Au niveau de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui proposera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de le prévoir tous les deux ans.

Circulateurs [ECS]

Circulateurs [ECS]


Les pompes in-line et les circulateurs à rotor noyé

Dans les installations de chauffage, on peut retrouver 2 types de circulateurs :

  • Les circulateurs à rotor noyé se retrouvent dans toutes les installations. Ils sont montés directement sur la tuyauterie. Le moteur est, en partie, directement refroidi par l’eau de l’installation. Ils sont sans entretien et de coût modeste. Leur rendement est cependant faible mais une partie de leur perte est récupérée par l’eau de chauffage.
  • Les pompes in-line sont aussi directement montées sur la tuyauterie mais le moteur n’est plus refroidi par l’eau du réseau de chauffage. Elles sont pourvues d’une garniture mécanique qui sépare la pompe du moteur. Le refroidissement est assuré par un ventilateur. Les pompes in-line se retrouvent principalement dans les grandes installations de chauffage ou dans les installations de refroidissement pour lesquelles la perte du moteur devient une charge calorifique supplémentaire à compenser.

Circulateur à rotor noyé et pompe in-line (les deux types de circulateur existent en version électronique).


Courbes caractéristiques

Les performances des circulateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants. Attention, les données ainsi reprises sont le résultat de mesures qui, faute d’une normalisation en la matière, peuvent différer d’un fabricant à un autre.

On retrouve, dans les courbes caractéristiques, la hauteur manométrique totale (en mCE ou en bar) que peut fournir le circulateur en fonction du débit, pour chaque vitesse possible du circulateur.

On peut retrouver en parallèle, la puissance électrique absorbée par le moteur, soit sous forme de graphe pour chacun des points de fonctionnement possibles, soit sous forme de tableaux, pour chaque vitesse. Dans ce dernier cas, il est difficile de savoir à quel point de fonctionnement correspond cette puissance (est-ce ou non pour la zone de rendement maximal ?). Il n’y a pas de norme et chaque fabricant peut adopter une règle différente.

Courbes caractéristiques d’un circulateur électronique. On y repère les courbes de régulation (ici, diminution linéaire de la hauteur manométrique avec le débit) et pour chaque point de fonctionnement, on peut établir la puissance électrique absorbée. On y repère les courbes caractéristiques correspondant au régime de ralenti (de nuit). Rem : P1 correspond à la puissance électrique absorbée par le moteur, P2, à la puissance transmise par le moteur à la roue et P3, à la puissance transmise à l’eau.

Courbes caractéristiques d’un circulateur standard à 3 vitesses.

Vitesse P1 [W] In [A]
3 960 1,8
2 590 1,05
1 250 0,47

Puissance et courant nominal absorbés par le circulateur en fonction de sa vitesse.


Les circulateurs standards

On entend par « circulateur standard », un circulateur à rotor noyé dont la vitesse de rotation est réglée manuellement et reste fixe quelles que soient les conditions d’exploitation de l’installation.

On retrouve des circulateurs à 1 ou plusieurs vitesses (3 ou 4), équipés d’un moteur monophasé ou triphasé.

Circulateur à trois vitesses.

Courbes caractéristiques d’un circulateur à 3 vitesses.

Certains circulateurs (c’est valable également pour les circulateurs électroniques) peuvent être équipés d’une coquille isolante sur mesure qui diminue ses déperditions calorifiques.

On peut également y joindre un « display » permanent qui permet de visualiser en temps réel les caractéristiques électriques de fonctionnement telles que la puissance absorbée, l’ampérage, la consommation et les heures de fonctionnement, …

Circulateur équipé d’un module d’affichage des caractéristiques de fonctionnement.


Les circulateurs électroniques ou à vitesse variable

Les circulateurs électroniques ou « à vitesse variable » sont des circulateurs dont la vitesse peut être régulée en continu en fonction de la variation de pression régnant dans le circuit de distribution.

Circulateur avec convertisseur de fréquence intégré.

La régulation de vitesse est intégrée directement dans le circulateur. Elle se fait par cascade d’impulsions pour les petits circulateurs ou au moyen d’un convertisseur de fréquence (technologie semblable à celle utilisée en ventilation) pour les circulateurs de plus de 200 W.

Mode de régulation

Lorsque sous l’effet d’apports de chaleur gratuits, les vannes thermostatiques (où les vannes 2 voies de zone) se ferment, la pression dans le réseau augmente avec une influence néfaste sur le fonctionnement des vannes restées ouvertes.

Les circulateurs électroniques vont automatiquement adapter leur vitesse en fonction de la fermeture des vannes de régulation (donc en fonction des besoins thermiques). Deux types de régulation sont possibles dans ce type d’équipement :

  • soit la vitesse de rotation du circulateur est adaptée automatiquement pour maintenir la pression constante dans le circuit, quel que soit le degré d’ouverture des vannes des régulations,
  • soit la vitesse de rotation du circulateur est adaptée automatiquement en fonction de l’ouverture des vannes de régulation, en diminuant de façon linéaire la pression du circuit. Cette deuxième option est énergétiquement plus intéressante. En effet, si des vannes thermostatiques se ferment, le débit circulant dans le réseau diminue, entraînant une baisse des pertes de charge dans les tronçons communs. Le circulateur peut donc diminuer sa hauteur manométrique,
  • soit la vitesse est commandée par la température extérieure ou la température de l’eau. Dans les installations à débit constant (sans vanne thermostatique), la régulation du circulateur diminue linéairement la pression du circulateur quand la température de l’eau véhiculée diminue. Ce type de régulation peut être utilisée pour accélérer la coupure et la relance de l’installation (notamment pour un chauffage par le sol).

Utilisation d’un circulateur à vitesse variable : le circulateur diminue sa vitesse automatiquement pour assurer le maintien d’une pression différentielle constante en un point choisi du réseau. La solution de la prise de pression entre le départ et le retour en un point du circuit n’est pas standard pour les circulateurs à rotor noyé. La plupart de ceux-ci ne sont, en fait, pas équipés de prises de pression. Le régulateur interne à l’appareil travaille en fonction d’une mesure du courant absorbé, image de sa hauteur manométrique.


Evolution du débit du circulateur lorsque les vannes thermostatiques se ferment : le point de fonctionnement passe de B à A. Si on diminue la vitesse du circulateur en maintenant une pression constante dans le réseau : le point de fonctionnement passe de B à D. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Evolution du débit du circulateur, si on diminue la vitesse du circulateur en diminuant linéairement la pression dans le réseau : le point de fonctionnement passe de B à E. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Théories

Pour en savoir plus sur la régulation de vitesse des circulateurs en fonction de la fermeture des vannes thermostatiques.

Régime jour/nuit

Certains circulateurs électroniques permettent également la programmation d’un régime jour et d’un régime nuit. Cette dernier correspond à une vitesse de rotation fortement réduite.

Pour les circulateurs électroniques traditionnels, la commande du régime de nuit se fait par la régulation centrale de l’installation. Pour les nouveaux circulateurs à aimant permament, la régulation est intégrée au circulateur. Celui-ci diminue sa vitesse s’il mesure, en son sein, une baisse de température d’eau de 10 .. 15°C pendant 2 h. Il revient au régime normal si la température de l’eau augmente d’une dizaine de degré.

Programmation et visualisation des paramètres

Les circulateurs électroniques peuvent être programmés par télécommande infrarouge : mode et paramètre de régulation.

Photo de télécommande infrarouge pour circulateurs électroniques.

Ces télécommandes permettent en outre un contrôle des paramètres de fonctionnement des pompes : hauteur monométrique, débit, vitesse de rotation, température de l’eau véhiculée, puissance absorbée, … .

Coût

Le coût d’un circulateur électronique dépend de la puissance installée : pour les circulateurs de moins de 200 W, la différence de prix, par rapport à un circulateur traditionnel est faible (de l’ordre de 40 %). dès 250 W, la variation de vitesse implique plus que le doublement du prix.

Prix des circulateurs de la marque « x » (à titre indicatif).


Les circulateurs à moteur synchrone ou à aimant permanent

Les circulateurs traditionnels sont équipés d’un moteur électrique asynchrone ayant un rendement souvent médiocre.

Il existe maintenant sur le marché des circulateurs à rotor noyé équipé d’un moteur synchrone à commande électronique.

   

Roue et moteur d’un circulateur à moteur synchrone.

Nous ne disposons actuellement pas d’information neutre concernant les performances énergétiques de ce type de matériel. De l’avis des différents fabricants, ce type de moteur couvrira dans quelques années tout le marché.

Exemple.

Pour un point de fonctionnement de 10 m³/h et 6 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque x, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

470 W

Circulateur électronique à aimant permanent

380 W

Soit une économie de 20 %.

Pour un point de fonctionnement de 15 m³/h et 5 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque y, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

570 W

Circulateur électronique à aimant permanent

420 W

Soit une économie de 26 %. Notons que dans ce deuxième exemple, en plus du moteur, la configuration hydraulique de la roue du circulateur a également été optimalisée pour augmenter le rendement.

Chaudières à condensation [ECS]

Chaudières à condensation [ECS]

Principe de la chaudière à condensation : le retour de circuit de chauffage à basse température amène les fumées de combustion en dessous du point de rosée au sein de l’échangeur, une partie plus ou moins importante de l’eau contenue dans les fumées condense.


Principe de la condensation dans les chaudières

Pouvoir calorifique inférieur (PCI) et supérieur (PCS)

Les produits normaux d’une bonne combustion sont essentiellement du CO2 et de l’H2O. Juste après la réaction de combustion, cette eau issue du combustible se trouve à l’état gazeux dans les fumées. Notons que l’eau à l’état gazeux n’est pas visible, elle est transparente. D’ailleurs, l’air ambiant en contient toujours une certaine quantité.

Imaginons que nous puissions réaliser une combustion parfaite d’un combustible, libérant ainsi le maximum d’énergie sous forme thermique (énergie qui était initialement contenue sous forme chimique dans le combustible).  L’énergie libérée est transmise, d’une part, à la chaudière et, d’autre part, est contenue dans les fumées à température élevée. Si on peut aussi récupérer l’énergie contenue dans ces fumées en abaissant leur température jusqu’à la température ambiante, on dispose théoriquement de toute l’énergie que le combustible contenait initialement. Il s’agit du pouvoir calorifique. Néanmoins, comme évoqué ci-dessus, les fumées contiennent de l’H2O à l’état gazeux. En abaissant la température des fumées, l’eau peut passer à l’état liquide cédant ainsi une énergie, la chaleur de condensation ou énergie latente. Si on est capable de récupérer cette énergie, on parlera du pouvoir calorifique supérieur (PCS). Par contre, si, dans la phase de récupération de l’énergie des fumées, on ne sait pas la récupérer, alors on parlera de pouvoir calorifique inférieur (PCI).

Le pouvoir calorifique supérieur est par définition supérieur au pouvoir calorifique inférieur (PCS > PCI). En effet, on a récupéré la chaleur latente de la vapeur d’eau contenue dans les fumées. Voici les valeurs de pouvoir calorifique pour les combustibles liés à la technologie des chaudières à condensation :

  • Pour le gaz naturel (type L) : PCS = 9,79 kWh/m³N et PCI = 8.83 kWh/m³N, soit PCS = PCI  + 10.8 %
  • Pour le gaz naturel (type H) : PCS = 10.94 kWh/m³N et PCI = 9.88 kWh/m3N, soit PCS = PCI + 10.7 %
  • Pour le mazout (standard) : PCS = 12.67 kWh/kg et PCI = 11.88 kWh/kg, soit PCS =  PCI + 6.6 %

Dans le cas du gaz naturel ?

On voit que l’on peut récupérer jusqu’à 10 % de rendement supplémentaire si on peut condenser la vapeur d’eau des fumées et récupérer parfaitement cette chaleur. On voit donc que le potentiel d’une telle technique pour le gaz naturel est substantiel. À l’heure actuelle, on trouve des chaudières condensation gaz pour toutes les gammes de puissance.

Dans le cas du fuel ?

La technique de la condensation est principalement utilisée dans les chaudières gaz. Il existe également des chaudières fuel à condensation, mais leur utilisation est actuellement moins répandue, pour trois raisons :

  • Teneur en eau plus faible : La teneur en vapeur d’eau des fumées issues du fuel est plus faible que pour le gaz naturel. Il en résulte une différence plus faible entre le PCS et le PCI (pour le fuel : PCS = PCI + 6 %). La quantité de chaleur maximum récupérable est donc plus faible, ce qui rend moins facile la rentabilité du surcoût de la technologie « condensation ».
  • Point de rosée plus bas : Pour que l’eau à l’état gazeux dans les fumées se condense totalement, il faut que la température des fumées soit bien inférieure à la température dite de « rosée » (c’est-à-dire la température à partir de laquelle la vapeur d’eau des fumées se met à condenser, à ne pas confondre avec la température du « rosé » qui, lui, se sert bien frais). Si la différence n’est pas suffisante, autrement dit, la température des fumées pas assez basse, seule une fraction de l’eau condense. On perd donc en efficacité. Parallèlement, on peut difficilement descendre les fumées avec un échangeur en dessous d’un certain seuil. En effet, les chaudières ne possèdent pas des échangeurs de taille infinie. Typiquement, on peut descendre jusqu’à 30 °C dans de bonnes conditions. Le problème est que, dans le cas du mazout, la température à partir de laquelle les fumées condensent (point de rosée) est plus basse (d’une dizaine de °C) que dans le cas du gaz. Il faut donc descendre les fumées à une température relativement plus faible pour pouvoir bénéficier pleinement de l’avantage de la condensation. Or, la température de retour du circuit de chauffage qui assure le refroidissement des fumées dépend, d’une part, du dimensionnement, mais aussi des conditions météorologiques (la température de retour est plus élevée si la température extérieure est plus faible, et donc le besoin de chauffage grand). Dans ces conditions, il est possible que l’on ait moins de périodes où la chaudière condense avec une chaudière mazout qu’avec une chaudière gaz.

Température de condensation des fumées (point de rosée) de combustion du gaz et du fuel, en fonction de leur teneur en CO2. : pour les coefficients d’excès d’air typiques pour le gaz et le fioul, c’est-à-dire 1.2, la concentration en CO2 est de, respectivement, 10 et 13 % donnant une température de rosée d’approximativement 55 °C et 47.5 °C.

  • Présence de Soufre et acidité : Le fuel contient du soufre et génère des condensats plus acides (présence d’H2SO4), corrosifs pour la cheminée et l’échangeur. De plus, lorsque la température d’eau de retour du circuit de chauffage se situe à la limite permettant la condensation des fumées, la quantité d’eau condensée est faible, mais sa concentration en acide sulfurique est très élevée, ce qui est fort dommageable pour l’échangeur. Cela explique pourquoi les fabricants ont mis plus de temps pour le mazout pour développer des chaudières à condensation résistantes aux condensats.

Notons cependant que les gros fabricants de chaudières ont quasiment tous développé des chaudières à condensation fonctionnant au fuel. Néanmoins, ils ne proposent pas toujours ces produits dans toutes les gammes de puissance. L’acier inoxydable de l’échangeur a été étudié pour résister aux condensats acides.
Ainsi, l’existence d’un fuel à très faible teneur en souffre (« Gasoil Extra » avec une teneur en souffre inférieure à 50 ppm) officialisée par un arrêté royal publié le 23 octobre 02, peut ouvrir de nouvelles perspectives aux chaudières à condensation fonctionnant au fuel. Suivant la technologie de la chaudière à condensation au mazout, on est obligé de fonctionner avec un mazout Extra à faible teneur en Soufre ou, si la chaudière le permet, on peut fonctionner avec un mazout standard.

Dans le cas du bois ?

Certains fabricants de chaudières au bois proposent des chaudières à condensation. À l’heure actuelle, cela reste assez rare, mais cela existe. Manquant de retour et de références à ce sujet, nous ne donnerons plus d’information.


Intérêt énergétique d’une chaudière à condensation

Que rapporte une chaudière à condensation par rapport à une chaudière traditionnelle ?

Le gain énergétique réalisé grâce à une chaudière à condensation se situe à deux niveaux :

  1. Gain en chaleur latente : La condensation de la vapeur d’eau des fumées libère de l’énergie. Pour une chaudière gaz, ce gain maximum est de 11 % du PCI tandis qu’il s’élève à 6 % pour le mazout.
  1. Gain en chaleur sensible : La diminution de la température des fumées récupérée au travers de la surface de l’échangeur (de .. 150.. °C à .. 45 °C ..).

Pour comparer le rendement des chaudières à condensation et celui des chaudières classiques, il faut comparer leur rendement global annuel ou rendement saisonnier, qui prend en compte toutes les pertes de la chaudière (par les fumées, par rayonnement et d’entretien), en fonction de la charge réelle de la chaudière durant toute la saison de chauffe.

Ce gain réel obtenu par une chaudière à condensation est difficile à estimer d’une manière générale, car il dépend de la température d’eau qui irrigue la chaudière et qui est évidemment variable (elle dépend de la courbe de chauffe choisie et donc du dimensionnement des émetteurs).

Exemple pour le gaz naturel : 

 

Exemple pour le mazout :

Représentation du rendement utile (sur PCI et sur PCS) d’une chaudière gaz traditionnelle et d’une chaudière à condensation.

Par exemple pour le gaz naturel, avec une température d’eau de 40 °C, on obtient des produits de combustion d’environ 45 °C, ce qui représente des pertes de 2 % en chaleur sensible et des pertes de 5 % en chaleur latente (on gagne sur les 2 tableaux). Le rendement sur PCI est donc de :

((100 – 2) + (11 – 5)) / 100 = 104 %
(ce qui correspond à 93 % sur PCS)

Par exemple pour le mazout, des produits de combustion donnent des pertes de 2 % en chaleur sensible et des pertes de 2 % en chaleur latente. Le rendement sur PCI est donc de :

((100 – 2) + (6 – 2)) / 100 = 102 %

(ce qui correspond à 96 % sur PCS)

Un rendement supérieur à 100 % ?

Ceci est scientifiquement impossible.

Lorsque l’on a commencé à s’intéresser au rendement des chaudières, la technologie de la condensation n’existait pas. On comparait donc l’énergie produite par une chaudière à l’énergie maximale récupérable pour l’époque c’est-à-dire à l’énergie sensible contenue dans le combustible ou PCI (ou HI) du combustible.

De nos jours, ce mode de calcul a été maintenu même si, dans les chaudières à condensation, on récupère aussi une partie de la chaleur latente. On a alors l’impression de produire plus d’énergie que le combustible n’en contient. C’est évidemment faux.

Si l’on voulait être scientifiquement rigoureux, il faudrait comparer l’énergie produite par une chaudière à condensation au PCS (ou Hs) du combustible. Si on commet l’erreur de comparer avec les valeurs PCI d’autres chaudières, on aurait l’impression qu’une chaudière à condensation a un plus mauvais rendement qu’une chaudière traditionnelle, ce qui est aussi erroné.

Par exemple, un rendement utile de chaudière au gaz à condensation de 104 % sur PCI, correspond à un rendement de 93 % sur PCS.

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Besoin d’une température de retour la plus basse possible et émetteurs de chaleur

Pour obtenir les meilleurs rendements, il faut que la température des fumées soit la plus basse possible. Du coup, il faut une température de retour du circuit de distribution de chauffage la plus basse. Cela s’obtient par une bonne conception du circuit hydraulique, essentiellement, en travaillant avec une température de départ plus basse et des émetteurs de chaleur qui travaillent à basse température. On pense naturellement au chauffage par le sol (basé sur le rayonnement). Néanmoins, les radiateurs ou convecteurs basse température peuvent aussi convenir pour atteindre cet objectif.

Rendement théorique utile des chaudières gaz et mazout à condensation en fonction de la température à laquelle on a pu descendre les fumées dans la chaudière : le coefficient d’excès d’air est pris égal à 1.2. On voit que le point d’inflexion où la chaudière au gaz commence à condenser se situe autour de 55 °C alors que ce point se déplace à 47.5 °C pour le mazout.

Quelles sont les conclusions de ce dernier graphe :

  • On voit que la température à laquelle débute la condensation (point de rosée) commence plus tôt pour le gaz (55 °C) que pour le mazout (47.5 °C). Physiquement, c’est dû à la composition des fumées.
  • On remarque que les gains de rendement potentiels grâce à la condensation sont plus faibles avec le mazout que le gaz. Physiquement, c’est dû à une moindre présence d’hydrogène dans le mazout donnant, après réaction, moins d’eau dans les fumées.
  • On remarque qu’il faut être bien en dessous de la température de rosée pour atteindre les meilleurs rendements. En effet, il ne suffit pas d’être à quelques degrés inférieurs à ce point critique. Il faut de l’ordre d’une dizaine de degrés pour assurer une augmentation significative. Encore une fois, la température des fumées dépendra des conditions climatiques et du dimensionnement de l’installation de chauffage.

Intérêt d’une chaudière à condensation pour améliorer une ancienne installation de chauffage ? Oui si régulation adaptée !

Il y a-t-il un intérêt de placer une chaudière à condensation sur un réseau de radiateurs dimensionnés en régime 90°/70 °C ? En effet, si la température de retour est de 70 °C, alors la chaudière ne condensera pas !
Pourtant, il y a bien un intérêt à placer une chaudière à condensation :

  • D’une part, la température de retour ne sera de 70 °C que pendant les périodes plus froides de l’année. En effet, le régime de radiateur 90°/70 °C correspond aux températures extérieures les plus basses, plus particulièrement à la température de dimensionnement de l’installation (en d’autres termes, la température de base qui varie suivant les régions, mais tourne autour de – 10 °C). Si la température de départ est adaptée à la température extérieure (régulation climatique ou glissante), la température de retour sera plus faible pendant les périodes moins froides de l’année pouvant finalement donner lieu à la condensation dans la chaudière.

   

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 90°/70° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~ – 10 °C et ~ – 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière. Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent sur une grande partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la troisième figure que la chaudière gaz à condensation condense 75 % du temps et la chaudière mazout approximativement 40 %.

  • D’autre part, même en l’absence de condensation, les rendements utiles minimum obtenus (95 %) sont supérieurs aux valeurs que l’on rencontre avec les chaudières traditionnelles haut rendement (92 … 94 %). En effet, les chaudières à condensation sont équipées d’échangeurs de chaleur avec une surface plus grande que les chaudières traditionnelles. À température de retour égale, la chaudière à condensation amènera les fumées à un niveau de température plus bas.

Sur base des arguments suivants, le potentiel d’une chaudière à condensation sur une ancienne installation dimensionnée en régime 90°/70° est justifié pour le gaz naturel. Pour les installations au mazout, l’amélioration induite par la condensation est bel et bien présente, mais moins importante : ceci est dû à la température du point de rosée qui est plus basse pour le mazout.

On voit au moyen des figures suivantes que la situation est encore plus favorable à la condensation en présence d’émetteurs dimensionnés en régime 70 °C/50 °C. Dans le cas de la chaudière au gaz, on peut potentiellement avoir une condensation quasi permanente de la chaudière. Pour le mazout, la condensation est aussi majoritairement présente. Par conséquent, pour s’assurer de l’efficacité des installations équipées de chaudières à condensation, il peut être intéressant de redimensionner l’installation en régime 70°/50 °C. C’est généralement possible, dans la mesure où, d’une part, les émetteurs des anciennes installations de chauffage sont souvent largement surdimensionnés en régime 90°/70 °C, et, d’autre part, que la rénovation d’une installation de chauffage va souvent de pair avec l’amélioration des performances de l’enveloppe (rénovation), ce qui réduit significativement la puissance nécessaire des émetteurs.

    

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 70°/50° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~-10 °C et ~- 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière . Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent la majeure partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la dernière figure que la chaudière gaz à condensation condense 100 % du temps et la chaudière mazout approximativement 93 %.

L’intérêt des chaudières à condensation démontré, il faut néanmoins savoir que le circuit hydraulique de distribution de chaleur devra être éventuellement modifié pour assurer une température de retour la plus faible à la chaudière.

Influence de l’excès d’air

L’excès d’air a une influence sur les performances d’une chaudière à condensation. En effet, plus l’excès d’air est important et plus la température de rosée diminue. Comme la température de retour du réseau de distribution de chaleur dépend de sa conception, mais aussi des conditions météorologiques, cette température de rosée devrait être la plus haute possible pour être certain que la chaudière condense efficacement le plus souvent. Autrement, le risque est d’avoir une température de fumée trop élevée et donc de l’eau qui reste à l’état de vapeur dans ces fumées. En conclusion, il faut que l’excès d’air soit le plus faible possible pour avoir une température de rosée la plus haute et de meilleures conditions de condensation.

Rendement utile d’une chaudière gaz de type L en fonction de la température des fumées (fonction de la température de l’eau) et de l’excès d’air (λ = 1,3 équivaut à un excès d’air de 30 %).

Remarque : ce schéma montre que les anciennes chaudières atmosphériques à condensation avaient de moins bonnes performances puisqu’elles fonctionnaient avec un excès d’air supérieur à 50 % (λ = 1,5).

Gains sur le rendement saisonnier

Le gain obtenu sur le rendement saisonnier et donc sur la facture énergétique en choisissant une chaudière à condensation plutôt qu’une chaudière traditionnelle haut rendement peut donc varier entre : 1 et 14 %.

Si on compile les informations de l’ARGB pour le gaz et le résultat des programmes de simulation de certains fabricants, on peut dire que 6 .. 9 % d’économie sur la consommation annuelle est un ordre de grandeur réaliste pouvant être utilisé pour guider le choix de la nouvelle chaudière (voir peut-être un peu plus pour les meilleures installations).


Constitution d’une chaudière à condensation

Type d’échangeur

Les chaudières à condensation actuelles sont composées de deux ou trois échangeurs en série. Ces échangeurs sont soit séparés sous une même jaquette, soit intégrés dans un ensemble monobloc.

Le dernier échangeur sur le circuit des fumées (ou la dernière partie de l’échangeur monobloc) est appelé « condenseur ». C’est dans ce dernier que les fumées doivent céder leur chaleur latente. C’est donc également au niveau de ce dernier que se raccorde le retour d’eau à température la plus basse possible. Cet échangeur est conçu en un matériau supportant la condensation sans risque de corrosion (acier inox, fonte d’aluminium).

Il est également possible d’utiliser un condenseur séparé, rajouté à une chaudière traditionnelle, de manière à en augmenter son rendement. Cela est en principe possible pour toute chaudière gaz et fioul existante. C’est la seule solution si on veut exploiter la condensation avec des chaudières de plus d’un MW.

    

Échangeurs-condenseurs s’adaptant à une chaudière traditionnelle.

Pour obtenir le meilleur rendement de l’échangeur-condenseur, il est important que l’évacuation des fumées se fasse dans le même sens que l’écoulement des condensats, c’est-à-dire vers le bas. Dans le cas contraire, les fumées s’élevant risqueraient de revaporiser les condensats, ce qui ferait perdre l’avantage de la condensation.

Évacuation des fumées dans une chaudière à condensation, dans le sens de l’écoulement des condensats.

Le rendement de combustion obtenu dépend entre autres de la qualité de l’échangeur. Un bon échangeur permettra d’obtenir des fumées dont la température à la sortie de la chaudière est au maximum de 5 °C supérieure à la température de l’eau de retour. Attention, sur les plus mauvaises chaudières à condensation, cette différence de température peut aller jusqu’à 15 °C.

Circuits retour

Certaines chaudières comportent deux branchements de retour : un retour « basse température » au niveau du condenseur et un retour « haute température » au niveau du premier échangeur. Cette configuration permet l’utilisation d’une chaudière à condensation même lorsqu’une partie des utilisateurs demandent une température d’eau élevée (production d’eau chaude sanitaire, batteries à eau chaude, circuits de radiateurs à différents niveaux de température, …). Les circuits qui leur sont propres sont alors raccordés du côté « haute température », les circuits pouvant fonctionner en basse température (circuits radiateurs basse température, chauffage par le sol, …) étant dédiés au retour « basse température ».

Il faut toutefois faire attention : le retour « froid » reste le retour principal de la chaudière.  Le retour chaud by-passe une partie de la surface d’échange.  Il est donc important de maintenir un rapport (60% min, 40% max) entre le retour froid et le retour chaud !

Si l’on place la production ECS sur le retour « chaud » , tout l’été, la chaudière va fonctionner dans de mauvaises conditions, car il n’y a pas de retour « froid ».  Il est donc préférable dans ce cas de surdimensionner la production ECS, de manière à revenir plus froid sur la chaudière, et n’utiliser qu’un seul retour, à savoir le retour « froid » dans ce cas !

Type de brûleur

En gros, en fonction du type de brûleur, on retrouve trois types de chaudière à condensation :

  1. Des chaudières dont le brûleur est un brûleur gaz pulsé traditionnel (souvent 2 allures) commercialisé séparément de la chaudière à condensation.
  2. Des chaudières dont le brûleur est un brûleur à prémélange avec ventilateur (rampe de brûleurs, brûleurs radiant, …), modulant (de 10 à 100 % de leur puissance nominale). La modulation du brûleur se fait soit par variation de vitesse du ventilateur, soit par étranglement variable de la pulsion d’air et de gaz.
  3. Des chaudières gaz à brûleur atmosphérique à prémélange, sans ventilateur. Ces brûleurs sont à une ou 2 allures. Étant donné la technologie assez basique appliquée (contrôle moindre de l’excès d’air, pas de modulation de la puissance), ces chaudières présentent généralement de moins bonnes performances que les 3 premières catégories ci-dessus.

Type d’alimentation en air

Dans certaines chaudières avec brûleur à prémélange, l’air comburant est aspiré le long des parois du foyer avant d’être mélangé au gaz. Il est ainsi préchauffé en récupérant la perte du foyer. Les pertes vers l’ambiance sont dès lors minimes.

Cette configuration liée à une régulation qui fait chuter directement la température de la chaudière à l’arrêt et à un brûleur modulant fonctionnant quasi en permanence en période de chauffe rend inutile la présence d’isolation dans la jaquette de la chaudière.

Chaudière sans isolation, dont l’air est aspiré le long du foyer.

Ces chaudières peuvent être équipées d’un système de combustion étanche (ou à ventouse) dans lequel l’air comburant est directement aspiré à l’extérieur du bâtiment.

Irrigation

Il existe de trois types de chaudière, en fonction du degré d’irrigation minimum exigé :

  • Sans irrigation imposée (chaudières à grand volume d’eau),
  • Avec irrigation faible ou moyenne imposée (chaudières à faible volume d’eau),
  • Avec irrigation importante impérative (chaudières à faible volume d’eau).

Le circuit hydraulique qui sera associé à la chaudière à condensation dépend des exigences suivantes :

  • Pour les chaudières avec faible ou moyenne exigence d’irrigation, c’est la régulation qui doit assurer un débit minimum en toute circonstance, par exemple, par action sur les vannes mélangeuses.
  • Pour les chaudières sans irrigation imposée, les circuits de distribution peuvent être extrêmement simples et optimalisés pour garantir une condensation maximale.

Dans les deux cas de figure, il est impératif d’avoir une régulation performante qui régule la température de départ chaudière en fonction des besoins et /ou de la température extérieure, afin d’optimiser les performances chaudières et limiter les pertes de distribution.

Pertes vers l’ambiance, pertes à l’arrêt et isolation

Certaines nouvelles chaudières gaz à condensation se caractérisent par l’absence d’isolation dans la jaquette. Et pourtant, leurs pertes vers l’ambiance sont très faibles.
Il y a plusieurs raisons à cela :

  • Ces chaudières sont équipées de brûleurs modulants dont la plage de modulation est grande. En journée, puisque le brûleur adapte en permanence sa puissance aux besoins. Celui-ci ne présente nettement moins de périodes d’arrêt.
  • Parallèlement à cela, l’air de combustion est aspiré par le brûleur entre le foyer et la jaquette de la chaudière. Durant le fonctionnement du brûleur, l’air lèche le foyer avant d’être mélangé au gaz. La perte du foyer est ainsi récupérée en grande partie par le brûleur.
  • Lorsque le brûleur s’arrête (par exemple, au moment de la coupure nocturne), la chaudière retombe directement en température (si son irrigation s’arrête). Elle ne présente donc plus de perte.

 Exemples de chaudière à condensation

Exemples de chaudières à condensation : 

Chaudière gaz à condensation, équipée d’un brûleur modulant 10 .. 100 % et d’un réglage automatique de la combustion par sonde d’O2.

Chaudière gaz à condensation à équiper d’un brûleur pulsé traditionnel.

Chaudière gaz à condensation avec brûleur modulant à prémélange et aspiration d’air le long du foyer en fonte d’aluminium.

 

Chaudière fioul à condensation avec brûleur à air pulsé.

Chaudière à pellets à condensation : le refroidissement des fumées s’opère en deux fois. Le premier échangeur correspond aux plus hautes températures tandis que la condensation s’opère dans le second. Cette séparation permet de récupérer le condensat efficacement sans polluer le cendrier de la chaudière.


Circuits hydrauliques associés à une chaudière à condensation

Une chaudière à condensation n’a ses performances optimales que si elle est alimentée avec une eau à basse température, en tout cas inférieure à la température de rosée des fumées (de 53 à 58 °C pour les fumées issues de la combustion du gaz naturel, environ 45 °C pour les chaudières au mazout). Plus la température d’eau de retour est froide, plus la quantité de fumée condensée est importante et meilleur est le rendement.

La configuration des circuits de distribution doit donc être adaptée en conséquence avec comme principes :

  • De ne jamais mélanger, avant le condenseur, l’eau de retour froide et l’eau chaude de départ,
  • D’alimenter le condenseur avec les retours les plus froids.

Cumul imaginaire des recyclages d’eau chaude possibles vers la chaudière. Situations à éviter.

Exemples : schémas hydrauliques proposés par les fabricants de chaudières. Remarque : d’autres schémas sont également proposés par certains fabricants. Il est impossible de les reprendre tous ici. Certains sont particulièrement complexes, pour ne pas dire « biscornus ». Nous ne critiquons pas ici leur efficacité énergétique. Nous pensons cependant qu’il est préférable de choisir les schémas les plus simples, pour des raisons de facilité de conception (diminution des erreurs de conception), de rationalisation de l’investissement et de facilité d’exploitation.

Chaufferie comprenant une chaudière à condensation pouvant fonctionner à débit variable

Exemple 1

La chaudière alimente des circuits de chauffage par radiateurs régulés en température glissante (garantis un retour le plus froid possible vers le condenseur) et une production d’eau chaude sanitaire. Les configurations de la régulation (où la température de départ de la chaudière peut rester constante) et du circuit primaire en boucle ouverte sont extrêmement simples (il n’y a pas de circulateur primaire). Des aérothermes devant fonctionner à haute température d’eau peuvent être raccordés de façon identique à la production d’eau chaude sanitaire.

ATTENTION : Le retour « haute température » by-pass une partie de la chaudière.  Pour l’ECS en été, la chaudière fonctionnera dans de mauvaises conditions !!!  Dans le cas de l’utilisation de deux retours d’eau, le retour « froid » doit rester le principal retour, avec min 60 % du débit contre 40 % max pour le retour « chaud », dans toutes les conditions d’exploitation.

Exemple 2

Le branchement de la production d’eau chaude sanitaire sur le retour « froid » de la chaudière est rendu possible par un dimensionnement de l’échangeur en régime 70°/40°. On peut également raccorder sur ce même retour froid, des batteries de traitement d’air dimensionnées en régime 70°/40° ou des ventilos-convecteurs dimensionnés en régime 55°/40°.

Exemple 3

La présence d’un circuit à très basse température comme le chauffage par le sol est à valoriser pour augmenter la condensation. La chaudière à condensation aura de bonnes performances si la puissance du circuit « basse température » équivaut au minimum à 60 % de la puissance thermique totale.

Chaufferie composée comprenant une chaudière à condensation pouvant fonctionner à débit variable, et une chaudière traditionnelle

Exemple 1

L’enclenchement des chaudières est régulé en cascade. Dans l’ordre d’enclenchement, la chaudière à condensation est prioritaire.

Exemple 2

Le fonctionnement de ce schéma est identique au précédent, mais avec une production d’eau chaude sanitaire fonctionnant en régime 70°/40°.

Exemple 3

La chaudière à condensation et la chaudière traditionnelle sont raccordées en série. La chaudière à condensation préchauffe l’eau de retour. Si la température de consigne du collecteur n’est pas atteinte, la vanne trois voies (1) bascule pour alimenter la chaudière traditionnelle qui se met alors en fonctionnement.

Chaufferie comprenant une chaudière à condensation devant fonctionner à débit constant : bouteille casse-pression et circulateur sur boucle primaire

La chaudière alimente en température glissante les circuits de chauffage par radiateurs.

Le débit constant dans la chaudière est obtenu au moyen d’une bouteille casse pression qui recycle une partie de l’eau de départ lorsque les vannes mélangeuses des circuits secondaires se ferment. Pour obtenir la condensation, malgré la possibilité de retour d’eau chaude de départ vers le condenseur (via la bouteille casse-pression), il est impératif que la température (1) à la sortie de la chaudière suive au plus près la température (2) des circuits secondaires et garantisse une ouverture maximale des vannes mélangeuses. Une régulation climatique peut assurer que la température des radiateurs est mieux adaptée aux besoins de chaleur et, donc, que les vannes mélangeuses sont plus ouvertes.

Ce type de schéma est plus complexe et risque de conduire à des performances moindres puisqu’il est quasi impossible d’empêcher le recyclage partiel d’eau chaude dans la bouteille casse-pression :

  • Les différents circuits n’ont jamais la même température de consigne,
  • Les circulateurs des circuits primaires et secondaires (et donc les débits mis en œuvre) ne sont jamais dimensionnés avec la précision voulue.

De plus, il n’est guère possible de combiner une production d’eau chaude sanitaire avec ce type de chaudière. En effet, celle-ci ne pourra, à la fois, suivre au plus près la température des circuits secondaires et produire de l’eau chaude à plus de 60 °C.

Une solution est de placer un circulateur primaire à vitesse variable. Celui-ci diminuera sa vitesse lorsque la demande des circuits secondaires diminue, empêchant le recyclage d’eau chaude dans la bouteille casse-pression. Il s’agit cependant de rester dans les limites de débit exigé par la chaudière.

Par exemple, la régulation de la vitesse du circulateur peut être réalisée comme suit : la vitesse est augmentée si la température en amont de la bouteille (T°G) est supérieure à la température en aval de la bouteille (T°D) augmentée de 2 K. Inversément, elle sera diminuée si la T°G est inférieure à T°D + 2 K. De la sorte, on est assuré du fait que l’eau de retour remontera en faible quantité dans la bouteille et que l’eau de chaudière ne sera jamais recyclée.

Chaufferie composée comprenant une chaudière à condensation devant fonctionner à débit constant et une chaudière traditionnelle

Dans un tel schéma, la chaudière à condensation est prioritaire dans l’ordre d’enclenchement de la régulation en cascade.
Pour réguler une installation de ce type en favorisant au maximum la condensation sans créer d’inconfort, il est impératif que la consigne de température des chaudières soit d’une part très proche de la température des circuits secondaires (pour éviter un retour d’eau chaude via la bouteille casse-pression) et d’autre part, que cette température soit mesurée en aval de la bouteille casse-pression (en 2 et non en 1, pour éviter une incompatibilité de débit entre le circuit des chaudières et les circuits radiateurs).

Le risque de retour d’eau chaude dans la bouteille casse-pression est moins grand que dans le cas d’une seule chaudière. En effet lorsque les besoins sont moindres et que les vannes mélangeuses des circuits secondaires se ferment, on peut imaginer que seule la chaudière à condensation est en demande. Le débit primaire est alors diminué par 2.

On peut aussi imaginer que, le raccordement du retour vers les chaudières se fasse séparément au départ d’une bouteille casse-pression verticale. Le retour vers les chaudières traditionnelles se raccordera plus haut que le retour des circuits secondaires, qui lui-même sera plus haut que le retour vers la chaudière à condensation. Cette façon de faire permet de diriger le recyclage éventuel d’eau chaude dans la bouteille casse-pression vers la chaudière traditionnelle.


Cheminées associées à la condensation

Les produits de combustion issus d’une chaudière à condensation sont saturés en vapeur d’eau dont une partie va se condenser sur les parois de la cheminée. Cela exclut une évacuation par une cheminée traditionnelle en maçonnerie, car l’humidité provoquerait de graves dommages au bâtiment. De plus, la température trop froide créé une dépression naturelle.

Des solutions particulières ont donc été mises au point pour évacuer les produits de combustion des chaudières à condensation. On rencontre ainsi principalement les deux techniques suivantes :

  1. La cheminée étanche à l’humidité, en acier inoxydable ou matériau synthétique. Elle permet de maintenir une température inférieure au point de rosée sans que l’humidité ne la traverse et attaque la maçonnerie. Fonctionnant en surpression, elle est aussi étanche aux produits de combustion.
  2. Le tubage, qui s’applique en rénovation à une cheminée ancienne. Il doit être étanche, résistant à la corrosion et installé dans une cheminée. Le tubage doit pouvoir fonctionner en surpression dans toute sa longueur. Il peut être réalisé en conduit rigide ou flexible. Dans le cas d’un tubage en conduit flexible, l’aluminium, même de qualité requise, est interdit. Le bas du conduit d’évacuation des produits de combustion doit être équipé d’une purge munie d’un siphon et reliée au réseau d’eaux usées par un conduit en matériau résistant aux condensats, le tube en PVC est réputé convenir pour cet usage.

Notons qu’il existe un agrément technique concernant les conduits de cheminée utilisables en combinaison avec une chaudière à condensation. Seuls ceux-ci peuvent être choisis.

En principe, dans une chaudière à condensation la température des fumées est supérieure à la température de l’eau entrant dans la chaudière d’environ 5 °C. La température des fumées ne peut donc jamais dépasser 110 °C qui est la limite de fonctionnement d’une chaudière. Cependant pour pallier à un défaut de la régulation de cette dernière, un thermostat de sécurité coupant la chaudière si la température des fumées dépasse 120 °C doit être prévu dans les raccordements vers la cheminée en matériau synthétique.

Il est important aussi de signaler que l’on ne peut raccorder sur un même conduit de cheminée, une chaudière traditionnelle et une chaudière à condensation.

Notons également qu’il existe des chaudières à condensation à combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se font par deux conduits concentriques (l’air est aspiré au centre et les fumées rejetées par le conduit extérieur). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical et 160 kW en conduit horizontal.

Chaudières raccordées à un système de combustion étanche (à « ventouse »).

Pour plus d’information concernant la conception des cheminées.


Évacuation des condensats

À l’heure actuelle, il n’existe pas de normes ou de prescription en vigueur pour l’évacuation des condensats. De manière générale, les condensats sont évacués vers l’égout au moyen d’un conduit.

Photo évacuation des condensats vers les égouts.

 Photo face isolée arrière d'une chaudière à condensation au gaz avec son tuyau d'évacuation des fumées.   Photo partie inférieure du conduit de cheminée munie d'un conduit d'évacuation des condensats.

La première figure montre l’évacuation des condensats vers les égouts, la deuxième figure montre la face isolée arrière d’une chaudière à condensation au gaz avec son tuyau d’évacuation des fumées et son conduit d’évacuation des condensats (en blanc), tandis que la dernière figure montre la partie inférieure du conduit de cheminée munie d’un conduit d’évacuation des condensats.

En régime permanent, une chaudière gaz à condensation de 250 kW produit en moyenne environ 14 litres/h de condensat. Ces condensats pour le gaz naturel sont légèrement acides (H2O + CO2). Le degré d’acidité est du même ordre de grandeur que celui de l’eau de pluie (pH : 4 .. 4,5). De plus, l’acidité de ceux-ci est souvent compensée par le caractère plutôt basique des eaux ménagères. Ceci explique qu’il ne soit pas obligatoire de traiter les condensats avant leur évacuation à l’égout. Pour les grandes installations où la production de condensat devient importante devant la quantité d’eau domestique, il peut être judicieux de traiter les condensats avant de les évacuer.

Graphe représentant différents niveaux d’acidité et comparaison avec les condensats des chaudières mazout et gaz.

Dans le cas du mazout, le niveau d’acidité est plus important et est dû à la présence plus importante du soufre au sein du combustible. Le mazout extra, pauvre en Soufre, permet de limiter l’acidité. Dans ce cas de figure, les remarques pour les condensats des chaudières gaz peuvent être appliqué pour la chaudière au mazout extra. Dans le cas du mazout standard, nous conseillons le lecteur de clarifier la situation avec l’installateur ou le bureau d’études. En effet, dans les grandes installations (Pn > ~100 kW), une neutralisation des condensats pourrait s’avérer nécessaire, par exemple, dans le cas d’une utilisation continue de la chaudières (ex. piscine) qui occasionnerait une plus grande production de condensat. Pour relever le pH des condensats, on peut utiliser un bac de neutralisation équipé de filtres de charbon actif : les filtres devront être remplacés de manière périodique pour maintenir l’efficacité.

Dans le cas d’une chaufferie en toiture, il est recommandé de ne pas faire couler les condensats sur la toiture ou directement dans les gouttières (légère acidité, risque de gel et de bouchage des évacuations). Un conduit en matière synthétique raccordé directement à l’égout est indiqué.

Chaudières traditionnelles [ECS]

Chaudières traditionnelles [ECS]

On parle de « chaudière traditionnelle » en opposition aux « chaudières à condensation« . Les « chaudières traditionnelles » sont conçues et exploitées de manière à éviter la condensation des fumées.

La chaleur latente de celles-ci n’étant pas récupérée, les « chaudières traditionnelles » auront toujours un moins bon rendement que les « chaudières à condensation ».


Chaudières gaz ou fuel à brûleur pulsé

Les chaudières à brûleur pulsé sont des chaudières dont le brûleur est choisi indépendamment de la chaudière. Celui-ci peut fonctionner au gaz ou au fuel.

Les chaudières actuelles de ce type sont dites « à foyer pressurisé », c’est-à-dire que le trajet des fumées dans la chaudière est assuré grâce à la pression fournie par le ventilateur du brûleur.

   

Chaudière à foyer pressurisé sans et avec son brûleur.

Types de foyer

En gros, il existe actuellement deux types de chaudière (de puissance > 70 kW) :

  • les chaudières « à triple parcours »,
  • les chaudières « à inversion de flamme ».

Chaudière triple parcours en acier : les fumées quittent le foyer par l’arrière et parcourent à trois reprises la longueur de la chaudière avant d’être récoltées au dos de celle-ci.

Elément d’une chaudière triple parcours en fonte. Les chaudières performantes de ce type possèdent un premier et un dernier élement (refermant le foyer) entièrement parcourus par l’eau, ce qui augmente les surfaces d’échange et diminue les pertes par parois sèches.

Chaudière à inversion de flamme en acier. Dans ces chaudières, souvent de grosse puissance, le foyer est « borgne ». Les fumées ressortent de celui-ci par l’avant (le long de la flamme) avant de parcourir des tubes de fumée. Dans ceux-ci, des turbulateurs (spirales, lamelles métalliques, …) ralentissent les fumées pour augmenter l’échange avec l’eau et doser celui-ci pour éviter les condensations.

La principale différence entre ces deux configurations se situe au niveau des émissions de NOx. En effet, les chaudières à « triple parcours » permettent un court temps de séjour des fumées dans la zone de combustion, contrairement aux chaudières à inversion de flamme dans lesquelles les fumées doivent retransiter par la zone de combustion. Rappelons que un long temps de séjour des fumées dans la zone à plus haute température est favorable à la formation des NOx.

Rendement

Pertes à l’arrêt

Les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont extrêmement faibles (de l’ordre 0,1 … 0,4 % de la puissance nominale de la chaudière).
Cela est la conséquence :

  • d’un degré d’isolation de la jaquette important, équivalent à une épaisseur de laine minérale de 10 cm enveloppant l’ensemble de la chaudière,
  • de la présence d’un clapet (motorisé, pneumatique, …) refermant l’aspiration d’air du brûleur lorsque celui-ci est à l’arrêt.

Isolation de la jaquette d’une chaudière à brûleur pulsé.

Rendement de combustion

Le rendement de combustion de ces chaudières est dépendant du choix du brûleur et de son réglage. Avec un brûleur finement réglé, un rendement de combustion de 93 .. 94 % est tout à fait possible dans les chaudières actuelles les plus performantes.

Rendement saisonnier

Les faibles pertes à l’arrêt et la possibilité d’obtenir des rendements de combustion les plus élevés (sans condenser), font des chaudières à brûleur pulsé les chaudières les plus performantes dans la catégorie des chaudières dites « traditionnelles »:

Exemple. Soit une chaudière correctement dimensionnée (facteur de charge (nB/nT) de 0,3) avec des pertes à l’arrêt (qE) de 0,2 % et un rendement utileutile )de 93 %.

Le rendement saisonnier de cette chaudière est estimé à :

ηsais = ηutile / (1 + qx (NT/NB – 1))

ηsais = 93 [%] / (1 + 0,002 x ((1/0,3) – 1)) = 92,6 [%]


Chaudières gaz atmosphériques

Les chaudières gaz atmosphériques sont des chaudières dont le brûleur ne possède pas de ventilateur.

Ces chaudières sont composées de rampes de brûleurs placés en dessous du foyer. L’aspiration d’air par le brûleur se fait naturellement par le gaz et les flammes. On parle de brûleur atmosphérique traditionnel quand une grande partie de l’air est aspirée au niveau de la flamme et on parle de brûleur à prémélange quand l’air est mélangé au gaz avant la flamme.

Chaudière gaz à brûleur gaz atmosphérique à prémélange.

Un coupe tirage (ouverture de la buse d’évacuation vers la chaufferie), placé à l’arrière de la chaudière annule l’influence du tirage de la cheminée sur la combustion en maintenant une pression constante à la sortie de la chaudière.

Chaudière atmosphérique :

  1. Corps de chauffe (en fonte)
  2. Échangeur à ailettes profilées
  3. Isolation
  4. Bouclier thermique
  5. Buse de fumée avec coupe-tirage intégré
  6. Tableau de commande
  7. Jaquette
  8. Porte d’accès (pivotante)
  9. Collecteur de départ
  10. Collecteur de retour
  11. Brûleur à prémélange (bas NOx)
  12. Rampe gaz
  13. Électrode d’allumage et sonde d’ionisation
  14. Transfo d’allumage
  15. Connecteurs électriques
  16. Vanne gaz à 2 allures
  17. Vanne de vidange

Avantages

  • Le prix moindre. Une chaudière atmosphérique de conception « bas de gamme » coûte moins cher qu’une chaudière équipée d’un brûleur gaz pulsé.
  • L’absence de bruit. Une chaudière atmosphérique ne comportant pas de ventilateur est nettement moins bruyante qu’un brûleur pulsé.
  • La facilité de montage et de réglage.

Inconvénients

  • Un rendement utile moindre. La gestion moins précise de l’excès d’air diminue le rendement utile des chaudières qui est voisin de 91 .. 92 % pour les nouvelles chaudières à prémélange et inférieur à 90 % pour les chaudières de conception plus ancienne (chaudières répondant juste aux exigences de l’AR du 18 mars 97 et encore vendues), alors que l’on peut espérer un rendement de 93 .. 94 % avec une chaudière moderne à brûleur pulsé bien réglée.
  • Une production importante de NOx. Les chaudières atmosphériques « bas de gamme » émettent généralement une quantité importante de NOx, à telle point que certains modèles ne peuvent plus être vendus qu’en Wallonie (émission de NO> 150 mg/kWh) où il n’y a pas de réglementation en la matière. Les technologies du prémélange et le refroidissement de la flamme au moyen de barres métalliques diminuent fortement les émissions de NOx (< 60 .. 70 mg/kWh) pour les rendre compatibles avec la plupart des labels européens.

Brûleur à prémélange « LOW NOx« .

  • Des pertes à l’arrêt plus importantes. Les chaudières purement atmosphériques (c’est-à-dire sans ventilateur) sont généralement parcourues à l’arrêt par un flux d’air continu provoquant des pertes par balayage. Par rapport aux anciens modèles de chaudière atmosphérique, celles-ci sont maintenant limitées : limitation des ouvertures de passage d’air dans les brûleurs à prémélange, ajout sur certains modèles d’un clapet sur les fumées se fermant à l’arrêt. Quelques importants fabricants de chaudières annoncent ainsi (d’autres ne donnent pas de chiffre) des pertes à l’arrêt de leurs chaudières atmosphériques de l’ordre de 0,8 .. 1,3 % de la puissance de la chaudière, sans clapet sur les fumées et de l’ordre de 0,6 .. 0,7 % avec un clapet d’obturation des fumées (pour une température d’eau de 60°C). À titre de comparaison, les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont de l’ordre de 0,1 .. 0,4 %.

Pertes à l’arrêt d’une chaudière atmosphérique à prémélange actuelle de la marque « x » en fonction de la température de l’eau de chaudière.

Exemple.

Il existe sur le marché des chaudières gaz atmosphériques composées de deux ensembles brûleur-échangeur séparés, ce sous une même jaquette. Cette chaudière intègre également la régulation lui permettant de réguler en cascade les deux brûleurs. Des vannes d’isolement permettent également l’isolation hydraulique de l’échangeur à l’arrêt. Cette technique de construction permet donc, dans une seule chaudière, d’offrir les avantages de deux chaudières séparées régulées en cascade : réduction des pertes à l’arrêt, augmentation du temps de fonctionnement des brûleurs.


Chaudières gaz à prémélange avec ventilateur

On associe aussi aux chaudières gaz atmosphériques les chaudières à prémélange total mais équipées d’un ventilateur qui pulse le mélange air/gaz vers le brûleur ou placé sur l’évacuation des fumées, qui aide à vaincre la perte de charge de la chaudière. Le brûleur intégré à ces chaudières peut être un brûleur à rampes comme pour les chaudières atmosphériques ou un brûleur radiant.

Par rapport aux chaudières gaz atmosphériques (sans ventilateur), les chaudières gaz à prémélange avec ventilateur présentent les avantages complémentaires suivants :

  • Les pertes à l’arrêt sont légèrement moindres (0,5 .. 0,7 %, pour une température d’eau de 60°C), soit parce qu’un clapet d’air supprime le tirage au travers du foyer à l’arrêt, soit parce que la configuration du brûleur et du foyer est telle que le balayage d’air est moindre.
  • La technologie du brûleur radiant permet une diminution importante des émissions de NOx.
  • En outre, les brûleurs de ces chaudières sont souvent modulants, (jusqu’à 25 % pour les chaudières qui ne sont pas à condensation) ce qui implique une diminution du nombre de démarrages, donc des émissions polluantes, une diminution des temps d’arrêt de la chaudière, donc des pertes à l’arrêt et une augmentation du rendement utile à charge partielle.
  • Dans le cas d’atmosphère corrosive pour les chaudières, certaines de ces chaudières peuvent être équipées d’un système de combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se fait par deux conduits concentriques (l’air est aspiré par le conduit périphérique et les fumées rejetées par le conduit central). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical.

Chaudières gaz reliées à un système de combustion étanche.

Il est ainsi possible d’atteindre, avec ces chaudières des rendements saisonniers proches de ceux des chaudières pressurisées à brûleur pulsé.


Les technologies « très basse température »

Actuellement, on retrouve sur le marché des chaudières traditionnelles dites :

  • « Basse température », dont la température moyenne d’eau interne ne peut descendre en dessous d’une certaine valeur, de l’ordre de 50 …60°C (on parle aussi dans la réglementation de chaudières « standards »).
  • « Très basse température », ne présentant aucune contrainte en ce qui concerne la température de l’eau.

La troisième catégorie de chaudières étant les chaudières à condensation conçues, elles, pour favoriser la condensation des fumées et fonctionnant avec les températures d’eau les plus basses.

Conception des chaudières « très basse température »

Pour éviter que les fumées ne condensent dans les chaudières « très basse température », les échangeurs de chaleur sont conçus pour qu’à aucun moment la température de paroi de l’échangeur du côté des fumées ne puisse descendre en dessous du point de rosée (.. 45°C .. pour le fuel et .. 55°C .. pour le gaz).

Exemple.

Pour certaines chaudières en fonte, le parcours de l’eau dans la chaudière est conçu pour que l’eau froide de retour n’entre pas en contact direct avec l’échangeur.

Thermographie infrarouge d’un élément en fonte d’une chaudière. l’eau de retour rentre dans l’élément par le dessus (rond bleu). Elle est dirigée vers l’extérieur de l’élément (couronne bleue, jaune et verte). Elle ne longe, ainsi, le foyer et les tubes de fumées qu’une fois réchauffée (zone rouge).

Dans les chaudières en acier, les fabricants utilisent, par exemple, des échangeurs « double parois ». Cela permet à la paroi de l’échangeur, côté fumée, d’être maintenue à une température supérieure à 60°C, même si la température de l’eau est très basse (l’échangeur se comporte comme un double vitrage).

Échangeur d’une chaudière très basse température : les fumées circulent dans les tubes doubles parois. L’absence partielle de contact entre le tube coté fumée et le tube coté eau permet aux fumées de ne pas condenser au contact de la paroi, quelle que soit la température de l’eau dans la chaudière. Sans la double paroi, la température du tube coté fumée serait presqu’égale à la température de l’eau,même si les fumées au centre du tube ont une température élevée, puisque le coefficient d’échange coté eau est nettement plus important que du coté des fumées. Les fumées condenseraient alors le long de la paroi si la température de l’eau descend sous 60°C.

Comparaison énergétique « basse température » et « très basse température »

Rendement de production

En théorie, les chaudières « très basse température » régulées en température glissante présentent un rendement saisonnier supérieur aux chaudières « basse température ». En effet, plus la température de l’eau est basse :

En pratique, la différence n’est pas aussi tranchée. En effet, le rendement de production d’une chaudière « très basse température » ne se démarque pas toujours énormément de celui d’une chaudière « basse température ».

En effet, dans les chaudières « très basse température », pour éviter que les fumées ne condensent au contact de parois de la chaudière irriguées avec de l’eau à température inférieure à 60°C, les constructeurs conçoivent des échangeurs dans lesquels l’échange de chaleur entre l’eau et les fumées est ralenti (par exemple, les tubes doubles parois).

Il en résulte un moins bon échange qu’imaginé théoriquement puisque la température de surface de l’échangeur ne descend pas sous 60° même si la température de l’eau est plus basse. La température des fumées n’est donc pas forcément plus basse pour une chaudière « très basse température » que pour une chaudière « basse température ». Pour limiter cet impact, les constructeurs augmentent la surface d’échange, ce qui augmente la taille des chaudières et leur coût.

Dans les chaudières « basse température », si la température de l’eau ne descend pas en dessous de 60°C, il n’y a aucun risque de condensation côté fumée, et on peut optimiser les surfaces d’échanges et ainsi entraîner une température de fumée plus basse et donc le meilleur rendement de combustion possible.

Pertes à l’arrêt

De plus, il est vrai que la chaudière « basse température » présente des pertes à l’arrêt légèrement supérieures mais celles-ci fortement limitées du fait d’une isolation renforcée et de la suppression des pertes par balayage avec les brûleurs pulsés (pour autant que le clapet d’air se referme effectivement à l’arrêt !).

Attention, cette conclusion n’est plus valable si on choisit une chaudière atmosphérique d’une ancienne conception, et/ou si l’installation est fortement surdimensionnée.

Pertes de distribution et de régulation

La diminution de la température moyenne de l’eau dans la chaudière, en fonction de la saison, n’a pas un intérêt énergétique que sur le rendement de la chaudière :

  • la limitation des pertes par distribution dans le collecteur primaire, dans le cas des circuits avec distribution secondaire possédant sa propre régulation de température (vannes mélangeuses),
  • la limitation des pertes de distribution dans l’ensemble du réseau de distribution dans le cas des installations sans circuit secondaire,

Cela permet également de simplifier la conception des circuits hydrauliques, puisqu’il ne faut plus faire attention à la température de l’eau qui alimentera la chaudière.

Emissions de polluants liée à la consommation énergétique

Emissions de polluants liée à la consommation énergétique


Émissions de CO2

Pour les combustibles fossiles, les émissions de CO2 sont proportionnelles à la consommation d’énergie primaire. Elles dépendent du type de combustible :

  • Gaz naturel : 0.198 kg CO2/kWh
  • Mazout : 0.264 kg CO2/kWh
  • Électricité : 0.29 kg CO2/kWh.

Pour être précis, le CO2 produit par une centrale électrique dépend du type de centrale, de la saison et de l’heure de la journée. En moyenne, pour le parc de production belge, on a en moyenne autour de 0.29 kg de CO2/kWh. Pour l’année 1998, on relève

  • Hiver, heures normales : 0,335 kg CO2/kWh élec produit.
  • Hiver, heures creuses : 0,269 kg CO2/kWh élec produit.
  • Mi-saison, heures normales : 0,342 kg CO2/kWh élec produit.
  • Mi-saison, heures creuses : 0,273 kg CO2/kWh élec produit.
  • Été, heures normales : 0,328 kg CO2/kWh élec produit.
  • Été, heures creuses : 0,264 kg CO2/kWh élec produit.

Avec,

  • Hiver = novembre, décembre, janvier, février.
  • Été = juillet et août.
  • Mi-saison = les autres mois.
  • Heures normales = entre 6h00 et 20h59 (pour les jours de la semaine).
  • Heures creuses = entre 21h00 et 5h59 (pour les jours de la semaine) et les jours de WE entiers. (en pratique, ces heures sont variables en fonction du distributeur).

Ces taux d’émissions de CO2 ont déterminé au niveau des centrales électriques du parc belge (selon le programme PROMIX) dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel- SPE. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Pour le calcul des émissions de CO2 du chauffage par pompes à chaleur, une valeur moyenne de 0,347 kg CO2/kWh élec produit peut être considérée, valeur pondérée selon le nombre d’heures normales, le nombre d’heures creuses, le nombre de jours d’hiver et de mi-saison compris dans la saison de chauffe.

À titre de comparaison, voici les émissions de CO2 publiées par d’autres sources. Certaines considèrent uniquement la phase de combustion, d’autres intègrent le cycle de vie complet du combustible (c’est-à-dire l’extraction, le transport, le conditionnement en plus de la combustion).

Type d’énergie

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (cycle complet)

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (combustion)

Émission d’équivalent CO2 [g/kWhPCI] : valeur Gemis 4.5 (cycle complet)

Émission de CO2 [g/kWhPCI] : valeur ADEME 1995 (combustion)

Émission de CO2 [g/kWhPCI] : valeur PEB (combustion)

Émission de CO2 [g/kWhPCI] : valeur CWaPE

Électricité réseau belge : niveau producteur

267

247

713 (ref = vieille centrale charbon)

456 (ref = centrale TGV)

Gaz naturel

231

202

235

180

202

251

Fioul lourd

319

281

280

Fioul domestique

301

271

327

270

263

306

Propane

275

231

240

Charbon

371

341

350

335

385

Bois pellets

0

46.7

0

0

45.6

Bois bûches

0

22.4

0

0


Émissions de NOx

Les émissions de NOx ne sont pas seulement liées au combustible, mais également au mode de combustion de celui-ci (taux d’excès d’air, température de flamme).

Les taux d’émission suivants peuvent être considérés :

Plage de valeurs NOx, Electrabel-SPE : mg/kWh

Valeur moyenne NOx, Electrabel-SPE : mg/kWh

Valeur NOx, Fondation Rurale de Wallonie : mg/kWh (combustion)

Valeur NOx, Gemis 4.5 : mg/kWh (cycle complet)

Ancienne chaudière mazout

…-200

200

Chaudière mazout non Low NOx

150 – 180

165

144

244

Chaudière mazout Low NOx

90 – 120

105

Ancienne chaudière gaz

150 – 200

175

Chaudière gaz atmosphérique

100 – 180

140

Chaudière gaz modulante

20 – 90

55

144

140

Électricité

420

420

459

Chaudière à bois bûches ancienne

180

Chaudière à bois bûches moderne

151

235

Chaudière à bois déchiqueté (plaquettes)

162

Chaudière à bois condensé (pellets)

344

Remarque sur les données

Les taux d’émissions de NOx des deux premières colonnes de résultats sont celles admises dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel – SPE – 1998.

Pour les chaudières, les taux d’émission de NOx sont exprimés en mg par kWh thermique de combustible consommé (à l’entrée de la chaudière). Par contre pour l’électricité, les taux sont exprimés en mg par kWh électrique disponible à la sortie des centrales électriques (et donc en tenant compte du rendement moyen du parc des centrales électriques en 1998, soit 38 %). Comme on le constate, ce rendement s’améliore et cette progression continuera dans les années futures grâce au remplacement des centrales au charbon par des TGV (Turbine Gaz Vapeur) qui ont un rendement de 55 %. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Les valeurs récoltées par la Fondation Rurale de Wallonie (FRW) sur base de sources allemandes et reprise dans les fiches éco-construction de l’IBGE datant de 2007 négligent les productions de NOx induites par les phases de transformation et de transport du combustible.

Les valeurs reprises du projet Gemis 4.5 considèrent quant à elles tout le cycle du combustible, de son extraction, son conditionnement et son transport jusqu’à la combustion finale.


Émissions de SO2

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 800 mg SO2/kWh électrique. Ce chiffre est passé à 430 mg SO2/kWh en 1999.

Une grande marge d’incertitude existe au niveau de la production de SO2 liée à la combustion de fuel, production liée au type de fuel et à la qualité de la combustion.

Voici une série de valeurs issues du programme international Gemis 4.5 qui estime les différentes productions de polluants sur le cycle du combustible : extraction, conditionnement et transport. En outre, les valeurs reproduites dans les fiches éco-construction de l’IBGE datant de 2007 et collectée par la FRW sur base de sources allemandes sont aussi indiquées : ces valeurs ne tiennent pas compte du conditionnement et du transport.

Type de production

Production de SO2, valeur FRW : mg/kWh  (combustion)

Production d’équivalent SO2, Gemis 4.5 : mg/kWh (cycle complet)

Production de SO2, statistiques environnementales 1999

Chaudière au fioul

504

600

Chaudière au gaz

0

111

Électricité

392

430

Chaudière à bois bûches ancienne

36

Chaudière à bois bûches nouvelle

36

320

Chaudière à bois déchiqueté (plaquettes)

36

Chaudière à bois condensé (pellets)

472


Émissions de poussières

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 61 mg de poussières/kWh. Ce chiffre est passé à 41 mg de poussières/kWh électrique en 1999.

Type de production

Poussières, valeurs FRW (sources allemandes) : mg/kWh (combustion)

Poussières, Statistiques environnementale 1999 : mg/kWh

Poussières, valeurs Gemis 4.5 : mg/kWh (cycle complet)

Chaudière fioul

18

27

Chaudière gaz

0

4.8

Electricité

41

15.4

Chaudière à bois bûches ancienne

252

Chaudière à bois bûches moderne

50

189

Chaudière à bois déchiqueté (plaquettes)

14

132

Degrés-jours [Théories – climat]

Window and snow with sleeping bag
Window and snow with sleeping bag

Principe des degrés-jours

« Quantifier le froid »

La consommation de chauffage est liée à l’écart de température entre l’ambiance intérieure et l’extérieur du bâtiment.

Or la température varie d’un lieu à un autre.

La notion de « degré-jour » a été introduite pour permettre la détermination de la quantité de chaleur consommée sur une période donnée et pour effectuer des comparaisons entre des bâtiments situés dans des zones climatiques différentes.

Le principe consiste à additionner, jour après jour, les écarts de température existants entre l’intérieur et l’extérieur. Par exemple, si, en moyenne de la journée, il fait 20°C à l’intérieur et 5°C degrés à l’extérieur, on parlera de 15 degrés-jours. De même 3 journées à 0°C extérieur seront comptabilisées comme 60 degrés-jours.

En additionnant tous les écarts de température entre intérieur et extérieur sur tous les jours de la période de chauffe, on obtiendra un nombre proportionnel au besoin de chaleur du bâtiment : les degrés-jours du lieu.

En généralisant :

Le nombre de degrés-jours d’une période de chauffage est égal au produit du nombre de jours chauffés multiplié par la différence entre la température intérieure moyenne du local considéré et la température extérieure moyenne.

DJ = nombre de jours chauffés x (T intérieure moyenne – T extérieure moyenne).

Qu’est-ce qu’une « température extérieure moyenne journalière » ?

Un bâtiment possède une certaine inertie. On a donc considéré que son besoin de chauffage était proportionnel à la température extérieure moyenne sur une journée (et non à la température la plus froide de la nuit). Il a été convenu de prendre comme référence la moyenne arithmétique entre la température minimale et maximale de ce jour.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7° à 15h00, va être comptabilisée comme une journée dont la température moyenne est de 1°C.

Degrés-jours « normaux » en base 15/15

La chaleur à fournir au bâtiment n’est pas rigoureusement proportionnelle à la différence entre la température extérieure moyenne et la température de confort du local. En effet, le bâtiment jouit de certains apports gratuits : le soleil, la chaleur produite par les occupants et les équipements (les gains internes).

L’expérience a appris que dans notre pays une température intérieure moyenne (moyenne sur l’ensemble des pièces et moyenne sur les 24 heures de la journée) de 18°C pouvait être considérée comme représentative de la température de confort désirée.

Et les apports gratuits (gains internes et externes) sont estimés en moyenne à environ 3°C.

Si bien que le système de chauffage ne doit plus chauffer que jusque 15°C (le soleil et l’occupation permettant la montée de la température jusque 18°C).

De même, s’il fait 15°C dehors, le chauffage peut être interrompu : on est en dehors de la saison de chauffe.

On parle alors de « degrés-jours en base 15/15 » comme étant l’indicateur représentatif des besoins de chauffage dans notre région.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7°C à 15h00, va être comptabilisée comme 14 DJ en base 15/15.

Des moyennes de ces degrés-jours ont été établies par l’IRM sur les 30 dernières années : ce sont les degrés-jours Normaux. Ils servent de référence pour définir la rigueur moyenne de l’hiver et sont accessibles via cette adresse.

Pour plus d’informations sur ce que sont les températures normales, ainsi que la définition des périodes de référence (30 ans), vous pouvez vous rendre sur cette page.

Les degrés-jours 15/15 normaux (DJ 15/15) sont accessibles sur le site de la Région wallonne.

Les degrés-jours 15/15 sont également accessibles après chaque mois en contactant l’IRM. Adressez une demande par mail à climinfo@meteo.be en précisant la commune souhaitée (si c’est le cas).

Enfin, des degrés-jours 16,5/16,5 sont également communiqués sur le site de l’Association Royale des Gaziers de Belgique (ARGB) : http://www.gaznaturel.be.

Mais attention : leur base de référence est de 16,5°C ! Autrement dit, si la température moyenne journalière est de 5°, ils comptabiliseront 11,5 DJ, alors que 10 DJ seront comptabilisés en base 15°C. Peu importe, mais l’essentiel est de conserver une base de référence commune constante (ainsi, en base 16,5°C, les degrés-jours normaux annuels sont de 2458 !). Si la base 15 convient bien aux bâtiments administratifs ou scolaires coupés la nuit et le week-end, la base 16,5 est sans doute meilleure dans les bâtiments chauffés en permanence comme les lieux d’hébergement.

La durée de la saison de chauffe

S’il fait 8°C au petit matin en juillet et 18°C l’après-midi (donc température moyenne sur la journée de 13°C ( (8°C + 18°C)/2) ), faut-il comptabiliser 2 degrés-jours 15/15 ? Pour l’IRM : oui, bien sûr. Pourtant, on sait que la chaudière ne sera pas remise en route pour autant et qu’il ne faut donc pas comptabiliser ce « froid »-là.

L’Association Royale de la Technique du chauffage (ATIC) a donc défini des critères de début et de fin de saison de chauffe :

  • Le début de saison de chauffe est le premier jour, d’août, de septembre ou d’octobre, pour lequel simultanément la température maximum Tm n’a pas atteint 18°C et 2 DJ au moins ont été relevés sur la journée.
  • La fin de la saison de chauffe est le jour de mai ou juin à partir duquel simultanément la température maximum Tm est supérieure à 18°C et 2 DJ au plus ont été relevés sur la journée;

On notera que cela explique certaines différences trouvées entre tableaux de degrés-jours : certains sont basés sur les données strictes de l’IRM, d’autres sont basées sur les valeurs de l’ATIC où « l’été n’est pas comptabilisé ».


Degrés-jours « équivalents »

En toute rigueur, le calcul des degrés-jours repose sur le calcul des apports solaires propres à chaque bâtiment. Ainsi, un bâtiment fortement vitré bénéficiera d’un apport solaire hivernal important et ses besoins de chauffage diminueront d’autant.

De plus, un bâtiment bien isolé verra sa chaudière coupée plus tôt puisque les mêmes apports des équipements intérieurs (l’éclairage par exemple) feront monter plus vite la température intérieure.

La figure ci-dessous permet de visualiser la réalité :

  • La température extérieure moyenne décrit la courbe sinusoïdale jaune et présente son minimum en hiver.
  • La contribution des apports solaires permet de déterminer la courbe rouge, dite des « températures sans chauffage » SC : c’est le lieu des températures moyennes atteintes à l’intérieur sans apport de chauffage. La courbe rouge est au-dessus de la courbe jaune : les températures intérieures sont supérieures aux températures extérieures par l’action des gains solaires.
  • L’horizontale verte représente la température de confort (ici, par simplification 18 °C).
  • La droite horizontale bleue détermine le lieu des « températures de non-chauffage » NC, c’est-à-dire la température au-delà de laquelle il n’est plus nécessaire de chauffer, car le supplément de température permettant d’atteindre la droite des températures de confort est fourni par les gains internes (supposés constants).

La surface rectangulaire rouge représente donc les degrés-jours équivalents du mois de novembre (10,5°C x 30 jours = 315 DJ).

La surface hachurée comprise entre la courbe sans chauffage et la droite de non-chauffage représente les degrés-jours du bâtiment considérés sur la période de chauffage, encore appelés « degrés-jours équivalents ».

Ce calcul, qui fournit précisément les besoins du bâtiment est assez complexe, notamment parce qu’il suppose une évaluation de l’ombrage des bâtiments voisins sur les façades, parce qu’il intègre la notion d’inertie dans la récupération des apports solaires, etc…

La méthode de calcul détaillée est reprise dans la NIT 155 (Note d’Information Technique du CSTC).

Pompes à chaleur

Pompes à chaleur

Pompe air-eau à chaleur réversible.


Vous avez dit « pompe à chaleur » ?

Elle transfère de l’énergie d’un milieu à un autre

Source : ef4.

Une pompe à chaleur (PAC) est une machine dont le but est de valoriser la chaleur gratuite présente dans l’environnement : celle présente dans l’air extérieur, les rivières, le sol. En effet, tout corps, même « froid » contient une quantité importante d’énergie qui peut être récupérée.

Pratiquement, grâce à un fluide décrivant un cycle thermodynamique, la pompe à chaleur retire de la chaleur à une source dite « froide » et la rejette dans une source dite « chaude ». Ce transfert fait appel à un processus forcé, puisque chacun sait que la chaleur se déplace de façon naturelle d’une zone chaude vers une zone froide. C’est pourquoi, la PAC doit être entraînée par un compresseur qui lui amènera l’énergie nécessaire à son fonctionnement.

À titre d’exemple,  pompe à chaleur à placer sur la toiture d’un atelier industriel.

Il est important de préciser que l’on parle ici d’appareils réalisant un transfert, et non une création de chaleur. L’objectif visé – le coefficient de performance – se situe autour de 3 unités de chaleur fournies à la source chaude par unité injectée au compresseur. Cela signifie que pour un kWh consommé et payé, on en reçoit 3 gratuitement

Mais la PAC est un producteur de chaleur « dynamique » : contrairement à une chaudière, une PAC voit ses performances varier selon les conditions d’utilisation. Elle aura ainsi de très bonnes performances de chauffage … en été alors que ce n’est pas en cette période que le besoin de chauffage est présent ! La tâche la plus difficile pour le projeteur, consiste à prendre en considération ce comportement dynamique et à équiper l’installation de telle manière que les conditions limites de fonctionnement ne soient pas dépassées.

Un boom commercial

Il s’agit d’une technologie qui bénéficie d’un fort regain d’intérêt ces dernières années après un premier boom (et une déception…) lors de la crise pétrolière des années 70. Le marché est en pleine expansion :

Développement des ventes de pompes à chaleur en Europe 2005-2013, par catégorie.

Source : https://www.ehpa.org.

Un outil « propre » ?

La PAC permet d’utiliser l’énergie électrique à bon escient. La pompe à chaleur s’inscrit-elle alors dans la démarche « développement durable » ? Il convient de nuancer la réponse.

La pompe à chaleur en tant que telle est une machine intéressante dans la mesure où un kWh payé au niveau mécanique (pour faire tourner le compresseur), on produit 3 à 4.5 kWh d’énergie thermique (suivant la technologie utilisée et la qualité de la mise en œuvre). Néanmoins, toute la question de l’impact environnemental d’une pompe à chaleur se trouve dans la façon de produire ce kWh mécanique. La majorité des PAC utilisent de l’énergie électrique pour réaliser ce travail moteur. Les performances environnementales d’une PAC sont donc directement liées aux performances environnementales de l’électricité que l’on utilise. Prenons différents cas de figure :

  • Dans le cas, plutôt marginal à l’heure actuelle, où l’électricité serait produite par des énergies purement renouvelables, comme des éoliennes ou panneaux photovoltaïques, l’impact d’une PAC est remarquable dans la mesure où elle multiplie l’efficacité des énergies renouvelables pour la production thermique, et globalement, l’impact environnemental est nul. Dans ce cas de figure, il n’y a pas lieu de nuancer le propos : les PACs ont un impact positif.
  • Si l’on consomme l’électricité du réseau électrique belge, les performances environnementales des PAC sont alors à nuancer. À l’heure actuelle, la production électrique est largement dominée par les centrales nucléaires. Celles-ci réalisent autour de 60 % de le production électrique. Le restant de la production est essentiellement réalisé par des centrales travaillant avec les combustibles fossiles (gaz et charbon). Les centrales nucléaires sont caractérisées par des émissions d’équivalent CO2 relativement moindres que les centrales classiques (quoi que cet argument est parfois remis en cause). Du coup, si on fait un bilan global, travailler avec des PAC et l’électricité du réseau émet moins de CO2 que de brûler du gaz ou du mazout localement dans la chaudière de chaque habitation. Néanmoins, gros bémol, il reste la problématique des déchets nucléaires. Même si à court terme, la gestion ou du moins, l’entreposage des déchets nucléaires, est gérable, à long terme, cela peut engendrer de gros soucis. Si on s’intéresse à la consommation en combustible fossile, la PAC combinée à l’électricité du réseau est intéressante comparée à la combustion directe dans l’habitat uniquement si la pompe à chaleur à de bonnes performances, c’est-à-dire si l’on travaille avec du bon matériel, bien conçu par rapport au bâtiment et bien installé. En fait, les centrales utilisent 2 à 2.5 kWh de combustible fossile pour générer 1 kWh électrique. En intégrant les pertes du réseau électrique, il faut que la PAC produise plus de 3 kWh thermiques sur base de ce kWh électrique pour que le bilan environnemental soit intéressant.

Conclusion, l’intérêt environnemental de placer une pompe à chaleur est dépendant de la qualité de l’électricité qui est utilisée pour alimenter la PAC. Dans le cas du réseau électrique belge actuel, l’intérêt d’une PAC est présent sur les émissions de CO2 mais, en ce qui concerne la consommation en énergie primaire, uniquement si les performances thermiques des PAC sont optimisées.


Types de pompes à chaleur

 

Source : ef4.

Les pompes à chaleur sont désignées en fonction des fluides caloporteurs dans lesquels baignent les échangeurs de chaleur de l’évaporateur et du condenseur. Attention, il s’agit bien du fluide caloporteur au niveau de l’évaporateur et du condenseur et qui n’est pas toujours équivalent au type de source chaude ou froide (l’air, l’eau ou le sol). En effet, on peut trouver intercalé, entre le condenseur et la source chaude, ou entre l’évaporateur et la source froide, un circuit intermédiaire. Prenons à titre d’exemple, les PAC Saumure/eau. On trouve du coté évaporateur de l’eau glycolée, eau glycolée dans un circuit qui parcourt ensuite le sol afin d’en extraire la chaleur. Du coté condenseur, on trouve un circuit d’eau qui, par exemple, alimente un circuit de chauffage par le sol pour se décharger de son énergie.

Les principaux types de PAC

Désignation

Évaporateur

Condenseur

Boucle intermédiaire : source froide/évaporateur

Boucle intermédiaire : condenseur/source chaude

PAC Eau/ Eau

Eau

Eau

Non

Oui

PAC Air/ Eau

Air

Eau

Non

Oui

PAC Saumure/ Eau

Saumure

Eau

Oui

Oui

PAC Air/ Air

Air

Air

Non

Non

PAC Sol/Sol

Sol

Sol

Non

Non

Exemple de désignation abrégée :

Type : Eau/ Eau
Température entrée évaporateur : 10 °C
Température sortie condenseur : 45 °C
Désignation abrégée : W10/W45

L’expression W10/W45 signifie que la source froide est une eau à 10 °C et la source chaude une eau à 45 °C. C’est sous cette forme que les fournisseurs désignent leurs produits. Une source de chaleur telle une nappe phréatique ou une eau de surface sera désignée par « eau », l’air atmosphérique ou des rejets gazeux par « air », un mélange eau-glycol qui circule dans le circuit fermé entre une source de chaleur et l’évaporateur par « saumure ». De ce fait, les pompes à chaleur puisant l’énergie du sol seront parfois désignées sous le terme de « saumure ».

Les systèmes les plus répandus sont les systèmes Air/Eau puis Saumure/Eau dont la source de chaleur est souterraine. Les pompes à chaleur Eau/Eau sont souvent soumises à autorisation et sont donc moins courantes en Belgique.


Principe de fonctionnement d’une pompe à chaleur

     

Source : ef4.

Le principe de fonctionnement est le même que celui de la machine frigorifique mais l’application travaille en sens inverse.

Cette fois, l’objectif consiste à extraire la chaleur gratuite d’un milieu extérieur : l’eau d’une rivière, l’air extérieur, l’eau d’une nappe souterraine, … (on parle de « source froide »). Physiquement, l’air extérieur à 0 °C contient beaucoup d’énergie puisque sur l’échelle des températures absolues, l’air se situe en réalité à 273 K !

Schéma du principe de fonctionnement d’une pompe à chaleur.

L’évaporateur est à l’extérieur et la température du fluide frigorigène sera environ 5 à 8 °C inférieure à la température de la source froide. L’énergie thermique captée sera « remontée » à un niveau de température utilisable (pour le chauffage d’une maison, par exemple) via le compresseur : le condenseur est donc à l’intérieur.

Bien sûr, on choisira un émetteur de chaleur à une température la plus basse possible (par exemple, chauffage à air chaud, chauffage à eau chaude par serpentin dans le sol, …). L’écart de température entre l’entrée et la sortie du compresseur doit être en effet le plus faible possible pour limiter le travail du compresseur.

Exemple.

Refroidir l’eau d’une rivière initialement à 10 °C pour assurer le chauffage d’une habitation par de l’air à 35 °C. Le fluide frigorigène passera à 6 °C dans la rivière et à 40 °C dans l’échangeur de chauffage de l’air du bâtiment.


Différents coefficients de performance

SC = source de chaleur (source de froide),   Acc = accumulateur.

L’évaluation de la performance instantanée

On peut déduire le rendement d’une PAC (appelé « ε », indice de performance) sur base du rapport entre l’énergie thermique utile délivrée au condenseur par rapport à l’énergie électrique fournie (et payée) au compresseur.

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

Ce rapport peut être obtenu ou déduit du catalogue du fournisseur, à partir de mesures qu’il aura effectuées dans des conditions standards.

L’évaluation de la performance instantanée, auxiliaires compris

Cette fois, on parle d’un coefficient de performance « COP ».

C’est la norme européenne EN 255 qui définit le coefficient de performance en lieu et place de l’indice de performance présenté ci-dessus. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des dispositifs auxiliaires qui assurent le bon fonctionnement de la pompe à chaleur : le dispositif antigel, la commande/régulation et les installations mécaniques (pompe, ventilateur).

Toutefois, ces mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances particulières. Il ne faut pas perdre cela de vue lorsque l’on travaille avec le COP pour estimer les performances d’une PAC.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

L’évaluation de la performance annuelle, auxiliaires compris :

Le coefficient de performance annuel (« COPA ») est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produites et injectées pendant une année y sont comparées les unes aux autres. Il ne s’agit plus ici d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Imaginons que notre PAC exemple fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.

L’évaluation théorique de la performance annuelle :

Il s’agit du Facteur de Performance Saisonnier (« SPF »).

Alors que le COPA est le rapport entre les valeurs mesurées sur un an de l’énergie calorifique donnée utilement au bâtiment et de l’énergie (souvent électrique) apportée à l’installation, le SPF est le rapport de ces mêmes quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SFP comme ceci :

où,

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an].
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Un rendement qui dépasse 100 % !?

Quel bilan énergétique de la PAC ?

Qu’est-ce qui coûte dans l’exploitation d’une installation de pompe à chaleur ?

  • pas l’énergie de la « source froide » : elle est gratuite,
  • mais bien l’énergie électrique du compresseur.

D’où la notion de rendement donné par « ε », l’indice de performance :

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Or Q2 = Q1 + W = chaleur captée à la source froide + énergie développée par le travail du compresseur (loi de conservation des énergies).

Dès lors, Q2 est toujours plus grand que W et ε est toujours nettement plus élevé que 1.

Est-il normal de rencontrer une machine dont le « rendement » dépasse 100 % ?

En réalité, il ne s’agit pas ici d’une machine de conversion, de transformation d’énergie comme une chaudière (c’est-à-dire transformation d’énergie chimique en chaleur), mais bien d’une machine qui transfère une quantité d’énergie thermique d’un seuil de température à un autre. L’indice de performance n’est donc pas un rendement (de conversion) mais une évaluation de la performance du transfert.

Si l’écart entre les 2 seuils de température augmente, l’efficacité (ε ou COP) diminue.

Quel est le « ε » théorique d’une pompe à chaleur ?

Puisque W = Q2 – Q1, on écrit encore : ε = Q2 / (Q2 – Q1)

Si l’on considère un travail sans pertes, les lois de la thermodynamique établissent le lien entre l’énergie contenue dans un fluide (Q) et la température absolue de ce fluide (T), si bien que l’on admettra sans démonstration l’expression suivante du COP théorique :

ε théorique = T2 / (T2 – T1) [T étant exprimé en Kelvin]

Où :

  • T2 = température de condensation [K].
  • T1 = température d’évaporation [K].

Il faudra donc une température d’évaporation maximale et une température de condensation minimale. Attention cependant à ne pas confondre les températures T1 et T2 du fluide frigorigène avec celles des sources chaudes et froides, même si, par voie de conséquence, le coefficient de performance instantané est d’autant meilleur :

  • que la température de la source de chaleur (= la « source froide ») est élevée,
  • que la température du réseau de chauffage est basse (T2 proche de T1).

Alors que l’on ne peut guère influencer la température de la source de chaleur (la source froide), celle au départ du chauffage sera définie par le projeteur ! Par conséquent, il aura tendance à choisir un chauffage par le sol ou un chauffage à air chaud.

Exemple d’une pompe à chaleur AIR – AIR

Soit T°ext = 0 °C (= 273 °K) et T°chauff. = 40 °C

εthéor = (273 + 40) / (40) = 7,8 !

En théorie, la pompe fournira 8 x plus d’énergie au condenseur que d’énergie demandée au compresseur ! … (les 7/8 de la chaleur étant captés dans l’air extérieur).

Et quel COP pratique ?

En pratique, plusieurs éléments vont faire chuter la performance :

  • Il existe un écart de température entre le fluide frigorigène et les sources.
    Par exemple : si T°ext = 0 °C, T°évaporateur = … – 8 °C… Et si T°chauff. = 40 °C, T°condenseur = … 48 °C… D’où ε = (273 + 48) / (56) = 5,7.
    Le coefficient de convection entre l’eau et l’évaporateur étant nettement meilleur que le coefficient de convection entre l’air et l’échangeur, on aura tendance à privilégier les PAC eau/eau et eau/air. Encore faut-il avoir une rivière au fond de son jardin ou une nappe phréatique sur laquelle il est possible de puiser (autorisation obligatoire). En général, il faudra se résoudre à prendre l’air extérieur comme source froide.
  • Or dans ce cas, si la T°ext < 5 ° C, alors T°fluide évaporateur = 0 °C. Dès lors, du givre apparaît sur les ailettes, la glace bouche l’échangeur extérieur, d’où nécessité de dégivrer (soit un courant électrique est envoyé sur l’échangeur pour faire fondre la glace, soit le cycle est inversé et des gaz chauds sont envoyés dans l’évaporateur).
    Avec la consommation de dégivrage, l’indice de performance moyen diminue fortement.
  • Lorsque la température de l’air extérieur descend sous 0 °C, le compresseur a de plus en plus de mal à fonctionner : la puissance délivrée au condenseur de la pompe à chaleur devient très faible et il faut parfois ajouter des résistances de chauffage électrique directe à l’installation . Paradoxe malheureux, c’est quand il fait très froid que l’habitation demandera le plus de puissance et que la pompe à chaleur lui en donnera le moins!
  • Il y a nécessité de faire fonctionner les ventilateurs des sources froides et chaudes, d’où une consommation électrique supplémentaire de ces auxiliaires.

Exemple. Voici les spécifications techniques d’un climatiseur réversible présent sur le marché. En hiver, ce climatiseur peut fournir de la chaleur au local : il fonctionne alors en mode « pompe à chaleur ».

Unité intérieure

FHYB35FJ

Unité extérieure

RY35D7

Puissance frigorifique

kcal/h

3 100

Btu/h

12 300

kW

3,60

Puissance calorifique

kcal/h

3 500

Btu/h

14 000

kW

4,10

Puissance absorbée

rafraîchissement

kW

1,51

chauffage

kW

1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4
 

  • l’indice de performance au condenseur, ε

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Attention ! Ce coefficient est obtenu dans des conditions très favorables ! En petits caractères, le fabriquant précise qu’il s’agit de valeurs obtenues pour 7 °C extérieurs… Cette performance va s’écrouler en période plus froide. En réalité, c’est le rendement moyen saisonnier qui nous intéresse… mais celui-ci n’est jamais donné puisqu’il dépend des conditions d’exploitation.


Pompe à chaleur sur boucle d’eau

Plusieurs pompes à chaleur sont connectées sur une boucle d’eau commune.

  • En été, elles fonctionnent en machine frigorifique dont le condenseur est refroidi par la boucle d’eau. Celle-ci se refroidit elle-même via par exemple une tour de refroidissement posée en toiture.
  • En hiver, elles fonctionnent en pompe à chaleur dont la boucle d’eau constitue la source « froide ». Celle-ci est elle-même réchauffée par une chaudière placée en série sur la boucle.
  • En mi-saison, ce système prend tout son sens : si simultanément des locaux sont refroidis et d’autres réchauffés, la boucle qui les relie permet le transfert d’énergie entre eux, avec une performance URE remarquable.

Ce système est optimalisé s’il dispose en plus d’un système pour stocker la chaleur et la restituer à la demande, en différé.

Ces PAC/climatiseurs sont constitués de deux parties :

  • Une partie traitement de l’air du local composée principalement d’un filtre, d’un échangeur Air/fréon et d’un ventilateur de soufflage.
  • Une partie circuit frigorifique constituée d’un compresseur, d’une vanne 4 voies d’inversion de cycle, d’un échangeur Eau/fréon raccordé à la boucle d’eau, d’un détendeur capillaire.

Suivant les cycles de fonctionnement, les échangeurs Eau/fréon et Air/fréon sont tour à tour le condenseur ou l’évaporateur du circuit frigorifique; ce basculement est rendu possible par la vanne 4 voies d’inversion de cycle canalisant les gaz chauds sous pression, en sortie du compresseur, vers l’un ou l’autre des échangeurs dans lesquels le fluide frigorigène sera alors condensé en abandonnant ses calories à l’eau ou l’air.


Impact sur l’environnement

Impact sur la couche d’ozone

Les pompes à chaleur récentes sont en général chargées avec des fluides frigorigènes  tels que les HFC, l’ammoniac, le CO2 ou le propane qui n’ont pas d’impact sur la couche d’ozone.

Impact sur l’effet de serre

Pour calculer l’impact sur l’effet de serre d’une pompe à chaleur, et donc la quantité d’équivalents CO2 qu’elle produit, on doit connaître les éléments suivants :

Éléments liés au fluide frigorigène

  1. Le potentiel de participation au réchauffement climatique sur 100 ans du fluide frigorigène choisi (le GWP100 en anglais). Voir ici  pour connaître ces valeurs en kg de CO2 par kg de fluide frigorigène.
  2. La quantité de fluide frigorigène chargée : m en kg, qui dépend du type de PAC. Il faut en effet dix fois plus de fluide frigorigène dans une PAC « sol/sol » à détente directe (à la source froide ET à la source chaude), par rapport à une PAC eau/eau ou eau glycolée/eau.
  3. La quantité annuelle de fluide frigorigène perdue à cause des fuites : L en kg/an que l’on estime à 3 % de la charge m de fluide frigorigène, si la pompe à chaleur est assemblée et testée en usine et non sur chantier. Si la PAC est assemblée sur chantier, on suppose que 10 % de la masse en fluide frigorigène est perdue par les fuites.
  4. Le taux de récupération du fluide frigorigène lors du démontage de la pompe à chaleur : αrecovery qui est estimé à 75 %.

Éléments liés à l’énergie primaire utilisée pour le fonctionnement de la pompe à chaleur et des auxiliaires

  1. La consommation électrique annuelle : E en kWh/an.
  2. Le coefficient d’émissions de CO2 dues à la production d’électricité : β = 0,456 kg de CO2/kWhélectrique si l’on considère que l’électricité est produite dans une centrale TGV.

Éléments liés à la l’utilisation de la pompe à chaleur

  1. Le nombre d’années d’utilisation : n.

Ces éléments entrent dans la formule du TEWI (Total Equivalent Warming Impact) en kg de CO2 :

TEWI = GWP100 x L x n  +  GWP100 x m x (1 – αrecovery)  +  n x E x β         (*)

Le tableau illustre les quantités de CO2 émises par différents types de PAC de 20 kW calorifiques, toutes chargées avec le fluide frigorigène R407C (GWP100 = 1 800 kg CO2/kg FF).

PAC air extérieur/eau
(A2/W35)
PAC eau/eau
(W10/W35)
PAC eau glycolée/eau
(B0/W35)
PAC sol/eau (évaporation directe)
(S-5/W35)
PAC sol/sol (évaporation et condensation directes)
(S-5/S35)
Puissance calorifique 20 kW 20 kW 20 kW 20 kW 20 kW
COP saisonnier moyen 3,5 4,5 4 4 4
Puissance électrique absorbée 20 kW / 3,5
= 5,7 kW
20 kW / 4,5
= 4,5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
Consommation électrique E 5,7 kW x 2 000 h
= 1 1400 kWh/an
4,5 kW x 2 000 h
= 9 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
Consommation appoint 4 kW x 300 h/an
= 1 200 kWh/an
0 0 0 0
Quantité de FFm 6 kg 2,5 kg 2,5 kg 10 kg 18 kg
Quantité annuelle de FF perdue par les fuites L 3 % de 6 kg
= 0,18 kg/an
3 % de 2,5 kg
= 0,075 kg/an
3 % de 2,5 kg
= 0,075 kg/an
10 % de 10 kg
= 1 kg/an
10 % de 18 kg
= 1,8 kg/an
Premier terme de (*) 1 800 x 0,18 x 20
= 6 480 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 1 x 20
= 36 000 kg CO2
1 800 x 1,8 x 20
= 64 800 kg CO2
Second terme de (*) 1 800 x 6 x (1 – 0,75)
= 2 700 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 10 x (1 – 0,75)
= 4 500 kg CO2
1 800 x 18 x (1 – 0,75)
= 8 100 kg CO2
Dernier terme de (*) 20 x (11 400 + 1 200) x 0,456
= 114 912 kg CO2
20 x 9 000 x 0,456
= 82 080 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
Émissions 124 092 kg 85 905 kg CO2 95 025 kg CO2 131 700 kg CO2 164 100 kg CO2
Annuelles de CO2 CO2
/ 20 ans
= 6 205 kg CO2/an
/ 20 ans
= 4 295 kg CO2/an
/ 20 ans
= 4 751 kg CO2/an
/ 20 ans
= 6 585 kg CO2/an
/ 20 ans
= 8 205 kg CO2/an

On voit que le troisième terme de l’expression (*) est de loin le plus important en ce qui concerne les 3 premières PAC de 20 kW étudiées : c’est l’électricité consommée par la pompe à chaleur et ses auxiliaires qui génère le plus de CO2 (entre 80 et 95 % des émissions totales). Les quantités de fluide frigorigène sont par contre tellement élevées dans les PAC à détende directe (les deux dernières colonnes), que les émissions de CO2 leur sont en grande partie dues.

Une pompe à chaleur de 20 kW calorifiques chargée au R407C (deux fois moins polluant que le R404A) génère ainsi entre 4 000 et 8 300 kg de CO2 par an en fonction du type de PAC. En comparaison aux chaudières à mazout (13 600 kg de CO2 par an pour une puissance calorifique de 20 kW) ou au gaz (11 200 kg de CO2 pour cette même puissance), la pompe à chaleur est beaucoup moins polluante.  Les PAC qui présentent l’impact sur l’effet de serre le moins important sont les PAC sur eau de surface, car il n’y a pas lieu de forer et leur COP est élevé.

Les pompes à chaleur à électricité d’origine renouvelable

Les émissions de CO2 générées par l’utilisation d’une pompe à chaleur sont très faibles si l’électricité nécessaire à son fonctionnement est produite par des panneaux photovoltaïques ou par une autre énergie renouvelable. L’impact sur l’effet de serre n’est plus alors causé que par les fuites de fluide frigorigène et par sa récupération en fin de vie de la PAC. Alors, si possible, il faut éviter les grandes quantités de fluide frigorigène, qui annuleraient tout l’effort d’économies de CO2 permis par la production renouvelable d’électricité…

Impact sonore

La pompe à chaleur est une technologie qui émet un fond bruyant. En effet, les pièces mécaniques en mouvement, la circulation d’air, etc., occasionnent un niveau sonore qui sera d’autant plus élevé que les conditions extérieures sont mauvaises (la PAC fonctionne au maximum de ses performances par temps froid). Les compresseurs et ventilateurs sont en l’occurrence, les éléments fautifs…

Une PAC émet entre 50 et 60 décibels à 1 mètre et environ 40 dB à 5 mètres. Une telle installation ne sera tolérable que si elle n’occasionne pas de gêne sonore pour les occupants de l’immeuble et pour le voisinage. Il faut donc l’installer suffisamment loin des fenêtres, des pièces de travail, de repos, etc. La PAC devra être posée sur un silent block (plots antivibratiles).

Autres impacts

L’installation d’une PAC eau/eau sur nappe phréatique montrera un impact non négligeable sur les eaux souterraines. Il existe des réglementations pour ce type de PAC, dont la sévérité dépend de la potabilité de l’eau extraite et du débit nécessaire.

Voir le site de la base de données juridique de la Région Wallonne pour connaître la réglementation concernant les prélèvements et les rejets d’eau souterraine : ouverture d'une nouvelle fenêtre !  wallex.wallonie.be : « Arrêté du Gouvernement wallon modifiant l’arrêté du Gouvernement wallon du 4 juillet 2002 arrêtant la liste des projets soumis à étude d’incidences et des installations et activités classées » du 22 janvier 2004.
L’injection d’eau refroidie dans les eaux de surface peut avoir un impact sur le milieu.

Grandeurs caractéristiques des ventilateurs

Grandeurs caractéristiques des ventilateurs


Diamètre nominal

 La plupart des ventilateurs ne sont pas construits à partir de dimensions arbitraires. Celles-ci sont normalisées, ce qui permet leur interchangeabilité et les comparaisons de prix.

Le diamètre nominal d’un ventilateur est le diamètre de la section de raccordement placée à l’aspiration dans le cas d’un raccordement direct à un conduit. Lorsque le ventilateur est équipé différemment (par ex.: présence d’un pavillon à l’aspiration), on se réfère au ventilateur équivalent en raccordement direct.

Diamètres nominaux en mm

63

71

80

90

100

112

125

140

160

180

200

224

250

280

315

355

400

450

550

560

630

710

800

900

1 000

1 120

1 250

1 400

1 600

1 800

2 000


Courbes caractéristiques

Les performances des ventilateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants.

On retrouve dans les courbes caractéristiques :

  • la hauteur manométrique totale que peut fournir un ventilateur en fonction du débit (ou point de fonctionnement),
  • la vitesse du ventilateur pour chaque point de fonctionnement,
  • le rendement du ventilateur pour chaque point de fonctionnement,
  • la pression dynamique à la sortie du ventilateur,
  • la puissance absorbée à l’arbre du moteur.

Courbes caractéristiques d’un ventilateur centrifuge à aubes inclinées vers l’arrière.

Pour fournir un débit de 8 000 m³/h, le ventilateur délivre une pression dynamique de 45 Pa.

Pour un réseau ayant, avec ce débit une perte de charge de 955 PA, la hauteur manométrique
du ventilateur est de 1 000 PA Pour obtenir ce point de fonctionnement le ventilateur
doit tourner à 1 950 tr/min.
Pour ce point de fonctionnement, son rendement sera de 81 %
et la puissance à l’arbre sera proche de 2,8 kW.

Certaines courbes caractéristiques reprennent de façon semblable la puissance acoustique émise par le ventilateur pour chaque point de fonctionnement.

De même, si l’angle de calage des aubes du ventilateur (ventilateur hélicoïde) peut varier ou si le ventilateur est équipé d’un aubage de prérotation, on retrouvera sur les courbes caractéristiques les différentes performances du ventilateur en fonction du réglage choisi.

On peut également signaler que l’imprécision des mesures des caractéristiques en laboratoire a conduit à éditer des classes de tolérance permettant de se faire une idée de la qualité de la documentation technique fournie par le fabricant.

Classe de tolérance

0

1

2

3

Débit d’air

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Pression

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Puissance absorbée

+ 2 %

+ 3 %

+ 8 %

+ 16 %

Rendement

– 1 %

– 2 %

– 5 %

Puissance acoustique

+ 3 dB

+ 3 dB

+ 4 dB

+ 6 dB


Sens de rotation et position de l’enveloppe

C’est la situation de la manchette de refoulement qui permet de différencier la position de l’enveloppe (0, 90, 180 ou 270 degrés avec parfois des angles intermédiaires comme 45, 135, 270 ou 315 degrés).

Quant au sens de rotation d’une roue, il se détermine comme suit : l’observateur se place face au ventilateur du côté du moteur (ou du manchon d’accouplement ou de la poulie) et regarde dans le prolongement de l’axe de rotation du ventilateur. Si l’observateur voit alors le ventilateur tourner dans le sens des aiguilles d’une montre, le ventilateur est dit tourner « à droite » ou dans le « sens direct » ; s’il le voit tourner dans le sens inverse des aiguilles d’une montre, le ventilateur est dit tourner « à gauche » ou dans le « sens inverse ».


Règles de similitude

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné.

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume (m³/h)

n = vitesse de rotation (tr/min)

p = gain de pression (Pa)

P= puissance sur l’arbre (kW)

p/ p= (n1 / n2)² = (q1 / q2

Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Variation du diamètre de l’ouïe d’aspiration pour un ventilateur tournant à vitesse constante

V/ V= (d/ d2

Légende :

d = diamètre de l’ouïe d’aspiration (mm)

p/ p= (d/ d2

Pw1 / Pw2 = (d1 / d2)5

Absorbeurs acoustiques

Absorbeurs acoustiques


Les silencieux à absorption

Le silencieux à absorption est le plus utilisé dans les installations de ventilation et de climatisation.

Physiquement, l’énergie acoustique du signal sonore est absorbée par les parois et convertie en chaleur.

  1. gaine d’écoulement.
  2. enveloppe perméable aux sons.
  3. matériau d’absorption acoustique.

Le principe consiste à faire circuler l’air entre des plaques de matériau absorbant, appelées baffles (garnie de plaques métalliques dans le cas des silencieux pour basse fréquence). L’atténuation acoustique d’un silencieux est fonction de l’épaisseur des baffles, de l’écartement entre deux baffles et de la longueur de ces derniers

  • Silencieux composés de cinq baffles.
  • Baffle pour silencieux efficace pour les hautes fréquences.
  • Baffle pour silencieux, recouvert en partie d’une tôle métallique pour les basses fréquences.

 

Tourelles d’extraction équipées d’un silencieux.

Il existe également des baffles cylindriques dans lesquels le matériau absorbant est recouvert d’un tube  perforé. Ceux-ci ne permettent pas une atténuation aussi importante que leurs homologues rectangulaires, mais provoquent moins de pertes de charges. Pour les plus grands diamètres, ce type de silencieux est en outre équipé d’un cylindre central (appelé bulbe) pour augmenter ses performances.

    

Silencieux cylindriques sans et avec bulbe.


Les silencieux actifs

L’absorption acoustique a comme principe de créer à l’aide d’un circuit électronique une onde déphasée par rapport à l’onde acoustique qui se propage dans le réseau, annulant cette dernière :

Le bruit incident dans la gaine est transmis par le microphone de détection (situé vers le ventilateur) au calculateur électronique. Celui-ci analyse ce signal entrant, le décompose, calcule le signal inverse et le restitue au haut-parleur. Ce dernier émet le bruit contraire ainsi créé dans le flux d’air qui interfère de manière destructive avec le bruit incident pour l’atténuer. Un microphone de contrôle (à l’opposé du ventilateur) transmet au calculateur le bruit atténué résultant pour qu’il corrige et optimise cette atténuation.

Silencieux actif.

L’énorme avantage de cette technique est de ne créer que peu de perte de charge, contrairement à tous les systèmes dits « passifs ».

Les silencieux actifs sont capables d’éliminer aussi bien des bruits complexes que des sons purs. Ils sont particulièrement efficaces dans l’atténuation des basses fréquence sans sélectivité.

Ils peuvent ainsi être complémentaire aux silencieux à absorption car leur association permet de réduire des niveaux de bruit sur de larges bandes allant des basses aux hautes fréquences.

Les silencieux actif s’insère directement sur un réseau de gaines circulaires mais, pour les gaines rectangulaires des pièces d’adaptation sont nécessaires.

Les turbulences au sein de l’écoulement d’air diminuent les performances de ce type de silencieux. Il faut donc être attentif à les placer dans une portion du réseau où l’air se répartit le plus uniformément sur toute sa section.


La manchette de compensation

La manchette de compensation, ou compensateur élastique, a pour mission de couper les bruits transmis par les solides, grâce à son élasticité.

Tout particulièrement, elle permet de stopper les vibrations générées par le ventilateur dans le caisson de climatisation.

Elle est réalisée en toile à voile, en tissu plastifié ou en matière synthétique.


Le revêtement absorbant de conduit

Un revêtement intérieur fibreux (généralement, il s’agit de panneaux de laine minérale) renforce l’atténuation du son transporté par un conduit d’air.

Il existe des matériaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène. Cet enduit ne doit pas dépasser 0,1 mm d’épaisseur, sans quoi le pouvoir d’absorption est diminué. Les panneaux pouvant émettre des fibres dans le réseau de ventilation sont, quant à eux, à éviter.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Exemple : imaginons un conduit de 0,15 m x 0,15 m de section, d’une longueur de 11 m, munie d’un revêtement absorbant sur 1 m. Quelle sera l’atténuation sonore totale ?

Voici l’atténuation du niveau sonore annoncée par un fabricant de panneaux absorbants [en dB/m] :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

4,5

4

11

16,5

19

17,5

0,30 m x 0,30 m

1,5

1,5

6

15

10

7

0,60 m x 0,60 m

1

1,5

5

12

7

4,5

Remarque.

On constate que l’absorption acoustique d’un matériau fibreux est nettement plus élevée pour les hautes fréquences (sons aigus) que les basses fréquences (sons graves). On constate également que le même absorbant est plus efficace dans un conduit de faible diamètre (la fréquence des chocs avec les parois est beaucoup plus élevée).

Voici l’atténuation linéaire [en dB/m] d’un conduit en tôle d’acier :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

0,6

0,45

0,3

0,3

0,3

0,3

Additionnons les atténuations [en dB] sur les 11 m de conduit :

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

10 m sans revêtement

6

4,5

3

3

3

3

1 m avec revêtement

4,5

4

11

16,5

19

17,5

Atténuation totale

10,5

8,5

14

19,5

22

20,5

Conclusions : Il est très frappant de voir l’efficacité de 1 m de matériau absorbant par rapport à 10 m de tôle non couverte ! En fait, les conduits en tôle avec revêtement absorbant ne sont rien d’autre que des silencieux à absorption…

Eclairage naturel et ses variations

Eclairage naturel et ses variations

La lumière naturelle n’est ni fixe, ni toujours égale dans sa qualité et son intensité.


L’influence du type de ciel

La lumière naturelle traduit les fluctuations de l’état du ciel. Elle est composée de la lumière directe du soleil et de la lumière diffuse du ciel. Les stratégies à mettre en place pour accroître la luminosité intérieure d’un édifice doivent tenir compte de cette différence.

La lumière solaire directe dispense un flux considérable qui s’avère facile à capter et à diriger. Elle présente une dynamique intéressante et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement et ne provoque pas de surchauffe mais elle peut être considérée comme insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes.

Les résultats des simulations présentés ci-dessous mettent en évidence l’influence du type de ciel sur la quantité de lumière qui peut être captée par un local, le 15 mars à 9 heures universelles, pour une ouverture orientée au sud. Le ciel couvert fournit un éclairage parfaitement symétrique par rapport à l’axe du local, ce qui est dû au fait que la distribution des luminances de la voûte céleste d’un ciel couvert est symétrique par rapport au zénith. Ce n’est pas le cas d’un ciel clair. Ainsi, la répartition lumineuse d’un local éclairé naturellement par un ciel serein est très souvent fortement asymétrique. Les simulations réalisées pour un local orienté vers le sud sous un ciel clair et sous un ciel clair avec soleil, le 15 mars à 9 heures, présentent des niveaux d’éclairement nettement plus importants du côté ouest du local.

Par ciel couvert, les niveaux d’éclairement dans le module simulé varient d’environ 1 300 lx, à 50 cm de la fenêtre, à 70 lx au fond du local.

Graphe résultat simulation ciel couvert.

Par ciel clair, ces valeurs d’éclairement augmentent jusqu’à 4 300 lx près de la fenêtre et 300 à 400 lx au fond du local.

Graphe résultat simulation ciel clair.

La présence du soleil dans un ciel clair permet au rayonnement solaire direct d’entrer dans un local. Ainsi, dans la simulation d’un ciel clair avec soleil, le rayonnement solaire direct trace une zone extrêmement lumineuse sur le plan de travail, ce qui porte l’éclairement du côté ouest, à proximité de l’ouverture, à près de 20 000 lx. Dans ce dernier cas, l’éclairement au fond du local vaut environ 500 lx. La lumière solaire disponible diminue donc fortement lorsque le ciel se couvre.

Graphe résultat simulation ciel clair avec soleil.


L’influence du moment de l’année

Pour des conditions de ciel clair avec soleil, le 15 juin à 13 heures universelles, le niveau d’éclairement simulé dans notre cas de base atteint 55 000 lx à proximité de la fenêtre. Mais ces valeurs d’éclairement très élevées ne concernent qu’une bande étroite le long de la façade, ce qui est lié à la hauteur du soleil qui atteint 62° le 15 juin à 13 heures.

Graphe résultat simulation 15 juin.

Par contre, le 15 décembre, l’éclairement est compris entre 14 000 et 11 000 lx sur plus de la moitié du local. Au fond de l’espace, les valeurs atteintes sont de 750 lx le 15 juin et 1 600 lx le 15 décembre.

Graphe résultat simulation 15 décembre.

De l’été à l’hiver, le rayonnement solaire direct pénètre plus en profondeur dans le local mais le niveau d’éclairement à proximité de la fenêtre diminue progressivement.


L’influence de l’heure

Par ciel clair avec soleil, la répartition lumineuse varie fortement d’une heure à l’autre et d’un point à l’autre du local. La lumière disponible augmente jusqu’à la mi-journée, puis diminue.

Pour la journée du 15 décembre, par exemple, les valeurs d’éclairement obtenues à 9 huniv. sont comprises entre 2 600 lx près de la fenêtre et 400 lx au fond du local; tandis qu’à 13 huniv. , l’éclairement vaut 11 000 lx sur plus de la moitié du local et 1 600 lx au fond.

Le rayonnement solaire direct induit une tache de lumière qui évolue, au cours de la journée, depuis le mur ouest du local vers le mur est.

Graphe résultat simulation 9 heures.

Graphe résultat simulation 11 heures.

Graphe résultat simulation 13 heures.

Graphe résultat simulation 15 heures.

Graphe résultat simulation 17 heures.


L’influence de l’orientation de l’ouverture

L’organisation spatiale d’un bâtiment devrait toujours être pensée en fonction du moment d’occupation des locaux, de l’activité qui s’y déroule et de la course du soleil.

   

Il est préférable de placer les fenêtres de telle façon que le soleil puisse pénétrer à l’intérieur d’un local au moment où il est le plus utilisé. Ainsi, les locaux essentiellement occupés le matin devraient, dans la mesure du possible, être orientés à l’est, ceux occupés dans le courant de la journée, au sud et ceux où l’on se tient en soirée, à l’ouest. Pour une habitation domestique, on choisira, par exemple, une orientation est pour la cuisine, tandis qu’une orientation ouest convient davantage à un salon. Les locaux de service ainsi que les pièces de travail nécessitant une lumière constante et homogène sont de préférence localisés au nord.

L’apport de lumière naturelle est maximum sur la façade sud en hiver et en entre-saison. Par contre, en été, le rayonnement solaire est plus important à l’est pendant la matinée et à l’ouest durant l’après-midi.

Les ouvertures orientées au sud offrent donc la meilleure situation puisqu’elles captent un maximum de rayons solaires en hiver et durant l’entre-saison et qu’en été, il est plus facile de se protéger du soleil au sud puisqu’il est plus haut dans le ciel. La façade sud apparaît donc comme l’orientation privilégiée pour capter la lumière naturelle.

Lorsque le ciel est couvert, le rayonnement lumineux est diffusé dans toutes les directions. Les baies vitrées verticales captent donc la lumière de manière similaire, indépendamment de leur orientation. Par contre, lorsque le ciel est clair, l’orientation de la baie vitrée influence directement la quantité de lumière captée. Ainsi, une baie vitrée perpendiculaire aux rayons solaires captera beaucoup plus de lumière que les autres orientations.

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Pendant l’été, elles peuvent devenir une source d’éblouissement, difficile à contrôler car le soleil est bas. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, ce qui est préférable pour certaines activités comme un atelier de peinture, par exemple.

Les pièces orientées à l’est profitent du soleil le matin mais le rayonnement solaire est alors difficile à maîtriser car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin.

Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest assure une insolation directe en soirée. Il est très intéressant d’orienter à l’ouest les locaux où l’on souhaite un éclairage doux et chaleureux. Toutefois, il y a un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important.

De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler et d’un ensoleillement maximal en hiver, ce qui est souvent l’idéal.

En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans la maison tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.


L’influence de l’inclinaison de l’ouverture

La surface à prendre en compte pour étudier la lumière disponible est le plan dans lequel s’inscrivent les limites de la fenêtre. Ainsi, la photo ci-dessous correspond à une ouverture horizontale, même si les vitrages sont obliques.

Pour capter le maximum de rayonnement solaire direct, une ouverture doit être la plus perpendiculaire possible aux rayons du soleil. En revanche, par ciel couvert, les performances d’une fenêtre sont avant tout liées à la portion de ciel visible depuis l’ouverture. Ainsi, une ouverture zénithale horizontale couvre une partie de ciel plus importante qu’une fenêtre verticale et apporte donc une plus grande part de lumière naturelle diffuse dans le local qu’elle éclaire. De même, une fenêtre oblique tournée vers le ciel offre déjà un flux lumineux diffus plus important que la fenêtre verticale.

Les fenêtres de façade et les ouvertures zénithales ont un comportement radicalement divergent en ce qui concerne la sélection des pénétrations solaires.

Les ouvertures latérales ne voient qu’une partie du ciel. Par ciel couvert, ces ouvertures verticales ont donc des performances lumineuses nettement plus faibles que les ouvertures horizontales. En outre, la lumière pénètre latéralement dans les locaux, ce qui peut créer des situations de contre-jour ou d’éblouissement à proximité des fenêtres.

Cependant, les fenêtres latérales en façade sud transmettent un maximum de rayons solaires en hiver, ce qui favorise l’utilisation des gains solaires, tout en limitant les pénétrations estivales et les surchauffes qu’elles induisent.

Schéma fenêtres latérales en façade sud- 01.Schéma fenêtres latérales en façade sud- 02.
Schéma fenêtres latérales en façade sud- 03.

Les ouvertures zénithales s’ouvrent sur la totalité de la voûte céleste; elles induisent donc une large pénétration de lumière diffuse. La distribution lumineuse obtenue par une ouverture horizontale est aussi beaucoup plus homogène que celle produite par une fenêtre verticale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement.

Par contre, par ciel serein, les ouvertures zénithales captent mal les rayons solaires d’hiver alors qu’elles laissent largement pénétrer le soleil d’été, ce qui implique un mauvais comportement thermique.

Schéma ouvertures zénithales - 01. Schéma ouvertures zénithales - 02.
Schéma ouvertures zénithales - 03.

Le graphique donné ci-après présente les valeurs d’éclairement par ciel couvert d’un local comprenant, pour seule ouverture, une fenêtre zénithale horizontale de 1,5 m² de surface placée au centre du plafond, le 15 décembre à 13 heures universelles. Cette fenêtre zénithale donne de très bons résultats puisqu’elle procure un éclairage assez uniforme de l’espace, alors que la surface vitrée est faible. Le désavantage majeur d’une ouverture horizontale réside dans son mauvais comportement par rapport aux gains solaires, qui sont plus élevés en été qu’en hiver.

Graphe résultat simulation ciel couvert.


L’influence de l’environnement

Chaque lieu spécifique développe sa propre identité vis-à-vis de sa région et de son climat général. Le côté est d’une montagne offre de beaux levers de soleil et sa disparition rapide dans la soirée ; le versant ouest montre de superbes couchers mais un soleil qui se lève tard ; le creux de la vallée reçoit une période d’ensoleillement direct plus courte que le sommet de la montagne. La topographie, la végétation, la nature du sol et l’urbanisme influencent entre autres les données météorologiques d’un lieu: chaque site est caractérisé par un microclimat. Dès lors, travailler l’architecture d’un bâtiment en faisant abstraction de son environnement paraît impensable.

La lumière disponible dépend de l’environnement direct du bâtiment par le jeu de différents paramètres : le relief du terrain, les constructions voisines, le coefficient de réflexion du sol, la végétation,…. Ces éléments ne doivent pas être négligés; la présence d’un gratte-ciel, d’un lac ou d’un arbre peut radicalement transformer la lumière d’un espace.

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain peut provoquer de l’ombre sur un bâtiment ou au contraire favoriser son ensoleillement. L’éclairement d’un site en pente dépend de la géométrie solaire ainsi que de l’orientation et de l’inclinaison du terrain. Les pentes sud jouissent d’une meilleure insolation que les terrains plats. Il faut prendre en compte les caractéristiques naturelles du site et tirer profit du profil du terrain, que l’on pourra au besoin remanier localement.

On appelle « masque solaire » tout corps empêchant le rayonnement solaire d’atteindre une surface que l’on désire ensoleiller. En ville, en hiver, il est parfois difficile de capter quelques rayons solaires à cause des bâtiments voisins qui leur font écran.

La quantité d’énergie solaire reçue en un endroit dépend souvent de l’ombrage des bâtiments avoisinants. En Belgique, en hiver, le soleil est bas sur l’horizon. Tous les masques de l’environnement, immeubles ou grands arbres, qui interceptent le soleil pendant cette période gêneront grandement l’utilisation de la lumière naturelle.

Les simulations ci-dessous présentent la diminution du niveau d’éclairement intérieur de notre local suite à l’ajout d’un masque urbain formé par un bâtiment de 30 m de long et de 15 m de haut, placé parallèlement au local simulé, à 18 m de la fenêtre. Cet obstacle correspond à un angle horizontal d’obstruction de 40° et à un angle vertical d’obstruction de 37° depuis le milieu de la fenêtre. La quantité de lumière intérieure est fortement réduite à cause de cette construction: sous ciel couvert, le 15 décembre à 13 huniv., l’éclairement n’est plus que de 80 lx à 2 m de la fenêtre pour le local ombragé par le bâtiment alors que, sans ce masque urbain, il y a environ 200 lx.

Graphe résultat simulation sans bâtiment.

Graphe résultat simulation avec bâtiment.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Pour profiter au maximum de la lumière naturelle, il importe de ne pas négliger le facteur de réflexion des surfaces extérieures environnant le bâtiment. En effet, des surfaces claires et réfléchissantes augmentent la quantité de lumière qui peut pénétrer dans le bâtiment.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Les graphes ci-dessous montrent la variation de la lumière naturelle dans un bâtiment en fonction du coefficient de réflexion du sol qui entoure le bâtiment, le 15 juin à 13 heures universelles sous ciel couvert. Trois matériaux différents ont été simulés : la terre (r = 0,22), qui correspond au facteur de réflexion utilisé pour le sol extérieur de l’ensemble des simulations de ce chapitre, le béton neuf (r = 0,35) et la neige (r = 0,9). Le local est d’autant mieux éclairé que le coefficient de réflexion du sol extérieur est élevé.

Graphe résultat simulation sol extérieur en terre.

Graphe résultat simulation sol extérieur en béton.

Graphe résultat simulation sol extérieur couvert de neige.

L’emploi de matériaux réfléchissants peut également influencer l’exposition effective d’un bâtiment. Un édifice orienté au nord et doté de larges vitrages clairs pour tirer parti de la lumière naturelle peut se trouver dans une situation sud si on construit en face de lui un bâtiment équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement. A l’évidence, les conditions de confort du premier bâtiment sont profondément modifiées par la construction du second.

Des éléments liés au bâtiment lui-même, tels que des murs de refends, des surplombs, des light shelves,….peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La mise en place d’auvents ou de surplombs fixes destinés à réduire les problèmes d’éblouissement et de surchauffe pénalisera bien sûr la quantité de lumière captée par le bâtiment. En général, il est souhaitable en Belgique que les angles d’obstruction ne dépassent pas 45° pour l’angle horizontal et 25° pour l’angle vertical.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Annexe : les paramètres de simulation

Les simulations présentées ci-dessus proviennent du logiciel SUPERLITE, programme d’éclairage naturel faisant partie du progiciel ADELINE.

Elles sont toutes réalisées à partir d’un module de base de 7,2 m de profondeur, 4,8 m de largeur et 3 m de hauteur, éclairé par une fenêtre latérale de 4,58 m de large et de 1,13 m de haut, centrée horizontalement. Le plan de travail et le rebord inférieur de l’ouverture sont situés à 0,75 m du sol. La fenêtre couvre une aire de 5,2 m², ce qui correspond à 15 % de la superficie du plancher de ce local.

Schéma paramètres de simulation.

Les simulations tiennent compte d’un double vitrage, dont le coefficient de transmission lumineuse est de 78 %. Cette vitre est placée en retrait de 0,15 m par rapport au plan de la façade. Le module simulé est situé en site parfaitement dégagé, sans élément d’ombrage. Les coefficients de réflexion des parois intérieures valent 15 % pour le sol, 45 % pour les murs et 70 % pour le plafond.

Les données météorologiques utilisées pour les calculs sont celles d’Uccle (Bruxelles) : 50,8° de latitude (nord), – 4,4° de longitude (est) et 100 m d’altitude. Le moment de la journée simulé est toujours précisé en fonction des heures universelles. Chaque fois qu’un paramètre de ce module de base a été modifié dans une simulation, le changement effectué est clairement précisé.

Automatiser les protections mobiles ?

Trois modes de manipulation

Il existe trois degrés de manipulation des protections solaires amovibles :

  • Manuelle (par manivelle, cordon ou chaînette),
  • motorisée (commande avec bouton poussoir ou télécommande, commande groupée ou individuelle),
  • automatisée.

Quel est le rôle de la gestion automatique ?

Augmenter la protection

Lorsque des apports solaires risquent d’entraîner des surchauffes des locaux et une production de froid importante ou l’éblouissement des occupants, la régulation peut décider le déploiement de la protection.

Cette action peut être préventive et intervenir avant que l’inconfort réel n’apparaisse. En hiver, la nuit venue, la régulation peut prendre en charge l’ajout d’une isolation complémentaire aux fenêtres.

Diminuer la protection

En période de chauffe, des apports extérieurs sont les bienvenus. La régulation peut décider la suppression de la protection pour diminuer les frais de chauffage.

L’automatisation permet en outre de ne pas exposer les protections à des contraintes extérieures excessives (vent, pluie, vandalisme).

La libération automatique des fenêtres en cas d’incendie est également un point à considérer.


Pourquoi automatiser la protection ?

Le rôle de la gestion automatique pourrait être assuré manuellement par un occupant consciencieux. Cependant, il existe plusieurs objections à cela :

    1. L’optimalisation des dépenses énergétiques n’est généralement pas le souci premier des occupants des bâtiments du secteur tertiaire.Exemple : en hiver, qui pensera à baisser son store le soir avant son départ ?
    2. L’oubli de la protection et la non-surveillance des conditions extérieures.

Exemple : une protection extérieure restant déployée durant la nuit alors que le vent se lève risque de se détériorer.

    1. Ou tout simplement l’absence d’occupant dans un local, alors que celui-ci est chauffé ou refroidi.
      Exemple : les apports solaires dans les locaux orientés à l’est peuvent devenir importants avant l’arrivée du personnel. Dans les locaux orientés à l’ouest, les apports les plus importants se produisent en fin de journée. Qui pensera alors à protéger la fenêtre pour empêcher toute accumulation inutile de chaleur après le départ des occupants ? De même dans des locaux inoccupés, il faut prévenir toute accumulation de chaleur qui augmentera ultérieurement ou sur le moment même la nécessité de refroidissement. Ces exemples peuvent être transposés en période de chauffe lorsque les apports extérieurs sont alors les bienvenus.

En conclusion

L’automatisation des protections solaires mobiles permet donc de suppléer à l’absence des occupants ou à leurs carences en matière de gestion des apports énergétiques extérieurs. Cependant, une dérogation est toujours recommandée pour offrir à l’occupant une possibilité d’interagir sur son environnement. Cela lui permettra, en autres, de se protéger d’un éventuel inconfort (dû à l’éblouissement par exemple) ou de satisfaire un besoin d’intimité.


Quelles caractéristiques pour le système d’automatisation ?

Les grandeurs de référence

L’ensoleillement

Un capteur mesure l’intensité lumineuse et active le système de protection en cas de dépassement des valeurs programmées.

La température extérieure

Une sonde de température extérieure empêchera le déploiement des protections en dessous d’une certaine valeur.

La température intérieure

Un thermostat d’ambiance peut commander la protection en fonction de la température intérieure.

La vitesse du vent

Un anémomètre mesure la vitesse du vent et commande un retrait des protections extérieures en cas de menace de tempête.

La présence de pluie

Une sonde détecte la présence de pluie et entraîne le retrait immédiat de la protection.

La date et l’heure

Une horloge quotidienne et hebdomadaire commandera à heures fixes les protections.

Le danger d’incendie

Un détecteur de fumée commande le retrait des protections pour garantir l’accès aux fenêtres et une évacuation possible.

Toutes ces grandeurs ne doivent pas forcément être reprises. Pour les protections extérieures la protection au vent sera la configuration minimale. Son association avec une sonde d’ensoleillement sera aussi couramment rencontrée. La protection contre la pluie n’est importante que pour les protections extérieures horizontales (auvents). Par contre le vent et la pluie n’ont pas d’influence sur les protections intérieures.

Lorsque plusieurs grandeurs sont prises en considération, le régulateur actionnera (en tout ou rien ou en modulation) les protections en fonction d’un des paramètres considéré comme prioritaire ou en fonction d’une combinaison de paramètres.

La temporisation

La temporisation des commandes de l’automatisme est indispensable. En effet, de petites variations passagères des paramètres ne peuvent entraîner des modifications incessantes des protections.

Exemple : le passage d’un nuage, légères variations de température, …

Si tel était le cas, l’abandon de l’automatisme pour un mode manuel serait rapidement opéré par les utilisateurs.

Commande centralisée et dérogation

Une centralisation permet de commander une série de protections pour des locaux d’orientation identique.

Exemple : toute l’aile d’un hôpital, …

Dans ce cas, un local de référence devra accueillir la sonde de température ambiante éventuelle.

Malgré l’automatisation, une dérogation doit rester possible pour les utilisateurs d’un local particulier. Cette liberté sera, au même titre que la protection proprement dite, source de confort et donc d’efficacité pour les occupants. Cependant la dérogation et le fonctionnement en mode manuel ne peuvent rester permanents un retour au mode automatique est obligatoire si on ne veut pas perdre tous les avantages de l’automatisation. Ce retour peut se faire en fonction du temps de dérogation, d’un horaire précis ou de la variation d’un des paramètres. Les paramètres prévenant toute détérioration (vent, pluie) des protections seront prioritaires et indérogeables.

Protection du système

L’automatisation doit être munie d’un système permettant de détecter tout mauvais fonctionnement de la sonde de vent. Par exemple si le régulateur ne détecte aucun mouvement de l’anémomètre durant une période déterminée, il commande le retrait immédiat de la protection et bloque l’automatisme.


Quel est le coût du système de commande ?

Il est difficile de fixer dans l’absolu le surcoût relatif à la motorisation et à l’automatisation des protections mobiles.

Paramètres

Cela dépend  :

  • Du nombre de protections manipulables et gérables simultanément,
  • de l’orientation des locaux,
    Exemple : un local avec une façade vitrée au sud et une à l’ouest devra disposer de deux capteurs d’ensoleillement
  • du nombre de grandeurs prises en compte,
  • du précâblage existant dans le bâtiment,

Pour fixer les idées

D’une manière générale, on peut dire que l’installation de protections motorisées a un coût semblable à l’installation de protections à commande manuelle. Lorsque le nombre de protections gérables simultanément devient important, la commande électrique peut même devenir moins onéreuse que la commande manuelle, grâce à des commandes groupées et à une main d’œuvre nécessaire moins importante (le branchement électrique est plus facile à réaliser que le placement d’une manivelle au travers du châssis ou du mur).

Notons également que la commande électrique des protections sollicite moins les parties mobiles que la commande manuelle et donc leur garantit une durée de vie plus longue.

En fonction du degré de sophistication demandé, le coût d’une gestion automatique se situe dans une fourchette de 250 à 1250 €. Lorsque le nombre de protections gérées est important, on se rend compte que le surcoût relatif de l’automatisation devient nettement moins lourd.

De plus, certains capteurs du système de gestion peuvent déjà faire partie de l’installation de chauffage ou de climatisation comme capteur principal ou de compensation.

Un projet d’installation de protections solaires peut être planifié sur plusieurs années. Si le besoin se fait ressentir, des protections motorisées peuvent être équipées d’une gestion automatique a posteriori sans surcoût important par rapport à un projet initial complet.


Exemple d’automatisation d’une protection mobile

L’exemple ci-contre, se rapporte à un bâtiment précis. Les valeurs de consigne qui y sont mentionnées peuvent varier en fonction de la saison et du type d’inertie du bâtiment. Si le bâtiment est sensible à l’ensoleillement même durant la saison de chauffe, la consigne de température extérieure peut être abaissée. De même, une anticipation face à la surchauffe peut être réalisée en diminuant la température de consigne intérieure. En effet plus le bâtiment est inerte thermiquement, plus l’apparition de la surchauffe sera retardée par rapport à l’ensoleillement.

Choisir une protection mobile, fixe ou permanente

Choisir une protection mobile, fixe ou permanente


Stores enroulables mobiles.

Brise-soleil fixes.

Films pare-soleil permanents.


Pourquoi moduler la protection ?

Des besoins variables

Les besoins de protection des locaux vis-à-vis des apports du soleil sont la plupart du temps variables sur une journée ou encore sur une année :

  • Les apports énergétiques peuvent être souhaités en hiver et au printemps (température extérieure moyenne < 8°C) mais risquent de devenir indésirables en été ou en automne (température extérieure moyenne > 15°C).
  • Les apports solaires seront importants le matin pour les locaux orientés à l’est et le soir pour les locaux orientés à l’ouest.
  • Une augmentation de l’isolation thermique des vitrages est souhaitable durant les nuits d’hiver mais au contraire défavorable au refroidissement du bâtiment durant les nuits en été.
  • L’éblouissement dépend très fort de la hauteur du soleil et donc de l’orientation et de la saison.
  • En absence de soleil, la lumière du jour est souvent la bienvenue.

Optimaliser les besoins de chaleur et de froid

Adapter le degré de protection à ces besoins permettra de gérer les apports gratuits et d’optimaliser les productions de chaud ou de froid (pour autant que celles-ci tiennent compte des apports externes : présence de vannes thermostatiques, sonde extérieure,…) et l’éclairage artificiel des locaux.

L’optimalisation de la protection solaire en fonction des besoins réels dépendra de plusieurs facteurs :

La mobilité de la protection elle-même : certaines protections peuvent être fixes, d’autres complètement amovibles. Le degré d’automatisation de la protection : la manipulation de nombreuses protections peut être motorisée et automatisée. Dans ce cas, le degré de protection sera automatiquement réglé en fonction de grandeurs représentatives des climats intérieurs et extérieurs.

Le comportement des occupants : dans le cas de protections manuelles, le rôle de l’occupant sur l’optimalisation de la protection est important et souvent difficile. Dans le cas de protections automatisées, il faut tenir compte de la liberté de l’occupant et de son pouvoir sur la mise en dérogation du système.


Les protections mobiles

La protection peut varier selon les souhaits de l’utilisateur, quelle que soit l’heure ou la saison.

Exemple : les stores vénitiens, enroulables, à lamelles.

L’adaptation aux besoins en protection ou en apports solaires peut se faire par retrait partiel ou complet (latéral ou vertical en fonction du type de store) ou par inclinaison des lamelles. Cette modulation peut être gérée par l’occupant de façon manuelle ou motorisée (il existe aussi des systèmes avec télécommande) ou de façon automatique grâce à un régulateur.

Store vénitien
intérieur.

Store enroulable
extérieur.


Les protections fixes

Le système est fixe et le degré de protection varie systématiquement en fonction de l’heure et de la saison.

Exemple : les brise-soleil, les avancées architecturales.

Souvent les éléments fixes sont des avancées horizontales au-dessus de la fenêtre, soit des avancées verticales de part et d’autre de la fenêtre.

Le pourcentage de protection de la fenêtre dépend :

  • De la position de la protection par rapport à la fenêtre,
  • de la hauteur du soleil,
  • du rapport entre la largeur de la protection et la hauteur ou longueur (en position verticale) de la fenêtre,
  • de l’espacement et de l’orientation des lames éventuelles.

Brise-soleil.

Avancée architecturale.

Façades sud

Les façades d’orientation proches du sud seront les plus faciles à protéger. Une protection fixe est à même d’éliminer complètement le rayonnement direct estival sans pour autant porter une ombre indésirable en hiver.

Façades est et ouest

Par contre, aucune protection fixe, horizontale ou verticale, ne permet de résoudre le problème propre aux façades est et ouest. Dans ces situations, une protection mobile sera de loin la plus préférable.

En général, une protection optimale, c’est-à-dire adaptée toute l’année aux besoins en chaud ou en froid, est difficile à obtenir avec des protections fixes. En tout état de cause, une étude précise tenant compte des risques de surchauffe et d’éblouissement dus à l’ensoleillement en fonction de la position du soleil et de la saison doit être menée préalablement à tout projet.

calculs 

Pour obtenir une méthode de dimensionnement des protections fixes : cliquez ici !

Exemple : une protection fixe horizontale pour une fenêtre orientée au sud.

en été :
la protection est maximum lorsque le soleil est au zénith

en hiver :
la protection est inopérante

en mi-saison :
aux mois de septembre et de mars, la protection est partielle

En hiver

En hiver, l’absence de protection permet aux apports du soleil de diminuer les frais de chauffage. La situation est intéressante. Cependant, elle ne le sera que si la régulation de l’installation de chauffage tient compte des apports gratuits et que l’ensoleillement ne crée pas de surchauffe en saison froide. Par contre l’éblouissement dû au soleil bas en hiver ne peut être résolu par cette disposition. Pour limiter celui-ci, une protection légère intérieure (rideaux) peut être associée à une protection fixe.

En mi-saison

En mi-saison, on voit que l’ensoleillement des locaux sera le même au printemps qu’en automne, alors que les besoins sont différents. En effet, au mois de septembre, la température moyenne en journée est d’environ 18°C. L’ensoleillement peut dans ce cas devenir source de surchauffe. Au mois de mars, la température moyenne est de 8°C. Dans ce cas, les apports du soleil peuvent être les bienvenus.

Cas particulier : la végétation

La végétation à feuilles caduques apporte une protection qui est naturellement variable. En été, le feuillage apporte un ombrage aux fenêtres et en hiver, la chute des feuilles fait profiter les locaux des apports gratuits du soleil.

Schéma protection solaire végétale.


Les protections permanentes

Le système est fixe et le degré de protection est constant quelle que soit l’heure et la saison.

Exemple : les films collés contre le vitrage, les vitrages spéciaux (réfléchissants et/ou absorbants).

Photo films collés contre le vitrage. Sous notre climat belge, la probabilité d’ensoleillement est inférieure à 20 % en hiver (moins d’un jour sur cinq) et à 50 % en été (moins de un jour sur deux).
Une protection relativement efficace en été est inconciliable avec la valorisation de l’éclairage naturel en absence d’ensoleillement et des apports énergétiques gratuits en hiver.
Sauf exception (locaux informatiques où il faut gérer la surchauffe et l’éblouissement), ce type de protection est donc peu recommandable dans nos régions.

Conscients de ce problème, les fabricants de vitrages ont développé des vitrages présentant une protection contre l’énergie solaire correcte (FS = 0,39) et une transmission lumineuse qui se rapproche de celle des doubles vitrages clairs (TL = 0,71).

Signalons également que des vitrages anti-solaires dont les caractéristiques de protection peuvent varier automatiquement en fonction des besoins sont développés par les grands fabricants. Ils ne sont malheureusement pas accessibles à tout le monde !

Choisir une protection insérée dans un double vitrage

Choisir une protection insérée dans un double vitrage


La description du système

Schéma protection insérée dans un double vitrage. Schéma protection insérée dans un double vitrage. La protection, composée d’une toile enroulable ou d’un store vénitien, est intégrée dans l’espace entre les deux vitres d’un double vitrage.

Les avantages par rapport aux systèmes classiques

L’efficacité contre les surchauffes et l’éblouissement

Les performances face à l’ensoleillement sont semblables aux performances des protections intérieures réfléchissantes et peuvent se rapprocher des performances de protections extérieures parallèles au vitrage. Il faudra cependant se méfier de l’augmentation de la température interne de la surface du vitrage qui peut provoquer un léger inconfort (rayonnement chaud).

La résistance mécanique et à l’encrassement

Les éléments sont montés à l’intérieur d’une partie étanche. Ils ne sont soumis ni aux perturbations extérieures, ni aux perturbations intérieures. N’étant pas sujet à l’encrassement et à l’empoussièrage, ce système de protection peut s’appliquer aux locaux où une grande hygiène est souhaitée. Il ne demande aucun entretien.

L’esthétique

La présence de la protection est discrète. Elle ne modifie pas la structure des façades, ni à l’extérieur, ni à l’intérieur.

La ventilation naturelle

La liberté d’ouverture des fenêtres est totale.

Le pouvoir isolant

Le coefficient de transmission thermique U du double vitrage clair est amélioré, jusqu’à 20 à 30 % pour un double vitrage clair standard (air) grâce à une protection solaire insérée entre les vitres.


Les inconvénients par rapport aux systèmes classiques

Placement en rénovation

Le placement de la protection implique le remplacement du vitrage, ce qui limite son application dans le cadre de la résolution d’un problème de surchauffe ou d’éblouissement.

Diminution de la surface utile de la fenêtre

L’encombrement du mécanisme des systèmes escamotables (par exemple les stores enroulables) peut diminuer de façon non négligeable la surface utile de la fenêtre.

Dépannage et étanchéité du double vitrage

La position intégrée des protections rend difficile un dépannage en cas de dysfonctionnement du mécanisme de retrait. Il peut également en résulter une perte d’étanchéité du vitrage.

Choisir entre une protection intérieure ou extérieure

L’efficacité contre les surchauffes et l’éblouissement

L’effet de serre se produit lorsque les rayons du soleil sont absorbés par une matière située derrière le vitrage. Dès lors, une protection solaire sera efficace contre les surchauffes :

Protections extérieures Les protections extérieures seront toujours efficaces contre les surchauffes car elles arrêtent les rayons du soleil avant qu’ils n’atteignent le vitrage. Pour les stores de type « toile »,  une plus grande efficacité sera atteinte pour de facteur d’ouverture faible et des couleurs foncées.
Protections intérieures Les protections intérieures ne seront efficaces contre les surchauffes que si elles repoussent les rayons du soleil ayant traversé le vitrage. Pour cela, elle doit être non absorbante et réfléchissante (couleur clair au minimum).

Un même store en tissu (gris non réfléchissant avec un coefficient d’ouverture de 4.2) à l’extérieur ou à l’intérieur combiné à un double vitrage argon clair et basse émissivité :

FS = 0,05

FS = 0,55

Par contre, une même protection solaire installée à l’extérieur ou à l’intérieur, permettra un contrôle presqu’identique de la luminosité.


Les contraintes mécaniques

Protections extérieures Les protections extérieures sont soumises aux perturbations atmosphériques (vent, pluie) ou encore au vandalisme. La sensibilité de certaines de ces protections (notamment en toile) peut limiter leur utilisation pour les bâtiments élevés ou en zone exposée (vent important) ou encore à hauteur d’homme dans des lieux fréquentés (vandalisme).
Pour prévenir toute détérioration, notamment la nuit, il sera nécessaire de conscientiser les occupants à la nécessité de retrait de ces protections durant leur absence ou à envisager leur automatisation.
Par contre, il existe des protections extérieures conçues pour résister aux contraintes extérieures. C’est le cas par exemple des brise-soleil ou des stores vénitiens en aluminium.
En outre, dans les zones urbaines fort fréquentées, l’encrassement des protections extérieures peut être assez rapide.
Protections intérieures Les protections intérieures devront résister aux sollicitations des occupants qui peuvent être importantes notamment dans les locaux publics. La position intérieure des stores peut faciliter leur nettoyage notamment pour les bâtiments élevés.

L’esthétique

Protections extérieures Les protections extérieures modifient peu (stores enroulables) ou beaucoup (brise-soleil, avancées architecturales, stores vénitiens) la structure architecturale des façades. En ce sens, certaines protections extérieures risquent de ne pas s’adapter à une rénovation.

Protections intérieures Des protections intérieures ayant une efficacité limitée contre les surchauffes (par exemple, les stores vénitiens ou à lamelles) sont parfois installées uniquement pour leur aspect décoratif.

Les protections intérieures efficaces contre les surchauffes et les déperditions de chaleur auront un aspect réfléchissant qui peut ne pas être au goût de chacun.


Le pouvoir isolant

Protections extérieures Les protections extérieures n’apportent qu’une légère amélioration de l’isolation thermique supplémentaire à la fenêtre car elles ne sont généralement pas étanches..
Protections intérieures Certaines protections intérieures peuvent avoir un impact plus important sur la diminution des déperditions d’un vitrage. De plus, elles peuvent aussi avoir un impact plus important sur la sensation de confort à proximité de la baie (protection contre le rayonnement « froid » de la baie).

Pour autant que la surface intérieure de la protection soit réfléchissante, le coefficient de transmission thermique d’une fenêtre équipée de double vitrage peut diminuer de 25 %. Une diminution de 40 % peut être atteinte avec des stores réfléchissants insérés dans des guides étanches.

Remarquons que l’inétanchéité de la protection, outre la diminution de l’isolation par rapport à l’optimum, risque d’entraîner l’apparition de condensations importantes sur la surface intérieure de la fenêtre. Celles-ci peuvent endommager les menuiseries.


La ventilation naturelle des locaux

Le déploiement de certaines protections solaires rendra impossible l’ouverture des fenêtres pour pratiquer une ventilation naturelle des locaux.

Protections extérieures Aucune protection extérieure n’empêchera physiquement l’ouverture des fenêtres permettant ainsi une ventilation naturelle associée à la protection solaire. Une restriction existe cependant : les protections en toile déroulées devant les fenêtres risquent de ne pas résister aux contraintes mécaniques dues aux courants d’air éventuels.
Protections intérieures L’installation de protections solaires intérieures limite souvent les possibilités d’ouverture des fenêtres. Les protections peuvent être fixées aux ouvrants. Dans le cas de châssis oscillo-battants ou basculants, la combinaison de la protection solaire et de la ventilation naturelle est possible. Cependant, les fabricants de stores enroulables risquent de ne pas couvrir une détérioration due à de l’air s’infiltrant entre la protection et le vitrage du fait de fenêtres voisines ouvertes.

Si la protection est fixée sur le dormant, l’ouverture des fenêtres n’est guère possible lorsque la protection est déployée, que ce soit pour des raisons de maintien de la protection dans ses guides ou de leur résistance mécanique aux courants d’air. De même, lorsque la protection est abaissée, il est bon de prévenir l’ouverture subite d’une fenêtre suite à un courant d’air.

Lorsque la protection intérieure est relevée, il faut pouvoir conserver la liberté d’ouverture de la fenêtre :

  • Si la protection est fixée au dormant ou au linteau, l’ouvrant ne peut heurter ni la protection repliée, ni ses guides.
  • Si la protection est solidaire de l’ouvrant, les charnières latérales de la fenêtre doivent se situer suffisamment loin des retours de fenêtre pour garantir une ouverture complète.

Choisir le facteur lumineux


Transmission lumineuse d’un vitrage simple TL = 0,9.

Quelle transmission lumineuse faut-il choisir ?

La transmission lumineuse de la protection doit être suffisamment faible pour supprimer l’éblouissement des occupants et suffisamment élevée pour que la diminution de la quantité de lumière pénétrant à l’intérieur du local ne rende pas obligatoire l’utilisation de la lumière artificielle. La possibilité de vue de l’intérieur vers l’extérieur sera en outre souvent recherchée.

Fixons les ordres de grandeur par un exemple :

Définition d’un bureau type

Illustration bureau type.

Les murs sont de couleur claire et le sol recouvert de moquette.

Éclairement recommandé

Type d’activité Éclairement
Travail de bureau (attention soutenue). min. 500 lux
Activité ne demandant pas une attention soutenue
(ex : un séjour).
min. 200 lux
Travail sur ordinateur. max. 1 000 lux

Apports lumineux enregistrés dans le local

Schéma apports lumineux enregistrés dans le local.

La figure ci-dessus représente l’éclairement dans la pièce, au niveau d’un plan de travail, en fonction de la distance à la fenêtre, avec :

  • un double vitrage clair,
  • un double vitrage et une protection peu transparente (TL de la protection = 0,10),
  • un double vitrage avec une protection transparente (TL de la protection = 0,19).

Cette simulation se déroule le 15 juin à 16h, par ciel serein.
La fenêtre est orientée à l’ouest. Les conditions d’ensoleillement sont donc très favorables pour l’éclairage naturel du local (soleil fort pénétrant). Les valeurs minimum de transmission lumineuse déduites de cet exemple peuvent donc être considérées comme des extrêmes à ne pas dépasser sous peine de rendre le local trop obscur.

Transmission lumineuse recommandée

Le tableau suivant reprend les valeurs de transmission lumineuse minimum que doivent respecter les protections pour garantir un éclairement suffisant (300 lux) dans la pièce pour assurer le confort visuel lorsque la protection est déployée en période d’ensoleillement.

Ouest Sud Est
Distance à la fenêtre Juin
16 h (1)
Décembre
14 h
Juin
12 h
Décembre
12 h
Juin
7 h
Décembre
9 h
1 m 0.01 0.08 0.03 0.04 0.01 0.08
2 m 0.06 0.20 0.09 0.05 0.02 0.16
3 m 0.11 0.40 0.17 0.06 0.08 0.29
4 m 0.20 0.58 0.28 0.07 0.14 0.46
5 m 0.26 0.79 0.38 0.08 0.19 0.65

(1) Heure universelle; heure réelle en été = heure universelle + 2 h; heure réelle en hiver = heure universelle + 1 h.

Exemple.

Si l’on souhaite garantir 300 lux sur une table de travail, à 3 m de la fenêtre, dans un local orienté à l’ouest, on choisira un store dont le TL est :

  • Supérieur à une valeur de 0.11 si le store n’est utilisé qu’en été,
  • supérieur à une valeur de 0.40 si le store est aussi utilisé en hiver.

Choisir le facteur solaire (FS)


Facteur solaire d’un vitrage simple FS = 0,86.

Quel facteur solaire faut-il atteindre ?

Le choix du facteur solaire minimum à rechercher est fonction de chaque cas. Il n’est donc pas possible de citer un chiffre unique.

Fixons des ordres de grandeur par un exemple.

Valeur de référence

Dans les immeubles de bureaux, on peut estimer qu’un refroidissement devient nécessaire en été lorsque la somme des apports internes et externes atteint  60 W/m² au sol du local. Si on estime d’une manière générale les apports internes d’un bureau moyennement équipé comme suit : un ordinateur (+ 150 W/ordinateur), une personne (70 W/pers.), l’éclairage (10 W/m²) et 1 personne/13 m² au sol, les apports internes totalisent 27 W/m². Pour éviter le recours à la climatisation, il est donc nécessaire de limiter les apports solaires à 33 W/m² au sol.

Apports thermiques

Le tableau suivant représente pour une journée ensoleillée du mois de juillet, la puissance énergétique maximum due à l’ensoleillement, réellement transmise à l’ambiance d’un local de 30 m² au sol, en fonction de l’inertie du bâtiment. La fenêtre du local est équipée d’un double vitrage clair (de 6 m²) orienté respectivement à l’est, au sud et à l’ouest.

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 245 49 267 53 351 70
Sud 198 40 210
42
252
50
Ouest 250 50 263 53 356 71
W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol

Facteur solaire recommandé

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 0.51 0.47 0.36
Sud 0.63 0.60 0.50
Ouest 0.50 0.47 0.35
FS FS FS

Facteur solaire minimum de l’ensemble vitrage + protection nécessaire
pour limiter les apports solaires à 33 W/m² au sol.

Objectifs d’une protection solaire

Objectifs d'une protection solaire


Limiter les surchauffes

En période d’ensoleillement la quantité d’énergie solaire transmise au travers de vitrages peut entraîner par effet de serre, des surchauffes inadmissibles pour le confort des occupants. Dans le cas de locaux climatisés, la présence de protections solaires efficaces doit permettre une diminution notable de la quantité de froid à produire.

Améliorer

En cliquant ici, vous pouvez visualiser les résultats d’une simulation du comportement d’un bureau standard. On y a comparé les coûts d’achat et d’exploitation d’un climatiseur et d’un store extérieur.

De plus, malgré une température ambiante supportable, le rayonnement chaud du vitrage et le rayonnement direct du soleil sur une partie du corps peuvent devenir rapidement insupportable pour les occupants.

Comment déterminer si le soleil est à l’origine de la surchauffe ?

Dans les locaux fortement vitrés et orientés à l’est, au sud ou à l’ouest, les gains solaires constituent souvent les apports gratuits les plus importants.
Notons que l’orientation ouest est souvent la plus critique car les apports solaires viennent s’ajouter à la chaleur emmagasinée durant la journée.

Rénovation énergétique 

Pour en savoir plus sur comment repérer l’origine de la surchauffe, cliquez-ici !

Calculs

On peut établir un bilan de l’ensemble des apports de chaleur d’un local en cliquant ici !

Il calcule la puissance frigorifique nécessaire pour maintenir une température de consigne (24°C par exemple) dans le local, alors que la température extérieure est de 30°C. Il est possible ainsi de mesurer l’impact d’une protection solaire sur les besoins en froid. On peut également visualiser l’importance d’avoir un local avec une inertie thermique importante. Ou encore une toiture isolée.


Limiter l’éblouissement

L’ensoleillement direct pour être aveuglant tout comme une luminance trop élevée d’une paroi peut impacter le confort visuel. Hors, le confort visuel joue un rôle important sur la possibilité de réalisation de certaines tâches et donc sur la productivité des occupants d’un local.

Ce phénomène n’est pas forcément le plus crucial pour des fenêtres orientées au sud durant la saison chaude. Les problèmes d’éblouissement sont également très importants lorsque le soleil est bas sur l’horizon : le matin pour les fenêtres orientées à l’est, le soir pour l’orientation ouest, ou encore au sud en hiver. De même, dans les locaux nord, la vision directe d’un ciel trop lumineux peut devenir gênante et nécessiter aussi une protection.


Les objectifs secondaires

Augmenter le pouvoir isolant de la fenêtre

L’utilisation de protections solaires modifie de façon plus ou moins importante les caractéristiques de transmission thermique des vitrages. Cette propriété sera principalement recherchée durant les nuits en hiver.

Assurer l’intimité des occupants ou occulter un local

Ces deux objectifs sont des cas particuliers. On parlera alors plus d’occultation que de protection solaire.

Quelles soient intérieures ou extérieures, les protections parallèles au vitrage permettront d’apporter une certaine intimité voire d’occulter le local. Cette propriété dépendra principalement des vides laissés par la protection solaire et de sa couleur.

Décorer la fenêtre

De nombreuses protections ont un but décoratif plutôt qu’énergétique. Cet objectif est souvent associé avec le souhait de garantir l’intimité des occupants.

Institut du Monde Arabe – Paris.

Choisir la fenêtre comme capteur de lumière naturelle [Les fenêtres]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.

On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Choisir la fenêtre comme capteur d’énergie solaire [Les fenêtres]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’

un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).

Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m²

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Placer l’isolant dans le versant ou dans le plancher des combles ? [Améliorer]

Placer l'isolant dans le versant ou dans le plancher des combles ?

Isolation dans le plancher des combles et dans le versant de toiture.


Ainsi, lorsque les combles ne sont pas prévus pour être occupés et donc chauffés (ni après travaux, ni ultérieurement), le plancher de celui-ci constitue la limite supérieure de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant. Ce qui permet :

  • d’utiliser une surface d’isolant moindre que s’il fallait isoler les versants de toiture,
  • d’éviter d’avoir à traiter toutes les infiltrations d’air souvent nombreuses dans les combles inoccupés,
  • de permettre la ventilation des combles en été.

Par contre, les combles qui seront occupés et chauffés doivent être isolés de l’ambiance extérieure.

Le toit incliné est dans ce cas la limite de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant.

Conductivité thermique des matériaux (λ)

Conductivité thermique des matériaux (λ)


 

Remarques générales

  • Les valeurs  de conductivité thermique reprises ici sont des valeurs par défaut, issues de la réglementation (Extrait de l’AGW du 17 avril 2008, Annexe A de l’Annexe VII).
  • Le site www.epbd.be produit conjointement par les trois régions donne des valeurs reconnues pour le calcul PEB. Elles concernent notamment la conductivité thermique, la résistance thermique et la masse volumique des principaux produits d’isolation et de construction opaque disponibles sur le marché belge.
  • L’emploi des valeurs λU,e ou  λU,i  dépend des conditions d’utilisation du matériau :
    •  λU,i : Conductivité thermique utilisée pour un matériau dans une paroi intérieure ou dans une paroi extérieure, à condition que ce matériau soit protégé contre l’humidité due à la pluie ou à la condensation.
    • λU,e : Conductivité thermique utilisée pour un matériau dans une paroi extérieure qui n’est pas protégé contre l’humidité due à la pluie ou à la condensation.
  • La masse volumique des blocs/briques perforés  correspond au rapport entre leur masse réelle et leur volume hors-tout.
  • Les blocs creux ne sont pas des blocs perforés. En effet, pour ces blocs,  la chaleur se propage en même temps par conduction, convection et rayonnement (la valeur λ n’est donc pas représentative).  Leur résistance thermique RU est directement calculée en laboratoire. Les normes reprennent des valeurs par défaut pour ces composants.

Pour en savoir plus sur la conductivité thermique d’un matériau : cliquez ici !


Les métaux

Tableau A.1  – Métaux

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
Chaleur massique c
J/(kg.K)
Masse volumique
ρ (kg.m³)

Plomb

35 35  130  11 300

Cuivre

380 380  380  8 900

Acier

50 50  450  7 800

Aluminium 99%

160 160  880  2 800

Fonte

50 50  450  7 500

Zinc

110 110  380  7 200

Les pierres naturelles

Tableau A.2  – Pierres naturelles
La chaleur massique c vaut 1 000 J/(kg.K)

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
 

Masse volumique
ρ (kg.m³)

Pierres lourdes (granit, gneiss, basalte, porphyre)

3.50 3.50 2 700 ≤ ρ ≤ 3 000

« Petit granit » (pierre bleue), pierre calcaire

2.91 3.50 2 700

Marbres

2.91 3.50 2 800

Pierres dures

2.91 2.68 2 550

Pierres fermes

1.74 2.09 2 350

Pierres demi-fermes (o.a. moellon)

1.40 1.69 2 200

Les briques en terre cuite

Tableau A.3 – Briques en terre cuite
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 700 0.22 0.43
700 < ρ ≤ 800 0.25 0.49
800 < ρ ≤ 900 0.28 0.56
900 < ρ ≤ 1000 0.32 0.63
1000 < ρ ≤ 1100 0.35 0.70
1100 < ρ ≤ 1200 0.39 0.77
1200 < ρ ≤ 1300 0.42 0.84
1300 < ρ ≤ 1400 0.47 0.93
1400 < ρ ≤ 1500 0.51 1.00
1500 < ρ ≤ 1600 0.55 1.09
1600 < ρ ≤ 1700 0.60 1.19
1700 < ρ ≤ 1800 0.65 1.28
1800 < ρ ≤ 1900 0.71 1.40
1900 < ρ ≤ 2000 0.76 1.49
2000 < ρ ≤ 2100 0.81 1.61

Les briques/blocs silico-calcaires

Tableau A.4 – Briques/blocs silico-calcaires
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 900 0.36 0.78
900 < ρ ≤ 1000 0.37 0.81
1000 < ρ ≤ 1100 0.40 0.87
1100 < ρ ≤ 1200 0.45 0.97
1200 < ρ ≤ 1300
0.51 1.11
1300 < ρ ≤ 1400 0.57 1.24
1400 < ρ ≤ 1500 0.66 1.43
1500 < ρ ≤ 1600 0.76 1.65
1600 < ρ ≤ 1700 0.87 1.89
1700 < ρ ≤ 1800 1.00 2.19
1800 < ρ ≤ 1900 1.14 2.49
1900 < ρ ≤ 2000 1.30 2.84
2000 < ρ ≤ 2100 1.49 3.25
2100 < ρ ≤ 2200 1.70 3.71

Les blocs de béton avec granulats ordinaires

Tableau A.5 – Blocs de béton avec granulats ordinaires
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 1600 1.07 1.39
1600 < ρ ≤ 1700 1.13 1.47
1700 < ρ ≤ 1800 1.23 1.59
1800 < ρ ≤ 1900 1.33 1.72
1900 < ρ ≤ 2000
1.45 1.88
2000 < ρ ≤ 2100 1.58 2.05
2100 < ρ ≤ 2200 1.73 2.24
2200 < ρ ≤ 2300 1.90 2.46
2300 < ρ ≤ 2400 2.09 2.71

Les blocs de béton d’argile expansé (billes d’argex par exemple)

Tableau A.6 – Blocs de béton d’argile expansé
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 400 0.14 (1)
400 < ρ ≤ 500 0.18 (1)
500 < ρ ≤ 600 0.21 0.28
600 < ρ ≤ 700 0.25 0.33
700 < ρ ≤ 800
0.30 0.39
800 < ρ ≤ 900 0.33 0.44
900 < ρ ≤ 1000 0.38 0.50
1000 < ρ ≤ 1100 0.43 0.57
1100 < ρ ≤ 1200 0.49 0.65
1200 < ρ ≤ 1300 0.55 0.73
1300 < ρ ≤ 1400 0.61 0.80
1400 < ρ ≤ 1500 0.67 0.88
1500 < ρ ≤ 1600 0.75 0.99
1600 < ρ ≤ 1700 0.83 1.10

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  blocs de béton léger

Tableau A.7 – Blocs de béton avec d’autres granulats légers
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 500 0.30 (1)
500 < ρ ≤ 600 0.33 0.43
600 < ρ ≤ 700 0.37 0.47
700 < ρ ≤ 800 0.41 0.52
800 < ρ ≤ 900
0.46 0.58
900 < ρ ≤ 1000 0.51 0.65
1000 < ρ ≤ 1100 0.57 0.73
1100 < ρ ≤ 1200 0.64 0.82
1200 < ρ ≤ 1300 0.72 0.91
1300 < ρ ≤ 1400 0.82 1.04
1400 < ρ ≤ 1500 0.92 1.17
1500 < ρ ≤ 1600 1.03 1.31
1600 < ρ ≤ 1800 1.34 1.70

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  blocs de béton cellulaire autoclavés

Tableau A.8 – Blocs de béton cellulaire autoclavés
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 300 0.10 (1)
300 < ρ ≤ 400 0.13 (1)
400 < ρ ≤ 500 0.16 (1)
500 < ρ ≤ 600 0.20 0.32
600 < ρ ≤ 700
0.22 0.36
700 < ρ ≤ 800 0.26 0.42
800 < ρ ≤ 900 0.29 0.48
900 < ρ ≤ 1000 0.32 0.52

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les éléments de construction sans joints en béton lourd normal

Tableau A.9 – Béton lourd normal
La chaleur massique vaut 1 000 J/(kg.K)

Béton lourd normal

λUi
W/(m.K)
λUe
W/(m.K)
 Masse volumique ρ (kg/m³)

Armé

1.70 2.20 2 400

Non armé

1.30 1.70 2 400

Les éléments de construction sans joints en béton léger

Tableau A.10 – Béton léger en panneaux pleins ou en dalle(2) (béton d’argile expansé, béton cellulaire, béton de laitier, de vermiculite, de liège, de perlite, de polystyrène, etc.)
La chaleur massique c vaut 1000 J/(kg.K). Si des valeurs λ sont mentionnées dans les tableaux A.3 à A.8 pour ces produits, ces dernières seront utilisées. Les valeurs ci-dessous ne sont alors pas d’application.
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ < 350 0.12 (1)
350 ≤ ρ < 400 0.14 (1)
400 ≤ ρ < 450 0.15 (1)
450 ≤ ρ < 500 0.16 (1)
500 ≤ ρ < 550
0.17 (1)
550 ≤ ρ < 600 0.18 (1)
600 ≤ ρ <650 0.20 0.31
650 ≤ ρ < 700 0.21 0.34
700 ≤ ρ < 750 0.22 0.36
750 ≤ ρ < 800 0.23 0.38
800 ≤ ρ < 850 0.24 0.40
850 ≤ ρ < 900 0.25 0.43
900 ≤ ρ < 950 0.27 0.45
950 ≤ ρ < 1000 0.29 0.47
1000 ≤ ρ < 1100 0.32 0.52
1100 ≤ ρ < 1200 0.37 0.58

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est, en règle générale, pas recommandée.
(2) Dans le cas où les dalles ou les panneaux sont pourvus d’une armature parallèle au sens du flux thermique (ex. colliers, treillis d’armature), le transfert thermique sera pris en compte dans la détermination de la valeur U selon la NBN EN 10211.


Les plâtres

Tableau A.11 – Plâtre avec ou sans granulats légers
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 800 0.22 (1)
800 < ρ ≤ 1 100 0.35 (1)
1 100 < ρ 0.52 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  enduits

Tableau A.12 – Enduits
La chaleur massique c vaut 1 000 J/(kg.K)

 Enduits

Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)

Mortier de ciment

1 900 0.93 1.50

Mortier de chaux

1 600 0.70 1.20

Plâtre

1 300 0.52 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures, avec entre autre un risque d’humidification par la pluie, n’est en règle générale pas recommandée.


Les bois

Tableau A.13 – Bois et dérivés de bois

 Matériau

Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
 c
[J/kg.K]

Bois de charpente en

≤ 600 0.13 0.15  1880
> 600 0.18 0.20  1880

Panneau de contreplaqué

<400 0.09 0.11 1880
400 ≤ ρ < 600 0.13 0.15
600 ≤ ρ < 850
0.17 0.20
≥ 850 0.24 0.28

Panneau de particules ou d’aggloméré

< 450 0.10 (1)   1880
450 ≤ ρ < 750 0.14 (1)
≥ 750 0.18 (1)

Panneau de fibres liées au ciment

1200 0.23 (1)  1470

Panneau d’OSB
(oriented strand board)

650 0.13 (1)  1880

Panneau de fibres de bois (y compris MDF)

< 375 0.07 (1)  1880

 

375 ≤ ρ < 500 0.10 (1)
500 ≤ ρ < 700 0.14 (1)
≥ 700 0.18 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est, en règle générale, pas recommandée.


Les matériaux d’isolation thermique

Tableau A.14  – Matériaux d’isolation thermique

Matériau d’isolation

λUi
W/(m.K)
λUe
W/(m.K)
 

Chaleur
massique
J/(kg.K)

Liège (ICB)

0.050 (1) 1 560

Laine minérale (MW)

0.045 (1) 1 030

Polystyrène expansé (EPS)

0.045 (1) 1 450

Polyéthylène extrudé (PEF)

0.045 (1) 1 450

Mousse phénolique – revêtu (PF)

0.045(2) (1) 1 400

Polyuréthane – revêtu (PUR/PIR)

0.035 (1) 1 400

Polystyrène extrudé (XPS)

0.040 (1) 1 450

Verre cellulaire (CG)

0.055 (1) 1 000

Perlite (EPB)

0.060 (1) 900

Vermiculite

0.065 (1) 1 080

Vermiculite expansée (panneaux)

0.090 (1) 900

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.
(2) Pour les panneaux d’isolation revêtus en mousse de phénol à cellules fermées, cette valeur est ramenée à 0.030 W/(m.K)


Matériaux divers

Tableau A.15  – Matériaux divers

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
 

Chaleur
massique
J/(kg.K)

Masse volumique
ρ (kg/m³)

Verre

1.00 1.00 750  2 500

Carreaux de terre cuite

0.81 1.00 1 000  1 700

Carreaux de grès

1.20 1.30 1 000  2 000

Caoutchouc

0.17 0.17 1 400  1 500

Linoléum, carreaux de PVC

0.19 1 400  1 200

Panneaux en ciment renforcé de fibres minérales naturelles

0.35 0.50 1 000  1 400 < ρ <1 900

Asphalte coulé

0.70 0.70 1 000  2 100

Membrane bitumeuse

0.23 0.23 1 000  1 100

 

Valeurs de coefficients de transmission thermique (U) de parois types

Valeurs de coefficients de transmission thermique (U) de parois types


Type de paroi Coefficient de transmission thermique (U) (en W/m²xK)
Fenêtre avec simple vitrage 6
Fenêtre avec double vitrage traditionnel 3
Fenêtre avec double vitrage HR 1,5
Porte en bois 2,5
Porte en aluminium isolé 1,5
Mur plein de 29 cm 2,2
Mur plein de 39 cm 1,8
Mur creux non isolé 1,7
Mur creux isolé 0,45
Mur plein bardé non isolé 1,8
Mur plein bardé isolé 0,5
Mur de pierre non isolé de 30 cm 3,9
Mur de pierre non isolé de 40 cm 3,5
Mur de pierre non isolé de 50 cm 3,2
Mur de pierre non isolé de 60 cm 2,9
Mur de béton cellulaire de 25 cm (collé) 0,7
Mur de béton cellulaire de 30 cm (collé) 0,6
Mur de béton cellulaire de 35 cm (collé) 0,5
Toiture plate en béton non isolée 2,8
Toiture plate en béton isolée 0,45
Toiture inclinée isolée (6 cm de laine) 0,6
Toiture inclinée isolée (8 cm de laine) 0,45
Toiture inclinée isolée (10 cm de laine) 0,37
Plancher en bois de combles inoccupés non isolé 1,7
Plancher en bois de combles inoccupés isolé 0,4
Plancher en béton de combles inoccupés non isolé 2,6
Plancher en béton de combles inoccupés isolé 0,4
Plancher sur cave en béton non isolé 2
Plancher sur sol en béton non isolé 3,2
Plancher sur cave en béton isolé 0,7
Plancher sur sol en béton isolé 0,9

Coefficient de résistance à la diffusion de vapeur des matériaux

Coefficient de résistance à la diffusion de vapeur des matériaux

QUELQUES VALEURS DE µ (coefficient de résistance à la diffusion de vapeur d’un matériau)
(suivant publication du Ministère de la Région Wallonne :
Isolation thermique des logements neufs en région wallonne
Caractéristiques hygrothermiques des matériaux.
Édition 88.002.)
Matériau µ sec µ humide

Air

1

Métaux infini

Granit, basalte, porphyre, marbre

infini infini

Pierre bleue (petit granit)

infini infini

Schiste ardoisier

> 600

Pierre ferme

2 160 – 2 349 kg/m³ 70 – 90

Pierre tendre

1 650 – 1 839 kg/m³ 26 – 32
1 100 – 1 500 kg/m³ 5 – 10 5 – 10

Maçonnerie de briques, légère

700 – 1 000 kg/m³ 5 – 10

Maçonnerie de briques, moyenne

1 300 kg/m³ 7.5
1 500 kg/m³ 8

Maçonnerie de briques, lourde

1 700 – 1 900 kg/m³ 9 – 14
2 100 kg/m³ 31

Blocs pleins de béton cellulaire

500 – 549 kg/m³ 6 3

Blocs pleins de béton cellulaire

600 – 699 kg/m³ 10 6

Blocs pleins de béton très léger

500 – 800 kg/m³ 5 – 10

Blocs pleins de béton mi-lourd

< 1 400 kg/m³ 5 – 10
> 1 401 kg/m³ 10 – 15

Maçonnerie en briques silico-calcaire

< 1 400 kg/m³ 5 – 10
> 1 400 kg/m³ 15 – 25
2 000 kg/m³ 25

Maçonnerie en blocs de plâtre

9 6

Béton plein très léger

200 kg/m³ 2.8
300 kg/m³ 3.5
500 kg/m³ 4.5

Béton plein léger

700 kg/m³ 5.5

Béton plein moyennement léger

1 000 kg/m³ 6.5
1 300 kg/m³ 7.5
1 600 kg/m³ 8

Béton plein lourd

1 900 kg/m³ 13
2 300 kg/m³ 135 30

Béton lourd non compacté non armé

2 200 kg/m³ 23 – 200
2 400 kg/m³ 31 – 200

Béton lourd non compacté, armé

2 300 kg/m³ 27 – 200

Béton lourd compacté, armé

2 500 kg/m³ 37 – 200

Béton plein isolant

300 – 700 kg/m³ 4.5 – 5.5

Béton plein de granulats EPS

350 – 400 kg/m³ 7.5 – 11

Béton plein cellulaire
(ciment ou chaux)

400 – 750 kg/m³ 3.7 – 6.5

Béton plein cellulaire

400 kg/m³ 3 – 7.5
480 kg/m³ 6 3
600 kg/m³ 11 5
700 kg/m³ 4.5 – 7.5
1 000 kg/m³ 5.5 – 7.5
1 300 kg/m³ 7.5 – 9

Béton plein d’argile expansé

550 – 1 000 kg/m³ 5 – 6.5
1 000 – 1 800 kg/m³ 6.5 – 12

Béton plein de bims

700 – 1 000 kg/m³ 6
1 000 – 1 400 kg/m³ 6.5 – 12

Béton plein à base de granulés d’argile expansé

900 – 1 000 kg/m³ 10 – 16 10 – 16

Béton plein de laitier de haut fourneau

1 000 kg/m³ 6.5
1 300 kg/m³ 8
1 600 kg/m³ 10
1 900 kg/m³ 14

Béton plein de laitier de haut fourneau + sable du Rhin

1 500 kg/m³ 10
1 700 kg/m³ 40
1 900 kg/m³ 60

Béton plein aggloméré « en granulés »

2 100 kg/m³ 18 16

Enduit en mortier de ciment

15 – 41

Enduit en mortier de chaux

9 – 41

Enduit en plâtre

6 – 10

Enduit de résine synthétique

10 – 125

Saule, bouleau, hêtre tendre

120 18

Teck

37 – 370

Chêne, hêtre, frène, noyer, méranti

370 40

Pin

370 9

Epicéa

9 – 370

Sapin rouge du Nord, Orégon

120 18

Bois résineux

18 – 120

Sapin

18 – 120

Pitchpine

370 40

Multiplex

400 – 499 16
500 – 599 175 50
700 40 – 100
800 50 – 400

Contreplaqué marin

1 000 46 – 75

Panneau de particules type tendre

< 300 5

Panneau de copeaux colle U.F.

550 – 700 40 – 140 +/- 25

Panneau de copeaux colle mélam.

550 – 700 30 – 100 +/- 30

Panneau de copeaux colle P.F.

600 – 700 50 – 150 +/- 20

Panneau de particules type lourd

1 000 46 – 75

Panneaux de fibre de bois au ciment

3.7 – 10 4

Laine minérale

1.1 – 1.8

Liège expansé

4.5 – 29

Liège expansé imprégné

9 – 46

Polystyrène expansé

15 – 150

Polystyrène extrudé avec peau de surface

115 – 300

Mousse de polyuréthane

23 – 185

Perlite expansée pure

50 – 80 kg/m³ 1.5

Perlite expansée en panneau

170 kg/m³ 7 5

Vermiculite expansée pure

80 – 100 kg/m³ 1.5

Vermiculite expansée en panneau

350 kg/m³ 8

Verre cellulaire en plaque

70 000 – infini

Verre cellulaire en granulés

1.5

Verre

infini

Céramique de verre

infini

Carreaux de céramique

150 – 300

Caoutchouc

900

Linoléum

1 800

Asbeste-ciment

800 14
1 600 – 1 900 37 – 150

Bitume oxydé

70 000 – 120 000

Feutre bitumé

15 000

Polyisobuthylène

80 000 – 260 000

EPDM

65 000

Butyl

300 000

PVC

20 000 – 40 000

Feutre bitumé, goudronné et sablé

50

Voile de verre bitumé

20 – 180

Tuiles de terre cuite

36 – 44

Vernis d’adhérence

400 – 900

Papier

100

Feuille de PVC

10 000 – 100 000

Feuille de polyisobutylène

360 000

Feuille de Polyester

13 000

Feuille de Polyéthylène

50 000 – 320 000 285 000

Tableau des grandeurs hygrométriques de l’air humide

Tableau des grandeurs hygrométriques de l'air humide

T (°C) pvs (Pa)

ρvs (kg/m³) x10-3

xs (g/kg)
– 10 260 2,14 1,6
– 9 284 2,33 1,75
– 8 310 2,53 1,91
– 7 338 2,75 2,08
– 6 368 2,98 2,27
– 5 401 3,24 2,47
– 4 437 3,52 2,69
– 3 476 3,81 2,94
– 2 517 4,13 3,19
– 1 562 4,47 3,47
0 611 4,84 3,78
1 657 5,19 4,07
2 705 5,56 4,37
3 759 5,95 4,70
4 813 6,35 5,03
5 872 6,79 5,40
6 935 7,25 5,79
7 1 002 7,74 6,21
8 1 073 8,26 6,65
9 1 148 8,80 7,13
10 1 228 9,38 7,63
11 1 313 10,00 8,15
12 1 403 10,70 8,75
13 1 498 11,40 9,35
14 1 599 12,10 9,97
15 1 706 12,80 10,6
16 1 818 13,60 11,4
17 1 938 14,50 12,1
18 2 065 15,40 12,9
19 2 197 16,30 13,8
20 2 340 17,30 14,7
21 2 487 18,30 15,6
22 2 645 19,40 16,6
23 2 810 20,60 17,7
24 2 985 21,70 18,8
25 3 169 23,00 20,0
26 3 362 24,40 21,4
27 3 565 25,80 22,6
28 3 781 27,20 24,0
29 4 006 28,70 25,6
30 4 244 31,70 27,2

Avec , ρv : la concentration de vapeur = le nombre de kg de vapeur d’eau par m³ d’air sec (kg/m³); ρvs , cette même valeur à la saturation.

Les valeurs pvs et xs ci-dessus peuvent également être trouvées par calcul à partir de la température.


Confort acoustique

Confort acoustique


Les courbes de Noise Rating (NR)

Pour imposer un niveau de confort, la première idée consiste à imposer un niveau de bruit maximal, un seuil en décibel à ne pas dépasser.

Mais la sensibilité de l’oreille humaine est variable suivant la fréquence : pour notre oreille, 60 dB à 1 000 Hz est plus dérangeant que 60 dB à 250 Hz (la sensibilité est optimum entre 2 et 5 kHz).

Pour déterminer les différents critères du confort acoustique d’un local, on s’est dès lors basé sur l’allure générale des courbes de niveau d’isosonie de l’oreille.

L’Organisation Internationale de Normalisation (ISO) a proposé plusieurs courbes qui correspondent toutes à un certain degré de confort acoustique (ou de gêne) : courbes d’évaluation du bruit, ou courbes NR (Noise Rating). Grâce à ces courbes, il est possible de déterminer au moyen d’un seul chiffre le niveau de pression acoustique maximum autorisé dans chaque bande d’octave : par exemple, l’indice NR 40.

Pour obtenir le degré de nuisance d’un bruit, il suffit de tracer le spectre de ce bruit par bandes d’octave sur le réseau de courbes NR et de prendre l’indice de la courbe NR de rang le plus élevé atteint par le spectre. On verra alors immédiatement sur quelles fréquences il faudra porter l’attention afin de diminuer la gêne.

Le bruit dont on repère le spectre ci-dessus est de niveau NR 66.

On retrouve parfois dans les catalogues de fournisseur de matériel de ventilation la notion de « NC », tout à fait semblable à « NR ». Ces deux grandeurs sont reliées par la relation :

NC ≈ NR – 2 dB

Un niveau de confort acoustique NR 35 équivaut donc à un niveau de confort NC 33.

À titre d’information, la courbe NR 30 passe par la pression acoustique de 30 dB à une fréquence de 1 000 Hz, tandis que la courbe NC 30 passe par la pression acoustique de 30 dB à une fréquence de 2 000 Hz.


Des critères de confort

Ces courbes NR permettent de proposer des critères de confort acoustique, du type :

NR 20 Conditions excellentes d’écoute,
salles de concert, studios d’enregistrement
NR 25 Très bonnes conditions d’écoute,
auditoires, théâtres, églises, salles de conférence
NR 20 – 30 Condition de séjour, de repos, de sommeil,
maisons d’habitation, hôtels, appartements
NR 30 – 35 Bonnes conditions d’écoute,
bureaux de direction, salles de classe, bibliothèques
NR 35 – 40 Conditions d’écoute normales,
grands bureaux, restaurants calmes, commerces
NR 40 – 45 Conditions d’écoute modérées
laboratoires, restaurants, bureaux de dessin
NR 45 – 55 Conditions de travail acceptables avec un minimum de compréhension de la parole
NR 50 – 70 Usines, atelier

La précision du niveau NR permet de quantifier les exigences acoustiques au niveau des cahiers des charges.

Si, par exemple, on trouve dans un cahier des charges que l’installation de climatisation ne doit pas dépasser NR 35, cela veut dire que le spectre du bruit de la climatisation ne peut, dans aucune bande d’octaves, dépasser les valeurs admises par le spectre limite NR 35.

En général, un faible pourcentage de personnes est dérangé lorsque le bruit émis par une source isolée dépasse de 5 dB le bruit de fond. Si ce dépassement est de 10 dB, l’ensemble des personnes en ressent l’inconvénient.

La mesure du niveau NR d’un local peut s’effectuer grâce à un sonomètre, en mesurant le spectre sonore.


Les niveaux de l’ambiance sonore résultant des activités extérieures

Selon le contexte urbanistique, c’est à dire selon qu’il s’agisse d’une zone rurale, d’une zone de séjour récréatif, d’une zone résidentielle, etc… et selon le moment de la journée, un certain niveau de bruit est habituellement rencontré :

Valeurs indicatives de niveau sonore mesurée à l’air libre [dB (A)] (zone d’activités extérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif, à l’exception des zones reprises aux points 2, 3, et 8. 40 35 30
2. Zones résidentielle, zones rurales et zones de loisirs situées à moins de 500 m d’une zone industrielle non citée au point 3 ou d’une zone d’équipements collectifs ou d’utilité publique. 50 45 45
3. Zones résidentielles, zones rurales, zones de séjour récréatif à moins de 500 m d’une zone d’activités artisanales, d’une zone de PME, d’une zone de services ou d’une zone d’exploitation pendant la période d’activité. 50 45 40
4. Zones résidentielles, excepté celles reprises au point 2 et 3. 45 40 35
5. Zones industrielles, zones de services, zones d’équipements collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 60 55 55
6. Zones de loisirs, à l’exception de celles reprises au point 2, et zones de séjour récréatif. 50 45 40
7. Autres zones à l’exception des zones tampons, domaines militaires et zones auxquelles s’appliquent des valeurs indicatives fixées par décret particulier. 45 40 35
8. Zones tampons. 55 50 50

Valeurs indicatives de niveau de l’ambiance sonore mesurée à l’intérieur [dB(A)](zone d’activités intérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif. 30 25 25
2. Zones industrielles, zones de services, zones d’équipement collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 33 28 28
3. Zones résidentielles et autres zones, à l’exception de celles citées aux points 1 et 2. 33 28 28

« Tableau des valeurs indicatives de niveau de l’ambiance sonore résultant des activités ».

Pompes à chaleur (27.080) [Réglementations]

Pompes à chaleur (27.080) [Réglementations]

NBN EN 255-1:1997 R6X 9 R72

Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 1: Termes, définitions et désignations (2e éd.)

NBN EN 255-2:1997 R6X 13 R72
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 2: Essais et exigences de marquage pour les appareils de chauffage des locaux (1e éd.)

NBN EN 255-3:1997 R6X 16 R71
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 3: Essais et exigences de marquage pour les appareils pour eau chaude sanitaire (1e éd.)

NBN EN 255-4:1997 R6X 12 R71
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 4: Exigences pour les appareils de chauffage des locaux et pour les appareils pour eau chaude sanitaire (1e éd.)

NBN EN 378-1:1994 R6X 12 R57
Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base (1e éd.)

NBN EN 814-1:1997 R6X 11 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 1: Termes, définitions et désignations (1e éd.)

NBN EN 814-2:1997 R6X 13 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 2: Essais et exigences de marquage (1e éd.)

NBN EN 814-3:1997 R6X 12 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 3: Exigences (1e éd.)

NBN EN 60335-2-40:1995 R6X 12 R61
Sécurité des appareils électrodomestiques et analogues Partie 2 : Règles particulières pour les pompes à chaleur électriques, les climatiseurs et les déshumidificateurs (1e éd.)

NBN EN 60335-2-40/Al:1997 R6X 3 R71
Sécurité des appareils électrodomestiques et analogues Partie 2 : Règles particulières pour les pompes à chaleur électriques, les climatiseurs et les déshumidificateurs (1e éd.)

Installations alimentées au gaz

Installations alimentées au gaz

Domaine d’applications des différentes normes relatives aux installations au gaz :


Norme NBN D 51-003

La norme NBN D 51-003 de 2004, « Installations intérieures alimentées en gaz naturel et placement des appareils d’utilisation : dispositions générales » et son addendum A1 de 2005 énonce les conditions générales techniques et de sécurité applicables aux cas suivants :

  • Installation intérieures neuves ou parties neuves d’installations intérieures dont la pression maximale de service admissible est de 100 mbar et dont : (1) le diamètre nominal des canalisations est inférieur à DN 50 et (2) les canalisations ne sont pas enterrées.
  • Placement et mise en service des appareils d’utilisation dans les installations mentionnées ci-dessus.

Norme NBN D 51-004

La norme NBN D51-004 de 1992, « Installations alimentées en gaz combustible plus léger que l’air distribué par canalisation : installations particulières » et son erratum A1 de 2003 énonce les conditions générales techniques et de sécurité applicables aux cas suivants :

  • Installations dont la pression maximale de service est supérieure à 100 mbar et inférieure ou égale à 15 bar.
  • Installations dont la pression maximale de service est inférieur à 100 mbar mais dont : (1) le diamètre nominal des canalisations est supérieur à DN50 ou (2) les canalisations sont enterrées.

Norme NBN D 51-006

Le NBN a publié en 2005 une série de trois normes pour les installations alimentées en gaz butane ou propane :

  • NBN D 51-006-01 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 1, terminologie ».
  • NBN D 51-006-02 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 2, installations intérieures ».
  • NBN D 51-006-03 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 3, placement des appareils d’utilisation ».

Choisir le programme de maintenance [Eclairage]

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, combinaison de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages successifs des parois
  • L’intervalle de temps entre deux nettoyages successifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

Dans la suite de cette page vous trouverez une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance, cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive ou mixte (curative et préventive), cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de réaliser cette comparaison, cliquez ici !

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel accessible ci-dessus ;
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux qui permet de tenir compte du facteur de maintenance de l’installation ;
  3. faire l’étude économique du système ;
  4. comparer les différents systèmes à l’aide du troisième fichier Excel référencé ci-dessus.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.103 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe,
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe,
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire.

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ ouverture d'une nouvelle fenêtre ! ICEDD et disponible sur le site de la ouverture d'une nouvelle fenêtre ! CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3.
  • Catégorie d’environnement : normale.
  • Durée de fonctionnement par an : 3100 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7,
    • Murs : 0.5,
    • Sol : 0.2.
  • Lampes utilisées :
    • Type : fluorescente triphosphore,
    • Coût hors taxe :6.85 €/lampe,
    • Puissance : 28 W/lampe.
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement),
    • Coût hors taxe : 150 €/luminaire,
    • Puissance (lampe incluse) : 32 W/luminaire.
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous supposons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.84.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 6.03 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
0.94
LMF
0.91
RSMF
0.83
MF
0.64
Simulation dialux

L’installation sera composée de :

  • 110 luminaires,
  • 110 lampes.

Caractéristiques du système :

  • Puissance installée : 3 520 W.
Étude économique du système
Investissement
Achat des luminaires 110*150 = 16 500 €
Achat des lampes 110*6.85 = 753.50 €
Installation des luminaires 110*30 = 3 300 €
Total
20 553.50 €
Coût de fonctionnement
Énergie consommée par le système 3 100*3.520 = 10 912 kWh/an
Coût de fonctionnement 10 912*0.103 = 1123.936 €/an
Coût de la maintenance
Achat lampes 110*6.85 = 753.5 €
Remplacement lampes 110*5 = 550 €
Total sur 5 ans 1303.5 €
Total par an
260.7 €/an

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 2 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 0.93 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.92
LSF
0.99
LMF
0.91
RSMF
0.83
MF
0.69
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 168 W.
Étude économique du système
Investissement
Achat des luminaires 99*150 = 14 850 €
Achat des lampes 99*6.85 = 678.15 €
Installation des luminaires 99*30 = 2 970 €
Total
18 498
Coût de fonctionnement
Énergie consommée par le système 3 100*3.168 = 9 820.80 kWh/an
Coût de fonctionnement 9 820.80*0.103 = 1011.542 €/an
Coût de la maintenance
Achat lampes 99*6.85 = 678.15 €
Remplacement lampes 99*5 = 495 €
Total sur 2 ans 1 173.15 €
Total par an
586.575 €/an

Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans

Calcul du facteur de maintenance

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, cette valeur est de 104.89 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 10 ans
100*(104.89/100)*6.85 = 718.497 €/(10 ans)
  • Sur 1 an
718.497/10 = 71.497 €/an
Remplacement lampes  

 

  • Sur 10 ans
100*(104.89/100)*15 = 1 573.35 €/(10 ans)
  • Sur 1 an
1 573.35/10 = 157.335 €/an
Coût de fonctionnement 1 250.945 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 10 ans 1 185 €
Total par an
118.5 €/an

Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important

Calcul du facteur de maintenance

Entre 6.5 et 6.8 ans, le service de maintenance devra remplacer un peu plus de 50 % des lampes dans le cadre d’une maintenance curative. Il semble naturel de réaliser une maintenance préventive au bout de 6.5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est de 0.90, comme dans le cas précédent.

Ce graphique permet également de déterminer le pourcentage de lampe changée avant intervention. Dans le cas présent, ce dernier vaut 50.13 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 6.5 ans
100*(50.13/100)*6.85 = 343.391 €/(6.5 ans)
  • Sur 1 an
343.391/6.5 = 52.829 €/an
Remplacement lampes  
  • Sur 6.5 ans
100*(50.13/100)*15 = 751.95 €/(6.5 ans)
  • Sur 1 an
751.95/6.5 = 115.684 €/an
Coût de fonctionnement 1 190.274 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 6.5 ans 1 185 €
Total par an
182.308 €/an

Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les 4.5 ans

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF est encore une fois de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, ce dernier vaut 3.3 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 4.5 ans
100*(3.3/100)*6.85 = 22.605 €/(4.5 ans)
  • Sur 1 an
22.605/4.5 = 5.023 €/an
Remplacement lampes  
  • Sur 4.5 ans
100*(3.3/100)*15 = 49.5 €/(4.5 ans)
  • Sur 1 an
49.5/4.5 = 11 €/an
Coût de fonctionnement 1 037.783 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 4.5 ans 1 185 €
Total par an
263.33 €/an

Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans ce cas, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est encore une fois de 0.95.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.95
LSF
1
LMF
0.91
RSMF
0.83
MF
0.72
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 128 W.
Étude économique du système

L’installation sera donc la même que celle du programme 2. Les coûts d’investissement et de fonctionnement seront donc identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

 

Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110 99 100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique(€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33  

Le graphique suivant permet de comparer les différents programme de maintenance :

 

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il montre également l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

EUROVENT 2/2 : taux de fuite dans les conduits de distribution d’air en métal

EUROVENT 2/2 : taux de fuite dans les conduits de distribution d'air en métal


EUROVENT ?

Comment comparer les rendements de 2 machines frigorifiques si les valeurs annoncées ont été mesurées dans des conditions différentes (température intérieure et extérieure, niveau acoustique, …) ?

Certains gros fabricants du secteur ventilation et climatisation, irrités de la concurrence exercée par des producteurs peu scrupuleux de la qualité du matériel, ont décidé de définir des références communes de comparaison.

Le logo « EUROVENT » n’est pas un label de qualité en soi. Il certifie que le matériel a été testé dans des conditions standards admises par les différents membres de l’association.


Le standard EUROVENT 2/2

Le standard EUROVENT 2/2 est basée sur des tests réalisés en laboratoire et sur site sur des conduits mis en œuvre suivant les codes de bonne pratique. Elle concerne le taux de fuite dans les conduits allant de la sortie de la centrale de traitement d’air aux éléments terminaux.

Un certain degré de fuite dans les réseaux de ventilation est inévitable (et toléré sauf évidemment dans les réseaux transportant des gaz dangereux). Il est en outre reconnu que le transport, le stockage et la mise en œuvre est source d’aggravation des risques de fuite.

Le standard EUROVENT 2/2 définit des classes d’étanchéité basées sur le rapport entre la quantité de fuite dans les conduits et la surface du réseau de distribution d’air, bien que les fuites proviennent principalement des joints.

Classe d’étanchéité à l’air des conduits de ventilation selon le standard EUROVENT 2/2

Mesure sur des conduits installés

Taux de fuite
[s-1.m-2]
p = pression statique d’essai [Pa]

Surface de fuite équivalente en cm² par m² de conduit

Classe EUROVENT

0.009 x p0,65 <…< 0.027 x p0,65 0.21 <…< 0.64 A
0.003 x p0,65 <…< 0.009 x p0,65 0.07 <…< 0.21 B
< 0.003 x p0,65 < 0.07 C

Mesure en laboratoire

Taux de fuite
[s-1.m-2]
p = pression statique d’essai [PA]

Surface de fuite équivalente en cm² par m² de conduit

Classe EUROVENT

0.0045 x p0,65 <…< 0.0135 x p0,65 0.21 <…< 0.64 A
0.0015 x p0,65 <…< 0.0045 x p0,65 0.07 <…< 0.21 B
< 0.0015 x p0,65 < 0.07 C

Classe d’étanchéité à l’air des conduits de ventilation selon le standard EUROVENT 2/2.

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Le type de lampe

Il y a lieu de considérer ici sept grandes catégories de sources lumineuses  :

En ce qui concerne les deux autres types de lampes :

  • Les lampes à induction présentent un prix et une durée de vie élevés. Elles seront utilisées quand la maintenance est difficile, ou coûteuse, et dans des situations requérant de longues périodes de fonctionnement.
  • Les lampes au sodium haute pression possèdent un très mauvais IRC. Elles sont principalement utilisées pour l’éclairage des autoroutes, car l’efficacité lumineuse doit être très élevée et que le rendu des couleurs n’est pas primordial.

Du point de vue de la maintenance, les différents types de lampes vont se distinguer par leur :

  • facteur de survie
  • facteur de maintien de flux lumineux

Il est important de noter que les tables permettant de calculer le facteur de maintenance d’une installation reprennent des valeurs moyennes par catégorie de lampe. Dans les faits, il existe une grande dispersion autour de ces valeurs moyennes.

Par exemple, les halogénures métalliques possèdent les caractéristiques suivantes :

  • Une durée de vie moyenne comprise entre 10 000 et 18 000 heures et donc un facteur de survie (LSF) variant fortement d’une lampe à l’autre (la durée de vie moyenne est définie par un LSF de 0.5).

durée de vie moyenne de lampes aux iodures métalliques

Le schéma ci-dessus montre la chute du flux lumineux de différents lots de lampes aux iodures métalliques d’un fabricant donné.

  • Une durée de vie utile comprise entre 6 000 et 10 000 heures et donc un facteur de maintien du flux lumineux variant fortement d’une lampe à l’autre (la durée de vie utile est définie par un LLMF de 0.8).

Evolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d'un fabricant donné.

Le schéma ci-dessus indique l’évolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d’un fabricant donné.

Les différents types de lampes sont également définis par leur efficacité moyenne. En pratique, il y aura lieu de comparer le produit de ces trois facteurs, comme le montre le graphique suivant :

Il est essentiel de garder à l’esprit que ce graphe se base sur les valeurs moyennes de l’efficacité, du facteur de maintenance du flux lumineux et du facteur de survie de chaque type de lampes.

Ce graphique montre que selon la durée de fonctionnement (avant relamping ou remplacement complet du luminaire) souhaitée, le type de lampe le plus efficace sera différent.

Par exemple si l’installation est sensée fonctionner 13 000 heures, alors le type de lampes le plus efficace (en moyenne) sera celui des fluorescentes triphosphores (1.12 fois plus efficace que les lampes sodium haute pression et 1.71 fois plus que les lampes aux halogénures métalliques).

Si le système est sensé fonctionner 3 000 heures, alors le type de lampes le plus efficace sera celui des halogénures métalliques, qui sera 1.06 fois plus efficace que le type fluorescente triphosphore et 1.25 fois plus efficace que les types flocompacte et sodium haute pression.

Il est essentiel de garder à l’esprit que les courbes donnant le pourcentage de flux lumineux restant en fonction de la durée de fonctionnement n’auront pas toutes la même allure. Ce serait donc une erreur de s’intéresser uniquement à l’efficacité lumineuse initiale des lampes.

Ce diagramme permet également de voir simplement que les lampes incandescentes classiques et halogènes possèdent de très mauvaises caractéristiques (faible efficacité, diminution rapide du flux lumineux, et facteur de survie très bas).

Calculs

Si vous voulez comparer des lampes de type différent en fonction de leur efficacité lumineuse. (xls)

Lampes halogènes classiques ou lampes aux halogénures métalliques

Méthodologie

L’étude présentée ici se base sur quatre étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer les valeurs du facteur de survie des lampes choisies en fonction de la durée de vie annoncée par le constructeur ;
  2. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel ;
  3. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux ;
  4. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe ;
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe ;
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 7*6*2.8 m³.
  • Catégorie d’environnement : propre.
  • Durée de fonctionnement par an : 2 580 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2.
  • Luminaires utilisés :
    • Luminaires à ventilation forcée de type downlight pouvant accueillir des lampes halogènes ou des lampes à halogénures métalliques
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 1 an. Ceci correspond (pour les luminaires choisis et la catégorie d’environnement) à un facteur de maintenance des luminaires de 0.99.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous considérons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Les lampes utilisées

Comme dit précédemment, les luminaires choisis ici peuvent aussi bien accueillir des halogènes ou des halogénures métalliques. Les luminaires, peu importe le type de lampes qu’ils accueillent, présentent le même rendement et la même courbe photométrique (distribution à caractère intensif).

Si la topologie du système d’éclairage est imposée par des critères esthétiques, il y a lieu de choisir des lampes possédant des flux lumineux équivalents. Ce choix est de plus conforté par le fait que nous utiliserons le même type de luminaire et donc la même courbe photométrique (à peu de chose près) à caractère intensif. Augmenter le flux des lampes aura pour conséquence première d’augmenter l’éclairement dans l’axe du luminaire et ne permettra donc pas d’utiliser moins de luminaires.

Notre choix se portera donc sur les lampes suivantes :

Lampe halogène
Lampe aux halogénures métalliques
Puissance luminaire (W)
300
82
Flux lumineux (lm)
5 600
5 900
Efficacité lumineuse (lm/W)
18.67
71.95
Température de couleur (K)
2 900
4 200
Indice de rendu des couleurs
100
85
Durée de vie moyenne (h)
2 000
9 000
Prix lampe (€ HTVA)
5.36
28
Prix luminaire (€ HTVA) 147
159.25

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.9

Il n’est malheureusement pas possible de satisfaire ce critère avec les lampes halogènes, à moins de les remplacer tous les 4 mois.

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.76

> Système réalisé à base de lampes halogènes

Dans ce cas, il est nécessaire de réaliser un relamping tous les 6 mois.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 22 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.76.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF
0.97
LSF
0.78
LMF
0.99
RSMF
0.94
MF
0.7
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 2 400 W
Étude économique du système
Investissement
Achat des luminaires 8*147 = 1 176 €
Achat des lampes 8*5.36 = 42.88 €
Installation des luminaires 8*30 = 240 €
Total
1 458.88
Coût de fonctionnement
Énergie consommée par le système 2 400*2.58 = 6 192 kWh/an
Coût de la consommation électrique 6 192*0.103 = 637.776 €/an
Coût de fonctionnement 637.776 €/an
Coût de la maintenance
Achat lampes 8*5.36 = 42.88 €
Remplacement lampes 8*5 = 40 €
Total sur 0.5 an 82.88 €
Total par an
165.76 €/an

> Système réalisé à base de lampes à halogénures métalliques

Dans ce cas, il est nécessaire de réaliser un relamping tous les 1.5 ans.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 9.51 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.81.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF 0.89
LSF
0.90
LMF 0.99
RSMF 0.94
MF 0.75
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 656 W
Étude économique du système
Investissement
Achat des luminaires 8*159.25 = 1 274 €
Achat des lampes 8*28 = 224 €
Installation des luminaires 8*30 = 240 €
Total
1 738
Coût de fonctionnement
Énergie consommée par le système 656*2.58 = 1 692.48 kWh/an
Coût de la consommation électrique 1 692.48*0.103 = 174.325 €/an
Coût de fonctionnement 216.197 €/an
Coût de la maintenance
Achat lampes 8*28 = 224 €
Remplacement lampes 8*5 = 40 €
Total sur 1.5 an 264 €
Total par an
176 €/an
Comparaison

Schéma, comparaison économique des différents programmes.

Cet exemple montre à quel point les halogènes donnent des résultats médiocres tant du point de vue énergétique qu’économique. L’utilisation d’halogénures métalliques à leur place permet de diminuer la consommation énergétique du système de près de 75 %. Et cela, pour un surcoût à l’investissement d’environ 230 €.

Il est à noter que les 5 % gagné sur la valeur du facteur de maintenance n’ont pas permis de réduire le nombre de luminaires. Cela est dû à la topologie du système (disposition rectiligne, dimensions du local…) et à la nécessité de satisfaire les critères de confort visuel (un facteur de maintenance de 0.84 aurait permis de limiter le nombre de luminaires à halogénures métalliques à 6).

Cela montre bien que la planification de la maintenance ne se limite pas à la détermination du facteur de maintenance. Elle permet également de déterminer la périodicité de la maintenance et les coûts qui lui sont liés. Dans le cas qui nous occupe, les surcoûts rattachés à l’achat d’halogénures métalliques, une dizaine d’euros par an, sont largement compensés par la diminution de la facture électrique.

Comme le montre le graphique suivant, l’utilisation d’halogénures métalliques plutôt que d’halogènes est rentabilisée en un an. On aura ainsi économisé (investissement compris) 160 € en un an, 922 en deux.

Les résultats calculés ici se basent sur l’emploi de lampes aux halogénures métalliques possédant une dure de vie moyenne (9 000 heures) assez faible si on la compare aux standards de sa catégorie. En effet, la plupart des halogénures métalliques possèdent une durée de vie moyenne de 18 000 heures.

Ces lampes présentent tout de même un bon indice de rendu des couleurs ainsi qu’une température de couleur plus proche de celle de la lumière naturelle.

Les fichiers ayant permis la réalisation de cette étude sont accessibles ici :

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour déterminer les valeurs du facteur de survie catalogue.

Calculs

Pour planifier une maintenance préventive ou mixte.

Le graphique suivant montre qu’il existe une grande dispersion autour de ces valeurs moyennes :

Pour finir, il ne faut pas oublier que d’autres facteurs jouent également dans le choix d’une lampe :

  • Indice de Rendu des Couleurs
  • Spectre lumineux complet et régulier

Le type de luminaire

Il y a lieu de considérer ici 7 grandes catégories de luminaires :

Illustration luminaire tube nu.

Tube nu.

Illustration luminaire ouverts sur le dessus.

Luminaires ouverts sur le dessus
(ventilés naturellement).

Illustration luminaire fermé sur le dessus.

Luminaires fermés sur le dessus
(non ventilés).

Illustration luminaires fermés IP2X.

Luminaires fermés IP2X,
protégés contre les corps solides
supérieurs à 12 mm.

Illustration luminaires fermés IP5X.

Luminaires fermés IP5X,
protégés contre la poussière.

Illustration luminaires assurant un éclairage indirect ou vers le haut.

Luminaires assurant
un éclairage indirect
ou vers le haut.

Illustration luminaires à ventilation forcée.

Luminaires à ventilation forcée.

Le choix du type de luminaire revêt d’une importance capitale, surtout dans les locaux de catégorie « normal  » et « sale « . Ce choix influence directement la valeur du facteur de maintenance des luminaires (LMF).

Par exemple, si la catégorie d’environnement est sale et que les luminaires sont nettoyés tous les 3ans, les pertes engendrées par l’empoussièrement de ceux-ci seront de :

  • 15 % si l’on utilise des luminaires à ventilation forcée.
  • 21 % si l’on utilise des luminaires fermés IP5X.
  • 27 % si l’on utilise des tubes nus.
  • 32 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 35 % si l’on utilise des luminaires fermés IP2X.
  • 48 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 55 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un même intervalle de nettoyage des luminaires, mais pour un environnement normal cette fois, les pertes engendrées seront de :

  • 10 % si l’on utilise des luminaires à ventilation forcée.
  • 16 % si l’on utilise des luminaires fermés IP5X.
  • 21 % si l’on utilise des tubes nus.
  • 26 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 27 % si l’on utilise des luminaires fermés IP2X.
  • 39 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 45 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un environnement propre, les pertes vont de 5 à 26 % et pour un très propre de 2 à 15 %.

En règle générale, le classement des luminaires en fonction du facteur de maintenance (LMF) donnera :

Type de luminaire
LLMF moyen
Luminaires à ventilation forcée. 0.948
Luminaires fermés IP5X, protégés contre la poussière. 0.890
Tube nu. 0.874
Luminaires ouverts sur le dessus (ventilés naturellement). 0.845
Luminaires fermés IP2X, protégés contre les corps solides supérieurs à 12 mm. 0.820
Luminaires fermés sur le dessus (non ventilés). 0.781
Luminaires assurant un éclairage indirect ou vers le haut. 0.757

Comme dans le cas du choix du type de lampe à utiliser, il y a lieu de faire attention au rendement des luminaires. Il est cependant plus difficile ici de tirer des conclusions générales étant donné la dispersion de la valeur des rendements dans une gamme donnée.


Le système d’éclairage

On distingue ici trois types de systèmes d’éclairage :

  • Les systèmes directs.
  • Les systèmes indirects.
  • Les systèmes mixtes.

Pour ce qui est des systèmes mixtes, il existe théoriquement une infinité de possibilités. Nous ne nous occuperons ici que des trois cas types suivants :

  • Cas 1 : 100 % direct, 0 % indirect.
  • Cas 2 : 50 % direct, 50 % indirect.
  • Cas 3 : 0 % direct, 100 % indirect.

Du point de vue de l’énergie, plus la composante directe de l’éclairage est importante et plus l’efficacité du système est grande. En effet, dans un système à composante indirecte non nulle, avant d’atteindre la tâche à éclairer, la lumière est réfléchie. Ce mode d’éclairage a donc un moins bon rendement et demande, à niveau d’éclairement égal, une puissance installée supérieure à celle du système direct.

L’éclairement dépend dans ce cas fortement des coefficients de réflexion des parois sur lesquelles la lumière est réfléchie. L’état de propreté des parois aura donc une influence directe sur les valeurs d’éclairement atteintes (via le RSMF), comme le montre l’exemple suivant :

Exemple montrant l’influence du système d’éclairage sur les valeurs de RSMF à utiliser.

Soit un système possédant les caractéristiques suivantes :

  • Environnement normal
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2

Les valeurs de RSMF vont alors suivre les évolutions suivantes :

Valeurs de RSMF.

Si on planifie un nettoyage des parois tous les 3 ans, les pertes engendrées par l’empoussièrement du local seront de :

  • 10 % dans le cas d’un système d’éclairage direct
  • 17 % dans le cas d’un système d’éclairage 50 % indirect et 50 % direct
  • 28 % dans le cas d’un système d’éclairage indirect

Il est à noter que du point de vue du confort, l’utilisation d’un système d’éclairage mixte va conduire à des différences de luminance nettement moins marquées que dans le cas d’un éclairage direct. Le système mixte est surtout avantageux dans des pièces à plafond haut et évite la perception d’une zone sombre au plafond. Il est cependant nécessaire de garder à l’esprit qu’une faible proportion de flux vers le haut suffit généralement et qu’une proportion de 50 % vers le haut est certainement une valeur trop importante.

À ce sujet, il peut être intéressant de se tourner vers les réglementations. Celle relative aux lieux de travail indique que pour un éclairement de la tâche de 500 lux, les zones environnantes immédiates (bande de 0.5 m autour de la zone de travail) doivent présenter un éclairement de 300 lux, soit 60 % de la première valeur. Il est donc évident que l’éclairement du plafond devra être largement inférieur à 50 % de la valeur d’éclairement de la tâche. La composante indirecte ne devra servir qu’à éviter la création d’une ombre sur le plafond.


La catégorie d’environnement

Catégorie d’environnement

Les coefficients de réflexion des parois d’un local jouent un rôle important sur l’éclairage. L’empoussièrement de celui-ci va conduire à la réduction des facteurs de réflexion du local, et donc à la réduction du niveau d’éclairement atteint. Cette déperdition va dépendre :

  • des proportions du local
  • du facteur de réflexion de chacune des parois du local
  • du type d’éclairage choisi (direct, indirect…)
  • et surtout de la catégorie d’environnement dans laquelle on se trouve (la nature et la densité de la poussière étant des facteurs prépondérants)

On distingue quatre catégories d’environnement :

Très propre Hôpitaux (zones d’interventions), centres informatiques.
Propre Bureaux, écoles, hôpitaux (zones communes), magasins, laboratoires, restaurants, salles de conférence.
Normal Salles d’assemblage.
Sale Ateliers mécaniques, fonderies, laboratoires chimiques.

Le type d’environnement a une grande importance, mais il ne résulte malheureusement pas vraiment d’un choix.

Par exemple pour un système possédant les caractéristiques suivantes :

  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Système d’éclairage 50 % direct, 50 % indirect
  • Nettoyage des  parois du local tous les deux ans

Les pertes du à l’empoussièrement des parois seront de :

Pertes du à l'empoussièrement des parois.

Soit en résumé :

  • 5 % dans le cas d’un environnement très propre
  • 9 % dans le cas d’un environnement propre
  • 17 % dans le cas d’un environnement normal
  • 25 % dans le cas d’un environnement sale

La catégorie d’environnement va donc influencer directement la valeur du facteur de maintenance du local (RSMF). Mais comme le montre le graphique précédent, de manière générale, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Ce qui dans la pratique ne semble pas envisageable.

La catégorie d’environnement joue également sur le taux d’encrassement des luminaires. Si l’on analyse plus en détail l’évolution du facteur de maintenance des luminaires (LMF) on s’aperçoit qu’il est intéressant de pratiquer un nettoyage des luminaires tous les 6 mois, comme le montre le graphe suivant (catégorie d’environnement « sale « ) :


Le nombre d’heure de fonctionnement

Le tableau suivant indique, dans le cadre d’activités typiques, le nombre d’heures de fonctionnement de l’installation d’éclairage :

Activité Période d’occupation Gestion en fonction de la lumière du jour Heures de fonctionnement
Shift inclus Nombre de jours Heures/jour Oui/non Heures/an
Industrie
  Continu

365

24

Non

8760

  Process

365

24

Oui

7300

  2 shifts

310

16

Non

4960

  6 jours/semaine

310

16

Oui

3720

  1 shift

310

10

Non

3100

  6 jours/semaine

310

10

Oui

1760

  1 shift

258

10

Non

2580

  5 jours/semaines

258

10

Oui

1550

Commerce
  6 jours/semaine

310

10

Non

3100

Bureaux
  5 jours/semaine

258

10

Non

2580

258

10

Oui

1550

Écoles
  5 jours/semaine

190

10

Non

1900

190

10

Oui

1140

Hôpitaux
  7 jours/semaine

365

16

Non

5840

365

16

Oui

3504


Planification du programme de maintenance

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, mix de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages consécutifs des parois
  • L’intervalle de temps entre deux nettoyages consécutifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

  • Sur le type de lampes utilisé
  • Sur le type de luminaires utilisé
  • Sur le système d’éclairage utilisé
  • Et dans une certaine mesure sur les coefficients de réflexion des parois du local

Dans la suite de cette page, vous trouverez le résumé d’une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Pour accéder à l’étude complète, est accessible dans la page « Exemple de choix du programme ».

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance mixte (curative et préventive).

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel.
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux.
  3. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh
  • Coût de la main-d’œuvre : 30 €/h
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3
  • Catégorie d’environnement : normale
  • Durée de fonctionnement par an : 3100 h
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Lampes utilisées :
    • Type : fluorescente triphosphore
    • Coût hors taxe :6.85 €/lampe
    • Puissance : 28 W/lampe
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement)
    • Coût hors taxe : 150 €/luminaire
    • Puissance (lampe incluse) : 32 W/luminaires
  • Pas de nettoyage des parois du local
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous estimons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures (ce qui correspond au pas de simulation).

Les différents programmes de maintenance

  • Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale
  • Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale
  • Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans
  • Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important
  • Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
  • Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans le cas du programme 6, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Le remplacement des lampes devra dans ce cas être effectué tous les ans.

L’installation sera donc la même que celle du programme 2, avec des coûts d’investissement et de fonctionnement identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet, cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

    Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110

99

100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique (€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33    

Le graphique suivant permet de comparer les différents programmes de maintenance :

Calculs

 Pour accéder au fichier Excel permettant de réaliser cette comparaison.

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Au bout de 15 ans, ce programme permet une économie de :

  • 800 € par rapport au programme 3
  • 1 100 € par rapport au programme 4
  • 1 700 € par rapport au programme 2
  • 2 200 € par rapport au programme 1

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si l’on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il met également en exergue l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

Niveau d’isolation thermique : niveau K

Niveau d'isolation thermique : niveau K


La méthode de calcul

Les 3 Régions du pays imposent un niveau d’isolation thermique global des bâtiments minimum pour les constructions nouvelles ou rénovations lourdes.

Voici en résumé les principes de ce calcul. Pour obtenir tous les détails réglementaires de la méthode, on consultera utilement  l’annexe VII de la réglementation relative à la P.E.B.

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Étape 1 : délimiter le volume protégé V

Le volume protégé V d’une construction est constitué par l’ensemble des locaux chauffés (directement ou non).

Délimiter le volume protégé revient à séparer ces locaux d’autres locaux non chauffés. En général, c’est la couche isolante qui détermine ce volume. Un grenier qui sert de chambre fait donc partie du volume protégé, même s’il n’y a pas de radiateur installé.

Dans le premier cas, la cave et le garage ne sont pas chauffés; dans le deuxième cas, il s’agit de deux locaux utilisés et chauffés. En toute logique, on souhaite que ce soit l’ensemble de la frontière de ce volume chauffé qui réponde à un minimum de qualité thermique.

Étape 2 : repérer la superficie de déperdition thermique At

La superficie de déperdition At est la somme de toutes les superficies de toutes les parois qui séparent le volume protégé :

  • de l’ambiance extérieure (1),
  • du sol (2),
  • des espaces voisins qui n’appartiennent pas à un volume protégé (3).

Remarque : les parois mitoyennes ne sont donc pas comptabilisées (puisque le delta de température est considéré comme nul ou négligeable).

Étape 3 : calculer le coefficient de transfert thermique par transmission du bâtiment Ht

HT = HD+Hg+HU    [W/K]

 où :

  • HD = coefficient de transfert thermique par transmission à travers les parois directement en contact avec l’extérieur [W/K] ;
  • Hg= coefficient de transfert thermique par transmission à travers les parois en contact avec le sol [W/K];
  • HU=coefficient de transfert thermique par transmission à travers les parois en contact avec des espaces non-chauffés [W/K];

Chacun de ces coefficients est calculé, pour chaque paroi, de manière générique par la formule suivante :

 où :

  • α : coefficient de pondération tenant compte de l’environnement de la paroi [0<α<1 (environnement extérieur)]La valeur de ce coefficient de pondération « a » a pour but de diminuer les déperditions des parois qui ne sont pas directement en contact avec la température extérieure. Ainsi, en toute logique, on considérera des déperditions différentes selon qu’un même mur soit en contact avec le sol, un espace non chauffé ou l’environnement extérieur.
  • Ai : surface de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [m²];
  • Ui : valeur U de l’élément de construction i de l’enveloppe du bâtiment, déterminée avec les dimensions extérieures [W/m²K];
  • lk : longueur du pont thermique linéaire k présent determinée avec les dimensions extérieures [m];
  • k : coefficient de transmission thermique linéique du pont thermique linéaire k [W/mK];
  • l : coefficient de transmission thermique ponctuel du pont thermique ponctuel l [W/K].

Étape 4 : déterminer le coefficient de transfert de chaleur moyen du bâtiment « Um »

Um=Ht/At [W/m²K]

Le coefficient Um est donc obtenu par le rapport entre le coefficient de transfert thermique total (Ht) et la surface de déperditions du volume protégé (At). Cette valeur nous donne une idée de la déperdition énergétique moyenne par m² de surface déperditive.

Étape 5 : déterminer la compacité volumique du bâtiment V/At

La compacité volumique est le rapport entre le volume protégé V et la superficie de déperditions At du bâtiment.

C=V/At [m]

Plus grande est la compacité, plus petite est la perte d’énergie par m³ chauffé. La réglementation sera dès lors moins sévère pour des bâtiments avec grande compacité (ex : bloc d’appartements).

À noter que l’on peut en déduire une réflexion sur le plan de la composition architecturale : l’habitation « 4 façades » entourée d’un jardin n’est pas une bonne solution sur le plan environnemental (déperditions par m² élevées…).

Étape 6 : déterminer le niveau K du bâtiment

La réglementation définit conventionnellement le niveau K par la relation :

K= 100 Um/Um,réf

Compacité Um,réf
V/At < 1 m Um,réf = 1
1 m < V/At < 4 m Um,réf = (C+2) / 3
4 m < V/At Um,réf = 2

Le niveau K est donc directement fonction de la compacité volumique V/At et du coefficient moyen de transmission thermique Um.

 Exemple.

Si le Umoyen de l’enveloppe (= Um) est de 0,6 et que la compacité est de 0,9 m , le niveau « K » du bâtiment est « K60 ».
Mais un même Umoyen pour un bâtiment de compacité volumique 5 (immeuble d’appartements) entraîne une valeur « K30 ».
Et si la compacité volumique est de 2, K = (300 x 0,6) / (2 + 2) = 45, soit un bâtiment déclaré « K45 ».

Il est alors possible de comparer ce niveau à celui exigé par la Réglementation :

Calculs

Pour accéder à un petit logiciel de calcul du niveau K simplifié (ancienne norme NBN B 62-301) d’un bâtiment donné.

Remarques

  • Comme ce logiciel vous le montre, à partir du « K », il est possible d’établir un bilan énergétique très simplifié du bâtiment.
  • Un logiciel beaucoup plus complet Le logiciel PEB est accessible


Exemple chiffré

Voici les données de ce bâtiment très simplifié :

Mur extérieur avec 5 cm laine min.
U= 0,55 [W/m²K] .

Toiture avec 6 cm PS.
U= 0,48 [W/m²K].

Plancher avec 3 cm PS.
U= 0,82 [W/m²K] sur terre-plein
U= 0,73 [W/m²K] sur garage.

Porte extérieure : Ud = 3,5 [W/m²K]
Châssis bois + Double Vitrage : Uw = 2,69 [W/m²K].

Calculs

Pour accéder un exemple du logiciel de calcul du K d’un bâtiment.

Choisir le système de régulation de la machine frigorifique

Variateur de vitesse.  (Source : Delhaize).

Critères de choix de la régulation

Dans le cas du froid alimentaire, les critères de choix de la régulation sont :

  • la puissance frigorifique disponible au niveau de l’évaporateur;
  • l’efficacité énergétique du compresseur (consommation électrique, COP).

Il va de soi que les deux critères sont intimement liés. On observe par exemple qu’en maîtrisant la surchauffe à la sortie de l’évaporateur, non seulement la puissance frigorifique augmente (remplissage optimal de l’évaporateur) mais la consommation électrique du compresseur diminue. Globalement, ces deux effets sont cumulatifs et sont mis en évidence par des valeurs d’efficacité énergétique élevées (COP).

La puissance frigorifique de l’évaporateur

La charge frigorifique disponible pour l’application au niveau de l’évaporateur conditionne non seulement le choix :

  • de l’évaporateur en premier;
  • du compresseur, du condenseur et du détendeur et des auxiliaires;

mais aussi, et c’est l’objet de ce chapitre, le choix :

  • des types de régulation;
  • des organes d’entrée des régulateurs comme les capteurs de pression et de température (la pression de condensation à l’entrée du condenseur par exemple);
  • des organes de sortie des régulateurs comme les variateurs de fréquence et les détendeurs asservis(régulation de la vitesse du compresseur par exemple);
  • des superviseurs éventuels.

La régulation de la puissance frigorifique à l’évaporateur, suivant la charge de l’application, est primordiale. En effet, elle conditionne la stabilité de la température au niveau de la zone à refroidir, celle-ci étant impérative pour la conservation des denrées alimentaires.

Consommation énergétique des compresseurs et des auxiliaires

Si pour le même prix, à savoir une puissance frigorifique optimalisée au niveau de l’évaporateur, on peut réduire les consommations électriques du compresseur, des ventilateurs des évaporateurs et des condenseurs, des cycles de dégivrage, … tout le monde est gagnant tant pour le portefeuille du commerçant que pour la planète.

À titre indicatif, un grand constructeur d’élément de régulation annonce des économies d’énergie (essentiellement une réduction des consommations électriques) variant de 20 à 30 % par le choix d’une régulation :

  • de l’ouverture du détendeur électronique donnant une gestion de la surchauffe et, par conséquent du remplissage de l’évaporateur;
  • du débit du compresseur par variation de sa vitesse;
  • du dégivrage de l’évaporateur;
  • de la pression de condensation (régulation en pression flottante);

La répartition des consommations énergétiques moyennes du froid alimentaire dans des supermarchés se répartit comme suit :

répartition des consommations énergétiques moyennes du froid alimentaire

Tous les postes de consommations énergétiques sont importants, d’accord, mais celui des compresseurs doit revêtir une attention toute particulière. En effet, la plupart des choix qui seront effectués sur la régulation des différents équipements de la machine frigorifique influenceront de près ou de loin la consommation électrique du compresseur contribuant à améliorer sa performance énergétique :

Exemple.

L’investissement dans une régulation associée avec un détendeur électronique permet de prédire, selon un fabricant, une réduction des consommations énergétiques du compresseur de l’ordre de 25 % soit 12 % des consommations énergétiques totales du poste froid alimentaire.

réduction des consommations énergétiques du compresseur de l'ordre de 25 %


Les régulations

Le choix de la régulation d’une installation frigorifique doit être considéré :

  • dans un premier temps, au niveau global, c’est la supervision;
  • dans un second temps au cas par cas par rapport aux différents équipements, ce sont les régulateurs dédicacés.

Supervision

La gestion technique centralisée (GTC)

GTC d’un supermarché (source : Delhaize).

Avec la venue de l’électronique, et plus particulièrement de la régulation numérique, tout est pratiquement réalisable au niveau de la régulation du cycle d’une installation de froid alimentaire sachant que les équipements individuels peuvent se trouver souvent à des distances non négligeables.

Pour les installations de froid alimentaire importantes, une gestion globale de tous les points critiques tels qu

  • les températures des différents meubles frigorifiques;
  • les pressions de condensation, d’évaporation, …;
  • les phases de dégivrages,

peut s’avérer très intéressante tant pour le responsable commercial du magasin que pour les responsables techniques et de la maintenance des équipements.

On nomme couramment ce type de superviseur une Gestion Technique Centralisée (GTC) qui est capable à la fois  :

  • d’effectuer des campagnes de mesure de traçabilité, de « benchmarking » (analyse des tendances de consommations énergétiques par exemple);
  • de modifier des paramètres de régulateur individuel (modification de consigne de température de meuble frigorifique, …);
  • La gestion technique centralisée offre les avantages et inconvénients suivants :

(+)

  • une meilleure vue globale de l’installation;
  • gestion des alarmes possible;
  • programmation aisée de la maintenance;
  • maîtrise plus facile du dépannage des installations;
  • benchmarking possible entre différents magasins d’une même chaîne de distribution;

(-)

  • Investissement important. Ne conviens que pour des installations importantes (pour le commerçant de détail, cela semble du luxe);
  • les systèmes de supervision et de régulation sont souvent propriétaires et, par conséquent, la note reste souvent « salée » en cas d’implémentation ou de modification de l’installation;

Schéma d'une installation de supermarché.

Une installation de supermarché est régulièrement configurée de la manière suivante :

  • les meubles frigorifiques sont dans les zones de ventes;
    les compresseurs sont dans un local technique annexe (pas toujours à proximité);
  • les condenseurs sont sur le toit.
    Dans ce cas, une gestion technique centralisée permet de voir globalement comment se comporte l’installation.

Les réseaux

Les réseaux de communication entre le superviseur et les régulateurs locaux sont souvent de types LON. Attention de nouveau que les protocoles de communication entre les différents équipements peuvent être propriétaires.

Régulation individuelle des équipements

Dans le cadre d’une démarche URE (Utilisation Rationnelle de l’Énergie), le choix de régulateurs individuels de qualité s’impose. En conception, il va de soi aussi qu’une régulation qui vise à réduire les consommations énergétiques de l’installation au maximum doit être envisagée globalement. En effet, le choix d’une régulation performante :

  • de la surchauffe ne devrait se concevoir qu’en association avec une variation de débit pour le compresseur (variateur de fréquence contrôlant la vitesse du moteur électrique du compresseur).
  • de pression flottante au niveau du condenseur, en fonction du climat externe, ne devrait aussi se concevoir qu’en association avec un détendeur électronique performant de manière à continuer à alimenter de manière optimale l’évaporateur en fluide frigorigène.

De manière générale, une somme de choix d’équipements adéquats associés à des régulateurs de qualité, permet d’améliorer sensiblement les performances énergétiques de la machine.

À l’heure actuelle, les fabricants de régulation en froid alimentaire offre les possibilités principales de régulation suivantes :

  • Régulation de la surchauffe à la sortie de l’évaporateur permettant le remplissage optimal de l’évaporateur quelle que soit la charge frigorifique de celui-ci.
  • Régulation du débit de réfrigérant en fonction de la demande de l’évaporateur.
  • Régulation de la pression de condensation au niveau du condenseur (pression flottante) dans le but de réduire le travail du compresseur (taux de compression HP/BP optimisé).

Surchauffe

La régulation moderne de la surchauffe se réalise au moyen de régulateur intégrant un algorithme de contrôle de la valeur minimale de surchauffe stable. Afin de garantir la pleine maîtrise de la surchauffe, le régulateur sera associé avec un détendeur électronique.

Schéma régulateur associé a un détendeur électronique.

Un fabricant de régulateurs annonce une réduction de l’ordre de 12 % de la consommation énergétique du compresseur et un temps de retour sur investissement de 1,5 à 2,5 ans. En effet, meilleur sera le remplissage de l’évaporateur moins long sera le temps de fonctionnement du compresseur.

Techniques

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Consigne flottante de basse pression

Le choix d’une consigne flottante de basse pression (ou température flottante à l’évaporateur) permet, outre les nombreux avantages au niveau de la qualité de conservation des denrées alimentaires, de réduire les consommations énergétiques par la simple augmentation de la consigne de température d’évaporation en période creuse des zones de vente. On sait que l’augmentation de la température d’évaporation conditionne le travail du compresseur. On estime, en général, qu’une augmentation de la consigne de température d’évaporation de 1 K réduit la consommation énergétique du compresseur de l’ordre de 2 à 3 %.

On est souvent amené à choisir ce genre de régulateur au même moment que le choix de l’équipement à placer dans les zones de vente comme les meubles frigorifiques, les chambres froides, …

Il existe sur le marché un grand choix de modules de régulation permettant par exemple de combiner les fonctions :

  • de régulation de température par commande des ventilateurs de l’évaporateur;
  • de dégivrage;
  • de monitoring de température;
  • de commande directe de compresseur dans les installations simples;
  • d’alarme température haute;

N’hésitez donc pas à bien négocier la qualité de votre régulateur au même moment que le choix des meubles et/ou chambres frigorifiques.

Débit du fluide frigorigène

Auparavant, la variation du débit du fluide frigorigène, et par conséquent l’adaptation de la puissance de la machine frigorifique à la charge nécessaire à l’évaporateur, était obtenue, par exemple, en enclenchant en « tout ou rien » une cascade de compresseurs en fonction de la pression d’aspiration Pa à l’entrée de la centrale.

Régulation en cascade de plusieurs compresseurs.

La mission était plus délicate encore pour un compresseur seul. Les moyens de régulation du débit frigorigène étaient limités et parfois très gourmands en énergie pour le compresseur (injection des gaz chauds par exemple).

La venue des variateurs de vitesse et surtout ces derniers temps la maîtrise des perturbations qu’ils engendraient auparavant au niveau des harmoniques, a permis de les adapter au compresseurs :

Régulation par variation de fréquence de la vitesse du compresseur.

Sur base d’une mesure en continu fiable de la pression d’aspiration (Pa) du compresseur, la  régulation par variation de fréquence du moteur d’entrainement du compresseur permet d’adapter le débit de fluide réfrigérant en fonction de la demande de l’évaporateur (le compresseur se comporte comme une pompe volumétrique).

Les principaux avantages et inconvénients du choix de ce type de régulation sont :

(+)

  • le COP est optimisé en permanence;
  • la pression d’aspiration est plus stable;
  • le compresseur peut être dimensionné plus petit;
  • les courants de démarrage sont plus faibles;
  • la durée de vie du compresseur est prolongée de par la diminution du nombre des démarrages/arrêts;

(-)

  • l’investissement est plus important;
  • il faut maîtriser les problèmes d’harmoniques;

De manière générale, l’évaluation des temps de retour simple sur investissement est, à l’heure actuelle, assez difficile à objectiver, car, des installations équipées de ce genre de régulation :

  • peu sont réellement monitorées (une fois l’installation terminée, il n’y a pas de réel contrat de maintenance ou de « benchmarking »);
  • si elles le sont, le temps de monitoring est souvent court.

Il est donc difficile de valider les temps de retour annoncé par les fabricants. L’équipe d’Energie+ serait tout à fait ravie de pouvoir disposer d’études de cas pertinentes.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Pression de condensation flottante

Schéma pression de condensation flottante.

La régulation de la pression de condensation en fonction des conditions climatiques externes est de loin celle qui permet de réduire fortement les consommations énergétiques du compresseur. En effet, tout comme l’augmentation de la basse pression à l’évaporateur améliore les performances du compresseur (une augmentation de température de 1 K réduit les consommations du compresseur de + 3 %), la diminution de la pression de condensation réduit aussi de + 3 % les mêmes consommations. Cependant, autant la réduction de la pression d’évaporation est limitée de par la température de l’application à respecter, autant la pression de condensation pourrait être abaissée au plus bas essayant de « coller » au maximum à la température extérieure pour un condenseur à air par exemple.

Schéma sur la diminution de la pression de condensation.

La diminution de la pression de condensation augmente l’efficacité du compresseur et de l’évaporateur.

S’il n’y avait pas de limite mécanique, par exemple la nécessité de maintenir une certaine pression haute sur le détendeur afin qu’il fonctionne correctement, on pourrait envisager des pressions de condensation proche de celles d’évaporation. La limite basse actuelle de pression de condensation est souvent fixée à 20 °C.

Vu que la plupart du temps la température externe, sous nos latitudes, est comprise entre 5 et 15°C, le pouvoir rafraichissant de l’air doit être utilisé au maximum. C’est pour cette raison qu’il est important de choisir une régulation de la pression de condensation flottante. Elle permet donc l’abaissement de la pression de condensation par la régulation du débit d’air externe (variation de la vitesse des ventilateurs des condenseurs).

graffique sur la régulation de la pression de condensation flottante.

On y arrive grâce à des régulateurs qui prennent en compte en permanence la température d’entrée d’air (dans le cas d’un condenseur à air) et la pression de condensation et l’introduise dans un algorithme de régulation de la vitesse du ventilateur d’air afin moduler son débit.

La régulation flottante de la pression (ou température) de condensation chez certains fabricants est réalisée en prenant en compte :

  • la température de l’air entrant dans le condenseur (= température externe) tair;
  • la pression de condensation (température de condensation) pc;
  • une information de la puissance frigorifique du compresseur est nécessaire Pf. Elle peut être obtenue lorsque que le compresseur est lui-même équipé d’un régulateur.

L’algorithme du régulateur recalcule la pression de condensation adéquate en fonction des différents paramètres d’entrée (pc, tair, Pf). La figure ci-dessus donne un exemple de loi de régulation imaginée par un constructeur spécialisé dans le domaine.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Rendement des appareils de cuisson

Rendement des appareils de cuisson

De l’énergie totale nécessaire à la cuisson des aliments, seule une part parvient finalement sur la table. L’autre part est utilisée au chauffage et au maintien en température des appareils pendant la cuisson. Le rapport entre l’énergie absorbée par la charge et l’énergie totale consommée est désigné par rendement. Ce dernier dépend du genre de procédé de cuisson, du mode de transmission de la chaleur, de la température utile, de la pression, de l’humidité et de la quantité de charge traitée.

Pour les procédés de cuisson et étuvage à la vapeur, il peut atteindre approximativement 90 %. Alors que pour les procédés de rôtissage ou de cuisson au four, il est considérablement inférieur.

L’énergie non transmise à la charge est désignée par énergie perdue. Elle réchauffe le local, fuit à l’extérieur ou dans les locaux adjacents plus froids au travers des parois, fenêtres, installations de ventilation ou s’écoule à la canalisation avec l’eau de cuisson inutilisée. L’énergie perdue contribue au réchauffement de la cuisine, donc à la détérioration du climat ambiant.

L’installation de ventilation et les machines frigorifiques sont mises à rude contribution pour en assurer l’équilibre.

Pour des charges nominales, on peut caractériser chaque appareil de cuisson par son rendement.

Il peut s’exprimer par :

h = P2 / P1

Où :

  • P1 : puissance absorbée (W),
  • P2 : puissance utile (W).
Rendement approximatif des appareils de cuisson les plus courants

Fourneau électrique :

plaque en fonte : 60 %
plaque vitrocéramique : 75 %
plaque à induction : 90 %

Fourneau à gaz :

feu ouvert : 58 %
plaque de mijotage : 60 %
plaque vitrocéramique : 75 %

Sauteuse :

électrique : 30 %
à gaz : 25 %

Grill :

électrique : 20 %
à gaz : 15 %

Salamandre :

électrique : 20 %
à gaz : 15 %

Marmite :

électrique : 50 %
à gaz : 50 %

Four à air pulsé :

électrique : 80 %
à gaz : 70 %

Four statique :

électrique : 45 %
à gaz : 40 %
Cuiseur à la vapeur électrique : 80 %

Bain-marie :

électrique : 50 %
à gaz : 45 %

Friteuse :

électrique : 50 %
à gaz : 45 %

Pour un même type d’appareil, le rendement dépend principalement des facteurs suivants :

  • l’inertie de l’élément chauffant
  • la qualité d’isolation pour les enceintes fermées
  • l’efficacité des dispositifs de réglage.

Table de correspondance température/pression pour quelques fluides frigorigènes

Table de correspondance température/pression pour quelques fluides frigorigènes


Température Pression relative [bar]

[°C]

R22 R134A

R407c

-20 1,43 0,31 1,79
-18 1,62 0,43 2,02
-16 1,83 0,56 2,25
-14 2,05 0,69 2,50
-12 2,28 0,84 2,77
-10 2,52 0,99 3,05
-8 2,78 1,15 3,34
-6 3,05 1,33 3,65
-4 3,33 1,51 3,98
-2 3,63 1,71 4,32
0 3,95 1,91 4,68
2 4,28 2,13 5,06
4 4,63 2,36 5,46
6 5,00 2,60 5,88
8 5,38 2,85 6,31
10 5,78 3,12 6,77
12 6,20 3,40 7,25
14 6,64 3,70 7,75
16 7,10 4,01 8,27
18 7,58 4,34 8,81
20 8,08 4,68 9,38
25 9,42 5,61 10,91
30 10,91 6,66 12,60
35 12,55 7,82 14,46
40 14,35 9,11 16,50
45 16,33 10,53 18,75
50 18,49 12,10 21,20
55 20,84 13,83 23,87
60 23,40 15,73 26,78
65 26,17 17,80 29,94

Ces valeurs ont été calculées à partir de petits programmes accessibles gratuitement sur le site fridgetech.com.

 

Traiter les bois attaqués par les champignons

Traiter les bois attaqués par les champignons


Travaux à réaliser sur les bois attaqués

Le traitement curatif et préventif du bois comprend les opérations suivantes

Le bois doit d’abord être dégagé pour le rendre accessible et contrôlable.

Les fructifications du champignon sont éliminées.

Tous les bois sont ensuite contrôlés. Les pièces n’offrant plus de résistance mécanique suffisante sont éliminées et remplacées.

Les éléments conservés sont soigneusement nettoyés à la brosse métallique.

Toutes les pièces de section supérieure à 64 cm², sont traitées en forant des trous espacés de 30 cm et en y injectant sous pression un produit fongicide non délavable. Ce traitement est appliqué jusqu’à 1 m au-delà de la zone visible de l’attaque.

Tous les bois sont ensuite aspergés sous pression, d’un produit fongicide non délavable, ayant des propriétés curatives et préventives, tant fongicide qu’insecticide.

On veille lors des forages à affaiblir le moins possible les pièces et on vérifie si leur stabilité reste assurée.

Finalement, les trous de forage sont bouchés à l’aide de chevilles traitées.

Attention !
Même si aucune attaque ne s’est déjà produite, lors de la mise à nu du bois pour une transformation, ou lorsque des travaux, liés par exemple à une amélioration de l’isolation, vont cacher des ouvrages en bois, il faut impérativement en profiter pour le traiter de façon préventive.

Travaux à réaliser sur les maçonneries

Le traitement curatif et préventif des maçonneries comprend les opérations suivantes.

Le plafonnage est éliminé en dépassant la zone attaquée d’au moins 50 cm.

Toutes les surfaces infectées sont nettoyées soigneusement à la brosse métallique.

Les surfaces sont ensuite brûlées au chalumeau.

Des trous sont forés dans le mur tous les 20 cm en découpant la zone attaquée en carrés de +/- 60 cm de côtés.

Les trous de forage sont remplis au moyen d’un fongicide puissant.

Toutes les surfaces traitées sont finalement aspergées.


Bois de remplacement

Tous les bois de remplacement seront traités dans une station agréée, travaillant sous contrôle permanent de l’UBAtc.

Un certificat officiel, établi suivant le modèle UBAtc, mentionnera :

  • le relevé des pièces traitées,
  • le mode opératoire utilisé,
  • le nom du produit de traitement, homologué par l’Association Belge pour la protection du bois.

Pare-vapeur

Pare-vapeur


Généralités

Toutes les matières sont plus ou moins perméables à la vapeur.

Sous l’influence de la différence de pression de vapeur d’eau des deux côtés d’une paroi, la vapeur a tendance à vouloir migrer par diffusion à travers celle-ci.

Pour éviter les phénomènes de condensation interne, il est parfois nécessaire de placer du côté chaud de l’isolant d’une paroi, une couche de matériau relativement étanche à la vapeur d’eau.

Cette couche de matériau est appelée « écran pare-vapeur ».

Le pare-vapeur remplit les fonctions suivantes :

  • Éviter une condensation excessive.
  • Empêcher, dans l’isolant thermique, l’absorption d’eau par capillarité en provenance des éléments de construction contigus.
  • Assurer l’étanchéité provisoire à l’eau de pluie lors de la construction.
  • Assurer l’étanchéité à l’air.

Selon les exigences :

Classe Résistance à la diffusion de vapeur Exemples de matériaux utilisables comme pare-vapeur
E1 2 m < µd < 5 m Papier bitumé
Film en PE 0,2 mm
Papier de tapisserie plastifié
Peinture à l’huile
Peinture au caoutchouc chloré
E2 5 m < µd < 25 m Carton-plâtre recouvert d’une feuille d’aluminium
Film de PE 0,2 mm et laminé d’aluminium
Voile de polyester bitumineux P150/16
Voile de verre bitumineux V50/16
Membrane en PVC épaisseur > 1 mm
E3 25 m < µd < 200 m Bitume armé P3 ou P4 ou V3 ou V4
Bitume polymère APP ou SBS
Film PIB
E4 200 m < µd Bitumes armés avec film métallique (alu 3)
Système bitumineux multicouche ( ³ 8 mm)

Pare-vapeur, freine vapeur ou membranes intelligentes ?

Le risque principal de condensation est lié à la diffusion de vapeur en hiver, ou quand la pression de vapeur est plus importante à l’intérieur qu’à l’extérieur et que la vapeur a donc tendance à traverser la paroi de l’intérieur vers l’extérieur.

Les modèles d’évaluation statiques (comme celui de Glaser) entraînent presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur.

Néanmoins, essayer d’éviter le risque principal de condensations internes par diffusion en choisissant une membrane totalement étanche à la vapeur peut engendrer un risque secondaire à cause de la difficulté qu’a le mur pour sécher du côté intérieur

Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant.

On parle alors de « freine-vapeur ». La valeur μd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par exemple 50 ou même 100 m) alors que la valeur μd des freine-vapeur ne sera que de quelques mètres seulement (par exemple 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

Les membranes intelligentes

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré sur l’illustration ci-contre. Dès lors, elles freinent le passage de la vapeur quand l’air intérieur est plus sec (généralement en hiver), et permettent le séchage du mur, lorsque l’humidité relative intérieure est plus élevée (généralement en été ou au printemps).

Principe de fonctionnement d’une membrane intelligente.

Source : Proclima.

Plusieurs types de membranes intelligentes existent avec une valeur  μd moyenne allant de quelques mètres à une dizaine de mètres. Remarquons que ces changements de μd ne sont pas instantanés et que le choix de la membrane doit d’abord se faire sur base de l’ambiance globale du local pour éviter le risque principal de condensations internes par diffusion. On pense ici au cas des salles d’eau qui sont le lieu des charges d’humidité élevées, mais ponctuelles dans temps.


Le placement

Le pare-vapeur doit être placé de manière continue et avec des joints étanches.

Les films seront posés autant que possible sans joint. Les joints inévitables et les jonctions avec d’autres éléments de construction sont à réaliser par collage ou soudage avec recouvrement, de manière à assurer la continuité du pare-vapeur.

La classe E4 exige une mise en œuvre sur support continu.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air (et des pertes de chaleur associées) et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Attention !
Un matériau pare-vapeur placé à un mauvais endroit peut fortement perturber le comportement hygrothermique de la toiture (entre autres augmenter les condensations internes ou empêcher l’élimination de l’humidité de construction).

Source : certains passages de cette feuille sont extraits du guide Isolation thermique par l’intérieur des murs existants en briques pleines réalisé par Arnaud Evrard, Aline Branders et André De Herde (Architecture et Climat-2010) dans le cadre de la recherche ISOLIN, financée par le département Énergie et Bâtiment durable du Service Public de Wallonie. Disponible sur le site : energie.wallonie.be

 

Négocier le meilleur tarif

Négocier le meilleur tarif


Les trois étapes de la recherche d’un éventuel nouveau fournisseur

Une négociation avec un fournisseur d’électricité passera nécessairement par trois étapes: une phase de préparation, la négociation proprement dite et le suivi du contrat souscrit.

Étape 1 – La phase de préparation

Il s’agit de rassembler et de compiler l’ensemble des éléments constitutifs du cahier des charges. La précision des informations fournies permettra aux fournisseurs consultés de cerner au mieux les activités de votre institution, le produit recherché et votre profil de consommation. Ce cahier des charges comportera essentiellement deux parties.

Un volet administratif reprenant

  • une description des activités de l’institution,
  • les contraintes d’exploitation,
  • les caractéristiques du point de prélèvement au réseau,
  • la procédure et les critères d’attribution du marché
  • et le produit recherché (durée du contrat, niveau de service souhaité, garanties, possibilité de révision des prix, modalités de paiement,…).

On y adjoindra un volet technique qui présentera le fonctionnement de l’institution à travers le profil de ses consommations et la structure de sa consommation, par exemple l’historique des consommations des trois dernières années. Plus ces éléments seront précis et détaillés, mieux le fournisseur pourra prévoir vos consommations et plus il sera en mesure de vous proposer un prix intéressant.

Comme votre fournisseur achète l’électricité qu’il vous délivre auprès d’un producteur, ces éléments aideront ce dernier à connaître la puissance à injecter sur le réseau, afin de satisfaire la demande et donc à affiner son prix.

Le fournisseur s’efforcera dès lors de signaler au producteur la courbe de charge jour par jour pour l’ensemble de ses clients. Tout en sachant qu’en cas de non-concordance, une pénalité lui sera imposée… qu’il répercutera sur le prix du kWh chez le client dont les prévisions de consommation se seront avérées incorrectes.

Par exemple : vous commandez un certain nombre de kWh à un prix donné. Une canicule apparaît. La consommation de vos machines frigorifiques dépasse vos prévisions. Vous pourrez obtenir des kWh supplémentaires … mais à un prix très élevé parce que votre fournisseur l’achètera lui-même au prix fort auprès du producteur !

Si vous ne disposez pas de telles mesures, vous pouvez éventuellement reconstituer schématiquement votre profil de consommation sur base des factures mensuelles (idéalement des trois dernières années), de vos pointes de puissance et consommations électriques en heures creuses et pleines.

Si vous disposez d’un compteur électronique, votre GRD doit vous fournir sur demande le profil de charge que vous lui demanderiez. En principe, les 80 derniers jours sont mémorisés dans l’historique.

Voici 3 profils de consommation bien différents :

Mais une analyse de charge plus rigoureuse et détaillée peut vous permettre de mieux comprendre la source de votre consommation.

Un technicien spécialisé peut venir enregistrer le profil de demande électrique sur les principaux départs de votre bâtiment (cafétéria, buanderie, machine frigorifique, etc…) au moyen de pinces ampèremétriques placées autour des principaux câbles. Vous découvrirez l’origine de vos pointes de puissance et pourrez peut-être envisager un délestage de certains consommateurs (ne pas faire fonctionner simultanément lave-vaisselle et friteuse) ou même un report vers les périodes creuses (le chauffage du ballon d’eau chaude sanitaire, par exemple). Il vous en coûtera de 1000 à 2000 Euros, montant partiellement subsidié par des primes régionales. Certains fournisseurs, dans le cadre une démarche commerciale, peuvent financer le complément.

Il est parfois utile de consulter l’ensemble des fournisseurs lors de l’appel d’offre pour envisager toutes les possibilités : ainsi, si votre pointe ¼ horaire se fait en Heures Creuses (c’est rare !), il existe des fournisseurs qui n’en tiennent pas compte et facturent la pointe ¼ horaire de jour uniquement.

Étape 2 – La phase de négociation

Reste à analyser et à comparer les offres des différents fournisseurs d’électricité. Cette comparaison peut se révéler délicate et difficile dans la mesure où chaque fournisseur a sa propre structure de tarification.

D’une manière générale, il faudra notamment être attentif aux conditions générales de vente, aux différentes surcharges applicables, à des redevances fixes éventuelles, à la nature de l’énergie fournie (p.ex. de l’électricité verte), à la formule de révision des prix, …

Le prix peut être décomposé ou non en postes constitutifs :

  • 3 composants : un prix pour la pointe de puissance en kW, un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses.
  • 2 composants : un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses, ces deux valeurs incluant la pointe.
  • 1 composant : formule « all-in », un prix pour les kWh, tout compris.

A priori, le tarif le moins cher sera celui à 3 composants, puisque le moins risqué pour le fournisseur.

Les deux autres, qui vous permettent de ne pas vous soucier du profil de votre charge, comprennent donc un risque que le fournisseur va anticiper. D’ailleurs, il mettra généralement des valeurs minimales et maximales à sa proposition, ce que l’on appelle des valeurs « tunnel ». Par exemple, s’il s’agit d’un prix « all-in », il sera basé sur une répartition forfaitaire entre kWh HP et kWh HC (du type 55 % – 45 %). Si la réalité s’écarte de cette estimation, le prix peut être modifié…

Vous devrez choisir entre des prix avec ou sans révision mensuelle. A nouveau, votre sécurité (vous avez fixé le prix du kWh durant 2 ans) … se traduira par une augmentation initiale du prix, pour couvrir le risque d’inflation. Un parallèle avec la logique d’intérêt fixe ou indexé des prêts hypothécaires peut avoir lieu ici.

Enfin, certains fournisseurs proposeront des services associés, tels que :

  • des courbes mensuelles de consommation,
  • la détection d’anomalies éventuelles de fonctionnement,
  • voire même la réalisation d’un audit de vos consommations électriques en vue de leur rationalisation.
Exemple d’une difficulté d’appréciation.

Il est difficile de comparer entre le prix « fixe » proposé par un fournisseur et un prix variable fixé par un autre. En effet, le prix variable sera indexé en fonction de 2 indices : les paramètres Nc et Ne publiés par le Ministère des Affaires Économiques. Or Nc est l’indice des coûts de combustible. Celui-ci fluctue, avec retard, en fonction du prix du baril de pétrole mondial. Qui peut en évaluer le coût dans 12 mois ??? Il est donc impossible de comparer mathématiquement des offres indexées et non indexées : on peut juste faire des hypothèses d’évolution raisonnable…

 Le fournisseur qui veut comparer son prix fixe au prix variable de son concurrent aura tendance à augmenter, peut être plus que de nécessaire, la valeur du paramètre Nc et mettre son prix ainsi en évidence…

Trucs et ficelles des « acheteurs »

  • On n’est jamais aussi fort que lorsque l’on change de fournisseur… puis qu’on fait mine de pouvoir revenir … sous de meilleures conditions ! A égalité d’offre de prix entre 2 fournisseurs, il est donc parfois préférable de changer… pour être plus fort dans un an ou deux, lors de la nouvelle négociation.
  • Il est aujourd’hui possible d’additionner les consommations de plusieurs sites financées par la même source et de négocier un prix « de gros » pour ces différents sites. Voire de s’associer avec d’autres entités similaires pour constituer un poids plus important (association de communes, d’établissements scolaires, …). Face à la concentration des producteurs, pourquoi pas une concentration des clients ?
  • Demander un prix global tout postes compris, sur base de la demande des 12 derniers mois.
  • Si le profil est régulier, les marges d’écart entre fournisseurs seront faibles. Celui qui avait un tarif « Binôme A Éclairage » aura plus intérêt à réévaluer son tarif que celui qui était en « Binôme A Force Motrice ».

Les pièges à éviter

  • Les amateurs du « All-in » se disent sans doute qu’ils seront ainsi à l’abri de toute dérive impromptue de leur pointe de puissance… Pas si sûr ! Attention aux valeurs tunnels qui sont peut-être écrites dans le contrat… Attention également à la valeur du kW ¼ horaire annuel (= kWa) pris en compte par le GRD dans sa formule tarifaire. Et ce poste kWa est fort élevé dans le bilan final.
  • Suivant les fournisseurs, le prix proposé est « tout compris » ou « coût des certificats verts » non compris (composante encore appelée « contribution Énergie Renouvelable ») …
  • Attention aux « obligations de consommer » : il est possible qu’il soit prévu dans les clauses du contrat de payer au minimum les ¾ de la consommation prévue, qu’elle soit consommée ou non !
  • Attention à l’existence ou non de « prix plafond » dans la formule tarifaire : certains fournisseurs additionnent le coût des kW et des kWh HP, qu’ils divisent par le nombre de kWh HP. Si ce montant est trop élevé (parce que la pointe ¼ horaire est vraiment très forte), ils rabotent leur prix. D’autres ne le font pas… Les écoles avec réfectoire sont souvent dans ce cas : peu de consommation en journée et une pointe élevée pour les frites de midi !

Étape 3 – Le suivi du contrat

Le contrat signé, il vous faudra chaque mois vérifier l’exactitude de la facturation. Dans le cadre du marché libéralisé, les durées des contrats de fourniture sont de l’ordre de une à deux années maximum. Il s’agira donc de renouveler l’appel d’offres en actualisant le cahier des charges, en fonction de l’évolution du marché et du fonctionnement de votre institution.

Fini donc le contrat de fourniture qui s’empoussière au fond d’un tiroir: l’électricité devient un bien de consommation comme un autre, soumis à la volatilité du marché. Plus question de se fier à un simple contrôle des tarifs. La libéralisation ouvre la porte à de nouvelles opportunités économiques, mais pour en faire votre profit, une nouvelle vigilance s’impose, ainsi qu’un brin de créativité.

En Allemagne et en France où le marché de l’électricité est déjà libéralisé depuis quelques années, on assiste ainsi à des regroupements de petits consommateurs pour former des cercles d’achat. Histoire de négocier aussi sur un plus grand volume de consommation et de mutualiser les services d’un consultant.

En principe, environ 2 mois avant la fin du contrat, votre fournisseur vous fait une nouvelle proposition pour l’année ou les 2 ans à venir…


Comment changer de fournisseur ?

Chaque fois qu’un contrat est conclu avec un nouveau fournisseur, c’est celui-ci qui est chargé d’informer le gestionnaire de réseau qui informera à son tour le fournisseur précédent de la signature du contrat.

Votre changement de fournisseur deviendra effectif après la période de préavis applicable.

Il semble cependant correct d’avertir également vous-mêmes par recommandé la non-reconduction du contrat avec votre ancien fournisseur.


Des primes pour analyser le profil de charge

Il existe des primes et subsides de la Région Wallonne pour la réalisation d’une analyse du profil de vos consommations électriques ainsi que pour la mise en place d’une comptabilité énergétique.


Faire appel aux « pros » de la négociation ?

La transition vers le marché libéralisé n’est pas une mince affaire: volatilité des prix, multitude de fournisseurs, rédaction de cahier des charges, appels d’offres, contraintes contractuelles, nombreuses variables influençant le prix, suivi du marché, …

Faute de temps, de moyen et/ou de compétence en interne pour aborder et affronter la préparation et la négociation de votre premier contrat d’approvisionnement, la meilleure solution pourrait consister à confier une partie ou la totalité des démarches à des professionnels. Certains bureaux d’études se sont spécialisés dans la consultance en négociation de contrat de fourniture d’électricité.

Ces consultants peuvent à la carte vous aider dans la rédaction de votre cahier des charges, donc définir précisément vos besoins, vous assister pour comparer les offres et vous orienter vers le fournisseur répondant au mieux à vos besoins et contraintes, ainsi que vous tenir informé sur l’évolution du marché.

On considère actuellement qu’un consommateur d’1 GWh ( = 1.000.000 de kWh) gagne à faire appel à un consultant. Son coût sera probablement bien remboursé par l’économie qu’il vous procurera. Mais vous n’êtes pas obligé de lui confier “tout le paquet”. Une intervention ponctuelle sur l’une ou l’autre étape peut être suffisante. Et rien ne vous empêche d’agglomérer les consommations de l’ensemble de vos bâtiments dans le cadre d’un seul appel d’offres.

Il peut être également intéressant de confier simultanément la mission de suivi énergétique et de négociation des tarifs à un consultant extérieur. Il vous informera de toute dérive de vos consommations et sera très au courant de votre profil de consommateur lors de la négociation.

Pour plus d’informations sur ce sujet, contactez le facilitateur tertiaire de la Région Wallonne.


Acheter de l’électricité verte ?

Par le système mis en place, tout consommateur achète donc de l’électricité « verte« , intégrée pour quelques pour cents dans le courant distribué. Mais il lui est aussi possible d’acheter directement son électricité à un fournisseur d’électricité verte, c.-à-d. à un fournisseur qui s’est engagé à ce que au minimum 50,1 % de son électricité soit verte (en pratique, ce ratio est proche des 100 %). C’est la meilleure manière de soutenir le développement de ces techniques propres.

Check-list pour une installation [Chauffage à eau chaude URE]

Voici un résumé des points essentiels qui garantissent une installation de chauffage énergétiquement efficace et confortable.

On sera attentif à 4 aspects du projet :

Paramètres de dimensionnement

Exigences

Pour en savoir plus

La puissance utile des chaudières doit être calculée se base des prescriptions de la norme NBN B62-003 en tenant compte de la température de base de la région correspondante.

Concevoir

Dans les installations équipées de radiateurs, la puissance électrique d’un circulateur en [W] doit être proche de la puissance thermique du réseau qu’il alimente Pth en [kW].

Concevoir 

Dans le cas d’une installation fonctionnant au gaz, les radiateurs doivent au minimum être dimensionnés en régime 80°/60° (ou mieux encore en régime 70°/50°) pour pouvoir optimaliser le fonctionnement des chaudières à condensation.

Concevoir 

Dans le cas d’une installation fonctionnant au fuel, les radiateurs sont dimensionnés en régime inférieur ou égal à 80°/60° pour bénéficier d’une certaine surpuissance à la relance.

Concevoir 


Choix de matériel

Exigences

Pour en savoir plus

Si le gaz naturel est disponible, la chaudière est une chaudière à condensation, de préférence ne demandant pas de débit minimal et équipée d’un brûleur modulant (10 .. 100 %).

Concevoir

Pour les grosses puissances, la chaudière à condensation peut être couplée à une chaudière traditionnelle très basse température.

Concevoir 

Si le gaz naturel n’est pas disponible, la chaudière est une chaudière fuel traditionnelle très basse température équipée d’un brûleur Low NOx.

Concevoir 

Au-delà d’une puissance de 150 kW, le brûleur des chaudières traditionnelles sera à deux allures vraies régulées en cascade.

Concevoir 

Les brûleurs fuel doivent être équipés d’origine d’un compteur de combustible.

Concevoir 

Les chaudières à condensation sont raccordées à un circuit hydraulique favorisant les retours à température la plus froide possible et approuvé par le fabricant de la chaudière.

Concevoir 

Dans le cas de chaudières ne demandant pas de débit minimal et pouvant travailler à très basse température, le collecteur primaire est un collecteur ouvert sans pompe primaire.

Concevoir 

Les circuits de distribution secondaires correspondent à des zones d’activités homogènes et disposent de leur régulation propre.

Concevoir 

Les conduites parcourant des locaux non chauffés sont isolées avec une épaisseur d’isolant fonction de leur diamètre.

Concevoir 

Les vannes et brides disposées dans des locaux non chauffés sont isolées au moyen de coquilles isolantes amovibles.

Concevoir 

Les circulateurs sont à vitesse variable et leur débit maximal est ajusté aux besoins réels.

>Concevoir 

La courbe caractéristique maximale d’un circulateur doit se trouver juste en dessous du point de fonctionnement théorique calculé du circuit correspondant.

Concevoir 

Chaque circuit secondaire est équipé d’un organe d’équilibrage (correctement dimensionné) permettant une répartition correcte du débit dans l’installation.

Concevoir 

Un chauffage par le sol ne peut être installé dans des locaux à occupation variable, à forte occupation ou fortement ensoleillé.

Concevoir 

Le chauffage par le sol est à déconseillé au dessus du sol ou de caves non chauffées.

Concevoir 

Des radiateurs ne peuvent être installés devant des vitrages.

Concevoir 

Des corps de chauffe de types différents ne peuvent être raccordés sur un même circuit de distribution avec un réglage de la température d’eau unique.

Concevoir 


Régulation

Exigence

Pour en savoir plus

Les chaudières multiples sont régulées en cascade par action sur le brûleur, leur vanne d’isolement et leur circulateur éventuel.

Concevoir

Chaque zone d’occupation et de besoin homogènes dispose de son propre circuit de distribution dont la température d’eau est régulée en fonction d’un thermostat d’ambiance ou d’une sonde extérieure.

Concevoir 

La température des chaudières suit au plus près la température des circuits secondaires de distribution (sauf si la chaudière ne peut descendre en température, si une production instantanée d’eau chaude sanitaire est combinée à la chaudière ou si le collecteur primaire est un collecteur bouclé).

Concevoir 

L’intermittence est gérée par un optimiseur qui assure une coupure complète des circuits de distribution et éventuellement des chaudières et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures.

Concevoir 

Chaque circuit dispose un thermostat d’ambiance qui permet de gérer la température d’inoccupation et éventuellement d’ajuster le réglage de la courbe de chauffe dans le cas d’une régulation en fonction de la température extérieure.

Concevoir 

Si nécessaire, le régulateur doit comprendre une possibilité de dérogation au régime de ralenti avec retour au mode automatique sans intervention manuelle.

Concevoir 

Les locaux profitant d’apports de chaleur plus importants que les autres sont équipés d’une régulation locale (par exemple, pour les radiateurs, des vannes thermostatiques, « institutionnelles » dans les lieux publics).

Concevoir 

Dans les installations de taille importante, les régulateurs sont de type digital, communiquant, de manière à pouvoir être raccordés sur une centrale de gestion centralisée.

Concevoir 

Les équipements de régulation doivent être accompagnés d’un mode d’emploi clair (plus clair que le simple mode d’emploi des régulateurs), comprenant l’explication du principe de régulation et de l’utilisation des équipements.

Concevoir 

La régulation doit mettre à l’arrêt les circulateurs en absence de besoin de chauffage (en fonction de la fermeture des vannes et en fonction de la température extérieure).

Concevoir 


Chaufferie

Exigence

Pour en savoir plus

La section de la cheminée doit être adaptée à la puissance et au type de chaudière installée.

Concevoir

La cheminée doit être équipée d’un régulateur de tirage.

Concevoir 

La cheminée raccordée à une chaudière à condensation doit être étanche à l’humidité et résister à la corrosion.

Concevoir 

La chaufferie doit être équipée d’une ventilation haute et d’une ventilation basse, respectant la norme NBN B61-001.

Concevoir 

Évaluer la rentabilité d’une rénovation [ventilation]

Évaluer la rentabilité d'une rénovation


Rentabilité du confort

Il est difficile de calculer la rentabilité d’un investissement ayant pour but de rétablir le confort des occupants. On sait cependant que confort et productivité sont liés. Si on ne regarde que l’aspect financier du confort, on peut « se risquer » au calcul suivant

  • Un service administratif est occupé par 60 personnes.
  • On estime que la mauvaise qualité de l’air entraîne, par jour, une perte de « productivité » équivalente à 5 minutes.
  • Un employé administratif coûte en moyenne 25 €/h.
  • L’inconfort coûte donc annuellement : 60 [pers] x 220 [jours/an] x 5/60 [h/jour] x 25 [€/h] = 27 500 [€/an].
  • Si on se fixe un temps de retour de 5 ans, on peut se permettre un investissement de 137 500 € pour solutionner l’inconfort.

Évaluation de la rénovation d’une installation de ventilation existante

Exemple.

Considérons un bureau paysager de 250 m². Ce bureau est ventilé 10 h par jour, 250 jours/an par un système double flux (pulsion et extraction mécanique).

Le débit d’air neuf recommandé du local est de 2,5 m³/h.m², soit 625 m³/h.

La consommation d’énergie nécessaire au chauffage de cet air durant la saison de chauffe (du 15 septembre au 15 mai) est estimée à :

0,34 [Wh/m³.K] x 625 [m³/h] x (20[°C] – 8[°C]) x 1 700 [h/an] / 0,7 = 6 193 [kWh/an]

  • 20[°C] = température de consigne intérieure.
  • 8[°C] = température extérieure moyenne diurne durant la saison de chauffe (Uccle).
  • 1 700 [h/an] = durée de fonctionnement de la ventilation durant la saison de chauffe.

La consommation électrique des ventilateurs dépend du rendement global du système « moteur, transmission, ventilateur » et des pertes de charge du circuit de distribution de l’air (pulsion et extraction). Celles-ci varient en fonction de la configuration du réseau. Prenons dans un premier temps une valeur moyenne couramment rencontrée de 1 500 Pa (1 000 Pa pour la pulsion et 500 Pa pour l’extraction).

La consommation énergétique des ventilateurs est de :

0,174 [m³/s] x 1500 [Pa]  x 2500 [h/an] / 0,65 =  1 004 [kWh/an]

  • 0.174 m³/s] = 625 [m³/h].
  • 0,65 = rendement global des systèmes « moteur, transmission, ventilateur ».
  • 2 500 [h/an] = durée de fonctionnement annuelle des ventilateurs.
Récapitulatif
Chauffage de l’air Transport de l’air
Consommation annuelle. 6 193 kWh/an 1 004 kWh/an
% consommation totale. 86 % 14 %
Coût de l’énergie. 0,0622 €/kWh 0,16 €/kWh
Coût annuel. 385,20 €/an 160,64 €/an
% coût total. 71 % 29 %

Par rapport à cette situation, qu’apporteraient certaines améliorations ?

Diminution de la consommation Diminution du coût
Diminution du débit de ventilation de 10 %. 12 % * 16 %
Amélioration du rendement du système de ventilation de 10 %. 2 % 5 %
Réduction du temps de fonctionnement de 10 %. 10 % 10 %

*Lorsque le débit diminue dans le réseau de distribution, les pertes de charge diminuent comme le carré de celui-ci (règles de similitude).

Ces calculs rapides peuvent être affinés puisqu’ils ne tiennent pas compte du fait qu’une partie de la consommation du ventilateur de pulsion est souvent récupérée sous forme de chaleur dans l’air neuf.

Vous pouvez adapter ces données à votre propre situation et estimer l’investissement maximum permis pour garantir la rentabilité financière d’un projet de rénovation :

Calculs

Pour estimer l’investissement maximum permis

Luminaires extérieurs

Luminaires extérieurs


Classification des luminaires extérieurs

Luminaires fonctionnels Luminaires décoratifs Projecteurs

Type 1 : asymétriques (type éclairage public).

Type 3 : asymétriques.

Type 5 : asymétriques.

Type 2 : symétriques avant-arrière.

Type 4 : symétriques avant-arrière.

Type 6 : symétriques.

   

Distribution lumineuse des luminaires asymétriques et des luminaires symétriques.

Les projecteurs se distinguent des autres luminaires parce qu’ils sont orientables en azimut et en inclinaison. Un luminaire d’éclairage public éclaire grosso modo une bande d’une largeur égale à la hauteur de feu. Cette largeur peut atteindre 2,5 fois la hauteur pour un projecteur.

     

Distribution lumineuse des luminaires et des projecteurs.

  

Orientation d’un projecteur.

Pour éviter toute pollution lumineuse, on évitera d’utiliser des luminaires décoratifs éclairant vers le ciel.


Matériaux utilisés

Matériaux pour armatures

Matériaux pour armature

Traitement de surface

Finition

Avantages

Inconvénients

Acier inoxydable

Aucun

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussières, grand choix des couleurs.

Coût, poids.

Acier

Galvanisation

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussière, grand choix des couleurs.

Veiller à ce que la couche de galvanisation soit suffisante, poids.

Aucune

Bonne tenue dans le temps.

Surface moins lisse, plus salissante, couleur unique.

Aluminium et alliages

Chromatation

Peinture cuite au four

Très bonne tenue dans le temps, poids, limitation du dépôt de poussières, grand choix des couleurs.

Anodisation

Aucune

Bonne tenue dans le temps.

Couleur unique, plus salissante.

Cuivre

Aucun

Aucune

Moins coûteux que les autres.

Oxydation naturelle.

Polissage

Vernis

Maintien de l’aspect initial dans le temps.

Oxydation

Aucune

Bonne tenue dans le temps.

Couleur noire uniquement, impossibilité de voir si c’est du cuivre.

Bronze

Aucun

Aucun

Matériau noble.

Coût, poids, oxydation naturelle.

Couche de primer

Peinture liquide

Bonne tenue dans le temps, limitation du dépôt de poussières, grand choix de couleurs.

Coût, poids.

Matières synthétiques

Peintes dans la masse

Aucun

Légèreté, pas de risque de couple galvanique.

Faible résistance mécanique et thermique, choix de couleurs limité.

Couche de primer

Peinture liquide

Légèreté, pas de risque de couple galvanique, grand choix de couleurs.

Faible résistance mécanique et thermique,  risque de décollement de la peinture.

Matériaux pour réflecteurs

Matériaux pour réflecteurs

Procédé de fabrication

Traitement

Avantages

Inconvénients

Aluminium

Emboutissage

Anodisation

Légèreté, très répandu, coût, très bonnes qualités de réflexion.

Toutes les formes ne sont pas permises.

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Extrusion

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Matière synthétique

Injection

Métallisation

Légèreté, grande liberté des formes, qualités de réflexion optimales.

Coût, limitation thermique, fragilité mécanique du traitement.

Verre

Soufflage

Aucun

Esthétique lorsque le réflecteur est visible, la vasque et le réflecteur peuvent ne faire qu’un.

Poids, coût.

Matériaux pour protecteurs

Matériaux pour protecteurs

Aspect

Avantages

Inconvénients

Métacrylate (PMMA ou polymétacrylate de méthyle)

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, pas de jaunissement avec les UV.

Cassant.

Structuré

Coût, légèreté, très faible perturbation de la distribution de la lumière, moins éblouissant que le clair.

Opalin

Coût, légèreté, éblouissement très faible.

Cassant, distribution de la lumière tout à fait diffusante (réflecteur inutile).

Polycarbonate

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, très résistant aux chocs.

Nécessite, pour éviter le jaunissement, un traitement anti-UV dans la masse, voire un film protecteur supplémentaire lorsqu’on utilise des sources qui émettent beaucoup d’UV comme les lampes à induction et les iodures métalliques.

Structuré

Comme le métacrylate, mais très résistant aux chocs.

Opalin

Comme le métacrylate, mais très résistant aux chocs.

Comme le métacrylate.

POND (Partially Obscured Non Diffusing)

Traitement de surface qui ne perturbe que très faiblement la distribution de la lumière ; malgré un aspect légèrement opalin.

Coût.

Verre

Clair

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas.

Coût, poids, matériau très cassant sauf quand il est trempé ou feuilleté et qu’il a une forme étudiée pour résister (p.e. bombé, cintré).

Strié

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas, les stries permettent une distribution améliorée selon le besoin.

Sablé

Ne perturbe pas la distribution de la lumière, ne s’altère pas, comparable à l’opalin des matières synthétiques.

Distribution de la lumière plus aléatoire comme pour les opalins.

Matériaux pour poteaux et consoles

Matériaux pour poteaux

Avantages

Inconvénients

Aluminium

Légèreté.
Pas besoin nécessairement de peinture.
Coût.

Très grande transmission des vibrations.
Apparition de déformations permanentes lors de chocs.
Limitation au niveau des formes.

Acier

Très grande résistance mécanique.
Transmet peu les vibrations.
Résistance aux chocs.
Grande variété de formes et d’adaptations.
Très grandes hauteurs possibles.

Nécessite un grand soin de traitement de surface : galvanisation + nettoyage.

Fonte

Grande variété de formes.
Matériau noble.
Rendu des détails excellent (ex : armoiries, détails végétaux,…).

Poids, coût, limitation en hauteur, poteaux en plusieurs pièces.
Nécessite un grand soin de traitement de surface : métallisation + peinture riche en zinc.
Matériau cassant sauf les fontes nodulaires.


Contrôle de l’éblouissement

Les luminaires extérieurs sont classés en fonction de leur contrôle de l’éblouissement et de la pollution lumineuse :

Classe Intensité lumineuse maximale pour tous les demi-plans C (en cd/klm) Maîtrise de l’éblouissement et de la pollution lumineuse
à γ = 70° à γ = 80° à γ = 90°
G1 200 50 Maîtrise très réduite.
G2 150 30 Réduite.
G3 100 20 Faible.
G4 500 100 10 Moyenne.
G5 350 100 10 Bonne.
G6 350 100 0 Excellente.

Confort thermique : Les classes de climats intérieurs

Confort thermique : Les classes de climats intérieurs


Qu’entend-t-on par classe de climat intérieur ?

Pour évaluer les risques de condensation dans les matériaux ou à la surface de ceux-ci, il est nécessaire de connaître les conditions de climat intérieur qui sont présumées exister dans les locaux limités par les parois.
En fonction des valeurs moyennes annuelles de température et d’humidité relative de l’air intérieur des bâtiments, le CSTC dans ses publications distingue différentes classes de climat intérieur en fonction de la valeur annuelle moyenne de pression de vapeur d’eau pi à l’intérieur du bâtiment.


Quelles sont les classes de climat intérieur?

En fonction des pressions de vapeur moyennes annuelles (pi), le tableau suivant (extrait de la NIT 183 du CSTC) indique la classe de climat intérieur du local situé sous la toiture.

Définition du bâtiment Exemples pi Classe
Bâtiment avec une production de vapeur nulle ou faible.
  • lieux de stockage pour marchandises sèches
  • églises
  • salles de sport d’utilisation modérée
1 100 < p< 1 165 I
Bâtiment bien ventilé avec une production de vapeur limitée.
  • habitations de grande dimension
  • écoles
  • magasins
  • bureaux non climatisés
  • unités de soins hospitaliers
1 165 < pi < 1 370 II
Bâtiment d’utilisation intense.
  • habitations sociales
  • flats
  • maisons de soins
  • bâtiments faiblement climatisés (HR < 60 %)
1 370 < pi < 1 500 III
Bâtiment avec une production de vapeur élevée.
  • piscines
  • locaux industriels humides
  • blanchisseries
  • bâtiments fortement climatisés (HR > 60 %)
1 500 < pi < 3 000 IV

Tableau de bord, consommation d’électricité

Tableau de bord, consommation d'électricité


Un suivi annuel via un relevé sur Excel

Pour faciliter l’analyse, il est préférable de retranscrire l’évolution des consommations électriques sous forme de graphes plutôt que sous forme de tableaux de chiffres.

De plus, en tarification Haute Tension, il est intéressant de suivre non seulement le montant total des factures mensuelles, mais également des autres paramètres de la facture électrique sur lesquels il y a moyen d’agir :

La répartition financière des postes consommateurs, entre puissance (kW) et énergie (kWh).

La répartition des consommations de jour et de nuit (si compteur bihoraire) ou en Heures Creuses (nuit + week-end) et en Heures Pleines (jour en semaine), si régime Haute Tension. Le double relevé en kWh et en Euro est utile.

L’évolution de la pointe de puissance quart-horaire (pour les institutions soumises au régime Haute Tension).

L’évolution du « facteur de puissance » ou « cos phi »(pour les institutions soumises au régime Haute Tension).

Calculs

Pour accéder à un exemple de logiciel sur Excel pour suivre la comptabilité énergétique annuelle de bâtiments.

Il comprend une fiche par année + un récapitulatif sur 10 ans.

Toutes les cases bleues sont à remplir, toutes les cases jaunes + rouges sont calculées automatiquement.

Un fichier exemple « test » avec quelques valeurs « bidons » sont jointes afin de visualiser le type de résultat.

Calculs

Pour accéder à un fichier exemple afin de visualiser le type de résultat.

Études de cas

Si vous souhaitez parcourir la mise en place d’une comptabilité énergétique au Collège du Sacré Cœur.

Tout dernièrement, sur l’impulsion de la Région wallonne, les Facilitateurs URE de Wallonie ont crée un modèle de cadastre énergétique mis a disposition en ligne pour les communes et institutions désireuses de suivre et gérer leur consommations.

Calculs

Pour accéder au modèle de cadastre énergétique édité par les Facilitateurs.


Un tableur pour accompagner un projet de sensibilisation dans un bâtiment tertiaire  !

Des projets de sensibilisation voient le jour actuellement avec un retour partiel vers les occupants des économies générées.

Ainsi, avec les économies d’énergie, le collège Saint Louis de Liège a décidé d’engager un peintre, chômeur de longue durée, pour rafraîchir couloirs et classes. Les élèves sont aujourd’hui conscients que son emploi est lié à leur motivation, jour après jour… Pour plus d’infos sur ce projet.

Autre projet : une commune bruxelloise a décidé de motiver ses écoles en redistribuant pour partie les économies d’électricité, de chauffage et d’eau réalisées : 1/3 pour l’école (avec totale liberté d’affectation), 1/3 pour l’école (avec affectation dans des outils économiseurs du type ferme-porte automatique, vannes thermostatiques, …) et 1/3 pour la commune.

Un fichier Excel spécifique a été établi pour le suivi des consommations, avec un diagramme comparant chaque mois la consommation à celle de l’année précédente.

Un diagramme similaire est établi pour les consommations électriques.

Si vous souhaitez accéder au fichier Excel établi dans ce cadre (xls compressé).

Si vous souhaitez visionner une application de ce logiciel pour un bâtiment particulier (xls compressé).

Si vous souhaitez parcourir le mode d’emploi de ce logiciel.  (PDF)

Si vous recherchez des informations complémentaires à propos de ce logiciel, n’hésitez pas à contacter J. Claessens de la cellule Architecture et Climat (jacques.claessens@uclouvain.be).


Informer les services techniques et responsables des bâtiments

Qui connaît la consommation du bâtiment dans lequel il travaille ? Comment s’étonner alors qu’il soit si peu motivé à éteindre la lumière…?

Pire : quel est le technicien d’entretien qui connaît l’évolution de la consommation de son bâtiment ses dernières années ? C’est un outil de base pour le motiver à agir. C’est une photographie de la qualité de son travail !

Il est donc très utile que le service comptable diffuse ces informations, sous forme d’un bilan général des consommations annuelles. Idéalement, il pourrait informer le service technique dès qu’il perçoit une dérive de consommation.


Aller plus loin ?

Audit

Pour comprendre et analyser les paramètres de la facture électrique.

Audit

Pour définir le(s) bâtiment(s) prioritaire(s).

Audit

Pour comparer le bâtiment aux autres bâtiments du secteur.

Audit

Pour repérer les mesures les plus rentables.

Norme NBN EN 378 : les systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement

Norme NBN EN 378 : les systèmes de réfrigération et pompes à chaleur - Exigences de sécurité et d'environnement


Famille des normes NBN EN 378

Numéro Ann. Pub. Titre Langue ouverture d'une nouvelle fenêtre !Moniteur Belge EUR
NBN EN 378-1/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1 : Exigences de base, définitions, classification et critères de choix FR,EN 27/04/2004 10.80
NBN EN 378-1:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix FR,EN 26/10/2000 63.30
NBN EN 378-2:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 2: Conception, construction, essais, marquage et documentation FR,EN 26/07/2000 51.00
NBN EN 378-3:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3: Installation in situ et protection des personnes FR,EN 26/07/2000 31.40
NBN EN 378-3/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3 : Installation in situ et protection des personnes FR,EN 27/04/2004 10.80
NBN EN 378-4:2000 2000 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4: Fonctionnement, maintenance, réparation et récupération FR,EN 26/07/2000 34.80
NBN EN 378-4/A1:2004 2004 Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4 : Fonctionnement, maintenance, réparation et récupération FR,EN 27/04/2004 10.80
NBN EN 3788:2002 2002 Série aérospatiale – Système de raccordement 8°30′ – Capuchons de protection EN 15/05/2002 37.60
NBN EN 3789:2002 2002 Aerospace series – Pipe coupling 8°30′ – Protective plugs with external threads EN 12/03/2002 37.60

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-1 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-1:2000
Année de publication : 2000 – Date de publication  2000-09-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix.
Résumé

(si disponible)

This standard specifies the requirements relating to safety of persons and property, but not goods in storage, and the local and global environment for: a) stationary and mobile refrigerating systems of all sizes, including heat pumps; b) secondary cooling or heating systems; c) the location of these refrigerating systems.
Domaine d’application No records returned.
Langue(s) : Français et Anglais.
ICS : 01.040.27; 27.080; 27.200.
Prix : 63.30 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-2 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-2:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 2: Conception, construction, essais, marquage et documentation.
Résumé

(si disponible)

Is applicable to the design and construction of refrigerating systems and the components and materials used including piping. It also specifies requirements for testing, commissioning, marking and documentation.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-3 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-3:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 3: Installation in situ et protection des personnes.
Résumé

(si disponible)

Is applicable to the installation site (design of plant space and services) and personal protective equipment.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : 31.40 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.


Normes NBN EN 378-4 : 2000

Fiche signalétique IBN

Numéro : NBN EN 378-4:2000
Année de publication : 2000 – Date de publication 2000-04-01.
Titre : Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 4: Fonctionnement, maintenance, réparation et récupération.
Résumé

(si disponible)

Specifies requirements for safety and environmental aspects in relation to operation, maintenance, repair of refrigerating systems and the recovery, reuse and disposal of all types of refrigerant.
Domaine d’application No records returned.
Langue(s) : Fançais et Anglais.
ICS : 27.080; 27.200
Prix : 34.80 EURO
Version papier + 6 % TVA – Version PDF + 21 % TVA.

Source : ouverture d'une nouvelle fenêtre ! Institut Belge de Normalisation IBN.

Friteuse au gaz

Friteuse au gaz


Description

Une friteuse est un appareil comportant un bac à huile ou à graisse chauffé par un ou plusieurs brûleurs.

Actuellement, la majorité des friteuses sont dites « à zone froide », c’est-à-dire que la forme de la cuve et l’emplacement des brûleurs permettent de ménager dans le bain d’huile une zone à plus faible température (inférieure d’au moins 60°C à celle du bain). Cette disposition présente l’avantage de permettre le dépôt des particules d’aliments détachées lors de la cuisson par suite d’une baisse très sensible des courants de convection. La durée d’utilisation de l’huile s’en trouve ainsi prolongée et, de plus, cela évite la transmission de goûts et d’odeurs sous l’effet de la carbonisation de ces particules.

Il existe principalement deux types de friteuse à zone froide :

  • Dans l’une le chauffage se fait par le fond. L’entretien est aisé, mais le rendement est moins bon.
  • Dans l’autre, les gaz brûlés produits par le brûleur passent dans un tube qui est immergé dans le bain d’huile. Le rendement est meilleur, mais l’entretien est plus difficile.


Utilisation

Les friteuses sont utilisées non seulement pour la cuisson des pommes de terre frites, mais aussi pour la préparation des beignets, poissons, …

Elles sont adaptées aux aliments frais et aux aliments congelés.

Les aliments sont placés dans des paniers en fil d’acier chromé. Deux paniers utilisés dans la même cuve permettent une plus grande souplesse d’utilisation. Des friteuses à panier « transfert » donnent une productivité accrue. Il s’agit d’un système permettant l’abaissement/élévation, puis la translation du panier. Le fond du panier est généralement composé de volets perforés, facilement ouverts en manœuvrant une poignée. On peut ainsi faire passer rapidement et sans effort les aliments depuis la friteuse jusqu’à un plateau ou bac de réception. Un tel dispositif peut être associé à deux éléments de cuisson, chaque panier se déversant à tour de rôle dans une structure porte-plats disposée entre les deux friteuses.

Pour choisir le matériel adapté à ses besoins, on déterminera, en fonction du mode de distribution et de la régularité de la consommation, la production horaire qu’il convient d’obtenir. On compte environ 300 grammes de frites par personne. La production horaire annoncée par le constructeur pourra être différente dans la réalité, notamment lors de l’utilisation de frites déjà cuites, elle sera largement supérieure.


Gamme

Les capacités des friteuses vont d’environ 6 à 80 litres avec des puissances se situant entre 7,5 et 60 kW.


Efficacité énergétique

Plusieurs fabricants ont développé des friteuses optimisant leur rendement. Cette amélioration se base sur l’utilisation du brûleur séquentiel, une meilleure isolation, un meilleur transfert de chaleur et un allumage électronique.

Le meilleur transfert s’obtient par le choix du matériau pour l’échangeur (cuivre bon conducteur) et par le choix de la géométrie des parois d’échange thermique  : trajet des gaz chauds plus long, plus turbulent (ailettes, tétons).

Exemple: l’air brûlé est poussé par des ventilateurs dans des carnots se trouvant tout autour de la cuve mais à l’extérieur de celle-ci (rendant son entretien plus facile).

L’allumeur électronique est plus facile à manipuler que le piezzo. On arrêtera donc plus volontiers l’appareil.

Grâce à ces techniques, il existe une friteuse au gaz à haut rendement (88 %) fabriquée en Hollande. Ce rendement est à comparer aux 45 % d’une friteuse au gaz classique.

Choisir le pare-vapeur pour une toiture plate existante

Quel pare-vapeur choisir ?

Les toitures inversées ne nécessitent pas de pare-vapeur, l’étanchéité en faisant office.

Pour les toitures chaudes, le choix du type et de la classe d’écran pare-vapeur dépend de plusieurs facteurs.

La classe de l’écran pare-vapeur nécessaire se calcule. Dans les cas les plus courants, il est fait usage de tableaux pour déterminer cette classe.

Le tableau suivant (extrait de la NIT 215 du CSTC) indique la classe de pare-vapeur à choisir en fonction de la classe de climat intérieur, du support et de l’isolant.

Support ou forme de pente Classe de climat intérieur PURPIREPSPF MWEPBICB CG
Techniques de pose de l’étanchéité
Fixation mécanique (a) Autres Fixation mécanique (a) Autres
Béton coulé in situ, éléments préfabriqués en béton (b) (c) I

II

III

IV

E3

E3

E3

X

E3

E3

E3

E4

E3

E3

E3

X

E3

E3

E3

E4

(h)

(h)

(h)

(d)

Voligeage ou panneaux à base de bois résistant à l’humidité (e) (f) I

II

III

IV

E1 (g)

E2

X

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Tôles profilées en acier I

II

III

IV

(i)

E1 (g)

E2

X

(i)

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Panneaux sandwiches autoportants I – III

IV

voir remarques

Non autorisé

(a) Afin d’éviter un “effet de pompage” résultant de l’action du vent, l’étanchéité à l’air du complexe toiture dont le support est perméable à l’air doit toujours être assurée, et ce de l’une des façons suivantes :

  • par la pose d’un pare-vapeur de classe E1 ou supérieure
  • par l’utilisation de panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces), d’épaulements sur les quatre bords et mis en œuvre sur un support permettant une bonne fermeture des emboîtements. Ces mêmes panneaux à bords droits ou coupés peuvent également assurer l’étanchéité à l’air du complexe toiture, pour autant que les joint entre les panneaux, ainsi que les raccords avec les rives de toiture (voir NIT 191) soient rendus étanches à l’air
  • en rendant étanches à l’air les joints entre les éléments d’un plancher de toiture.

(b) Pour la rénovation des toitures avec un plancher de toiture étanche à l’air en béton sec, on ne prévoit pas de pare-vapeur dans les classes de climat intérieur I, II et III.

(c) Dans les classes de climat intérieur I, II et III, on ne pose pas d’écran pare-vapeur complémentaire sur les planchers de toiture en béton léger (p. ex. béton cellulaire) sans couche d’isolation thermique complémentaire, si la membrane d’étanchéité est adhérente ou lestée. Dans le cas contraire, il est nécessaire de rendre étanches les joints entre les éléments en béton. Dans des climats de la classe IV, une condensation résiduelle annuelle peut entraîner des dégâts aux éléments (corrosion des armatures, p. ex.), de sorte qu’une isolation thermique complémentaire posée sur un pare-vapeur non perforé est indispensable.

(d) Pour les bâtiments de la classe de climat IV, il convient d’examiner avec le fabricant de l’isolation si un pare-vapeur complémentaire est éventuellement nécessaire.

(e) Préalablement au collage d’un isolant thermique au moyen de bitume sur un plancher en bois, les joints (y compris le joint périphérique) sont rendus étanches au moyen d’une membrane du type P 150/16. Lorsque les joints de cette membrane sont collés, celle-ci peut être assimilée à un pare-vapeur de la classe E2.

(f) Lorsque l’isolation est posée sur un panneautage, les joints de ce dernier ainsi que les joints aux rives sont rendus étanches par la pose d’une bande de “pontage”.

(g) La résistance à la diffusion de vapeur des panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces) équivaut au minimum à celle offerte par un pare-vapeur de classe E1, lorsque les panneaux sont à épaulement sur les quatre bords et qu’ils sont mis en oeuvre sur un support permettant une bonne fermeture des emboîtements.

(h) La pose d’un écran pare-vapeur n’est pas requise, si les joints entre les panneaux d’isolation sont entièrement remplis de bitume (voir l’ATG pour cette application).

(i) Dans le cas d’une isolation en PF, on pose une couche de désolidarisation continue.

X La fixation mécanique au travers du pare-vapeur n’est pas autorisée en classe de climat IV.

REMARQUES

Compatibilité

Lorsque l’étanchéité est de type bitumineux, on pose de préférence un pare-vapeur bitumineux. Lorsque l’étanchéité est de type synthétique, on pose de préférence un pare-vapeur synthétique. Les deux types de matières peuvent être combinées à condition d’être compatibles entre elles, car elles sont en contact au droit des rives et des lignes de compartimentage de l’isolant.

Rénovation

Dans le cas d’une rénovation, l’étanchéité existante peut être conservée et faire office de pare-vapeur. Dans ce cas, il convient de vérifier si ce pare-vapeur possède une classe suffisante.

Panneaux sandwiches

Les panneaux sandwiches de toiture avec âme isolante appartiennent généralement, dès la fabrication, à la classe de pare-vapeur E1. Les dispositions relatives à la résistance au passage de la vapeur d’eau, à prendre en fonction de la classe de climat intérieur, sont prévues dans l’agrément technique des panneaux.

Toitures plates légères isolées à l’intérieur de la structure

Un freine vapeur est toujours nécessaire. Son choix est particulièrement délicat. On recommandera souvent le placement d’un pare-vapeur « intelligent ». Néanmoins, le choix étant particulièrement délicat on conseillera de se référer à l’avis (et aux calculs dynamiques!) d’un bureau d’études spécialisé.


Comment poser le pare-vapeur d’une toiture chaude ?

Un écran pare-vapeur mal posé où posé à un mauvais endroit peut causer de graves dégâts. Son action peut être insuffisante ou même, dans certains cas, peut créer des désordres ou les aggraver.

Le pare-vapeur se pose toujours du côté chaud par rapport à l’isolant.

On sera attentif à ne pas emprisonner d’eau dans les couches situées entre l’écran pare-vapeur et la membrane d’étanchéité.

Le pare-vapeur sera continu. Les joints seront soignés. Le pare-vapeur ne sera pas percé (accident mécanique ou passage de canalisations).

Aux rives et raccords, l’étanchéité et le pare-vapeur sont reliés en emprisonnant complètement l’isolant.

Le mode de pose du pare-vapeur dépend :

Du mode de pose et de fixation de l’isolant et de l’étanchéité

Lorsque l’étanchéité est posée en indépendance totale ou fixée mécaniquement, le pare-vapeur peut être posé en indépendance totale. Il est toutefois préférable de le poser en semi-indépendance pour faciliter la mise en œuvre. Le pare-vapeur est ainsi maintenu en place pendant la phase de mise en œuvre et en attendant le lestage final.

Lorsque l’étanchéité et l’isolant sont collés, le pare-vapeur doit également être collé de façon à ce que l’ensemble puisse résister au vent.

– Du support

Sur les supports en bois

Sur des panneaux, le pare-vapeur est collé (après pontage des joints), soudé ou cloué.

Sur des voliges, le pare-vapeur est cloué.

Sur les supports en tôles profilées

Pour les classes de climat intérieur < III, les lés du pare-vapeur sont posés parallèlement aux ondes.
Tous les joints sont réalisés par recouvrement.
Les joints longitudinaux doivent se trouver sur une nervure supérieure des tôles.
Sur une nervure supérieure, le pare-vapeur peut être perforé par les fixations mécaniques de l’isolant (et de l’étanchéité).

Pour la classe de climat intérieur IV, il faut poser le pare-vapeur sur un support intermédiaire plan.

Schéma classe de climat intérieur IV, pose du pare-vapeur.

Sur les autres supports

La pose est identique à celle des membranes d’étanchéité posées directement sur les mêmes supports (voir Choix du mode de pose de l’étanchéité), c’est-à-dire en indépendance, en semi-indépendance ou en adhérence totale.

Etancheité à l'air

Améliorer l’étanchéité du bâtiment

Etancheité à l'air

 

Un problème : les portes d’entrée

De manière générale, le problème des commerces est l’ouverture et fermeture incessantes des portes par les clients. Bien vite s’installe une habitude de laisser les portes ouvertes en permanence été comme hiver afin de faciliter l’accès à l’intérieur et, tout aussi important pour le commerçant, pour raison de marketing (comme dirait un commerçant béninois : « c’est ouvert, tout est gratuit jusqu’à la caisse !).

Les commerces « no-food »

Photo de façade, l'étanchéité du bâtiment   Photo de façade, l'étanchéité du bâtiment

Pour ce type de commerce, le « syndrôme » de la porte ouverte en permanence risque d’entraîner :

  • En période froide des déperditions importantes de chaleur. Lorsque les portes sont fermées, on peut considérer que les apports internes nécessaires suffisent pratiquement à chauffer l’ambiance. À l’inverse, une porte ouverte en permanence laisse s’échapper la chaleur et, par conséquent augmente les consommations de chauffage.
  • En période chaude, tant les apports de chaleur internes (éclairage, occupant, …) que les apports externes sont présents. Le simple fait de laisser la porte du magasin ouverte suffit à créer une surchauffe à l’intérieur; d’où la motivation des commerçants de s’équiper d’une climatisation.

En période froide

La perte peut être estimée en considérant qu’elle augmente la consommation liée au taux de renouvellement d’air neuf du bâtiment.
Dans ces conditions, la chaleur s’échappe joyeusement ! Le coût généré par cette fuite est variable en fonction de la durée d’ouverture.

À titre de repère, une porte ouverte en permanence de 2 m² dans une enveloppe peut générer un passage d’air à la vitesse moyenne de 1 m/s. Ces 2 m³ qui s’échappent par seconde entraîneraient une consommation hivernale de :

2  [m³/s] x 3 600 [s/h] x 214 [jour/saison chauffe] x 12 [h/jour] x 0,34 [Wh/m³.K] x (15° – 6°) / 1 000 = 56 578  [kWh/an]

ou encore 56 578 / 2 = 28 289 [kWh/an.m²]

où :

  • 15° est la température moyenne intérieure, tenant compte d’un abaissement nocturne et d’un apport équivalent de 3° au minimum par les apports « gratuits »,
  • 6° est la température moyenne extérieure hivernale dans le centre de la Belgique,
  • 0,34 Wh/m³.K est la capacité thermique de l’air.

Soit un équivalent de +/- 1 414 € par an et par m² d’ouverture permanente, si la chaleur est fournie par du combustible fuel à 0,5 €/litre. En ces périodes de spéculation énergétique, à vous d’adapter le calcul au prix du combustible.

En mi-saison

Lorsque les températures externes sont plus clémentes, l’idée de la porte ouverte prend du sens. En effet, pour éviter le recours à la climatisation, l’ouverture de la porte d’entrée permet de juste compenser les apports internes. Cela dit, ce n’est pas une raison pour ne pas conjointement réduire les apports internes par la mise en place d’un éclairage performant et peu gourmand en énergie.

En période chaude

Pour des températures extérieures caniculaires, l’idéal est de pouvoir « décharger » le commerce par « free cooling » de nuit ou tôt le matin à l’ouverture du magasin. Par contre en pleine journée, que le magasin soit équipé en climatisation ou pas, il est nécessaire de refermer les portes et de réduire, dans des limites tolérables pour la vente, les apports internes.

Les commerces « food »

Il est frappant de voir comme la modernité nous complique la vie alors que la technique devrait-être là pour la simplifier. Il existe malgré tout des commerçants qui font preuve de bon sens sans grand moyen technique. Par exemple, une boucherie pourrait regrouper toutes les astuces nécessaires à la chasse au gaspillage énergétique et basée sur la gestion de sa vitrine amovible.
En effet :

  • En période très froide (par gel), la vitrine pourrait être fermée, sachant qu’il n’y a pas de chauffage à l’intérieur. L’impact énergétique est faible.
  • En période froide, une vitrine amovible pourrait être enlevée. Tout se passe donc comme si le commerce était dans la rue. Cela se justifie dans le sens où les clients sont habillés chaudement et qu’ils ne restent pas suffisamment de temps à l’intérieur de la boucherie pour se dévêtir. Il est vrai que le confort du commerçant ne serait pas assuré, mais on s’avance un peu vite.
  • En période chaude, outre l’auvent naturel des arcades (comme ci-dessous) qui préserve la boucherie des apports solaires directs, le commerçant pourrait refermer sa vitrine pour limiter l’impact de sa climatisation (de par ses vitrines semi-ouvertes) sur ses consommations électriques.

Photo d'arcades, l'étanchéité du bâtiment

Dans l’absolu et de manière un peu utopique, si l’on considère que sous nos latitudes, la température moyenne annuelle est de 6°C, le fait d’ouvrir son magasin sur l’extérieur en permanence permet de n’avoir qu’à refroidir l’ambiance du magasin de quelques degrés pour arriver à la température de conservation des denrées.
Attention toutefois que ce type de démarche devrait être appliquée au cas par cas sachant que des critères autres que ceux énergétiques et de confort interviennent, par exemple la sécurité, la pollution, …


Des solutions pour les grandes et moyennes surfaces type « food »

Pour pallier partiellement à cette débauche d’énergie, l’étanchéité des ouvertures contrôlées, tant du côté des entrées clients que du côté des accès aux réserves et des portes de service, est importantes.
Les améliorations possibles sont :

  • les sas d’entrée (investissements de l’ordre de 11 000 €);
  • les tourniquets (investissements de l’ordre de 25 000 €);
  • la mise en surpression des zones de vente par rapport à l’extérieur. Elle évite la formation de courant d’air incontrôlé entre plusieurs zones;

Photo de sas d'entrée, l'étanchéité du bâtiment   Photo de tourniquet, l'étanchéité du bâtiment  Photo de sas d'entrée, l'étanchéité du bâtiment

Le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.


Des solutions pour les commerces de détail type « food »

Le problème est le même que pour les grandes surfaces à la différence près qu’il y a très rarement de la place en suffisance pour prévoir des sas de grandes dimensions
Les améliorations possibles sont :

  • le placement de portes étanches;
  • la mise en place d’un mini sas avec portes automatiques.

Photo de portes étanches, l'étanchéité du bâtiment   Photo de mini sas, l'étanchéité du bâtiment

Tout comme les grandes et moyennes surfaces, le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.

Choisir le système de ventilation dans les bureaux

© Architecture et climat 2023.

Système de ventilation double flux dans les bureaux.


Configurations les plus courantes pour les immeubles de bureaux

Les bureaux ou zones de bureaux sont généralement desservis par des circulations donnant également accès à un ou plusieurs complexes sanitaires.

Ce type d’agencement très généralisé donne aux différents principes de ventilation retenus une orientation commune :

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

L’introduction d’air neuf dans les bureaux,
le transfert des volumes d’air introduits via les circulations,
l’évacuation vers l’extérieur de l’air vicié dans les locaux sanitaires.


Ventilation simple flux avec extraction sanitaire

Lorsque l’ambiance extérieure (bruit et pollution limités) le permet, la solution la plus simple à mettre en œuvre est le système simple flux avec extraction sanitaire.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié
  • L’air neuf est de préférence introduit dans les bureaux au moyen de grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie.

Grille intégrée entre le vitrage et la menuiserie.

Grille verticale intégrée dans la menuiserie.

  • L’air vicié est évacué dans les sanitaires au moyen d’un ventilateur d’extraction.
  • Les transferts d’air entre bureaux et sanitaires se font, soit par un détalonnage des portes, soit par des passages appropriés avec grilles à chevrons ou autre.

Grille de transfert d’air.

Les circuits d’extraction (conduits et ventilateurs) sont dans la plupart des cas communs à plusieurs niveaux. Ils sont généralement conçus suivant le principe du « parapluie ». Les conduits verticaux empruntent les gaines techniques également verticales et les conduits horizontaux passent dans l’épaisseur des faux plafonds. Ces ensembles desservent à chaque niveau une ou plusieurs zones sanitaires. Pour peu que l’extraction d’air soit limitée aux zones sanitaires (pas d’extraction complémentaire dans les couloirs ou certains locaux spécifiques à des fins d’équilibrage), ce réseau horizontal restera limité en ampleur.

Étant donné l’absence de conduit de distribution vers chaque bureau, l’espace nécessaire aux conduits d’air est peu important. Ceci prend toute son importance en rénovation en regard des hauteurs de faux plafond qui ne doivent pas tenir compte du passage de conduits d’air.

Cependant, cette configuration souffre de certaines limites :

  • pour limiter l’influence du vent et des circulations d’air parasites, ce type d’installation ne s’applique qu’aux immeubles de taille moyenne et peu élevés : pour les nouveaux immeubles de plus de 13 m de haut (hauteur du plancher au dernier étage), la réglementation wallonne, demande ainsi, la preuve, étude à l’appui, qu’il est possible de garantir les débits d’air neufs recommandés au moyen d’amenées d’air naturelles.
  • ce type d’installation ne permet ni traitement de l’air (préchauffage ou rafraîchissement, gestion de l’humidité) ni récupération d’énergie. Il pourrait donc ne pas correspondre aux attentes de confort ou de performance énergétique.


Ventilation double flux avec extraction sanitaire

Le système de ventilation double flux, c’est-à-dire équipé d’une pulsion et d’une extraction mécanique est le meilleur en terme de maîtrise des débits dans les locaux : on a la garantie que les bureaux sont alimentés en air neuf et que l’air vicié des sanitaires est directement évacué vers l’extérieur.

© Architecture et climat 2023.

Ce système est pratiquement indispensable dans les immeubles de bureaux importants en site urbain.

La distribution de l’air neuf est assurée par un réseau de conduits placé dans les faux plafonds des zones de circulation.

La diffusion de l’air neuf à l’intérieur de chaque bureau est obtenue par une ou plusieurs bouches, soit murales dans le cas d’une retombée des faux plafonds des circulations, soit plafonnières s’il existe un faux plafond dans le local.

© Architecture et climat 2023.

  1. Bureau
  2. Couloir

Pulsion mécanique dans les bureaux soit via le faux plafond des bureaux,
soit via la retombée du faux plafond des couloirs.

L’extraction et le transfert se font comme pour le système simple flux.

Concrètement, le choix du double flux par rapport au simple flux sera guidé par

Études de cas

Une ventilation double flux a été mise en œuvre dans le bâtiment PROBE du CSTC à Limelette.

Remplacer les ballasts électroniques

Remplacer les ballasts électroniques


Remplacement des ballasts électromagnétiques existants par des ballasts électroniques

Avant / après …

Dans une installation possédant déjà des optiques et des lampes performantes, il est cependant peu rentable de remplacer uniquement les ballasts électromagnétiques par des ballasts électroniques. En effet, ceci nécessite une main d’œuvre importante : pose et dépose des luminaires, démontage des ballasts, modification du câblage interne et placement du nouveau ballast.

Concevoir

Pour choisir le type de ballast.

Remplacement des ballasts existants par des ballasts électroniques dimmables

Dans des locaux où la lumière naturelle est présente, il est légitime de se poser la question du remplacement des ballasts des luminaires par des ballasts électroniques dimmables qui géreront le niveau d’éclairement artificiel en fonction de l’apport en lumière naturelle.

Si les ballasts existants sont déjà des ballasts électroniques, l’investissement consenti pour le remplacement des ballasts n’engendrera plus d’économie. Au contraire, les ballasts électroniques dimmables présentent une perte légèrement supérieure aux ballasts électroniques traditionnels. Dans ce cas, l’installation du système de gestion ne sera jamais rentabilisée dans un temps raisonnable. Toutefois, si les ballasts existants sont en fin de vie et qu’un remplacement est nécessaire, alors on peut éventuellement envisager de les remplacer par des ballasts électroniques dimmables et un système de gestion simple de gradation en fonction de la lumière du jour (pour autant qu’il y ait un apport de lumière naturelle).

Si les ballasts existants sont électromagnétiques, on réalise déjà une économie d’énergie d’environ 20 % par leur remplacement, ce qui diminue les temps de retour.

Pour limiter la main d’œuvre, un fabricant commercialise un système de remplacement des ballasts sans démontage du luminaire et sans câblage. A première vue, ce kit permet à la fois de remplacer:

  • un tube fluorescent T12 (38 mm) ou T8 (26 mm) par un tube T5 (16 mm);
  • un ballast électromagnétique par un ballast électronique gradable ou pas.
Exemple de solution proposée par un fabricant

Composition

  • Châssis « enclipsable » à la place d’un tube T12 ou T8;
  • Ballast électronique éventuellement dimmable;
  • Lampe T5.

Avantages

A priori, le constructeur annonce les avantages suivants :

  • Remplacement rapide de la lampe T12 ou T8 par le kit T5;
  • Si le réflecteur et les ventelles sont incompatibles avec le kit, le fabricant propose une palette de réflecteurs adaptés;
  • En déconnectant le ballast existant, le starter et le condensateur, on bénéficie directement de l’association d’une lampe performante et d’un ballast électronique.

Inconvénient

Il faut rester prudent avec ce type d’équipement « miracle ». on retiendra donc que :

  • Le kit ne s’adapte pas nécessairement à tous les luminaires;
  • On risque de ne plus bénéficier de l’efficacité optimale du réflecteur existant vu que l’on change la position de la lampe dans le luminaire;
  • Les réflecteurs de remplacement proposés par le fabricant sont-ils adaptés aux luminaires ?
  • on risque de changer les angles de défilement du luminaire.

Conclusion

Ce type d’initiative est intéressante car elle permet de remplacer indirectement des ballasts traditionnels par des ballasts électroniques sans grands frais de maintenance.

S’il y a des expériences en la matière, elles sont les bienvenues !

Inertie thermique

Inertie thermique

Les matériaux lourds de la construction tels que béton, brique, pierre, etc. ont une grande capacité à stocker de la chaleur. Le rayonnement solaire irradiant une paroi de brique ou de béton est, en partie, absorbé par celui-ci, transformé en chaleur et accumulé en son sein.
Cette paroi peut aussi prendre de la chaleur à de l’air plus chaud qu’elle.
La chaleur sera restituée dès que la température de l’air environnant est plus basse que celle de la surface du matériau (par convection) ou/et dès que la température de surface d »objets avoisinants descend en-dessous de celle de la paroi en question (par rayonnement).
L’inertie thermique peut simplement être définie comme la capacité d’un matériau à stocker de la chaleur et à la restituer petit à petit. Cette caractéristique est très importante pour garantir un bon confort notamment en été, c’est-à-dire pour éviter les surchauffes.

Cette capacité permet de limiter les effets d’une variation « rapide » de la température extérieure sur le climat intérieur par un déphasage entre la température extérieure et la température de surface intérieure des murs et par amortissement de l’amplitude de cette variation. Un déphasage suffisant permettra par exemple que la chaleur extérieure « n’arrive » qu’en fin de journée dans l’habitat, période où il est plus facile de le rafraîchir grâce à une simple ouverture des fenêtres.

L’inertie thermique d’un matériau est évaluée à l’aide des deux paramètres suivants :

  • la diffusivité : α = λ / (ρ * c) [m²/s]
  • l’effusivité : E = √ (λ * ρ * c) [ J.K-1.m-2.s-1/2]

où :

  • ρ la masse volumique du matériau en [kg.m-3]
  • c la capacité thermique massique du matériau en [J.kg-1.K-1]

Physiquement, la diffusivité thermique détermine la vitesse avec laquelle la température d’un matériau va évoluer en fonction des sollicitations thermiques extérieures.

L’effusivité d’un matériau est sa capacité à échanger de l’énergie thermique (L’énergie thermique est l’énergie cinétique d’un objet, qui est due à une agitation désordonnée de ses molécules et de…) avec son environnement (L’environnement est tout ce qui nous entoure. C’est l’ensemble des éléments naturels et artificiels au sein duquel se…). Lorsqu’on marche sur du sable chaud, on ressent une sensation de brûlure. Le sable impose sa température à notre corps, de manière plus importante que notre corps impose sa température au sable, car il possède une plus grande effusivité que le pied.

Pour garantir le confort d’été (éviter les surchauffes) on essaiera d’utiliser un matériau possédant les caractéristiques suivantes :
  • une faible diffusivité, pour que l’échange d’énergie thermique entre le climat extérieur et le climat intérieur se fasse le plus lentement possible (inertie en transmission).
  • une forte effusivité thermique pour que le mur stocke au maximum la fraîcheur dans les éléments en contact avec l’intérieur du bâtiment (inertie par absorption).

Exemple de l’évolution des températures intérieures lors d’une journée d’été dans un bâtiment à forte inertie et dans un bâtiment à faible inertie.

Choisir le modèle d’isolation pour le versant du toit

L’efficacité énergétique

L’efficacité énergétique de l’isolation d’une toiture inclinée dépend évidemment de l’épaisseur et du coefficient de conductivité thermique de l’isolant (λ).

Elle dépend aussi de la continuité de l’isolant. Ainsi une isolation posée entre chevrons de 6 cm d’épaisseur écartés de 30 cm ne couvre que 80 % de la toiture, le reste étant couvert par les chevrons nettement moins isolants.

De ce point de vue, il est bon de poser l‘isolant sous les chevrons. On limite ainsi le pont thermique au niveau des pannes. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La meilleure solution si on veut éviter complètement les ponts thermiques, est d’isoler la toiture par l’extérieur, par la méthode « sarking » ou en posant des éléments autoportants à isolation continue (c-à-d sans raidisseurs).


La complexité de la toiture

Dans le cas d’une toiture compliquée (pentes variables, formes complexes, hors équerre, fenêtres et pénétrations nombreuses), il est préférable d’utiliser de petits éléments pour réaliser le système de toiture.

Par contre, l’isolation par panneaux autoportants convient bien pour des toitures simples.


Le type de charpente

L’entre-axe des chevrons et l’épaisseur des gîtes de versant ou des arbalétriers de fermettes peuvent rendre difficile la mise en œuvre de certaines techniques d’isolation, notamment l’isolation par l’extérieur de type « sarking« .

En effet, avec ce type de toiture, la largeur minimale des supports de l’isolant (chevrons, gîtes de versant, arbalétriers) est de 38 mm pour pouvoir réaliser une pose correcte. (Dimensions plus importantes des vis et clous, précision avec laquelle doivent être réalisés les assemblages).

Les chevrons carrés ont généralement une épaisseur de 6 à 8 cm. Dans le cas d’une isolation posée entre chevrons, l’épaisseur de l’isolant est limitée à celle des chevrons. S’il est fait usage de laine minérale, l’isolation de la toiture est insuffisante et la pose d’une couche isolante sous les chevrons s’impose.

Par contre lorsque la charpente comprend des gîtes de versant ou des arbalétriers de fermettes d’une hauteur plus importante, 12 cm par exemple, l’isolation entre ces éléments de charpente peut être suffisante.

Schéma de l'isolation entre chevrons ou gîtes.

Des gîtes de versant permettent de poser en une seule couche 12 cm d’isolant.


Les performances acoustiques souhaitées

Les laines minérales sont de bons isolants acoustiques. Elles « piègent » les sons provenant du bruit aérien extérieur ou de l’impact des gouttes de pluie ou des grêlons sur la couverture. Une isolation entre chevrons à l’aide de laine minérale convient donc particulièrement lorsque de bonnes performances acoustiques sont souhaitées.

Le modèle d’isolation par l’extérieur (Toiture « Sarking » ou isolation par panneaux autoportants) peut poser des problèmes acoustiques, surtout si l’isolant est du polystyrène expansé.


Souhait de garder la charpente apparente

Lorsque l’on désire garder la charpente apparente, y compris les chevrons, il est nécessaire de poser l’isolant au-dessus de ceux-ci. Dans ce cas la toiture « sarking » est la plus appropriée. Les panneaux isolants peuvent éventuellement être posés sur un support décoratif (plaques, planchettes, …) assurant la finition du plafond entre les chevrons.

Si seules les pannes et fermes doivent rester apparentes, l’isolant peut être placé entre les chevrons. Il peut également être fait usage de panneaux autoportants.

Charpente apparente d’une toiture isolée.


Le souhait de faire réaliser les travaux par un non professionnel

Dans ce cas la pose de l’isolation doit se faire sans influence sur l’organisation des travaux des corps de métiers intervenant sur la toiture (charpentier, couvreur, zingeur, maçon …).

La pose de l’isolant devrait donc se faire après l’achèvement de leurs travaux.

L’isolant est posé par l’intérieur entre les chevrons, gîtes de versant ou fermettes, ou il est posée sous les chevrons de façon continue si la perte de place provoquée par cette technique est acceptable. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La finition du plafond des combles ne pourra se faire qu’après la mise en place de l’isolant et du pare-vapeur éventuel.

Suivi des consommations énergétiques du CH Psychiatrique du Chêne aux Haies

Suivi des consommations énergétiques du CH Psychiatrique du Chêne aux Haies


Introduction

Implanté à Mons sur un domaine de 25 hectares, le Centre Hospitalier Psychiatrique du Chêne aux Haies compte un ensemble de 15 bâtiments. Établissement qui depuis sa création s’est considérablement étendu avec la construction de près de 12 660 m² supplémentaires sur les deux dernières décennies avec aujourd’hui une capacité d’accueil de 455 lits. Un patrimoine bâti dont l’équipe technique doit assurer le suivi de la maintenance et des nouveaux projets, mais aussi le suivi des consommations énergétiques afin de garder un œil sur leurs évolutions.


La traçabilité des consommations

Le suivi des consommations et de la facturation des 15 bâtiments du Centre Psychiatrique, d’une superficie totale de 33 150 m², n’est pas chose aisée d’autant plus qu’au fil des nouvelles constructions les raccordements se sont multipliés et parfois ont été opérés par repiquage sur des collecteurs, des conduites ou des cabines électriques existantes sans qu’un sous compteur y soit systématiquement placé. Cette identification relève aujourd’hui d’un véritable jeu de piste. Difficile dans ces conditions de mener un suivi précis.

Un exemple qui traduit bien l’intérêt d’assurer le suivi des consommations est cette fuite d’eau chaude sanitaire apparue courant 2004 dans un vide technique d’un des pavillons. Ce n’est que bien des semaines après que l’incident fut repéré et alors immédiatement corrigé. En attendant, ce sont plusieurs m³ d’eau chaude à 50°C inutilement gaspillés.


Niveau de consommation et suivi actuels

La société de maintenance désignée pour assurer l’entretien de l’ensemble des chaufferies et des équipements techniques du site réalise déjà un relevé des compteurs existants tous les quinze jours. Cette action permet d’obtenir une première approche de l’évolution des consommations, mais est limitée à une analyse globale et non pas dichotomique.

Pour se donner une idée de la taille du patrimoine bâti, voici les chiffres de consommations globales du site pour l ‘année 2003 : 630 000 m³ de gaz, 2 125 MWh d’électricité, 293.000 litres de mazout et 40 000 m³ d’eau. La facture énergétique globale s’élevait quant à elle à 520 000 € TVAC. On comprend dès lors l’importance d’effectuer un suivi rapproché.


Projet à l’étude

Afin de mettre en place une comptabilité énergétique efficace, le bureau d’études du service technique compte s’équiper de 88 compteurs à impulsions qui placés judicieusement permettront le suivi en direct des consommations d’eau, de gaz, de fuel et d’électricité. Le rapatriement des données s’effectuerait à travers le réseau téléphonique du site vers les bureaux du service technique où elles seront traitées et analysées.


Les objectifs

Plusieurs raisons conduisent aujourd’hui la Direction à se tourner vers cet investissement afin de disposer d’un outil de comptabilité énergétique performant :

  • Certains bâtiments du site doivent avoir une gestion totalement indépendante du centre hospitalier d’où la nécessité d’une comptabilité énergétique spécifique à chaque entité afin de répartir les coûts.
  • La buanderie et la cuisine sont deux entités très énergivores dont la Direction souhaite connaître précisément le coût de revient du kg de linge nettoyé et de chaque repas préparé en cuisine afin d’évaluer au mieux les frais réels d’hospitalisation.
  • C’est également un outil de supervision de la bonne maintenance des équipements (éventuelle dégradation des rendements) et de fixer le cas échéant un objectif d’économie à la société de maintenance de x% par poste et/ou par bâtiment qui pourra être aisément vérifié.
  • Détection de fuites éventuelles sur le réseau d’eau de ville du site, sur les réseaux d’ECS des bâtiments, de conduites de gaz enterrées ou de cuves à mazout.
  • Suivi de l’évolution des consommations de chauffage à travers le tracé de la signature énergétique de chaque bâtiment afin de s’assurer de la concordance des consommations en fonction des rigueurs climatiques. Une variation de la signature énergétique peut être synonyme d’une dérive des consommations (déréglage des courbes de chauffe, encrassement du brûleur et/ou de la chaudière,…).
  • Établissement d’un budget énergie pour chaque entité.
  • Mesure de l’impact d’investissement URE (Utilisation Rationnelle de l’Énergie) afin de valider les économies prévues et de montrer ainsi les résultats chiffrés à la Direction.

En détail

Économique

L’investissement est estimé pour l’acquisition du matériel et le placement à près de 146 000 € TVAC.

On peut estimer raisonnablement que l’on devrait générer environ 5 à 10 % d’économie globale à travers ce suivi des consommations soit entre 25 000 et 50 000 € TVAC sur le coût annuel actuel.

Description du comptage Quantité Prix unitaire HTVA Montant en €
Eau DN 80 17 1 500 25 500
Eau DN 100 4 2 000 8 000
Eau DN 160 2 2 500 5 000
Gaz DN 50 10 1 750 17 500
Gaz DN 160 1 4 500 4 500
Électricité 24 1 000 24 000
Mazout de chauffage 6 1 500 9 000
Eau de Chauffage 4 1 250 5 000
Eau de chauffage sanitaire 19 1 000 19 000
Logiciel de traitement des données 1 2 500 2 500
Total des points de comptage 88 120 000
TVA 21% 25 200
Total TVAC avec système de rapatriement des données 145 200

Tableau : détails des coûts d’investissement.

Des subsides peuvent être sollicités auprès de la DGTRE (UREBA) pour ce type d’investissement.


Informations complémentaires

Philippe PIERARD
Directeur Service Technique
CHP du Chêne aux Haies
Tél. : 065 381 111
Email : philippe.pierard@chpchene.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Diminuer les consommations énergétiques des meubles frigorifiques

Diminuer les consommations énergétiques des meubles frigorifiques


La solution radicale

Une ou des solutions radicales ?

Il en existe une ou plusieurs ! Le problème est qu’elles sont évidentes mais semblent bloquer les commerçants et les responsables « marketing » des grandes et moyennes surfaces. Peu importe les moyens et techniques mis en œuvre, mais il suffit de confiner ou enfermer le froid dans une boîte isolée pour améliorer directement l’efficacité énergétique du froid alimentaire. Certains magasins (ils se reconnaîtront) appliquent ce principe depuis déjà longtemps, d’autres se lancent timidement.

Solutions locales

Fermeture des meubles frigorifiques négatifs horizontaux

Photo meubles frigorifiques négatifs horizontaux fermés - 01.   Photo meubles frigorifiques négatifs horizontaux fermés - 02.   Photo meubles frigorifiques négatifs horizontaux fermés - 03.

Le placement de fermeture simple en plexiglas sur les gondoles négatives montre une solution rapidement rentable car elle permet de réduire les consommations énergétiques de l’ordre de 30 à 40 %. C’est cette solution qui a été retenue par une chaîne de distribution belge sans observer de baisse significative du chiffre d’affaire.

Fermeture des meubles frigorifiques positifs verticaux

C’est là que les anciens Belges s’empoignèrent car le client roi doit pouvoir apprécier les denrées sans contrainte d’ouverture et de fermeture de porte. La question qui se pose immédiatement est de savoir pourquoi une méthode qui semble marcher avec le froid négatif ne fonctionne pas pour le froid positif. Est-ce une question :

  • d’éducation à la consommation : on comprend que le froid négatif doit être confiné parce que les crèmes glacées fondent s’il n’y a pas de confinement du froid et que le froid positif peut être assimilé à la climatisation où les fenêtres peuvent rester ouvertes;
  • d’investissement : le nombre de mètres linéaires de ce type de meubles frigorifiques étant important cela peut éventuellement rebuter les gérants de se lancer;

C’est une des questions du 21ème siècle en suspend.

  

Source : Magasin alimentation Bioshanti.

Une des solutions intéressantes dans un magasin biologique d’une commune bruxelloise est le placement de lamelles en matière plastique quasi transparentes. Cette technique, selon le gérant du magasin n’a pas l’air de freiner l’achat de denrées. Pour être tout à fait objectif, il est hésitant à protéger l’ensemble de ces meubles par ce type de confinement.

Si on considère que ces lamelles arrivent au même degré de protection que les rideaux de nuit, on peut considérer que les réductions de consommations énergétiques peuvent atteindre aussi 30 à 40 %.

Exemple.

En analysant le graphique suivant issu d’une simulation (TRNSYS) de 50 mètres linéaires de meubles frigorifiques ouverts et verticaux maintenant aux frais des produits laitiers, on constate qu’en retirant les 7 000 [W] d’apport interne dû à l’éclairage, le simple fait de placer des rideaux de nuit, on réduit de l’ordre de 40 % la demande en puissance de l’évaporateur à la machine de froid.

Graphique simulation (TRNSYS).

Si l’on considère que les protections de jour peuvent être assimilées à celle de nuit au niveau de la performance, on peut effectivement réduire au maximum de 40 % (dans ce cas-ci) les consommations énergétiques de l’installation de froid alimentaire sachant que la nuit il n’y a pas d’ouvertures et fermetures incessantes des lamelles synthétiques.

Solutions globales

Confinement des produits frais dans une enceinte bien isolée

Photo enceinte bien isolée - 01.   Photo enceinte bien isolée - 02.

Meuble frigorifique ouvert et confinement et isolation légère (double vitrage).

Confinement et isolation importante (enceinte opaque).

Là où on arrive à l’optimum énergétique et thermique, c’est lorsque les produits frais sont confinés dans des espaces réfrigérés et isolés des zones de vente classique. En terme de confort, naturellement, ce n’est pas l’idéal bien que finalement ce n’est qu’une question d’organisation (prévoir une petite laine en été ne pose pas beaucoup de problème). Les pionniers dans ce domaine sont bien connus et adoptent ce principe depuis des années voire plus d’une décennie. on peut dire que ce concept est passé dans les mœurs aujourd’hui.

Confinement des produits frais dans une enceinte légèrement isolée et vitrée

Un autre concept a vu le jour il n’y a pas longtemps. Dans un premier temps, on pourrait dire que la solution est mauvaise. A bien y regarder, elle se situe juste entre :

  • les meubles frigorifiques ouverts qui absorbent un maximum de chaleur de l’ambiance de vente globale au point que même en période chaude dans certains commerces on soit obligé de chauffer;
  • et l’enceinte fermée et isolée du reste de l’ambiance globale de vente.

Ce concept serait-il le bon vieux compromis à la Belge ?

(+)

  • confinement des denrées dans une enceinte séparée du reste des surfaces de vente réduisant ainsi le risque de devoir chauffer ces surfaces par apport de froid trop important comme on l’observe pour l’instant avec la prolifération des meubles frigorifiques ouverts;
  • la « cage » de verre est une approche marketing intéressante. Bien qu’il y fasse froid, l’impression d’inconfort est moins présente que dans une ambiance totalement occulte;
  • si l’on pousse le concept plus loin, on pourrait envisager de placer l’éclairage en dehors de l’espace en verre et, par conséquent, de réduire les apports de chaleur produits par les luminaires.

(-)

  • l’isolation du vitrage est relativement faible. On pourrait espérer réaliser un coefficient de transmission thermique U des parois de l’ordre de 1,1 [W/m².K]. À noter qu’une isolation de 6 cm donne, elle, de l’ordre de 0,4 [W/m².K];
  • les ouvertures auraient pu être des lamelles verticales ou des portes automatiques, mais pas des rideaux d’air mettant en jeu des consommations électriques supplémentaires au niveau des ventilateurs.

Optimisation du rideau d’air

On ne le dira jamais assez, le rideau d’air est le point faible des meubles frigorifiques ouverts. A lui seul, par induction de l’air ambiant de la zone de vente, il représente de l’ordre des 2/3 de la puissance frigorifique nécessaire. De l’optimisation du rideau d’air dépend les consommations énergétiques des groupes frigorifiques.

Apports de chaleur par induction

Taux d’induction

L’apport de chaleur par induction dépend de beaucoup de facteurs. L’apport de chaleur par induction Pind est donné par la relation suivante :

 Pind  = ma x (hambiance – hinterne) x 1000 [W] (1)

où :

Pind  = Xrideau_air x mrideau_air x (hambiance – hinterne) x 1000 [W] (2)

Où :

  • Xrideau_air : taux d’induction du rideau d’air. Celui-ci représente l’efficacité du rideau d’air et est défini comme le rapport m/ mrideau_air où :

    • ma = débit massique d’air de l’ambiance externe entrainé et induit par le rideau d’air en [kg/s];
    • mrideau_air = débit massique du rideau d’air en [kg/s];
  • (hambiance – hinterne) : différence d’enthalpie entre l’ambiance externe et interne au meuble en [kJ/kg].

Si l’on veut optimiser les consommations dues à l’induction par le rideau d’air, il est nécessaire de réduire la masse ma de l’air de l’ambiance induite par le rideau d’air (1). La quantification de la masse ma est très difficile à préciser.

La formule (2) permet de mettre en évidence le taux d’induction Xrideau_air comme étant la quantité d’air ambiant entrainé dans le flux du rideau d’air.

L’exemple suivant permet de mettre en valeur l’utilité de déterminer le taux d’induction

Exemple.

En prenant un rideau d’air d’un meuble frigorifique vertical ouvert, la littérature nous apprend que le taux d’induction peut être exprimé par la relation suivante :

Xrideau_air = h2 – h1 / ((ha – h2) – (h2 – h1))

Où :

  • h1 : enthalpie à la buse de soufflage [kJ/kg];
  • h2 : enthalpie à la bouche de reprise[kJ/kg];
  • ha : enthalpie de l’ambiance de la zone de vente [kJ/kg].

Hypothèse

  • ha = 55 [kJ/kg];
  • h1 est +ou- constant et faible.

Calculs

L’équation ci-dessus peut être exprimée plus simplement par :

Xrideau_air = h2  / (ha – 2h2)

Pour différentes valeurs de h2 variant de 5 à 20 [kJ/kg], le taux d’induction varie et est représenté sur le graphique suivant :

D’après les équations (1) et (2), l’induction d’air extérieur :

ma = Xrideau_air x  mrideau_air

ou

ma = h2  / (ha – 2h2) x  mrideau_air

Conclusions

Pour que les apports dus à l’induction soient faibles, il faut que :

  • le débit du rideau d’air mrideau_air soit faible;
  • le transfert de chaleur de l’ambiance vers la bouche de reprise soit faible. On y arrive en réduisant au maximum la turbulence du rideau d’air.

En analysant cet exemple, on serait tenté d’en conclure que la présence du rideau d’air ne sert à rien. En fait, le rideau d’air étant nécessaire pour maintenir le froid dans le meuble, un débit minimum est nécessaire. De plus, le rideau d’air sert aussi à refroidir le meuble. L’air par son passage sur l’évaporateur est refroidi. Or, plus le débit d’air sur l’évaporateur est important plus l’échange thermique est grand. Il y a donc un optimum à trouver !

Des études extrêmement sophistiquées réalisées par les fabricants permettent d’établir un optimum afin de tenir compte à la fois :

  • de la nécessite de maintenir les denrées froides et de confiner le froid dans le meuble;
  • de l’optimisation de l’induction afin de limiter les apports externes venant de la zone de vente.

Suivant l’application et la géométrie du meuble, il existe toujours un débit d’air et une vitesse d’air optimaux au niveau du rideau.

Déformation du rideau d’air

L’effet « bilame » est connu pour affecter et déformer les rideaux d’air verticaux ou faiblement inclinés. Les différences de températures de part et d’autre du rideau d’air provoquent une différence de densité de l’air au niveau des faces intérieures et extérieures. Pour autant que la vitesse du rideau d’air devienne insuffisante, la différence de densité de l’air sur la profondeur du rideau génère des forces transversales de déformation du rideau. On observe que le rideau se déforme vers l’intérieur du meuble allant jusqu’à le briser.

Schéma "bilame" sur rideau d'air.

Briser le rideau d’air équivaut à augmenter les apports externes et, par conséquent dégrader le bilan thermique et énergétique. Cet effet peut être réduit par :

  • l’utilisation de meuble de type « cascade »;
  • le positionnement correct des étagères en fonction du profil du rideau d’air;
  • l’optimisation du chargement des denrées (pas de trou et pas de meuble vide);
  • une vitesse d’air suffisante qui va naturellement affecter le bilan thermique et énergétique du meuble (donc attention à trouver l’optimum;
  • l’utilisation d’un double rideau d’air.

    

Soufflage arrière de type « cascade » et double rideau d’air.

Les vitesses d’air recommandées pour les rideaux d’air

Comme on l’a vu ci-dessus, les échanges de chaleur entre l’ambiance des zones de vente et les denrées doivent être réduites au maximum. L’augmentation de la vitesse du rideau d’air devrait les limiter mais un débit trop important entraine une recrudescence des apports par induction, une augmentation des consommations des ventilateurs et, par conséquent, des apports internes des moteurs des ventilateurs. On conseille en pratique de limiter les vitesses des rideaux d’air :

  • pour les meubles horizontaux, à 0,5 m/s;
  • pour les meubles verticaux, entre 0,6 et 0,7 m/s.

Diminuer les apports par rayonnement

Apports de chaleur par rayonnement

Les apports de chaleur par rayonnement peuvent être importants notamment lorsque l’application est négative. Dans ce cas, ils peuvent représenter de l’ordre de 40 % du total des apports internes et externes. Ils sont essentiellement produits par le rayonnement dans l’infrarouge lointain des surfaces « chaudes » faisant face à l’ouverture des meubles dont la température des faces internes et des emballages des denrées est froide (application positive : température de 0° à 8°C) voire très froide (application négative : température de -18 ° à -35°C).

On évalue l’apport de chaleur par rayonnement Pray par la relation suivante :

Pray = hro x Aouverture (Tparoi – T i) x φ1 x φ2 [W]

où :

  • A ouverture : surface d’ouverture du meuble en [m²];
  • (tparoi – ti) : l’écart de température entre l’intérieur du meuble et la température des parois vues par l’ouverture du meuble en [K];
  • hro : coefficient équivalent d’échange par rayonnement hro de deux corps noir parallèles en [W/m².K];
  • φ1 : facteur de correction d’émission mutuelle entre deux corps gris (thermiquement) de surface parallèle;
  • φ2 : facteur d’angle associé à φ1 lorsque les surfaces ne sont pas parallèles.

Dans une situation existante, des améliorations sont possibles en jouant sur le choix des parois faisant face à l’ouverture des meubles. En effet, chaque matériau possédant un coefficient d’émissivité, le placement entre les parois et l’ouverture du meuble d’une paroi à basse émissivité, permet de réduire de manière substantielle les apports par rayonnement.

Par exemple, les matériaux polis, notamment les métaux, ont vis-à-vis du rayonnement infrarouge (IR) des coefficients d’émissivité assez faibles; ce qui veut dire qu’ils ne réémettent pas ou peu le rayonnement visible et infrarouge proche et qu’ils réfléchissent le rayonnement infrarouge lointain (matériaux de construction dans notre cas).

L’émissivité des tôles d’aluminium ou d’alliages à base d’aluminium est de l’ordre de 0,1 à 0,15 pour les longueurs d’onde allant du visible à l’infrarouge.

Spectre visible et Infrarouge proche.

Dans l’infrarouge lointain, le même type d’aluminium passe d’une émissivité 0,1 à 0,8 et a tendance à se comporter comme un corps noir et par conséquent à réémettre le rayonnement.

Les meubles horizontaux

Réduction des apports

Les meubles horizontaux, de par leur position par rapport aux parois du magasin, sont des cibles privilégiées pour réduire les apports par rayonnement. En effet, en grande partie, ce sont les plafonds qui interagissent avec ce type de meubles.

L’emploi d’un « baldaquin » de forme concave au-dessus des gondoles à froid négatif et dont la face inférieure est recouverte d’un aluminium de type poli miroir non anodisé, peut, dans certains cas et selon le type de meuble, réduire la température des denrées positionnées en surface de l’ordre de 3 à 5 °C.

Gondole avec baldaquin.

Différentes configurations de gondole.

Et le confort ?

Pour les meubles frigorifiques horizontaux, de par la position des clients par rapport à l’ouverture, le fait ou non de placer des baldaquins ne modifie pas tellement le confort.

Les meubles verticaux

Les ouvertures des meubles verticaux quant à elles subissent les agressions par rayonnement venant des plafonds, des murs ou des rayons leur faisant face et dont les températures sont plus chaudes.

Réduction des apports

Un moyen simple de réduire les apports par rayonnement est de positionner (s’il y en a beaucoup) les meubles frigorifiques en face à face. Cette solution simple permet d’éliminer partiellement l’effet d’émissivité mutuelle vu que les températures des parois internes des meubles sont plus ou moins égales.

Allée froide en convection naturelle.

Tunnel froid.

Allée froide en convection forcée.

Et le confort ?

Ce type de composition des meubles est souvent appelé « allée froide » pour la simple raison qu’elles sont inconfortables ». En effet l’introduction d’un corps à 36 °C entre deux parois dont la température de surface est de l’ordre de 0°C implique que le corps chaud échange par rayonnement sa chaleur et, par conséquent, l’impression de froid est grande.

Performances des réflecteurs

Des essais ont été réalisés afin de déterminer la pertinence de ce type d’action. La comparaison est réalisée en prenant un meuble frigorifique horizontal possédant les caractéristiques suivantes :

  • convection forcée;
  • chargée d’une seule couche de paquets d’essais en emballage carton de couleur blanche.

Essai en laboratoire

Dans un local obscur, maintenu dans des conditions d’ambiance à 25°C pour un taux d’humidité de 60 %, et équipé d’un plafond type « corps noir », on effectue un monitoring des températures de chaque paquet test. En régime stable, la moyenne des températures atteint – 15°C.

Dans les mêmes conditions d’ambiance, on place une paroi en aluminium poli entre le meuble et le plafond. La moyenne de la distribution des températures des paquets tests donne – 19°C.

On observe donc un abaissement des températures de l’ordre de 4°C. Les apports par rayonnement sont donc réduits et, par conséquent, les consommations énergétiques à l’évaporateur.

Pour être certain que ce ne soit pas un phénomène de réduction d’apports convectifs, toute chose restant égale, la tôle d’aluminium est peinte en blanc. On constate que les températures remontent aux alentours des – 15°C; la réduction d’apport est donc uniquement radiative.

Essai en magasin

La mise en place d’un baldaquin au dessus du même meuble donne un abaissement des températures de l’ordre de 3 à 5°C.

La variation des températures résulte de la manipulation et des déplacements fréquents des denrées par les clients ainsi que des opérations de dégivrages.


Placer ou optimiser les protections de nuit

Les rideaux de nuit, comme le montre le tableau ci-dessous donnent des résultats très intéressants au niveau de la réduction des apports externes par induction au travers du rideau d’air.

Il ne faut quand même pas oublier que pendant minimum 12 heures par jour (après la fermeture du magasin), cette protection, si elle existe, réduit de manière importante les apports par induction et aussi par rayonnement au meuble.

Type de meuble Type d’application Période de jour période de nuit Réduction des consommations énergétiques
Horizontal négative rideau d’air rideau de nuit 8 à 15 %
couvercle simple 15 à 30 %
couvercle isolé 25 à 45 %
Vertical positif rideau d’air rideau de nuit 12 à 30 %
porte vitrée
négatif porte vitrée porte vitrée 25 à 30 %

Meubles verticaux

Dans le cas où les protections de nuit n’existent pas, leur placement s’impose. Attention toutefois qu’il faut se renseigner de la faisabilité du placement auprès du constructeur. En effet, la configuration du meuble ne le permet pas toujours, car il faut que le rideau de nuit se trouve à l’extérieur par rapport au rideau d’air.

Photo rideaux de nuit.

L’optimisation des rideaux de nuit manuels peut passer par l’automatisation des ouvertures et fermetures. Pour autant que cela soit possible (au cas par cas), l’automatisation permet au personnel de ne plus se soucier de la gestion. Un oubli une nuit implique que les apports par induction et rayonnement continuent à influencer le meuble au niveau de ces consommations, même si les apports nocturnes diminuent (ralenti de nuit, apports réduits par l’absence d’occupant, d’éclairage de vente, …).

Attention aussi que l’automatisation rend le personnel moins responsable. En effet dans certains commerces, vu que le personnel ne voit plus la descente des rideaux de nuit, on se rend compte au matin (ou pas du tout) que certains rideaux ne sont pas descendus à fond par la présence de porte-prix dans l’axe du rideau par exemple.

Meubles Horizontaux

Avec les meubles horizontaux, les possibilités de fermeture des ouvertures en période nocturne sont diverses. On épinglera les fermetures coulissantes qui peuvent être utiles de jour comme de nuit.

Photo fermetures coulissantes sur meuble horizontaux.


Optimiser ou supprimer l’éclairage des tablettes

Problème ?

On sait que les consommations énergétiques dues à l’éclairage sont payées deux fois et même plus :

  • une première fois à travers les consommations électriques nécessaires pour mettre en valeur visuellement les denrées;
  • une seconde fois parce que les lampes réchauffent l’ambiance interne du meuble se traduisant par une consommation électrique supplémentaire au niveau des groupes de froid;
  • un peu plus même pour la simple raison que l’efficacité du tube en ambiance froide est réduite au moins de 40 %. Pour les accrocs de l’éclairage, ils seraient, au vu de l’effet médiocre de l’éclairage des étagères, de renforcer la puissance installée pour compenser le manque d’efficacité des lampes.

   Photo éclairage meubles horizontaux - 01.   Photo éclairage meubles verticaux - 01.   Photo éclairage étal.

Emplacement de l’éclairage

L’emplacement de l’éclairage est sûrement la clef du problème. Un test a été réalisé dans une grande surface. L’idée était de couper l’éclairage des tablettes et de ne plus se servir, comme source lumineuse, que des tubes fluorescents en dehors de la partie réfrigérée du meuble. Cette initiative a pour avantage de :

  • réduire la puissance installée des luminaires;
  • réduire les apports internes défavorables au bilan thermique et frigorifique du meuble;
  • augmenter l’efficacité des lampes puisqu’elles travaillent à température plus élevée.

Ceci est d’autant plus remarquable, que le magasin n’a pas enregistré de baisse du chiffre d’affaires pendant le test.

Gestion de l’éclairage

Simplement, une horloge peut assurer la coupure des luminaires pendant les heures de fermeture du magasin. On pourrait aussi arriver à un degré de sophistication en utilisant un superviseur (GTC ou Gestion Technique Centralisée) donnant des alarmes lorsque l’éclairage n’est pas éteint.

Photo écran de Gestion Technique Centralisée.


Adapter la vitesse des ventilateurs

On serait tenté de le faire ! En fonction de l’évolution des apports, réduire ou pas la vitesse des ventilateurs est tentant. Il faut rester prudent sachant que le rideau d’air doit sa stabilité au débit donné par les ventilateurs. Les moyens pour contrôler cette stabilité à notre connaissance n’existent pas et donc il n’y a pas moyen de réguler le débit par rapport à l’efficacité du rideau d’air.

Évaluer la consommation de la climatisation

Évaluer la consommation de la climatisation


Généralités

Précisons d’entrée de jeu que la consommation d’été est très variable d’un bâtiment à l’autre puisqu’elle est directement fonction de l’importance des vitrages, du niveau d’équipement intérieur, du système de climatisation, de la température de consigne,… À titre d’exemple : comment évaluer la consommation d’une salle de réunion si le profil d’occupation n’est pas précisément connu ?

À défaut d’une étude précise avec simulation informatique du bâtiment (taux de vitrage par façade, inertie des parois,…) et relevé détaillé de son mode d’occupation (taux d’occupation effectif, niveau d’équipement bureautique,…), personne ne peut prédire la consommation.

Les choses se compliquent également par le fait que les hypothèses de départ de l’évaluation ne sont pas toujours les mêmes. Exemple : dans l’évaluation des coûts de refroidissement, tient-on compte des coûts de transport de l’air froid (ventilateurs) ?
Les ratios globaux sont donc très aléatoires…

Données

Pour connaitre les ratios de consommation rencontrés des bâtiments.

Évaluation de la consommation frigorifique basée sur la puissance frigorifique installée

En France, une technique grossière est parfois utilisée pour fixer les ordres de grandeur : partir de la puissance frigorifique nominale installée et estimer que l’installation fonctionne 1 000 heures par an à cette puissance (Collection des guides de l’AICVF : Calcul prévisionnel des consommations d’énergie – Bâtiments non résidentiels).

On prendra plutôt 800 heures lorsque l’énergie frigorifique est surtout liée à la compensation des apports solaires (fonctionnement surtout en plein été), et plutôt 1 200 heures lorsque la charge est plus permanente parce qu’issue des équipements électriques… Bien sûr, si l’installation a été fortement surdimensionnée, le ratio horaire va lui diminuer fortement !

On tiendra compte d’une efficacité frigorifique moyenne de …2,5… c.-à-d. que 1 kWh froid va générer 0,4 kWh au compresseur, et puis d’un prix du kWh adapté à la période d’utilisation de la climatisation (tarifications jours/nuits).

Exemple.

Une installation de climatisation de bureaux dont la puissance frigorifique nominale est de 80 W/m², va demander :

  • 80 W/m² x 800 h/an = 64 000 Wh/m² ou 64 kWh frigorifiques par m² traité;
  • soit encore 26 kWh/m² électriques au compresseur (64/2,5);
  • soit 4,3 €/m².an si la consommation se fait en journée (coût considéré : 0,16 €/kWh).

Attention : il s’agit là d’une estimation très grossière et elle ne reprend que la consommation liée au refroidissement des locaux !


Évaluation liée au fonctionnement

Lorsque le fonctionnement dépend très peu des conditions climatiques extérieures et que les apports internes sont connus, la consommation est directement liée à la durée de fonctionnement.

Par exemple, pour estimer la consommation d’un centre informatique, on peut multiplier la puissance moyenne par la durée de fonctionnement. De même, pour une salle de spectacle, on peut approcher les consommations à partir de l’occupation et de la puissance dégagée par occupant, de la durée et du nombre de représentations.

Chauffage électrique à accumulation

Chauffage électrique à accumulation


Les appareils à accumulation

Les accumulateurs renferment un noyau accumulant la chaleur; celui-ci est constitué de briques en magnésite, féolite, forstérite, fonte ou autres… pouvant être chauffées à des températures de 650 à 800°C.

Les briques peuvent avoir des formes diverses, en fonction de la conception du noyau et du mode d’installation des résistances entre les briques. Le noyau est entouré de matériau isolant approprié afin de limiter la température des parois.

  1. Vermiculite isolante.
  2. Briques magnétiques.
  3. Eléments chauffants.
  4. Contrôleur de charge.
  5. Borne de branchement.
  6. Sortie d’air.
  7. Entrée d’air.
  8. Ventilateur.

La température du noyau est le reflet de la charge contenue dans l’appareil et est contrôlée par un thermostat de charge.

Différents types d’accumulateurs

Accumulateurs statiques

Ils ne sont pas équipés d’un système de réglage de restitution de chaleur. Celle-ci s’effectue sous forme de rayonnement et de convection naturelle par les parois de l’appareil.

Accumulateurs statiques à restitution de chaleur réglable

En plus de la restitution de chaleur par les parois, ces appareils émettent également de la chaleur par convection naturelle de l’air entre les briques du noyau de l’accumulateur. Le réglage de la restitution de chaleur s’opère au moyen de clapets thermostatiques montés sur l’évacuation d’air dans la partie supérieure de l’appareil.

Accumulateurs statiques compensés

Il s’agit d’accumulateurs statiques pourvus d’un chauffage auxiliaire direct sous forme de convecteur. Ces appareils sont caractérisés par une puissance de raccordement plus faible et une capacité d’accumulation relativement limitée, qui permet néanmoins de réaliser au moins 60 % de la consommation annuelle au tarif de nuit.

Accumulateurs dynamiques

À l’opposé des accumulateurs statiques, la restitution de chaleur s’effectue essentiellement par une convection forcée de l’air à travers des canaux prévus entre les briques du noyau d’accumulation.

Dans ce cas, les accumulateurs sont équipés d’un ou plusieurs ventilateurs commandés par un thermostat d’ambiance.

Accumulateurs dynamiques à résistance d’appoint

Il s’agit d’accumulateurs dynamiques équipés d’une résistance de chauffe auxiliaire qui, en cas de restitution insuffisante de chaleur par le noyau d’accumulation, est enclenchée par le thermostat d’ambiance. La résistance d’appoint se situe dans le flux d’air.

Une distinction suivant le mode de restitution de la chaleur

Les accumulateurs « 9 heures »

Les accus 9 heures sont construits de telle façon que la capacité d’accumulation et la résistance électrique soient suffisamment importantes pour charger en neuf heures l’énergie nécessaire au chauffage pendant toute la journée. L’usage de ces appareils est optimalisé en tarification exclusive de nuit.

Les accus dynamiques 9 heures peuvent être équipés d’une résistance d’appoint.

Les accumulateurs « Hors-Pointes »

Les accumulateurs « Hors-pointes » sont des appareils dynamiques sans résistance d’appoint.

Leurs résistances de charge se trouvent dans le circuit d’air qui traverse le noyau. Cette caractéristique constructive permet un chauffage rapide même en cas de décharge complète du noyau.

La durée de charge nocturne et diurne de ces accumulateurs atteint au moins 16 heures par jour.

Les avantages par rapport à l’accu 9 heures se concrétisent par une puissance de raccordement plus faible et des dimensions plus réduites.

Le dimensionnement et la régulation de charge permettent de limiter la charge diurne à un strict minimum. L’usage de ces appareils est optimalisé en tarification trihoraire ou en EHP.


L’accumulation dans le sol

Photo chauffage par le sol.

L’assurance d’obtenir un chauffage de qualité commence par le choix du conducteur chauffant. Les écarts de température à la surface du sol, même lors de l’emploi d’un recouvrement céramique, doivent rester en dessous de la valeur normalisée de 1,5 K.

Le câble étant incorporé dans le béton accumulateur, la chaleur qu’il dégage se disperse dans tous les sens et chauffe ainsi la masse accumulatrice. La température limite du béton accumulateur mesurée à hauteur des conducteurs chauffants se situe entre 50 et 60°C.

Le chauffage par le sol est dimensionné de telle sorte qu’on obtient une température de contact au sol limitée à 26,5°C. Il est ainsi en mesure de dissiper 70 W au m².

Si la puissance requise n’est pas disponible par le sol, le complément sera obtenu par un chauffage additionnel (convecteurs ou chauffage d’appoint dans le sol le long des murs). Le cas échéant, lors de l’emploi de chauffage additionnel dans le sol, limité aux zones périphériques de la pièce, la température de contact au sol pourra atteindre 34°C, permettant ainsi de dissiper une puissance de 150 W au m².

Pour éviter des pertes de chaleur importante vers le dessous du plancher, celui-ci doit présenter une isolation suffisante.

Calculs

 Pour estimer la perte d’un chauffage par le sol situé au-dessus d’une cave, en fonction du degré d’isolation.

La dalle est subdivisée au moyen de joints de dilatation et de mouvement afin d’absorber les contraintes mécaniques dues aux phénomènes de dilatation et de mouvement inhérents à une dalle flottante.

Le chauffage à accumulation par le sol est normalement complété par un chauffage d’appoint direct dont la puissance diminue en fonction des heures de charge complémentaires disponibles pendant la journée.

En matière de restitution de la chaleur, l’accumulation par le sol est assimilable à un appareil à accumulation statique.

Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…

  1. Revêtement de sol.
  2. Dalle en béton accumulateur (6,5 à 14 cm selon l’inertie du local, le recouvrement du sol et la durée de charge; une valeur moyenne de 10 à 12 cm pour une durée de charge de 8h, et de 6,5 cm pour une alimentation en 7 h + 9 h de charge).
  3. Tube de protection à embout cuivre pour sonde de mesure.
  4. Nappe chauffante – profondeur d’encastrement : dans le tiers inférieur de la couche de béton – minimum 3 cm au dessus de la couche d’étanchéité.
  5. Couche d’étanchéité : 0,2 (0,5) mm pe ou apprêt de bitume de 250 gr.
  6. Isolation (résistante à une température de 85 °C).
  7. Couche d’étanchéité habituelle.
  8. Infrastructure porteuse.
  9. Chauffage d’appoint éventuel dans le sol.
  10. Plinthe.
  11. Ruban souple d’étanchéité.

 Source : d’après Le code de bonne pratique pour la réalisation des installations de chauffage électrique – Communauté de l’Electricité – CEG.

Moteur à courant continu

Moteur à courant continu


 

Généralité

On rencontre encore régulièrement des moteurs à courant continu à excitation indépendante dans les salles des machines des immeubles d’un certain âge. En général, ils font partie d’un groupe Ward-Leonard qui permet d’aisément faire varier la vitesse de rotation.

Actuellement, du groupe Ward-Leonard, on ne conserve que le moteur à courant continu qui, cette fois, est associé à un variateur de vitesse statique (variateur électronique) dont la technologie est plus simple et peu onéreuse tout en demandant peu d’entretien et en offrant des performances élevées dans une plage de vitesse très large (de 1 à 100 %).


Principe de fonctionnement

Le moteur à courant continu se compose :

  • de l’inducteur ou du stator,
  • de l’induit ou du rotor,
  • du collecteur et des balais.

Lorsque le bobinage d’un inducteur de moteur est alimenté par un courant continu, sur le même principe qu’un moteur à aimant permanent (comme la figure ci-dessous), il crée un champ magnétique (flux d’excitation) de direction Nord-Sud.

Une spire capable de tourner sur un axe de rotation est placée dans le champ magnétique. De plus, les deux conducteurs formant la spire sont chacun raccordés électriquement à un demi collecteur et alimentés en courant continu via deux balais frotteurs.

D’après la loi de Laplace (tout conducteur parcouru par un courant et placé dans un champ magnétique est soumis à une force), les conducteurs de l’induit placés de part et d’autre de l’axe des balais (ligne neutre) sont soumis à des forces F égales mais de sens opposé en créant un couple moteur : l’induit se met à tourner !

Schéma principe de fonctionnement.

Si le système balais-collecteurs n’était pas présent (simple spire alimentée en courant continu), la spire s’arrêterait de tourner en position verticale sur un axe appelé communément « ligne neutre ». Le système balais-collecteurs a pour rôle de faire commuter le sens du courant dans les deux conducteurs au passage de la ligne neutre. Le courant étant inversé, les forces motrices sur les conducteurs le sont aussi permettant ainsi de poursuivre la rotation de la spire.

Dans la pratique, la spire est remplacée par un induit (rotor) de conception très complexe sur lequel sont montés des enroulements (composés d’un grand nombre de spires) raccordés à un collecteur « calé » en bout d’arbre. Dans cette configuration, l’induit peut être considéré comme un seul et même enroulement semblable à une spire unique.


Caractéristiques

Les avantages et inconvénients du moteur à courant continu sont repris ci-dessous :

(+)

  • accompagné d’un variateur de vitesse électronique, il possède une large plage de variation (1 à 100 % de la plage),
  • régulation précise du couple,
  • son indépendance par rapport à la fréquence du réseau fait de lui un moteur à large champ d’application,

(-)

  • peu robuste par rapport au machine asynchrone,
  • investissement important et maintenance coûteuse (entretien du collecteur et des balais,

Machine réversible

Dans le régime de fonctionnement des ascenseurs à traction, le treuil à courant continu peut :

  • Tantôt fonctionner en moteur lorsque le système cabine et contre-poids s’oppose au mouvement de rotation (charge dite « résistante »); le moteur prend de l’énergie au réseau.
  • Tantôt travailler en générateur lorsque le même système tend à favoriser la rotation (charge dite « entrainante »); le générateur renvoie de l’énergie au réseau.

Type de moteur à courant continu

Suivant l’application, les bobinages du l’inducteur et de l’induit peuvent être connectés de manière différente. On retrouve en général :
Des moteurs à excitation indépendante.

Des moteurs à excitation parallèle.

Des moteurs à excitation série.

Des moteurs à excitation composée.

La plupart des machines d’ascenseur sont configurées en excitation parallèle ou indépendante. L’inversion du sens de rotation du moteur s’obtient en inversant soit les connections de l’inducteur soit de l’induit.


L’inducteur

L’inducteur d’un moteur à courant continu est la partie statique du moteur. Il se compose principalement :

  • de la carcasse,
  • des paliers,
  • des flasques de palier,
  • des portes balais.

   

Inducteur.

Le cœur même du moteur comprend essentiellement :

  • Un ensemble de paires de pôles constitué d’un empilement de tôles ferro-magnétiques.
  • Les enroulements (ou bobinage en cuivre) destinés à créer le champ ou les champs magnétiques suivant le nombre de paires de pôles.

Pour des moteurs d’une certaine puissance, le nombre de paires de pôles est multiplié afin de mieux utiliser la matière, de diminuer les dimensions d’encombrement et d’optimaliser la pénétration du flux magnétique dans l’induit.


L’induit

L’induit du moteur à courant continu est composé d’un arbre sur lequel est empilé un ensemble de disques ferro-magnétiques. Des encoches sont axialement pratiquées à la périphérie du cylindre formé par les disques empilés. Dans ces encoches les enroulements (bobines de l’induit) sont « bobinés » selon un schéma très précis et complexe qui nécessite une main d’œuvre particulière (coûts importants). Pour cette raison, on préfère, en général, s’orienter vers des moteurs à courant alternatif plus robuste et simple dans leur conception.

   

Induit.

Chaque enroulement est composé d’une série de sections, elles même composées de spires; une spire étant une boucle ouverte dont l’aller est placé dans une encoche de l’induit et le retour dans l’encoche diamétralement opposée. Pour que l’enroulement soit parcouru par un courant, ses conducteurs de départ et de retour sont connectés aux lames du collecteur (cylindre calé sur l’arbre et composé en périphérie d’une succession de lames de cuivre espacée par un isolant).

Composition de l’induit.

L’interface entre l’alimentation à courant continu et le collecteur de l’induit est assuré par les balais et les porte-balais.


Les balais

Les balais assurent le passage du courant électrique entre l’alimentation et les bobinages de l’induit sous forme d’un contact par frottement. les balais sont en graphite et constituent, en quelques sortes, la pièce d’usure. Le graphite en s’usant libère une poussière qui rend le moteur à courant continu sensible à un entretien correct et donc coûteux.

L’ensemble balais, porte-balais et collecteur.

Le point de contact entre les balais et le collecteur constitue le point faible du moteur à courant continu. En effet, c’est à cet endroit, qu’outre le problème d’usure du graphite, la commutation (inversion du sens du courant dans l’enroulement) s’opère en créant des micros-arcs (étincelles) entre les lamelles du collecteur; un des grands risques de dégradation des collecteurs étant leur mise en court-circuit par usure.


Pilotage de la vitesse de rotation

Relation Vitesse et force contre-électromotrice à flux constant

Lorsque l’induit est alimenté sous une tension continue ou redressée U, il se produit une force contre-électromotrice E.
On a :

E = U – R x I [volts]

Où,

  • R = la résistance de l’induit [ohm].
  • I = le courant dans l’induit [ampère].

La force contre-électromotrice est liée à la vitesse et à l’excitation du moteur.
On a :

E = k  x  ω x Φ[volt]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • ω = la vitesse angulaire de l’induit [rad/s].
  • Φ= le flux de l’inducteur [weber].

En analysant la relation ci-dessus, on voit, qu’à excitation constante Φ, la force contre-électromotrice E est proportionnelle à la vitesse de rotation.

Relation Couple et flux

Quant au couple moteur, il est lié au flux inducteur et au courant de l’induit par la relation suivante.

On a :

C = k x Φ x I [N.m]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • Φ= le flux de l’inducteur [weber].
  • I = le courant dans l’induit [ampère].

En analysant la relation ci-dessus, on voit qu’en réduisant le flux, le couple diminue.

Variation de la vitesse

Au vu des relations existant entre la vitesse, le flux et la force contre-électromotrice, il est possible de faire varier la vitesse du moteur de deux manières différentes. On peut :

  • Augmenter la force contre-électromotrice E en augmentant la tension au borne de l’induit tout en maintenant le flux de l’inducteur constant. On a un fonctionnement dit à « couple constant ». Ce type de fonctionnement est intéressant au niveau de la conduite d’ascenseur.
  • Diminuer le flux de l’inducteur (flux d’excitation) par une réduction du courant d’excitation en maintenant la tension d’alimentation de l’induit constante. Ce type de fonctionnement impose une réduction du couple lorsque la vitesse augmente.


Le groupe Ward-Leonard

Le groupe Ward-Léonard représente l’ancienne génération des treuils d’ascenseur à traction à câbles. Ce système permettait de faire varier la vitesse d’un moteur à courant continu à excitation indépendante en réglant la tension de l’induit par l’intermédiaire d’une génératrice à courant continu dont on faisait varier l’excitation; la génératrice étant entraînée mécaniquement par un moteur à courant alternatif classique.

Pour une faible variation du courant d’excitation de la génératrice, il était possible de maîtriser des puissances énormes de moteurs à courant continu dans une plage de variation de vitesse très étendue.

L’électronique de régulation de vitesse est venue supplanter le système du groupe Ward-Léonard où le variateur de vitesse électronique vient contrôler :

  • soit directement un moteur à courant alternatif,
  • soit le moteur à courant continu seul rescapé du groupe Ward-Léonard.

 

Cuisiner ou assembler ?

Cuisiner ou assembler ?

Les gammes de produits

Produits de première gamme

Il s’agit des produits bruts traditionnels, c’est-à-dire :
  • crus et non épluchés pour les fruits et les légumes,
  • en carcasse, quartier ou muscles pour les viandes,
  • à vider ou prêts à cuire pour les poissons et les volailles…

Ces produits nécessitent des conditions de stockage précises en termes de température,d’hygrométrie. Pour éviter des souillures éventuelles et des transferts d’odeurs, ils doivent être isolés.

Produits de deuxième gamme

Ce sont tous les produits aseptisés (conserves et semi-conserves), c’est-à-dire des aliments conditionnés en emballage étanche aux liquides, aux gaz, aux micro-organismes et ayant subi un traitement thermique susceptible de détruire ou d’inhiber « d’une part les enzymes et d’autre part les micro-organismes et leurs toxines « .

Produits de troisième gamme

Sont rassemblés dans cette catégorie les produits conservés en froid négatif (congélation et surgélation).
Ils ont généralement subis des traitements préliminaires (épluchages, blanchiment… ), sont conditionnés en emballage non étanche (carton poche plastique) et se conservent à -18°C.

Produits de quatrième gamme

Ce sont des produits végétaux ayant subi des traitements d’épluchage, de parage, de coupage. Ils sont prêts à l’emploi pour les préparations de crudités ou prêts à la mise en cuisson dans des plats cuisinés ou potages. Conditionnés en emballage étanche, sous atmosphère contrôlée ou raréfiée (« sous vide »), ils se conservent à une température inférieure à +4°C.

Produits de cinquième gamme

Cette catégorie qui est apparue plus récemment sur le marché, regroupe les produits cuisinés prêts à être servis. Ils sont conditionnés en atmosphère raréfiée (avant ou après cuisson) et se conservent à +3°C.

Produits semi élaborés

Enfin et pour être complet, il faut ajouter une famille de produits appartenant au secteur de l’épicerie sèche, très souvent déshydratée, qui permet de réaliser des préparations culinaires ou pâtissières en « sautant  » certaines étapes du cycle normal de production.


Cuisiner ou assembler ?

La cuisine d’assemblage consiste à réaliser une production culinaire (hors d’œuvre, plats garnis, dessert), à partir de produits achetés dans un état déjà plus ou moins élaboré, en les assemblant dans le cadre de la recette, avec ou sans cuisson.

Elle a pour effet de transférer vers l’amont, en l’occurrence les industries agro-alimentaires, certaines phases de la production classique d’une cuisine, notamment les étapes préliminaires, permettant ainsi la réalisation d’effets d’échelle et de gain de productivité.

Schéma cuisine traditionnelle / cuisine assemblage.

Choisir la couche isolante du plancher des combles [Améliorer]

Performances thermiques à atteindre – la réglementation

Outre un niveau de performance global à atteindre (Kglobal ou Be 450), la réglementation wallonne en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique (Umax) des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si un mur n’est pas directement touché par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (Kglobal ou Be 450).

Élément de la surface de déperdition

Umax (W/m²K) (Annexe C1 de la PEB)
Toiture entre le volume protégé et l’ambiance extérieure ou ensemble de plafond + grenier + toiture. 0,3

Performances thermiques à atteindre – les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U (anciennement k) de 0,3 [W/m²K] est requis pour les toitures. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde fou que la Région a voulu imposer aux constructeurs.

En pratique, l’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

Quelques considérations complémentaires :

  • Ci-dessus, nous avons suivi une logique de rentabilité financière. Si une logique de rentabilité écologique était prise, la lutte contre 2>le CO2 nous pousserait vers une isolation plus forte !

 

  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau troué. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau . En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, . notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses ,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Epaisseur de l’isolant pour atteindre les performances recommandées :

Pour une toiture inclinée, l’épaisseur d’isolant à poser en fonction du coefficient de conductivité thermique est donnée sur le graphique ci-dessous. Pour chaque isolant, il existe un intervalle de valeurs possibles pour la conductivité thermique. Le diagramme ci-dessous permet de déterminer dans quel intervalle d’épaisseur il faudra se situer en fonction du type d’isolant choisi. Les valeurs présentées font références à une toiture standard dont le détail technique est donné ci-dessous.

À droite : Épaisseur d’isolant nécessaire pour atteindre U = 0.3 W/m²K dans le cas d’une toiture inclinée de référence en fonction de la conductivité thermique (λ) ou du type d’isolant choisi (les intervalles de valeurs pour chaque isolant correspondent aux valeurs certifiées).

À gauche : Détail technique de la toiture inclinée prise comme référence.

Les isolants considérés ici sont ceux qui sont habituellement retenus lors de la réalisation d’une toiture inclinée.

Pourquoi une isolation plus poussée en toiture que dans les murs ?
Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en ouvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.

Pourquoi une isolation moins poussée sur le sol ?
En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.


Type d’isolant

L’isolation des différents types de planchers des combles non aménageables.
Les matériaux isolants peuvent présenter différentes formes, raideurs et résistances à la compression :

Formes

Matériaux

Matelas semi-rigide ou souple :

La laine de roche, la laine de verre, les fibres traitées organiques (chanvre, …) ou animales (laine, ….) …

Panneaux rigides :

La mousse de polyuréthane, de polystyrène expansé ou extrudé, le verre cellulaire, les panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …), le liège

Les flocons ou granulés :

Les granulés de perlite ou de vermiculite, les granulés de polystyrène expansé, les granulés de liège, les flocons de laine minérale insufflés, les flocons de papier recyclé …

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait. La valeur de calcul de la conductivité thermique (λ U) d’un isolant possédant ce type d’agrément est connu avec précision. Il est certifié par le fabricant. Il est régulièrement vérifié par des essais. Il peut être utilisé pour calculer les performances de la paroi à la place des coefficients moins favorables tabulées dans les normes (Annexe B1 de la PEB).

  • l’efficacité isolante,
  • l’adéquation avec le support,
  • le comportement au feu,
  • le prix.

C’est au concepteur de choisir ceux qui sont prioritaires.

L’efficacité isolante

La valeur isolante du matériau dépend de son coefficient de conductivité thermique λ . Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

L’adéquation avec le support

Un isolant semi-rigide :
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable).

Un isolant souple :

  • peut suivre la forme très compliquée d’un plancher (contournement des gîtes);
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable);
  • doit être supporté (par le plafond).

Un isolant rigide :

  • résiste mieux à la compression (peut éventuellement supporter une aire de foulée);
  • calfeutre moins facilement (entre les gîtes ou lambourdes);
  • s’adapte plus difficilement à des formes compliquées.

Les flocons ou granulés :

  • s’intercalent facilement dans les espaces qui leur sont réservés (pose entre les gîtes);
  • calfeutrent correctement les raccords (autour de l’isolant);
  • ne résistent pas à la compression (non circulable);
  • doivent être supporté (par le plafond);
  • se déplacent facilement.

Le choix de l’isolant dépend des caractéristiques énumérées ci-dessus et du modèle d’isolation choisi en fonction du type de plancher (lourd ou léger).

Plancher lourd

Le plancher lourd sera idéalement isolé par le haut afin de lui maintenir une température constante. On évite ainsi des contraintes internes dans la structure et les désordres qu’elles risquent de provoquer. Le volume protégé profite également de l’inertie thermique importante du plancher lourd.

Non circulable

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.

Si, en outre, la face supérieure du plancher est compliquée ou irrégulière, on préférera les matelas d’isolant souples qui épousent mieux la forme.
Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Circulable

Si le plancher doit être circulable, tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (voir plancher léger, isolation entre gîtes).

Plancher léger

Non circulable, avec plafond mais sans plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.
On peut également utiliser des flocons ou granulés. Ils sont plus faciles à poser mais risquent d’être déplacés avec le temps par des facteurs mécaniques extérieurs (vent, circulation intempestive, rongeurs, oiseaux, …)
Dans les deux cas, la pose d’un pare-vapeur est difficile.

Isolation autour des gîtes

On utilisera exclusivement un matelas souple épousant bien la forme du support. Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Non circulable, sans plafond mais avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Non circulable, avec plafond et avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On insuffle des flocons ou granulés d’isolant entre les gîtes, dans l’espace situé entre le plafond et le plancher.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Circulable

Le plancher léger circulable sera généralement isolé dans son épaisseur pour des raisons d’économies d’espace et de matériaux.

 

Dans ce cas, on utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer. On les posera par le haut ou par le bas si respectivement l’aire de foulée ou le plafond n’existent pas encore.
Lorsque le plafond est posé, on peut utiliser des flocons ou granulés d’isolant, éventuellement insufflés si l’aire de foulée existe déjà.

Dans certains cas, pour des raisons de facilité, ou lorsqu’il n’y a pas de plafond ou lorsque des appareils volumineux sont encastrés dans celui-ci, on pose l’isolant sur une plaque de support reposant sur le gîtage.
Tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (Voir plancher léger, isolation entre gîtes).

Attention !

Certains isolants sont incompatibles avec d’autres éléments du plancher en contact avec l’isolant.
Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.

Le comportement au feu

Lorsque le support résiste mal au feu (plancher en bois, tôles profilées métalliques), l’inflammabilité de l’isolant joue un rôle important.
Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.
La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant (solution à éviter), les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant mais aussi de sa mise en œuvre.
Lorsqu’ils sont posés dans les planchers, les isolants correctement posés et protégés des agressions extérieures, ne nécessitent aucun entretien et leurs durées de vie ne posent pas de problème particulier.


Épaisseur calculée de l’isolant

Remarque.

Les calculs ci-dessous sont faits avec l’hypothèse que le plancher est étanche à l’air. Dans le cas contraire, les mêmes épaisseurs d’isolant peuvent mener à une valeur U (anciennement k) 2,5 fois plus élevée que celle prévue.
Un plancher lourd ne pose généralement pas de problème de courant d’air.
Pour éviter les courants d’air à travers les planchers légers on choisira une finition inférieure de type :

  • plafonnage;
  • plaques de carton-plâtre correctement rejointoyées;
  • ou des panneaux de fibres de bois liées au ciment, avec enduit.

Le plafond n’est, par contre, pas rendu étanche par une finition en lambris ou planchettes.
Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

 

1/U

= [1/hi + d11 + d22 + … + di/λi + Ru + 1/he]
<=> di = λi [(1/U) – (1/hi + d11 + d22 + … + Ru + 1/he)]

où,

  • λi est le coefficient de conductivité thermique de l’isolant,
  • U est le coefficient de transmission thermique de l’ensemble « plancher des combles + versants de toiture » à atteindre (exemple : 0,3 W/m²K),
  • he et hi les coefficients d’échange thermique entre le toit et les ambiances extérieure et intérieure valant respectivement 23 W/m²K et 8 W/m²K,
  • dx la résistance thermique des autres couches de matériaux,
  • Ruest la résistance thermique des combles. Elle comprend la résistance thermique de l’espace d’air et la résistance thermique de la toiture (en pente).

Le tableau ci-dessous donne les résultats des calculs pour des toitures sans sous-toiture et pour différents modèles d’isolation de plancher.

+

Valeur U sans isolation [W/(m² x K)]

 

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,4 W/(m² x K)

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,3 W/(m² x K)

plancher  :

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

MW, EPS

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

Plancher léger étanche à l’air; sans aire de foulée.

4 > 101 > 79 > 90 > 139 > 108 > 123
Plancher léger étanche à l’air; avec aire de foulée.

1.8 > 88 > 68 > 78 > 125 > 97 > 111
Plancher lourd étanche à l’air. 3.3 > 99 > 77 > 88 > 136 > 106 > 121

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.
La formule devient alors :

e= λi ((1/ U) – (1/h+ 1/hi) [m]

Pour U = 0,3 W/m²K,

ei = λi ((1/ 0,3) – (1/23 + 1/8 )) m
 

= λx 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λ i.
L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR)

Son λi vaut 0.039 W/mK (suivant NBN B62-002)

ei = 0.039 x 3.16 = 0.12324 m

L’épaisseur commerciale : 13 cm (par exemple : 6 + 7 cm).

calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant, cliquez ici !

Conseils généraux de mise en œuvre de la couche isolante

> L’isolant est mis en œuvre conformément aux prescriptions de son agrément technique.

> L’isolant doit être placé sur toute la surface du plancher sans oublier les éventuelles parties verticales, les trapes d’accès, etc.

> Les joints entre les différents panneaux isolants et entre les panneaux isolants et les gîtes (planchers légers) doivent être bien fermés.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

> Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé. Par exemple :

  • L’isolant du plancher doit être en contact avec l’isolant des murs extérieurs et des éventuels murs intérieurs du grenier;
  • Il doit être dans le prolongement et en contact avec le dormant du trapillon isolant des accès.
  • Il doit être en contact avec l’isolant autour du conduit de cheminée.

> Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.

> Les panneaux isolants doivent être protégés et manipulés avec précaution pour éviter les écrasements, les déchirures, l’eau, la boue.

Auditer rapidement sur base de la comptabilité énergétique

Facture gaz ou fuel

 

Repérer le problème

 

 

Projet à étudier

 

 

Rentabilité

 

 

Consommation annuelle de chauffage par m² de plancher brut ?

Repères (bureaux) :

– si construction < 1975, consom. de 100 à 180 kWh/an/m².

– si construction > 1975, consom. de 40 à 150 kWh/an/m²  (bureaux).
(1 m³ de gaz = 1 litre de fuel = 10 kWh)

Affiner l’évaluation via les ratios dans Énergie+.

 

 

Se situer par rapport au secteur.

Définir la priorité d’amélioration entre chauffage et électricité.

Établir les priorités d’audit et d’intervention entre les bâtiments d’un même parc.

 

 

 

 

 

S’il n’y a pas d’ECS produite par l’installation de chauffage, les consommations de chauffage sont-elles nulles en été ?

Comment sont gérés la mise en route et l’arrêt des installations en été ?

 

 

Placer un régulateur qui interrompt la chaudière et les circulateurs si la température extérieure dépasse 15°C.

 

 

+ +

S’amortit aussi en mi-saison car la T°ext est > à 15°C durant 400 h  de la saison de chauffe.

 


Facture électrique

Repérer le problème

Projet à étudier

Rentabilité

Consommation annuelle d’électricité du bâtiment par m² de plancher brut ?

Repères :

– si non climatisé, consommation 30 à 100 kWh/an/m²  (bureaux publics) et de 60 à 120 kWh/an/m² (bureaux privés).

– si climatisé, consommation 100 à 160 kWh/an/m² (bureaux).

Affiner l’évaluation via les ratios dans Énergie+.     

Se situer par rapport au secteur.

Définir la priorité d’amélioration entre chauffage et électricité.

Établir les priorités d’audit et d’intervention entre les bâtiments d’un même parc.

 

Si tarif Basse Tension, présence d’un compteur bi-horaire ?

 

 

Installer un compteur bi-horaire dans pratiquement tous les bâtiments tertiaires.

+ + +

La consommation de nuit = …15…20… % de la cons. tot.

Le pourcentage des consommations consommées en heures creuses (nuit + WE) correspond-il à une logique de fonctionnement du bâtiment ? Analyser l’origine des consommations de nuit et de WE, placer des horloges sur les circuits à arrêter la nuit.

+ + +

Le kWh électrique est 2 à 3 x plus cher que le kWh chauffage.


Facture électrique haute tension

Repérer le problème

Projet à étudier

Rentabilité

Facteur de puissance ou cos « phi » > 0,9 ?

Pénalité pour « Puissance Réactive » ?

Placement de condensateurs de compensation.

+ + +

Rentable en 1 an.

Pointe de puissance 1/4 horaire anormale ?

Repères :

– si pointe supérieure à 20 W/m², c’est anormal pour un bâtiment de type bureaux non climatisé.

– si le ratio « consommation en Heures Pleines (kWh) /
pointe 1/4 horaire (kW) »
est compris entre 80 et 200 heures, une gestion de la pointe peut être rentable.

Analyser s’il existe des équipements à délester.

Empêcher ces équipements de fonctionner durant la pointe par une horloge ou en plaçant un délesteur de charges électriques.

Étudier la possibilité d’une réorganisation du travail qui empêcherait la simultanéité de certaines tâches (ex : arrêt du lave-vaisselle lors du fonctionnement des friteuses).

+ +

Surtout rentable si charges thermiques que l’on peut interrompre (ballon électrique d’ECS, groupe frigorifique, chauffes-plats des cuisines collectives, …) en parallèle avec des charges que l’on ne peut couper (friteuses, lave-vaisselle, …).

« Tarif » adéquat ?

La consommation électrique est-elle élevée en été ?

Il n’existe plus de tarifs « officiels » mais il est possible de négocier un prix plus intéressant si la consommation est élevée en été.

Demander un diagramme de charge au distributeur électrique.

+ + +

Coût nul, simple changement de tarif.

Rentabilité encore plus forte si délestage de charges en hiver.


Suivi des consommations

Repérer le problème

Projet à étudier

Rentabilité

Assure-t-on un suivi des consommations électriques, de combustible et d’eau (chaude) sanitaire ? Les consommations de combustibles sont-elles rectifiées en fonction des conditions météo ? Mettre en place une comptabilité énergétique.
À défaut d’un compteur sur l’eau chaude, le suivi des consommations d’eau reste très utile.

+ +

… si on utilise les résultats !

Dispose-t-on de compteurs spécifiques pour analyser les consommations ?

Les factures sont-elles associées à un compteur spécifique

Placer un compteur :

  • sur l’eau chaude sanitaire,
  • sur le compresseur de la machine frigorifique,
  • sur un départ vers un bâtiment annexe,
  • sur un groupe de ventilation

et améliorer les stratégies d’intervention et de gestion des factures.

+ +

… si on utilise les résultats !

Les services techniques, les décideurs et les utilisateurs sont-ils mis au courant si la consommation est anormale par rapport à l’année précédente ? Organisation interne à mettre en place pour réagir rapidement lorsqu’une dérive apparaît.

+ + +

Pour comprendre la cause du problème, il faut l’analyser rapidement après son apparition.

Les utilisateurs sont-ils motivés à économiser l’électricité, les combustibles, l’eau sanitaire, … ? Envisager une « rétribution » de l’effort consentit : reconnaissance morale et écologique,  ristourne financière, avantage matériel, …

+ + +

Solution « tout le monde gagnant », dynamique interne, …

Y a-t-il production et/ou consommation d’électricité verte ou d’énergie renouvelable ? Penser à installer des systèmes producteurs d’énergie renouvelable

Suivi des installations

Repérer le problème

Projet à étudier

Rentabilité

Y a-t-il une personne dans le bâtiment (interne à l’établissement ou société de maintenance) qui a en charge la conduite des installations et à qui on peut signaler un problème ? Nommer un responsable de la conduite.

+ +

… à terme.

Cette personne connaît-elle le fonctionnement de l’installation et de sa régulation, peut-elle assurer une gestion optimale au niveau énergétique ? Assurer sa formation de Responsable Énergie.

Assurer sa formation technique.

+ +

… à terme.

Dans le cas d’installations conduites par une société de maintenance, y a-t-il un contrôle de la bonne qualité de cette conduite en matière d’efficacité énergétique ? Réaliser un audit de la maintenance par un bureau spécialisé.

Utiliser le cahier des charges à la maintenance énergétique de l’IBGE

+ +

… à terme.

Si la maintenance est confiée à une entreprise extérieure, celle-ci a-t-elle un label de qualité ? Choisir une entreprise de maintenance disposant d’un label de qualité ISO 9002 ou un label d’environnement ISO 14000
Accède-t-on facilement aux schémas de l’installation et à la logique de régulation ? Mettre à disposition

– les schémas techniques « as built »

– les fiches techniques « as built » des équipements.

– la logique de régulation et les paramètres de réglage « as built ».

Créer un carnet de gestion qui reprend les entretiens, remplacements d’éléments, pannes, etc…

Indiquer les références des circuits sur les équipements (vannes, sondes, éléments de régulation, …).

Reconstituer l’ensemble de ces documents si ceux-ci sont absents.

+ +

… à terme.

Existe-t-il un journal de bord de gestion des installations qui reprend l’ensemble des actions entreprises : entretien, installation, remplacement de pièces, régulation, etc. Mettre en place un suivi de la gestion des installations consignée

+ +

… à terme.

Découvrez cet exemple de comptabilité énergétique au Collège du Sacré Cœur de Charleroi.

Détendeurs [Froid alimentaire]

Détendeurs [Froid alimentaire]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

La régulation de la surchauffe à la sortie de l’évaporateur conditionne l’ouverture ou la fermeture du détendeur. Cette régulation « auto-adaptative » se base sur le principe que l’évaporateur a une valeur minimale de surchauffe stable qui évolue en fonction des variations de sa charge Q0. Entre d’autres termes, la valeur minimale de surchauffe stable est celle qui permet, quelle que soit la charge, de vaporiser la dernière goutte liquide du fluide frigorigène juste à la sortie de l’évaporateur.

Surchauffe minimale (source : Danfoss).

  • Si la dernière goutte de fluide est vaporisée juste avant la sortie de l’évaporateur, la surchauffe mesurée en température est élevée et ne permet pas à l’évaporateur d’évacuer la chaleur Q0 complètement et, par conséquent, le travail de l’évaporateur n’est pas optimum.
  • Si la dernière goutte de fluide est vaporisée après la sortie de l’évaporateur ou ne se vaporise simplement pas, la surchauffe mesurée en température est faible. La présence de liquide à l’aspiration du compresseur risque de l’endommager.


Différentes technologies de détendeurs

Le détendeur thermostatique

C’ est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Schéma détendeur thermostatique.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Schéma détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.
Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).


Comparaison entre les détendeurs thermostatiques et électroniques

La régulation des détendeurs est surtout liée à leur technologie : jusqu’il y a peu, la technologie vraiment éprouvée était le détendeur thermostatique.

À l’heure actuelle, la plupart des installations de petite à moyenne puissance utilisent encore cette technologie. La régulation du débit d’alimentation de l’évaporateur et, par conséquent, de la surchauffe obéit à une loi proportionnelle en fonction de la charge frigorifique demandée à l’évaporateur.

Le détendeur thermostatique

Lorsqu’un détendeur thermostatique est utilisé pour réguler l’injection de fluide frigorigène, il réagit de manière linéaire en fonction de la demande de froid Q0.

Le réglage de l’injection de fluide réfrigérant au départ doit garantir une surchauffe quelle que soit la charge afin d’éviter que du fluide se retrouve en phase liquide à la sortie de l’évaporateur. Ce réglage s’effectue au niveau d’une vis agissant sur le ressort d’équilibrage de pression.

La courbe de réglage du détendeur thermostatique étant une droite proportionnelle à la différence entre les températures mesurées par le bulbe à la sortie de l’évaporateur et la température d’évaporation (traduite par la pression régnant en sortie du détendeur), pour garantir la surchauffe, elle doit se situer à droite (en bleu) de la courbe de surchauffe minimale stable (en rouge). Dans ces conditions, la surchauffe est garantie, mais exagérée se traduisant par :

  • une efficacité de l’évaporateur réduite pour certaines charges;
  • une durée de marche accrue du compresseur pour conserver la température souhaitée à l’évaporateur; d’où une augmentation de la consommation énergétique.

À l’inverse, un réglage trop à gauche de la courbe de surchauffe minimale (en noir) provoque un fonctionnement de l’évaporateur en surchauffe insuffisante et risquerait d’être dommageable pour le compresseur à certaines charges (liquide présent à la sortie de l’évaporateur).

Le détendeur électronique

Les nouvelles technologies permettent de suivre au plus près la courbe des valeurs minimales de surchauffe stable en associant des détendeurs électroniques à des régulateurs analogiques ou digitaux. Le schéma suivant montre une régulation électronique optimisée qui assure en permanence un bon remplissage de l’évaporateur. On remarquera que la régulation assure toujours que le fluide reste bien vaporisé dans l’évaporateur en évitant d’envoyer du liquide au niveau du compresseur (on reste à droite de la courbe).

À l’heure actuelle, les fabricants de régulateurs y arrivent facilement par le développement d’algorithmes sophistiqués prenant en compte les différents types de fluide frigorigène indépendamment des caractéristiques initiales de l’évaporateur et de leur évolution en fonction de la charge. Comme le montre la figure ci-dessus, le régulateur calcule l’ouverture du détendeur en fonction :

  • de la température en sortie de l’évaporateur (capteur de température par contact sur la tuyauterie);
  • de la pression d’évaporation (capteur de pression sur la conduite d’aspiration du compresseur) traduite en température d’évaporation par le régulateur.

La différence entre ces deux valeurs représente la valeur réelle de la surchauffe et est comparée à la courbe de surchauffe minimale.

Des économies gratuites sur la facture d’électricité

Des économies gratuites sur la facture d'électricité


Introduction

En cherchant, on peut parfois faire de belles économies d’énergie et financières sans investissement. Comme par exemple, une ventilation qui fonctionne 24h/24 alors qu’une coupure de nuit est envisageable, les circulateurs de chauffage qui tournent toute l’année alors que la chaudière est coupée à la bonne saison, des compteurs hors service dont on paye toujours une redevance, l’éclairage extérieur d’un bâtiment ou d’un parking qui reste allumé de jour comme de nuit, … C’est ce qu’a réalisé le Responsable Énergie de la Ville de Namur. Il s’est penché sur les origines des différentes consommations électriques de l’Hôtel de Ville et s’est rapidement aperçu que certaines améliorations pouvaient facilement réduire les consommations et donc la facture électrique globale.

Cette analyse date du début des années 2000 et n’effectue pas de retour sur les mesures mises en place et leur impact réel. Toutefois, même si 2016 diffère de l’époque, les mesures envisagées sont toujours valables.


Un point de départ : les ratios de consommation

Afin de se donner une idée du niveau de consommation de son bâtiment, une bonne démarche est de le comparer à la moyenne des consommations des bâtiments de même affectation en Région wallonne. On peut ainsi rapidement situer sa consommation comme étant supérieure ou inférieure à la moyenne wallonne de x kWh/m² et par an.

Évaluer

Pour situer sa consommation électrique par rapport au secteur.

Dans le cas de l’Hôtel de ville de Namur, on se situait bien au-delà de la moyenne. Une analyse fine suite à des mesures sur le terrain a permis de vérifier l’origine des consommations pour les différentes ailes et si effectivement ces kWh « excédentaires » étaient justifiés ou pas.


D’autres indicateurs

Il existe d’autres indicateurs de la bonne utilisation d’une installation électrique que l’on citera brièvement et qui ont été évalués par le Responsable Énergie dans sa démarche :

  • la puissance spécifique qui correspond à la puissance de pointe maximale annuelle sur la surface totale du bâtiment (une puissance spécifique élevée est source de consommation excédentaire);
  • la durée d’utilisation de l’installation qui se calcule en ramenant l’énergie consommée en heures pleines sur la puissance de pointe quart-horaire annuelle;
  • le rapport des consommations en heures creuses et en heures pleines.


L’analyse de terrain

Force fut de constater que la consommation électrique en heures creuses équivalait étrangement à 42% de la consommation totale. Est-il normal dans un bâtiment administratif qui n’ouvre que la journée de consommer autant la nuit ? Certes pas ! Mais qui est là pour s’en rendre compte en pleine nuit ? D’où l’importance et la nécessité d’effectuer des mesures de courant afin d’évaluer qui consomme et quand.

Résumé des modifications à apporter pour générer les économies estimées

Investissement TVAC Économie d’énergie Modif. Pointe kW Économie financière générée annuellement Temps retour brut
MWhPL MWhCR Hr.PL Hr.Cr Pointe Total
a.1 Mieux gérer l’éclairage des sanitaires et des couloirs. 0 5.5 61.5 0 423 € 3 158 € 0 3 581 € 0
a.2 Couper l’éclairage des parkings. 815 € 14 102 0 1 078 € 5 238 € 0 6 316 € 0,13 an
a.3 Horaire de l’éclairage extérieur. 0 21 0 0 1 078 € 0 1 078 € 0
a.4 Couper le transfo de 400kVA. 2.3 2.9 0 177 € 149 0 326 € 1,7 an
a.5 Couper les halogènes de l’accueil. 5.5 0.5 – 1.5 423 € 25 12 x 15 € 628 € 0
b.1 Couper l’éclairage des sanitaires et des couloirs plus tôt. 1 800 € 5.75 5.75 0 442 € 295 0 737 € 1,6 an
b.2 Éclairage manuel dans les sanitaires. 0 5 0 0 38 € 0 385 €
b.3 Couper les prises de courant durant la nuit et les week-ends. 3 755 € 12 74 0 924 € 3 800 € 0 4 724 € 0,8 an
c.1 Ballasts électroniques écl. bureaux. 50 000 € 50 0 – 20 3 850 € 0 12 x 203 € 6 286 € 8 ans
c.2 Ballasts électroniques écl. parkings. 5 000 € 6.5 1.5 – 2 500 € 77 12 x 20 € 597 € 8.5 ans

Sur base de l’analyse des mesures, des anomalies de programmation d’horloge ont été décelées comme par exemple le fonctionnement 24h/24 des ventilateurs d’extraction des parkings ainsi que leur éclairage alors qu’ils sont inaccessibles la nuit. De plus, le patio et le jardin, fermés aussi au public durant la nuit, sont illuminés alors qu’ils ne sont pas visibles depuis la voirie, dès lors une meilleure programmation de l’horloge permettrait une économie de 21 MWh par an. Également, une meilleure gestion de l’éclairage des couloirs et des sanitaires apporte des économies substantielles.

Plusieurs actions ont été finalement proposées par le Responsable Énergie qui ne manqueront pas d’interpeller les mandataires tant ces économies sont pour la plupart directes et sans investissement.

Faites le tour de vos bâtiments et vous constaterez peut être que ces consommations inutiles additionnées représentent vite quelques milliers d’euros sur une année.


En détail

Potentiel d’économie d’énergie

Si les actions a.1 à b.3 sont mises en œuvre :

  • Gain sur la facture électrique : 17 775 € / an
  • Investissement : 6 920 €
  • Temps de retour : 5 mois

Des subsides peuvent être sollicités auprès de la DGTRE (UREBA) pour ce type d’investissement.

Informations complémentaires

David GOFFIN
Responsable Énergie
Ville de Namur
Service Électromécanique
Tél : 081/248 503
Email : david.goffin@ville.namur.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Détendeurs [Climatisation]

Détendeurs [Climatisation]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement du détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Différentes technologies de détendeurs

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Photo détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).

Machine frigorifique à compression [Climatisation]

Machine frigorifique à compression


L’installation frigorifique, vue de l’extérieur

Dans les installations de climatisation, la machine frigorifique permet d’évacuer vers l’extérieur la chaleur excédentaire des locaux.

En pratique, elle prépare de l’air froid ou de l’eau froide qui viendront compenser les apports de chaleur du soleil, des équipements de bureautique, des occupants,… de telle sorte que le bilan chaud-froid soit à l’équilibre et que la température de consigne soit maintenue dans les locaux.

La technique la plus simple consiste à préparer de l’air froid qui sera diffusé via des gaines de distribution.

Distribution de l’air froid dans le bâtiment.

Traitement de l’air dans des caissons de climatisation.

Pour le groupe frigorifique, on distingue deux modes principaux d’action :

  • Soit le fluide frigorigène refroidit l’air en passant directement dans la batterie de refroidissement : on parle de « système à détente directe » parce que l’évaporateur de la machine frigorifique prend la place de la batterie de froid dans le caisson de climatisation.

Réfrigération « à détente directe ».

  • Soit l’installation frigorifique prépare de l’eau froide à …6°C… (généralement appelée « eau glacée »), eau qui alimentera la batterie de refroidissement du caisson de traitement d’air.

Réfrigération par circuit d’eau glacée.

Mais le transport de froid par l’air est très coûteux à l’investissement (gainage).

À titre d’exemple, comparons l’encombrement demandé pour le transfert de 10 kW de froid :

Transport par air Transport par eau
Delta T° : 9°C (de +16° pulsé à +25°C d’ambiance, par ex.) Delta T° : 5°C ( boucle d’eau glacée au régime 7° – 12°C, par ex.)
Débit d’air : 3 270 m³/h Débit d’eau : 1,72 m³/h
Vitesse : 15 m/s Vitesse : 0,8 m/s
Section de gaine : 300 x 220 mm ( ou Ø 300 mm) Diamètre de conduite : Ø 40 mm

De plus, à l’exploitation, la consommation des ventilateurs représente de 10 à 30 % de l’énergie transportée contre 2 % pour la consommation des pompes de circulation.

Circuit d’eau glacée pour l’air neuf et les ventilo-convecteurs.

Aussi, on rencontre souvent des installations où le refroidissement des locaux est principalement assuré par de l’eau glacée alimentant les batteries froides des ventilo-convecteurs.

Un complément de froid peut être donné par le rafraîchissement de l’air neuf de ventilation.

Bien sûr, « produire du froid » sous-entend évacuer de la chaleur. Aussi, à l’extérieur du bâtiment, souvent en toiture, on trouvera un équipement chargé de refroidir.

  • soit le fluide frigorigène directement : c’est le condenseur de l’installation frigorifique.
  • soit de l’eau, qui elle-même sert à refroidir le fluide frigorigène : c’est la tour de refroidissement.

On distingue trois types de tour :

La tour ouverte

l’eau est pulvérisée devant un ventilateur et le refroidissement est alors renforcé par la vaporisation partielle de cette eau (la chaleur de la vaporisation est « pompée » sur la goutte d’eau qui reste et qui donc se refroidit). Après refroidissement, cette eau sera conduite vers un condenseur à eau se trouvant près du compresseur.

Schéma principe tour ouverte.

La tour fermée
l’eau venant du condenseur reste à l’intérieur d’un circuit tubulaire fermé, mais se fait « arroser » par un jet d’eau de refroidissement. Cette eau s’évaporant partiellement, sera également fortement refroidie. Mais cette fois, l’eau qui a été au contact de l’air extérieur (son oxygène et ses poussières), n’est plus en contact direct avec le condenseur à eau évitant de bien pénibles ennuis de corrosion…

Schéma principe tour fermée.

Le dry cooler
il s’agit d’une tour fermée, que l’on n’arrose pas, que l’on refroidit simplement par l’air extérieur pulsé par des ventilateurs. Cette batterie d’échange convient en toute saison, puisque en ajoutant un antigel (type glycol), elle est insensible au gel. Elle n’est pas aussi performante que les précédentes puisque la température de refroidissement est limitée à la température de l’air extérieur…

Pour davantage d’informations :

Techniques

Pour connaître la technologie des condenseurs et des tours de refroidissement, cliquez-ici !

L’installation frigorifique, vue de l’intérieur

Le transfert de chaleur, entre intérieur et extérieur, ne peut se faire que si un équipement rehausse le niveau de température entre le milieu où la chaleur est prise (air ou eau) et le milieu où la chaleur est évacuée (air extérieur) : c’est le rôle de la machine frigorifique.

Elle se compose au minimum des 4 éléments suivants :

  • 1 évaporateur
  • 1 condenseur
  • 1 compresseur
  • 1 organe de détente

Voici le fonctionnement de chacun de ces composants.

Tout est basé sur les propriétés physiques du fluide frigorigène

La machine frigorifique est basée sur la propriété des fluides frigorigènes de s’évaporer et de se condenser à des températures différentes en fonction de la pression.

Pour expliquer le fonctionnement, nous prendrons les caractéristiques du R 22 parce c’est le fluide le plus couramment utilisé en climatisation. Mais ce n’est plus celui que l’on choisira dans les installations nouvelles.

A la pression atmosphérique :

Le R22 est liquide à – 45°C et se met à « bouillir » aux alentours de – 40°C.

>  Si du fluide R 22 à -45°C circule dans un serpentin et que l’air à 20° C passe autour de ce tuyau, l’air se refroidira : il cédera sa chaleur au fluide qui lui s’évaporera. C’est le rôle de l’évaporateur de la machine frigorifique.

A la pression de 13 bars :

cette fois, le R 22 ne va « bouillir » qu’à 33°C. Autrement dit, si de la vapeur de fluide à 13 bars et à 65°C circule dans un serpentin et que de l’air à 20° C passe autour de ce tuyau, le fluide se refroidira et à partir de 33°C, il se liquéfiera, il se condensera. En se condensant, il va libérer énormément de chaleur. C’est le rôle du condenseur de la machine frigorifique.

> Si l’on souhaite donc que le fluide puisse « prendre » de la chaleur : il doit être à basse pression et à basse température sous forme liquide, pour lui permettre de s’évaporer.

>  Si l’on souhaite qu’il puisse céder sa chaleur : il doit être à haute température et à haute pression, sous forme vapeur, pour lui permettre de se condenser.

Pour réaliser un cycle dans lequel de la chaleur est extraite d’un côté et donnée de l’autre, il faut compléter l’installation par 2 éléments :

  1. Le compresseur, qui comprime le gaz en provoquant l’augmentation de température jusqu’à + 65°C.
  2. Le détendeur, qui, au départ d’un fluide à l’état liquide, « lâche » la pression : le fluide se vaporise partiellement et donc se refroidit. Le liquide retombe à la température de – 40°C (bien sûr, on choisira – 40°C pour faire de la congélation, et entre 0°C et + 5°C pour de la climatisation).

Si ces différents équipements sont bouclés sur un circuit, on obtient une machine frigorifique.

En pratique, suivons le parcours du fluide frigorigène dans les différents équipements et repérons le tracé de l’évolution du fluide frigorigène dans le diagramme des thermo-dynamiciens, le diagramme H-P, enthalpie (ou niveau d’énergie) en abscisse et pression en ordonnée.

Dans l’évaporateur

Le fluide frigorigène liquide entre en ébullition et s’évapore en absorbant la chaleur du fluide extérieur. Dans un deuxième temps, le gaz formé est encore légèrement réchauffé par le fluide extérieur, c’est ce qu’on appelle la phase de surchauffe (entre 7 et 1).

Fonctionnement de l’évaporateur.

Dans le compresseur

Le compresseur va tout d’abord aspirer le gaz frigorigène à basse pression et à basse température (1). L’énergie mécanique apportée par le compresseur va permettre d’élever la pression et la température du gaz frigorigène. Une augmentation d’enthalpie en résultera.

Fonctionnement du compresseur.

Dans le condenseur

Le gaz chaud provenant du compresseur va céder sa chaleur au fluide extérieur. Les vapeurs de fluide frigorigène se refroidissent (« désurchauffe »), avant l’apparition de la première goutte de liquide (point 3). Puis la  condensation s’effectue jusqu’à la disparition de la dernière bulle de vapeur (point  4). Le fluide liquide peut alors se refroidir de quelques degrés (sous-refroidissement) avant de quitter le condenseur.

Fonctionnement du condenseur.

Dans le détendeur

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Fonctionnement du détendeur.

Fonctionnement complet

Le cycle est fermé, le fluide frigorigène évolue sous l’action du compresseur dans les quatre éléments constituant la machine frigorifique.

Cycle frigorifique élémentaire.

L’ensemble du cycle peut être représenté dans le diagramme enthalpie-pression. Sous la courbe en cloche se situent les états de mélange liquide-vapeur; à gauche de la cloche, le fluide est à l’état liquide (il se « sous-refroidit »), à droite, le fluide est à l’état vapeur (il « surchauffe »).

Diagramme enthalpique du cycle frigorifique.


Un fonctionnement de la machine frigorifique en équilibre permanent

Le cycle réel de fonctionnement d’une machine frigorifique se stabilise à partir des températures du milieu qu’il faut refroidir, de l’air extérieur où la chaleur est rejetée, et des caractéristiques dimensionnelles de l’appareil.

Ainsi, la température d’évaporation se stabilisera quelques degrés en dessous de la température du fluide refroidi par l’évaporateur. De même, la température de condensation se stabilisera quelques degrés au-dessus de la température du fluide de refroidissement du condenseur.

Or, les besoins de froid évoluent en permanence et la température extérieure varie toute l’année !

Tout cela va bien sûr entraîner une modification du taux de compression et une variation de la puissance absorbée. En fonction du régime d’évaporation et de condensation, le compresseur aspirera un débit masse plus ou moins grand de fluide frigorigène définissant ainsi la puissance frigorifique à l’évaporateur et calorifique au condenseur.

Exemple

Afin d’imaginer ces évolutions, partons d’un cas concret.

Évaporateur

Évolution des fluides dans l’évaporateur.

La boucle d’eau glacée fonctionne au régime 5°-11°. L’échange de chaleur s’effectue en deux phases :

  • ébullition du fluide
  • surchauffe des vapeurs

La température d’évaporation qui s’établit est de 0°C. Dans le cas du R22, ceci correspond à une basse pression de 4 bar (lecture du manomètre), soit 5 bar absolu (comparé au vide).

Condenseur

Évolution des fluides dans le condenseur.

Le condenseur est directement refroidi par l’air extérieur. Supposons que celui-ci entre à 30°C dans le condenseur. L’échange de chaleur s’effectue en trois phases :

  • désurchauffe des gaz chauds provenant du compresseur,
  • condensation du fluide,
  • sous-refroidissement du liquide.

La température de condensation qui s’établit est de 40°C. Dans le cas du R 22, ceci correspond à une haute pression de 14,5 bar, soit 15,5 bar absolu.

Analysons le comportement du compresseur sur base des caractéristiques nominales données par le fournisseur.

Extrait d’un catalogue de compresseurs.

On constate que pour une température d’évaporation de 0°C et pour une température de condensation de 40°C,

  • la puissance électrique absorbée par le compresseur sera de 6,3 kW
  • la puissance frigorifique donnée à l’évaporateur sera de 21,9 kW

Remarque : en réalité, une adaptation de quelques pour cent devrait avoir lieu car le constructeur fournit des indications pour un fonctionnement normalisé de son appareil (surchauffe de 0K, sous-refroidissement de 25 K selon DIN 8928 et bientôt la CEN) mais ceci dépasse la portée de ces propos.

Supposons à présent que le condenseur soit mal entretenu. L’échange de chaleur se fait moins bien, la température au condenseur augmente, le compresseur va travailler davantage et va augmenter la pression de sortie des gaz. Une nouvelle température de condensation va se mettre en place : supposons qu’elle atteigne une température de 50°C. Comme la température du liquide s’élève à l’entrée du détendeur, la température d’évaporation s’élève également de 1 ou 2°. Le diagramme constructeur prévoit une augmentation de la puissance électrique absorbée : 7 kW, pour une puissance frigorifique diminuée : 18,2 kW…

Le « rendement » de la machine s’est dégradé :

> AVANT : (21,9 kW produits) / (6,3 kW absorbés) = 3,5.

> APRES : (18,2 kW produits) / (7 kW absorbés) = 2,6.

On dira que « l’efficacité énergétique » de la machine frigorifique a diminué de 25 %. À noter que l’on serait arrivé au même résultat si la température extérieure s’était élevée de 10°.


Plusieurs régulations imbriquées dans la machine frigorifique

On peut voir la machine frigorifique comme un ensemble d’équipements, réunis par le réseau de fluide frigorigène et régulés chacun en poursuivant divers objectifs en parallèle.

Adapter la puissance fournie à la puissance requise : la régulation du compresseur

Une machine frigorifique est dimensionnée pour vaincre les apports thermiques maximum (ciel bleu, soleil éclatant et 32°C de température, par exemple). Elle est donc la plupart du temps sur-puissante. Il faut donc pouvoir adapter la puissance frigorifique du compresseur à la charge partielle réelle.

Diverses techniques de régulation du compresseur sont possibles :

  • arrêter le compresseur par « tout ou rien » ou par étages,
  • réduire sa vitesse de rotation,
  • le mettre partiellement hors service (décharge de cylindres,…),
  • prévoir un bypass refoulement-aspiration,
  • obturer l’orifice d’aspiration,

Limiter la pression maximale à la sortie du compresseur : le pressostat HP

La plus importante partie d’une installation frigorifique est sans aucun doute le compresseur. Il doit maintenir la quantité nécessaire d’agent frigorifique en circulation; il opère ainsi donc comme une pompe. La pression différentielle entrée-sortie est très importante et, selon le point de travail et le fluide frigorifique, elle se situe entre 5 et 20 bar, environ.

Imaginons une panne du ventilateur du condenseur ou une période de forte chaleur de l’air extérieur. Le refroidissement des gaz chauds dans le condenseur est insuffisant, la température à l’évaporateur va augmenter, la pression à l’entrée du compresseur augmente. Le compresseur pourrait alors développer une pression de sortie supérieure au niveau permis. Afin de protéger l’installation, il est prévu sur cette partie Haute Pression (HP) un pressostat qui déclenche le moteur d’entraînement lorsque la pression dépasse le niveau maximal permis par le constructeur.

Limiter la pression minimale à l’entrée du compresseur : le pressostat BP

La basse pression avant le compresseur est également surveillée. Par exemple, en cas de demande de froid insuffisante à l’évaporateur, la chaleur d’évaporation transmise au fluide frigorifique n’est pas suffisante. Cela conduit à une diminution de la pression du côté basse pression du compresseur avec pour conséquence une diminution de la température d’évaporation ainsi que le givrage de la batterie de froid ou le gel de l’eau glacée.

Or quand une batterie givre, le coefficient d’échange diminue, la température d’évaporation diminue encore et le phénomène s’accélère. C’est pourquoi la basse pression est contrôlée et le compresseur est déclenché par le pressostat BP lorsque la Basse Pression descend en dessous d’une valeur minimale. Ainsi, en cas de fuite de réfrigérant, il est important de faire déclencher le compresseur, autrement il tournera sans réfrigérant et se détériorera en très peu de temps. Normalement la pression dans l’évaporateur est largement supérieure à la pression atmosphérique.

Éviter la surchauffe du moteur

Il faut éviter que la machine ne démarre et ne s’arrête trop souvent. En effet, des enclenchements répétitifs entraînent la surchauffe du moteur (le courant de démarrage est plus élevé que le courant nominal). Un temps de fonctionnement minimal est nécessaire pour évacuer cet excédent de chaleur.

Un dispositif, appelé « anti-court-cycle », limite la fréquence de démarrage des compresseurs et assure un temps minimal de fonctionnement.

Lubrifier le compresseur

Les pistons d’un moteur de voiture nécessitent une lubrification constante pour éviter aux anneaux de piston d’être « rongés ». Il existe le même problème dans les compresseurs frigorifiques. L’huile qui lubrifie le compresseur suit également la vapeur du fluide frigorigène et se trouve ainsi dans le système de circulation. Le technicien de service doit contrôler que l’huile retourne bien au compresseur, par la pose adéquate des tuyauteries frigorifiques, le cas échéant en incorporant un séparateur d’huile.

Lorsque le compresseur n’est pas en service, un réchauffage du carter est réalisé. En effet, en cas de faibles températures ambiantes, l’huile peut absorber un peu de vapeur du fluide frigorigène. Comme cette huile se trouve principalement dans la cuvette du carter, il peut y avoir à cet endroit une concentration importante d’agent frigorigène dans l’huile. Lorsque l’installation est mise en service, une très rapide chute de pression apparaît, l’agent frigorigène tente de se vaporiser et de se séparer de l’huile. Celle-ci commence à mousser, ce qui peut provoquer des coups de liquide et un manque d’huile dans le compresseur. Afin d’empêcher l’huile d’absorber du fluide frigorigène, la cuvette du carter est, lors du déclenchement de l’installation, réchauffée à l’aide d’une résistance électrique.

Éviter les coups de liquide réfrigérant

Le compresseur a pour fonction de comprimer un gaz. Les liquides étant pratiquement incompressibles, le compresseur sera endommagé si le réfrigérant le traverse en phase liquide plutôt que vapeur. Si le piston pousse contre un agent non compressible, il s’ensuit un « coup de liquide », et donc la casse du piston et des clapets.

Lorsque l’installation est hors service, le liquide peut s’accumuler avant le compresseur et lors du ré-enclenchement provoquer un coup de liquide. Pour éviter cela, une vanne magnétique est souvent placée avant le détendeur. La vanne magnétique se ferme lorsque l’installation est déclenchée et évite à l’agent réfrigérant de retourner à l’évaporateur. Le raccordement électrique est effectué de telle sorte que le compresseur puisse fonctionner après la fermeture de cette vanne. Le compresseur s’arrête lorsque le pressostat basse pression déclenche. Aussitôt que la pression augmente à nouveau, le processus est répété. Ce processus est parfois appelé « le pump down ».

Remarque : les coups de liquides ne concernent quasiment que les compresseurs à pistons. Les profils des vis ou des labyrinthes de Scroll peuvent s’écarter en cas d’aspiration de liquide. Et les turbocompresseurs ne sont pas des compresseurs volumétriques.


L’efficacité énergétique ou COP-froid

Un climatiseur est énergétiquement efficace s’il demande peu d’énergie électrique au compresseur pour atteindre une puissance frigorifique donnée.

En comparant les offres, on établit le rapport entre puissance frigorifique fournie et puissance électrique absorbée par le compresseur.

Exemple : voici les spécifications techniques d’un climatiseur réversible présent sur le marché.

Unité intérieure FHYB35FJ
Unité extérieure RY35D7
Puissance frigorifique kcal/h 3 100
Btu/h 12 300
kW 3,60

Puissance calorifique

kcal/h 3 500
Btu/h 14 000
kW 4,10

Puissance absorbée

rafraîchissement

kW 1,51

chauffage

kW 1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4

  • energy efficiency ratio, E.E.R

puissance frigorifique / puissance absorbée =
12,3 Btu/h / 1,5 kW
= 8,2

Et si l’on souhaite utiliser l’appareil en mode chauffage :

  • le coefficient de performance au condenseur, COPchaud

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Remarques.

  1. Il ne faut pas confondre COPfroid et COPchaud ! Le COPchaud est le rapport entre l’énergie thermique délivrée au condenseur et l’énergie électrique demandée par le compresseur (c’est un terme qui vient de l’évaluation du rendement d’une pompe à chaleur). Alors que le COPfroid part de la chaleur captée à l’évaporateur. La confusion étant fréquente, il n’est pas inutile lorsque l’on compare le rendement des machines dans les documentations de constructeurs, de vérifier ce qui se trouve derrière l’appellation COP.
  2. Il est intéressant de s’inquiéter également de l’efficacité globale de la machine frigorifique installée, c’est à dire du rapport entre le froid produit et l’ensemble de toutes les consommations électriques engendrées, y compris les ventilateurs aux échangeurs, les pompes… Une machine frigorifique, avec une efficacité excellente, placée sur le toit d’un immeuble de plusieurs étages, peut voir son efficacité fortement chuter si la machine est placée en cave et que le condenseur est refroidi via un gainage d’air traversant les étages ! La consommation du ventilateur sera importante dans le bilan final.
  3. Il est très important de se rendre compte que l’énergie mécanique des ventilateurs et des pompes se dégradera en chaleur. Cette chaleur vient en diminution de la puissance frigorifique pour les éléments du côté froid. Ce n’est donc pas seulement le COP ou l’EE qui se dégradent par la consommation électrique supplémentaire, c’est aussi la puissance frigorifique qui diminue.

Exemple de réglage d’une courbe de chauffe

Exemple de réglage d'une courbe de chauffe

Voici un exemple de réglage d’une courbe de chauffe (réglage de la pente et du déplacement parallèle) dans 4 situations. Il se base sur la méthodologie de réglage décrite dans « Régulateurs climatiques et réglage des courbes de chauffe« .


Situation 1 – Premier réglage

Monsieur M. est responsable technique d’une institution située à Namur. L’installation de chauffage qu’il avait pour mission de gérer ne comprenait quasiment aucune régulation :

  • la chaudière était maintenue en permanence à température grâce à son aquastat,
  • seul le circuit de la façade sud est équipé d’une vanne trois voies manuelle

Installation avant rénovation.

Au plus fort de l’hiver, Monsieur M. réglait par expérience la température de la chaudière sur 80°C. En effet une température plus élevée engendrait l’apparition de plaintes de la part des occupants qui souffraient d’un excédent de chaleur.
Malheureusement, lorsque le soleil était présent, les locaux situés au sud étaient vite surchauffés.
Récemment, les responsables de l’institution ont décidé d’investir dans la régulation de l’installation.
Les circuits sont équipés de vannes mélangeuses avec servomoteur et sont régulés chacun au départ de leur propre sonde extérieure.

Installation après rénovation.

Il s’agit maintenant pour Monsieur M. de régler les courbes de chauffe de chaque régulateur.

1. Définir les besoins

> Pour l’hiver, Monsieur M. reprend les réglages qu’il appliquait avant rénovation au niveau de la chaudière :

  • T° extérieure de base = – 9°C (a)
  • T° maximale de l’eau = 80°C (b)

> Pour la saison chaude, Monsieur M. considère une valeur couramment reconnue dans nos régions :

  • T° extérieure de non chauffage = 15°C (c)
  • T° minimale de l’eau = 35°C (d)

2. Calcul de la pente

Pente = [(b) – (d)] / [(c) – (a)] = [80°-35°] / [15° – (- 9°)] = 1,9 (e)

3. Connaître le point pivot de base du régulateur

Le point pivot préréglé sur le régulateur est :

  • T° extérieure de non chauffage = 20°C (f)
  • T° minimale de l’eau = 20°C (g)

4. Calculer le déplacement parallèle

Température de l’eau pour une pente égale à 1,9, le point pivot de base du régulateur [20°, 20°] et une température de non chauffage égale à 15° = (g) + [(f) – (c)] x (e) = 20° + [20° – 15°] x 1,9 = 29,5 (h)
Déplacement parallèle = (d) – (h) = 35° – 29,5° = 5,5° (i).

Calculs

Déterminer votre propre réglage.

Situation 2 – Ajustement en mi-saison

Au printemps et en automne, les occupants des locaux nord se plaignent unanimement : il fait trop froid !

Monsieur M. décide donc de rehausser la température de l’eau du circuit nord durant l’entre-saison. Pour cela, il revoit progressivement le déplacement parallèle à la hausse tout en rectifiant simultanément la pente de la courbe.

1. Connaître les réglages actuels

Avant toute modification, Monsieur M. prit soin de noter les paramètres de réglage existant du régulateur.

  • Pente = 1,9 (a)
  • Déplacement parallèle = 5,5° (b)

2. Définir le nouveau déplacement parallèle

  • Nouveau déplacement parallèle = 10° (c)

3. Connaître le point pivot de base du régulateur

  • T° extérieure de non chauffage = 20° (d)
  • T° minimale de l’eau = 20° (e)

4. Connaître la température extérieure minimum de base

  • Température de base = – 9° (f)

5. Calculer la nouvelle pente

Pente = [(b) – (c)] / [(d) – (f)] + (a) = [5,5° – 10°] / [20° – (- 9°)] + 1,9 = 1,7 (g)

Calculs

Déterminer votre propre réglage.

Situation 3 – Ajustement en hiver

L’hiver venu, les plaintes se multiplient, de façon uniforme dans les locaux orientés au sud: il fait trop chaud, même en absence d’ensoleillement.

Il s’agit donc de diminuer la pente de la courbe de chauffe de ce circuit.
Plusieurs abaissements successifs sont nécessaires pour arrêter la gronde des occupants. La pente est ramenée à 1,4.

Calculs

Déterminer votre propre réglage.

Situation 4 – Isolation de l’enveloppe

Récemment, un programme de rénovation des châssis de la façade nord est entrepris. On passe de simples vitrages à des doubles vitrages.

Les besoins en énergie de l’aile devenant moindres, la température de l’eau du circuit nord peut être abaissée.

1. Connaître les paramètres de l’actuelle courbe de chauffe

  • Pente actuelle = 1,7 (a)
  • Déplacement parallèle actuel = 10° (b)

2. Connaître le point pivot de base du régulateur

  • T° extérieure de non-chauffage = 20° (c)
  • T° minimale de l’eau = 20° (d)

3. Déterminer la température moyenne de l’eau en plein hiver avant rénovation

  • Température de base = – 9° (e)
  • T° de l’eau de départ en plein hiver = (b) + (d) + (a) x [(c) – (e)] = 10° + 20° + 1,7 x [20° – (- 9°)] = 80° (f)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

T° moyenne de l’eau = 71° (g)

 4. Connaître le facteur d’émission des corps de chauffe

T moy eau – T amb
0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79

0,81

0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Facteur d’émission des corps de chauffe courants en fonction de la différence (T° moyenne de l’eau – T° ambiante).

Exemple : si Tmoyenne = 71°C, Tambiante = 20°C, Tmoyenne – Tambiante = 51°C (= 50°C + 1°C), f = 0,81

Différence de température corps de chauffe – ambiance intérieure = (g) – 20° = 71° – 20° = 51° (h)
Facteur d’émission des corps de chauffe avant rénovation = 0,81 (i)

5. Déterminer le pourcentage de réduction des déperditions d’un local suite aux rénovations

Réduction des déperditions = 0,3 (j)

Bureau Rénovation Réduction des déperditions
Classique Double vitrage 30 à 40 %
Sous toiture Isolation 55 à 65 %
Sous combles Isolation 30 à 40 %

 6. Déterminer la température moyenne de l’eau dans le corps de chauffe

Nouveau facteur d’émission = (i) x [1 – (j)] = 0,81 x (1 – 0,3) = 0,57 (k)

T moy eau – T amb

0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79 0,81 0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Différence de température corps de chauffe – ambiance intérieure (suivant le tableau ci-dessus) = 39° (=30° + 9°) (l)

7. Déterminer la température de départ de l’eau pour la température de base

Température moyenne de l’eau du corps de chauffe = (l) + 20° = 39° + 20° = 59° (m)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

Température de départ de l’eau en plein hiver = 66° (n)

Calculs

déterminer votre propre réglage.

Isoler un mur par l’intérieur

Isoler un mur par l'intérieur

Attention ! L’isolation par l’intérieur est la seule technique possible lorsque l’aspect extérieur de la façade doit rester inchangé. Cependant, cette technique d’isolation est délicate et peut engendrer des problèmes. Ainsi, beaucoup d’architectes belges l’évitent.

Les vérifications préliminaires et précautions ci-dessous permettent simplement de se mettre le plus possible du côté de la sécurité !


Vérifications et mesures préliminaires

Le mur doit être en bon état

Lorsqu’on isole un mur plein par l’intérieur, les variations de température hiver-été et au cours d’une même journée, deviennent plus importantes. Ce qui augmente les contraintes dans la maçonnerie et peut mener à des fissurations.
Si le mur est déjà fissuré, on peut s’attendre à des dégradations suite à l’apport d’une isolation par l’intérieur.

Le mur doit être sec et protégé contre toute pénétration d’eau

Le mur doit être sec et protégé de toute pénétration d’eau de pluie, protégé contre les remontées capillaires et ne plus contenir d’humidité de construction.

L’étanchéité à l’eau de pluie d’un mur plein dépend de son type et de son état.

Lorsque le mur est isolé par l’intérieur, l’eau à l’intérieur de la maçonnerie engendre les 2 désagréments suivants :

  • Vu l’abaissement de la température moyenne d’hiver d’un mur isolé par l’intérieur, le séchage est ralenti. L’humidification prolongée de la maçonnerie peut favoriser une dégradation de la maçonnerie par le gel.

   

Gel de la maçonnerie.

En outre, lorsqu’une maçonnerie humide a fait l’objet d’une intervention pour la protéger, il y a lieu d’attendre son séchage (6 mois à plusieurs années selon le type et l’épaisseur du mur) avant d’entamer son isolation par l’intérieur.

La disposition doit permettre de traiter les ponts thermiques

  • Les dormants des châssis doivent être suffisamment grands pour pouvoir prolonger l’isolant sur la partie latérale de la baie, en dessous du linteau, sous la tablette de fenêtre. À défaut, les châssis devront être remplacés. On profitera de l’occasion pour choisir des vitrages à haut rendement.
  • On doit vérifier la possibilité d’envisager une isolation du sol, du plafond et des murs de refend ou simplement une prolongation de l’isolant sur ces parois.

Le climat intérieur doit être « normal »

Le climat intérieur doit correspondre au plus à la classe III.
Dans des bâtiments de classe de climat intérieur IV, le risque de condensation à l’interface maçonnerie-isolant est trop important. Dans ce cas des précautions lourdes doivent être prises : une étude approfondie du système et de chaque détail doit être réalisée par un bureau d’étude spécialisé; un soin particulier doit être apporté à la mise en œuvre; les matériaux devront être judicieusement choisis etc.

L’inertie thermique doit être suffisante

On vérifiera que la capacité thermique des locaux reste suffisante malgré l’apport de l’isolation du côté intérieur des murs de façade.

Voici des indices d’un risque important de surchauffe en été :

Schéma indices d'un risque important de surchauffe en été.

  • Les cloisons intérieures sont en matériaux légers (ex. : plaques de plâtre sur structure en bois ou métallique).
  • Les plancher sont en bois.
  • Il y a beaucoup d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont grandes et ont une orientation autre que « Nord ».

Voici des indices d’un risque faible de surchauffe en été :

Schéma indices d'un risque faible de surchauffe en été.

  • Les cloisons intérieures sont en matériaux lourds (béton, brique, …).
  • Les plancher sont en béton.
  • Il y a peu d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont petites ou orientées au Nord.

Cependant, une faible inertie thermique peut être favorable dans le cas de locaux occupés durant de courtes périodes.


Choix du système

Il existe de nombreux systèmes d’isolation par l’intérieur.

Choix du système à panneaux isolants collés

Lorsque le mur est sec et sain et présente une surface plane, on choisit le système des panneaux collés.

Les défauts de planéité ne peuvent pas dépasser 15 mm sur une règle de 2 m. Ce système ne peut être utilisé sur des supports ayant connu l’humidité car des sels peuvent apparaître.
Ce système est le moins onéreux et demande le moins d’espace.
Il demande le décapage complet du revêtement (papier-peint, peinture, …) ou du moins aux endroits des plots ou bandes de colle.

Choix d’un système à structure

Lorsque le mur n’est pas suffisamment plan, on choisit un des deux systèmes à structure.

Ceux-ci sont plus chers mais permettent de rattraper les défauts de planéité du mur. Ces systèmes peuvent aussi être choisis si l’on ne souhaite pas enlever le papier peint ou la peinture.

Le système à panneaux composites posés sur lattage possède l’avantage, par rapport au système à panneaux isolants entre lattes, d’apporter une isolation continue. En particulier, lorsque les profilés utilisés sont métalliques, il évite les ponts thermiques au droit de chaque profilé.
Ce système permet également d’apposer une couche plus épaisse d’isolant.

Remarque.

Avec un système à panneaux isolant entre profilés métalliques, ces derniers doivent, dans certains cas, pour des raisons de résistance, être placés avec l’ouverture du « u » vers le mur. On doit veiller, dans ce cas, à ce que ceux-ci soient remplis d’isolant.

Photo système à panneaux isolant entre profilés métalliques.

Remarque.

Les deux systèmes à structure permettent de laisser un vide entre le mur extérieur et l’isolant (lorsque l’isolant est placé entre les montants, il peut être accolé à la plaque de plâtre; lorsque la hauteur n’est pas trop importante, la structure peut être auto-portante et ne doit pas être fixée contre le mur mais uniquement au sol et au plafond en laissant un espace derrière celle-ci).
Les fabricants proposent dès lors ces solutions lorsque le mur est humide.

Le CIFFUL, dans la brochure Méthodes de modification du gros-œuvre / Isolation thermique d’un bâtiment existant » relue par le CSTC ne recommande pourtant pas de laisser un vide car celui-ci, s’il y le moindre espace entre les panneaux isolants, favorise les courants de convection et engendre non seulement des pertes énergétiques mais également des risques de condensation du côté interne du mur extérieur.

En France, on recommande, dans le cas des murs humides, de ventiler la lame d’air (par l’ouverture de joints dans le haut et le bas des maçonneries).
Mais cette solution est insuffisante pour sécher efficacement la face intérieure des murs extérieurs et augmente les courants de convection.

L’isolation par l’intérieur, dans le cas d’une maçonnerie humide, reste fortement déconseillée.

Choix du système avec isolation derrière contre-cloison maçonnée

L’isolation derrière contre-cloison maçonnée permet de rajouter un matériau lourd devant l’isolant et donc de remplacer, en partie du moins, l’inertie thermique perdue.
Il demande néanmoins un plancher pouvant le supporter. Il ne pourra pas, en principe, être choisi dans le cas d’un plancher entre étages en bois.


Choix de l’isolant

Le choix d’un isolant dépend des performances à atteindre et de l’espace disponible dans les locaux à isoler. Ces critères permettent de déterminer l’épaisseur et le type d’isolant à mettre en œuvre.

Il est toujours recommandé de choisir un isolant disposant d‘un agrément technique.

Les produits minces réfléchissants font l’objet d’une polémique importante ces dernières années.

Photo produits minces réfléchissants.   Photo produits minces réfléchissants.

Qu’en penser ? Nous reproduisons en annexe le compte-rendu détaillé de l’étude du CSTC((Isolation des murs existants par l’intérieur : systèmes et dimensionnement, Les Dossiers du CSTC 2013/2.4, p.4)) à ce sujet, étude confirmée par plusieurs études scientifiques dans divers pays européens. L’affirmation des fabricants d’un équivalent de 20 cm de laine minérale est fantaisiste. Dans le meilleur des cas, un équivalent de 4 à 6 cm peut être obtenu, ce qui est souvent insuffisant.

Si ce produit connaît malgré tout un certain succès commercial, c’est parce que sa pose est très rapide (agrafage sous pression), donc intérêt de l’entrepreneur qui aime à en faire la publicité, et que le produit se présente en grandes bandes continues, assurant une très grande étanchéité au passage de l’air, donc impression d’une certaine qualité pour l’occupant.


Choix du pare-vapeur

Quand doit-on prévoir un pare-vapeur ?

Lorsqu’on utilise un isolant perméable à la vapeur (laine minérale, par exemple) celui-ci doit être précédé, côté intérieur, par un pare-vapeur de manière à éviter le risque de condensation interne.

L’utilisation d’un isolant peu ou pas perméable à la vapeur (EPS, XPS, PUR, CG) collé sur la maçonnerie, ne nécessite pas l’interposition d’un pare-vapeur pour autant que de l’air intérieur NE puisse PAS circuler entre isolant et maçonnerie.
Aussi, si ce type d’isolant est mis en œuvre entre lattes, la pose du pare-vapeur reste indispensable. Celui-ci couvre alors l’ensemble du système « isolant + lattes ».

Quel pare-vapeur choisir ?

L’évaluation du risque principal de condensation par modèle statique (comme celui de Glaser) entraîne presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur. On les appelle souvent les « pare-vapeurs ». Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant. On parle alors de « freine-vapeur ». La valeur Sd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par ex. 50 ou même 100 m) alors que la valeur Sd des freine-vapeur ne sera que de quelques mètres seulement (par ex. 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré ici.

Outre les risques de condensations, il est important de faire remarquer que certains matériaux dits hygroscopiques, comme le bois et les matériaux dérivés du bois, mais aussi d’autres matériaux comme la terre crue, ont le pouvoir de réguler l’humidité de l’ambiance intérieure en captant l’humidité en excès pour la restituer plus tard, atténuant ainsi les effets désagréables d’ambiances trop sèches ou trop humides. On parle alors parfois d’inertie hydrique par analogie avec l’inertie thermique. Malheureusement, peu de valeurs sont disponibles. Ce domaine devrait faire l’objet de recherches complémentaires et dépasse le cadre d’Énergie+. Remarquons seulement que la présence d’une membrane atténue fortement l’effet hygroscopique des couches sous-jacentes, et notamment celui de l’isolant.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Comment assurer la continuité de la fonction « pare-vapeur » :

Lorsque la fonction « pare-vapeur » est assurée par les panneaux, la continuité de la fonction « pare-vapeur » est assurée en fermant les joints entre panneaux ou entre panneaux et raccords au moyen :

  • soit, de bandes adhésives,
  • soit, de mousse injectée,
  • soit, de mastic.

Lorsque le système nécessite un pare-vapeur indépendant, celui-ci doit être placé avec recouvrements. Les recouvrements et les raccords doivent être fermés au moyen :

  • soit, de bandes adhésives,
  • soit, de joints comprimés.

Il faut vérifier auprès des fabricants que le produit assurant la continuité du pare-vapeur proposé corresponde à la classe du pare-vapeur demandé.


Pose de l’isolation par l’intérieur

Principes à respecter

  • L’isolant doit être posé de manière continue, en particulier aux angles des parois, afin de ne pas créer de pont thermique et d’éviter ainsi la condensation superficielle.
  • Le pare-vapeur doit également être posé de manière continue, les raccords doivent être rendus étanches.
  • Il faut prévoir une finition intérieure étanche à l’air sur toute la surface.
    De manière à éviter la condensation interne par convection, il faut fermer toutes les ouvertures qui permettraient à l’air intérieur de circuler derrière la couche isolante. Les points délicats sont :

    • La jonction entre mur et plafond.
    • La jonction entre mur et plancher (les panneaux isolants sont, en général, butés en tête sous le plafond. Il s’ensuit que le jeu nécessaire à la pose du panneau se retrouve en pied. Cet espace doit être calfeutré avant la pose de la plinthe).
    • La jonction avec les baies.
    • Les percements pour le passage des gaines et canalisations diverses, incorporations des boîtiers, etc.

Le calfeutrement de ces points est également indispensable pour éviter les infiltrations d’air de l’extérieur vers l’intérieur du bâtiment.

Remarque : les paragraphes ci-dessous s’inspirent de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Panneau isolant composite – pose par collage

  1. Mur existant.
  2. Panneau composite.
  3. Plots de colles.
  4. Isolant.
  5. Pare-vapeur éventuel.
  6. Finition

Panneau isolant entre lattes

1. Latte, ayant l’épaisseur de l’isolant,
fixée mécaniquement à la maçonnerie et réglée à l’aide de cales.
L’entre axe des lattes est d’environ 40 cm.

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Isolant légèrement compressible afin de remplir aussi complètement que possible l’espace disponible entre lattes et entre le mur et le pare-vapeur.
  3. Pare-vapeur. La technique la plus aisée est d’agrafer, sur les lattes, un film en matière plastique (d’épaisseur > 0,2 mm) qui correspond à un pare-vapeur de classe E2. Le recouvrement entre lés est agrafé et recouvert d’une bande adhésive.
  4. Panneau de finition : par exemple, plaque de plâtre enrobé de carton. Les joints entre plaques et les têtes de vis sont fermés et recouverts au moyen d’un enduit de finition.

Panneau isolant composite – pose sur lattage

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Un isolant légèrement compressible est posé entre les lattes fixées mécaniquement à la maçonnerie et dont le réglage est assuré à l’aide de cales.
  3. Les panneaux composites sont fixés mécaniquement sur les lattes à l’aide de vis. La pose des panneaux doit être bien jointive et les joints bien fermés à l’aide d’un enduit de finition.

Détails d’exécution

Remarque : cette partie s’inspire de la brochure Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant.

Isolation autour de la baie

Pour ne pas provoquer de pont thermique et de risque de condensation superficielle autour de la baie, l’isolation thermique doit être prolongée jusqu’à la menuiserie.

      

  1. Mur existant avec enduit de finition.
  2. Isolant thermique (posé entre latte par exemple).
  3. Pare-vapeur éventuel.
  4. Panneau de finition.
  5. Retour d’isolation collé à la maçonnerie (épaisseur de minimum 2 cm).Si après avoir disqué l’enduit de finition existant, il n’y a pas assez de place pour le retour d’isolation, il faut remplacer le châssis par un châssis à dormant plus large.
  6. Prolongement du pare-vapeur jusqu’à la menuiserie ou pose d’un isolant peu perméable à la vapeur (mousse synthétique, par exemple).
  7. Joint souple d’étanchéité pour empêcher toute infiltration d’air intérieur derrière l’isolant.
  8. Nouvelle tablette.

Pour augmenter les performances thermiques du retour d’isolation, la finition autour de la baie peut être réalisée en bois (ébrasement et tablette).

  1. Joint souple d’étanchéité.
  2. Ebrasement et chambranle en bois.
  3. Finition angle.

Plancher en bois entre étages

Dans le cas d’un plancher en bois, l’extrémité du gîtage de celui-ci qui vient s’encastrer dans la maçonnerie atteint des températures plus basses qu’avant isolation par l’intérieur. Alors qu’il est possible d’éviter le transfert de vapeur interne au travers du mur par l’usage d’un pare-vapeur, il n’existe pas de moyen efficace pour éviter ce transfert au niveau du plancher. Ainsi, il y a risque de condensation à proximité des têtes de gîtes ou de solives et possibilité de pourrissement.

  1. Plancher.
  2. Solive.
  3. Condensation.

Jonction avec murs de refend (ou plancher béton entre étages)

Pour supprimer le pont thermique au droit des murs de refend, il faut éventuellement prolonger l’isolation du mur de façade contre le mur de refend.

Pont thermique non traité

Pont thermique traité

  1. ED = 80 mm (polystyrène expansé, mousse de polyuréthane ou laine minérale).
  2. ER = 30 mm (polystyrène expansé ou laine minérale).
  3. ER = 20 mm (mousse de polyuréthane).
  4. R = 30 cm.

Ce retour d’isolation peut être cependant très contraignant au niveau esthétique.

De plus, cette mesure concerne plus spécifiquement les logements avec les températures et les productions d’humidité qui leur sont propres. Dans les immeubles de bureaux, par exemple, où la production de vapeur est moins importante et qui, en général, sont équipés d’une ventilation, il faut reconsidérer la nécessité de cette mesure. Il faut évaluer le risque de condensation superficielle sans retour d’isolation à partir des conditions réelle.

Évaluer

Savoir comment évaluer le risque de condensation à partir des données propres à votre bâtiment.

Évaluer

Voir, par un exemple, comment évaluer concrètement le risque de condensation au droit d’un pont thermique dans un immeuble de bureau.

Travaux annexes

Remarque : cette partie s’inspire de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Déplacement des équipements existants

Les installations électriques (prises et interrupteurs)

  1. Espace technique.

Les canalisations d’eau

Elles sont disposées dans un espace technique (1) ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Détail en plan et en coupe :

     

  1. Isolant posé entre lattes
  2. Pare-vapeur placé sans interruption
  3. Latte fixée à la maçonnerie
  4. Latte supplémentaire servant d’entretoise
  5. Tube électrique
  6. Boîtier électrique

Les canalisations d’eau

Les canalisations encastrées avant rénovation (isolation par l’intérieur) sont réchauffées par l’ambiance intérieure.

Si aucune précaution n’est prise lorsqu’on isole par l’intérieur, la maçonnerie, et avec elle, la canalisation sont directement exposées au climat extérieur et donc au gel.

Il existe différentes solutions pour protéger la canalisation contre le gel.
Solution n°1 : déplacer le tuyau et le laisser apparent.

Solution n° 2 : (peu pratique) agrandir la saignée dans laquelle se trouve la canalisation et introduire un isolant thermique (mousse expansée, par exemple.)

Solution n° 3 : déplacer le tuyau et le placer dans un espace technique ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Attention : ne pas traverser le pare-vapeur avec le tuyau !

Les radiateurs

Les radiateurs doivent être déplacés et fixés à la nouvelle paroi. Dans ce cas, la structure doit être renforcée.
Le radiateur peut également être posé sur un pied fixé au sol.

  1. Tablette
  2. Isolant imperméable à la vapeur collé à la maçonnerie
  3. Isolation entre lattes
  4. Pare-vapeur
  5. Radiateur
  6. Joint d’étanchéité (mastic)
  7. Canalisation de chauffage
  8. Renfort (lattes bois)

Remplacement des châssis

Lorsqu’on améliore l’isolation du mur de façade, on profitera de l’occasion pour remplacer les châssis anciens par des châssis avec double vitrage à basse émissivité.
On choisit des châssis avec de larges dormants de manière à avoir de la place pour l’isolant.

Sol

Lorsque l’isolation des murs est prolongée par l’isolation du sol, cela exige de créer une marche au niveau de l’accès aux autres locaux.

Ventilation

Une ventilation suffisante doit être assurée dans le local isolé par l’intérieur de manière à éviter les problèmes de condensation.

Concevoir

Pour savoir comment assurer une ventilation suffisante.

N’hésitez pas également à consulter notre page consacrée aux isolants biosourcés.

Concevoir les détails : la trappe d’accès [isolation]

Trappe d’accès

Schéma trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.

Détails

Schéma détails isolation trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.
  5. Finition intérieure (plâtre, bois, …).
  6. Charnière.
  7. « Elément décoratif de finition ».
  8. Joint mousse synthétique.

L’isolant choisi pour être placé à l’intérieur de l’ouvrant est peu perméable à la vapeur : il s’agit d’une mousse synthétique, par exemple.

« Un élément décoratif de finition » placé entre la finition intérieure et la structure en bois de la trappe assure l’étanchéité à l’air entre ces deux éléments. Cette étanchéité est complétée par des joints de mousse synthétique.

Choisir l’étanchéité [isolation de la toiture plate]

Membranes bitumineuses bicouches

Toutes les membranes bitumineuses utilisées seront toujours du type bitume amélioré APP ou SBS.

Les deux produits sont équivalents en qualité. Les membranes APP résistent mieux à la chaleur, mais sont plus difficiles à poser par temps froid. Les membranes SBS doivent être protégées des rayonnements UV (généralement par des paillettes d’ardoise).

Il existe des membranes bitumineuses, dont le comportement au feu est amélioré.

Les systèmes multicouches offrent plus de garanties en cas d’erreur de mise en œuvre au niveau de l’assemblage des lés.

La plupart des entreprises spécialisées dans la pose d’étanchéités bitumineuses sont capables de poser correctement une étanchéité multicouche (par opposition à une étanchéité monocouche).

Lorsque le bâtiment doit être mis à l’abri alors qu’il n’est pas encore achevé, et que la toiture risque d’être abîmée par la fin des travaux, le système multicouche offre la possibilité de protéger provisoirement le bâtiment avec la première couche, et de n’achever le travail par la pose de la dernière couche, que lorsque le bâtiment est complètement achevé.

Lorsqu’en cas de fuite les dégâts risquent d’être très importants, on préférera une étanchéité multicouche qui présente moins de risques d’infiltration.

Si l’on perçoit qu’une rénovation ultérieure de la toiture sera difficile ou coûteuse, on optera, dès le départ, pour un système plus fiable. Une rénovation peut être rendue difficile par la présence d’une couche de protection impossible ou lourde à déplacer, des difficultés d’accès, etc.

Si pour accéder à des appareillages, il est nécessaire de circuler souvent sur la toiture, mieux vaut prévoir une étanchéité multicouche qui résiste mieux au poinçonnement accidentel.


Membranes bitumineuses monocouches

La pose d’un système monocouche requiert de l’entreprise chargée de l’ouvrage une grande expérience et une bonne formation.

Lorsqu’on souhaite un investissement minimal (tout en sachant que l’entretien après quelques années risque de nécessiter de gros frais), on peut se contenter d’une étanchéité bitumineuse monocouche.

Lorsque l’on peut contrôler facilement l’exécution des recouvrements et pratiquer un essai d’étanchéité à l’eau en mettant la toiture sous eau, on peut se contenter d’une étanchéité bitumineuse monocouche.


Membranes synthétiques

Les membranes synthétiques en hauts polymères offrent des résistances mécaniques élevées, des résistances au feu, et des résistances chimiques qui varient d’un matériau à l’autre. On choisira une membrane synthétique principalement pour ses caractéristiques particulières.

Parmi celles-ci, deux seulement sont utilisées de manière significative, un plastomère : le PVC, et un élastomère : l’EPDM.

Le comportement au feu du PVC et de l’EPDM traité « NO-FLAM » est satisfaisant.

Le prix des membranes synthétiques (suffisamment épaisses pour garantir des qualités mécaniques suffisantes) est généralement plus élevé que celui des membranes bitumineuses. Pour réduire le prix de ces membranes, on en réduit parfois l’épaisseur, ce qui les fragilise malgré leurs qualités évidentes.

Ces membranes étant monocouches, leur mise en œuvre nécessite un soin particulier. De plus, les techniques de soudage et de fixation étant particulières à chaque matériau, le personnel chargé de poser les membranes doit être formé à ces techniques et être hautement qualifié.

Certaines membranes nécessitent des conditions atmosphériques très favorables pour pouvoir être mises en œuvre.


Que faire dans certains cas ?

Type d’étanchéité
Ma toiture a des formes compliquées. oui bitumineuse
non pas de préférence
L’étanchéité est facile à remplacer en cas de problème. oui pas de préférence
non bitumineuse bicouche
On prévoit une circulation technique fréquente sur la toiture. oui bitumineuse bicouche ou synthétique épaisse
non pas de préférence
Je veux payer le moins possible. oui bitumineuse monocouche
non pas de préférence
Je peux contrôler facilement l’exécution. oui pas de préférence
non bitumineuse bicouche
Une fuite aurait des conséquences graves. oui bitumineuse bicouche
non pas de préférence
Je dispose d’un personnel qualifié et expérimenté pour réaliser la toiture. oui pas de préférence
non bitumineuse bicouche
Je dois protéger provisoirement mon bâtiment avant la fin des travaux. oui bitumineuse bicouche en deux phases
non pas de préférence
Je suis dans un environnement particulier. oui synthétique adapté
non pas de préférence
Les conditions atmosphériques risquent d’être mauvaises pendant le chantier. oui je vérifie les limites de mise en œuvre de la membrane choisie
non pas de préférence
Les risques liés à un incendie sont importants. oui synthétique ou bitumineux « ANTI-FEU »
non pas de préférence

Classement énergétique de plusieurs bâtiments : cadastre énergétique

Classement énergétique de plusieurs bâtiments : cadastre énergétique


Bâtiment prioritaire ou mesure prioritaire ?

Après avoir relevé et normalisé les consommations de chauffage des différents bâtiments du parc, il est classique de sélectionner celui qui sera prioritaire en terme d’amélioration. C’est l’objet de la méthode du cadastre énergétique ci-dessous. Elle sélectionnera le bâtiment à auditer ou à faire auditer par un spécialiste.

Mais il est peut-être utile de prendre en considération les alternatives ci-dessous:

Alternative 1 : plutôt que de se focaliser sur un seul bâtiment, il est possible de décider d’actions transversales prioritaires, c.-à-d. de mesures très rentables qui seront appliquées à tous les bâtiments en parallèle. Par exemple, appliquer toutes les mesures « + + + + » du classement des mesures les plus rentables.

Évaluer

Pour repérer les mesures les plus rentables.

Alternative 2 : à défaut de pouvoir réaliser un audit du bâtiment, ou en plus de cette démarche, il est possible d’intégrer dans le cahier des charges de la société de maintenance les mesures qui sont les plus rentables et de son ressort.

Gérer

Pour repérer les améliorations de la maintenance des installations.

Le cadastre énergétique

Le cadastre énergétique permet de classer différents immeubles d’un patrimoine en fonction de leur qualité énergétique et donc de l’urgence d’entreprendre des interventions URE.

Tout dernièrement, sur l’impulsion de la Région wallonne, les Facilitateurs URE de Wallonie ont crée un modèle de cadastre énergétique mis a disposition en ligne pour les communes et institutions désireuses de suivre et gérer leur consommations.

Calculs

Pour accéder au cadastre énergetique Facilitateurs URE.

Méthode simplifiée

Si le calcul ne doit pas faire l’objet d’une réglementation, une méthode simplifiée est accessible :

  1. On divisera la consommation de chaque bâtiment par sa surface chauffée, exprimée en m². Le ratio en kWh/m² le plus élevé sera l’indice du bâtiment le plus « mauvais » sur le plan énergétique. Au passage, on pourra alors déjà se comparer aux consommations du secteur.
  2. Il se peut que le plus mauvais bâtiment… soit très petit, et que donc le potentiel d’économie d’énergie soit faible. Il sera alors plus opportun d’attaquer d’abord un bâtiment d’un peu meilleure qualité, mais dont la consommation importante amortira beaucoup mieux les investissements (un appareil de régulation représente le même investissement dans un petit bâtiment que dans un grand). Dans ce but, on multiplie le ratio trouvé précédemment par la consommation du bâtiment. On fait donc (consommation /surface chauffée) x consommation, exprimé en [kWh²/m²]. Le plus grand nombre trouvé est sans signification, mais c’est celui dont le potentiel d’économie d’énergie est le plus grand.

Ancienne méthode portant sur l’indice énergétique E et ECaPi

Cette méthode n’est plus appliquée, mais reste interessante dans son approche.  Elle est plus rigoureuse que la méthode simplifiée et tente d’approcher au plus près la performance énergétique exacte d’un bâtiment.

Dans cette méthode, deux critères vont mettre en évidence les immeubles les plus déficients :

  • l’indice énergétique E,
  • l’indice énergétique pondéré ECaPi.

L’indice énergétique E

L’indice E est un critère estimatif de la qualité énergétique d’un immeuble.

Un indice E élevé est donc le reflet, soit d’une enveloppe thermique mal isolée et peu étanche, soit d’une installation de chauffage défectueuse, soit encore de la présence simultanée des deux phénomènes.
Il devrait donc être donné par un ratio du type :

E = kglm / ηexpl.

où,

  • ηexpl. = rendement saisonnier de l’installation (en décimales).

Plus l’enveloppe est une passoire, plus kglm est élevé. Plus l’installation de chauffage est défectueuse, plus ηexpl. diminue. Dans les deux cas, E augmente.

Hélas, un tel calcul semble complexe puisque ces valeurs sont inconnues et difficiles à mesurer…

Astuce ! on peut retrouver ce même ratio en partant de données beaucoup mieux maîtrisées. En effet, l’indice E peut aussi être calculé par la formule suivante :

   Consommation x PCI
E =  
Se x ΔT°m x durée saison

dont les différents coefficients sont connus :

Consommation =

Consommation annuelle en unités physiques de combustible (m³ de gaz, litre de fuel,…). Idéalement, on prendra la moyenne sur trois années consécutives des consommations normalisées (c’est-à-dire ramenées à un climat type moyen).

PCI  =

Pouvoir Calorifique Inférieur du combustible, exprimé en Wh par unité de combustible.

Se  =

Surface extérieure de l’enveloppe du bâtiment (attention, c’est bien la surface totale des façades extérieures, du  plancher et de la toiture et non la surface au sol du bâtiment).

Δm  =

T°IntMoy – T°ExtMoy = écart entre la température moyenne intérieure du bâtiment, et la température extérieure moyenne du lieu.

Durée saison  =

Durée de la saison de chauffe = du 15 septembre au 15 mai = 242 jours x 24 h/j =± 5 800 h.

À noter que le produit : Δx durée saison, peut encore se calculer par la méthode des « degrés-jours corrigés », pour arriver au même résultat.

A quelle valeur de E s’attendre ?

Pour le coefficient kglm, k global moyen d’une enveloppe (y compris la ventilation du bâtiment), on peut s’attendre aux valeurs suivantes :

  • valeur souhaitable : kmoy < 1,2 W/m²K
  • valeur relativement élevée : 1,2 < kmoy < 1,7 W/m²K
  • valeur élevée : kmoy > 1,7 W/m²K

Pour le rendement d’exploitation saisonnier :

  • valeur actuelle pour un bâtiment performant : ηexpl > 0,8
  • valeur moyenne : 0,7 < ηexpl < 0,8
  • valeur basse : ηexpl < 0,6

Dès lors, E varie de 1,5 à 4 :

1,5

pour un bâtiment dont système et enveloppe ne posent pas de problème énergétique,

4

pour un bâtiment où diverses actions doivent être entreprises, tant sur le système que sur l’enveloppe.

L’indice énergétique pondéré ECaPi

Faut-il forcément investir dans un immeuble ayant un indice E élevé (donc très mauvais) ?

Si la consommation du bâtiment est faible, non. Un immeuble présentant un indice E plus moyen mais une consommation importante sera sans doute prioritaire !

Aussi, un deuxième classement est possible, basé sur le produit de l’indice E pondéré par la consommation annuelle. C’est l’indice ECaPi. Un indice ECaPi élevé est le reflet d’un potentiel d’économie d’énergie important.

ECaPi = E x Consommation x PCI

où la consommation est exprimée en unité de combustible.

À titre d’exemple : économiser 50 % d’énergie dans un immeuble consommant 10 000 l de fuel par an est plus difficile que d’économiser 15 % dans un immeuble consommant 50 000 l de fuel par an ! Et en plus, le gain financier est plus important dans le deuxième cas.

Il s’agit donc d’un critère quantitatif d’aide à la décision.


Un exemple

Soit deux bâtiments de bureaux, situés dans le Brabant, que l’on souhaite classer :

Cons. 125 067 litres 40 020 litres
Se 14 376 m² 3 200 m²
T°Int Moy  20°C – 3°C – 3°C = 14°C 20°C – 3°C – 3°C = 14°C
E 125 067 l x 9 950 Wh

14 376 m² x (14°C – 6,5°C) x 5 800 h= 2,0
40 020 l x 9 950 Wh

3 200 m² x (14°C – 6,5°C) x 5 800 h= 2,9
ECaPi 2,0 x 125 067 x 9 960 = 2,5 10 (exposant 9) 2,9 x 40 020 x 9 960 = 2,2 10 (exposant 9)

Conclusion : le premier bâtiment est thermiquement meilleur que le deuxième, mais le potentiel d’énergie récupérable y est plus important.

Études de cas

Pour parcourir l’exemple du cadastre énergétique des bâtiments du CBTJ, cliquez ici !

Plus de détails sur l’écart de température T°Int Moy-T°Ext Moy

La température intérieure moyenne équivalente T°Int Moy

Int Moy =

  • La température intérieure équivalente du bâtiment sur la saison de chauffe.
  • La température moyenne des locaux en journée  réduction pour les coupures de nuit et de week-end  réduction pour les apports gratuits.

La réduction pour les coupures (nuits, W.E., congés scolaires) est donnée approximativement dans le tableau suivant :

Hôpitaux, homes, maisons de soins

0°C

Immeuble d’habitation avec réduction nocturne

2°C

Bâtiments administratifs, bureaux

3°C

Écoles avec cours du soir

4,5°C

Écoles sans cours du soir et de faible inertie thermique

6°C
(Remarque : nous devrions écrire 2 K (2 Kelvins) pour respecter les conventions d’écriture en matière d’écart de température, mais nous tenons surtout à conserver nos lecteurs !)

La réduction pour les apports « gratuits » (équipements internes, personnes, soleil, …) est estimée en moyenne entre 2 et 3°C dans les anciens bâtiments. Elle peut être nettement plus élevée dans les bâtiments récents, bien isolés.

Cette réduction doit donc être adaptée en fonction des caractéristiques physiques du bâtiment : elle doit être augmentée si l’inertie thermique et l’isolation sont fortes et les apports internes sont grands (ordinateurs, éclairage, occupation, …), et diminuée si le bâtiment est peu vitré, par exemple.

Application

Prenons des bureaux maintenus à 20°C durant la journée, la température intérieure moyenne choisie pour les calculs sera de :

20°C – 3°C  – 3°C = 14°C

Attention ! Cette température intérieure équivalente est fictive. En réalité, elle est bien de 17°C mais 3°C sont « fournis » par les apports « gratuits » et ne sont donc pas comptabilisés dans la facture de chauffage (à noter que les apports des appareils électriques sont payés… mais sur une autre facture). Les 14°C constituent donc une température équivalente fictive pour dimensionner la chaleur « consommée ».

La température extérieure moyenne équivalente T°Ext Moy

Ext Moy est la température extérieure moyenne équivalente durant la saison de chauffe. Voici sa valeur entre le 15 septembre et le 15 mai pour quelques endroits de notre région :

Uccle 6,5°C
Hastière 5,5°C
Libramont 3,5°C
Mons 6°C
Saint-Vith 2,7°C

Cette température est obtenue via la valeur des degrés-jours 15/15 du lieu, divisée par la durée standardisée de la saison de chauffe (242 jours, du 15 septembre au 15 mai).

Exemple.

Pour Uccle :

  • Degrés-jours 15/15 = 2 074 D°J,
  • 2 074 / 242 jours = 8,5°C -> l’écart moyen de la température extérieure est donc de 8,5°C par rapport à 15 °C,
  • La température extérieure moyenne est donnée par : (15°C – 8,5°C) = 6,5°C.

Plus de détails sur la méthode de calcul

Comment est-on passé de :

E = kglm / ηexpl.

Vers

   Consommation x PCI
E =     
se x ΔTx durée saison

Il faut repartir de l’évaluation de la consommation d’un bâtiment.
Décomposons :

Consommation en Wh =

Consommation en unités physiques (litres, m³,…) x PCI du combustible

Qu’est-ce que la consommation en unités physiques ?

Consommation en unités physiques =

Puissance moyenne de chauffe x durée saison de chauffe / Rendement saisonnier installation

Or la puissance moyenne de chauffe est donnée par :

Puissance moyenne de chauffe =

Puissance moyenne des pertes par les parois + Puissance moyenne des pertes par ventilation

où :

  • Puissance moyenne des pertes par les parois =

ks x Se x (T°Int Moy – T°Ext Moy )

  • Puissance moyenne des pertes par ventilation =

0,34 xβ x Volume du bâtiment x (T°Int Moy – T°Ext Moy )

où :

  • β est lui-même le taux de renouvellement d’air horaire du bâtiment et 0,34 correspond à la capacité volumique de l’air (0,34 Wh/m³.K).

Si l’on appelle « ΔTm » l’écart moyen entre intérieur et extérieur et « kglm » le coefficient global moyen de déperdition du bâtiment :

kglm = (KSe + 0,34 x β x V)/ Se

On peut alors avoir l’expression de la consommation sous la forme :

Consommation x PCI = kglm x Se x ΔTm x durée saison / ηexpl

En regroupant les termes plus faciles à déterminer du même côté de l’équation, on isole le ratio des deux termes difficiles à connaître et caractéristiques de la mauvaise performance du bâtiment :

Consommation x PCI / Se x ΔTm x durée saison = kglm / ηexpl = E

Ce qu’il fallait démontrer !


Une variante sur base des Degrés-Jours Pondérés

Il est possible de remplacer le produit Δx durée de la saison de chauffe par la valeur des degrés-jours pondérés x 24 h. C’est la méthode officielle préconisée par l’Université de Mons-Hainaut.

Exemple :

Prenons un immeuble de bureaux maintenu à 20°C durant la journée, la température intérieure moyenne choisie pour les calculs est de

20°C – 3°C  – 3°C = 14°C 

Imaginons qu’il soit situé à Mons, la température extérieure moyenne sera de 6°C.

Le produit « ΔT°x durée de la saison de chauffe » sera de :

(14° – 6°) x 5 800 h = 46 400 D°h

Soit encore (en divisant par 24 h) :

1 933 D°J x 24 h

Dans le cadre du programme de subventions UREBA, l’Université de Mons-Hainaut propose une série de degrés-jours pondérés en fonction du lieu et du type d’activité.

C’est pour cela que l’indice E exprimé ci-dessus :

     Consommation x PCI
E =    
     Se x ΔT°x durée saison

Peut-être encore donné sous la forme :

     Consommation x PCI
E =     
     Se x Degrés-Jours pondérés x 24

Ou encore, si le PCI est exprimé en Joules :

     Consommation x PCI
E =    
     Se x Degrés-Jours pondérés x 24 x 3 600

Découvrez ces exemples de cadastre énergétique des bâtiments : le Centre belge du Tourisme des Jeunes (actuellement Kaleo), les bâtiments de la Ville de Chimay et les bâtiments de la Ville de Mons.

Salle d'opération

Analyser les besoins thermiques : une salle d’opération

Salle d'opération

Facture globale de l’hôpital

Afin de pouvoir estimer l’importance de la climatisation des salles d’opération par rapport à la consommation globale d’un hôpital, il est nécessaire de se référer à quelques ratios.

Consommations électriques

Le graphe suivant montre la consommation moyenne électrique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 9,5 MWh/lit.an ou 1,9  GWh/200 lits.an.

Consommations thermiques

Le graphe suivant montre la consommation moyenne thermique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 17,7 MWh/lit.an ou 3,5 GWh/200 lits.an.


Besoins thermiques de la salle d’opération

1. Hypothèses

Un hôpital moyen comprend 200 lits. D’expérience, le nombre de salles d’opération est environ de 2 par 100 lits, ce qui signifie que l’on prend comme base un hôpital avec 4 salles d’opération.

Voici les prix moyens du kWh prix en compte dans la simulation

  • électrique : 11 c€/kWh,
  • thermique : 3,25 c€/kWh.

2. Apports

Les salles d’opération sont de plus en plus isolées et se rapprochent du concept des salles blanches rencontrées dans l’industrie :

  • les apports externes sont limités,
  • de par le développement de l’imagerie médicale dans les interventions chirurgicales, les apports internes deviennent importants,
  • si un taux élevé de renouvellement d’air est jugé nécessaire à la garantie de l’hygiène de la salle, les débits sont importants.

En pratique, on distingue des apports :

  • quelquefois solaires,
  • souvent internes (luminaires, occupation, monitoring, imagerie médicale, etc.),
  • faibles des parois (positifs ou négatifs selon la saison),
  • faibles de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance). Le local est en principe mis en surpression (ce qui annule les infiltrations), mais un régime en dépression peut aussi être choisi si le patient est infecté.

Suite à ces faibles besoins, la température de l’air pulsé sera très proche de la température de consigne ambiante. Dans l’exemple étudié, une température de pulsion d’air (18°C) seulement 2 degrés plus froide que l’ambiance (20°) suffit pour reprendre les charges.

Proportionnellement, c’est donc la demande thermique liée à la préparation de l’air neuf pulsé qui représente la source majeure de consommation.

3. Bilan thermique

Dans ce qui suit, on établit, de manière théorique, les consommations des équipements de climatisation de l’air de la salle d’opération.

Cette climatisation de l’air est variable au cours de l’année suivant les conditions climatiques extérieures et intérieures. Pour cette raison, on considère le fichier météo d’une année climatique-type (sans canicule et froid sibérien) à Uccle, par exemple.

Chaque point de la courbe représente une heure de l’année pendant laquelle on a relevé la température et l’humidité. Les 8 760 points-heures qui composent l’année peuvent alors être placés dans le diagramme de l’air humide.

Le fichier météo est ensuite divisé en 5 zones distinctes.

Pour amener l’air extérieur à une température (18°C) et une humidité de soufflage fixe (égale à celle de l’ambiance), pour les différents points-heures extérieurs il est nécessaire de :

O préchauffer et humidifier,
O préchauffer,
O refroidir, déshumidifier et post-chauffer,
O refroidir et déshumidifier sans post-chauffer,
O refroidir et humidifier.

Suivant les débits d’air mis en œuvre, l’intégration des différences d’enthalpies entre les différents points-heures de l’année et les conditions d’ambiance des salles constituent la consommation annuelle du système de traitement d’air, par chauffage, refroidissement, humidification et déshumidification.

On considère que les salles fonctionnent selon le profil d’occupation suivant:

Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
O O O O O
O O O O O O O O O

avec les débits d’air neuf suivants :

O 4 500 m³/h
O 900 m³/h

Les résultats pour les 4 salles sont repris dans le tableau et le graphique ci-dessous.

Besoin énergétique électrique (kWh/an)

Jour Nuit WE Total

Total électrique

29 399

7 597

5 361

42 357

Pour 4 salles

169 428

Besoin énergétique thermique (kWh/an)

Total thermique

36 014

14 288

9 203

59 505

Pour 4 salles

238 020

Comparaison (kWh/an)

Total 4 salles 407 448
Total consommation de l’hôpital 5 400 000
Ratio des salles d’op. 7,5 %

Soit 7,2 % de la consommation totale de l’hôpital.

4. Bilan économique

Le bilan économique est synthétisé ci-dessous dans le tableau et sous forme de graphique :

Coûts énergétiques électriques (€/an)p

salles d’opération

13 511

hôpital

209 000

Coûts énergétiques thermiques (€/an)

salles d’opération

9 670

hôpital

113 750

Les coûts globaux des consommations énergétiques pour la climatisation de l’ensemble des 4 salles d’opération représentent 6 à 7 % de la facture énergétique de l’hôpital.

5. Conclusion

Les zones à risque de contamination élevé sont des postes consommateurs d’énergie importants. Les grands débits d’air neuf traités et le contrôle de l’humidité en sont responsables. C’est pour ces raisons qu’il est impératif, en conception nouvelle ou en rénovation, d’étudier l’alternative qui consiste à recycler l’air et à laisser varier l’humidité ambiante dans une plage qui respecte les normes et les règlements en vigueur.

Concevoir

Pour en savoir sur la gestion des débits.

Concevoir 

Pour en savoir plus sur le contrôle de l’humidité.

Les consommations électriques des ventilateurs

Plusieurs approches sont possibles.

> sur base de la puissance électrique installée des ventilateurs :

Cons. transportair [kWh/an] = Nbre jours/an x Nbre heures/jour x Puissance vent. [kW]

> sur base du ratio Wh/m³ transporté :

En fonction de la qualité du ventilateur et des pertes de charge du réseau (de faibles diamètres de conduits entraînent des vitesses et des pertes de charge élevées), on aura :

Puiss. transportair [kW] =  0,4 … à … 1,1 [W/(m³/h)] x débit horaire [m³/h] / 1 000

Cons. transportair [kWh/an] = Puiss. transp. [kW] x Nbre jours/an x Nbre heures/jour

> sur base des caractéristiques de conception du réseau :

La consommation électrique du (des) ventilateur(s) s’estime par :

Cons. transportair [kWh/an] = qx  Δp x h / (ηx 3 600 x 1 000)

où,

  • q= débit d’air transporté [m³/h]
  • Δp = pertes de charge (pulsion + extraction) [Pa]
  • h = durée de fonctionnement [h/an]
  • η= rendement total du système de transport de l’air (moyenne entre pulsion et extraction).
Soit pour quatre salles d’opération dont la perte de charge de dimensionnement est de 1 200 [PA] et qui tourne avec un rendement global de 0,65 :

  • 2 600 heures par an à 4 500 [m³/h] en période d’occupation,
  • 2 520 heures par an à 900 [m³/h] en période d’inoccupation de WE,
  • 3 640 heures par an à 900 [m³/h] en période d’inoccupation de nuit.

4 x (2 600 x 4 500 + 2 520 x 900 + 3 640 x 900) x 1 200 [PA] / (0,65 x 3 600 x 1 000) = 35 372  [kWh/an].

Soit de l’ordre de 35 372 / 5 400 000 = 0,6 % de la consommation totale de l’hôpital.

Afin de compléter notre propos concernant la ventilation d’une salle d’opération, voici un article portant sur la classification des filtres à air.

Grilles de transfert

Grilles de transfert

Les dispositifs de transfert de l’air sont nécessaires pour permettre le passage de l’air entre les locaux dans lesquels l’air neuf est amené et les locaux dans lesquels l’air vicié est évacué.


Grilles dans les portes intérieures

   

Grille de transfert à placer dans une porte.

Le débit nominal de la grille est mentionné dans la documentation des fournisseurs pour une différence de pression de 2 Pa. Les grilles de transfert ne peuvent pas être réglées. Elles sont généralement composées de lamelles obliques formant écran à la vue.

Différentes possibilités de vision au travers d’une grille.

Sur le plan acoustique, les grilles intérieures courantes entraînent une diminution considérable de la valeur d’isolation de la porte. Il existe toutefois des modèles qui ont une meilleure valeur d’isolation acoustique. Elles sont composées d’une chicane enrobée d’une matériau absorbant.

Ouvertures de transfert acoustiques.

Grilles de transfert acoustiques.

Coupe dans une porte munie d’une ouverture de transfert acoustique garnie d’un matériau absorbant.


Grilles dans les murs intérieurs

Les grilles peuvent être encastrées dans les murs intérieurs mêmes. Comme ces derniers ont habituellement une épaisseur plus importante, ce genre d’ouverture de transfert offre plus de possibilités sur le plan des performances acoustiques. En outre, leur encastrement est plus esthétique et moins visible. Elles peuvent être disposées derrière un meuble, un radiateur. Leur inconvénient est qu’elles doivent généralement être prévues lors du gros œuvre.


Fentes sous les portes

Des simples fentes sous une porte peuvent également servir d’ouverture de transfert. La section nette de la totalité des fentes doit s’élever à au moins 70 cm² par local. Lors de l’installation de la porte, il importe de tenir compte du parachèvement du sol pour qu’en final subsiste une ouverture suffisante. Par exemple, lorsque le sol doit être ultérieurement recouvert de moquette, l’épaisseur du tapis à prendre en compte pour déterminer la hauteur de la fente est au moins de 10 mm (attention cependant à ce que ce relèvement de la porte ne soit considéré comme une erreur de finition !).

Schéma fentes sous les portes.

Les performances acoustiques des fentes sous une porte sont assez médiocres. Par exemple, une fente de 10 mm de hauteur correspond à une diminution de l’isolation acoustique de 11 dB.


Grilles coupe-feu

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Pour répondre à cette exigence, il existe des grilles dont les lames sont composées d’un matériau intumescent. Les lames gonflent lorsque la température s’élève (de l’ordre d’une centaine de degrés), obturant ainsi l’ouverture et fournissant une résistance au feu de l’ordre d’une heure.

Grille coupe-feu.

Principes de base de la ventilation

 

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur
  2. Le mobilier
  3. Les produits et équipements de construction
  4. La ventilation
  5. Le comportement des usagers

Pourquoi faut-il ventiler ?

Pour maitriser l’énergie

La ventilation hygiénique fait partie du trio indissociable formé avec l’étanchéité à l’air et l’isolation thermique permettant le bon achèvement d’un bâtiment confortable et performant énergétiquement. L’un ne va pas sans l’autre. En effet, augmenter l’isolation sans penser aux pertes dues au niveau d’étanchéité à l’air du bâtiment n’a pas de sens… Et dès lors que le bâtiment est suffisamment étanche à l’air, il devient impératif de ventiler pour assurer une bonne qualité de l’air intérieur et garantir des ambiances intérieures confortables.

Pour garantir une bonne qualité de l’air intérieur

Ainsi, l’être humain passe entre 80% et 90% de son temps dans un espace intérieur clos et y respire de l’air intérieur bien souvent plus pollué que l’air extérieur. Pour évacuer ces polluants présents dans l’air et garantir une bonne qualité de l’air pour notre confort respiratoire et notre santé, il est nécessaire de ventiler les locaux dans lesquels nous vivons. De même, il peut être nécessaire d’évacuer le surplus d’humidité des bâtiments afin d’éviter tous dégâts dus à la condensation et garantir la bonne santé du bâtiment autant que celle des occupants.

Pour oxygéner le bâtiment

Dès lors que le bâtiment est un tant soit peu étanche à l’air et que les appareils de combustion se trouve à l’intérieur du volume protégé, il devient nécessaire d’assurer l’alimentation en air et donc en oxygène du bâtiment pour permettre la combustion utile au système de chauffage.


Comment ventiler ?

Pour atteindre les débits d’air et les renouvellements d’air prévus par les normes ou ceux nécessaires afin de garantir le confort respiratoire et la santé des occupants et du bâtiment, un système de ventilation hygiénique de base doit prévoir :

  • une amenée d’air frais dans les locaux dits « secs » : bureaux, salle de réunion, salle de séjour, chambre…
  • une évacuation de l’air vicié et humide dans les locaux dits « humides » : sanitaires, vestiaires, cuisine, salle de bain…
  • un transfert de l’air des locaux secs aux locaux humides
  • une gestion efficace pour garantir les débits voulus tout en limitant les pertes énergétiques

Les locaux où l’air doit être fournit doivent donc disposer d’une alimentation en air et ceux où l’air doit être enlevé, d’une extraction. Celles-ci peuvent être naturels (simple ouverture vers l’extérieur) ou mécanique (équipée d’un ventilateur). Ceci donne lieu à une classification des systèmes de ventilation en 4 modes principaux :

Évacuation Alimentation
Naturelle Mécanique

Naturelle

Système A ou Ventilation naturelle Système B ou Simple flux par insufflation

Mécanique

Système C ou Simple flux par extraction
Système D ou Double flux

Les dénominations A, B, C et D proviennent de la norme NBN D50-001 qui traitent des dispositifs de ventilation dans les bâtiments d’habitation et sont donc propres au milieu résidentiel. Cette norme distingue également trois type d’ouverture nécessaire à la ventilation correcte des locaux :

OAR

Ouverture d’amenée d’air réglable ou entrée d’air naturelle comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (grille, vasistas, …).

OER

Ouverture d’évacuation d’air réglable ou évacuation naturelle d’air comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (conduit vertical), la position fermée laissant passer un débit de fuite de 15 à 25 % du débit en position complètement ouverte.

OT

Ouverture de transfert ou ouverture permettant le transfert naturel d’air entre deux locaux (grille, interstice sous les portes, …)

Quels types de ventilation ?

  • La ventilation naturelle se fait par les interstices (infiltration) et par les ouvertures (ventilation) du bâtiment. L’air circule sous l’effet du vent, des différences de températures et des jeux de pressions. L’ouverture des grilles, bouches ou fenêtres peut se faire manuellement ou mécaniquement.
  • La ventilation mécanique utilise des composants motorisés, ventilateurs, pour forcer la circulation l’air à l’intérieur du bâtiment. On parle de simple flux par extraction si le ventilateur sert à faire sortir l’air du bâtiment, de simple-flux par insufflation s’il sert à faire entrer l’air ou de double flux si le système combine les deux.
  • La ventilation hybride correspond à une ventilation naturelle assistée ou remplacée mécaniquement sur certaines périodes de fonctionnement.
  • La ventilation de base consiste à alimenter le bâtiment en air frais en permanence durant les activités normales.
  • La ventilation intensive est nécessaire en cas d’occupation et de besoins particuliers comme une surchauffe exceptionnelle, un ensoleillement intensif, des activités exceptionnellement polluantes, … afin que le climat reste dans des limites acceptables.

Exemple de ventilation naturelle – Cas de l’hébergement


© Architecture et climat 2023.

  1. Amenées d’air naturel
  2. Grille de transfert
  3. Bouche d’extraction
  4. Evacuation naturelle

L’air est introduit naturellement dans les chambres par des ouvertures en façade et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (pulsion) – Cas de l’hébergement

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Evacuation naturelle
  7. Bouche d’extraction
  8. Bouche de pulsion
  9. Grille de transfert

L’air est pulsé dans les chambres et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (extraction) – Cas d’une école

© Architecture et climat 2023.

  1. Amenée d’air naturelle
  2. Grille de transfert
  3. Gestion des débits
  4. Ventilateur
  5. Bouche d’extraction
  6. Conduit

L’air est introduit naturellement dans les classes par des ouvertures en façade et évacué mécaniquement (en tout ou en partie) dans les sanitaires.


Exemple de ventilation double flux – Cas d’un immeuble de bureaux

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Bouche d’extraction
  7. Conduits
  8. Grille de transfert

L’air est pulsé dans les bureaux évacué mécaniquement (en tout ou en partie) dans les sanitaires.

Lampes à décharge : généralités

Lampes à décharge : généralités

On reprend généralement sous la dénomination « lampes à décharge »

Mais les tubes fluorescents, les lampes fluocompactes et les lampes à induction sont aussi des lampes à décharge (la lumière y est aussi produite par une décharge électrique dans un gaz).


Principe de fonctionnement

 Schéma principe de fonctionnement lampes à décharge.

Une lampe dite « à décharge » fonctionne par décharge d’un courant électrique dans une atmosphère gazeuse. La décharge se fait au travers d’un tube à décharge qui se trouve lui-même dans une ampoule vide.

Schéma principe de fonctionnement lampes à décharge.

Lorsqu’on met la lampe sous tension, des électrons sont émis par les deux électrodes de tungstène. Lors de leur trajet au travers du tube à décharge, ils entrent en collision avec les atomes de gaz. Il en résulte une libération d’énergie soit sous forme de lumière visible, soit sous forme de rayonnement ultraviolet invisible (principalement pour les lampes au mercure haute pression). Ce dernier est absorbé par le revêtement fluorescent présent sur la face interne de la lampe et converti en rayonnement visible.

Selon la pression du gaz dans le tube ou l’ampoule, on distingue les lampes à basse et à haute pression.

Les lampes à décharge ont besoin des éléments suivants pour fonctionner :

Photo amorceur.

– d’un amorceur (l’équivalent du starter des lampes fluorescentes),

Photo ballast.   Photo condensateur.

– d’un ballast  et d’un condensateur.

Ces trois éléments sont nécessaires pour :

  • atteindre pendant un court instant la tension élevée d’amorçage de la décharge électrique dans le gaz ionisé ou dans la vapeur de métal,
  • limiter le courant après l’amorçage pour empêcher la destruction de la lampe,
  • garder un cos φ proche de 1.

Principales dénominations commerciales

Type de lampe / Marques *

Philips

Osram

Sylvania

Sodium basse pression SOX SOX SLP
Sodium haute pression SDW
SON
NAV SHP
SHX
Mercure haute pression HPL HQL
HWL
HSL
HSB
Halogénures ou iodures métalliques HPI
MHN/MHW
CDM
HQI
HCI
HSI
MS
MP
Induction QL

 * Liste non exhaustive.

Données

 Pour connaitre les caractéristiques des lampes à décharge

Données

 Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Comparer les critères de choix [protection solaire]

Récapitulatif des protections et des critères de choix

+ + Très bon + Bon 0 Moyen – Mauvais – – Très mauvais

Protections extérieures

Brise-soleil

+ + + + + + – – + + 0 + + 0 – – + +

Stores
vénitiens

+ + + + + – – + + + + + + +
Stores
enroulables
+ + + + 0 – – + + + + + + + +
Eléments
architecturaux
+ + + + + + – – + + 0 + + – – – – + + +
Auvents + + + + + + – – – – + + + + + + – – +
Stores
projetés à
l’italienne
+ + + + + – – – – + + + + + + +

Protections intérieures

Stores
enroulables
et plissés

en tissu
+ + 0 0 + + + – – + + + + +
Stores
enroulables
et plissés
réfléchissants
+ + + + + 0 + + – – + + + +
Stores
vénitiens
et à lamelles
verticales
– – + + + + – – + + + + + + +
Films
adhésifs
– – à + + – à + + – à + – – à + + + + – – + + + + – à + + + +

Protections intégrées au vitrage

Stores
vénitiens
+ + + + + + + + + + + + + – – + – –
Stores
enroulables
+ + + + + + + + + + + + – – + + – –

Outil PROSOLIS, comparaison des complexes vitrages-protections solaire

copie écran PROSOLIS

Vous devez choisir une protection solaire spécifique ? un type de vitrage et une protection solaire ? L’outil PROSOLIS est là pour vous aider !

Développé par l’UCL (Architecture et Climat) et le Centre Scientifique et Technique de la Construction (CSTC) en 2015, cet outil est accessible gratuitement à l’adrese : www.prosolis.be

Il permet de comparer facilement et en fonction du contexte (orientation – type de bâtiment) les performances thermiques et visuelles de différents complexes « vitrages – protections solaires parallèles au vitrage « .

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
22-09-2008 : WinMerge ok – Sylvie

Améliorer la maintenance de l’installation frigorifique

Mise au point de la production de froid : GB Aywaille.

Machine frigorifique

Température à la Basse Pression : T°(BP)

La mesure directe de la température d’évaporation est très difficile. On réalise plutôt la lecture de la basse pression BP au manomètre, que l’on traduit la température d’évaporation en fonction du type de fluide utilisé.

Pour connaître la température d’évaporation à partir de la mesure de la basse pression, voici une table de correspondance entre la température et la pression relative mesurée à l’aspiration de la machine frigorifique pour quelques fluides frigorigènes :

Température Pression relative [bar]

[°C]

R22 R134A R404A

R407c

– 30 0,64 0.08 1,07 1,36
– 20 1,43 0,31 2,05 1,79
– 18 1,62 0,43 2,30 2,02
– 16 1,83 0,56 2,56 2,25
– 14 2,05 0,69 2,82 2,50
– 12 2,28 0,84 3,09 2,77
– 10 2,52 0,99 3,39 3,05
– 8 2,78 1,15 3,69 3,34
– 6 3,05 1,33 4,01 3,65
– 4 3,33 1,51 4,36 3,98
– 2 3,63 1,71 4,63 4,32
0 3,95 1,91 5,09 4,68
2 4,28 2,13 5,59 5,06
4 4,63 2,36 5,89 5,46

Détente directe

En détente directe, pour un évaporateur à air, si l’écart entre T°évaporation et la T°air sortie évaporateur > 6 à 10 K, il y a encrassement ou prise en glace permanente et donc chute de rendement. Il est donc nécessaire de procéder à un nettoyage ou un dégivrage.
Si l’écart subsiste après l’opération de maintenance, il faut envisager l’extension de la surface de l’évaporateur.

Détente indirecte par boucle frigoporteur

En détente indirecte, pour un évaporateur à eau glycolée par exemple, si l’écart entre T°évaporation et la T°eau sortie évaporateur > 4 à 6 K, il y a encrassement et donc chute de rendement. Si l’écart subsiste après le nettoyage (en général, un détartrage à l’acide), il faut envisager l’extension de la surface de l’évaporateur.

Quelques réflexions …

La mesure / lecture de la température  peut être effectuée sur le circuit secondaire par thermomètre digital au niveau de doigts de gant par exemple.

On rappelle ici que l’augmentation, si possible, du point de consigne de la température du fluide caloporteur augmente le rendement.

Mesure prise à l’emplacement du thermomètre à aiguille
dont la précision est parfois sujette à caution…

La mesure des températures de départ et de retour de l’eau glycolée est une indication intéressante. En effet, si, à puissance maximale, l’écart est inférieur à 5 K, le débit d’eau peut être réduit (économie électrique + diminution du risque d’érosion).

Intensité absorbée par le compresseur

A puissance nominale, mesurées sur chaque phase, les valeurs du courant à la pince ampèremétrique doivent être peu différentes et proches ou inférieures à celles de la plaque signalétique. On peut forcer le régime de la machine frigorifique pendant cette mesure (en abaissant la demande à l’évaporateur, par exemple).

Quelques réflexions …

L’idéal dans ce domaine est toujours de comparer d’une année à l’autre… Donc il faut noter les valeurs mesurées.

Il vaut en général mieux de ne pas faire confiance aux ampèremètres présents sur la machine.

Pour des compresseurs à plusieurs étages, si l’on passe d’un premier à un second étage et que le courant ne bouge pas, c’est qu’il y a des clapets cassés.

Pression et température de condensation à la Haute Pression : T°(HP)

Action …

La mesure directe de la température de condensation, comme celle d’évaporation, est très difficile. On réalise plutôt la lecture de la haute pression HP au manomètre, que l’on traduit en température de condensation en fonction du type de fluide utilisé. À l’heure actuelle, la double indication (pression-température) est souvent inscrite sur le manomètre pour différents fluides frigorigènes souvent employés.

Température Pression relative [bar]

[°C]

R22 R134A R404A

R407c

16 7,10 4,01 8,80 8,27
18 7,58 4,34 9,3 8,81
20 8,08 4,68 10 9,38
25 9,42 5,61 11,6 10,91
30 10,91 6,66 13,3 12,60
35 12,55 7,82 15,2 14,46
40 14,35 9,11 17,3 16,50
45 16,33 10,53 19,6 18,75
50 18,49 12,10 22 21,20
55 20,84 13,83 24,8 23,87
60 23,40 15,73 26,78
65 26,17 17,80 29,94

Quelques réflexions …

La valeur de la pression varie suivant le système, sauf compresseur à vis : HP-BP = 10 bar.

La variation de la Haute Pression (le plus bas possible, suivant la technologie de fabrication) réduit la consommation électrique.

Ecart de température entre le condenseur et le fluide refroidissant : T°(HP)

Action …

Mesurer l’écart entre la température de condensation et la température du fluide refroidissant. Pour un condenseur air, l’écart entre la température de condensation et la température de l’air à l’entrée doit être de l’ordre de 12 à 15 K à pleine charge. A charge partielle, le delta T° doit diminuer proportionnellement.

Quelques réflexions …

Si ces écarts sont dépassés malgré un détartrage régulier, c’est que le condenseur est trop petit. Or toute augmentation de 1° de cet écart entraîne 3% de consommation en plus.

Pour connaître la température de condensation, lire la haute pression, et se référer tableau de correspondance température/pression du fluide frigorigène (Exemple pour le R22, R134a et R407, …).

Sous-refroidissement

Action …

Mesurer la température de ligne liquide (T°liq), à l’entrée du détendeur, au moyen d’un thermomètre de contact, puis la comparer à la température de condensation T°(HP), en déduite de la valeur de la Haute Pression.

Quelques réflexions …

Sauf pour les détendeurs à capillaire, le sous-refroidissement (qui est la différence T°(HP) – T°(liq)) doit se situer entre 5 et 7 K.

Une augmentation du sous-refroidissement augmente la puissance frigorifique de la machine frigorifique et son efficacité énergétique. Le travail du compresseur reste en effet constant alors que la plage d’évaporation s’accroît. Concrètement, pour une situation type donnée, on a observé 0,8% d’accroissement du COP par degré d’augmentation du sous-refroidissement pour du R-22 et 1%/K pour du R-134a (source : Le froid efficace dans l’industrie – Ademe- France). Si une faible valeur est rencontrée, c’est l’indication :

  • soit d’un manque de fluide frigorigène (fuite ?),
  • soit d’un encrassement du condenseur (mauvaise condensation, donc peu de liquide ?).

S’il s’agit d’un détendeur à capillaire (petites installations du type climatiseur), le sous-refroidissement doit être plus faible car à l’arrêt, il y aura égalisation des pressions Haute et Basse; donc du liquide pénétrera dans l’évaporateur; donc risque de coup de liquide au démarrage si la quantité est trop importante.

Surchauffe

Action …

Mesurer température d’aspiration (T°asp) au moyen d’un thermomètre de contact.

Quelques réflexions …

Pour les détendeurs thermostatiques, la différence entre la T°évaporation(BP) et T°aspiration à l’entrée du compresseur = 6 K à 8 K.

Pour les détendeurs électroniques, la différence entre la T° BP et T° asp = 3 K.

Une réduction de la surchauffe permet une augmentation de la puissance frigorifique, mais :

  • une surchauffe trop faible peut provoquer des coups de liquide au compresseur,
  • une surchauffe trop forte entraîne une usure prématurée des compresseurs par élévation de leur température de refoulement.

Température de refoulement

Action …

Mesurer la température à la sortie du compresseur.

Quelques réflexions …

La température dépend du fluide (pour un condenseur à air : 60 … 70°C). Il est bon d’avoir les données du fabricant.

Si la température de refoulement en sortie de compresseur est élevée, c’est peut être qu’il y a présence d’incondensables (air, eau). Il y a alors risque de dégrader rapidement l’huile…

Test : si la machine est à l’arrêt, le condenseur se met entièrement à la température extérieure (condenseur à air). En mesurant à ce moment la pression, elle doit correspondre à la valeur théorique correspondant à la température du fluide. Si elle est plus élevée, c’est le signe qu’il y a des incondensables dans le circuit (par exemple, un nettoyage à l’azote qui n’aurait pas été bien tiré au vide).

Autres tests

Aspect extérieur des compresseurs et organes associés

Traces de condensation (isolation défectueuse ou pas d’isolation).

A protéger si risque de corrosion avec fuites (eau ou frigorigène) – Éviter les risques de rejet de rouille à l’égout public, etc.

Corps d’évaporateur

Dégradation éventuelle de l’isolation (passage de vapeur d’eau) + absence de corrosion de la surface.

Risque de perforation à long terme avec perte de fluide frigorigène.

Clapets cassés ?

Il s’agit de 2 tests comparatifs à réaliser d’année en année :

  • La mesure du temps de « pump down ». C’est le temps en seconde entre l’arrêt de la vanne magnétique avant le détendeur et l’arrêt du compresseur sur la Basse Pression. Si ce temps s’allonge, c’est l’indication qu’il y a des fuites aux clapets.

 

  • La mesure du temps pour que les pressions s’équilibrent à l’arrêt de la machine. Si les clapets sont cassés, la Haute Pression descend très vite.

Type de frigorigène

Vérification du type de fluide utilisé : CFC , HCFC, HFC, autre …? R 11, 12, R 502 (CFC) interdits / R 22 (HCFC) interdit en 2015 ou avant.

Circuit du frigorigène

Absence de fuites (pas de traces d’huile au sol, corrosion de brasures, etc). Défaut d’étanchéité soupape, perte de fluide à l’atmosphère, dégradation remplacer la soupape si risque de rupture de la couche d’ozone si CFC, HFCF + frais de remplissage.

Bombe aérosol et détecteur électronique.

pH du fluide frigorigène

Couleur de l’indicateur d’humidité sur ligne liquide / test d’acidité sur échantillon d’huile. Si pH acide, vérifier l’étanchéité du circuit, réparer les fuites, changer l’huile, remplacer la cartouche du déshydrateur (ou en installer une) et tirer au vide (de préférence avec de l’azote « R »).

Résistance de carter

Durant l’arrêt des compresseurs à pistons, la température de carter doit être env. 40 °C. En fonctionnement, le carter ne doit pas être froid, il ne doit pas condenser et encore moins givrer. On admet qu’il doit avoir à peu près la température ambiante du local. S’il est trop froid, un réglage s’impose par le frigoriste. Si le carter n’est pas chauffé, risque de grippage au démarrage du compresseur, avec destruction du bobinage du moteur.

Compteurs d’heures (h) compresseurs ou groupe frigo

Existence du compteur (sinon à placer), vérification du fonctionnement + relevés. Période ± 3 000 h/an , valeur courante de 1 250 h à 1 800 h en non modulant.

Compteurs de démarrage (d) compresseurs

Existence du compteur (sinon à placer), vérification du fonctionnement + relevés. Si le total est supérieur à 6 000/mois, vérifier la régulation.

Dimensionnement du groupe frigorifique

Calculer le cycle moyen (h/d) c-à-d quotient des deux valeurs ci-avant. Cela ne fonctionne pas sur les appareils modulants (compresseur à vis, par exemple). Si la valeur est inférieure à 10 minutes, la puissance est à réduire dans la mesure du possible ou la régulation de mise en cascade est mal réglée (voir technologie appliquée).

Niveaux

Ils sont surveillés plus que mesurés. Ce sont :

  • le niveau de frigorigène dans la bouteille accumulatrice de liquide, dans les séparateurs basse ou moyenne pression,
  • le niveau d’huile dans le système d’alimentation en huile de compresseurs en parallèle,
  • le niveau d’eau dans le bac de rétention d’eau de la tour de refroidissement ou du condenseur « évaporatif ».

On contrôlera également :

La qualité de passage du fluide frigorigène dans le voyant liquide : il ne doit pas y avoir de bulles. S’il y a des bulles, cela traduit, dans la plupart des installations, un manque de fluide et donc probablement une fuite.

La présence d’humidité dans le circuit frigorifique modifie la couleur dans le voyant (dry = sec, wet = humide).

La présence d’humidité peut gravement endommager le groupe froid, notamment par la corrosion des vernis sur les enroulements.

Une fuite de fluide provoque un fonctionnement prolongé du compresseur (mais à puissance moindre) et des ventilateurs du condenseur. Le rendement est donc dégradé. Dans les 2 cas, un dépannage rapide par le frigoriste est nécessaire.

Quels paramètres enregistrer ?

Lorsqu’une régulation numérique est mise en place, la question des points de mesure à relever pour la maintenance se pose. Reprenons ici les recommandations citées dans l’ouvrage Le froid efficace dans l’industrie publié par l’Ademe. Elle est donnée à titre de check-list car encore faut-il disposer du temps pour analyser les résultats…!

Pressions

  • pressions du frigorigène : d’évaporation, de condensation, intermédiaire (dans le cas d’un cycle biétagé),
  • pressions différentielles d’huile des compresseurs,
  • pressions de refoulement des diverses pompes : de frigorigène (circuit noyé), de frigoporteur, d’eau, etc.

Températures

  • Du frigorigène : à l’entrée des compresseurs, à la sortie de ceux-ci, à la sortie de la bouteille accumulatrice de liquide, à l’entrée des régleurs, à la sortie des évaporateurs, etc.
  • Des milieux refroidis :
    • températures des chambres froides des cuisines collectives,
    • températures de bacs à liquides refroidis,
    • températures d’entrée et de sortie de l’évaporateur de la boucle d’eau glacée
  • Des milieux de refroidissement : températures d’entrée et de sortie d’eau du condenseur, température de l’air entrant dans un condenseur à air, etc.
  • Du carter du compresseur

Débits

La mesure du débit du fluide frigorigène est peu courante, et c’est souvent dommage, les quelques mesures pratiquées le sont sur l’eau. Le coût relativement faible des capteurs est certainement une explication.

États logiques

  • état de marche ou d’arrêt d’un compresseur,
  • état d’ouverture ou de fermeture d’un robinet électromagnétique ou d’une vanne motorisée,
  • fonctionnement ou non du dégivrage de tel évaporateur, etc.

États analogiques (ou numériques)

  • position, exprimée en fraction de charge, du tiroir de réglage d’un compresseur à vis,
  • degré d’ouverture d’un robinet motorisé, d’un détendeur,
  • nombre de cylindres en fonction dans un compresseur, etc.

Puissances ou consommations électriques

  • de machines sur lesquelles on fait porter l’attention, par exemple pour en optimaliser le fonctionnement : compresseurs, pompes, ventilateurs, etc.

Temps

  • temps de marche d’une machine en vue de l’homogénéisation du temps de fonctionnement de machines en parallèle, etc.

Exemples d’utilisation de ces mesures

  1. La connaissance des pressions et des températures d’entrée et de sortie d’un compresseur sont des indicateurs de son bon fonctionnement. Les valeurs nominales devraient toujours se trouver à proximité de l’équipement, car si la température de refoulement est plus élevée, il y a un risque que les clapets ne soient plus étanches, ce qui nécessite une intervention.
  2. À partir des températures et du débit d’eau traversant le condenseur à eau, on peut déduire la quantité d’énergie échangée. En y ajoutant la température de condensation du fluide frigorigène, on peut connaître le coefficient d’échange thermique du condenseur et le comparer à sa valeur initiale. Si elle décroît fortement, ce sera l’indication d’un entartrage ou de présence de boues à éliminer par un nettoyage de l’échangeur.

Aéro-refroidisseurs ou condenseurs à air

 

Nettoyage des batteries

Dans les condenseurs refroidis à l’air, le principal problème est le nettoyage des batteries, car le genre de construction de ces appareils ne prévoit presque jamais de filtres anti-poussières.

Il est donc nécessaire de dépoussiérer et enlever régulièrement les feuilles mortes et autres déchets, faute de quoi, le débit d’air diminuant, les qualités d’échange diminuent aussi, ce qui entraîne une diminution de la puissance frigorifique et une augmentation de la puissance électrique absorbée. Le serpentin peut être nettoyé à l’aide d’un compresseur à air ou à eau à basse pression (travail à réaliser de préférence par un frigoriste car les ailettes sont peu résistantes mécaniquement).

Une augmentation de 5 K de la température de condensation (suite à l’encrassement) entraîne une augmentation de consommation électrique de 10 à 15 %.

Corrosion

L’habillage de l’équipement contre la corrosion est à protéger pour retarder la mise au rebut et ainsi limiter la production de déchets.

Régulation

Vérifier la bonne régulation de la pression de condensation (enclenchement de la cascade de ventilateurs, pour contribuer à abaisser le plus possible la pression de condensation).


Déclenchements du compresseur par forte température extérieure

Si le compresseur déclenche de temps en temps par période de forte chaleur, c’est suite au pressostat HP (Haute Pression) : la condensation se fait à un trop haut niveau de pression.

Le frigoriste risque malheureusement de diagnostiquer une insuffisance de puissance de l’installation (ce qui est exact) et de proposer un remplacement par un compresseur plus puissant. Mais la nouvelle installation sera alors surpuissante toute l’année…

Si le fabricant l’autorise, il vaut mieux augmenter le seuil de pression de déclenchement du compresseur. La machine frigorifique pourra alors continuer à fonctionner, tout en donnant temporairement une puissance frigorifique plus faible que sa valeur nominale dans des conditions extrêmes de température. Attention toutefois qu’en froid alimentaire il est primordial de respecter les températures de conservation; ce qui signifie que le déclenchement HP ne doit pas se manifester pour des températures classiques en période chaude sous nos latitudes.

On étudiera également si ce n’est pas le condenseur qui est sous-dimensionné par rapport au compresseur : une augmentation de surface de condensation améliorera le rendement toute l’année. Cette situation n’est tolérable que peut de temps sachant qu’une puissance froid insuffisante pendant un laps de temps prolongé entraine la perte des denrées.

Lors d’une panne d’une cascade de compresseurs, on pourra soit redémarrer l’installation avec un seul compresseur (bénéficiant de l’ensemble de la surface du condenseur, il verra la température de condensation fortement diminuer), soit arroser le condenseur…!


Nuisances acoustiques

Si la nuisance sonore est surtout importante aux basses fréquences, il est possible que les machines tournantes (ventilateur du condenseur, moteur du compresseur,…) soient mal équilibrées.

Ce défaut s’accentue avec l’usure des équipements.

Deux solutions pour améliorer la situation :

Vent

Vent


Le vent en Belgique

Le vent est un déplacement d’air, essentiellement horizontal, d’une zone de haute pression (masse d’air froid) vers une zone de basse pression (masse d’air chaud). Les différences de température entre les masses d’air résultent de l’action du soleil. Le régime des vents en un lieu est représenté par une rose des vents, qui exprime la distribution statistique des vents suivant leur direction. Par définition, la direction d’un vent correspond à son origine.

C’ est un facteur climatique important dans la détermination des besoins en énergie d’un bâtiment. Il influence le taux d’infiltration d’air du bâtiment, ainsi que les échanges de chaleur par convection à la surface de l’enveloppe des bâtiments peu isolés.

Par exemple, si à un certain moment de la journée l’intensité du vent augmente et que sa direction passe à l’ouest, le ciel se couvrira de nuages et le taux d’infiltration d’air du bâtiment augmente. Ainsi, s’il fait froid, les déperditions thermiques et donc les besoins en énergie de chauffage des locaux augmentent.

Cela suppose de connaître d’une part, la fréquence et la vitesse moyenne du vent dans toutes les directions et d’autre part, pour toutes directions confondues, la fréquence des différentes plages d’intensité du vent.

La direction et la vitesse du vent caractérisent celui-ci. La direction du vent en un lieu est donnée par l’orientation d’où il souffle; la vitesse du vent est exprimée en km/h.

Les graphes et tableaux ci-dessous donnent, pour chaque direction du vent, la fréquence en % du temps et la vitesse moyenne, le 15 des mois de mars, juin, septembre et décembre, à Uccle.

Direction

Fréquence
% temps

Vitesse
km/h
N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
4,2
4,6
7,7
6,6
4,6
2,9
3,3
5,6
7,9
8,4
11,0
9,7
7,7
5,3
4,2
3,6
17,6
17,1
15,6
13,6
12,9
16,6
14,0
16,9
19,8
21,3
22,6
22,3
17,5
16,5
14,7
14,8

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
6,2
5,8
7,0
5,4
4,3
2,4
2,5
2,8
4,2
5,3
10,0
9,6
9,2
7,1
8,1
6,6
13,5
13,5
12,4
11,1
9,7
8,5
9,1
10,9
12,3
13,4
15,0
14,4
12,4
11,6
11,1
12,0

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
4,2
4,4
6,4
5,9
6,0
3,3
4,3
5,2
5,9
6,7
9,9
9,8
9,0
5,2
4,2
3,7
13,4
11,0
12,0
11,6
10,3
8,8
10,0
11,3
12,1
13,6
13,7
12,6
12,1
11,7
10,3
11,1

Direction

Fréquence
% temps

Vitesse
km/h

N
N N E
N E
E N E
E
E S E
S E
S S E
S
S S O
S O
O S O
O
O N O
N O
N N O
1,3
1,2
4,5
5,4
4,0
3,8
3,4
6,3
10,5
12,8
14,2
12,0
8,8
4,4
3,0
1,7
15,4
17,0
15,6
13,9
11,5
6,3
15,9
17,9
20,2
20,5
22,0
20,5
19,0
18,9
16,7
14,0

Par exemple, la fréquence et la vitesse moyenne du vent est de :

  • 9,7 % et 22,3 km/h pour la direction OSO le 15 mars,
  • 6,4 % et 12 km/h pour la direction NE le 15 septembre,
  • 14,2 % et 22 km/h pour la direction SO le 15 décembre.

Afin de tenir compte de l’intensité du vent à considérer dans les calculs de déperditions thermiques des bâtiments, le tableau ci-dessous donne les fréquences du vent correspondant aux plages de vitesse de 10 en 10 km/h, toutes directions confondues, à Uccle.

Vitesse

Fréquence en % du temps

km/h J F M A M J J A S O N D
0 – 9 27,7 30,7 30,5 31,3 40,8 45,0 49,9 46,4 50,3 43,8 36,8 29,7
10 – 19 33,3 34,1 36,0 38,1 41,1 41 37,9 38,4 37,6 35,2 34,7 32,5
20 – 29 24,0 20,9 20,1 21,8 14,9 11,5 10,2 12,2 10,2 11,5 18,6 22,8
30 – 39 10,0 9,5 0,9 6,7 2,8 2,1 1,7 2,5 1,4 4,1 6,7 10,2
40 – 49 3,6 3,4 3,3 1,8 0,4 0,4 0,2 0,4 0,3 1,2 2,6 3,6
> 50 1,3 1,3 1,1 0,2 0 0 0 0 0 0,2 0,4 1,2

Dans les stations météorologiques les relevés de vent sont effectués à une hauteur standard de 10 m au-dessus d’un terrain plat et découvert. La direction du vent est déterminée par une girouette, et sa vitesse par un anémomètre.

À ce jour, il n’existe pas de relation mathématique établie permettant de déterminer la vitesse et la direction du vent en un lieu et à un moment donnés. C’est ce qui explique la difficulté de prévoir le temps, même à moyen terme! Ceci étant, il est possible de déterminer qualitativement les variations locales du vent.

Le vent en un lieu est dépendant du type d’environnement et des obstacles rencontrés.

> En guise de conclusion

Les vents dominants en Belgique soufflent du sud-ouest, mais aux changements de saisons la fréquence du vent est tout aussi importante du nord-est. Il y a très peu de vent d’orientation nord-ouest ou sud-est.

Les vents du nord-est sont polaires, donc froids et secs, tandis que la direction sud-ouest est celle des alizés chauds. Lorsqu’ils proviennent plutôt du sud ils sont secs, tandis que de l’ouest ils amènent la pluie.

À l’exception de la région côtière, pendant plus de 60 % du temps, la vitesse du vent est inférieure à 20 km/h. Le long de la mer, la vitesse du vent est 70 % plus élevée que dans le reste du pays.


Influence de l’environnement sur le vent

Schéma influence de l’environnement sur le vent.

L’environnement a une grande influence sur la vitesse et la direction du vent.

Puisque celui-ci influence de façon importante le taux d’infiltration d’air du bâtiment et donc la détermination des besoins en énergie du bâtiment, il est essentiel de connaître l’environnement dans lequel le bâtiment va être construit.

La figure ci-dessus donne les variations de la vitesse du vent selon l’altitude et la nature du sol

  • Calcul du facteur de pond. à appliquer sur le taux d’infiltration en fonction de l’environnement dans lequel on se trouve
  • Analyse des paramètres agissant sur le vent et sa vitesse

Calcul du facteur de pondération à appliquer sur le taux d’infiltration en fonction de l’environnement dans lequel on se trouve (méthode utilisée dans Opti)

On distingue 4 classes :

> classe 1 :  bord de mer (–> 2 km de la digue).
> classe 2 :  zone rurale avec bâtiments ou arbres isolés.
> classe 3 :  zone urbanisée, industrielle ou forestière.
> classe 4 : ville (zone de construction d’au moins 10 m de haut sur au moins le quart de la surface).

–> norme NBN B03-002 « actions du vent sur les constructions »
Pour calculer la vitesse du vent à une hauteur bien précise, il faut appliquer la formule

V = Vref λ ln (Z/Zo)

 où,

  • Vref  = vitesse à une hauteur de 10 m
  • Z = hauteur pour laquelle la vitesse est recherchée
  • λ et Zo ont des valeurs différentes en fonction de la classe de la zone.
  Classe λ Zo

1

2

3

4

0.166

0.202

0.234

0.209

0.005 0.07 0.30 1

Or, la vitesse en hiver à Uccle est de 4.7 m/sec à 10 m de hauteur et la hauteur moyenne d’une habitation individuelle = 5 m.

Donc la vitesse du vent à une hauteur de 5 m est de

  • dans une zone de classe 2 :

V = 4.7 x 0.202 ln (5/0,07) = 4.05 m/sec

  • dans une zone de classe 1 :

 V = 4.7 x 0.166 ln (5/0,005) = 5.389 m/sec

  • dans une zone de classe 3 :

V = 4.7 x 0.234 ln (5/0,3) = 3.09 m/sec

  • dans une zone de classe 4 :

V = 4.7 x 0.209 ln 5/1 = 1.58 m/sec

Dans les recherches effectuées par l’AIVC, on retrouve des graphes donnant, en fonction du degré d’étanchéité de l’habitation, le taux d’infiltration en fonction de la vitesse du vent.

Pour une hauteur moyenne de 5 m (c’est-à-dire pour une habitation individuelle)

en zone II, si pour

V = 4.05m/sec, τ = 0.30 vol/h
alors en zone I, V = 5.39m/sec, τ = 0.35 vol/h
en zone III, V = 3.09m/sec, τ = 0.25 vol/h
en zone IV, V = 1.58m/sec, τ = 0.2 vol/h

en zone II, si pour

V = 4.05m/sec, τ= 0.45 vol/h
alors en zone I, V = 5.39m/sec, τ = 0.55 vol/h
en zone III, V = 3.09m/sec, τ = 0.40 vol/h
en zone IV, V = 1.58m/sec, τ = 0.35 vol/h

en zone II, si pour

V = 4.05m/sec, τ = 0.95 vol/h
alors en zone I, V = 5.39m/sec, τ = 1.1 vol/h
en zone III, V = 3.09m/sec, τ = 0.80 vol/h
en zone IV, V = 1.58m/sec, τ = 0.65 vol/h

Donc, le facteur de pondération à appliquer sur le taux d’infiltration en fonction de la classe de la zone sera :

> Si maison étanche, c’est-à-dire tinf < 0.4 vol/h

classe 1 : INF = INF x (0.35/0.30)
classe 2 : INF = INF
classe 3 : INF = INF x (0.25/0.3)
classe 4 : INF = INF x (0.2/0.3)

> Si maison moyennement étanche, c’est-B-dire 0.4 < tinf < 0.8 vol/h

classe 1 : INF = INF x (0.55/0.45)
classe 2 : INF = INF
classe 3 : INF = INF x (0.4/0.45)
classe 4 : INF = INF x (0.35/0.45)

> Si maison non étanche, c’est-à-dire tinf > 0.8 vol/h

classe 1 : INF = INF x (1.1 /0.95)
classe 2 : INF = INF
classe 3 : INF = INF x (0.8/0.95)
classe 4 : INF = INF x (0.65/0.95)

Analyse des paramètres agissant sur le vent et sa vitesse

Les gradients de température principalement créés par l’ensoleillement sont responsables des mouvements d’air. Ils engendrent l’ascension de masses d’air chaud et un appel d’air froid. Divers types d’environnement sont propices à ces phénomènes :

  • les étendues d’eau,
  • les versants de collines,
  • les vallées
  • les villes.

Les étendues d’eau

Les masses d’eau étant plus chaudes que l’atmosphère en hiver et plus fraîches en été, les courants d’air créés par le gradient thermique s’inversent au cours de l’année. Lors des brusques variations de température (nuits fraîches par exemple) les courants d’air peuvent aussi s’inverser au cours d’une même journée.

Les versants de collines

Sur les versants de collines, le soleil favorise un gradient de température et donc des courants d’air durant la journée. De nuit, le gradient s’estompe et puis s’inverse légèrement, de telle sorte que l’air circule dans le sens opposé.

Les longues vallées

Dans les longues vallées, le phénomène expliqué ci-dessus tend à créer un mouvement d’air longitudinal d’autant plus puissant que la vallée est longue et que le gradient de température est élevé. Le dessin ci-contre illustre la complexité des mouvements d’air.

Les villes

La température des villes étant supérieure à celle des campagnes, on y constate un mouvement d’air similaire à celui créé par les masses d’eau. L’appel d’air se dirige vers les villes. De même, en ville, les grands espaces dégagés permettent la création de courants d’air.

Les obstacles constituent diverses obstructions et provoquent des modifications de la vitesse et de la direction du vent. Lorsque le vent rencontre un mur, par exemple, il est obligé de le contourner. La face d’un objet exposée au vent subit une surpression tandis que la face opposée est soumise à une dépression.

De manière générale, le vent étant freiné par les obstacles, lorsque la densité et la taille de ceux-ci sont importants (en ville par exemple), la vitesse du vent est moindre qu’en sites dégagés tels que les champs et les étendues d’eau.

La topographie

La topographie ne constitue pas à proprement parler un obstacle mais elle engendre éventuellement des modifications par rapport aux données générales relatives au vent.

Ces changements s’effectuent à moyenne ou grande échelle. Le relief a pour effet de protéger certains sites mais aussi d’en surexposer d’autres. Par ailleurs, il peut modifier les vents dominants sur des grandes étendues. Ci-contre, deux schémas illustrent le flux de vent rencontrant une colline et une dépression.

Les obstacles au vent peuvent prendre des formes très variées : les constructions forment des écrans permanents tandis que la végétation peut présenter de nombreuses variations de taille (croissance) et d’opacité (saisons).

Certains de ces écrans amovibles ou non peuvent également être utilisés à volonté afin de protéger les espaces extérieurs.

Outre la protection qu’ils offrent, la proximité d’écrans peut occasionner des effets secondaires tels que courants d’air et turbulences.

L’efficacité d’un écran est régie par ses dimensions et sa perméabilité.

La perméabilité de l’écran importe également. Ainsi, les écrans denses provoquent une forte réduction de la vitesse du vent sur une faible profondeur tandis que les écrans perméables réduisent la vitesse du vent dans une moindre mesure mais sur une profondeur plus importante.

La profondeur de la zone protégée est proportionnelle à la hauteur de l’écran : sa taille sera maximale lorsque l’écran aura une longueur équivalente à 11 à 12 fois sa hauteur.

Les plantations à feuilles caduques offrent une meilleure protection estivale qu’hivernale. Leur effet est négligeable durant l’hiver.

Source – Logiciel OPTI Bureaux – Architecture et Climat – juin 2000

Luminaires intérieurs pour tubes fluorescents

Luminaires intérieurs pour tubes fluorescents


Luminaires ouverts à ventelles

Luminaires ouverts à ventelles droites

Les ventelles d’un luminaire ont pour but de limiter la vue directe des lampes à partir d’un certain angle de vision appelé angle de défilement. Le contrôle de la diffusion de la lumière par ces ventelles (dans le sens longitudinal du luminaire) et par le réflecteur (dans le sens transversal) déterminera la luminance du luminaire, c’est-à-dire sa brillance, pour chacun des angles sous lequel on le regarde. La norme EN 12464-1 spécifie l’angle de défilement minimum en fonction de la luminance de la lampe.

Luminaires ouverts à ventelles paraboliques (basse luminance)

Pour limiter l’éblouissement via les écrans d’ordinateur, les luminaires performants présentent une luminance moyenne faible pour des angles ϒ supérieurs à leur angle de défilement (voir illustration ci-après). Ils sont caractérisés par des optiques en aluminium équipées de ventelles symétriques et de forme parabolique. Celles-ci permettent un contrôle de la lumière qui évite les réflexions sur les écrans d’ordinateur verticaux ou légèrement inclinés ; ce que ne permettent pas des ventelles planes. On les appelle généralement luminaire « basse luminance ».

Pour les luminaires éclairant des postes de travail avec équipement de visualisation , la norme EN 12464-1 spécifie que pour des angles d’élévation supérieurs ou égales à 65°, la luminance moyenne des luminaires ne doit pas dépasser les valeurs reprises dans le tableau suivant, et ce en fonction de la luminance moyenne propre des écrans concernés :

État de luminance élevé de l’écran

Écran à haute luminance
L > 200 cd.m-2

Écran à luminance moyenne
L ≤ 200 cd.m-2

Cas A

(polarité positive et exigences normales concernant la couleur et le détail des informations affichées, comme pour les écrans utilisés dans les bureaux, pour l’éducation, etc.)

≤ 3 000 cd/m²

≤ 1 500 cd/m²

Cas B

(polarité négative et/ou exigences plus élevées concernant la couleur et le détail des  informations affichées, comme pour les écrans utilisés pour le contrôle des couleurs en conception assistée par ordinateur, etc.)

≤ 1 500 cd/m²

≤ 1 000 cd/m²

Contrôle de la luminance par des ventelles .

Comparatif ventelles plates et paraboliques .

Ventelle parabolique.

Il existe également des luminaires équipés de ventelles « crantées ou en sapin ». Ce ne sont pas, à proprement parlé, des luminaires « basse luminance ». Ils constituent un compromis entre les luminaires à ventelles planes et les luminaires à ventelles paraboliques.

Photo ventelles "crantées ou en sapin".

De plus, un luminaire présente souvent ce que l’on appelle des luminances de crête. Celles-ci, gênantes lorsque l’on travaille de façon intensive sur ordinateur, sont dues à la réflexion de la lumière émise par la lampe sur le dos des ventelles.

Luminance de crête.

Pour prévenir ces taches lumineuses, certains fabricants prévoient des ventelles dont le dos profilé réoriente la lumière réfléchie pour éviter tout éblouissement.

   

  

Exemples de ventelles profilées.

Attention ! Les luminaires de qualité médiocre présentent parfois des ventelles dont le dos n’est pas fermé ou peint en noir. Dans ce cas, les luminances de crête sont éliminées, mais au prix d’une importante perte de rendement !


Luminaires « lumière douce »

Diffusion de la lumière
avec un luminaire lumière douce.

Photo luminaire lumière douce.

Le luminaire dit « lumière douce » n’est pas à proprement parler un luminaire basse luminance. Son intérêt réside dans l’absence de point lumineux à forte luminance. Il est caractérisé par une luminance également répartie dans toutes les directions (de l’ordre de 1 500 cd/m²). Il est composé d’un diffuseur perforé et d’un réflecteur qui assure une diffusion uniforme de la lumière sur toute la surface du luminaire. Ce type de luminaire se rapproche d’un luminaire de type mixte (composante directe et indirecte) car une partie du flux lumineux est dirigée via le réflecteur vers les murs et le plafond, générant une répartition agréable de la lumière vers les parois du local.
Le rendement total de ce luminaire atteint 70 %. Il se divise en un rendement inférieur de 50 % et un rendement supérieur de 20 %.

Photo luminaire lumière douce.

Leur gros inconvénient est que le diffuseur (appelé aussi paralume) devient rapidement un réceptacle à poussières et insectes morts. Il demande donc un entretien fréquent (ou une protection anti-mouche mais cette protection diminue encore le rendement du luminaire).

      

Répartition lumineuse dans un local avec luminaires direct
et avec lumière douce.

Remarque : certains luminaires présentant un diffuseur fermé en plexiglass peuvent procurer un résultat similaire à celui de  luminaires « lumière douce » :

 


Luminaires fermés

Pour leur garantir un degré d’étanchéité (classe IP) ou de protection au choc (classe IK) plus important, le luminaire peut être fermé par un diffuseur ou protecteur translucide. Celui-ci peut être en :

Méthacrylate.

Polycarbonate.

Verre trempé.

Le polycarbonate injecté ou le verre trempé sont nettement plus résistants aux chocs (résistance supérieure à 6 joules) que le méthacrylate (résistance de l’ordre de 0,225 .. 0,5 joules).

De plus parmi les diffuseurs en polycarbonate, le polycarbonate injecté (moulé par injection) sera nettement plus résistant que le polycarbonate thermoformé (moulé par emboutissage), ce dernier ne permet pas non plus un contrôle optimal de la transmission lumineuse.

Le polycarbonate jaunit avec le temps s’il ne possède pas de protection contre les UV. Le méthacrylate et le verre ont, quant à eux, la réputation de ne pas s’altérer.
Contrairement au passé (anciens luminaires à diffuseur opalin), les luminaires fermés actuels peuvent présenter des rendements supérieurs à 70 %, voire 80 %.


Mode de pose

Encastré

Les luminaires à encastrer sont utilisés avec un faux plafond démontable.

Pour chaque type de luminaire, il existe différents modèles pouvant s’adapter à différents types et dimensions de faux plafonds.

Luminaires encastrés dans un faux plafond en dalles de laine de roche.

Luminaires encastrés dans un faux plafond fixe (ex : faux plafond en plaques de plâtre).

Dans les plafonds fixes, l’emplacement des luminaires doit être prévu dès la conception. En rénovation, les luminaires encastrés ne seront donc utilisés qu’avec des faux plafonds démontables (ou si le nouveau luminaire a les mêmes dimensions ou couvre l’ouverture dans le plafond).

Apparent

Les luminaires de type apparent sont utilisés avec tous types de plafonds.

En  rénovation, ils sont en principe utilisés lorsqu’on ne dispose pas d’un faux plafond, ou lorsque le faux plafond est fixe (ex : faux plafond en plaques de plâtre).

Suspendu

Photo luminaire suspendu.

Les luminaires peuvent être suspendus au plafond soit par des câbles, soit par des tubes qui contiennent en même temps l’alimentation électrique.

 Cas particulier : les rails industriels

Photo rails industriels.

On trouve chez les fabricants, des luminaires précâblés pouvant se raccorder par encliquetage immédiat sur des rails modulaires. Ils conviennent aussi bien pour les lignes continues de luminaires (luminaires disposés les uns derrière les autres, sans espace entre eux) que pour les lignes discontinues.

LuminaireRail2.jpg (9262 octets)

Il existe des rails précâblés permettant une commande individuelle ou par groupe de luminaires, grâce à des modules adressables intégrés.


Matériaux utilisés pour le réflecteur et les ventelles

Les matériaux utilisés influencent les caractéristiques photométriques des luminaires (rendement, luminance).

D’une manière générale, grâce à un meilleur contrôle de la diffusion de lumière, les optiques miroitées ont des rendements lumineux nettement supérieurs et présentent moins de risques de réflexion sur les surfaces brillantes que les optiques peintes (en blanc ou gris). En effet, les optiques mates présentent une surface ne contrôlant aucune réflexion. Elles sont de ce fait caractérisées par une luminance plus importante.

Parmi les optiques miroitées, on rencontre les réflecteurs spéculaires (aluminium poli ou brillanté), ou semi-spéculaires (aluminium satiné ou martelé). Pour les réflecteurs en tôle peinte en blanc ou en matériau plastique, on parlera de réflecteur diffusant.

    Schéma principe réflecteurs spéculaires, semi-spéculaires.    

Aluminium brillanté

Photo luminaires aluminium brillanté.   

L’aluminium brillanté offre la plus faible luminance propre. Cependant, les réflexions parasites de l’environnement dans le luminaire (on s’y voit presque comme dans un miroir) peuvent être désagréables. En outre, son encrassement est plus rapidement perceptible.

Aluminium martelé

Photo luminaires aluminium martelé.

L’aluminium martelé est surtout utilisé dans l’industrie, car il est nettement moins sensible à l’encrassement que les deux matériaux cités ci-dessus.


Le prix des luminaires

Il nous est IMPOSSIBLE de donner le prix d’achat du matériel d’éclairage.

Le prix remis par le fabricant ou le grossiste sera différent s’il s’agit d’une petite ou d’une grosse commande. Il sera fortement réduit pour un bon client ou pour un client qui représente un marché potentiel important. Il pourra aussi être fort avantageux si le fabricant, en concurrence avec une autre marque, veut absolument le marché.

Si le client n’a pas d’équipe pour placer l’installation, il fait alors appel à un installateur, qui, de la même façon, aura de meilleurs prix pour une marque plutôt que pour une autre.

Dans cette politique de marché, les seuls prix comparables sont les prix bruts.

Les fabricants ont des prix bruts sur lesquels ils accordent une remise. Cette remise peut atteindre 50 %. Chaque intermédiaire prendra sa part sur cette remise. Le prix résultant sera le prix net accordé au client. Suivant le nombre d’intermédiaires, la différence entre le prix brut et le prix net sera plus ou moins importante.

Note : Le prix des luminaires doit toujours être mis en parallèle avec les frais d’entretien et les frais de consommation électrique dans une vision globale d’utilisation.


Les luminaires pour chambre d’hôpital

Le plus souvent, l’éclairage des chambres est réalisé à partir d’une gaine murale à usages multiples (matériel standard et modulaire chez les fabricants). Ce qui facilite l’utilisation de divers dispositifs requis à proximité du lit :

  • éclairage général indirect,
  • éclairage direct de lecture,
  • éclairage d’examen obtenu en combinant éclairage de lecture et général,
  • éclairage de veille,
  • courants forts,
  • courants faibles,
  • fluides médicaux.

Des luminaires semblables existent également non intégrés dans une gaine technique générale. Ils comprennent seulement un éclairage général indirect et une liseuse. Ceux-ci s’adaptent à des centres d’hébergement tels que des maisons de retraite.


Les luminaires pour ambiance explosive

Photo luminaires pour ambiance explosive.  Photo luminaires pour ambiance explosive.

Les luminaires pour ambiance explosive, dénommés aussi -luminaires sont équipés pour éviter des températures excessives et l’apparition d’étincelles à l’intérieur ou sur le matériel électrique ou encore pouvant supporter une explosion interne sans transmission à l’ambiance environnante.

Ces luminaires utilisent par exemple des lampes fluorescentes spéciales à un seul contact électrique de chaque côté de la lampe et fonctionnant sans starter.

Les luminaires doivent répondre aux exigences de la norme EN 50014 et disposer d’un certificat de conformité délivré par un organisme agréé. Les différents modes de protection sont définis par les normes européennes EN 50019, 50018 et 50017. Chaque luminaire doit être spécifiquement adapté à l’ambiance particulière rencontrée (type de gaz ou de poussières déflagrantes rencontrés). Il faut donc vérifier auprès du fabricant si le luminaire choisi répond bien aux besoins spécifiques.


Protection contre les bris de lampe

Dans certains espaces fonctionnels, par exemple des cuisines industrielles, il est souhaitable, pour des raisons de sécurité et d’hygiène, de se protéger contre tout risque de projection provenant du bris d’une lampe.

Cette protection peut être réalisée par exemple grâce à un film synthétique entourant les tubes fluorescents. En cas de bris de la lampe, les morceaux ne s’éparpillent pas. Ces lampes avec film synthétique (PET) ne sont cependant pas recyclables.

Une alternative est de prévoir des luminaires fermés, équipés de sources recyclables (p.ex. lampes fluorescentes sans film synthétique).

Évaluer l’efficacité environnementale et énergétique de la distribution

Évaluer l'efficacité environnementale et énergétique de la distribution 


Impact environnemental et sur la sécurité

Impact environnemental

L’utilisation des fluides frigorigènes dans les bâtiments n’est pas sans risque sur la santé et la sécurité des occupants. En effet, ils peuvent représenter un risque en raison de leur :

Norme NBN EN 378-1

La norme NBN EN 378-1 traitant des « Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité
et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix » est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.


Détente directe pour groupe incorporé

Le refroidissement par détente directe intervient lorsque le transfert de chaleur « utile » au niveau de l’évaporateur terminal est assuré par le fluide frigorigène lui-même.

Le groupe frigorifique incorporé consiste en un regroupement des différents constituants de l’installation frigorifique au sein ou à la proximité immédiate du meuble réfrigérant, de la chambre froide, … En d’autres termes, les organes principaux tels que le compresseur, le condenseur, le détendeur et naturellement l’évaporateur font partie de la même entité. Cette solution est intéressante plus spécifiquement pour les commerces de détail. Ce sont en général des petites puissances. (quelques centaines de W à quelques kW de puissance au compresseur par exemple).

Environnement

Les groupes frigorifiques incorporés ont besoin, pour fournir leur puissance frigorifique, de peu de fluide frigorigène vu la proximité des équipements et, par conséquent, la faible quantité de tuyauterie de distribution.

L’impact sur l’environnement est donc réduit !

Énergie

Les meubles frigorifiques à groupe incorporé ne sont en général pas équipés de systèmes d’optimisation du cycle de froid par exemple de détendeur électronique ou de compresseur à vitesse variable; leur coût serait trop important par rapport à la puissance frigorifique fournie. De plus, les condenseurs incorporés ne fonctionnent pas de manière optimale puisque dans une ambiance chaude (placée dans la zone de vente ou cloisonnée dans un espace insuffisamment ventilé).


Détente directe pour production centralisée

La détente directe n’implique pas nécessairement la proximité du compresseur par rapport aux condenseurs, détendeur et évaporateur. Dans les superettes, les moyennes et grandes surfaces, on retrouve souvent des installations à détente directe avec :

  • une production centralisée (ensemble compresseur-condenseur) sur le toit ou dans un local annexe à la surface de vente.

  • et l’ensemble détendeur-évaporateur au sein du meuble frigorifique.

  

En production centralisée, la détente directe nécessite une mise en œuvre, une exploitation et une maintenance professionnelle. En effet, les distances entre la production et les équipements consommateurs de froid peuvent être importantes. Le risque d’impact négatif avec l’environnement et l’efficacité énergétique croît fortement avec cette distance.

Environnement

Cela va de soi, plus les longueurs de tuyauterie de distribution sont importantes, plus la quantité de fluide frigorigène est importante. Il en résulte que le risque de fuites de réfrigérant est important. À titre d’exemple, le Ministère de l’Écologie et du Développement Durable Français a établi le tableau qui suit en matière d’émissions fugitives de fluide frigorigène dans l’atmosphère.

Installations concernées 0 Type d’installation Taux d’émissions fugitives en fonction de la charge nominale
2001 2002 2003 2004
Hypermarchés Détente directe 30 % 30 % 30 % 22 %
Supermarchés 22 % 22 % 25 % 18 %
Commerces de proximité Groupe de condensation 10 % 10 % 10 % 10 %
Groupe hermétique Méthodologie non applicable

Source : Méthodologie spécifique pour les projets de Réduction des émissions de HFC par substitution de fluide et/ou changement d’installation frigorifique dans le froid commercial, agroalimentaire, …; ÉcoSecurities/CITEPA pour le compte du Ministère de l’écologie et du développement durable français.

Énergie

Pertes de charge dans l’installation : description

Dans les commerces où la production centralisée est présente, l’efficacité énergétique de la distribution se résume à réduire au maximum les pertes de pression (ou perte de charge) en ligne entre :

  • le condenseur souvent situé en toiture et le détendeur du meuble frigorifique (on parle de conduite liquide) dans la zone de vente;
  • l’évaporateur du meuble et l’aspiration du compresseur situé, lui aussi, en toiture ou dans un local annexe.

Les pertes de charge existent de par :

  • l’importance du nombre de coudes, raccords, prises de pression, filtres, … qui constituent la distribution (on parle de pertes de charge « singulières »;
  • les grandes longueurs de tuyauterie de la distribution (on parle ici de pertes linéaires dues au frottement du fluide dans les conduites).

La trop grande importance des pertes de charge de distribution entraîne, entre autres, une chute de la production frigorifique et une baisse de rendement du compresseur.

Pertes de charge dans l’installation : conduites d’aspiration

Outre les problèmes de retour d’huile dans les conduites d’aspiration vers la production (optimisation de la vitesse des gaz de retour vers le compresseur), les pertes de charge doivent être limitées pour ne pas augmenter le travail du compresseur et, par conséquent, dégrader le COP de la centrale de froid.

Isolation des conduites d’aspiration (après l’évaporateur).

Dans la pratique, on considère que les valeurs des pertes de charge doivent être limitées en fonction de la température d’évaporation suivant l’application. Le tableau suivant reprend des valeurs pratiques de référence :

Température d’évaporation [°C] Pertes de charge [kPa]
– 10 20
– 30 15
– 40 5

L’augmentation des pertes de charge oblige le compresseur à fournir un travail de compression plus important.

En plus de la limitation des pertes de charge, il est souhaitable d’isoler les conduites d’aspiration surtout lorsque les lignes « gaz » sont très longues. En effet, les conduites non isolées au contact de l’air ambiant de la zone de vente vont échanger plus de chaleur et nécessairement la température des gaz d’aspiration sera plus élevée provoquant aussi une augmentation du travail du compresseur.

Le manque d’isolation de la conduite d’aspiration oblige le compresseur à fournir un travail de compression plus important.

Pertes de charge dans l’installation : conduites de liquide

De manière à éviter le phénomène de « flash gaz », entre d’autres termes la revaporisation partielle du liquide à la sortie du condenseur par réchauffe au contact des températures d’ambiance de la zone de vente, il est nécessaire de bien isoler les conduites liquides. Cette mesure permet aussi de ne pas dégrader le COP des machines frigorifiques dans le sens où l’échange thermique de l’évaporateur se trouve limité (voir le schéma ci-dessous).

Le manque d’isolation de la conduite liquide passant dans des ambiances chaudes augmente le risque de « flash gaz » et réduit la puissance frigorifique disponible à l’évaporateur.


Circuits frigoporteurs

Le refroidissement est indirect lorsque le transfert de chaleur « utile » n’est pas directement assuré par le fluide frigorigène. En d’autres termes, l’échange de chaleur entre le meuble, la chambre ou l’atelier frigorifique et l’évaporateur de la centrale de production de froid s’effectue par l’intermédiaire d’une boucle de fluide frigoporteur. Les fluides frigoporteurs les plus utilisés sont l’eau glycolée (34 %), le CO2, l’ammoniac NH3, …

     

Centrale de froid source : DelHaize.

Environnement

Avantages

De par les réglementations de plus en plus draconiennes, quant aux taux de rejet des fluides frigorigènes dans l’atmosphère, des solutions comme l’utilisation de boucles intermédiaires de fluides frigoporteurs sont une approche intéressante. Le fluide frigorifique étant confiné au niveau de la centrale de production, sa quantité (charge en fluide frigorigène) est limitée et le taux d’émissions fugitives réduit.

Installations concernées 0 Type d’installation Taux d’émissions fugitives en fonction de la charge nominale*
2001 2002 2003 2004
Hyper ou supermarchés Frigoporteur 10 % 10 % 12 % 8 %
* pour les systèmes à frigoporteur: on considère la charge nominale en fluide frigorigène.

Énergie

Avantages

  • Comme la production peut être centralisée en dehors de la zone de vente (zone publique), l’utilisation de fluides frigorigènes énergétiquement plus efficaces mais toxiques et/ou inflammables tels que l’ammoniac ou le propane est possible.
  • Le dégivrage par fluide frigoporteur des évaporateurs des évaporateurs terminaux est sensiblement simplifié. Quant au temps de dégivrage, il est réduit; ce qui permet d’améliorer le bilan énergétique global de l’installation.
  • De par la taille faible du circuit frigorifique, les pertes de charge étant réduites, l’énergie consommée à la production s’en retrouve réduite.

Inconvénients

  • La production de froid par frigoporteur fait appel à un évaporateur intermédiaire; ce qui suppose deux chutes de température. Pour en tenir compte, le fluide frigorigène doit avoir une température d’ébullition plus faible que dans une application à détente directe.
  • Des pompes sont nécessaires pour assurer la circulation du fluide frigoporteur. La mise en mouvement du fluide par les pompes demande de l’énergie qui se transforme en chaleur cédée au frigoporteur. Sachant que la puissance absorbée par une pompe est définie par la formule ci-dessous, on peut estimer à quelle valeur s’élèvera la perte d’énergie non seulement en consommation au niveau du moteur électrique de la pompe mais aussi au niveau de la chaleur cédée par la pompe au fluide qu’il faudra refroidir.

Ppompe  = q volumique x Δp [W]

Où :

  • q volumique : débit volumique [m³/s];
  • Δp : la hauteur manométrique totale [N/m² ou Pa]

Améliorer la production d’eau chaude sanitaire

Renforcer l’isolation du ballon de stockage

Autrefois, comme mesure d’économie d’énergie, on aurait proposé de diminuer la température de l’eau pour limiter les pertes de tout le réseau. Passer de 60°C à 45°C permet de diminuer les pertes de l’ordre de 30 %. De plus, avec des températures d’eau inférieures à 60°C, les risques d’entartrage et de corrosion diminuent fortement.

Mais la gestion de la légionelle impose aujourd’hui de privilégier un stockage à une température minimale de 60°C, surtout si des douches sont présentes sur le réseau (la légionelle se transmet par inhalation de micro-gouttelettes).

Tout particulièrement, on examinera si le fond du ballon est isolé (parfois l’isolation ne couvre que les parties verticales), car à cet endroit, la stagnation d’eau tiède est propice au développement de la bactérie. Une isolation urgente s’impose

A priori, un stockage à haute température ne génère pas en soi une consommation énergétique élevée… pour autant qu’une isolation renforcée limite drastiquement les pertes.

Évaluer

Pour plus d’infos sur la rentabilité de l’isolation d’un ballon accumulateur.

Concevoir

Pour plus d’infos sur le choix de l’isolation d’un ballon accumulateur. !

La mise en œuvre nécessite un certain soin. Dans une campagne de mesures sur site, l’EDF a constaté que les pertes réelles dépassent souvent le double de la valeur obtenue par calcul théorique. La mise en œuvre pas toujours aisée de l’isolation en jaquette souple génère des courants convectifs non contrôlés (c.à.d. un effet de cheminée entre le ballon et l’isolant). Le calorifuge sous tôle galvanisée est plus hermétique.

Et les pertes augmentent avec le vieillissement de l’isolant.

L’intention de départ était louable…


Améliorer la stratification des températures

Il est difficile d’améliorer la stratification des températures dans un ballon existant (voir techniques d’évaluation de la stratification). En pratique, une intervention ne se justifie que dans un cas assez critique : celui d’un ballon placé horizontalement.

Il est cependant également possible de renforcer l’isolation des tuyauteries de raccordement et de la boucle de circulation, pour limiter les thermo-circulations d’eau parasites.


Réduire le volume du réservoir d’eau chaude

Lorsque la capacité des ballons est trop élevée et qu’il en existe plusieurs, la mise hors service d’un ballon est alors justifiée pour limiter les pertes par les parois.


Si une telle situation se rencontre systématiquement en fin de journée,
il y a intérêt à couper l’alimentation du 3ème ballon.

Calculs

Pour évaluer les pertes énergétiques d’un ballon non utilisé.

Concevoir

Pour dimensionner l’installation nécessaire,

Décentraliser la production d’eau chaude

Pour 2 litres d’eau utiles, 4 restent dans la tuyauterie…

S’il existe des points de puisage à faibles besoins et forts éloignés de la production centrale, il peut être avantageux de prévoir des petits chauffe-eau individuels : soit des instantanés gaz, soit des petits accumulateurs électriques. Cela permet d’augmenter le confort (diminution du temps d’attente) et de diminuer les pertes (pertes de l’eau chaude « qui reste » dans les tuyauteries).

Évaluer

Pour évaluer la rentabilité de la décentralisation.

Produire près du consommateur…

L’arrivée des préparateurs instantanés gaz avec cheminée « ventouse » permet aujourd’hui de reposer la question de l’emplacement du préparateur d’eau chaude sanitaire. Production en centrale de chauffe en sous-sol, à grande distance des utilisateurs, avec une chaudière surdimensionnée en été ? Ou au contraire, des préparateurs décentralisés proche des points de soutirage. On peut sans danger faire circuler une conduite de gaz dans le bâtiment.

On peut ainsi imaginer, lors d’une rénovation du système, que des productions différentes soient réalisées pour des groupes d’utilisateurs différents (un réseau « cuisine et buanderie », un réseau « sanitaires », par exemple). Cela permet notamment de générer des réseaux avec des températures différentes.

Il est également possible de disposer d’accumulateurs électriques décentralisés. Mais attention, dans le bilan, on tiendra compte qu’il s’agit souvent de courant électrique de jour (dont le prix du kWh est 2 à 3 fois plus élevé que le prix du kWh thermique…), sauf si une horloge est placée sur son alimentation.

...mais multiplier la puissance installée.
La décentralisation apporte un inconvénient : la puissance de chauffage totale à installer sera augmentée puisqu’en chaque lieu de puisage, on doit prévoir le débit d’eau maximum. Lorsque l’installation est centralisée au contraire, un effet de foisonnement a lieu. Par exemple, un ballon de stockage centralisé fournira l’eau des douches à un autre moment que l’eau de la vaisselle : les volumes à stocker ne doivent pas être additionné.


Placer un capteur solaire à eau chaude

La pose des capteurs solaires pour préchauffer l’eau chaude sanitaire est aujourd’hui une technique qui est arrivée à maturité; maturité technique et financière.

Les applications solaires les plus intéressantes économiquement se retrouvent parmi les établissements consommant de grandes quantités d’eau chaude : les hôpitaux, les piscines et les établissements d’accueil social (maisons de repos, centres d’accueil pour personnes handicapées, …), les internats, grands hôtels, centres de vacances, immeubles de plus de 15 logements, restaurants d’entreprise,…

A tout le moins, si une rénovation de la production d’eau chaude sanitaire est à l’ordre du jour, si une toiture plate ou à inclinaison sud est disponible, une étude de préfaisabilité s’impose. Des petits logiciels Excel vous permettent de faire le point rapidement.

Concevoir

Pour plus de détails sur les coûts, la rentabilité d’un projet, les outils d’aides à la décision.

Études de cas

Pour parcourir un exemple audit solaire établi pour le home La Charmille à Gembloux.

De nouveau, on prendra en compte que le chauffage de l’eau chaude sanitaire par un système solaire risque de ne pas être suffisant pour élever la température moyenne de l’eau sanitaire à une valeur suffisante (55-60°C) afin d’éviter de se trouver dans la plage de prolifération des légionelles. Il est donc nécessaire de considérer les systèmes solaires comme un moyen de préchauffage de l’eau sanitaire en complément d’une production classique.


Produire l’eau chaude avec une pompe à chaleur ?

Il est possible de produire de l’eau chaude sanitaire au moyen d’une pompe à chaleur. Différentes technologies sont possibles. De la chaleur « gratuite » sera extraite d’une source (air extérieur, nappe phréatique, …) et sera communiquée au ballon d’eau chaude.

L’avantage est mesuré par le COP (Coefficient de Performance) de la pompe à chaleur : un COP de 3 signifie qu’il faut donner 1 kWh électrique au compresseur pour fournir 3 kWh de chaleur dans le ballon d’eau chaude. Au passage, 2 kWh auront donc été pompés sur la source.

Rentabilité du projet ?

Une telle amélioration est surtout rentable si la situation de départ est une installation de production d’ECS électrique. La consommation électrique pourra être divisée par le COP. Ainsi, dans le programme de promotion des économies d’énergie suisse « Ravel », on annonce un COP annuel de 3 pour une pompe à chaleur Air-Eau et de 4,5 si la pompe capte l’énergie dans le sol (ce dernier chiffre nous paraît exagéré puisqu’une campagne de mesure faite par l’Université de Mons sur des installations de chauffage de bâtiments révèle des COP annuels de l’ordre de 2,5 à 2,9).

Mais attention, ces chiffres ne s’appliquent que si le chauffage de l’eau est limité à 50°C. Si le stockage est prévu à 60°C, une batterie électrique doit fournir le complément avec de l’électricité directe (–> COP = 1); ce qui est le cas lorsqu’on considère qu’une température de production d’eau de 60 °C est nécessaire pour éviter la prolifération des légionelles.

Imaginons le chauffage d’1 m³ de 10 à 60°C par une pompe à chaleur air-eau.

L’énergie nécessaire au chauffage de 10 à 50°C par la PAC sera de :

Énergie = 1 m³ x 1,163 kWh/m³ x (50 – 10) / 3 = 15,5 kWh

L’énergie complémentaire pour passer de 50 à 60°C sera de :

Energie = 1 m³ x 1,163 kWh/m³ x (60 – 50) = 11,6 kWh

Le COP moyen annuel est alors de :

COP = Energie produite / Energie fournie
= [1 m³ x 1,163 kWh/m³ x (60 – 10)] / [15,5 + 11,6]
= 2,15

On sera donc très attentif aux instructions fournies par le constructeur. Ceci d’autant plus qu’il n’existe pas de standard de mesure des performances d’une PAC, du moins pour en évaluer son rendement saisonnier. Il faut bien analyser

  • Pour quelle température de la source le COP est fourni ?
  • Jusqu’à quelle température l’évaporateur peut extraire la chaleur de la source ?
  • Jusqu’à quelle température le condenseur peut chauffer le ballon ?

On aura également tout intérêt à conserver une température d’eau dans le ballon la plus basse possible (45°C par exemple). Mais ceci suppose un réservoir suffisamment grand. Par ailleurs, cela peut aller à l’encontre de la protection anti-légionelle. Au minimum, on prévoiera une montée temporaire de chauffage à 70°C par une résistance électrique toutes les semaines ou tous les 15 jours.

Sources particulières

Le placement d’une pompe à chaleur doit surtout s’envisager s’il existe une source particulière de chaleur disponible dans le bâtiment (air extrait ? process ? four ?…). Par exemple, refroidir (et déshumidifier par la même occasion) une buanderie surchauffée et produire ainsi de l’eau chaude sanitaire : coup double !

Il faut par contre éviter de placer une pompe à chaleur pour « récupérer la chaleur disponible en cave » :

  • D’abord, parce qu’il est plus logique d’éviter les pertes qui sont à l’origine de cette chaleur (chaudière, tuyauteries, …) que de les récupérer (il suffira d’ailleurs de changer de chaudière pour perdre la source !).

 

  • Ensuite, parce qu’un niveau de température élevé ne traduit pas forcément une quantité de chaleur importante (cela peut traduire une mauvaise ventilation de la cave, par exemple).

 

  • Enfin, parce qu’une partie de cette chaleur est déjà récupérée par le plancher du rez de chaussée.

Concevoir

Pour plus d’info sur le choix et la mise en place d’une pompe à chaleur pour la préparation d’eau chaude sanitaire.

Désolidariser chauffage de l’eau chaude et chauffage du bâtiment ?

Dans certaines installations, le chauffage de l’eau chaude sanitaire est combiné au chauffage du bâtiment.

L’eau chaude sanitaire est alors un utilisateur au même titre que la batterie de chauffe du groupe de préparation d’air. Elle bénéficie du rendement de production saisonnier de l’ensemble, ce qui est bénéfique.

En dehors de la période de fonctionnement du chauffage, la question se pose de l’opportunité de découpler ce système et de passer, par exemple, à un système de production d’eau chaude indépendant à l’électricité ?

Il est difficile de trancher ce débat dans l’absolu. Voici les arguments de part et d’autres.

Arguments favorables au découplage

Le rendement de production de l’eau chaude sanitaire peut se dégrader en été :

  • si la chaudière est maintenue en température en permanence sur son aquastat,

 

 

  • si la chaudière est beaucoup trop puissante par rapport aux besoins de l’eau chaude sanitaire (les cycles de fonctionnement du brûleur seront courts et les démarrages fréquents, ce qui est synonyme de mauvaise combustion),

 

  • si l’ensemble du réseau primaire doit être maintenu en température uniquement pour le chauffage de l’eau sanitaire.

Un rendement inférieur à 20 % est alors tout à fait possible…

On peut envisager la possibilité de greffer une résistance électrique sur le ballon accumulateur. Tout particulièrement si les besoins d’eau chaude sont faibles (mais peut-être qu’alors un simple ballon près de la cuisine suffit ?).

En rénovation, tout dépendra des performances de la production combinée existante.

Par exemple, l’association CEDICOL a réalisé une mesure sur site (source : magazine « L’entreprise », mars 90) dont il ressort un rendement saisonnier annuel de production d’eau chaude de 71 % et un rendement d’été de 49 % :

La production de cette installation domestique est, en été, de 186 litres d’eau chaude par jour.

L’installation comprend une chaudière au fuel de 27 kW alimentant un ballon de stockage de 160 litres. La chaudière est régulée en température glissante avec une priorité sanitaire. Cela signifie qu’entre deux demandes du ballon, la chaudière redescend en température.

Durant l’été 88, la chaudière à consommé 189 litres de fuel (soit 1 880 kWh) pour produire 24 180 litres d’eau chaude (soit 939 kWh). Le rendement de production en été est donc de 939 / 1 880 kWh = 49 %.

Pour l’ensemble de l’année, le système produit 42 150 litres d’eau chaude avec un rendement saisonnier de 71 %.

Séparer la production d’eau chaude en été, et produire cette dernière au moyen de l’électricité permettrait de gagner :

1 880 [kWh] x (1 – 49 % / 93 %) = 890 [kWh]

Le gain financier est de :

  • Facture d’été en production combinée : 189 [litres] x 0,2116 [€/litres] = 40 [€]
  • Facture d’été en production séparée électrique : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Perte : 4 [€/an]

On se trouve dans la situation la plus favorable de production combinée, avec une chaudière fonctionnant en température glissante. Dans le cas d’une ancienne chaudière restant à température constante tout l’été (de 70°C, par exemple), il n’est pas rare d’avoir des rendements de production inférieurs à 20 % en été !

Dans ce cas, le bilan serait alors le suivant :

  • Consommation en fuel d’été : 1 880 [kWh] x 49 [%] / 20 [%] = 4 606 [kWh] ou 460 [litres fuel]
  • Gain énergétique : 4 606 [kWh] x (1 – 20 % / 93 %) = 3 616 [kWh]
  • Facture d’été en production combinée : 460 [litres] x 0,2116 [€/litres] = 97 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Gain : 53 [€/an]

La solution du ballon électrique est cependant à éviter s’il existe une boucle de circulation mal isolée générant des pertes permanentes élevées :

En effet, l’eau froide de retour perturbe la stratification des températures dans le ballon. Plusieurs situations peuvent se produire : soit l’eau chaude n’est plus assurée, soit le thermostat s’enclenche pour réchauffer le ballon, soit un réchauffage de boucle maintient la température à son niveau. Mais ceci génère un chauffage électrique de jour assez coûteux.

Arguments favorables au maintien de la production combinée

Si la chaudière est suffisamment performante, la question du maintien de la production de chaleur combinée se justifiera la plupart du temps. Après tout, le prix de l’énergie électrique est double de celui de l’énergie thermique, en moyenne.

On peut dès lors envisager des alternatives :

  • La première est de limiter au maximum la puissance de chaudière utilisée :
    • vérifier le bon fonctionnement en cascade des chaudières et en particulier des vannes d’isolement motorisées des chaudières,
    • si les chaudières ne sont pas équipées de vannes d’isolement motorisées, mettre les chaudières inutiles en été à l’arrêt et fermer manuellement leur vanne d’isolement,
    • vérifier la bonne régulation des allures de brûleur de manière à favoriser le fonctionnement de la chaudière en petite puissance.
  • La deuxième consisterait à fractionner la puissance de chauffe et à installer une petite chaudière en cascade dont la puissance convient pour le chauffage de l’eau chaude sanitaire en été. Elle sera utile également pour les relances de début de journée en mi-saison, évitant ainsi la mise en température de la chaudière principale.
Exemple théorique.

Comparons les pertes d’une installation combinée et d’une chaudière propre à la production d’eau chaude sanitaire.

Hypothèse : il s’agit d’une installation équipant un home pour personnes agées. La consommation globale en eau chaude du bâtiment est estimée à 1000 m³ d’eau à 60°C par an. Le besoin énergétique pour chauffer cette eau est de :

1,16 [kWh/m³.°C] x 1000 [m³/an] x (60 [°C] – 10 [°C]) = 58 000 [kWh/an]

dont 38 400 [kWh/an] durant la saison de chauffe et 19 600 [kWh/an] en été.

Installation combinée : une chaudière de 650 kW moderne ayant un coefficient de perte à l’arrêt (à 70°C) de 0,3 % de la puissance chaudière. Cette chaudière reste en permanence à une température de 70°C, été comme hiver, pour produire l’eau chaude sanitaire. Elle alimente en permanence un collecteur de distribution de 20 m (DN 100). En été, son rendement de combustion baisse de 2 % suite à un fonctionnement par de nombreux cycles courts (la puissance de l’échangeur sanitaire étant nettement inférieure à la puissance de la chaudière). Il passe de 92% à 90%.

Installation séparée : une chaudière de 500 kW pour le chauffage et une chaudière de 150 kW pour la production d’eau chaude sanitaire. A 70°C, ces deux chaudières ont le même coefficient de perte à l’arrêt que la chaudière de 650 kW. La chaudière de chauffage est régulée en température glissante (température moyenne de 43°C) et arrêtée en été. Ses pertes à l’arrêt sont ainsi réduites à 0,1 %. La chaudière de 150 kW est, elle maintenue à 70°C toute l’année.

Pertes

Installation combinée
[kWh/an]

Installation séparée
[kWh/an]

Différence
[kWh/an]

En hiver (5 800 h/an)

Pertes de combustion 38 400 [kWh/an] x (1 – 0,92)
= 3 072 [kWh/an]
0 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 3 925 [h/an] / 0,92
= 8 320 [kWh/an] (*)
0,001 x 500 [kW] x 4 000 [h/an] / 0,92 = 2 174 [kWh/an] 6 146 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 5 500 [h/an] / 0,92 = 2 055 [kWh/an] – 2 055 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92
= 2 106 [kWh/an]
7,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92 = 971 [kWh/an] 1 135 [kWh/an]
Pertes d’hiver 3 072 [kWh/an] + 8 320 [kWh/an] + 2 106 [kWh/an] = 13 498 [kWh/an] 3 072 [kWh/an] + 2 174 [kWh/an] + 2 055 [kWh/an] + 971 [kWh/an] = 8 272 [kWh/an] 5 226 [kWh/an]

En été (2 960 h/an)

Pertes de combustion 19 600 [kWh/an] x (1 – 0,90)
= 1 960 [kWh/an]
19 600 [kWh/an] x (1 – 0,92)
= 1 568 [kWh/an]
392 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 2 935 [h/an] / 0,90
= 6 359 [kWh/an]
6 359 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 2 860 [h/an] / 0,92 = 1 399 [kWh/an] – 1 399 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 2 960 [h/an] / 0,90 = 1 098 [kWh/an] 1 098 [kWh/an]
Pertes d’été 1 960 [kWh/an] + 6 359 [kWh/an] + 1 098 [kWh/an] = 9 417 [kWh/an] 1 568 [kWh/an] + 1 399 [kWh/an] = 2 967 [kWh/an] 6 450 [kWh/an]

Sur l’année

Bilan global – pertes totales 22 915 [kWh/an] 11 239 [kWh/an] 11 676 [kWh/an] ou 1 168 [m³gaz/an]

L’installation d’une chaudière combinée entraînerait donc une surconsommation d’environ 1 200 m³ de gaz par an ou une dépense complémentaire d’environ 275 € par an.

(*) Justification des heures prises en compte :
La saison de chauffe dure 5 800 [h/an]. La chaudière de 650 kW tourne 1 800 h/an pour le chauffage et 100 h/an pour l’eau chaude sanitaire (75 en saison de chauffe et 25 en été). La chaudière reste donc chaude sans que son brûleur ne fonctionne durant 3 925 h/an. La chaudière de 500 kW tourne 1 800 h/an pour le chauffage et est en attente chaude 4 000 h/an. La chaudière de 150 kW tourne 400 h/an (dont 100 h en été.

  • La troisième consisterait à limiter l’enclenchement de la chaudière dans le temps. En effet, si la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, une horloge peut imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de multiples remises en route de la chaudière tout au long de la journée !
  • Enfin, puisqu’il s’agit de besoins d’été, ils peuvent également être couverts presque totalement par une installation de capteurs solaires. Le moment est alors bien choisi pour étudier la faisabilité d’un tel investissement. Mais il faudra s’assurer que le système de chauffage dispose Dun mode « veille » très économe lorsque le soleil est actif.

Une campagne de mesure ?

On le voit, le choix est totalement dépendant de la situation locale.

Il est possible d’évaluer plus précisément sa situation en mesurant la consommation de combustible l’été et la quantité d’eau chaude consommée. À défaut de disposer d’un compteur d’eau spécifique sur le départ d’eau chaude, on pourra faire une évaluation grossière sur base des débits des équipements sanitaires (autant de douches à 40 litres/douche, etc…).

Très approximativement, on retrouvera le rendement de production de l’eau chaude par les formules :

Énergie utile [kWh] = Nbre de m³ à 60°C x 1,163 [kWh/m².K] x (60 – 10) [K]

Energie fournie [kWh] = Nbre de m³ de gaz ou de litres de fuel x 10

Rendement = Energie utile / Energie fournie

Exemple : s’il a fallu 6 500 m³ de gaz pour produire 220 m³ d’eau chaude à 60°C, le rendement de production est de :

220 x 1,163 x (60 – 10) / 6 500 x 10 = 20 %

A comparer avec les rendements de production des systèmes neufs et avec le coût d’un nouveau système.

En général, décider de désolidariser l’eau chaude sanitaire sous entend de se poser la question d’une rénovation plus fondamentale de la production de chaleur.

Concevoir

Pour plus d’informations sur la conception d’une installation d’eau chaude sanitaire.

Intégrer une priorité eau chaude sanitaire

Conflit entre chauffage du bâtiment et chauffage de l’eau chaude sanitaire

Si la chaudière réalise à la fois le chauffage du bâtiment et le chauffage de l’eau chaude sanitaire, un conflit de température apparaît :

  • Pour augmenter le rendement d’une chaudière, il est intéressant de travailler à basse température, surtout s’il s’agit d’une chaudière récente (dite à « très basse température » ou à condensation). Par exemple, la température de l’aquastat sera adaptée en fonction de la température extérieure afin de ne chauffer qu’à la température minimale nécessaire.
  • Pour réchauffer l’eau chaude sanitaire, une température minimale d’eau de chauffage à 65 ou 70°C est nécessaire (par exemple pour réchauffer un ballon de stockage à 60°C). Temporairement, par mesure de précaution anti-légionelle, une montée de l’eau du ballon de stockage à 70°C est même parfois organisée.

Régulation avec « priorité eau chaude sanitaire »

Pour éviter de maintenir en permanence les chaudières à haute température, il est possible de mettre en place une régulation du type « priorité eau chaude sanitaire » : la chaudière ne monte en température qu’au moment du réchauffage du ballon. En principe, le ou les autres circulateurs des circuits de chauffage peuvent alors éventuellement être arrêtés (l’inertie du bâtiment est suffisante).

C’est une technique courante dans le domestique. On comprend qu’elle ne puisse s’appliquer dans le tertiaire que si la production d’eau chaude sanitaire est faible par rapport au chauffage du bâtiment :

  • Ce sera tout particulièrement le cas lorsque l’eau chaude est stockée dans un ballon dont la contenance en eau est telle que la chaudière n’est sollicitée que 2 ou 3 fois par jour.
  • À l’opposé, on ne pourra appliquer cette technique en présence d’un échangeur à plaques instantané qui doit pouvoir réagir au quart de tour !

L’intérêt de la « priorité sanitaire » est d’autant plus important :

  • Que la chaudière présente des pertes à l’arrêt élevées. On pense ici tout particulièrement aux chaudières gaz atmosphériques dont l’échangeur est en communication ouverte avec la cheminée. Il faut que ces chaudières soient toujours maintenues à la plus basse température possible (température définie par leur conception et donc par le fabricant).

  • Que la chaudière alimente le ballon d’eau chaude aussi en été. Dans ce cas, la régulation permettra d’arrêter totalement la chaudière (température retombant à 20°C) sauf durant les périodes de chauffage de l’eau sanitaire.

Des relances intempestives du chauffage de l’eau sanitaire à limiter par une horloge

Si l’on constate que la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, il est utile, en plus de la priorité sanitaire, de greffer une horloge sur la régulation pour imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de remettre la chaudière en route pour le puisage d’un seau d’eau ! C’est surtout avantageux en été, bien sûr, mais ce l’est également en hiver puisque la température moyenne d’une chaudière régulée en fonction de la température extérieure est de 43°C sur la saison de chauffe.

Cette technique a fait l’objet d’une simulation sur une installation ECS domestique (consommation de 45 m³ à 55°C). Voici les rendements obtenus (source « Chauffage et production d’ECS » – M. Rizzo – Éditions Parisiennes) :

Chauffage de l’ECS constant

Chauffage de l’ECS programmé

Été

44 % 66 %

Hiver

69 % 80 %

Année

59 % 75 %

Soit un gain moyen annuel de 21 % sur la consommation relative à la production d’eau chaude.

On peut tester manuellement cette technique en été, en coupant la chaudière au matin et en observant « jusque quand » la réserve d’eau chaude assure les besoins du bâtiment.

Alternative

S’il est difficile de planifier les périodes de chauffage de l’eau chaude, il est possible d’obtenir un effet similaire en régulant le ballon au moyen d’un thermostat à fort différentiel situé en partie haute (au moins au 2/3 de la hauteur). Ce thermostat arrête la pompe de circulation du réchauffeur quand on atteint la valeur désirée, généralement 60 à 65°C et remet le chauffage en service quand l’eau tombe à 40/45°C.


Remplacer la veilleuse par un allumage électronique ?

La veilleuse consomme en pure perte environ 120 m³ de gaz par an, soit un coût d’environ 40 € par an. On a même parlé de veilleuse consommant 300 m³/an, mais alors il s’agit d’un très vieux chauffe-eau dont la veilleuse ressemble à un chalumeau !

Un allumage électronique est certainement plus performant, mais l’investissement n’est sans doute pas rentable sur des appareils existants.

À défaut, on peut imaginer (?) de couper cette veilleuse durant les périodes où la consommation d’ECS est nulle (WE, vacances,…).


Récupérer l’énergie au condenseur de la machine frigorifique ?

La machine frigorifique évacue de la chaleur vers l’extérieur. Or la production d’eau chaude sanitaire demande une fourniture de chaleur, au contraire. L’idée de récupérer la chaleur de l’un au bénéfice de l’autre est attirante.

En pratique, pour le groupe frigorifique, chauffer l’eau sanitaire de 10 à 30°C est très efficace, effectivement. Par contre, chauffer l’eau de 30 à 60°C est difficile. Sous prétexte de récupération, la machine frigorifique finit par avoir un très mauvais rendement : le compresseur doit augmenter son taux de compression pour atteindre les hautes températures !

Cette technique est donc à privilégier pour les installations où la demande d’eau chaude sanitaire est très importante (hôtels, restaurants, hôpitaux, homes,…) et pour lesquels on assurera le préchauffage de l’eau sanitaire, sans perturber le cycle de la machine frigorifique. De l’ordre de 20 à 25 % de la puissance frigorifique peuvent être alors récupérés.

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude.

Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir. L’échangeur est équipé d’une double paroi de sécurité, selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Un appoint en série est prévu (2).

Schéma 3 : en présence d’une boucle de distribution

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

Améliorer

Motivé ? Alors, découvrez plus de détails sur le fonctionnement côté machine frigorifique en cliquant ici !

Supprimer les pertes vers l’égout du groupe de sécurité

En amont d’un chauffe-eau, un groupe de sécurité est prévu, équipé d’une soupape de sûreté. Il se peut que cette soupape laisse échapper de l’eau chaude vers l’égout.

Il peut être utile de placer un récipient entre l’échappement et l’égout pour évaluer l’importance de ce phénomène car il est fortement amplifié la nuit, ce qui est plus difficile à percevoir.

Si l’accès est impossible, peut être est-il possible de s’en rendre compte via le compteur d’eau la nuit ?

Si l’écoulement est sporadique

Cet écoulement correspond à la dilatation de l’eau lors du chauffage : la pression monte et l’excédent d’eau est évacué vers l’égout. A chaque remontée en température du ballon (soit pratiquement chaque nuit pour un ballon électrique), 1/30 de la capacité du boiler est évacuée par la soupape de sécurité. Par tranche de 100 litres de réservoir, cela représente annuellement plus d’un m³ d’eau chaude expédiée à l’égout.

Si la soupape de sécurité est ainsi constamment sollicitée, elle finit par s’entartrer et perdre, dans un goutte à goutte permanent, une quantité d’eau chaude 10 à 20 fois plus importante.

D’autant plus que, sur le plan réglementaire, un groupe de sécurité qui est chaque jour sollicité ne peut plus être considéré comme un organe de sécurité, mais bien comme un organe de régulation. Par souci de sécurité, il devrait donc être complété par une deuxième soupape de sécurité. Cela peut faire sourire, mais le directeur de l’école de Court St Etienne qui a vu son ballon d’eau chaude traverser la toiture et retomber près de la gare ne souriait pas !

Il s’agit là d’un mauvais usage d’un équipement de sécurité.

Nous pensons qu’il est très utile de placer un vase d’expansion hermétique sur l’arrivée d’eau froide sanitaire. Ces vases sont disponibles en capacités de 8 à 500 litres, à sélectionner via les tables fournies par les constructeurs.

Exemple de dimensionnement pour un ballon de 100 litres.

Hypothèses : eau froide à 10°C, eau chauffée à 65°C, pression d’alimentation en eau à 4 bars max, pression de tarage de la soupape de sécurité à 7 bars, facteur de pression 0,375 entre 4 et 7 bars (formule de Boyle-Mariotte).

Dilatation de l’eau entre 10 et 65°C : 0,0195 litre/litre

Volume du vase d’expansion :

0,0195 x 100 / 0,375 = 5,2 litres

On installera donc un ballon de 8 litres prégonflé à 4 bars.

(source : Installateur 02/99).

Si l’écoulement est permanent

Les soupapes de sécurité sont tarées à 7 bars. Si la pression du réseau dépasse cette valeur (fond de vallée, remontée classique de la pression du réseau durant la nuit), ou si le réglage de la soupape est défectueux, il est possible que ces pertes soient pratiquement permanentes.

La solution consiste à placer un réducteur de pression sur l’arrivée d’eau. C’est bien sur l’arrivée générale de l’eau dans le bâtiment qu’il faut le placer car son montage sur la seule production d’eau chaude sanitaire entraînerait un déséquilibre des pressions entre les réseaux d’eau froide et d’eau chaude, empêchant alors le bon fonctionnement des robinetteries.


Si chauffage électrique, chauffer l’eau la nuit

Étant donné le coût de l’électricité, une horloge ou une télécommande sur le réseau du distributeur commanderont la charge durant les heures creuses (la nuit ou le WE).

Ceci suppose que le volume de stockage est supérieur au puisage journalier. À défaut, on risque de tomber à court d’eau chaude en fin de journée, lors de puisages très importants.

Pour éviter cela, il est possible :

  • Soit d’augmenter la température de l’eau du ballon (ce qui implique des pertes permanentes supplémentaires et la nécessité d’un bon mitigeur à la sortie pour éviter tout risque se brûlure).

 

  • Soit de dédoubler le ballon (l’avantage de l’électricité est de pouvoir décentraliser la production). Si certains points de puisage sont fort éloignés du ballon, on y gagnera à réaliser cette solution.

 

  • Soit d’équiper l’appareil d’une deuxième résistance : l’élément chauffant inférieur assure la charge nocturne à bas tarif, alors que l’élément chauffant supérieur couvre les demandes de pointe en eau chaude durant la journée, soit environ le 1/3 supérieur du ballon. L’enclenchement simultané des deux résistances n’est généralement pas autorisé en raison de la puissance cumulée.


Si chauffage électrique, délester le chauffage de l’eau en période de pointe

Si le fonctionnement de jour est malgré tout nécessaire, le placement d’un délesteur interdira l’enclenchement de l’appareil en période de pointe.

Le ballon d’eau chaude électrique est l’équipement électrique idéal pour un délestage : il représente une puissance assez élevée et sa coupure ne gêne pratiquement pas la production d’eau chaude. Il faut se rendre compte que le délesteur n’intervient que 2 à 3 fois par jour, au moment de la pointe de puissance du bâtiment (généralement entre 11 et 13 heures). Il coupera par exemple l’alimentation électrique durant 5 minutes sur le quart d’heure. L’essentiel est qu’il soit coupé lorsque la friteuse fonctionne, par exemple.

Comme il ne s’agit pas d’une production instantanée, l’utilisateur ne s’apercevra de rien.

Techniques

Pour plus de détails sur le placement d’un délesteur.

Découvrez l’amélioration de la production d’eau chaude sanitaire qui a été réalisée au centre de Hemptinne.

Réduire les besoins d’eau chaude sanitaire

Réduire les besoins d'eau chaude sanitaire

Le technicien améliore sans cesse la performance,
et l’usager augmente sans cesse les besoins…


Réduire le temps d’utilisation

La réduction de la durée d’utilisation peut être directe : une robinetterie à fermeture automatique (= bouton poussoir) dans les installations publiques permet de diminuer drastiquement la consommation d’eau.

Elle peut être aussi indirecte : une robinetterie thermostatique peut entraîner un gain de temps par un réglage plus rapide de la température de l’eau mitigée.

Le réglage optimum du débit avant celui de la température

Il semble que le facteur numéro 1 de consommation d’énergie soit la quantité d’eau utilisée, avant la température. Donc il faut d’abord chercher à ce que le robinet fournisse juste le débit d’eau nécessaire, et dans un deuxième temps à ce que l’adaptation de la température souhaitée entraîne le moins de consommation d’eau chaude.

L’ergonomie des différents robinets mérite donc une attention particulière, au regard de l’occupation des mains de l’utilisateur. Dans certains cas, les mains étant occupées par un objet (lavage, …), il peut être utile de sélectionner une robinetterie dans l’ouverture est commandée par le genou ou le pied (pédale).

Mitigeur mécanique ou thermostatique ?

Le gain théorique du thermostatique est moins élevé qu’il n’y paraît car la qualité de l’appareil, la méconnaissance de l’utilisateur ou la mauvaise performance de la régulation d’eau chaude peut réduire l’avantage (étude du CSTB-France). Il semble que le mitigeur thermostatique de douche apporte surtout des économies lors du deuxième usage rapproché (rinçage, par exemple). Sur base d’un surcoût moyen de 45 €, le CSTB annonce un temps de retour de 4 ans dans un usage familial. En usage tertiaire, le temps de retour est donc nettement plus faible.

De plus, les thermostatiques intègrent une fonction de sécurité grâce à un bouton « stop » qui limite la température de l’eau mitigée en sortie à 38°C et permet ainsi d’éviter les risques de brûlure (très utile en milieu fréquenté par des enfants).

Pour augmenter les économies, certains thermostatiques sont équipés d’un bouton « éco » : un geste spécifique est nécessaire pour obtenir un débit plus élevé.

Photo bouton bouton "éco".

Une amélioration du confort

Le thermostatique amène un confort supplémentaire en terme de stabilité de température, même lorsque la production instantanée entraîne des fluctuations de température de l’eau chaude.

Le placement de mitigeurs thermostatiques est donc à recommander, mais sans oublier d’informer l’utilisateur de son usage.

Comportement des usagers

Il ne faut pas perdre de vue en effet que ces mélangeurs peuvent demander une sensibilisation de l’utilisateur.

Sont-ils au courant du budget de l’eau chaude du bâtiment (en moyenne 5 € par m³ ? Connaissent-ils le principe du mitigeur thermostatique ? …

Une sensibilisation des usagers sera toujours la bienvenue, en se rappelant que Coca-Cola nous bombarde toujours de publicité alors que nous sommes bien au courant de la merveilleuse saveur de ce breuvage. Ils connaissent l’effet de répétition.

A nous de nous en inspirer pour ne pas nous décourager dans nos campagnes !

Pour favoriser l’usage préférentiel de l’eau froide pour se laver les mains, il est plus aisé de n’ouvrir que l’eau froide avec un mélangeur qu’avec un mitigeur. Aussi, certains fabricants proposent des mitigeurs avec une manette un peu particulière. En effet, la tête céramique est conçue pour que la position centrale corresponde en fait à la position « pleine eau froide » au lieu de la position « eau mitigée ».


Réduire la pression

Une pression trop importante donne naissance à une vitesse excessive qui provoque une consommation importante, du bruit dans les canalisations et une fatigue prématurée des équipements (d’où un risque accru de fuites).

Le placement d’un réducteur de pression permet de réduire la pression à un niveau voulu. Il se place chaque fois que la pression statique d’alimentation dépasse 3 bars dans une adduction domestique (à l’entrée de l’installation, après le compteur).

Réducteur de pression d’eau.

En théorie, le gain en débit varie comme la racine carrée de la pression : si la pression chute au quart, le débit chute de moitié. Mais en pratique, si la pression est forte, l’usager réduit de lui-même le débit d’eau, si bien que l’économie est moins importante.

Remarque : attention au cas où la production d’eau chaude serait réalisée par un petit appareil gaz instantané. Il est parfois nécessaire d’avoir un débit d’eau suffisant pour enclencher le chauffage de l’eau et la réduction des pressions risquerait d’empêcher ce fonctionnement. On testera au préalable la sensibilité de l’appareil à ce niveau.

La protection des équipements contre les fortes pressions et donc la limitation des fuites est par contre bien réelle.

« Réduire la pression nous paraît essentiel, pour éviter le gaspillage, bien sûr ».

Réduire le débit

Remplacement des anciennes robinetteries

Les débits des anciennes robinetteries de puisage sont de 30 à 50 % supérieurs à ceux de modèles modernes. Les investissements consentis s’amortissent dans une période de 5 à 10 ans, suivant la fréquence d’utilisation. Si l’ancienne robinetterie n’est pas étanche, le temps de retour sera encore plus cour

On peut encore trouver des vieilles pommes de douches à …30… litres/minute. Un tel équipement sera remplacé par des pommes modernes du type …8… litres/minute.

Placement de mitigeur avec butée

Ce type de robinetterie s’utilise comme un mitigeur classique. Toutefois, un point « dur » ou une butée délimite les 2 zones de fonctionnement : une zone économique (de 0 à 6 litres/min environ) et une zone de confort (jusqu’à environ 12 litres/min).

Photo mitigeur avec butée.

Le surcoût de cette technique est négligeable et donc le temps de retour est immédiat.

Placement de « mousseurs »

Il s’agit d’un régulateur de débit qui réduit la section de passage en fin de robinetterie et/ou qui crée un mélange air/eau. Il participe en même temps à la performance acoustique du robinet. Il permet par exemple de réguler un débit maximum de 6 ou 8 litres/minute. Un mousseur revient environ à 5 €.

Photo "mousseurs".

Il reste à juger de l’opportunité de réduire le débit en fonction de l’usage : réduire le débit à un lavabo, oui, mais réduire le débit à l’évier de la vaisselle où le personnel mettra alors plus de temps pour remplir une casserole d’eau chaude, peut-être pas …

On rencontre aussi ce type de réducteur de débit dans des « douchettes économes » : soit une manette permet de réduire le débit, soit un effet de « nuage d’eau » est créé. Attention au fait que ce type de douchette peut accélérer le phénomène d’aérosolisation, et donc une sensibilité plus grande à la contamination par la légionelle.

Photo "douchettes économes".

Attention également au fait que ces équipements terminaux modifient la courbe de réglage en température. La mise en place d’une perte de charge supplémentaire diminue « l’autorité » de la vanne. Si l’évolution est au départ linéaire, la perte de charge finale limite la zone de réglage de la température sur une bonne partie de la plage angulaire.

Problème commun à tous ces équipements : le calcaire !

L’entartrage de ces équipements est un problème si l’eau est particulièrement chargée en calcaire. Un entretien régulier des équipements (vinaigre, produit de type « Viakal », …) ou un adoucissement de l’eau avant son chauffage peut être nécessaire.

Les douchettes avec picots sont donc à privilégier : un simple grattage des picots permet alors de décoller les dépôts.


Réduire les fuites

Dans la Région de Charleroi, une commune a placé tous ses bâtiments (administration, écoles, …) en télégestion par un installateur de la commune. Comme une entrée libre est souvent disponible sur le régulateur numérique de l’installation de chauffage, le signal du compteur d’eau de chaque bâtiment y a été greffé. Un suivi automatique était dont réalisé sur la consommation d’eau. Si deux jours de suite, la consommation de nuit était jugée anormale par l’ordinateur, le service technique de la commune en était informé.

Une diminution drastique de la consommation d’eau s’en est suivie, particulièrement dans les écoles !

La fuite d’eau la plus courante est liée aux WC. Elle est généralement visible par le filet d’eau liée au trop plein dans le réservoir. À défaut, il est possible de fermer le robinet d’arrêt pour observer si le niveau d’eau diminue dans le réservoir.

Mais elle n’entraîne pas de consommation énergétique. Il n’en est pas de même au niveau de certains équipements :

Mélangeur sensible aux impuretés

L’élément sensible est généralement la tête, qu’elle soit à clapet (attention au serrage trop fort lors de la fermeture) ou céramique (sensible aux impuretés). On détecte le problème par le goutte-à-goutte persistant, même lorsque le robinet est fermé.

Remplacement de la cartouche.

Idéalement, il faudrait poser un filtre en amont de l’installation pour éliminer les particules qui pourraient nuire au bon fonctionnement de la robinetterie.

Pour ce qui est du remplacement, une tête céramique coûte en moyenne 10 € et un joint pour une tête à clapet coûte en moyenne 3 €. On vérifiera l’état du siège pour faire un rodage éventuel.

Robinet d’arrêt

Les robinets d’arrêt sont également assez sensibles au tartre. Il est conseillé de les manœuvrer régulièrement (1 fois par mois) afin d’éviter l’apparition de fuites (généralement situées au niveau du joint presse étoupe) lors d’une action après une longue période sans manœuvre.

Groupes de sécurité des ballons électriques

Ces appareils doivent être situés à l’amont immédiat des ballons électriques qu’ils protègent. Ils permettent d’éviter une montée en pression à l’intérieur du ballon due à la dilatation de l’eau provoquée par une élévation de température. Des évacuations ponctuelles de petites quantités d’eau sont donc normales lors de la période de chauffage. Il faut par contre surveiller que la soupape ne soit pas bloquée en position ouverte à cause de particules de tartre. L’évacuation automatique vers l’égout peut masquer longtemps ce problème…

Si tel est le cas, il faut vidanger le ballon pour procéder au nettoyage ou au remplacement du groupe.

D’une manière générale, il est conseillé de les manœuvrer régulièrement pour éviter le risque d’entartrage (1 fois par mois).

« Repassage » de l’eau froide dans l’eau chaude

Il arrive régulièrement que lors d’une défectuosité de la tête des mitigeurs ou des mélangeurs, l’eau froide, pour une question de pression, passe dans la conduite d’eau chaude et refroidisse la boucle d’eau chaude (présente dans le tertiaire). Il s’ensuit :

  • Une augmentation de la consommation d’énergie pour rattraper la perte de température de l’eau chaude.
  • Un risque de prolifération des légionelles vu que la température de la boucle d’eau chaude risque de se trouver dans la zone de température de développement optimal des méchantes bestioles (25-45°C).

Pour pallier à ce problème, il y a lieu d’essayer d’égaliser les pressions d’eau chaude et froide à tous les étages du bâtiment et d’essayer de détecter les émetteurs défectueux (en général, la sous-boucle d’eau chaude devient de plus en plus froide au fur et à mesure des soutirages d’eau chaude par les émetteurs voisins à celui défectueux).


Supprimer l’eau chaude dans les sanitaires de bureaux

Dans la conception des immeubles récents, il est très fréquent de ne plus apporter d’eau chaude dans les sanitaires des espaces bureaux, logistiques, où l’activité est peu salissante.

Alors, pourquoi ne pas déconnecter les installations existantes ?

Si de plus une boucle de circulation est associée à ce réseau, une économie très importante s’en dégagera.

Si l’option est prise de déconnecter l’eau chaude d’un point de puisage, attention toutefois à la création de bras mort où des foyers de légionelles peuvent se développer.

Il est impératif d’appliquer l’une des deux méthodes suivantes :

Conservation de la conduite d’amenée d’eau chaude

Le placement d’une vanne de sectionnement le plus près possible du collecteur d’eau chaude ou de la boucle secondaire (si présente) permet d’éviter la création d’un bras mort tant redouté.

Enlevement de la conduite inutilisée

La suppression pure et simple de la conduite d’alimentation en eau chaude du point de puisage paraît excessive (coûts important). En effet, il faut :

  • de toute façon vidanger une partie de l’installation et placer une vanne de sectionnement;
  • enlever la conduite depuis le point de puisage jusqu’à la vanne d’arrêt.

Cependant, dans les grandes installations sanitaires, le démantèlement ordonné des conduites des points de puisage permet de garder une certaine clarté par rapport à la maintenance du réseau hydraulique (à étudier au cas par cas selon la modularité de l’activité tertiaire).

De toute façon, quelle que soit la méthode adoptée, il faut utiliser un code de repérage à la fois sur site et sur les plans hydrauliques de manière à garder une situation bien à jour.

Free-chilling

Free-chilling


Principe de base

Le principe de base est simple

Lorsque la température extérieure descend sous les 8 à 10 °C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête. Étudions cela en détail.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liée à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.
Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Schémas de réalisation

Différents systèmes de refroidissement par free-chilling sont possibles :

  • via un aérorefroidisseur à air spécifiqueDeux schémas sont possibles :
> Soit un montage en série avec l’évaporateur, où l’aérorefroidisseur est monté en injection (la température finale est alors régulée par la machine frigorifique, qui reste en fonctionnement si la température souhaitée n’est pas atteinte).

> Soit par un montage en parallèle avec basculement par une vanne à 3 voies en fonction de la température extérieure (aucune perte de charge si la machine frigorifique est à l’arrêt mais fonctionnement en tout ou rien de l’aérorefroidisseur).
  • via un appareil mixteCertains fabricants proposent des appareils qui présentent 2 condenseurs : un échangeur de condensation du fluide frigorifique et un aérorefroidisseur pour l’eau glacée, avec fonctionnement alternatif suivant le niveau de température extérieure (attention à la difficulté de nettoyage des condenseurs et aux coefficients de dilatation différents pour les 2 échangeurs, ce qui entraîne des risques de rupture).
  • via la tour fermée de l’installationDans le schéma ci-dessous, l’installation fonctionne sur base de la machine frigorifique. Lorsque la température de l’air extérieur est suffisamment froide, la vanne 3 voies bascule et l’eau glacée prend la place de l’eau de réfrigération du chiller. Dans une tour fermée, l’eau n’est pas en contact direct avec l’air extérieur; c’est un circuit d’eau indépendante qui est pulvérisée sur l’échangeur et qui refroidit par évaporation. Mais le problème de la protection au gel reste posé : il est difficile d’envisager de mettre du glycol dans tout le réseau d’eau glacée (échange thermique moins bon, densité plus élevée donc diminution des débits, …) .
  • via la tour ouverte de l’installationDans ce cas, l’eau glacée est pulvérisée directement face à l’air extérieur. Elle se charge d’oxygène, de poussières, de sable,… Ces impuretés viennent se loger dans les équipements du bâtiment (dont les vannes de réglage des ventilos !). Les risques de corrosion sont tels que cette solution est à proscrire.
  • via un échangeur à air placé devant les orifices d’aspiration d’une tour de refroidissement Ceci permet de réutiliser les ventilateurs de la tour mais crée une perte de charge permanente.
  • via un échangeur à plaques traditionnel L’échangeur se place entre le réseau d’eau glacée et le circuit de la tour de refroidissement. Cette solution est simple, elle minimise la présence du glycol dans le circuit de la tour mais, en plus de l’investissement à réaliser, elle entraîne un écart de température supplémentaire de minimum 2°C dans l’échangeur entre l’eau glacée et l’eau de la tour, ce qui diminue la plage de fonctionnement du refroidissement par l’air extérieur. C’est le choix qui a été fait au Centre Hospitalier du Bois de l’Abbaye.

L’installation de free-chilling au Centre Hospitalier du Bois de l’Abbaye

Monsieur Tillieux, gestionnaire technique de l’hôpital, avait conscience que des besoins de froid existaient durant toute l’année, donc également pendant l’hiver :

  • des cabinets de consultation installés dans les niveaux inférieurs à refroidir en permanence.
  • ainsi que des locaux techniques utilisant le réseau glacée en hiver (salle de radiographie, blocs opératoires, salle informatique,…).

Profitant de la rénovation d’une tour de refroidissement, il adopta la technique du free-chilling sur le circuit d’eau glacée. Il adapta également les émetteurs pour que ceux-ci puissent travailler au régime 12-17°C. Il favorisa le refroidissement nocturne des locaux, ce qui ne crée pas d’inconfort pour les occupants et valorise mieux le free-chilling puisque la température est plus basse la nuit.

En collaboration avec la société de maintenance, il adopta le schéma de principe suivant :

Le schéma de gauche représente le circuit classique de refroidissement de l’eau glacée dans l’évaporateur. L’eau du condenseur est refroidie dans la tour de refroidissement.

Schéma groupe frigo en fonctionnement.Schéma groupe frigo à l'arrêt et free-chiling.

Sur le premier schéma, le groupe frigo est arrêté et l’eau glacée est by-passée dans un échangeur. L’eau de refroidissement est envoyée directement dans la tour de refroidissement.

Un jeu d’électrovannes permet le basculement d’un système à l’autre, dès que la température extérieure descend sous les 8°C. Le dimensionnement de la tour a été calculé en conséquence.

Problème rencontré lors de la mise en route

Lorsque le système basculait du mode « free-chilling » vers le mode « machine frigorifique », celle-ci déclenchait systématiquement !

Pourquoi ? Un condenseur traditionnel travaille avec un régime 27/32°C par 10° extérieurs. Or en mode free-chilling, la température du condenseur est nettement plus basse. La pression de condensation aussi. Le détendeur ne l’accepte pas : il a besoin d’une différence de pression élevée (entre condensation et évaporation) pour bien fonctionner et laisser passer un débit de fluide frigorifique suffisant vers l’évaporateur. Le pressostat Basse Pression déclenche…

Solution ? Une vanne trois voies motorisée a été installée : lors du ré-enclenchement de la machine frigo, le débit d’eau de la tour était modulée pour s’adapter à la puissance de refroidissement du condenseur.

Quelle rentabilité ?

Faute d’une mesure effective, nous allons estimer l’économie réalisée par l’arrêt du groupe frigorifique de 300 kW. Si le fichier météo de Uccle annonce 3.550 heures sous les 8°C, on peut estimer que le refroidissement effectif se fait durant 2.000 heures.

Sur base d’un COP moyen de 2,5, c’est donc 120 kW électriques qui sont évités au compresseur. Une consommation supplémentaire de 5 kW est observée pour le pompage de l’eau au travers de l’échangeur et dans la tour. Soit un gain de 115 kW durant 2 000 heures. Sur base de 0,075 €/kWh, c’est 17 000 € qui sont économisés sur la facture électrique.

L’investissement a totalisé 60 000 €, dont moitié pour la tour fermée de 360 kW, le reste en tuyauteries, régulation et génie civil.

Le temps de retour simple est donc de l’ordre de 4 ans.

Séquences de régulation de la tour

  • si T° < 2°C, échange eau-air non forcé.
  • si 2°C < T°ext < 4°C, échange eau- air forcé.
  • si T°ext > 4°C, échange eau-air humide par pulvérisation.

Diminuer le niveau sonore [Climatisation]

Diminuer le niveau sonore [Climatisation]


Plan d’action

Évaluer sa situation

Évaluer

Après l’analyse de la situation sur le terrain, la logique à suivre est basée sur le type de bruit.

Repérer le type de bruit

Soit le bruit est aérien

Puisqu’il est produit par l’écoulement de l’air et les turbulences qui y sont liées, on peut envisager de réduire la source du bruit, par exemple en diminuant la vitesse du ventilateur, en améliorant l’écoulement dans les bouches, dans les coudes,…

À défaut, puisque ce bruit dispose d’un spectre développé surtout dans les hautes fréquences, il possible d’absorber le bruit par des matériaux fibreux : silencieux, parois de gaines absorbantes,…

Si ce bruit est transmis entre deux locaux, c’est l’isolation phonique de ces parois qu’il faut améliorer.

Soit le bruit est solidien (bruit d’impact)

Puisque ce sont les vibrations des équipements qui sont transmises, la diminution de vitesse permettra également de réduire les vibrations. Certaines sociétés de maintenance peuvent enregistrer les vibrations émises à l’arbre d’un ventilateur et dire si un balourd serait responsable du bruit en cause.

A défaut, on cherchera à couper toute transmission du bruit par le placement d’un matériau résilient entre l’équipement et son environnement : plots antivibratiles, manchettes souples, plancher flottant,…

Idéalement, c’est la coupure du matériau qui empêchera le mieux la transmission du son.

A défaut, il faudra interrompre le matériau dur par un matériau plus souple (dit « matériau résilient « )

Agir à la source du problème

Agir à la source :

  • Placer des supports antivibratiles
  • Limiter le bruit des pompes

Agir à la transmission :

  • Limiter la transmission sonore des tuyauteries
  • Améliorer l’acoustique des conduits d’air
  • Placer un silencieux

Agir au niveau des locaux :

  • Modifier la disposition des locaux
  • Réaliser le doublage acoustique des parois
  • Renforcer l’isolation acoustique des baies vitrées

Placer des supports antivibratiles

Photo supports antivibratiles.

Pour réduire la propagation des vibrations de certains appareils (compresseurs, ventilateurs,…) à la structure du bâtiment, on insère des supports élastiques antivibratiles.

L’ensemble « équipement-support » constitue un système « masse-ressort », soumis aux lois de la mécanique des vibrations, et disposant dès lors d’une fréquence propre.

Pour dimensionner correctement les plots antivibratiles, il faut connaître

  • la fréquence excitatrice liée à la vitesse de rotation du moteur,
  • la masse de l’équipement et sa répartition sur la dalle.

Schéma supports antivibratiles. - 01.

Schéma supports antivibratiles. - 02.

Schéma supports antivibratiles. - 03.

Pour une bonne efficacité, la fréquence propre du système antivibratile doit être 3 à 4 fois inférieure à la fréquence excitatrice. Dans certains cas il sera nécessaire d’alourdir la dalle sur laquelle sont fixés les équipements afin « d’écraser davantage les ressorts » et de garantir ainsi un meilleur amortissement des vibrations.

Exemple.

un ventilateur tournant à une vitesse de rotation de 1 500 tours/minute provoque des vibrations de 25 Hz (puisque rotation de 25 tours/seconde). Les plots devront être calculés sur une fréquence propre de 6 à 8 Hz.

En pratique, on rencontre

  • des ressorts, utilisés pour toutes les fréquences propres mais surtout lorsqu’inférieures à 8 Hz,
  • des plots à base de poudre de liège mélangée à un élastomère, pour des fréquences propres supérieures à 8 Hz
  • des plots à base d’élastomères, pour les fréquences propres supérieures à 12 Hz
  • un système de « dalle flottante », c.-à-d. la construction d’un socle de béton sur un matelas de laine minérale ou de mousse plastique souple, pour les fréquences propres moyennes ou aiguës.

Ce dernier système de dalle flottante est assez difficile à réaliser puisqu’en aucun endroit il ne peut y avoir de contact (raccords de mur, écoulement de sols, tuyauteries, conduits, …). Devant la nécessité d’exercer un contrôle quasi permanent durant les travaux, on préfère parfois la technique des éléments antivibratiles…! Ou alors, un contrôle de la qualité acoustique de la dalle est imposé à la fin des travaux.

Exemples de ponts phoniques par le tuyau d’écoulement et la plinthe.

En général, il sera fait appel à un spécialiste de cette question pour le dimensionnement correct des plots.


Limiter le bruit des pompes

Origines du bruit des pompes

  • Les bruits d’origine hydraulique : c’est la source de bruit la plus importante. On remarque l’effet de sirène qui est dû à l’interaction entre les aubes et les parties fixes. Ce type de bruit est le plus gênant dans les bâtiments, car il se produit dans une zone de fréquences audibles.Lorsque la pression disponible à l’aspiration de la roue est trop faible, un bruit de cavitation apparaît. Il faut dans ce cas veiller à faire fonctionner la pompe avec une pression à l’aspiration suffisante. Lorsque de l’air s’introduit dans le fluide, il se crée des turbulences et des écoulements bruyants au niveau de la pompe. Il faudra veiller à purger correctement le circuit.
  • Les bruits d’origine électromagnétique : ces bruits proviennent du moteur qui transmet des vibrations aux équipements et structures environnantes.
  • Les bruits d’origine mécanique : ces bruits apparaissent au niveau des garnitures mécaniques et des paliers de la pompe, on les appelle balourds. Ils proviennent généralement d’une erreur de montage, d’équilibrage ou d’une erreur de conception de la pompe.
  • Les bruits d’origine aéraulique : ces bruits proviennent du passage de l’air, nécessaire au refroidissement du moteur, dans le ventilateur de la pompe. Il peut s’agir dans certains cas de la source de bruit la plus importante d’une pompe. Le fabricant de pompes doit correctement calculer les grilles d’aspiration et de refoulement de l’air qui peuvent être des obstacles au bon écoulement de l’air et donc générer du bruit.

Transmission du bruit

Une pompe transmet du bruit par trois voies différentes :

  • Par voie aérienne : le moteur de la pompe émet un rayonnement acoustique qui se propage dans le local technique puis dans locaux occupés adjacents.
  • Par voie hydraulique : la pompe génère des variations de pression dans le fluide qui sont transmises le long des canalisations et rayonnent sur les structures environnantes.
  • Par voie solide : les vibrations émises par la pompe se transmettent par contact direct aux différentes structures.

Le niveau de bruit des pompes

Le niveau de puissance acoustique d’une pompe dépend principalement de sa conception, de ses conditions de fonctionnement (débit et pression) et de sa puissance électrique. Aucune norme ne spécifie les caractéristiques acoustiques des pompes.
Il est possible d’effectuer un calcul approximatif du niveau de pression acoustique à 1 m :

Lp = 48 + 10 log Pe [dB (A)]

où,

    • PE est la puissance électrique du moteur [W]

Mise en œuvre

  • Il faut limiter la vitesse du fluide dans la pompe à 1,5 m/s.
  • Il faut soigner la fixation de la pompe en mettant en œuvre un dispositif d’assise souple : placer la pompe sur une petite dalle flottante de 15 cm d’épaisseur, reposant sur des supports élastiques. La dalle flottante aura à peu près trois fois le poids de l’équipement.
  • Il faut équiper l’aspiration et le refoulement des pompes de manchons antivibratoires.

Manchon antivibratoire.

  • Il est également important d’entretenir les pompes, de lubrifier les paliers. L’usure de certaines pièces peut conduire à des vibrations génératrices de bruits.

Limiter la transmission sonore des tuyauteries

Empêcher la transmission des bruits de vibration

Il est utile de réaliser des raccordements souples entre les conduits (fluides, gaz, électricité…) et la machine qui vibrent, afin d’éviter non seulement la transmission des vibrations, mais également le risque de rupture.

Schéma transmission des bruits de vibration.

Pour diminuer la transmission des vibrations des tuyauteries aux parois, on peut introduire des coquilles isophoniques entre la tuyauterie et le collier de fixation. Il est également possible d’utiliser des colliers avec caoutchouc isophonique mais ceux-ci sont moins efficaces que les coquilles isophoniques.

Exemple : pour la fixation des tuyauteries d’eau glacée aux parois du bâtiment, il est de bonne pratique de réaliser les 3 premières fixations après la pompe avec des fixations anti-vibratoires.

Autre exemple : lors du placement d’un split-system, un soin tout particulier doit donc être apporté à la sélection de l’emplacement du condenseur et à son mode de fixation : une coupure élastique doit être prévue entre l’appareil et le mur de fixation afin d’empêcher de mettre en vibration la structure du bâtiment (l’appareil doit bouger lorsqu’on le secoue !). De même, les tuyauteries doivent être raccordées via des raccords flexibles.

Il est également possible de suspendre élastiquement une tuyauterie à un plafond.

Par contre, il faut éviter de placer des tuyauteries sur des parois légères ou les parois séparant les locaux techniques des locaux occupés.

Limiter les bruits de dilatation

Lorsque la force de dilatation des tuyauteries devient trop importante, des frottements apparaissent entre les canalisations et les colliers de support. Ce phénomène de dilatation provoque des claquements bruyants.

Recommandations :

  • Prévoir des points fixes et des compensateurs entre les points fixes.

Compensateur de dilatation.

  • Éviter de bloquer les canalisations à la traversée des parois.

  • En cas de problèmes, desserrer légèrement certains colliers.
  • Éviter les variations brusques de température dans l’installation, par exemple en utilisant des vannes à 3 voies en mélangeuses.
  • Placer des matériaux souples entre les colliers et les tuyauteries, et entre les fourreaux et les tuyauteries.

Diminuer la production de turbulences

Les vitesses admissibles dépendent du tracé et des accessoires utilisés. Si des vitesses élevées peuvent être admises dans les tubes droits, on doit adopter des vitesses plus réduites dans les coudes, les réductions.

Une installation peut créer des turbulences suite aux placements mêmes des équipements : tuyauteries à angle droit, vannes placées trop près les unes des autres,…

Ce deuxième type de raccordement sera de loin préférable.

La présence de bulles d’air dans les circuits est également nuisible, il faut doter l’installation de dispositifs comme purgeurs (manuels ou automatiques), pots de dégazage, séparateur d’air tangentiel.


Améliorer l’acoustique des conduits d’air

Garnir les conduits aérauliques de matériau absorbant

Un conduit provoque toujours une atténuation du son qu’il transporte. Mais celle-ci doit parfois être renforcée par le placement d’absorbants sur les parois internes : généralement, il s’agit de panneaux de laine minérale.

On choisira des panneaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène, dont l’épaisseur ne doit pas dépasser 0,1 mm sans quoi le pouvoir d’absorption est diminué.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Dès lors, on limitera si possible le placement de ces panneaux absorbants au droit des changements de direction (coudes) : c’est là qu’il y a le plus de réflexions de l’onde acoustique sur les parois et que l’absorption sera donc la plus efficace.

Remarque : la gêne acoustique dans un local est souvent due aux mauvaises dimensions des gaines calculées avec des vitesses d’air trop élevées. La question d’une diminution de la vitesse (et donc du débit d’air) doit être posée.

Alternative, on introduira un silencieux acoustique.

Insérer une gaine absorbante entre local et source sonore

Le placement d’une gaine permet l’absorption des bruits par les parois.

Exemple.

Dans un home, les occupants se plaignaient de la transmission du bruit d’une salle de bain à l’autre. Les investigations montrèrent que chaque salle de bain était équipée d’un ventilateur, l’air évacué aboutissant dans une gaine commune. Cette liaison permettait le passage latéral des sons amenant ainsi l’isolement entre salle de bain à 42 dB.

A la place d’un tuyau flexible courant entre le ventilateur et la gaine, on a installé un tuyau flexible amortisseur de bruit. Vu le peu d’espace disponible, on ne put obtenir une réduction que de [TEXTE MANQUANT] dB. La différence était cependant sensible…

Placement de manchettes de compensation

Photo manchettes de compensation.

De même pour éviter la transmission entre le caisson de traitement d’air et les conduits, on pensera au placement de manchettes souples de compensation de part et d’autre du caisson.


Placer un silencieux

Schéma principe du silencieux.

Le placement de silencieux permet d’absorber le bruit véhiculé par le réseau. Si nous en parlons seulement ici, c’est parce qu’il génère des pertes de charge et donc une consommation permanente du ventilateur… Toutes les autres mesures doivent donc être prises au préalable.

Les silencieux doivent encadrer la source sonore (généralement le ventilateur), tant du côté réseau que du côté prise d’air extérieur. Afin d’éviter que le bruit du local technique ne « rentre » dans la gaine après le silencieux, celui-ci sera placé à la sortie du local.

Notons que l’installation d’un silencieux peut être difficile à réaliser sur un réseau de gaines déjà entièrement monté. Les silencieux doivent être placés dans des longueurs rectilignes (trémies, faux plafonds en gyproc) qui sont parfois devenues inaccessibles du fait de l’architecture intérieure du bâtiment. On ne pourra donc pas toujours équiper correctement une installation bruyante déjà existante.

Idéalement, on choisira un silencieux à large bande spectrale, à faible perte de charge et à production de bruit (provoqué par l’écoulement interne de l’air) aussi faible que possible.

Règle de bonne pratique.
On dimensionnera le silencieux de telle sorte que la vitesse de l’air soit limitée à 10 m/s lors du passage entre les baffles acoustiques du silencieux. Si la section d’ouverture du silencieux est de …30 %… à …50 %…, cela induit que la vitesse faciale à l’entrée du silencieux devrait être de …3 m/s… à …5 m/s… environ.

Remarques.

  • Par défaut, on est parfois tenté de placer des silencieux exagérément dimensionnés (donc plus onéreux), qui génèrent tout au long de leur vie des pertes de charge et donc une consommation supplémentaire du ventilateur… Une mesure du niveau sonore existant et une évaluation du niveau à atteindre permettra de dimensionner le silencieux de façon nettement plus précise.
  • Dans le même ordre d’idée, il ne faut pas imposer à l’installateur de conditionnement d’air un niveau de bruit trop sévère dans les locaux, car l’installateur installera simplement un silencieux plus important à la sortie du groupe … et c’est l’installation qui consommera davantage, toute sa vie durant, suite aux pertes de charge excessives…

Modifier la disposition des locaux

De par la localisation des fonctions dans un immeuble, une grande part de l’isolement peut déjà se créer

  • disposition de locaux tampons entre locaux bruyants et locaux calmes (ex : couloir),
  • rassemblement des locaux bruyants (ex : locaux sanitaires et de services),

Dans un bâtiment existant, le déplacement du local de traitement d’air est difficilement réalisable, mais certaines réorganisations internes d’activité sont possibles.

Mais un bâtiment vit, des parois se déplacent,… les critères acoustiques peuvent parfois rentrer en compte dans le choix de la nouvelle disposition des locaux ?


Réaliser le doublage acoustique des parois

Si le son perturbateur est créé par du bruit aérien traversant une paroi, il est possible de doubler celle-ci. On pense tout spécialement aux locaux techniques dont on souhaiterait renforcer l’isolation par rapport au reste du bâtiment.

Si la faute correspond à une insuffisance des éléments de construction, il est possible d’améliorer la situation jusqu’à 10 dB environ, à l’aide d’un panneau rapporté (plafond suspendu constitué de plâtre dépourvu de joint, panneaux de carton-plâtre rapportés devant les parois). Pour que le doublage placé devant le mur puisse faire son effet de cloison double, on privilégiera une fixation indépendante et des joints élastiques. À défaut, une fixation par colle. Au pire une fixation par clous,…

Schéma doublage acoustique des parois.

Exemple.

Une paroi de séparation entre un local technique et un bureau était constituée d’un mur en briques modulaires de 17,5 cm enduit sur les deux faces. Son isolement acoustique initial (frein apporté par la paroi au passage du son) était de R = 48 dB. Le doublage au moyen de panneaux de carton-plâtre avec supports en profilés métalliques (pose indépendante du mur) a permis d’améliorer l’isolement jusqu’à 56 dB.


Renforcer l’isolation acoustique des baies vitrées

Si l’objectif est de se protéger d’un bruit extérieur (bruit de condenseur sur une plate-forme, par exemple), une amélioration de la qualité acoustique des baies peut être envisagée. Et le premier regard doit se porter sur l’étanchéité à l’air (davantage que sur la vitre elle-même). En effet, le bruit passe essentiellement par l’inétanchéité des joints. C’est ce qui fait la médiocre qualité des fenêtres coulissantes…

Le choix des travaux à réaliser sur les ouvertures d’un bâtiment dépend du niveau d’isolement acoustique que l’on désire obtenir.

Conservation des fenêtres existantes

Si l’on ne recherche pas un isolement de façade supérieur à 30 dB(A) et s’il n’y a pas d’entrée d’air spécifique en façade, il suffit la plupart du temps de mettre en place des joints d’étanchéité entre les ouvrants et les dormants.

Remplacement des fenêtres

Il existe une valeur seuil d’isolement au-delà de laquelle on doit changer les fenêtres, ce qui induit un surcoût important. Cette valeur seuil dépend de la surface des fenêtres. Elle se situe généralement aux alentours de 33 dB(A).

Une solution couramment adoptée consiste à conserver les anciens dormants en leur appliquant un traitement ou un renforcement éventuel. On pose alors une nouvelle fenêtre souvent en PVC, en fixant les nouveaux dormants sur les anciens, après la pose de joints préformés et, si nécessaire, l’ajout d’un joint en silicone. La nouvelle fenêtre est munie de double vitrage acoustique et d’une entrée d’air insonorisée. Cette technique a cependant l’inconvénient de réduire la surface vitrée. Ainsi, on obtient un isolement acoustique supérieur à 35 dB(A), à condition d’avoir effectué un traitement acoustique des bouches de ventilation et une mise en œuvre correcte.

Toutefois, pour certaines fenêtres particulières, le remplacement est indispensable quel que soit l’objectif d’isolement. Par exemple, pour une fenêtre coulissante, le simple changement des vitrages n’est souvent pas suffisant pour atteindre l’objectif d’isolement acoustique fixé.

D’autre part, pour les portes-fenêtres, les objectifs d’isolement sont plus difficiles à atteindre, même en cas de remplacement. En effet, la valeur de l’isolement acoustique d’une porte-fenêtre est en général inférieure à celle d’une fenêtre. On observe assez fréquemment un écart moyen de 2 dB(A). En effet, la surface de jointures, et donc de fuites possibles, est plus importante dans le cas d’une porte-fenêtre.

Photo baies vitrées.

Obtention d’un isolement de 40 dB(A) avec une seule fenêtre

L’obtention de cette valeur d’isolement nécessite toujours le remplacement des fenêtres par des fenêtres de très bonne qualité acoustique.

Le vitrage doit avoir un indice d’affaiblissement acoustique de l’ordre de 40 dB(A). Ce vitrage est obtenu à l’aide d’un feuilleté acoustique spécial. La menuiserie de la fenêtre doit comporter une triple barrière d’étanchéité entre l’extérieur et l’intérieur du logement pour les fenêtres en PVC. Un double rang de joints de bonne qualité doit être posé entre l’ouvrant et le dormant.

Pour une pièce aux dimensions standard, c’est-à-dire dont la surface est d’environ 25 m² , avec une fenêtre de 1,5 à 2 m² un isolement de 40 dB(A) est délicat à obtenir s’il y a une entrée d’air. Quelques précautions doivent alors être prises :

  • Les entrées d’air choisies doivent être insonorisées. La valeur de leur coefficient d’affaiblissement acoustique doit être la plus grande possible. Toutefois, il est difficile du trouver sur le marché des entrées d’air de faible encombrement, pouvant être placées dans la menuiserie, ayant une valeur du coefficient d’affaiblissement acoustique supérieur à 42 dB(A). La zone de fonctionnement de la bouche d’entrée d’air choisie doit permettre d’atteindre le débit nominal. En effet, certains systèmes intégrés dans une fenêtre ont une surface d’entrée d’air trop faible pour obtenir le débit nominal imposé par les systèmes d’extraction actuels.
  • L’étanchéité entre le gros œuvre et le dormant doit être de qualité. L’amélioration de l’étanchéité, obtenue par la pose d’un joint mastic de type silicone ou polyuréthane, augmente la valeur de l’isolement acoustique.
  • Il est utile de vérifier et de remettre en état les joints de façade des grands panneaux préfabriqués, surtout s’il y a des entrées d’air parasites.

Pose de survitrage

La pose de survitrage ne conduit pas à une amélioration significative de la performance acoustique. Dans certains cas, le gain obtenu par le survitrage peut atteindre de 2 à 3 dB(A). Il y a lieu de veiller à une bonne étanchéité entre le survitrage et la fenêtre. De plus, la présence de joints de qualité entre l’ouvrant et le dormant de la fenêtre est toujours nécessaire.

Pose de double fenêtre

C’est pratiquement la seule solution technique si l’on veut obtenir un isolement supérieur à 40 dB(A). La pose s’effectue le plus souvent au nu extérieur de la façade, avec ou sans conservation des volets existants. La nouvelle menuiserie est généralement de type vantaux coulissant, en aluminium ou en PVC. Cette solution permet d’atteindre, dans certaines configurations, des isolements proches de 50 dB(A).

Elle est également satisfaisante sur le plan thermique en hiver, mais présente cependant quelques inconvénients :

  • la difficulté de nettoyage, surtout de la face extérieure de la nouvelle fenêtre,
  • les difficultés d’ouverture de la nouvelle fenêtre et d’accès aux persiennes,
  • la nécessité de remplacer les éventuels volets existants, ce qui induit un surcoût important,
  • une certaine diminution de l’éclairage naturel,
  • la difficulté éventuelle d’obtenir les autorisations urbanistiques.

Il faut prohiber la pose d’entrées d’air insonorisées en regard l’une de l’autre pour limiter la création de pont phonique.

Fermeture de balcons et réalisation de loggias

La réalisation de loggias est unanimement appréciée en raison de l’amélioration très nette de l’isolation acoustique et de l’accroissement de la surface utile du bâtiment. Ce type de travaux est facile à réaliser. Mais, une loggia peut conduire à une surchauffe en été.

Le problème de surcharge de la structure et d’un surcoût important. L’aspect de la façade est alors complètement modifié.

21-08-2008 : comparaison du contenu ok ! [sylvie]
Dans la partie « Améliorer l’acoustique des conduits d’air », partie exemple, dernière phrase, le nombre de décibel n’est pas déterminé dans la partie source non plus (version 5).

Débits de ventilation dans les locaux annexes

Débits de ventilation dans les locaux annexes


Suivant les fabricants

Les débits indiqués ci-dessous sont soit des débits à extraire, soit des débits à pulser selon que le local présente des risques d’odeurs ou est considéré comme un local « sale » (selon l’arrêté royal relatif à l’hygiène générale des denrées alimentaires) ou non.

Ils nous ont été communiqués par un fabricant.

Local

Taux de renouvellement horaire (1/h) Débit (m³/h)

Préparation froide

3 à 5

Légumerie

5 et 10 (*)  –

Pâtisserie

15  –

Boucherie

10  –

Stockage produits secs et boissons

3  –

Réserve vin

1  –

Stockage vaisselle

1  –

Local déchets

5 à 7  –

Local entretien

5  –

Self-service : comptoir bain-marie

100

Self-service : par chariot chauffant

50

Restaurant

6 à 8

Cafétéria

8  –

(*) : Pour les cuisines industrielles, il est demandé un extracteur à 2 vitesses assurant en temps normal un taux de renouvellement de 5 et en cas d’épluchage d’oignons un taux de 10.


Suivant la norme prEN 16282

Zones Débits [m3/h par m2]
Préparation de la viande 25
Préparation du poisson 25
Préparation de la volaille 25
Préparation des légumes 25
Réserve sèche 6
Réserve à pain 6
Réserve non-alimentaire 6
Pièces pour le personnel Voir annexe C3 de la PEB
Vestiaires, WC et douches Voir annexe C3 de la PEB
Local à poubelles 6
Distribution des repas chauds 60

Mesurer la tension électrique

Mesurer la tension électrique


Le voltmètre

Un voltmètre mesure la tension existante aux bornes d’un appareil. On branche donc le voltmètre en le plaçant en parallèle (ou en dérivation) à l’appareil.

Dans un réseau monophasé, on mesure entre la phase et le neutre une tension d’environ 220 à 240 Volts.

Dans le réseau triphasé, elle est également de 220 V entre une phase et le neutre (ou la mise à la terre), mais entre deux phases elle est de 380 à 415 Volts.


Le contrôleur de tension

Un testeur (parfois monté sur un tournevis) permet bien de contrôler la présence d’une tension, mais non sa valeur. Le principe consiste à faire passer un faible courant au travers d’une lampe. Mais cette lampe ne s’allume qu’à partir de 80 à 100 V.

Schéma principe contrôleur de tension.

Partout où l’on peut s’attendre à une tension de retour (par exemple dans les câblages de commande d’une armoire électrique), il faut employer le voltmètre.


Appareil intégré à l’installation électrique

Bien sûr il est possible d’intégrer un voltmètre traditionnel à une installation fixe mais l’idée est plutôt ici d’utiliser des appareils délivrant un signal analogique standard de type 4 – 20 mA ou 0 – 10 V, proportionnel à la tension mesurée. Ces appareils peuvent alors être raccordés à la régulation d’une installation, et permettre un suivi en continu.

    

Le convertisseur (ou transducteur)

Pour la mesure sur des réseaux de forte puissance, il est associé à un transformateur de tension.

L’ analyseur de réseau

La mesure de la tension n’est alors qu’une des grandeurs électriques fournies par cet appareil. Il intègre un microprocesseur permettant l’affichage de valeurs moyennes ou la mémorisation des valeurs de pointe.

Il fonctionne de manière autonome mais peut être raccordé à une régulation locale.

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
24-09-2008 : WinMerge ok – Sylvie

Choisir le système de dégivrage de la machine frigorifique d’une chambre froide

Précautions à prendre au niveau du choix de l’enceinte et du groupe d’une chambre froide

Au niveau de la configuration de l’enceinte et pour éviter au mieux la formation de givre sur l’évaporateur, il est préférable que celui-ci soit situé loin de l’entrée par laquelle est amené l’air chaud et humide.

Exemple.

La chambre froide est installée chez un grossiste en fruits et légumes. L’évaporateur de la chambre froide se situe comme sur le dessin ci-après :

La porte est ouverte toute la journée pour permettre aux clients (des petites supérettes) de venir faire leurs achats, des bandes en plastique sont installées pour limiter les pertes frigorifiques.

La température d’évaporation étant de -8° un dégivrage est nécessaire. La proximité de la porte favorise les entrées d’air à température moyenne de 20°. Cet air chaud est aspiré par l’évaporateur et du givre apparaît très vite sur la batterie.

Un dégivrage est nécessaire toutes les deux heures alors que dans d’autres conditions seuls 3 à 4 dégivrages par 24 heures seraient suffisants.

Pour éviter des consommations importantes d’électricité et une régulation qui apporterait toujours des soucis, il a été prévu d’arrêter la production frigorifique toutes les deux heures tout en laissant tourner les ventilateurs de l’évaporateur. On dégivre 10 minutes uniquement grâce à la température ambiante de l’air.

En ce qui concerne l’installation, pour faciliter et optimiser les opérations de dégivrage, on choisit, de préférence, une installation avec :

  • Une vanne magnétique sur le circuit frigorifique (juste avant l’évaporateur).
    Cette vanne va permettre d’arrêter le cycle du fluide frigorigène lors d’un dégivrage : lors d’un dégivrage, l’alimentation électrique de la vanne magnétique est coupée. La vanne se ferme. La Basse Pression au compresseur descend et le compresseur s’arrête dès que le niveau réglé sur le pressostat Basse Pression est atteint.
    Quand il n’y a pas de vanne magnétique, le compresseur est directement arrêté électriquement (contacteur). Mais dans ce cas, une migration de réfrigérant peut se produire et encore continuer à s’évaporer, ce qui peut poser problème.
  • Des manchons souples placés à la sortie du ventilateur de l’évaporateur si la technique de dégivrage produit de la chaleur sur l’évaporateur. Lors d’un dégivrage, lorsque la ventilation est à l’arrêt, ce manchon retombe et se rabat sur la surface de pulsion du ventilateur. Une barrière physique est ainsi créée autour de la chaleur produite dans l’évaporateur pour dégivrer l’évaporateur.
    Ces manchons souples en fibre polyester sont encore appelés « shut up ».


Précautions à prendre au niveau de l’utilisation de l’enceinte d’une chambre froide

Une organisation rationnelle des interventions dans les chambres froides peut être source d’économies d’énergie substantielles. On peut regrouper les interventions et laisser les portes ouvertes pendant un temps le plus court possible.

Il y aura ainsi moins d’air humide qui entrera à l’intérieur de l’enceinte. Au niveau économies d’énergie, on gagne ainsi sur trois plans :

  • au niveau de l’énergie nécessaire pour dégivrer,
  • au niveau de l’énergie nécessaire au refroidissement et au séchage de l’air humide qui entre dans l’enceinte,
  • au niveau de l’énergie nécessaire pour éliminer les quantités de chaleur accumulées dans les évaporateurs au moment des dégivrages, dont le nombre et la durée peuvent diminuer.
Exemple.

Soit une chambre froide négative de dimensions intérieures :
L = 4 m, l = 4 m, h = 3 m.

L’air à l’extérieur de la chambre a les caractéristiques suivantes :
t° = 28°C, HR = 80 %.

L’air intérieur a les caractéristiques suivantes :
t° = -18°C, HR = 50 %.

La chambre est « sollicitée » pendant 12 h/jours.

Il y a 10 interventions par heure, pendant chacune d’elle la porte est laissée ouverte pendant 30 secondes.
Avec cette utilisation, l’énergie électrique nécessaire pour le dégivrage est de 15,6 kWh/jour.

Avec une meilleure organisation, le personnel n’ouvre plus la porte que 5 fois par heure et ne la laisse plus ouverte que 6 secondes par intervention.
L’énergie électrique nécessaire pour le dégivrage n’est plus que de 3,9 kWh/jour soit une économie de 11,7 kWh/jour.
Avec un prix moyen de 0,11 € du kWh, cela représente une économie de 11,7 [kWh] x 0,11 [€] 260 [jours], soit 350 € par an pour une seule chambre froide.

Il faut ajouter à cette économie, l’énergie gagnée sur le refroidissement et le séchage de l’air entrant dans la chambre froide, ainsi que sur le givrage de la vapeur qu’il contient.
En effet, dans le premier cas, le renouvellement d’air de la chambre est de 61 volumes par 24 h; l’énergie frigorifique nécessaire pour traiter cet air est de 109,6 kWh pour le refroidissement et le séchage, dont 46,9 kWh pour le givrage.
Dans le second cas, le renouvellement n’est plus que de 6,2 volumes par 24 h et l’énergie nécessaire n’est plus que de 11 kWh (refroidissement et séchage), dont 4,7 kWh pour le givrage.

Avec un COP global moyen de 2,5 et un coût moyen de 0,115 € du kWh électrique, cela représente une économie supplémentaire de :

((109,6-11) [kWh] / 2,5) x 0,11 [€] x 260 [jours], soit 1179 € par an.

Dans cet exemple, on n’a pas diminué le nombre de dégivrages dans le cas où il y a moins de vapeur qui entre dans la chambre. Cela représente, en fait, une économie supplémentaire, car il faut moins d’énergie pour refroidir les masses métalliques des évaporateurs, chauffées lors des dégivrages.

Remarque : vu la remarque ci-dessous, cet exemple sert plus à montrer qu’il y a de grosses possibilités d’économies par une utilisation rationnelle de la chambre froide qu’à donner des chiffres exacts. En effet, la masse de l’évaporateur ainsi que le nombre de dégivrages ont été encodés de manière arbitraire.

Calculs

Si vous voulez estimer vous même les possibilités d’économiser de l’énergie grâce à une utilisation rationnelle de votre chambre froide, cliquez ici !

Mais ATTENTION : ce tableau doit être utilisé avec beaucoup de précautions !

En effet, les résultats dépendent de paramètres introduits par l’utilisateur. Or ces paramètres ne sont pas toujours connus et dépendent eux-mêmes du résultat des calculs.

Par exemple :

  • La masse des évaporateurs est une donnée arbitrairement introduite par l’utilisateur. Or elle dépend d’une série de paramètres qui ne sont pas dans le tableau (et notamment la puissance frigorifique totale). Il est donc a priori très difficile de choisir une valeur correcte pour la masse des évaporateurs.
  • Le nombre de dégivrages est aussi une donnée arbitrairement introduite par l’utilisateur.
    Or, il dépend de la masse de givre piégée sur les ailettes des évaporateurs, de l’écartement de ces ailettes, de la surface d’échange des évaporateurs (c’est-à-dire de leurs dimensions) qui conditionne l’épaisseur moyenne de givre déposé sur les ailettes.

Il faut aussi se rappeler que le rendement d’un évaporateur baisse au fur et à mesure que du givre vient se placer dans les interstices entre les ailettes.
Cela veut dire que si on diminue artificiellement le nombre de dégivrages, on diminue évidemment l’énergie nécessaire pour les dégivrages parce qu’il faut moins souvent chauffer les masses métalliques, mais on diminue aussi le rendement des évaporateurs (et donc de la machine entière) avec le grand danger d’avoir des évaporateurs bourrés de glace, ce qui provoquera finalement l’arrêt de la machine.

En fait, cela revient à dire que le calcul des machines frigorifiques doit être un calcul intégré où les éléments du bilan frigorifique ne peuvent pas toujours être envisagés séparément, comme c’est le cas ici avec ce tableau…; il s’agit d’un calcul itératif !


Choix de la technique de dégivrage

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons :

  • par résistance chauffante,
  • par introduction de vapeurs refoulées par le compresseur,
  • par aspersion d’eau sur la surface externe, givrée, de la batterie,
  • par circulation d’air.

Les deux premières méthodes citées ci-dessus sont les plus courantes :

Par résistance chauffante

Des résistances chauffantes sont imbriquées dans les tubes en cuivre qui composent la batterie de l’évaporateur. Leur position et leur puissance sont étudiées par le fabricant de manière à répartir uniformément la chaleur produite à l’ensemble de la batterie.

Avantages, inconvénients et choix

C’est une méthode simple, très répandue pour les unités de puissance moyenne.
Elle n’est pas dénuée de divers inconvénients : la consommation se fait en électricité directe, et donc à un prix élevé en journée, surtout si la période de dégivrage a lieu durant la pointe quart-horaire du mois.

Précautions

Dans les équipements frigorifiques des grandes cuisines, la place disponible fait souvent défaut et la tendance des architectes est de sélectionner du matériel très compact. D’autre part, les budgets sont de plus en plus étroits, ce qui ne facilite pas la sélection de matériel de qualité.

Cependant pour assurer un bon fonctionnement du dégivrage à long terme, certaines précautions sont à prendre :

  • Les résistances n’ont pas une durée de vie éternelle. Elles doivent être remplacées en cas de défaillance. Lors de l’installation de l’évaporateur, il ne faudra donc pas oublier de tenir compte de leur longueur (généralement la longueur de l’évaporateur) et laisser l’espace nécessaire pour permettre de les extraire de leur  » doigt de gant « .
  • Toutes les résistances sont fixées à l’aide de fixation ad hoc dans la batterie. Il importe de fixer également les nouvelles qui seraient introduites après un remplacement.En effet, si les résistances ne sont pas bien fixées, les dilatations produites lors du chauffage et du refroidissement peuvent faire bouger les résistances et les faire sortir de leur position avec comme conséquence de ne plus chauffer uniformément la batterie.

Par introduction de vapeurs refoulées par le compresseur

Cette technique, encore appelée dégivrage par « vapeurs chaudes » ou par « gaz chauds », consiste à inverser le cycle et à faire fonctionner l’évaporateur, le temps du dégivrage, en condenseur.

Avantages, inconvénients et choix

L’inversion de cycle est très économique, notamment car les vapeurs chaudes sont directement introduites dans les tubes avec des températures très élevées. Les temps de dégivrage sont donc très courts : parfois quelques secondes suffisent.

Néanmoins, cette méthode complique le réseau des conduites frigorifiques : des éléments supplémentaires tels que la vanne à 4 voies (qui sert à l’inversion de cycle), vannes magnétiques pour couper les circuits, etc. viennent s’ajouter à l’installation.

Ainsi, elle est surtout utilisée dans les installations industrielles.

Dans les équipements frigorifiques des grandes surfaces, il n’y a que les machines à glaçons (lit de glace en poissonnerie), quand il en existe, qui sont parfois munies d’un système d’inversion de cycle pour démouler les glaçons.

Par aspersion d’eau sur la surface externe, givrée, de la batterie

Avantages, inconvénients et choix

Cette technique est parfois utilisée pour des enceintes froides à des températures voisines de 0°C et pour des enceintes demandant une humidité élevée (chambres de conservation de fruits). La consommation d’eau, fluide de plus en plus coûteux, est un inconvénient.

Par circulation d’air de la chambre

De l’air provenant soit de l’intérieur de la chambre même, soit de l’extérieur, est envoyé sur l’échangeur. Dans le premier cas, le dégivrage est très lent. Dans le second, il faut isoler l’évaporateur de la chambre, ce qui n’est pas pratique.

Avantages, inconvénients et choix

L’inertie des produits stockés doit être suffisante à maintenir l’ambiance dans une fourchette de température acceptable. C’est donc une technique qui n’est pas à utiliser pour des chambres froides qui sont quasi vides juste avant le réapprovisionnement.

La première de ces méthodes a l’avantage de récupérer totalement l’énergie frigorifique stockée dans la glace. De plus, seule une horloge est nécessaire pour interrompre la production frigorifique. Elle ne tombe donc jamais en panne.

En général, cette méthode est utilisée avec une température de chambre supérieure à 0°C et lorsque les enceintes ne sont pas trop sollicitées par des ouvertures de portes. Mais la pratique montre que certains régulateurs « intelligents » utilisent également ce système lorsque la température est fortement négative, grâce au fait qu’en dessous de -5°C la structure de la glace est très différente (beaucoup plus poudreuse et donc moins collante : une sublimation est alors possible).

Remarque : cette technique est celle utilisée par un fabricant qui propose une régulation intelligente des dégivrages.


Choix de la régulation du dégivrage

Le dégivrage est une source de consommation d’énergie :

  • Par l’apport de chaleur nécessaire à la fusion du givre (effet utile).
  • Suite à l’échauffement, suivi du refroidissement, de la masse métallique de la batterie (effet nuisible).
  • Par le réchauffement partiel, suivi de la remise en température de la chambre froide, une partie de la chaleur que nécessite le dégivrage ayant été perdu dans cette enceinte (effet nuisible).

Il existe donc une fréquence optimale de dégivrage pour minimiser l’énergie dépensée par cette opération :

  • Trop fréquents, ils sont effectués alors qu’une faible quantité de givre s’est déposée sur la surface froide, l’effet utile est insuffisant devant les effets nuisibles qui l’accompagnent.
  • Trop peu fréquents, la masse excessive de givre présente sur la batterie diminue l’efficacité énergétique de la machine frigorifique.

Choix du type de régulation

Pour les petites enceintes, une régulation par horloge peut suffire. Mais mal utilisée, cette régulation peut conduire à des aberrations énergétiques : qu’il y ait présence ou non de glace, le dégivrage est enclenché à l’heure programmée, la durée du dégivrage est fixe, quelle que soit la présence effective de glace.

Ainsi, en fonction des conditions d’exploitation des enceintes froides (peu ou beaucoup d’ouvertures de portes), les agents d’exploitation devront modifier la fréquence des dégivrages par le réglage des horloges, et une sonde de fin de dégivrage doit permettre à l’installation de redémarrer plus rapidement que la période fixée.

Cependant ils ne doivent, en aucun cas, intervenir sur la séquence. Certaines d’entre elles, interne des opérations de dégivrage si elles sont mal conduites, peuvent créer des écarts de pression intolérables entre l’intérieur et l’extérieur des chambres froides.

Pour les plus grandes enceintes, il est indispensable, au niveau énergétique, que la séquence des dégivrages réels se rapproche au mieux de la séquence utile. On utilise pour cela une régulation électronique intelligente de dégivrage. De tels systèmes permettent des économies substantielles.

Il en existe au moins deux sur le marché :

  • Le premier système de régulation électronique intelligent permet d’espacer la séquence de dégivrages initialement programmés s’il n’a pas détecté de phase de fusion suffisamment longue durant les 10 dernières opérations de dégivrage programmées.
  • Le second système de régulation électronique intelligent détecte la présence de glace à partir de deux sondes de température (l’une mesure la température ambiante de la chambre, l’autre est placée dans les ailettes de l’évaporateur). L’explication de ce principe ne nous a pas été détaillée.Chez ce fabricant, le critère d’arrêt du dégivrage classique est une température d’évaporateur de 10°C. Cela semble élevé, mais c’est, semble-t-il, une sécurité par rapport à l’absence totale de glace.En plus de cette détection de givre, ce système choisit un dégivrage par circulation d’air de la chambre chaque fois que la température intérieure le permet. Ce qui est très intéressant au niveau énergétique puisque non seulement il ne faut pas produire de la chaleur pour le dégivrage, mais qu’en plus, toute l’énergie latente contenue dans la glace sera restituée à l’ambiance.Un dégivrage classique par résistance chauffante n’aura lieu que lorsqu’il n’est pas possible d’attendre la fusion de la glace par l’air ambiant.

Quel que soit le système de régulation intelligente, la souplesse de ces appareils par rapport aux thermostats mécaniques permet d’affiner les réglages et de proposer des fonctions complémentaires :

  • alarmes,
  • possibilité de faire fonctionner le congélateur avec une consigne abaissée de 5°C la nuit (pour bénéficier du courant de nuit),
  • possibilité de délester durant la pointe 1/4 horaire,

D’après le fabricant du second système ci-dessus, l’investissement (+/- 1 625 €) est amorti en moins d’un an.

Exemple.

Une chaîne de supermarchés belge a adopté ce système pour l’ensemble de ses chambres froides depuis 2 ans. Un des responsables techniques nous a confirmé que l’investissement a largement été amorti sur cette période en regard des économies d’énergie apportées (plus de 20 % de la consommation de la chambre). Une généralisation de ce système à l’ensemble des points de vente est programmée.

De plus, ces systèmes peuvent tout à fait s’adapter sur des installations existantes.

Lors de la pose d’un système de régulation de dégivrage, il est important de l’adapter au mieux à la chambre froide et à son utilisation. Il appartient au frigoriste de bien poser au client les questions pour comprendre son mode de travail et de câbler la régulation la plus appropriée.

Autres précautions…

Pour optimiser le dégivrage, le frigoriste ne doit pas oublier de prévoir deux temporisations dans les étapes de dégivrage :

  • Après l’opération de dégivrage proprement-dite, il faut prévoir une temporisation avant l’ouverture de la vanne magnétique (permettant à la production frigorifique de reprendre). Cette précaution permet d’assurer l’égouttage.
  • Ensuite, il faut prévoir une deuxième temporisation avant la remise en fonctionnement des ventilateurs de l’évaporateur. Cette temporisation permet à la batterie d’atteindre une température moyenne inférieure ou égale à celle de l’enceinte. À défaut, la remise en route prématurée des ventilateurs peut envoyer de la chaleur dans la chambre froide et/ou des gouttelettes d’eau encore présentes.

Il veillera aussi à prévoir un système de sécurité qui arrête le dégivrage dès qu’une température ambiante excessive est atteinte. Cette sécurité doit, par exemple, être accompagnée d’une alarme qui prévient le personnel du problème.

Cette précaution est d’autant plus importante que les produits stockés sont coûteux.

Exemple.

Il est déjà arrivé qu’un contacteur qui commandait les résistances électriques de dégivrage d’une enceinte stockant des crustacés, du caviar, etc. reste bloqué et que du chauffage soit diffusé toute la nuit dans la chambre avant que le personnel ne s’en aperçoive le lendemain matin.


Évacuation des condensats

Il faut prévoir un raccordement de décharge pour l’évacuation des condensats ou des eaux de dégivrage.

Dans les chambres froides négatives, pour éviter le gel, les tuyaux qui évacuent les condensèrent doivent être calorifugés, voir chauffés. L’évacuation par le haut à l’aide d’une pompe de relevage offre l’avantage d’éviter les passages de tuyaux à l’intérieur de l’enceinte (en général, l’évaporateur est suspendu au plafond). De façon générale, il faut chercher à sortir les condensats par le chemin le plus court de la chambre froide vers l’extérieur de manière à éviter tout souci.

L’exploitation devra toujours veiller à la bonne évacuation des eaux de dégivrage, et donc maintenir toujours libre de givre non fondu le bac de collecte de ces eaux. Elle doit également veiller au bon état de la conduite d’évacuation et de son système de chauffage (pour les chambres à températures négatives).

L’écoulement des condensats est primordial pour assurer de parfait dégivrage. Un bac de condensats qui ne se vide pas va provoquer très rapidement la prise en glace de la batterie par simple conduction entre l’eau et les ailettes.

Hydraulique

Hydraulique


A quoi sert un circulateur ? Notion de perte de charge

Pour que de l’eau avance dans une conduite, il faut qu’elle soit soumise à une différence de pression.

On peut dire que la pression plus forte au point A « pousse » l’eau vers la pression plus faible au point B.

Le déplacement de l’eau va s’accompagner de frottements qui engendre une perte de pression. On peut dire que la chute de pression entre les points A et B correspond aux frottements du fluide sur les parois de la canalisation. Elle est appelée la « perte de charge » du point A au point B.

Dans un circuit fermé, l’eau circule de A vers B parce que la pression au refoulement de la pompe est supérieure à la pression à l’aspiration.

PA – PB = perte de charge du réseau entre A et B = hauteur manométrique du circulateur.

Le gain de pression ainsi fourni par le circulateur est appelé sa « hauteur manométrique« . Cette hauteur manométrique du circulateur ne peut que correspondre à la perte de charge entre A et B.


Répartition du débit entre plusieurs circuits – Notion d’équilibrage

Le débit fourni par le circulateur doit se répartir entre 3 circuits identiques (dont les débits nécessaires sont les mêmes). On imagine également pour le calcul que la perte de charge dans chaque tronçon (AC, CD, DE, FG, GH et HB) est de 1 mCE (ou 0,1 bar) (dans un dimensionnement de réseau, on choisit une perte de charge constante par m de tuyau).

Si au point A, la pression est de 2,6 bar, elle sera de 1,9 bar au point B, pour que l’eau se mette en mouvement avec le débit voulu.

Si l’eau circule de A à F, c’est qu’il règne une différence de pression entre ces 2 points de 0,4 bar. Si l’eau circule de D à G, c’est grâce à une différence de pression de 0,3 bar.

Voici une première incohérence : dans le radiateur 1, la perte de charge est de 0,1 bar, ce qui lui donne son débit correct, mais elle est de 0,3 bar dans le radiateur 2. Il y a donc plus de débit dans le radiateur 2 que dans le radiateur 1, alors que les 2 radiateurs sont identiques. Le circuit est déséquilibré et il y aura surchauffe dans le local 2 ou manque de chaleur dans le local 1.

Il faut donc ramener la chute de pression dans le radiateur 2 à 0,1 bar pour que celui-ci délivre la même puissance que le radiateur 1. Cela s’effectue au moyen d’un robinet d’équilibrage sur lequel on créera une perte de charge de 0,2 bars.

Une situation semblable se pose pour le radiateur 3 pour lequel le robinet d’équilibrage devra créer une perte de charge de 0,4 bar.

Ce réseau est ainsi correctementéquilibré et un débit identique passe dans chaque radiateur.


Courbe caractéristique du réseau de distribution

La résistance du réseau de distribution dépend d’une part de sa configuration (longueur et forme des conduits, changements de direction, obstacles comme les vannes, les corps de chauffe, les filtres, …) et d’autre part de la vitesse de l’eau qui y circule. En effet, la résistance, ou autrement dit les pertes de charge, représente le frottement de l’eau dans les conduits. Ce dernier augmente avec la vitesse de l’eau.

Pour chaque type de circuit, on peut ainsi tracer une courbe qui représente la perte de charge en fonction du débit d’air, image de la vitesse.


Point de fonctionnement

Si l’on branche un circulateur sur un circuit de distribution, il stabilisera son débit à une valeur pour laquelle la pression qu’il fournit équivaut à la résistance du circuit. Ce point est le seul point de fonctionnement possible. Il correspond à l’intersection de la courbe caractéristique du circulateur et du circuit. Il définit la hauteur manométrique et le débit fournis par le circulateur lorsque, fonctionnant à une vitesse donnée, il est raccordé au circuit considéré.


Règles de similitude

Variation des grandeurs caractéristiques d’un circulateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume [m³/h]

n = vitesse de rotation [tr/min]

p = gain de pression [mCE ou bar]

P= puissance sur l’arbre [kW]

p/ p= (n1 / n2)² = (q1 / q2
Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Connaître les paramètres principaux [ventilation]


Débits

Annexe C3 de la PEB

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779:Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation.  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

Finalement, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par wc ou urinoir ou 15m²/h par m² de surface si le nombre de wc n’est pas connu lors du dimensionnement. un débit de 5m³/h par m² est à définir pour les douches et salles de bain avec un minimum de 50m³/h

L’Arrêté royal fixant les exigences de base générales auxquelles les lieux de travail doivent répondre (anciennement RGPT)

La dernière version de cet Arrêté royal ne prescrit plus un renouvellement d’air minimum par travailleur mais stipule que la concentration de CO2 doit resté inférieur à 900 ppm dans des locaux de travail normaux. Ainsi, l’exigence est placée sur le résultat attendu et plus le moyens. Pour atteindre ce résultat, si on considère qu’une personne expire 20 litres de CO2 par heure cela induit une renouvellement d’air de 25 m³/h par personne pour un air extérieur à 400 ppm de base. Les débits « exigés » sont donc assez bien augmentés ! Mais attention à tenir compte du taux d’absence, pour une salle de réunion par exemple.

litre de CO2 émis par personne

Source : SPF Emploi, Directive pratique « Qualité de l’air intérieur dans les locaux de travail », version du 2 mai 2019 ((https://emploi.belgique.be/sites/default/files/content/documents/Bien-être%20au%20travail/Fichiers%20thémes/Directive%20pratique%20Qualité%20de%20l’air%20intérieur%20dans%20les%20locaux%20de%20travail%20%281%29.pdf))

Équilibre amenée d’air neuf – évacuation d’air vicié

Le débit total pour l’alimentation correspond à la somme des débits d’alimentation de conception du bâtiment et, de même, le débit total pour l’évacuation correspond à la somme des débits d’évacuation du bâtiment.

Dans les bâtiments tertiaires (immeubles de bureaux, écoles, …), on retrouve souvent une grande quantité de locaux dits « à pollution non spécifique » (bureaux), par rapport au nombre de sanitaires. Dans ce cas, le débit d’air neuf à introduire dans le bâtiment est nettement plus important que les débits à extraire recommandés dans les sanitaires.

Ni la norme NBN D50-001 (relative aux logements), ni la réglementation wallonne n’imposent d’équilibrer les débits d’extraction et d’amenée d’air. C’est cependant le moyen de garantir que les débits d’air neuf prévus soient effectivement introduits dans le bâtiment : l’air ne rentrera pas s’il ne peut sortir !

La norme et la réglementation doivent donc être considérées comme une ligne de conduite reprenant les exigences minimales à respecter. Les débits de conception doivent être au minimum identiques au débits exigés mais peuvent être augmenter pour équilibrer le système.

On peut par exemple fixer des débits d’extraction supplémentaires, pour correspondre au débits d’alimentation, dans des espaces sans débits minimum recommandés comme les cagibis, dressing, locaux techniques, réserves et stockage, etc.).

Dans la mesure du possible, il faut donc essayer d’équilibrer les débits d’amenée et d’évacuation d’air, tout en laissant un léger surplus d’amenée d’air par rapport à l’extraction pour maintenir le bâtiment en surpression et éliminer les entrées d’air parasites. Pour donner un ordre de grandeur, on peut imaginer le critère suivant, fixant un rapport entre le débit de pulsion et d’extraction à atteindre :

(débit de pulsion – débit d’extraction) < (n x volume du bâtiment)

où n est le taux d’infiltration d’un bâtiment. On peut alors imaginer que l’excès de pulsion d’air pourra s’échapper du bâtiment par les inétanchéités.

Il faut cependant éviter de trop surdimensionner les extractions sanitaires sous peine de risque de courants d’air et d’inconfort dans ces derniers. On peut, dès lors :

  • Disposer des évacuations d’air complémentaires dans les circulations ou des locaux annexes comme des réserves, …

Extraction dans les sanitaires et les couloirs.

  • Équiper les locaux demandant des débits d’air neuf plus importants (salles de séminaire, salles de réunion) de leur propre extraction.

Extraction dans les sanitaires et les salles de réunion.

Ces deux pistes ont également comme avantage de permettre un meilleur contrôle de la distribution de l’air dans le bâtiment et de s’assurer que le cheminement de l’air ne soit pas aléatoire.

En dernier recours, un déséquilibre peut être assumé. Pour autant qu’il n’excède pas trop la capacité d’évacuation d’air par les inétanchéité, il n’aura pas d’impact majeur sur la capacité du réseau de pulsion à assurer le débit minimum attendu. La distribution d’air dans le bâtiment sera par contre difficile à prévoir, puisqu’elle dépendra de la distribution des inétanchéités de l’enveloppe. Des phénomènes de courant d’air peuvent aussi survenir lors d’ouvertures de portes ou fenêtres.

Études de cas

Un tel système de ventilation sans équilibrage a été mis en œuvre dans le bâtiment PROBE du CSTC à Limelette.

Perte de charge de base

La méthode principale de dimensionnement des réseaux de ventilation mécanique consiste à fixer une perte de charge linéaire constante (par exemple : 1 Pa/m) dans le tronçon le plus défavorisé.

À partir de cette valeur, en tenant compte du débit véhiculé par chaque branche du réseau et de la pression nécessaire au niveau des bouches, on pourra calculer pour chaque tronçon :

  • la section du conduit,
  • la vitesse de l’air,
  • la perte de charge.

Les pertes de charge de tout le réseau (conduits rectilignes, coudes, tés, …) sont alors additionnées aux pertes de charge des accessoires (batteries, filtres, prise d’air, ….) pour dimensionner le ventilateur.

Remarquons que, pour simplifier le calcul des réseaux complexes, on peut aussi se fixer une perte de charge dans tout le réseau et en déduire directement les diamètres des conduits. Le réseau ainsi constitué ne sera pas directement équilibré et devra être équipé d’organes de réglage.

Améliorer

Pour en savoir plus sur l’équilibrage des réseaux de distribution : cliquez ici !

Comme on le voit, c’est le choix de la vitesse ou de la perte de charge de départ qui conditionne le diamètre des conduits, donc, les pertes de charge totales, la consommation du ventilateur et l’investissement final.

Un compromis doit être trouvé entre consommation et investissement.
Exemple : le réseau suivant doit véhiculer un débit total de 12 600 m³/h.

Concevoir

Pour visualiser le dimensionnement complet de ce réseau suivant les méthodes de la perte de charge et de la vitesse constante, cliquez ici !

Voici les résultats du dimensionnement du réseau suivant la méthode de la perte de charge linéaire constante et suivant la méthode de la vitesse d’air constante :

Méthode de la perte de charge linéaire constante dans le tronçon le plus défavorisé (de A à a)

Perte de charge linéaire de base choisie [Pa/m]

0,5 1 1,5
Vitesse d’air max [m/s]. 6,7 8,85 10,4
Vitesse d’air min [m/s]. 4,49 5,93 6,97
Hauteur manométrique du ventilateur [Pa]. 176 208 240
Consommation (pour un fonctionnement de 3 000 h/an) [kWh/an]. 2 835 3 352 3 869
Facture énergétique  (à 0,16 €/kWh) [€/an]. 453,6 536,3 619
Surface de conduits [m²]. 114 101 94
Investissement (à 27,5 €/m²) [€]. 3 122,6 2 773 2 589,9
Coût sur 10 ans [€]. 7 658,6 8 136 8 779,9
Coût relatif entre les solutions. 100 % 106 % 115 %

Par cet exemple, on constate que la valeur de 1 Pa/m choisie comme base de dimensionnement, peut être considérée comme une valeur maximum que l’on peut préciser dans le cahier des charges, les 6 % de différence avec la solution basée sur 0,5 Pa/m étant tempérée par le coût de l’argent sur 10 ans, qui n’est pas pris en compte ici.

Ordres de grandeur et recommandations

Un moyen de vérifier la qualité énergétique du dimensionnement est de comparer les vitesses d’air ou les pertes de charge obtenues dans les différents tronçons aux valeurs suivantes :

  • Vitesses maximums couramment admises pour limiter la production de bruit dans les conduits :
Vitesses maximales admissibles au niveau du bruit dans un réseau de distribution d’air [m/s]
Types de local Conduit principal* Dérivation Grille, bouche Entrée d’air
Chambre. 7 2-4 0,5-2 1
Bureau. 7 2-4 1-2 1

* dépend de la distance des locaux occupés par rapport à la gaine principale.

  • Vitesse maximum de l’air dans les conduits de ventilation imposée, dans certains cantons suisses, pour des raisons d’économie d’énergie. Notons que ces vitesses correspondent à une perte de charge de base inférieure à 1 Pa/m :
Vitesse maximum de l’air autorisée dans le canton de Zurich
Débit maximum Vitesse maximum de l’air
< 1 000 [m³/h] 3 [m/s]
< 2 000 [m³/h] 4 [m/s]
< 4 000 [m³/h] 5 [m/s]
< 10 000 [m³/h] 6 [m/s]
> 10 000 [m³/h] 7 [m/s]
  • Pertes de charge maximum recommandées par SIA (Société suisse des ingénieurs et architectes) pour l’ensemble d’un réseau de ventilation, ce qui comprend la pulsion, l’extraction et l’éventuelle récupération de chaleur :
Recommandations SIA V382/3 : pertes de charge totales du système
Pour toutes les installations. 1 200 [Pa]
Pour les installations énergétiquement très performantes. 900 [Pa]
À titre de comparaison, en moyenne dans les anciennes installations. 1 500 à 2 000 [Pa]

Paramètres de confort

Dans un nouveau projet, il est également important d’émettre des exigences en terme d’acoustique, de vitesse et de température d’air à respecter dans les zones de travail pour éviter que l’occupant ne condamne la ventilation pour des raisons d’inconfort. Ces exigences ont notamment une influence importante sur le choix des bouches de pulsion.

Bruit

Pour se prémunir des désagréments acoustiques liés aux installations de ventilation mécanique, il faut préciser dans le cahier des charges de la nouvelle installation, les exigences acoustiques que l’on désire obtenir dans les locaux, sachant que plus elles sont élevées, plus le silencieux sera important et donc les pertes de charge également.

Les exigences acoustiques peuvent être symbolisées par le niveau NR (Noise Rating) :

Exigences acoustiques
NR 20 – 30 Condition de séjour, de repos, de sommeil dans les chambres, …
NR 30 – 35 Bonnes conditions d’écoute dans les bureaux de direction, consultation, …
NR 35 – 40 Conditions d’écoute normales dans les grands bureaux, restaurants calmes, …
NR 40 – 45 Conditions d’écoute modérées dans les laboratoires, restaurants, …

On peut également imposer, dans les locaux, le niveau de pression acoustique maximum généré et/ou transmis par le système de ventilation. Voici les critères de conception proposés par la NBN EN 13779 (2007): Ventilation dans les bâtiments non résidentiels – Exigences de performances pour les systèmes de ventilation et de conditionnement d’air : suivant le type de bâtiment ou de local :

    Type de bâtiment Type de local  

Niveau de pression acoustique en dB(A)

Plage type
Valeur par défaut
Résidentiel salle de séjour 25-40 32
chambre 20-35 26
Établissements dédiés aux enfants
écoles maternelles, crèches 30-45 40
Lieux publics auditoriums 30-35 33
bibliothèques 28-35 30
cinémas 30-35 33
tribunaux 30-40 35
musées 28-35 30
Lieux commerciaux magasins de détail 35-50 40
grands magasins 40-50 45
supermarchés 40-50 45
grandes salles d’ordinateurs 40-60 50
petites salles d’ordinateurs 40-50 45
Hôpitaux couloirs 35-45 40
salles d’opération 30-48 40
salles de consultation 25-35 30
chambre de nuit 20-35 30
chambre de jour 25-40 30
Hôtels accueil 35-45 40
salles de réception 35-45 40
chambres (pendant la nuit) 25-35 30
chambres (pendant le jour) 30-40 35
Bureaux petits bureaux 30-40 35
salles de conférence 30-40 35
bureaux paysagés 35-45 40
bureaux compartimentés (cabines) 35-45 40
Restauration cafétéria 35-50 40
restaurants 35-50 45
cuisines 40-60 55
Écoles salles de classe 30-40 35
couloirs 35-50 40
gymnases 35-45 40
salle des professeurs 30-40 35
Sport stades couverts 35-50 45
piscines 40-50 45
Général toilettes 40-50 45
vestiaires 40-50 45

Vitesse et température d’air

Pour éviter les sensations de « courant d’air » ou de « masse d’air » dans la zone d’occupation, la diffusion de l’air doit respecter les performances suivantes (issues de la norme DIN 1946 et de la pratique) :

Grandeurs à respecter

Où ?

Combien ?

Vitesse de l’air. Zone d’occupation
(à 1,8 m de haut).
max : 0,2 m/s.
Le long des murs
(à 1,8 m de haut).
max : 0,4 m/s.
Écart de température dans l’ambiance. Zone d’occupation. max : + 1,5°C (chauffage).
Zone d’occupation. max : – 1°C (en refroidissement).

Choisir un système de toiture plate

Choisir un système de toiture plate


Quels sont les critères de qualité d’une toiture plate ?

Une toiture plate de bonne qualité doit :

Etre étanche (même au droit des raccords) à la pluie, à l’air et à la neige

  • La membrane d’étanchéité doit avoir été correctement posée par des spécialistes et suivant les prescriptions du fabricant.
  • La membrane d’étanchéité sera de préférence multicouche.
  • Les raccords doivent être conformes aux règles de l’art, et les remontées d’étanchéité doivent être suffisamment hautes.
  • Les pontages des joints actifs doivent être adaptés aux mouvements.

concevoir 

Pour choisir la membrane d’étanchéité, cliquez ici !

Evacuer les eaux de pluie et de fonte de neige

  • Les pentes doivent être suffisantes.
  • Les évacuations des eaux pluviales doivent être correctement dimensionnées.
  • L’eau de pluie doit pouvoir déborder sans risque et visiblement en cas d’obstruction des évacuations.

Isoler thermiquement les locaux et la structure du bâtiment

  • L‘isolation doit être suffisamment performante (épaisseur et résistivité thermique).
  • L’isolation doit être continue.

concevoir 

Pour choisir l’isolant thermique, cliquez ici !

Résister aux contraintes mécaniques au niveau de toutes les couches (support, isolant, étanchéité, protection)

  • La toiture doit résister aux charges d’utilisation (charges permanentes, charges mobiles, charges localisées, charges réparties).
  • La toiture doit être capable de supporter la neige.

concevoir 

Pour déterminer la résistance à l’écrasement de l’isolant existant, cliquez ici !
  • La toiture doit être prévue pour son usage (circulable pour les véhicules, pour les piétons, pour l’entretien, …)

concevoir 

Pour déterminer la protection nécessaire, cliquez ici !
  • La toiture doit résister au vent.

concevoir 

Pour déterminer l’accrochage nécessaire, cliquez ici !

Résister aux agents physiques et chimiques extérieurs

  • La membrane d’étanchéité doit résister à l’érosion éolienne et hydraulique.
  • La toiture doit résister aux chocs thermiques et au gel.
  • La membrane d’étanchéité doit résister aux rayonnements ultra-violets (UV) ou être protégée de ceux-ci.
  • La membrane d’étanchéité doit être adaptée pour résister à la pollution chimique acide de l’environnement extérieur auquel elle est exposée.

Techniques

Pour connaître les caractéristiques des différentes membranes d’étanchéités, cliquez ici !

Ne permettre aucune condensation interne

  • Le pare-vapeur doit être continu.
  • La toiture doit être étanche aux courants d’air.

concevoir 

Pour vérifier le bon choix et la bonne pose du pare-vapeur, cliquez ici !

Etre facile à entretenir et à réparer

améliorer 

Pour savoir en quoi consiste l’entretien de la toiture plate, cliquez ici !

Subsidiairement, isoler phoniquement les locaux de l’environnement extérieur


Quand réaliser une toiture chaude ?

Lorsque l’isolant est pris en sandwich entre 2 étanchéités (le pare-vapeur en dessous et la membrane au-dessus), on appelle cela une toiture chaude.

Schéma toiture chaude.

A utiliser le plus souvent possible
C’est actuellement la technique la plus utilisée.

On préférera la toiture chaude à la toiture inversée pour sa facilité d’entretien, particulièrement lorsque l’environnement est fortement boisé (chute des feuilles, germination et développement de plantes).

On préférera également la toiture chaude lorsque le lestage du complexe isolation-étanchéité n’est pas possible à cause du manque de portance du support.

Avantages

  • Risque de condensation interstitielle facilement maîtrisable par le choix d’un pare-vapeur adéquat et pour les cas les plus difficiles d’un isolant étanche à la vapeur d’eau (verre cellulaire).
  • Possibilité d’utiliser des matériaux isolants à la conductivité thermique  très faible (ex : PUR)
  • Entretien facile.
  • Charge pondérale réduite (pas besoin de lester).
  • Remontées verticales d’isolant possibles autour des obstacles.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection et préservation de l’isolant par la membrane de l’étanchéité.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…)

Inconvénients

  • Encombrement important pour des niveaux d’isolation élevés.
  • Séchage impossible de l’isolant en cas d’infiltration.

Quand réaliser une toiture inversée ?

Lorsque l’on pose l’isolant au-dessus d’une toiture existante, on réalise une toiture inversée.

Schéma toiture inversée.

Le principal avantage de la toiture inversée est la protection thermique de la membrane d’étanchéité et l’absence de dégradation importante de l’isolant en cas de fuite.

Alors que la toiture chaude est réalisable dans tous les cas, la toiture inversée n’est possible que :

  • Lorsque les rives du toit sont suffisamment hautes pour déborder d’au moins 5 cm la face supérieure de l’isolant.

  • Lorsque la forme de la toiture n’est pas trop compliquée (impossibilité de réaliser des remontées de l’isolant d’une toiture inversée).

  • Lorsque le support a une masse d’au moins 300 kg/m² (+/- 13 cm de béton armé) afin de parer au risque de condensation du fait de l’eau de pluie froide.
    L’eau qui s’infiltre sous l’isolant entraîne des déperditions calorifiques. Le déphasage entre le début des précipitations et la chute maximale de la température en sous-face du plafond augmente en fonction de l’inertie thermique qu’offre le support. Si celle-ci est importante, la suspension de la fonction isolante ne se fait sentir que très progressivement et retarde l’apparition de la condensation de surface. Dans le cas contraire, le risque augmente.
    Les toitures inversées de type léger (tôles profilées par exemple) sont sujettes après quelques minutes à des phénomènes de condensation en sous-face lorsque des précipitations coïncident avec des humidités relatives élevées à l’intérieur du local.

Avantages

  • Pas de risque de condensation interstitielle (l’isolant doit être posé en une seule couche)
  • Protection de la membrane d’étanchéité des variations thermique et des rayons UV. (NB : les membranes d’étanchéité actuelles résistent parfaitement à ces contraintes)
  • L’isolant (étanche à l’eau) ne risque pas d’être gorgé d’eau en cas de fuite à travers la membrane d’étanchéité.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…).

Inconvénients

  • Performances thermiques de l’isolant réduites (mouillé). Nécissité donc d’augmenter l’épaisseur d’environ 20% pour compenser.
  • Encombrement encore plus  important que la toiture chaude pour des niveaux d’isolation élevés. Dans ce cas on préconisera plutôt la toiture mixte : superposition  toiture chaude + toiture inversée.
  • Les remontées verticales autour des obstacles ne sont pas possibles. À ces endroits la technique de la toiture chaude doit être appliquée.
  • Poids important dû au lestage que doit supporter la construction.
  • Entretien difficile à cause du lestage. Pente maximale de 5°.

Quand réaliser une toiture combinée ?

Lorsqu’une isolation est rapportée au-dessus d’une première couche isolante, on parle de toiture combinée .

Schéma toiture combinée.

On adoptera cette technique lorsqu’une valeur d’isolation élevée est exigée et que l’épaisseur de l’isolant à mettre en place est importante.

La couche inférieure d’isolant sert également sur certains supports à faciliter la pose de l’étanchéité.

Avantages

  • Protection de la membrane d’étanchéité contre les chocs thermiques et le rayonnement ultraviolet, et de ce fait, ralentissement de son vieillissement.
  • Diminution des risques de condensation sous la membrane d’étanchéité en cas de précipitation lors de conditions climatiques intérieures sévères.
  • Protection du bâtiment des variations de température, et par conséquent, des dilatations et contraintes thermiques, du gel et des condensations.

Inconvénients

  • Ce système n’est conseillé que lorsque des couches d’isolation très épaisses sont nécessaires.
  • Entretien plus difficile que pour une toiture chaude non lestée.

Quand isoler par l’intérieur ou isoler le faux plafond ?

Toiture froide.

Isolation sous le support.

Faux plafond isolant.

A éviter !

La pose d’un pare-vapeur continu est difficile, si bien que la vapeur d’eau de l’ambiance risque de former de la condensation dans la toiture. De plus, le support est soumis aux chocs thermiques.

Enfin, il sera très difficile d’éviter les ponts thermiques au droit des murs de support de la toiture.

Schéma ponts thermiques.

Avantages

Aucun.

Inconvénients

  • Condensation : l’isolation d’une toiture plate par ce système provoque presque inévitablement de la condensation interne. Cette condensation peut entraîner l’altération de l’isolant et la suppression de son efficacité, la pourriture des planchers, le gel des matériaux, le décollement ou le ramollissement des matériaux agglomérés, le développement de moisissures, etc.
  • Chocs thermiques : un toit plat sans isolation thermique est déjà fortement sollicité par les variations de la température en sa partie supérieure. Les tensions thermiques sont cependant tempérées par la chaleur provenant de l’intérieur du bâtiment. À cause de la position de l’isolant du côté intérieur, les variations thermiques sont augmentées, et le support ou le béton de pente subissent donc des chocs thermiques importants et peuvent se fissurer. Il peuvent également entraîner des désordres dans les parois latérales contiguës et dans la membrane d’étanchéité.
  • Ponts thermiques : la pose de l’isolant sous la toiture sans interruption est difficile à cause des murs porteurs intérieurs. Les interruptions provoquent des ponts thermiques qui entraînent l’apparition de condensation de surface locale.

Quand réaliser une toiture légère isolée à l’intérieur de la structure ?

Schéma toiture légère isolée à l'intérieur.

Cette technique est délicate et nécessite une bonne maîtrise des phénomènes de condensation par un choix adéquat du freine vapeur et du matériau isolant. Cette technique ne convient pas pour des climats intérieurs très humides (Classe IV). La toiture ne peut pas être lestée ou à l’ombre pour permettre un séchage de l’isolant en été.

Avantages

  • Encombrement réduit. L’espace occupé par la structure est utilisé pour placer l’isolant. Cela permet donc d’augmenter l’épaisseur de la couche isolante.
  • Utilisation possible de matériaux hygroscopiques organiques comme de la cellulose

Inconvénients

  • Gestion délicate de la condensation interstitielle.
  • Faible inertie thermique de la toiture

Que faire si un faux plafond est nécessaire ?

Si le faux plafond est ajouré et n’est pas isolé, il ne contribue en rien à l’isolation thermique du complexe de toiture. Il ne provoquera aucun problème de condensation.

Schéma condensation.

Si le faux plafond est muni d’un matelas isolant, il risque d’y avoir de la condensation sur la face inférieure du support de la toiture dans certaines conditions d’utilisation des locaux sous-jacents. L’isolation du faux plafond doit idéalement être évitée.

Schéma, isolation du faux plafond doit idéalement être évitée.

Toutefois, si pour des raisons d’efficacité acoustique le matelas isolant ne peut être évité, on s’arrangera pour que son épaisseur soit la plus faible possible, et on rapportera sur la toiture une épaisseur d’isolation supplémentaire pour déplacer le point de rosée au-dessus du pare-vapeur.

La somme des résistances thermiques des couches situées sous le pare-vapeur ne peut excéder 30 % de la résistance thermique globale, sinon le point de rosée risque de se trouver sous le pare-vapeur avec comme conséquence, de la condensation interne.

Choisir un système convectif sur boucle d’eau froide : ventilo-convecteurs ou poutres froides

ventilo-convecteurs ou poutres froidesventilo-convecteurs ou poutres froides


Domaine d’application

Les émetteurs convectifs sur boucle d’eau sont parmi les systèmes de refroidissement les plus fréquemment rencontrés. On rencontre aujourd’hui particulièrement 2 technologies : les ventilo-conveteurs et les poutres froides.

On rencontre le ventilo-convecteur comme émetteur :

  • Dans les installations de climatisation devant assurer à la fois des besoins de chaleur en hiver et des besoins de refroidissement en été; ainsi, on les rencontre classiquement en allège de fenêtre des locaux, pour casser le froid du vitrage en hiver et compenser les apports solaires importants en été dans les bureaux, les commerces, les restaurants, les salles informatiques, les chambres d’hôtel,…
  • Dans les installations de chauffage pour lesquelles on souhaite une relance très rapide; une salle des fêtes, une salle de conférence, … dont le chauffage est intermittent, seront utilement équipés de ventilo-convecteurs.
  • Dans les installations de chauffage irriguées par de l’eau à basse température; les circuits raccordés à une source géothermale, à une pompe à chaleur, à un capteur d’énergie solaire,… sont valorisés par les ventilo-convecteurs qui augmentent la puissance de l’échange.

On rencontre plus particulièrement le ventilo-convecteur « 4 tubes » dans les bâtiments dont les besoins simultanés sont différents d’un local à l’autre : une cafeteria, un local informatique, des bureaux, des salles d’archives,… et le tout sur une même façade !

Le ventilo « 2 tubes – 2 fils » est une solution qui peut à la limite convenir lorsque le bâtiment est neuf et particulièrement bien isolé. Les apports internes (éclairage, bureautique, personnel,…) sont tels que le chauffage ne doit être enclenché qu’en période de gel, par exemple. Mais il sera utile de demander au bureau d’études une évaluation précise des coûts d’exploitation prévus pour le bâtiment…

C’est souvent la solution choisie par les promoteurs : le prix de revient du bâtiment est moindre. Quant à l’exploitation, ce n’est plus leur affaire … !

La possibilité de faire du chaud et du froid avec le même appareil, son prix de revient très raisonnable suite aux faibles surfaces des échangeurs, la facilité de la régulation local par local, l’efficacité du transport thermique par eau, … fait du ventilo-convecteur un best-seller de nos bâtiments climatisés !

Les poutres froides sont, en quelque sorte, des convecteurs de chauffage qui ont été placés au plafond pour faire du froid !

Photo poutres froides.  Photo poutres froides.

Il s’agit de tuyauteries parcourues par de l’eau glacée, serties d’ailettes pour favoriser l’échange convectif. Elles sont placées au plafond ou intégrées dans le faux plafond.

On distingue les poutres « actives » ou « dynamiques » (effet d’induction créé par l’air neuf) des poutres « passives » (convection naturelle uniquement) . Cet échangeur travaille sous un faible écart de température, suite à la condition de non-condensation. Sa puissance frigorifique varie selon la largeur de la poutre, la présence d’induction, l’écart de température,…

Ce produit étant à la mode, la Belgique voit son parc de poutres froides s’agrandir d’année en année, principalement dans les bureaux. Cette technique s’adapte à la construction nouvelle, mais aussi en rénovation grâce au fait de ne pas devoir percer des parois pour le passage de gainages d’air volumineux.

Les éjecto-convecteurs, sorte d’intermédiaire entre les deux précédents, est une technique des années 70 qui n’est plus guère rencontrée aujourd’hui.

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des ventilo-convecteurs, cliquez ici !

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des éjecto-convecteurs, cliquez ici !

 Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des poutres-froides, cliquez ici !

Avantages des émetteurs convectifs sur boucle d’eau

Ventilo-convecteurs et poutres froides partagent certains avantages, mais se distinguent pas d’autres.

Dans les deux cas, on bénéficie de :

  • La séparation entre la fonction ventilation des locaux (air neuf hygiénique) et l’apport thermique (apport de froid) est un gage de bonne régulation.
  • La possibilité de faire du chaud et du froid avec le même appareil, et avec une puissance relativement élevée.
  • Le système ne demande que le percement de trous pour le passage de tuyauteries d’eau. En rénovation de bâtiments, on évite ainsi l’encombrement des gainages à air de grandes dimensions… De plus, il est possible de récupérer l’ancienne installation de chauffage.
  • Une efficacité du transport thermique par eau :. Le transport du froid vers les locaux par de l’eau glacée (pompe) est environ dix fois moins énergétique que le transport par de l’air froid (ventilateur).
  • Une facilité de régulation, local par local, et donc un bon confort pour les utilisateurs : une régulation souple puisque réalisée tant via le débit d’eau que le débit d’air. un arrêt possible de l’équipement, localement, un mode de régulation très accessible par les utilisateurs, une liaison possible des différents appareils par bus de communication, ce qui permet une régulation globale de qualité par GTC.
  • Ces systèmes ne font intervenir qu’un seul corps de métier. Le plafond froid combine lui deux compétences : la pose de faux plafonds et la pose de tuyauteries. L’ensemble est plus complexe à gérer, d’autant que l’oeil est très sensible à la planéité des plafonds.

Le ventilo-convecteur a en outre comme avantage :

  • Un prix de revient raisonnable, surtout pour le système 2 tubes-2 fils, suite aux faibles surfaces des échangeurs à débit d’air forcé, et au faible coût de pose, (à noter que le prix de l’appareil dépend peu de la taille de l’échangeur et qu’il est donc possible de le surdimensionner au départ pour tenir compte d’un éventuel accroissement des charges futures).
  • Une facilité de placement : placement aisé en allège lorsque les hauteurs sous plafond ne permettent pas l’intégration d’un faux plafond, la possibilité de placer le ventilo en hauteur et de libérer la place au sol.
  • Une intégration possible d’une prise d’air neuf à l’arrière de l’équipement.
  • Une fiabilité de l’appareil (qui constitue un grand classique de la climatisation) et donc une longue durée de vie; ce n’est pas la Rolls de la clim, … mais une bonne Peugeot, quoi !
  • Dans le cas des systèmes 4 tubes :
    • La souplesse d’utilisation est totale puisque chaque ventilo est autonome : un local peut être refroidi lorsque son voisin est chauffé…
    • La possibilité de récupérer la chaleur extraite dans un local pour la fournir au local en demande.
    • Plus de circuits de zones, de vannes de commutation, … la régulation est plus simple et le service de maintenance ne s’en plaindra pas !

Par contre, la poutre froide a l’avantage de :

  • Le bruit est limité, pour autant que l’air neuf ne soit pas pulsé à trop haute vitesse (attention aux systèmes actifs).
  • La préparation d’eau glacée à une température de 15°C environ permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »). Cette propriété n’est tout à fait effective que si une machine frigorifique est spécifiquement prévue pour l’alimentation en eau froide des plafonds. Elle est en partie perdue si la même machine frigorifique est utilisée pour préparer l’air neuf déshumidifié …
  • Cette température élevée permet d’imaginer, durant une bonne partie de l’année, un refroidissement direct de l’eau glacée dans un aéro-refroidisseur ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique. Cette technique est généralement appelée « free-chilling ». La consommation liée au froid se résume à l’alimentation des pompes de circulation ! La présence d’une source d’eau froide naturelle peut également être mise à profit (rivière, lac, …).
  • L’encombrement au sol est nul !

Désavantages des émetteurs convectifs sur boucle d’eau

En termes d’inconvénients, dans les deux cas :

  • L’hygrométrie n’est pas contrôlée dans les locaux, ce qui peut poser problème d’un air trop sec en hiver.
  • La difficulté d’assurer un confort thermique correct est réelle, notamment sans courants d’air dans la zone de travail,… Une poutre statique génère une « coulée » d’air froid très désagréable sur les personnes situées sous les poutres. Elle ne peut a priori se placer que dans les locaux de grande hauteur. Par contre, la poutre dynamique semble plus confortable, car elle induit un mélange avec l’air ambiant plus élevé et donc une température de l’air plus homogène. Cependant, à l’intersection entre les flux d’air créés par deux poutres voisines parallèles, les deux flux d’air risquent de tomber sur la tête d’un utilisateur ! Le ventilo-convecteur quant à lui peut générer des courants d’air froids.
  • Curieusement, la facilité de fabrication et de pose peut devenir un inconvénient, surtout en marché public où le prix constitue le critère de sélection : la qualité des équipements fournis et la qualité de l’installation sont très variables !

 Le ventilo-convecteur a en outre comme désavantage de :

  • Lorsqu’un appareil de mauvaise qualité est installé (sous-dimensionnement des échangeurs, vitesse élevée du ventilateur, …), le bruit sera l’élément le plus négatif de cet équipement. Le niveau sonore peut être compris entre 35 et 65 dB, selon la qualité constructive, la vitesse du ventilateur et l’âge de l’équipement.
  • Le ventilo dont une prise d’air est réalisée en façade est une solution peu adaptée aux critères de confort actuel ! Ses performances thermique et acoustique sont faibles. Sans oublier le risque de gel…
  • Dans le cas des systèmes 2 tubes : Les besoins doivent être similaires dans les différents locaux d’une même zone; autrement dit, le nombre de zones doit être suffisamment élevé, si on ne souhaite pas de conflits en mi-saison pour le passage du chaud au froid !
  • Dans le cas des systèmes 4 tubes :
    • Le coût d’installation est plus élevé puisque les ventilos contiennent deux échangeurs, les circuits sont dédoublés, de même que le nombre de vannes, de circulateurs,…
    • L’encombrement est également plus important (ventilos plus volumineux et gaines techniques plus larges).
    • Durant toute une partie de l’année, il faut maintenir en fonctionnement les deux réseaux; les pertes énergétiques de ces réseaux ne sont pas négligeables…
  • Dans le cas des systèmes 2 tubes – 2 fils : Le coût d’exploitation est certainement le point noir de ce système…

La poutre froide a, elle, comme désavantages :

  • Le coût d’installation est élevé, du moins en rapport à la puissance frigorique fournie.
  • La puissance frigorifique reste limitée par rapport aux systèmes traditionnels. Ou du moins, placer des poutres dans les plafonds risque de générer des problèmes d’inconfort si bien que la densité maximale admissible reste faible.
  • Dans le cas des poutres dynamiques, il est courant de pulser un débit d’air supérieur à celui strictement nécessaire pour assurer l’air neuf hygiénique dans les locaux. Autrement dit, pour assurer la puissance de refroidissement demandée par le local, l’air primaire pulsé passe bien souvent de 1 renouvellement horaire à deux renouvellements. Le débit d’air total brassé est alors de l’ordre de 5 (3 renouvellements d’air secondaire sont induits). Or c’est de l’air neuf qui est ainsi doublé, ce qui va générer une consommation supplémentaire très élevée durant la vie du bâtiment.
  • La poutre dynamique est très semblable à l‘éjecto-convecteur dans son mode de fonctionnement. On peut donc lui faire les mêmes nombreux reproches. Il est d’ailleurs très curieux que l’éjecto-convecteur, écarté du marché, car ne convenant plus aux besoins de souplesse des locaux, revienne aujourd’hui, sous une forme plus complexe encore en matière de maintenance : dans le plafond ! Le prix d’investissement justifie-t-il de refaire les mêmes erreurs ?
  • L’encrassement des poutres demande un entretien régulier, pas toujours aisé lorsqu’on ne souhaite pas interrompre l’activité des personnes.


Choix du régime d’eau

Dans le cas des poutres froides, le circuit est alimenté au régime aller-retour de 15°C – 17°C (on parle d’eau froide), pour limiter les risques de condensation dans l’émetteur. Dans le cas des ventilo-convecteurs par contre, le régime peut être plus bas (6°C-12°C – on parle d’eau glacée).

Choisir une température d’eau glacée la plus haute possible

Plus la température de l’eau glacée est basse, plus l’inconfort des occupants augmente (température d’air très basse). De plus, la consommation des ventilos-convecteurs augmente :
Car la chaleur latente de l’air captée augmente.
En effet, si la température de la boucle d’eau glacée est inférieure à la température de rosée de l’ambiance et l’humidité de l’air se condenseront inutilement.

Il est donc utile de dimensionner les ventilos sur base d’un régime de température élevé. Par exemple : départ 12°C – retour 16°C, départ 12°C – retour 18°C, …

Dimensionner les installations avec un régime 6°C – 12°C va permettre de sélectionner des échangeurs plus petits (delta T° plus élevé par rapport à l’ambiance), donc moins chers à l’investissement, mais nettement plus coûteux à l’usage.

En fait, lorsque le bureau d’études dimensionne au régime 6°C – 12°C, il voit dans le catalogue du fabricant la part de chaleur latente captée par rapport au sensible.

Exemple : la sélection d’un ventilo-convecteur.

Le catalogue d’un fabricant prévoit :

Régime 6/12°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 3,40 kW
Puissance frigorifique sensible : 2,35 kW

On constate que 1,05 kW est consacré à la déshumidification de l’air ambiant, soit 31% de la puissance totale. À ce moment, la consommation de l’appareil est majorée de 31 % !

Voyons pour le régime 12/18 (pour le même appareil) :

Régime 12/18°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 1,58 kW
Puissance frigorifique sensible : 1,58 kW

La déshumidification n’a plus lieu. Mais l’échangeur ne produit plus que 1,58 kW utile… Il faudra augmenter la surface d’échange de 49 % pour atteindre les 2,35 kW du régime 6/12.

On rétorquera que la déshumidification est parfois nécessaire en plein été. Effectivement, mais c’est le rôle du groupe de préparation d’air hygiénique de déshumidifier l’air, avec un contrôle basé sur la sonde de reprise d’air. Le ventilo agit lui sans aucun contrôle. On le voit bien puisque le catalogue part d’une humidité ambiante de 46 %, qui n’est pas à déshumidifier. Le ventilo le fera quand même !

De plus, suite à la condensation sur les ailettes, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.

> Car le rendement (ou COP) de l’installation frigorifique diminue.

Au régime 7°C – 12°C, la température moyenne de l’évaporateur est plus basse qu’au régime 12° – 17°C. Le compresseur a plus de mal à travailler et le COP de l’installation en est légèrement dégradé. En moyenne, on considère que le COP diminue de 3 % par degré d’abaissement de la température d’évaporation.

Si la machine frigorifique alimente à la fois le réseau d’eau glacée et la batterie froide du caisson de traitement d’air (par exemple, au régime 7°C – 12°C), l’impact est plus faible mais l’intérêt de travailler à haut régime de température reste et l’on essayera d’organiser la mise en série hydraulique des batteries.

> Car il est alors possible de récupérer la chaleur captée par l’eau glacée pour préchauffer l’air neuf hygiénique.

Évaluer

Chiffrer l’investissement et le coût d’exploitation pour le régime à haute température.

Problème des locaux à forte chaleur sensible dégagée

Dans les locaux informatiques, par exemple, on n’arrive pas toujours à travailler avec des ventilos alimentés à haute température (12°C – 17°C). La puissance frigorifique délivrée n’est pas toujours suffisante.

Dans ce cas, il est plus intéressant de créer un réseau spécifique pour l’eau du local informatique. On peut y travailler à température plus basse puisque l’air ne contient pas d’humidité (donc pas de consommation par le latent).

De plus, un tel réseau indépendant est souvent adéquat parce que le travail y est réalisé 24h/24 et alimenté sur secours, ce qui implique une gestion autonome.

Généralement, les besoins d’apport d’air neuf sont faibles, la ventilation se fait par transfert d’air venant des couloirs et extraction dans le local.

Possibilité de free-chilling

Les ventilos-convecteurs alimentés par de l’eau froide à « haute température » (régime 12°C – 17°C) pourront valoriser tout particulièrement la technique de free-chilling qui consiste à by-passer le groupe frigorifique et à refroidir directement l’eau de 17 à 12°C par l’air extérieur.

Concevoir

Pour en savoir plus sur la mise en place d’un free-chilling, cliquez ici !

Puisque cette possibilité existe dès que la température extérieure est inférieure à 10°C, cette technique sera particulièrement intéressante si des besoins de refroidissement des locaux existent en période d’hiver.

C’est l’analyse des besoins du bâtiment en fonction de la température extérieure qui devra le dire.


Combinaison avec la ventilation hygiénique

Trois combinaisons entre les émetteurs convectifs et le réseau de ventilation sont possibles :

Contrôle de température et ventilation totalement séparés

Illustration sur le contrôle de température et ventilation totalement séparés

Dans ce cas, air neuf et contrôle de la température sont complètement séparés. L’air est amené par un réseau de ventilation mécanique optimisant les récupérations d’énergie sur l’air extrait et la valorisation du free cooling.

Éventuellement, l’air neuf est traité en centrale pour fournir un apport de chaleur ou de froid « de base » dans les locaux. L’unité terminale sert alors de correction locale. Attention ! Dans ce type de configuration, il existe un risque de destruction d’énergie entre le traitement centralisé et l’unité terminale.

On rencontre cette configuration dans le cas des poutres froides statiques et de la plupart des installations de ventilo-convecteurs.

L’émetteur combiné à la gaine de pulsion d’air

C’est la configuration typique des poutres froides dynamiques, qui utilisent la pulsion d’air hygiénique pour générer un effet d’induction sur l’échangeur de chaleur.

De même, lorsque le ventilo est placé en faux plafond, on a souvent tendance à insérer l’apport d’air neuf dans le plénum constitué par ce faux plafond. Le ventilo aspire un mélange d’air du local et d’air neuf.

Illustration sur l’émetteur combiné à la gaine de pulsion d'air

Un tel système demande la présence d’un organe autorégulant à l’entrée de chaque ventilo pour ne pas perturber le débit lorsque des ventilos voisins se mettent à l’arrêt.

On peut également se demander ce que devient l’apport d’air neuf dans le local lorsqu’il n’y a pas de demande de chaud ou de froid, c’est-à-dire lorsque le ventilateur du ventilo est mis à l’arrêt. En effet, le ventilateur principal n’a, en principe, pas été dimensionné pour vaincre la résistance des batteries du ventilo.

Pour garantir un apport d’air neuf permanent, le ventilateur du ventilo doit fonctionner en permanence, avec une puissance d’environ 60 W.

Une telle configuration sous-entend un préchauffage central minimum de l’air en hiver, puisqu’il est impensable, notamment pour des raisons de condensation, de faire circuler de l’air à – 10°C au travers du bâtiment.

Dans le cas d’un ventilo-convecteur placé en allège, la tuyauterie d’air neuf peut être intégrée dans le faux plafond du local inférieur, ce qui diminue le coût d’investissement.

On retrouve une telle intégration dans les MTA, Modules de Traitement d’Air.

Le ventilo-convecteur équipé d’une prise d’air neuf directe à l’arrière de l’équipement

C’est au départ une solution peu onéreuse car elle ne demande aucun réseau d’air pour la pulsion. En fait, on est face à une ventilation mécanique dont seule l’extraction est gainée.

Ce système n’entraîne aucun conflit entre apport thermique par le ventilo et apport thermique par l’air neuf (pas de destruction d’énergie), mais il interdit aussi toute gestion URE de la ventilation : récupération de chaleur sur l’air extrait et recyclage sont pratiquement impossible.

illustration sur le ventilo-convecteur équipé d'une prise d'air neuf

Quelques difficultés spécifiques à ce système :

  • Il demande une protection vis-à-vis du risque de gel,
  • Il réalise un pont thermique et acoustique avec l’extérieur,
  • Le débit d’air neuf sera mal contrôlé et fonction notamment de la pression du vent sur la façade, ce qui réduit son utilisation aux bâtiments peu élevés,
  • La filtration de l’air neuf est très grossière et insuffisante dans les milieux urbains pollués (filtre gravimétrique),
  • Si l’on veut respecter les critères de confort en plein hiver, elle impose d’intégrer une humidification de l’air dans l’appareil, ce qui est possible mais coûteux (systèmes ultrasoniques) et implique un réseau d’eau dans les locaux, et donc peut être, à terme, des problèmes d’hygiène.


Choix de la performance énergétique des échangeurs

A puissance thermique égale, en vue d’abaisser les coûts et de remporter le marché, le fabricant proposera un matériel plus compact. La qualité de la batterie en souffrira : ailettes plus fines, entraxes des ailettes diminuées, …

Plusieurs conséquences en résultent :

  • La perte de charge (et donc la consommation permanente du ventilateur) est augmentée.
  • Le by-pass factor est diminué, c’est-à-dire que beaucoup d’air rentrera en contact direct avec les ailettes, ce qui renforcera la condensation de l’humidité contenue dans l’air. Là encore, la consommation du ventilo sera inutilement augmentée.
  • Si la condensation augmente, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.
  • Enfin, les fines ailettes seront très sensibles aux chocs et la pose et la maintenance en seront moins aisées.

Si la surface de l’échange est diminuée, le fabricant cherchera à augmenter la vitesse de passage de l’air et donc, dans le cas du ventilo-convecteur la consommation du ventilateur.

Un critère de performance peut donc être de comparer la puissance électrique du ventilo-convecteur à la puissance frigorifique sensible annoncée par le fabricant. Ce rapport doit être le plus faible possible. Pour que cette comparaison soit fiable, il faut cependant que les données constructeurs aient été mesurées suivant les mêmes conditions de fonctionnement. Ce sera le cas, si les appareils comparés sont certifiés « Eurovent ».

Il nous semble également qu’en exigeant une haute performance acoustique, l’on puisse obtenir un maximum de garantie d’une qualité globale du ventilo.

Remarque : si le projet est très important (1 000 ventilos, par exemple), il est alors utile de vérifier les performances annoncées par le constructeur auprès du laboratoire de Thermodynamique de l’ULg, par exemple.


Choix en fonction des critères d’exploitation

Il est utile de penser dès le départ :

  • À l’accessibilité des différents organes pour la maintenance (accès aux filtres, accès aux organes de réglage, facilité de démontage des panneaux d’allège, facilité de nettoyage des batteries et des bacs de condensats,…).
  • Au souhait de pouvoir intervenir hors de la présence des occupants (p.ex., localisation en couloir).
  • Pour les ventilo-convecteurs :
    • Aux qualités des parties mobiles : suspension du moteur, résistance à l’échauffement, …
    • A la tenue aux vibrations : usure du supportage, tenue des raccordements hydrauliques, étanchéité des flexibles, …
    • A la résistance des ailettes (déformations, chocs, …).

Choix de la régulation des productions de chaleur et de froid

Deux situations vont se présenter : si le bâtiment est homogène dans ses besoins, un seul réseau d’eau sera prévu et on choisira de l’alimenter en eau chaude en hiver et en eau glacée en été. C’est évidemment une solution très bon marché, mais c’est également la moins souple. Par exemple, la façade Sud est alimentée de la même manière que la façade Nord…

Si on souhaite alimenter différemment chacune des façades, ou même alimenter séparément la salle de réunion, on peut décomposer le bâtiment en différentes zones, et faire fonctionner simultanément le réseau d’eau chaude et le réseau d’eau glacée. Chaque zone utilisera le réseau qui lui convient en fonction des besoins du local.

C’est donc le bureau d’études qui va définir en accord avec l’architecte du degré de souplesse désiré pour les utilisateurs. Le coût de l’installation est directement lié à cette souplesse de fonctionnement.

Une alternative est de passer à une solution 4 tubes.

A signaler les critères énergétiques de qualité

  • l’adaptation possible dans certains cas de la température de départ de la boucle d’eau glacée,
  • la régulation de la température de départ de la boucle d’eau chaude,
  • un basculement froid/chaud (« change over ») avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Il est également possible d’installer une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale. La rentabilité d’une telle opération doit être étudiée. L’investissement est limité puisque c’est la même machine frigorifique qui devient pompe à chaleur. Toute la difficulté réside dans l’estimation de la performance saisonnière de la PAC et si cette valeur permet de compenser le coût plus important de l’énergie électrique. Si une source froide est possible (lac, rivière, forage, …), cette opération est fort intéressante.

La régulation optimale de la boucle d’eau glacée

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à un régime constant du type aller 6° – retour 11°, mais il y a là un potentiel d’énergie à récupérer : dans certains cas l’on peut faire varier ce régime de température et travailler à température plus élevée. La consommation du compresseur en sera diminuée d’autant !

Améliorer

Pour en savoir plus sur l’amélioration de la machine frigorifique, cliquez ici !

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace (ce n’est pas une économie d’énergie mais plutôt une économie financière résultant de la gestion de la pointe quart-horaire).

Améliorer

Pour en savoir plus sura mise en place d’un stockage d’énergie frigorifique, cliquez ici !

La régulation optimale de la boucle d’eau chaude

La production de chaleur se fait, par exemple, par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

Lorsque l’occupation du bâtiment permet d’imaginer que des besoins de chaleur et de froid pourront coexister, la production de chaleur peut alors être assurée par une machine frigorifique dont on récupère la chaleur au condenseur.  A ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer ! L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir. Une chaudière d’appoint reste nécessaire pour vaincre la pointe hivernale. C’est une possibilité à étudier lorsque les bâtiments sont constitués de larges plateaux : on peut penser qu’il faudra refroidir le cœur pour chauffer les bureaux périphériques.

Gestion des bâtiments de la Ville de Mons

Tous les gestionnaires que nous avons pu rencontrer et ayant fait le choix d’une GTC sont satisfaits et, à refaire, referaient le même investissement vu la facilité de la maintenance et les économies d’énergie réalisées.

Le Fonds des bâtiments scolaires de la Communauté Française gère ainsi avec satisfaction ses bâtiments scolaires des provinces de Namur, de Liège et du Brabant wallon (depuis plus de 20 ans). La commune de La Louvière étend progressivement son réseau aux différents bâtiments communaux …

Pour être concret, voici l’expérience de Monsieur Michel De Smet, responsable de l’électromécanique de la ville de Mons. Déjà en 1995 la GTC avait montré son efficacité. C’est encore le cas aujourd’hui en 2016.

« Nous gérons près de 160 bâtiments, c’est-à-dire environ 120 chaufferies sur l’ensemble du territoire communal.  Le service chauffage occupe 6 chauffagistes et 1 contremaître.

Nous disposons d’un système de télégestion couvrant actuellement 35 bâtiments de la Ville de Mons et nous en sommes très satisfaits. D’autres raccordements sont prévus.

Nous avons été favorisés par l’existence de plusieurs régulateurs d’une même marque déjà en place dans les chaufferies, ce qui nous a permis de n’investir que dans :

  • le câblage des contacts d’alarme,
  • le placement de l’interface,
  • le placement de la ligne téléphonique.

Les interventions sont réalisées par nos services internes.

Nous avons raccordé prioritairement les chaufferies :

  • facilement adaptables (régulateur compatible),
  • importantes en volume de bâtiment chauffé,
  • les plus éloignées du centre de Mons (parfois l5 ..20 km).

Nous avons démarré avec une installation « pilote » pour tester le logiciel et nous tester.

En fait, c’est la mise en service d’un régulateur qui demande du temps, car nous analysons son fonctionnement (sur base d’historiques et nous ajustons les paramètres). Nous avons ainsi pu détecter bon nombre d’anomalies, de sondes qui ne fonctionnaient pas correctement, de sondes dont le raccordement était inversé (sonde 1 sur circuit 2 et inversement, …).

La plus grande économie provient de ce qu’on a pu supprimer beaucoup de dérogations locales : l’utilisateur mettait l’installation en fonctionnement continu … et oubliait de la reprogrammer. À présent, il doit nous téléphoner pour que nous puissions programmer le chauffage, en vue d’une réunion le soir ou d’une fête le samedi.

Cette adaptation a suscité quelques réactions (il n’est pas facile de passer de 23°C à 21 °C !) mais le pli est pris.

Nous découvrons également des problèmes hydrauliques (déséquilibrages d’installation, insuffisance de certains circulateurs, …) maintenant que notre gestion est plus fine.

Une sauvegarde des paramètres de réglage est possible, si bien qu’après le test d’une nouvelle solution jugée inadéquate, nous pouvons toujours revenir aux anciens paramètres.

Après cette phase de mise en service, les interventions sont rares. Si les personnes se plaignent, c’est que très souvent il y a eu une modification physique locale : nouveau percolateur placé sous une sonde, affiche collée sur une sonde, …

La suppression progressive des conciergeries nous posait problème; à présent, l’alarme antigel automatique nous protège de tout risque.

L’interprétation correcte d’une alarme demande une connaissance physique de l’hydraulique de l’installation ! Ici, au bureau, nous connaissons nos bâtiments.

Un gros bâtiment, sous contrat avec une société de maintenance, a été également raccordé sous télégestion. Cela nous a permis de mieux contrôler leur travail.

Nous connaissons l’emploi du temps de nos ouvriers (entre le temps de déclenchement de l’alarme et de remise en ordre de l’installation). Et plus question de mettre l’installation en dérogation à défaut d’avoir trouvé la panne.

Notre charge au bureau a augmenté puisque nous reprenons une part de la résolution du problème, mais globalement le travail est beaucoup plus efficace.

Nous n’avons pas de contrat de maintenance avec la société de régulation, mais elle répond à nos questions si nécessaire.

Nous constatons une chute assez significative des consommations. Un bilan précis a été établi en fonction des degrés-jours à l’aide d’un tableur Excel dont voici ci-dessous deux extraits. L’année de la mise en service du nouveau système de régulation et de télégestion apparaît au premier coup d’œil ! »

École communale – rue du rossignol.

Groupe scolaire Limoges-Festinov.

Rénover partiellement ou complètement l’installation ?

Rénover partiellement ou complètement l'installation ?


Avant tout définir ses objectifs

Diminuer les consommations On cherche d’une part à diminuer la puissance installée tout en garantissant un éclairement suffisant. Le choix se portera sur le type d’éclairage et sur le matériel (lampe, luminaire, ballast) ayant la meilleure efficacité énergétique. D’autre part, la fourniture d’éclairage sera adaptée aux besoins réels en fonction de l’occupation et de l’apport en éclairage naturel.
Diminuer le coût d’entretien Les performances des lampes et luminaires doivent rester valables le plus longtemps possible. Le choix des lampes à longue durée de vie est une chose mais il faut que le luminaire garantisse les performances dans le temps (c’est crucial en éclairage extérieur). De plus, un entretien rapide peut être exigé afin de diminuer les coûts importants liés à la main-d’œuvre.
Améliorer le confort et la sécurité des occupants Le confort traduit la sensation de bien-être et donne à un aménagement son aspect convivial ou purement fonctionnel. Le choix et l’implantation des luminaires sont les facteurs principaux qui agissent sur le confort visuel ; mais il ne faut pas écarter la couleur de la lumière émise, le niveau d’éclairement et la couleur des parois.

Si l’objectif de la rénovation est l’amélioration d’un confort lumineux, il est possible que les consommations électriques ne diminuent pas suite à la rénovation.

La puissance installée peut rester sensiblement identique mais la meilleure efficacité des lampes ou des luminaires et un emplacement plus adéquat de ces derniers permettra d’atteindre le niveau d’éclairement recommandé et d’éliminer les problèmes de réflexions, d’ombres ou d’éblouissement.

En fonction du type de local, les choix technologiques liés à la rénovation seront guidés par les priorités suivantes :


Se donner les moyens : rénovation complète ou rénovation partielle ?

Le choix entre ces deux modes de rénovation résulte d’un compromis entre le coût d’investissement, l’économie escomptée et l’amélioration du confort.

Rénovation partielle : remplacer les organes énergivores

Il s’agit de remplacer les éléments peu performants : soit les lampes, soit les ballasts, soit les optiques sans trop « toucher » à l’installation existante. En d’autres termes, tant que l’on ne démonte pas les luminaires, leurs câbles d’alimentation, leur commande/gestion, la rénovation peut être considérée comme partielle.

En ce qui concerne le remplacement des lampes, ce mode de rénovation est peu onéreux et rapide. Cependant, il n’est pas forcément le plus rentable. Il ne permet pas de prendre en compte tous les critères d’un éclairage de qualité (consommation minimum et confort maximum). De plus, pour certaines sources lumineuses comme les LED, la photométrie de la lampe n’est pas nécessairement adaptée au luminaire.  Par exemple, le remplacement d’un tube fluorescent par un tube LED, indépendamment d’une efficacité lumineuse controversée, ne garantit aucunement la même distribution du flux lumineux que l’ancien luminaire. C’est sans compter que le tube LED risque aussi de rendre les ailettes de défilement inefficaces et, par conséquent, de générer un éblouissement non négligeable. Enfin, actuellement, le placement d’un tube LED dans un luminaire existant (originalement prévu pour lampe fluorescente) a comme conséquence que les marquages ENEC  et CE ne sont plus valables.

Donc attention et prudence ! A prendre au cas par cas.

Une installation d’éclairage professionnelle nécessite une solution professionnelle.

Le remplacement des ballasts, des optiques, …, n’est pas nécessairement un gage de « success story » ; du moins pour les rénovations dans des bâtiments de faible taille. Cette opération demande souvent une main d’œuvre non négligeable qui annihile la rentabilité escomptée.

Pour les bâtiments de grande taille où les installations d’éclairage sont proches ou semblables, le « relighting » peut être envisagé. Il est impératif de s’adresser à des bureaux d’étude spécialisés ou directement à des fabricants capables de proposer une solution sur mesure.

Par exemple, un fabricant pourra proposer de remplacer des luminaires à tube fluorescent d’ancienne génération par une platine entièrement équipée :

  • du tube type T5 ;
  • du ballast électronique « dimmable » ou pas ;
  • du pré câblage.

Seule la connexion en la platine et l’alimentation dans le luminaire est à réaliser ; donc peu de main d’œuvre nécessaire.

Remarque : en éclairage extérieur, remplacer seulement une partie des luminaires (lampe, optique ou ballast) s’applique très peu.  En effet, les réflecteurs des luminaires extérieurs sont généralement conçus pour une position bien précise du brûleur de la lampe. Un changement de lampe peut donc réduire le rendement du luminaire. De plus, les anciennes installations ne présentent plus nécessairement les qualités requises en matière de sécurité électrique, d’étanchéité et de rendement.


Rénovation complète

Le remplacement complet des luminaires est plus onéreux, mais conduit généralement à une plus grande économie d’énergie. Il permet d’élargir la sélection des appareils et de réaliser des choix mieux adaptés aux besoins.
Des contraintes subsistent toutefois :

  • Si on modifie le faux plafond, tout est permis ou presque.
  • Si on ne peut modifier le plafond, le nombre de luminaires, leur dimension et leur forme sont souvent figés figés (éventuellement une « carrosserie » adaptée sur mesure à prévoir en fonction des ouvertures existantes).
  • Si on peut modifier le réseau électrique, l’insertion de commandes/gestions supplémentaires permet de prendre en compte des besoins locaux différents.
    Note : Il existe des systèmes de gestion qui ne nécessitent pas de câblage supplémentaire  (gestion par luminaire, interrupteurs infra-rouge…).

Concevoir

Pour savoir comment concevoir un nouveau projet d’éclairage.

Calculs

Divers programmes de calcul permettent une comparaison économique sommaire des différentes possibilités de rénovation.

Découvrez ces exemples de « relighting » : les cours de tennis du tennis club de Waterloo, la rénovation de l’ILV, le bâtiment principal du CSTC à Limelette et deux locaux (bureaux) au CSTC.

Choisir la couche isolante dans le versant du toit

  1. Lattes
  2. Contre-lattes
  3. Sous-toiture
  4. Isolant
  5. Charpente
  6. Pare-vapeur
  7. Finition du plafond

Suivant que l’isolation est extérieure (ou intérieure avec sous-toiture) ou intérieure sans sous-toiture, le type d’isolant et sa mise en œuvre seront différents.


Le  type de pose

Le choix du type d’isolant dépend de la façon dont on souhaite la placer, en d’autres mots, du modèle d’isolation. Les caractéristiques de chaque type d’isolant (rigidité, résistance mécanique, comportement à l’eau, etc.) font qu’il est mieux adapté à tel ou tel modèle d’isolation.

Ainsi, les isolants les mieux adaptés aux différents modèles d’isolation sont les suivants :

Isolation entre chevrons ou fermettes

  1. couverture
  2. contre-lattes
  3. lattes
  4. sous-toiture
  5. fermettes
  6. isolant
  7. pare-vapeur
  8. finition intérieure

Isolation au-dessus de la charpente
(méthode sarking)

  1. couverture
  2. contre-lattes
  3. lattes
  4. sous-toiture
  5. isolant
  6. pare-vapeur
  7. chevrons ou fermettes
  8. panne
  • panneaux de mousse synthétique,
  • plaque de verre cellulaire (sur plancher),
  • laine minérale rigide (sur plancher),
  • panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …)

Isolation par éléments auto-portants

  1. couverture
  2. languette d’assemblage
  3. lattes
  4. panneau de toiture préfabriqué
  5. raidisseur du panneau
  6. isolant du panneau
  7. pare-vapeur intégré éventuel
  8. plaque inférieure du panneau
  9. panne

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait. La valeur de calcul de la conductivité thermique (λU) d’un isolant possédant ce type d’agrément est connue avec précision. Il est certifié par le fabricant. Il est régulièrement vérifié par des essais. Il peut être utilisé pour calculer les performances de la paroi à la place des coefficients moins favorables tabulées dans les normes (Annexe B1 de la PEB).

Le choix du matériau isolant se fait en fonction des critères ci-dessous

  • l’efficacité isolante,
  • la compatibilité avec le support,
  • le comportement au feu,
  • le prix.

C’est au concepteur de choisir ceux qui sont prioritaires.


L’efficacité isolante à atteindre

La valeur isolante du matériau dépend de son coefficient de conductivité thermique λ. Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

Le choix l’épaisseur d’isolant doit donc se réaliser en fonction de la performance thermique à atteindre.

Exemple d’épaisseur calculée d’isolant

Remarque : les calculs ci-dessous sont faits avec l’hypothèse que la toiture est étanche à l’air. Dans le cas contraire, en pratique, les mêmes épaisseurs d’isolant peuvent mener à une valeur U 2,5 fois plus élevée que celle prévue.

Pour assurer l’étanchéité à l’air, il est préférable que la toiture soit équipée d’une sous-toiture. Si elle est rigide, la sous-toiture permet de garantir le contact entre elle et l’isolant et ainsi assurer une meilleure étanchéité à l’air.

Enfin, toujours pour éviter les infiltrations d’air, il est nécessaire de prévoir un écran étanche à l’air, car le plafond n’est pas rendu étanche par sa finition (lambris, planchettes, plaques de plâtres,…)

Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

1/U = [1/hi + d1/λ1 + d2/λ2 + … + di/λi + Ru + 1/he]

d’où :

di = λi [(1/U) – (1/hi+ d1/λ1 + d2/λ2 + … + Ra + 1/he)]

Exemple.

Le tableau ci-dessous donne les résultats des calculs pour une configuration de toiture avec sous-toiture.

Dans les calculs, l’espace entre les éléments de couverture et la sous-toiture est considéré comme une couche d’air très ventilée.

Données concernant les différentes couches (de l’intérieur vers l’extérieur) :

  1. plaques de plâtre, 9 mm,   = 0,35 W/(mxK);
  2. gaine technique : vide non ventilé de 2 cm –> Ra = 0,17 m²K/W;
  3. isolant : MW :   = 0,041 W/(mxK); EPS :   = 0,040 W/(mxK); PUR :   = 0,028 W/(mxK); XPS :   = 0,034 W/(mxK);
  4. sous-toiture cellulose-ciment, 5 mm, = 0,23 W/(mxK).

(Valeurs extraites de la NBN B 62-002/A1)

On a donc pour U = 0,3 et :λi = 0,04

di = λi [(1/U) – (1/HI + d1/λ1 +Ra + d2/λ2 + 1/HI)]

di = 0,04[(1/0,3) – (1/8 + 0,009/0,35 + 0,17 + 0,005/0,23 + 1/8)]

di = 0,114 m

Valeur U sans isolation [W/(m²xK)] Épaisseur (en mm) d’isolant nécessaire pour obtenir :
U < 0,3 W/(m²xK)
MW, EPS PUR XPS
2,1 > 115 > 80 > 100

Calculs

Si vous voulez estimer le coefficient de transmission thermique d’une toiture à partir des différentes épaisseurs de matériaux.

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante lorsque celle-ci existe. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.

La formule devient alors :

di = λi ((1/ U) – (1/he + 1/hi) [m]

Pour U = 0,3 W/m²K,

di =λi ((1/ 0,3) – (1/23 + 1/8 )) m
=λi x 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λi.

L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR), son  i vaut 0.028 W/mK (suivant NBN B 62-002/A1)

di = 0.028 x 3.16 = 0.088 m

L’épaisseur commerciale : 90 mm

Calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant.

Les isolants minces réfléchissants ont fait l’objet d’une polémique importante ces dernières années.

 

Qu’en penser ? Nous reproduisons en annexe le compte-rendu détaillé de l’étude du CSTC à ce sujet, étude confirmée par plusieurs études scientifiques dans divers pays européens. L’affirmation des fabricants d’un équivalent de 20 cm de laine minérale est fantaisiste. Dans le meilleur des cas un équivalent de 4 à 6 cm peut être obtenu, ce qui est insuffisant.

Si ce produit connaît malgré tout un certain succès commercial, c’est parce que sa pose est très rapide (agrafage sous pression), donc intérêt de l’entrepreneur qui en fait la publicité, et que le produit se présente en grandes bandes continues, assurant une très grande étanchéité au passage de l’air, donc impression d’une certaine qualité pour l’occupant.

Si on souhaite les associer à un isolant traditionnel, leur faible perméabilité intrinsèque à la vapeur d’eau les prédispose naturellement à être utilisés comme pare-vapeur (pose du côté chaud) et non comme sous-toiture (risque de condensation en sous-face).


La compatibilité avec d’autres matériaux

Certains isolants sont incompatibles avec d’autres éléments de la toiture en contact avec l’isolant.

Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.


La tenue au feu

Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.

La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant, les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.


L’impact écologique

Les différents matériaux isolants n’ont pas tous le même impact sur l’environnement. Pour limiter cet impact, on choisira de préférence un isolant « écologique ».

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant, mais aussi de sa mise en œuvre.

En toiture inclinée, l’isolant de bonne qualité, correctement posé et protégé des agressions extérieures, ne nécessite aucun entretien et sa durée de vie ne pose pas de problème particulier.

Mais toute vie a une fin. Il faut donc être attentif au coût de son remplacement en fin de vie, dont le coût de mise en décharge. Dans le futur, celui-ci risque de croître, notamment pour les mousses synthétiques.


Les conseils généraux de mise en œuvre de la couche isolante

> L’isolant doit être placé sur toute la surface de la toiture sans oublier les éventuelles parties verticales ossature-bois, les joues des lucarnes, etc.

> Les joints entre les éléments suivants doivent être bien fermés :

  • entre les différents panneaux isolants,
  • entre les panneaux isolants et la charpente.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

> Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé.
Par exemple :

  • L’isolant de la toiture doit être en contact avec l’isolant des murs extérieurs dans le cas d’une échelle de corniche, les espaces libres doivent être remplis d’isolant.
  • Il doit être dans le prolongement et en contact avec le dormant du châssis muni d’un vitrage isolant.
  • Il doit être en contact avec l’isolant autour du conduit de cheminée.

> Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.

> Il faut protéger et manipuler les panneaux isolants avec précautions pour éviter les écrasements, les déchirures, l’eau, la boue.