Moteur synchrone

Moteur synchrone


 

Généralité

Le moteur synchrone est aussi un moteur utilisé pour la motorisation des ascenseurs. Ces dernières années ont vu ce type de moteur revenir en force parallèlement au développement des variateurs de vitesse.


Principe de fonctionnement

Le moteur synchrone se compose, comme le moteur asynchrone, d’un stator et d’un rotor séparés par un entrefer. La seule différence se situe au niveau de la conception du rotor. La figure ci-dessous montre un rotor à pôles saillants constitués d’aimants permanents ou d’électro-aimants alimentés en courant continu.

Schéma principe de fonctionnement.

Après le démarrage, le moteur tourne en synchronisme avec le champ tournant. A vide les axes des pôles du champ tournant et du rotor sont confondus. En charge, les axes sont légèrement décalés. La vitesse du moteur synchrone est constante quelle que soit la charge. On notera aussi que :

  • La charge (le système d’ascenseur) ne doit pas dépasser l’effort de démarrage entre le rotor et le champ tournant.
  • Le couple moteur est proportionnel à la tension à ses bornes.

Caractéristiques

Les avantages et inconvénients du moteur synchrone sont repris ci-dessous :

(+)

  • il peut travailler avec un facteur de puissance proche de 1 (cos φ~ 1). Il contribue donc à redresser le cos φglobal de l’installation électrique.
  • la vitesse du moteur est constante quelle que soit la charge (intéressant dans le cas des ascenseurs).
  • Il peut supporter des chutes de tension important sans décrocher.

(-)

  • S’il n’est pas associé à un variateur de vitesse, il a des difficultés à démarrer.
  • il peut décrocher en cas de forte charge (pas intéressant au niveau des ascenseurs nécessitant un couple important).


Le stator

Le stator d’un moteur triphasé (le plus courant en moyenne et grosse puissance), comme son nom l’indique, est la partie statique du moteur synchrone. Il s’apparente fort au stator des moteurs asynchrone. Il se compose principalement :

  • de la carcasse,
  • des palier,
  • des flasques de palier,
  • du ventilateur refroidissant le moteur,
  • le capot protégeant le ventilateur.

   

Stator.

L’intérieur du stator comprend essentiellement :

  • un noyau en fer feuilleté de manière à canaliser le flux magnétique,
  • les enroulements (ou bobinage en cuivre) des trois phases logés dans les encoches du noyau.

Dans un moteur triphasé les enroulements sont au nombre minimum de trois décalés l’un de l’autre de 120° comme le montre le schéma ci-dessous.

Variation de la vitesse en fonction du nombre de paires de pôles.

Lorsque les enroulements du stator sont parcourus par un courant triphasé, ceux-ci produisent un champs magnétique tournant à la vitesse de synchronisme. La vitesse de synchronisme est fonction de la fréquence du réseau d’alimentation (50 Hz en Europe) et du nombre de paire de pôles. Vu que la fréquence est fixe, la vitesse du moteur peut varier en fonction du nombre de paires de pôles.

Paires de pôles 1 2 3 4 6
Nombre de pôles 2 4 6 8 12
n0 [tr/min] 3 000 1 500 1 000 750 500


Le rotor

Le rotor est la partie mobile du moteur synchrone. Couplé mécaniquement à un treuil d’ascenseur par exemple, il va créer un couple moteur capable de fournir un travail de montée et de descente de la cabine d’ascenseur. Il se compose essentiellement d’une succession de pôles Nord et Sud intercalés sous forme d’aimants permanents ou de bobines d’exitation parcourues par un courant continu. On distingue donc deux types de moteurs :

  • à aimants permanents,
  • à rotor bobinés.

Rotor à aimant permanent

Ce sont des moteurs qui peuvent accepter des courants de surcharge importants pour démarrer rapidement. Associés à des variateurs de vitesse électronique, ils trouvent leur place dans certaines applications de motorisation d’ascenseurs lorsque l’on cherche une certaine compacité et une accélération rapide (immeuble de grande hauteur par exemple).

Rotor bobiné

Ce type de machines est réversible car elles peuvent fonctionner en régime moteur comme en régime alternateur. Pour les moyennes et grosses puissances, les moteurs synchrones à rotor bobiné, associé avec un variateur de vitesse, sont des machines performantes.

Comme le montre la figure ci-dessous, le rotor est composé d’un empilement de disques ferro-magnétiques. Comme dans le stator du moteur, des enroulements sont logés dans des encoches pratiquées sur le rotor et reliés électriquement aux bagues de bout d’arbre. L’alimentation en courant continu s’effectue via l’ensemble bagues-balais.

Photo rotor bobiné.


Pilotage de la vitesse de rotation

Le pilotage de la vitesse de rotation du moteur synchrone est essentiel pour beaucoup d’applications.

La relation suivante permet de cerner quels sont les paramètres qui peuvent influencer la vitesse de rotation.
On a :

n0 =  n

Avec,

  • n0 = vitesse du champ tournant [tr/min].
  • n = la vitesse de rotation de l’arbre du moteur [tr/min].

Ou :

n =   f / p

Avec,

  • f = fréquence du réseau [Hz].
  • p = le nombre de paires de pôles du stator.

On peut donc piloter la vitesse de rotation en intervenant sur :

  • le nombre de paires de pôles (moteur à nombre de pôles variable),
  • la fréquence du réseau.

Régulation de fréquence

À l’heure actuelle, le pilotage de la vitesse des moteurs synchrones se fait électroniquement grâce à des variateurs de vitesse. Pour cette raison, on ne parlera ici que du contrôle de la fréquence qui de loin la plus courante. Vu la nécessite pour un moteur synchrone d’être démarré avec un système auxiliaire (le rotor ne peut pas « accrocher » un champ tournant statorique trop rapide de 3 000 [tr/min]), le variateur de fréquence associé au moteur synchrone permet de le démarrer avec une fréquence statorique faible voire nulle.

Sans perte de puissance, on peut piloter la vitesse de rotation du moteur en faisant varier la fréquence et la tension car la vitesse de rotation du champ tournant au niveau du stator change.

A remarquer que le couple d’un moteur synchrone ne change pas en fonction de la vitesse puisqu’il n’y a pas de glissement.

Variation de la vitesse à couple constant (moteur synchrone).

Le pilotage du moteur synchrone par un variateur de fréquence montre des intérêts certains; à savoir principalement :

  • La limitation du courant de démarrage (de l’ordre de 1,5 fois le courant nominal),
  • Un couple constant quelle que soit la vitesse du moteur.

 

Oxydation des accessoires de toiture

Oxydation des accessoires de toiture

Les causes principales qui accélèrent l’oxydation des accessoires de toiture métalliques sont


La production d’acide par les membranes bitumineuses

Sous l’action des rayonnements UV, les bitumes produisent de l’acide. Cet acide peut être fortement concentré lorsque la quantité d’eau présente sur la toiture est faible (rosée matinale en zone rurale avec faible écoulement). Lorsque cet acide atteint les accessoires ou évacuations en métal, il provoque une corrosion rapide de ceux-ci.

Le contact entre le bitume et le métal ne pose pas de problème, c’est l’acide généré sur la surface bitumineuse qui en coulant sur le métal provoque sa corrosion.

Les causes de ce phénomène ne sont pas encore connues avec certitude, mais le processus semble être inversement proportionnel à la qualité de la protection UV de l’étanchéité.

Il convient donc pour éviter les dégâts de protéger efficacement la membrane d’étanchéité bitumineuse contre les rayonnements UV. Si la membrane n’est pas protégée parce que ce n’est pas nécessaire (membranes APP), il faut utiliser des accessoires avals en matières synthétiques ou, lorsqu’ils sont métalliques, protéger ceux-ci par à l’aide d’un enduit adapté entretenu régulièrement.


Les couples galvaniques

La combinaison de différents métaux peut engendrer un risque de corrosion du métal le moins noble du couple galvanique et ce, d’autant plus que les métaux du couple sont éloignés sur l’échelle des potentiels galvaniques.

Il convient donc d’éviter de mettre en contact direct deux métaux de potentiels galvaniques très différents ou d’utiliser un métal moins noble en aval d’un métal dont le potentiel galvanique est plus élevé.

En pratique on évitera de mettre en contact, le cuivre avec le zinc, l’acier, l’acier galvanisé ou l’aluminium, ou de le placer en amont de ceux-ci.

Le contact direct peut être évité en plaçant entre les deux métaux une couche de désolidarisation durable.


Les dépôts de matières organiques

La décomposition des matières organiques produit de l’acide.
Lorsque des dépôts de feuilles, branchages, algues ou mousses maintiennent une humidité acide permanente contre le métal des accessoires, celui-ci se corrode.

Un nettoyage régulier de la toiture, surtout s’il y a des arbres à proximité, s’avère utile.

Les zones de stagnation doivent être évitées à proximité des accessoires métalliques.


La pollution

En zone industrielle on constate une corrosion plus rapide des accessoires métalliques.
Elle est due aux fumées acides.

La corrosion est plus importante à proximité des cheminées.


Echelle des potentiels galvaniques de certains métaux utilisés dans le bâtiment

Métaux plus nobles Acier inoxydable
Brasure à l’argent
Cuivre
Plomb
Brasure plomb-étain
Fonte
Acier / Fer
Aluminium
Métaux moins nobles Zinc

Eclairage direct

Eclairage direct

La lumière est projetée directement du luminaire vers la surface de travail.

Avantages

La lumière n’est pas réfléchie avant d’atteindre la tâche à éclairer. Le rendement est donc meilleur que celui d’un système comprenant une partie indirecte.

Inconvénients

Il existe un risque d’éblouissement et de contraste entre des zones sombres (par exemple le plafond) et des zones lumineuses. Dans le but de réduire l’éblouissement direct, on placera, par exemple, des  ventelles de défilement.

Lampes aux halogénures métalliques

Lampes aux halogénures métalliques


Comment fonctionne une lampe aux halogénures métalliques ?

La lampe aux iodures métalliques fait partie des lampes à décharge. Son principe de fonctionnement est donc identique.

Pour certaines lampes, l’ensemble amorceur, ballast conventionnel et condensateur peut être remplacé par un ballast électronique.

Particularités

L’ampoule contient de la vapeur de mercure haute pression dans laquelle on a ajouté des halogénures métalliques. Suivant le fabricant, les iodures métalliques sont différents (dysprosium, scandium, sodium, tallium, indium, etc.). La température de couleur dépend des iodures métalliques présents.

Schéma principe lampe aux halogénures métalliques.

La lumière est émise, en majeure partie sous forme de rayonnements visibles, mais une petite partie est émise sous forme de rayonnements ultraviolets invisibles. Dans les lampes ellipsoïdes, on tente de récupérer ces rayons en tapissant la paroi intérieure de l’ampoule d’une poudre qui absorbe les U.V. et les transforme en rayons visibles de couleur chaude, de manière à obtenir une couleur globale moins froide. Cette poudre rend l’ampoule opaline.

Remarque.
Certaines lampes particulières ont un starter incorporé. Elles s’utilisent alors bien sûr sans amorceur.


Caractéristiques générales

Technologies quartz et céramique

Les premières générations de lampe à halogénure métallique ont fait appel à un brûleur quartz. Cette technologie est tout doucement remplacée par la céramique qui :

  • supporte mieux les plus hautes températures permettant une miniaturisation des lampes ;
  • est moins sensible à la corrosion des halogénures métalliques ;
  • est moins poreux aux éléments de remplissage ;
  • améliore l’efficacité lumineuse et le rendu de couleur.

Comment les reconnaître ?

Lampe ovoïde de puissance élevée (250 - 400 W). Lampe ovoïde de puissance élevée (250 – 400 W) équipée :

  • d’un tube à décharge au quartz,
  • d’un culot standard.
Lampe tubulaire de puissance élevée (250 - 2 000 W). Lampe tubulaire de puissance élevée (250 – 2 000 W) transparente équipée :

  • d’un tube à décharge au quartz,
  • d’un culot standard.
Lampe compacte (70 - 150 W). Lampe compacte (70 – 150 W) équipée d’un brûleur céramique.
Lampe compact (35 -150 W). Lampe compact (35 -150 W) équipée d’un brûleur céramique.
Lampe (35 - 70 W). Lampe (35 – 70 W) équipée d’un brûleur céramique à culot standard.

Avantage et inconvénient

  • Elles ont un flux lumineux élevé et un bon rendement.
  • Pour certaines applications (dans les bureaux par exemple), il faut une protection contre les U.V. Cette protection peut se faire soit au niveau de la lampe, soit au niveau du luminaire.
  • Il existe des lampes aux iodures métalliques qui peuvent être utilisées en remplacement direct des lampes au sodium haute pression. Il suffit de changer l’ampoule, il ne faut aucune modification de ballast, d’armature ou de câblage.
  • Suivant le type d’halogénures présent dans la lampe, les caractéristiques électriques sont différentes, ce qui ne rend pas ces lampes toutes interchangeables.
  • Les lampes aux halogénures métalliques ne sont pas stables dans le temps. Dans le brûleur (ou tube à arc), il y a des poudres stabilisantes, mais le brûleur classique est en quartz et ces poudres s’échappent, ce qui explique que la couleur de ces lampes peut devenir bleue ou rose après un certain temps.
  • Certains fabricants ont remplacé le brûleur en quartz des lampes aux halogénures métalliques par un brûleur en céramique du même type que celui des lampes sodium haute pression. La couleur de la lampe est alors stable dans le temps, de plus son efficacité lumineuse ainsi que son IRC sont légèrement améliorés.
    Cependant, ces lampes n’existent pas encore dans la gamme des grandes puissances (> 150 W).
  • Elles ont une position de fonctionnement bien déterminée.
  • À l’allumage, le flux lumineux nominal n’est atteint qu’après plusieurs minutes et après extinction, le réamorçage ne peut se faire qu’après une dizaine de minutes. Utilisées avec un ballast électronique à allumage à chaud pour lampes aux iodures métalliques, le réamorçage est immédiat en cas d’extinction. Mais ces ballasts n’existent que pour de faibles puissances.
  • De même, certains modèles particuliers permettent un réamorçage immédiat. Ces lampes couvrent toute la gamme de puissance. Néanmoins, elles doivent être utilisées avec des accessoires adéquats : l’amorceur doit procurer une tension très élevée pour permettre cet allumage instantané.
  • Ces lampes peuvent exploser,  il faut donc les utiliser avec une glace de protection sauf pour les modèles spéciaux qui possèdent un revêtement extérieur en téflon qui les protège contre l’éclatement et qui permet de les utiliser dans des luminaires ouverts.

Données

Pour connaitre les caractéristiques des lampes aux halogénures métalliques.

Données

Pour consulter un récapitulatif des caractéristiques des différents types de lampe.
Distribution d'air

Améliorer le réseau de distribution d’air

Distribution d'air

Suppression des fuites

L’étanchéité des réseaux de ventilation existants est réputée comme étant très mauvaise. Il est cependant très difficile de procéder à l’étanchéification (bandes adhésives, mastic, …) de tout un réseau, même si celui-ci est apparent. Tout au plus peut-on remédier aux plus grosses fuites.

   

La solution est le remplacement complet des conduits de distribution rectangulaire par des conduits circulaires à double joint aux raccords.

Étanchéité des conduits de ventilation dans le bâtiment PROBE du CSTC  :

1.

Situation initiale (conduits rectangulaires).

2 à 5.

Étanchéifications successives par bandes adhésives.

6.

Remplacement des conduits rectangulaires par des conduits circulaires à double joints aux raccords.


Équilibrage de l’installation

Tout enfant trouve plaisir à boucher de son doigt un jet d’une fontaine : la pression monte dans le réseau et tous les autres jets sont augmentés !

Il en est de même pour Josiane, la secrétaire, qui prétextant « un horrible courant d’air », a scotché sa grille de ventilation, doublant ainsi le débit chez sa voisine !

Équilibrer une installation, c’est assurer dans chaque local le débit d’air nécessaire. Ni plus, ni moins. Par souci de confort et d’économie d’énergie.

Cette opération est normalement effectuée par l’installateur avant la réception des travaux, pour ajuster les débits aux valeurs prévues par le bureau d’études. Mais une mise au point ultérieure par le gestionnaire est parfois nécessaire en fonction de l’occupation effective du bâtiment.

L’équilibrage est réalisé dans les conditions normales de fonctionnement, soit

  • Avec portes intérieures fermées, sauf si l’usage courant les destine à rester ouvertes,
  • avec portes et fenêtres extérieures fermées,
  • avec l’extraction en fonctionnement dans le cas d’un système double flux.

Il est grandement favorisé par l’existence d’organes de réglage des débits aux bouches et en tête des branches. À défaut, des diaphragmes de réglage peuvent être insérés dans les conduits, mais leur utilisation est moins souple.

Deux principes dirigent le travail :

  1. Tous les débits d’une distribution restent proportionnels entre eux lorsque le débit en tête varie. Autrement dit, si une bouche est réglée pour diffuser un débit double de sa voisine, ce rapport restera quel que soit le débit qui les alimentera.Ce principe va entraîner le réglage proportionnel de toutes les bouches d’une branche, puis toutes les branches entre elles, sans se soucier du débit effectif. En fin de travail seulement, le débit total souhaité sera réglé au ventilateur… et donc automatiquement à toutes les bouches.
  2. Après équilibrage de l’ensemble, la consommation d’électricité est la plus faible :
    • Si au moins un organe de réglage de bouche est totalement ouvert (c’est la bouche la plus défavorisée),
    • si au moins un organe de réglage de branche est totalement ouvert (c’est la branche la plus défavorisée),
    • et si le registre du ventilateur est ouvert totalement (à partir du moment où le ventilateur a été correctement dimensionné).

Un exemple vaut mieux qu’un long discours :

Calculs

Un programme de simulation de l’équilibrage d’un réseau aéraulique vous permet de tester la méthode, en vous amusant !

Objectif ? En agissant sur les ouvertures de vannes, il faut obtenir les débits souhaités en adaptant les débits réels.

Suggestion :
Imprimer préalablement le mode d’emploi ci-dessous pour l’avoir à côté de soi lors de l’utilisation du programme.

Mode d’emploi de l’équilibrage

  1. Commencer par ouvrir tous les organes d’équilibrage du réseau (bouches, têtes des branches, registre du ventilateur). Sur le terrain, il faudra maintenir le registre du ventilateur à une position proche de la fermeture pour ne pas dépasser la limite de charge du ventilateur (à contrôler par la mesure du courant absorbé par le moteur). Dans les réseaux à débit variable, placer les points de consigne des régulateurs de débit à leur valeur maximale.
  2. Réaliser un premier ajustement des débits (régler approximativement le ventilateur pour que son débit soit légèrement supérieur (10 %) à sa valeur nominale, approcher l’équilibrage en tête des branches par un premier réglage grossier). Cette opération permet d’arriver plus facilement au bon résultat sur le terrain. Elle ne doit pas être faite sur le programme de simulation.
  3. Attaquer une branche (de préférence la branche la plus défavorisée) : repérer la bouche la plus défavorisée (voir remarque ci-dessous), mesurer son débit, laisser son réglage ouvert à 100 %, puis régler le débit de toutes les autres bouches de la branche à un débit proportionnel à celui de la bouche la plus défavorisée. Tous les débits obtenus seront incorrects en valeur, mais corrects dans les proportions entre eux.
  4. Procéder de même pour chaque branche.
  5. Régler les registres des têtes de branches de la même manière : les proportions entre branches doivent être correctes, en vous référant à la demande de la branche la plus défavorisée pour laquelle le registre reste ouvert.
  6. Enfin régler le débit du ventilateur à la valeur totale souhaitée. Normalement, si le ventilateur a été correctement dimensionné ou s’il dispose d’un régulateur de débit, le registre du ventilateur devrait rester ouvert à 100 %. Freiner après le ventilateur, c’est appuyer en même temps sur l’accélérateur et le frein d’une voiture…
Exemple pratique.

Dans le programme de simulation, prenons les 2 dernières bouches de la 3ème branche : elles demandent toutes deux 800 m³/h de débit. Or, sans toucher aux autres organes de réglages, l’une donne 416 m³/h et l’autre 219 m³/h. Fermons l’avant-dernière bouche jusqu’à 82,2 % d’ouverture. Cette fois, les 2 dernières bouches donnent 285 m³/h. Ce n’est donc pas le débit demandé, mais le rapport des débits entre eux est correct : l’avant-dernière bouche donne 100 % de la dernière, l’objectif du réglage est atteint. Après avoir réalisé le même travail avec toutes les autres bouches, il suffira d’adapter le débit total pour que tous les débits soient corrects.

Remarques.

  • Toucher au débit d’une bouche, c’est modifier le débit de toutes les bouches ! Le réglage est donc plus facile à faire sur ordinateur que sur le terrain : l’ordinateur calcule en permanence le rapport entre tous les débits. Sur le terrain, il faut travailler à deux, l’un restant à la dernière bouche durant tout le réglage de la branche et communiquant à son collègue l’évolution du débit…

 

  • Le programme de simulation permet de visualiser de façon didactique les étapes d’un équilibrage de réseau. Il n’est pas destiné à prédire le réglage d’un réseau déterminé… On ne peut donc y intégrer les données particulières de son propre bâtiment.

 

  • Ce type de travail est bien adapté aux réseaux pour lesquels la perte de charge des bouches est importante par rapport à la perte de charge des conduits. C’est souvent le cas pour les installations de conditionnement d’air, ce sera sans doute plus difficile dans le cas des réseaux de ventilation.

 

  • A la fin d’un équilibrage, il est utile de consigner par écrit les valeurs réglées : débits des bouches, pressions en amont des registres, tension, intensité et vitesse du ventilateur, température du réseau lors de l’opération,…

 

  • Il existe des bouches auto-régulatrices : dans une plage de pression donnée, le débit est maintenu relativement constant, ce qui facilite fortement l’opération, voire la rend inutile…

 

  • On entend par « bouche la plus défavorisée », celle qui est soumise à la plus faible pression différentielle pour des débits réglés à leur valeur nominale : c’est souvent la bouche la plus éloignée, parce que le trajet le plus long entraîne les pertes de charges les plus élevées. Mais cela peut être parfois l’avant-dernière bouche qui aurait un débit plus élevé et donc également des pertes de charges plus importantes.

Calculs

Si vous faites partie de ceux qui vont toujours voir les réponses à la fin sans chercher, il est possible de visionner le résultat de l’équilibrage… déjà tout fait par un autre ! Il faut admettre que vous avez déjà lu jusqu’ ici…

Entraînements pour ventilateurs

Ventilateur entraîné par courroies.


Entraînement direct

Dans ce cas, la roue est directement calée sur l’arbre du moteur. Avec de petits ventilateurs, on peut également caler la roue sur le rotor d’un moteur à rotor extérieur.

Ventilateur à entraînement direct.

Les avantages de l’entraînement direct proviennent de son coût d’investissement moindre, de son meilleur rendement (pertes de 2 à 5 % contre 2 à 10 % pour l’entraînement par courroies), de son encombrement réduit et de son faible coût d’entretien.

Son principal inconvénient provient sans aucun doute de l’impossibilité, sans disposer d’un variateur de vitesse, d’ajuster a posteriori la vitesse du ventilateur pour régler au plus juste le point de fonctionnement nominal, à quoi s’ajoute dans le cas des gros ventilateurs une plus importante sollicitation des paliers. Par ailleurs, ce type d’entraînement ne convient pas dans le cas de températures d’aspiration élevées.


Entraînement par accouplement élastique et coupleurs centrifuges ou hydrauliques

Les accouplements sont des liaisons d’arbres permanentes, tournant à la même vitesse.

C’est un type d’entraînement qui est principalement utilisé dans le cas de roues de grandes dimensions et dont la masse à mettre en mouvement est importante. Les paliers du ventilateur et du moteur sont alors indépendants.

Dans un accouplement élastique, un élément élastique est interposé entre les deux moitiés de l’accouplement. Dans les coupleurs centrifuges, la transmission du couple se fait grâce à la force centrifuge qui presse des éléments mobiles entraînés par l’arbre du moteur contre la partie du coupleur solidaire du ventilateur. Dans les coupleurs hydrauliques, c’est le déplacement d’un fluide qui assure la transmission du mouvement.

L’avantage des accouplements élastiques provient de l’amortissement des faibles mouvements d’arbre dans une direction longitudinale par suite de variations de température ou de pression d’aspiration. Celle-ci provient, particulièrement dans le cas de ventilateurs à simple ouïe d’aspiration, de ce que les fluctuations de pression amont modifient également la poussée axiale. Un autre avantage provient de l’équilibrage des vibrations produites par le couple moteur.

Les coupleurs permettent, eux, de faciliter le démarrage en réduisant la période de surcharge du réseau par un courant de démarrage élevé.

Comme pour l’entraînement direct, l’inconvénient de ces types d’entraînement tient au fait qu’on ne peut faire varier a posteriori la vitesse de rotation du ventilateur pour ajuster le point de fonctionnement nominal. On ne peut donc pas faire de correction du point de fonctionnement en agissant sur la vitesse de rotation.

Entraînement par coupleur élastique. et  par courroies et coupleur centrifuge.

Remarquons qu’un entraînement par courroies peut être raccordé au moteur via un accouplement du type centrifuge.


Entraînement par courroies

nventilateur = nmoteur x (Dmoteur / Dventilateur)

ou,

  • nventilateur  et Dventilateur = vitesse et diamètre de la poulie du ventilateur (fond de gorge).
  • nmoteur  et Dmoteur = vitesse et diamètre de la poulie du moteur (fond de gorge).

La vitesse du moteur est connue en lisant sa plaque signalétique.

Les courroies les plus courantes sont les courroies trapézoïdales étroites.

Son grand avantage réside dans le fait que l’on n’est pas lié aux vitesses de synchronisme, ce qui donne plus de latitude quant au choix du ventilateur. On peut par exemple choisir un moteur tournant plus vite donc moins coûteux. Il est en outre toujours possible d’effectuer ultérieurement des corrections du point de fonctionnement par échange des poulies. En prenant quelques mesures complémentaires appropriées, ce mode d’entraînement convient aussi très bien dans le cas de températures d’aspiration élevées.

Ses inconvénients viennent de son rendement pas très élevé ainsi que de l’usure des courroies, ce qui entraîne des frais d’entretien supplémentaires.

La tension de la courroie joue un rôle important sur son bon fonctionnement :

  • Une trop faible tension a pour conséquence un glissement élevé, donc un échauffement de la courroie et une usure prématurée.
  • Une trop forte tension entraîne la surcharge des paliers.

Bien réglée, un transmission par courroies a un rendement de l’ordre de 97 %. Ce rendement peut chuter à 80 % pour des poulies très petites.

Des entraînements par courroies trapézoïdales munis de poulies trop petites ou inutilement de courroies doubles et dont la tension est mal réglée entraînent des pertes de 10 à 20 %.

Un autre inconvénient est l’augmentation des frais d’entretien et de surveillance.

Lorsque l’on met deux courroies (ou plus) en parallèle, là où une seule suffirait, cela peut provoquer des vibrations, des bruits et une usure irrégulière. La durée de vie des courroies est réduite, ainsi que le rendement de transmission.


Entraînement direct par moteur à rotor extérieur

Le moteur à rotor extérieur est sans aucun doute d’une solution très bon marché et ne nécessitant que peu de maintenance pour entraîner de petits ventilateurs dont le gain de pression est faible. La vitesse de rotation de tels moteurs est réglable par variation de tension d’où la possibilité d’adapter en souplesse le fonctionnement du ventilateur aux exigences de l’installation.

Comme avantage complémentaire, on peut citer son encombrement réduit.

Au titre des inconvénients, on peut mentionner les faibles températures d’aspiration admissibles, qui se situent en général à 40 ou 50°C au maximum. Par ailleurs, le rendement global du ventilateur est relativement faible avec ce type d’entraînement.


Rendements

Mode d’entraînement

Pertes
Moteur à entraînement direct (roue de ventilateur directement calée sur l’arbre du moteur) 2 à 5 %
Entraînement par accouplement 3 à 8 %
Transmission par courroies Pmot < 7,5 kW : 10 %
7,5 kW < Pmot < 11 kW : 8 %
11 kW < Pmot < 22 kW : 6 %
22 kW < Pmot < 30 kW : 5 %
30 kW < Pmot < 55 kW : 4 %
55 kW < Pmot < 75 kW : 3 %
75 kW < Pmot < 100 kW : 2,5 %

Objectifs de la conservation par le froid

Objectifs de la conservation par le froid

La liste des températures à garantir

La liste des températures à garantir est donnée ci-dessous à titre indicatif. Elle nous a été fournie par un fabricant.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 20 à – 30 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Un document contenant une liste beaucoup plus complète et intitulé : HACCP pour PME et artisans – Auteurs Catherine Quittet et Helen Nelis – Réalise par L’Unite de Technologie des IAA a la Faculte universitaire des Sciences agronomiques de Gembloux, Le Laboratorium voor Levensmiddelentechnologie de la KU Leuven en collaboration avec l’Inspection generale des denrees alimentaires, l’Institut d’expertise veterinaire, le service d’Inspection du Ministere de l’Agriculture Finance par le SSTC. peut être obtenu auprès de l’Unité de Technologie des IAA de la Faculté universitaire des sciences agronomiques de Gembloux au 081/62 23 03.

Choisir le pare-vapeur / Cas d’un comble perdu

Schéma pare-vapeur dans un comble perdu.

  1. Couverture.
  2. Lattes.
  3. Contre-lattes.
  4. Sous-toiture.
  5. Chevron.
  6. Panne.
  7. Plancher.
  8. Isolant.
  9. Pare-vapeur.

Pourquoi faut-il un pare-vapeur ?

Schéma principe du pare-vapeur.

À l’intérieur des locaux occupés, il y a toujours production de vapeur (par les occupants, par les plantes, par le nettoyage, etc.). La pression partielle de vapeur à l’intérieure des locaux occupés est donc toujours supérieure à celle présente à l’extérieur. Ainsi la vapeur d’eau va migrer au travers de la toiture en passant par le plancher isolé.

Vu que la résistance à la diffusion de vapeur de certains isolants (laines minérales, par exemple) est très faible, la pression de vapeur du côté inférieur de l’aire de foulée ou de la sous-toiture (s’il n’y a pas d’aire de foulée), ou de la couverture (s’il n’y a pas de sous-toiture) est quasi identique à la pression de vapeur à l’intérieure des locaux occupés; elle est donc relativement élevée. Or, après avoir traversé l’isolant, cette vapeur d’eau va rencontrer une paroi froide et il y a donc, suivant les cas, un grand risque de condensation interne dans l’isolant ou de condensation superficielle sur la face inférieure de l’aire de foulée, de la sous-toiture ou de la couverture.

Le pare-vapeur, placé sous l’isolant, va, grâce à sa grande résistance à la diffusion de vapeur, diminuer la pression de vapeur du côté froid de l’isolant, ainsi l’air en contact avec la paroi froide que constitue le plancher, la sous-toiture ou la couverture est déjà fortement déchargé de sa charge de vapeur et il n’y a plus de risque de condensation.

Faut-il toujours un pare-vapeur ?

Non, (voir quel pare-vapeur choisir ? ci-dessous).

Mais, le risque de condensation interne par transport de vapeur contenue dans l’air qui pourrait traverser la paroi est bien plus important que le risque de condensation interne par diffusion de vapeur. Il faut donc, en priorité, stopper le passage d’air au moyen d’un matériau résistant au passage de l’air et bien fermer les joints. Ce rôle est souvent rempli par la finition intérieure. Dans certaines configurations (fonction du type de plancher, de couverture, de sous-toiture, de classe de climat intérieur), cet écran d’étanchéité à l’air suffit à éviter toute condensation interne.

Schéma condensation interne par diffusion de vapeur.

Schéma condensation interne par diffusion de vapeur.

La vapeur qui passe par un joint non rebouché entre 2 plaques de plâtre enrobé est … 100 … 1 000 fois plus importante que la vapeur qui traverse la plaque elle-même.

Mais attention, si cette étanchéité peut être assurée, par la dalle en béton, elle ne l’est pas forcément par le plancher léger. Dans ce dernier cas, il est toujours intéressant de prévoir un écran étanche à l’air.
Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre l’écran étanche à l’air et la finition inférieure.


Quel pare-vapeur choisir?

Classe du pare-vapeur

Le choix du pare-vapeur se fait en fonction :

  • du type de plancher
  • du type de sous-toiture,
  • du matériau de couverture,
  • du climat intérieur des locaux.
Sous-toiture : Classe de climat intérieur Tuiles en terre cuite, ardoises synthétiques, tôles ondulées. Ardoises naturelles, tuiles en béton ou en métal Bardeaux bitumés sur voliges
A B C A B C A B C
Aucune I
II, III E1 E1 E1
Capillaire I
II, III E1 E1 E2 E2
Non capillaire en bandes I
II, III E1 E1 E1 E1
Non capillaire continue I
II, III E2 E2 E2 E2
IV A examiner au cas par cas.

(-) :

un écran d’étanchéité à l’air suffit.

Plancher type A  : plancher lourd étanche à l’air, avec isolant sur le plancher.

Plancher type B : plancher léger étanche à l’air; l’isolant n’est pas recouvert d’un revêtement de sol.

Plancher type C : plancher léger étanche à l’air; l’isolant est recouvert d’un revêtement de sol.

Source : NIT 186 du CSCT.

Forme

Le pare-vapeur peut être :

  • incorporé à la finition dans le cas d’un plancher léger,
  • fixé aux laines minérales,
  • indépendant.

Conseils de mise en œuvre

> Le pare-vapeur doit être placé sur toute la surface du plancher.

> Il faut bien fermer les joints entre les plaques, les panneaux ou les membranes (selon le cas).

  • Dans le cas de plaques de finition avec pare-vapeur intégré, la fermeture des joints est assurée par :
    1. l’injection d’un silicone,
    2. la pose d’un enduit de finition.

Schéma sur plaques de finition avec pare-vapeur intégré.

  1. Injection de silicone
  2. Pare-vapeur
  3. Plaque plâtre
  4. Enduit de finition
  • Dans le cas d’une laine minérale munie d’un pare-vapeur, la pose de celui-ci se fait en même temps que celle de l’isolant.
  • Dans le cas d’un pare-vapeur posé indépendamment sous le gîtage d’un plancher léger, celui-ci est agrafé sur la partie inférieure des gîtes. Entre deux lés, on prévoit un recouvrement de 50 mm minimum rendu étanche à l’air et la vapeur au moyen d’un ruban adhésif simple ou double face ou d’une latte de serrage.

Schéma sur un pare-vapeur posé indépendamment sous un plancher léger.

Bande adhésive.

  1. Agrafe
  2. Pare-vapeur
  3. Bande adhésive

Schéma sur latte de serrage.

Latte de serrage.

  1. Plancher
  2. Isolant
  3. Pare-vapeur
  4. Latte de serrage
  5. Finition intérieure.
  • Dans le cas d’un pare-vapeur posé indépendamment entre le plancher (lourd ou léger) et l’isolant, celui-ci est posé avec recouvrement rendu étanche à l’air et la vapeur au moyen d’un ruban adhésif.

Avec un pare-vapeur en bitume, les joints sont collés ou soudés.

> Il faut bien fermer les raccords avec la maçonnerie :

  • soit en comprimant le pare-vapeur entre un joint souple et une latte, le tout cloué ou vissé,
  • soit au moyen d’un ruban adhésif double face adhérant parfaitement à la maçonnerie.

Schéma sur raccords avec la maçonnerie et pose d'un pare-vapeur.

Joint souple + latte fixée.

  1. Pare-vapeur
  2. Joint souple
  3. Latte

> Il faut veiller à ne pas perforer le pare-vapeur :

  • Dans le cas d’un plancher léger dont le pare-vapeur est placé sous la structure, les canalisations (eau, électricité, …) ne peuvent être encastrées au-dessus du pare-vapeur. Si elles sont nécessaires, elles sont logées dans un vide technique obtenu, par exemple, par la pose d’un lattage entre le pare-vapeur et la finition. La création de ce vide permet, en plus, le cas échéant, de rectifier la planéité de la finition du plafond. Celui-ci est couramment réalisé à l’aide de matériaux plans assez rigides : planches rainurées languettées (bois, MDF, PVC…), panneaux bois, plaques de plâtre (rejointoyées ou enduites).

Schéma plancher léger et pare-vapeur.

  1. Plancher en bois
  2. Isolant semi-rigide
  3. Pare-vapeur
  4. Latte / Vide technique
  5. Couche de finition
  • Le pare-vapeur doit rester continu derrière les éléments encastrés dans la finition (spots, boitiers, …).
  • Pour les spots, la chaleur produite peut dégrader les matières sensibles tels que les mousses synthétiques, les feuilles de polyéthylène (PE), … et provoquer des incendies. Dans le cas d’un plancher léger (pare-vapeur sous le structure), il faut donc soit choisir des matériaux pouvant résister à ces températures, soit les protéger en en interposant un écran adéquat.

Si l’on superpose deux couches d’isolant, il ne peut y avoir de pare-vapeur entre les deux couches.

Photo pare-vapeur.

Deux couches d’isolant sans pare-vapeur entre les couches.

Choisir un silencieux [ventilation]

Choisir un silencieux


Choix du silencieux

Le choix d’un silencieux est commandé par le niveau de bruit à atteindre dans les locaux (par exemple NR 35). Il dépend des caractéristiques des locaux, de tout le réseau de distribution, du ventilateur, … . Le choix est donc difficilement maîtrisable par le responsable du bâtiment. La sélection d’un silencieux s’effectue généralement par le fabricant lui-même. La sélection qu’il opère est d’abord guidée par l’atténuation acoustique souhaitée. Celle-ci permet de définir grâce à des abaques l’épaisseur des baffles, leur écartement et leur longueur.

Il faut ensuite veiller à optimiser la vitesse de l’air dans le silencieux :

  • Premièrement, pour limiter au maximum les pertes de charge dans le silencieux. Il faut trouver un juste compromis entre les pertes de charge, l’encombrement et l’investissement. En effet, plus les sections du silencieux sont importantes, plus la vitesse de passage de l’air est faible, mais plus encombrant et plus cher est le silencieux.
  • Ensuite, pour que l’écoulement de l’air dans le silencieux ne génère lui-même trop de bruit (ce serait un comble si le silencieux générait plus de bruit qu’il n’en atténue !). La valeur maximum du bruit régénéré que l’on tolère permet de définir la vitesse maximum de l’air dans le silencieux. On en déduit sa section frontale minimum en fonction du débit à véhiculer et son nombre de baffles.
Règle de bonne pratique.

On dimensionnera le silencieux de telle sorte que la vitesse de l’air soit limitée à 10 m/s lors du passage entre les baffles acoustiques du silencieux. Si la section d’ouverture du silencieux est de …30 %… à …50 %…, cela induit que la vitesse faciale à l’entrée du silencieux devrait être de …3 m/s… à …5 m/s… environ. Ceci conduit généralement à une perte de charge proche de 50 .. 80 Pa.

Pour limiter les pertes de charge du silencieux, on peut être attentif à :

  • À choisir les ventilateurs les moins bruyants, ce qui va de pair avec la recherche du rendement maximum.
  • Ne pas surestimer les besoins réels d’atténuation.
  • Choisir des silencieux circulaires, générant moins de pertes de charge. Ceci n’est pas toujours possible lorsque les débits deviennent importants, les silencieux circulaires n’apportant pas une atténuation suffisante.
  • Choisir des silencieux actifs, générant peu de pertes de charge, puisqu’ils n’utilisent pas de matériaux absorbants.

Emplacement du silencieux

La meilleure position d’un silencieux varie d’une installation à l’autre. On respectera les prescriptions suivantes

  • Le silencieux doit être le plus près possible du ventilateur, principalement si le gainage passe au-dessus d’un local critique juste en aval du ventilateur.
  • Si le gainage à la sortie du ventilateur traverse un local sans exigence acoustique (local technique, ..), il est préférable de placer le silencieux dans la cloison séparant ce local des locaux avec exigences acoustiques, pour éviter la transmission de bruit par by-pass du silencieux.

Mauvaise position du silencieux : le bruit du ventilateur by-passe le silencieux et bonne position du silencieux.

  • Si un clapet coupe-feu doit être installé dans le mur du local technique, le silencieux ne peut être placé dans la cloison et la portion de conduit entre le silencieux et le mur doit être garni d’un matériau absorbant.
  • Les silencieux doivent souvent encadrer la source sonore (généralement le ventilateur), tant du côté réseau que du côté prise d’air extérieur, pour limiter la transmission du bruit vers le voisinage.
  • Si le niveau de bruit demandé dans les locaux est très bas (NR 25 .. NR 30), il est souvent nécessaire de placer un deuxième silencieux en fin de réseau, de manière à atténuer les bruits générés par le réseau.

Comportement thermique d’un local climatisé

Date : page réalisée sous l’hégémonie Dreamweaver

Auteur : les anciens

Mars 2009 : Thibaud

Notes :

  • antidote appliqué. Thibaud
  • Winmerge : ok – Sylvie
  • Mise en page [liens internes, tdm, en bref !, passage général sur la mise en page de la feuille] – Sylvie

 Pour comprendre l’évolution des températures dans un local climatisé, il est utile de se créer mentalement un modèle de fonctionnement thermique.

Simulation d’un local « aveugle »

Partons d’un exemple simple : un local sans fenêtre, chauffé en journée par des apports internes et refroidi par une ventilation d’air à 16°C.

Hypothèses

  • Le local fait 3,5 x 4 x 2,8  de hauteur, soit un volume de 39 m3.
  • Les apports sont fixés à 600 Watts de 8h00 à 18h00.
  • Une ventilation permanente (jour et nuit) apporte 150 m3 d’air à 16°C, soit un renouvellement horaire de 3,8 (ce qui est plutôt élevé pour un apport de ventilation mais faible pour un apport frigorifique de climatisation). Cela représente un refroidissement de 400 Watts si l’ambiance est à 24°C, ou de 200 Watts si l’ambiance est à 20°C.

Deux types de parois sont étudiées, afin de visualiser l’impact de l’inertie des parois sur la température intérieure.

Variante 1 : local de forte inertie

On considère un sol en béton, des murs en maçonnerie recouverts de plafonnage, un faux plafond en matériau isolant.

La température opérative est la moyenne entre la température de l’air et celle de la surface des parois. Elle correspond à la température ressentie par les occupants. De plus, on peut en déduire l’allure de la température de surface des parois. Ainsi, puisque la température opérative est 0,6°C plus froide que l’air lors de la montée en température, on en déduit que la température de surface des parois est 1,2°C plus froide.

Il est intéressant de visualiser l’allure de la T° de l’air : en période de refroidissement, elle tend à descendre vers les 16°C donnés par l’air neuf, mais cette descente est freinée par les parois qui sont chaudes et qui transfèrent de la chaleur vers l’ambiance. L’air « cale » à 1,2°C de la température moyenne des parois.
Une fois 8h00 du matin, l’équilibre s’inverse : les apports dépassent le refroidissement. Sans inertie, l’air monte brusquement en température jusqu’à ce que ce même écart de 1,2°C apparaisse entre air et paroi, la paroi refroidissant cette fois l’ambiance.
À noter qu’en supprimant le faux plafond et en laissant l’air en contact direct avec le béton, la température maximale atteinte par l’air serait de 23°C, contre 23,5°C ici.

Variante 2 : local de faible inertie

Dans le même volume, on considère cette fois un sol en béton recouvert par 0,5 cm de tapis, des parois légères de 8 cm d’isolant recouvertes de 1,5 cm plafonnage, un faux plafond en matériau isolant.

Les parois ne présentent presque plus de masse thermique. L’air est cette fois « plus libre » de monter ou descendre en fonction des variations de charge et entraîne avec lui les fines parois. La température maximale monte à 25°C, contre 23,5°C dans le cas précédent.

Quel modèle thermique équivalent ?

Pour représenter cette évolution des températures, on peut imaginer le modèle suivant très simplifié :

Les apports sont communiqués à l’air du local; celui-ci échange par convection vers la surface des parois; le cœur de la paroi voit sa température lentement évoluer.
Remarque : en pratique, une part des apports internes est donnée par rayonnement direct vers les parois.
On en déduit une évolution des températures suivantes :

       

Cela correspond assez bien à la réalité lorsque l’apport frigorifique est donné par l’air. Par contre, une climatisation par plafonds froids entraînerait un transfert direct du froid par rayonnement vers les parois et donc une meilleure stabilisation de la température de l’air.

Le cas d’un apport solaire supplémentaire

Les locaux climatisés sont souvent soumis à des apports internes importants par les vitrages. Dans ce cas, le soleil ne chauffe pas l’air, il chauffe d’abord les parois (essentiellement le sol) qui restituent ensuite cette chaleur vers l’air par convection et vers les autres parois par rayonnement.

L’impact de l’inertie des parois est dans ce cas encore amplifié : si la paroi « touchée » par le soleil est absorbante (couleur foncée) et de forte inertie (béton), elle va accumuler la chaleur sans monter en température, et donc limiter le transfert de chaleur par convection vers l’air.
La présence de tapis au sol des bureaux génère donc plus facilement une montée en température de l’air des bureaux ensoleillés… Le mouvement convectif est encouragé par la vitre dont la température monte à … 30°C … par absorption partielle du rayonnement solaire.

Conclusions

  • Les charges sont apportées au local, partiellement par rayonnement, partiellement par convection.
  • Dans tous les cas, l’inertie des parois permet une stabilisation de la température de l’air.
  • Un apport frigorifique par rayonnement (plafonds froids) permet une stabilisation de la température de l’air similaire à celle obtenue par une inertie plus forte.
  • A la limite, un refroidissement du plancher par une circulation d’eau froide dans le plancher permettrait une captation directe des apports solaires… mais le risque d’inconfort aux pieds des occupants est présent…

Évaluer l’efficacité énergétique de la gestion de l’eclairage

Évaluer l'efficacité énergétique de la gestion de l'eclairage


Gaspillages courants

Constats

Un éclairage enclenché dans un local inoccupé ou encore en présence d’un éclairement naturel abondant est un gaspillage évident. Quelque soit l’usage du bâtiment, les exemples sont fréquents :

Dans les bureaux, des études, menées en Suisse et en Allemagne, ont montré que :

Photo bureau avec fenêtres éclairées.

  • Les luminaires sont enclenchés durant 60 % des heures de travail.
  • La majorité des utilisateurs enclenche les luminaires en arrivant au travail. C’est le service de nettoyage qui les éteint en fin de journée.
  • Lorsque des luminaires sont regroupés en deux zones à commande distincte (zone fenêtre et zone fond du local), le taux d’utilisation de tous les luminaires reste pratiquement identique. Ceci signifie que les utilisateurs prennent très peu attention aux apports d’éclairage naturel.

Dans les écoles, des constats similaires sont courants :

  • L’éclairage reste allumé lorsque la classe est inoccupée : récréation, temps de midi, …
  • Dans la classe, l’éclairage reste allumé même lorsque l’éclairage naturel est abondant. Par exemple, pour satisfaire les rangées les plus éloignées des fenêtres, toute la classe doit être éclairée car la commande de l’éclairage est unique.
  • Dans une classe à aménagement variable, on ne peut pas commander l’éclairage en fonction de la zone d’occupation.
  • Le tableau ne possède pas d’éclairage indépendant de l’éclairage général. Un éclairage spécifique au tableau est non seulement important pour le confort des élèves mais peut entraîner une économie d’énergie. L’expérience montre en effet que, pour compenser un niveau insuffisant de l’éclairage naturel du tableau, l’éclairage général de la classe est utilisée… Pire : en cas de reflets sur le tableau non résolus par un éclairage spécifique, on ferme les tentures du local et on allume l’éclairage artificiel … en présence d’un éclairage naturel suffisant !
  • Dans les couloirs, l’éclairage artificiel est allumé le matin et le reste … alors qu’il n’y a plus personne ou que l’éclairage naturel suffit.

Explications

Plusieurs raisons peuvent expliquer ces attitudes :

  • L’indifférence face au problème de l’énergie.
  • L’utilisation de luminaires basse luminance ne crée plus de points lumineux dans le champ de vision, il faut lever la tête pour s’apercevoir qu’une lampe est allumée.
  • Le contraste élevé entre le niveau d’éclairement naturel (2 000 à 4 000 lux) et le niveau d’éclairement artificiel (300 à 500 lux) : lorsque l’éclairage naturel prend la relève de l’éclairage artificiel, il l’occulte par son intensité beaucoup plus élevée.
  • Un système de gestion inefficace (centralisation sans zonage différencié).

Gérer

Organiser une campagne de sensibilisation.

Une installation efficace

     

S’il apparaît que certains locaux sont éclairés complètement

  • alors que l’éclairage naturel est suffisant (bureaux, couloirs vitrés, …),
  • alors qu’ils sont inoccupés (sanitaires, salles de réunion, couloirs, cage d’escalier…),
  • alors qu’une partie seulement du local est utilisée (bureaux paysagers, …),
  • alors que l’activité secondaire qui s’y déroule pourrait demander un éclairement moindre (nettoyage, gardiennage, …),

Il faut se demander si les occupants disposent de commandes permettant

  • D’enclencher l’éclairage par poste de travail, par local individuel ou par zone de même tâche.

  • D’enclencher partiellement l’éclairage en fonction de la distance aux fenêtres (et de la profondeur du local) ou de la zone d’activité.

  • d’éteindre automatiquement l’éclairage dans les locaux utilisés pour une courte durée : circulations (couloirs, halls, escaliers), dépôts, sanitaires, salles de réunion, etc., …
  • d’éteindre automatiquement l’éclairage en dehors des heures de travail.
  • dans certains cas (commerce par exemple),  de couper une partie de l’éclairage (l’éclairage d’accentuation, un luminaire sur deux, …) quand l’activité change (vente -> nettoyage).

Améliorer

Améliorer le système de commande.

Et en éclairage extérieur ?

L’éclairage extérieur ne peut fonctionner lorsque l’éclairage naturel est suffisant. La période d’allumage varie donc avec la saison. Cela vaut la peine d’examiner comment est gérée l’installation à rénover.

Éclairage fluo allumé en permanence sous un passage couvert.

L’éclairage reste-t-il allumé durant la journée ?

  • Si l’allumage est manuel, l’adaptation à cet horaire variable risque d’être liée à un horaire de travail fixe (on allume en partant le soir et éteint le matin en arrivant).
  • Une cellule crépusculaire peut commander l’allumage et l’extinction. Il faut cependant vérifier que son comportement soit correct. Un encrassement avancé peut l’empêcher de détecter correctement la venue du jour.
  • Une simple horloge peut limiter les horaires de fonctionnement.
  • Dans certains cas (lieux de passage par exemple), un détecteur de présence peut être utile.
  • Le raccordement au réseau d’éclairage public permet un fonctionnement automatique à horaire variable grâce aux signaux d’allumage/extinction diffusés par le distributeur électrique.

Amenées d’air naturelles

Amenées d'air naturelles


Amenées d’air naturelles : définition

Une amenée d’air naturelle est définie dans la norme NBN D 50-001 relative à la ventilation des locaux d’hébergement comme :

Une « ouverture d’alimentation réglable » ou « OAR »

C’est-à-dire une ouverture prévue dans une paroi extérieure, dans ou autour d’une fenêtre ou d’une porte extérieure dont la surface peut être modifiée manuellement ou automatiquement en continu ou au minimum en trois positions entre la position fermée et la position entièrement ouverte.

De plus, suivant la NBN D 50-001, une ouverture « de fuite » peut subsister en position fermée, pour permettre un certain renouvellement d’air même en cas de fermeture de toutes les alimentations d’air. En pratique, cette ouverture minimum équivaut à maximum 3 % de l’ouverture maximum.

La norme précise en outre qu’une ouverture d’alimentation réglable ne peut en aucun cas augmenter le risque d’effraction.

En pratique, une OAR est une grille ou un vasistas.


Les grilles de ventilation

Photo grilles de ventilation.  Photo grilles de ventilation.

Grille intégrée entre le vitrage et la menuiserie et grille verticale intégrée dans la menuiserie.

Photo grilles de ventilation.   Photo grilles de ventilation.

Grilles réglables à insérer dans la maçonnerie et grille intégrée au dessus du châssis, contre la battée.

Les grilles de ventilation peuvent, en pratique, faire l’objet de nombreuses applications. On peut notamment les distinguer selon leur emplacement dans les façades extérieures

  • dans la menuiserie même,
  • entre le vitrage et le profilé de menuiserie,
  • entre les profilés de menuiserie,
  • entre la menuiserie et la maçonnerie,
  • dans la maçonnerie

Leur débit nominal varie entre 30 et 180 m³/h par m courant (sous 2 Pa), les dimensions (principalement en épaisseur) étant d’autant plus importantes que le débit est grand. Le réglage manuel du débit d’air se fait soit par une glissière, un cylindre rotatif ou encore un clapet. La manipulation de la grille est possible grâce à une manette, une cordelette, une tringle ou encore une glissière pour les grilles disposées à des hauteurs difficilement accessibles.

Il existe également sur le marché :

Des grilles à coulisses

Les grilles à coulisse ne présentant pas de chicane sur le trajet de l’air. Ces grilles, de moins en moins utilisées, ne freinent pas le flux d’air, ce qui peut provoquer un léger courant d’air à proximité de la grille.

Illustration grilles à coulisses.

Grille à coulisse.

Des grilles à profilés minces

Les grilles pouvant s’adapter à toutes les épaisseurs usuelles de vitrage. Des grilles avec profilés plus minces s’adaptent également aux fenêtres coulissantes.

Illustration grilles à profilés minces.

Grille autoréglable pour châssis coulissant.

Des grilles autoréglables

Les grilles dites « autoréglables » qui ont pour but de maintenir un débit constant quelle que soit la pression du vent. Ces grilles comprennent une bavette souple réduisant automatiquement la section d’ouverture quand la pression augmente. Elles permettent ainsi d’obtenir un débit d’air relativement constant dans une plage de pression différentielle de 10 à 200 Pa. Non seulement elles assurent une alimentation en air plus ou moins constante (malgré tout nettement supérieure au débit de dimensionnement, puisqu’elles ne réagissent qu’à partir de 10 Pa alors que la pression de dimensionnement est de 2 Pa) mais elles évitent également que les utilisateurs ne bouchent complètement les grilles pour éviter les courants d’air inévitables par vent fort.

Schéma principe grilles autoréglables.  Illustration grilles autoréglables.

Exemple de grilles autoréglables.

Des grilles hygroréglables

Les grilles dites « hygroréglables » qui adaptent leur ouverture en fonction du degré d’humidité ambiante du local. Elles sont constituées d’un élément sensible à l’humidité relative (tresse de nylon) qui commande l’ouverture par sa dilatation. Leur bon fonctionnement est conditionné par l’absence d’influence de l’ambiance extérieure sur l’élément hygrosensible. Celui-ci doit être parcouru par de l’air intérieur et sa température doit être la plus proche possible de cet air.

Schéma principe grilles hygroréglables.

Grille hygroréglable.

Des grilles à coupure thermique

Les grilles à coupure thermique (absence de contact ou matériau isolant) entre les matériaux en contact avec l’extérieur et les matériaux en contact avec l’intérieur. Ces grilles évitent qu’en position fermée des condensations n’apparaissent sur la face intérieure.

Schéma principe grilles à coupure thermique. 

Des grilles isophoniques

Les grilles possédant aussi des systèmes d’insonorisation évitant la transmission trop importante des bruits extérieurs. Ces grilles possèdent des chicanes obligeant l’air à passer entre des surfaces garnies de matériaux absorbants.

Illustration systèmes d'insonorisation.Illustration systèmes d'insonorisation.

Exemple de grilles isophoniques.

Des grilles motorisées

Avec ouverture motorisée ou des grilles assistées par un ventilateur interne et pouvant être raccordées à un régulateur (thermostats, hygrostat) commandant la mise en route en fonction des besoins en ventilation intensive.

Photo grilles motorisées.     

Exemple de grille motorisée avec commande par potentiomètre ou thermostat – hygrostat.

Des grilles pour ventilation intensive

Les grilles d’aération traditionnelles suffisent pour assurer la ventilation hygiénique. Pour augmenter les débits d’air et pratiquer une ventilation intensive (rafraîchissement nocturne, évacuation d’un polluant occasionnel,…), il existe des grilles nettement plus grandes qui placée devant un ouvrant de fenêtre permettent des débits d’air important tout en protégeant le bâtiment contre l’intrusion, le passage des insectes, la pluie. Ces grilles se placent facilement de l’intérieur dans les ouvrants existants. Elles peuvent par exemple être installées en été et retirées en hiver. Une fois en place, la grille ne perturbe nullement l’ouverture de la fenêtre.

Photo grilles pour ventilation intensive.

Grille de ventilation nocturne intensive.


Les vasistas

Les vasistas sont de petites fenêtres ouvrantes qui (dans la tradition belge) s’ouvrent généralement vers l’intérieur et s’articulent par le bas. Ce type de fenêtre se rencontre fréquemment dans les toilettes mais peut également être utilisé dans d’autres pièces. Aux Pays-Bas, les vasistas s’articulent par le haut et s’ouvrent vers l’extérieur. Ils servent souvent d’amenées d’air pour la ventilation de base.

Photo vasistas.   Schéma vasistas..

Vasistas s’ouvrant vers l’extérieur ou vers l’intérieur.

Notons que se développent actuellement des systèmes plus sophistiqués permettant de régler assez précisément la position d’ouverture de ces fenêtres, soit manuellement, soit automatiquement.


Les portes et fenêtres

Les portes et les fenêtres ont depuis toujours été utilisées pour ventiler les bâtiments. Dans le cadre de la norme sur la ventilation, elles ne conviennent pas, car les débits amenés sont beaucoup trop élevés pour la ventilation de base. Leurs surfaces ouvertes génèrent des débits qui dépassent le débit maximum autorisé. En outre, les possibilités de réglage sont trop limitées. Dans l’esprit de la norme, les fenêtres et portes ouvertes ne peuvent donc servir que comme dispositifs de « ventilation périodique intensive ». Notons toutefois une exception pour les petits vasistas réglables.


Les conduits ouverts

Les conduits de ventilation ouverts (ouvertures non obturables dans les murs ou les sols) ne conviennent pas non plus, étant donné qu’ils engendrent de trop grands débits (plus du maximum autorisé de deux fois le débit nominal) et ne sont pas réglables. Les conduits ouverts peuvent dès lors être utilisés, dans le cadre de la norme, comme dispositifs pour les locaux ou espaces spéciaux : garages, les caves, les débarras, les chaufferies, les greniers, etc.

Évaluer l’efficacité énergétique d’une installation de chauffage centralisée

Évaluer l'efficacité énergétique d'une installation de chauffage centralisée


Où part le combustible ? Notion de rendement

L’efficacité énergétique d’une installation de chauffage se traduit par la notion de rendement global d’installation.

Ce rendement représente le pourcentage d’énergie consommée qui est réellement utile au confort des occupants, le complément de consommation servant à compenser les pertes au niveau de la production, de la distribution, de l’émission et de la régulation :

Pertes liées à une installation de chauffage centralisée : cliquez avec le curseur sur les intitulés pour visualiser les différentes pertes.


Ordres de grandeur

Type d’installation

Rendements en %
global = ηproduction x ηdistribution x ηémission x ηrégulation)

ηproduction

ηdistribution

ηémission

ηrégulation

ηglobal

Très ancienne chaudière surdimensionnée ou très peu performante, longue boucle de distribution (années 60-70) 75 .. 80 % 80 .. 85 % 90 .. 95 % 85 .. 90 % 46 .. 58 %
Ancienne chaudière bien dimensionnée, courte boucle de distribution 80 .. 85 % 90 .. 95 % 95 % 90 % 62 .. 69 %
Chaudière haut rendement, courte boucle de distribution, radiateurs isolés au dos, régulation par sonde extérieure, vannes thermostatiques, … (années 90 et début 2000) 90 .. 93 % 95 % 95 .. 98 % 95 % 77 .. 82 %
Chaudière mazout à condensation actuelle, bien dimensionnée et qui condense 97 .. 98 % 95 % 95 .. 98 % 95 % 83 .. 87 %
Chaudière gaz à condensation actuelle, bien dimensionnée et qui condense 101 .. 103 % 95 % 95 .. 98 % 95 % 87 .. 91 %

Dans une ancienne installation présentant un rendement global de 50 % (situation extrême), il faut 2 kWh en chaufferie (ou 0,2 litre de fuel, puisque 1 litre de fuel produit 10 kWh) pour 1 kWh utile au confort des occupants.

Dans une installation moderne présentant un rendement global de 90 %, il ne faut plus que 1,1 kWh (ou 0,11 litre de fuel) pour fournir le même kWh.

Ce qui fait pencher le rendement vers 90 %

  • une nouvelle chaudière qui condense et un nouveau brûleur avec un rendement de combustion voisin de 100 %,
  • des conduites bien isolées,
  • un découpage du réseau de tuyauterie conforme aux zones thermiquement homogènes (par façade, par occupation, ..),
  • la coupure de l’installation en période d’inoccupation,
  • une régulation locale tenant compte des apports de chaleur gratuits,

Ce qui fait pencher le rendement vers 60 %

  • une chaudière de plus de 25 .. 30 ans, avec un rendement de combustion voisin de 80 %,
  • une ancienne chaudière gaz atmosphérique,
  • des conduites en cave non isolées,
  • des radiateurs logés en alcôve dans un renfoncement du mur extérieur
  • un circuit hydraulique unique pour tout le bâtiment,

Évaluer chacune des pertes

Concrètement, il n’est pas possible de chiffrer le rendement global réel d’une installation de chauffage, certains composants, comme le rendement d’émission ou de régulation ne pouvant être évalués que qualitativement.

Il est cependant possible pour chacune des 4 sources de perte (production, distribution, émission, régulation) d’estimer un potentiel d’amélioration et d’en évaluer l’impact sur la consommation globale.

Évaluer

Évaluer l’efficacité énergétique de la production.

Évaluer

Évaluer l’efficacité énergétique de la distribution.

Évaluer

Évaluer l’efficacité énergétique de l’émission.

Évaluer

Évaluer l’efficacité énergétique de la régulation.

Pertes liées à une installation de chauffage centralisée : cliquez avec le curseur sur les intitulés pour visualiser les différentes pertes.

Les ressources

Les ressources – chauffage

menu-chauffage

Pertes liées à une installation de chauffage centralisée : cliquez avec le curseur sur les intitulés pour visualiser les différentes pertes.

Dimensionner l’ascenseur

Dimensionner l'ascenseur


Indicateurs de performance

Les indicateurs de performances sont principalement :

  • le temps d’attente moyen maximum probable (= « l’intervalle ») en secondes,
  • le temps nominal d’une course en secondes,
  • le débit relatif du trafic, exprimé par le pourcentage du nombre d’occupants maximum du bâtiment déplacé en 5 minutes.

Intervalle et temps nominal d’une course

Dans une étude de dimensionnement, un constructeur définit ses critères de performance. Ils sont traduits sous forme d’un tableau de satisfaction comme représenté ci-dessous :

Niveau de qualité Intervalle [s] Temps nominal d’une course [s] Moyenne
Entrant uniquement Double sens
Excellent 20-25 25-32 15-20
Bon 25-32 32-40 20-25
Satisfaisant 32-40 40-50 25-32

Débit relatif du trafic

Le débit relatif du trafic est fonction :

  • du type de bâtiment,
  • du type d’occupation des niveaux (fixe, à temps partiel, occasionnel, …),
  • de la présence de un ou plusieurs services différents avec des horaires différents.
Débit relatif du trafic (relative handling capacity)
[% du total de la population en 5 min.]
Type de bâtiments Services occupant le bâtiment Type d’occupation Niveau de qualité
Bon Excellent
Bureau Un seul service Fixe 16-20 20-25
Flexible 13-16 16-20
Plusieurs services Fixe 13-16 16-20
Flexible 12-15 15-18
Hébergement 12-16 16-18
Hôpital 13-16 16-20

Dimensionnement

1. Dimensionnement général de l’installation

Un préalable consiste à déterminer le type d’ascenseur que le maître d’ouvrage et le maître d’œuvre voudraient placer dans l’immeuble, connaissant les données constructives (nombre d’étages, type d’occupation, confort à atteindre, …).

Ce choix fixé, les fabricants ou les bureaux d’étude sont à même de déterminer, en fonction d’hypothèses prises sur la configuration de l’ascenseur (vitesse, accélération, …) et de données constructives du bâtiment, le nombre d’ascenseurs nécessaires pour atteindre les performances recommandées. Ces calculs sont basés sur des données statistiques d’utilisation d’ascenseurs.

D’autres paramètres de bonne pratique permettent de simplifier le dimensionnement ou de mieux cibler le choix des équipements. Le tableau ci-dessous reprend ces ordres de grandeur :

Paramètres Types d’immeuble
Résidentiel Tertiaire Tour
Nombre de courses annuel < 200 000 < 400 000 < 800 000
Nombre de cycles/h max. 180 240 240

Pour donner les bases d’un dimensionnement, comme opéré par un constructeur, prenons un exemple simple :

Données

Soit un ascenseur d’immeuble de bureaux, occupé par un seul service dont les employés travaillent, pour la plupart, avec un horaire flexible.

Les données constructives de l’immeuble sont les suivantes :

Données constructives du bâtiment
Paramètres Unités Valeurs
Destinations privilégiées
niveau 0
Nombre d’étages occupés
8
Nombre total d’étages
9
Population estimée
nbre de personnes
320
Hauteur totale de course
m
28
Hauteur moyenne d’un étage
m
3,5

Pour lancer la première itération, le constructeur propose les données suivantes au niveau de l’ascenseur :

Information concernant les ascenseurs
Paramètres Unités Valeurs
Vitesse évaluée m/s
1,6
Accélération
m/s²
0,8
Charge évaluée de la cabine
nbre de personnes
8
Nombre estimé d’ascenseurs
3
Largeur d’ouverture
mm
800
Temps de fermeture de porte
s
2,5
Temps d’ouverture de porte
s
1,7
Temps de transfert
s
2,4

Simulation

Les résultats de la simulation sont les suivants :

Résultats du calcul
Paramètres Unités Valeurs Appréciation
Type de trafic
Entrant
Facteur de charge de la cabine (CLF : Car Load Factor)
%
80
Temps de course aller/retour (RTT : Round Trip Time)
s
90,6
Débit de population (HC : Handling Capacity)
nombre de personne / 5 min
63,6
Débit relatif de population (RHC : Relative Handling Capacity)
% population / 5 min
19,9
Excellent
Intervalle
s
30,2
Bon
Temps de course nominal
s
17,5
Excellent
Estimation de la performance
Excellent

Ces résultats sont comparés aux recommandations de performance; le but étant d’atteindre une performance acceptable tant au niveau du temps nominal et de l’intervalle de course que du débit relatif de trafic.

Le résultat de la simulation estime donc la performance excellente (en analysant les critères de performance ci-dessus) pour autant que le bâtiment soit équipé de 3 ascenseurs avec les caractéristiques énumérées ci-dessus.

Si les résultats des calculs estimaient la performance médiocre, il eut été nécessaire de relancer une itération avec un nombre d’ascenseurs supérieur par exemple, tout en sachant que le maître d’ouvrage cherche toujours, à juste titre, à limiter l’investissement. Il va de soi aussi que l’amélioration de la performance ne doit pas se faire au détriment du confort des utilisateurs et de la performance énergétique comme, par exemple, augmenter la vitesse et l’accélération de la cabine.

La simulation peut aussi donner des résultats auxiliaires tels que :

Nombres de courses et d’arrêt probables
Facteur de remplissage de cabine [%] Course aller / retour ou le Round Trip Time [s] Intervalle [s] Débit [per./5 min] Débit relatif [% pers/5 min] Nombre probable d’arrêts en montée Nombre probable d’arrêts en descente Course probable [m]
10 43,4 14,5 16,6 5,2 1,34 1 17,42
20 50 16,7 28,8 9,0 1,76 1 19,16
30 57,3 19,1 37,7 11,8 2,24 1 20,82
40 64,7 21,6 44,5 13,9 2,74 1 22,28
50 71,9 24 50 15,6 3,24 1 23,48
60 78,7 26,2 54,9 17,2 3,71 1 24,41
70 84,9 28,3 59,3 18,5 4,15 1 25,1
80 90,6 30,2 63,6 19,9 4,56 1 25,63

Interprétation des résultats

D’autres résultats peuvent encore être sortis de la simulation tels que :

  • le nombre de courses probables en montée et en descente vers différents étages,
  • le nombre d’arrêts moyen. Par exemple :
    • pour les bureaux : 7 à 8,
    • pour le résidentiel : 5,
  • les temps de course vers les différents étages,

Ces informations sont très précieuses pour les constructeurs et les installateurs mais, cependant, sortent du cadre du dimensionnement vu du côté du maître d’ouvrage.

Le graphique suivant donne une idée des zones de performance des intervalles et des débits relatifs en fonction du facteur de remplissage de la cabine :

Graphique de performance : trafic entrant.

Le graphique suivant montre la performance des temps de course en fonction de la vitesse nominale.

Graphique de temps de course nominale.

Cet exemple simplifié montre que le dimensionnement d’ascenseurs constitue un défi de taille. La difficulté ne réside pas nécessairement dans le dimensionnement par rapport aux données constructives de l’immeuble mais dans l’évaluation de l’occupation probable du bâtiment. Pour passer l’écueil :

  • Il faut préparer correctement l’esquisse par l’étude approfondie du programme d’occupation des étages.
  • Il est nécessaire de tenir compte du nombre de destinations probables (Rez-de-Chaussée, parking souterrain, cafétéria, …) et de leur emplacement.

2. Dimensionnement de la motorisation

Quel que soit le type de motorisation, il faut partir du dimensionnement des différents équipements. À partir de la connaissance des caractéristiques de la charge (couple, vitesse et puissance mécanique nécessaire), le réducteur éventuel, le moteur électrique et le système de démarrage et de régulation de la vitesse peuvent être dimensionnés.

Couple et puissance mécanique nécessaires en fonction du type de charge

Le couple de démarrage de la motorisation doit être suffisant pour mettre en mouvement la charge de l’ascenseur.

On considère que les caractéristiques de la motorisation sont une corrélation entre :

  • le couple,
  • la vitesse,
  • la puissance mécanique.

Suivant le type de motorisation, les profils des courbes du couple et de la puissance mécanique en fonction de la vitesse de rotation sont spécifiques.

Typiquement, pour le couple :

  • Les motorisations à traction ont un profil de couple constant, quelle que soit la vitesse de rotation.
  • Les motorisations hydrauliques, quant à elle, ont un profil de couple quadratique (C = f(n²)).

Quant à la puissance mécanique :

  • Les motorisations à traction ont un profil de puissance proportionnel à la vitesse de rotation de la roue.
  • Les motorisations hydrauliques, quant à elles, ont un profil de puissance proportionnel au cube de la vitesse de rotation de la roue.

Courbes caractéristiques pour une motorisation à traction.

Courbes caractéristiques pour une motorisation hydraulique.

Exemple de calcul du couple et de la puissance nécessaires à la sortie d’une motorisation à traction.

De manière simplifiée, le couple est calculé comme suit :

C = m  x a x r

où :

  • C : le couple en [Nm].
  • m = m1 – m2 : la charge de l’ascenseur en [kg].
  • m1 : masse de la cabine.
  • m2 : masse du contre-poids (m2 = 1,5 m1).
  • a = v / t : l’accélération de la cabine en [m/s²].
  • v : la vitesse de déplacement de la cabine et du contre-poids.
  • t : le temps d’accélération.
  • r : le bras de levier ou le rayon de la roue d’entraînement en [m].

À noter qu’il faudrait aussi tenir compte des différentes inerties de la motorisation, du poids du câble, …, mais cela sort du cadre de ce chapitre.

Quant à la puissance mécanique à l’arbre, elle est approchée comme suit :

P = C x ω

où :

  • P : la puissance en [W].
  • C : le couple en [Nm].
  • ω = 2 x π x n /60 : la vitesse angulaire en [rad/s].
  • n : la vitesse de rotation de la roue.

Dans le cas des ascenseurs à traction, le couple résistant reste pratiquement constant en fonction de la vitesse, tandis que la puissance nécessaire à l’arbre est, quant à elle, proportionnelle à cette même vitesse; c’est ce que l’on demande souvent au variateur de vitesse comme mode de fonctionnement.

Dimensionnement du moteur électrique

Par exemple, le dimensionnement d’un moteur asynchrone se résume, en simplifiant, à déterminer le couple nécessaire à déplacer la charge à vitesse nominale ; c’est le couple nominal. On en déduit une puissance nominale mécanique qui va déterminer le choix du moteur. Il faut aussi tenir compte qu’un couple additionnel doit être disponible (sur toute la plage de vitesse) entre le couple de démarrage et celui de la vitesse nominale ; c’est ce surcouple qui assure l’accélération.

Lorsque le couple de démarrage de la charge est supérieur à celui du moteur, il ne démarre pas. Dans le cas des ascenseurs à traction, le couple de démarrage de la charge peut être important (réducteur à vis sans fin par exemple).

3. Dimensionnement du démarreur

Couple du moteur électrique

À l’heure actuelle, concevoir un nouveau projet d’ascenseur sans prévoir leur commmande et leur régulation de vitesse par un variateur électronique de fréquence, ruine tout espoir de gestion énergétique efficace et d’optimisation du confort des utilisateurs.

Jusqu’il y a peu, le dimensionnement du variateur de vitesse par rapport au moteur électrique était très délicat. En effet, dans le cas des ascenseurs dont la charge varie continuellement presque à chaque démarrage, les fonctions telles que les compensations de démarrage (adaptation de la tension) et de glissement (charge variable) était peu maîtrisées. Aujourd’hui, ces fonctions de compensations sont automatiquement adaptées en temps réel en mesurant les paramètres de fréquence, de tension et de courant alimentant le moteur.

Couple du moteur

Le dimensionnement du variateur tient compte du couple à délivrer au moteur afin que celui-ci puisse répondre aux exigences de la charge utile en optimisant l’appel de puissance.

Dans le cas d’un moteur courant de type asynchrone ou synchrone, le couple est fonction du fluentreferx dans l’entrefer et du courant induit :

C [Nm] = Φ (Weber] x I[A]

où :

  • C est le couple à l’arbre du moteur [Nm].
  • Φ est le flux dans l’entrefer.
  • I est le courant dans l’induit.

Fonctionnement du variateur de fréquence

Pour optimiser le couple du moteur, le variateur en fréquence et tension maintien le rapport U/f constant en adaptant la tension U proportionnellement à la fréquence f délivrée au moteur (Φ~ U/f).

Courbes caractéristiques d’une régulation U/f constant.

Pour les démarrages lourds (motorisation à réducteur à vis sans fin par exemple), le démarrage s’effectue initialement en tension U0.

Couple de démarrage du variateur de vitesse

Comme on l’a vu précédemment, la caractéristique de charge de l’ascenseur est différente suivant le type d’ascenseur :

  • Pour l’ascenseur à traction, le couple reste constant quelle que soit la vitesse.
  • Pour l’ascenseur hydraulique, le couple varie de manière quadratique (le couple est fonction de la vitesse au carré).

Le couple de démarrage du variateur de vitesse doit être adapté en fonction de la caractéristique de charge :

  • Pour une motorisation hydraulique, la plage de variation du couple des pompes, en fonctionnement normal, se situe entre 30 et 80 % du couple nominal. Un dimensionnement énergétiquement intéressant du variateur de fréquence serait de considérer que le couple nominal pourrait être calé à 80 % sachant que les variateurs sont capables de fournir brièvement un surcouple de 160 %.
  • Pour une motorisation à traction, le couple à 100 % du variateur doit être proche du couple nominal de la charge. Un surcouple de démarrage à 160 % est nécessaire pour les charges importantes (motorisation avec réducteur à vis sans fin par exemple).

Puissance du variateur de vitesse

Une fois la caractéristique de charge du variateur de vitesse déterminée, le dimensionnement de la puissance du variateur de vitesse peut s’effectuer selon 4 méthodes :

  • La détermination du courant absorbé par le moteur à charge nominale correspond à celui du courant que peut fournir le variateur.
  • La détermination de la puissance apparente « S » du moteur à charge nominale correspond à celle du variateur :
Smoteur = Svariateur = U x I x racine de 3 /1000
  • La détermination de la puissance mécanique du moteur à charge nominale permet de connaître la puissance apparente du variateur :
Svariateur = Puissance mécanique / rendement cos phi
  • Suivant la puissance normalisée du moteur asynchrone par exemple, on peut déterminer celle du variateur.

4. Dimensionnement de l’installation électrique

Du choix de la motorisation et de son dimensionnement, il en découle celui de l’installation électrique de puissance. C’est à ce stade qu’un choix erroné :

  • Entraîne, en cas de surdimensionnement de l’installation, des investissements plus conséquents et une réservation de puissance surévaluée auprès du distributeur d’électricité.
  • Risque de provoquer des perturbations sur le réseau électrique telles que les chutes de tension en ligne, soit en cas de sous-dimensionnement de l’installation électrique interne au bâtiment, soit en cas de sous-évaluation de la réserve de puissance souscrite au distributeur d’électricité.

Le tableau suivant montre que le calibre de la protection moteur d’une motorisation sans réducteur, et commandé par variateur de fréquence, permet de dimensionner l’installation électrique presque comme un circuit classique triphasé de faible puissance.

Type de motorisation
Paramètres Hydraulique Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 0,63 1 1
Charge de l’ascenseur [kg] 630 630 630
Puissance du moteur électrique [kW] 11 5,5 3,3
Calibre de la protection moteur [A] 50 35 16

5. Rôle du maître d’ouvrage dans tout cela ?

Le rôle du maître d’ouvrage dans le dmensionnement proprement dit est limité. Toutefois, il doit garder en mémoire les ordres de grandeurs de dimensionnement repris ci-dessus. Il doit aussi demander à l’installateur de lui fournir le détail des résultats des simulations avec les explications adéquates simplifiées qui justifient le choix de la motorisation, de l’installation électrique, …


Considérations énergétiques de dimensionnement

Comme on l’a vu précédemment, le nombre d’ascenseurs dans un bâtiment, leur charge utile et leur vitesse sont sélectionnés sur la base de calculs de trafic.

La charge utile et la vitesse sont les principaux facteurs qui déterminent :

  • la puissance nécessaire à la motorisation pour permettre à la cabine d’effectuer ses déplacements verticaux,
  • la consommation d’énergie par course,
  • le courant de démarrage, et par conséquent l’appel de puissance influencant la pointe quart-horaire,

1. Vitesse de la cabine

Dans les bâtiments tertaires, la capacité de transport d’un ascenseur n’est pas du tout proportionnelle à sa vitesse (pertes de temps lors du chargement, fermeture des portes, accélération, freinage, ouverture des portes, déchargement).

Exemple.

Au lieu de la vitesse très largement répandue de 1,0 m/s pour des maisons d’habitation avec 3 à 5 arrêts, on peut opter pour une vitesse de 0,63 m/s. La capacité de transport n’est ainsi que faiblement réduite, les temps d’attente et la durée de la course ne sont majorés que de quelques secondes. La puissance du moteur et le courant de démarrage sont par contre diminués d’environ 35 %.

Dans les immeubles tertiaires, l’occupation plus importante encore réduit l’importance de la vitesse de déplacement par rapport au temps d’immobilisation de la cabine.

Au niveau du dimensionnement, il est intéressant de considérer cette réduction de vitesse en l’introduisant dans le simulateur afin de voir les différences de performances; demandez-le aux constructeurs. Si les différences de performances ne sont pas probantes, pourquoi ne pas prévoir d’emblée un fonctionnement des ascenseurs à vitesse réduite; cela permettrait de dimensionner toute l’installation électrique et la motorisation au plus juste.

2. Motorisation

Photo moteur ascenseur - 01.Photo moteur ascenseur - 02.

La consommation d’énergie et les courants de démarrage sont déterminés par le système d’entraînement. L’importance des chutes de tension au démarrage dépend non seulement du système d’entraînement mais aussi des caractéristiques du réseau amont.

Un plus faible appel de puissance au démarrage et pendant une course à vitesse constante se traduit par :

  • des taxes de raccordement plus avantageuses (réserve de puissance moindre, compteur moins puissant, …),
  • une installation électrique plus économique (câbles de plus faible section, fusibles, etc.),
  • de plus faibles chutes de tension (scintillement),
  • des pertes dans le réseau d’alimentation moins importantes (les pertes augmentent avec le carré de l’ampérage),
  • un besoin plus faible de puissance de groupe électrogène (si présent ou à dimensionner).

L’utilisation de motorisation avec variateur de vitesse permet des courants de démarrage maîtrisés. Les sollicitations mécaniques du moteur sont par ailleurs fortement atténuées, facteur important dans le contexte de la longévité et de la fiabilité des systèmes de motorisation. Une grande longévité se traduit également par des économies d’énergie (grise) et des économies sur les coûts.

3. Nombre de démarrage

Le nombre de démarrages par heure ou par jour permet de déterminer la consommation moyenne ainsi que la chute de tension admissible au démarrage sur le réseau d’alimentation. Sur la base de ces données, on peut ensuite déterminer le dimensionnement correspondant des installations électriques nécessaires. Il est également possible d’en déduire le coût de la consommation d’énergie et le montant de la réserve de puissance à consentir. Il est ainsi possible de comparer la rentabilité des systèmes d’entraînement.

4. Système de commande et de gestion, et auxiliaires

Le système de commande

Le système de commande de l’ascenseur engendre une consommation permanente de courant (ventilation des armoires de commande et de la motorisation, commandes électromécaniques, …) mais permet également de réduire la consommation d’énergie pour l’exploitation de l’ascenseur. Un système de commande et de gestion par ordinateur ou automatique risque de consommer plus; mais cette consommation n’a rien à voir avec le nombre d’appels de cabine réduit pour une même fréquentation de l’immeuble.

Il est intéressant pour le maître d’ouvrage ou le responsable énergie de connaître les consommations des auxiliaires; ne pas hésiter à le demander (dans le cahier des charges par exemple).

L’éclairage

Photo éclairage ascenseur.

Un éclairage automatique de la cabine en lieu et place d’un éclairage permanent et le juste dimensionnement du luminaire en fonction du niveau d’éclairement recommandé par la norme (50 lux), autorise des économies relativement importantes sur la consommation d’énergie.

Concevoir

Pour en savoir plus sur le choix de l’éclairage.
Salle d'opération

Bases normatives pour les salles propres et environnements maîtrisés et apparentés

Bases normatives pour les salles propres et environnements maîtrisés et apparentés


Base normative

1. Maîtrise de la biocontamination

Normes Titre
ISO 14698-1 Maîtrise de la biocontamination
ISO 14698-2 Évaluation et interprétation des données
ISO 14698-3 Méthode de mesurage de l’efficacité des process

2. Maîtrise particulaire

Normes Titre
ISO 14644 Classification de la propreté de l’air
ISO 14644-1 Exigences d’essai
ISO 14644-2 Méthode de mesurage de l’efficacité des process
ISO 14644-3 Métrologie et méthode d’essai (à venir)
ISO 14644-4 Conception, construction et fonctionnement
ISO 14644-5 Exploitation des installations (à venir)
ISO 14644-6 Termes et définitions (à venir)
ISO 14644-7 Isotechnie
ISO 14644-8 Maîtrise de la contamination moléculaire

Classification particulaire

1. Classification ISO 14644

Numéro de classification

ISO

Concentrations maximales admissibles (particules/m³ d’air) en particules de taille > à celles données ci-dessous
0.1µm 0.2µm 0.3µm 0.5µm 1µm 5µm
Classe ISO 1
10
2
Classe ISO 2
100
24
10
4
Classe ISO 3
1 000
237
10
35
8
Classe ISO 4
10 000
2 370
1 020
352
83
Classe ISO 5
100 000
23 700
10 200
3 520
832
29
Classe ISO 6
1 000 000
237 000
102 000
35 200
8 320
293
Classe ISO 7
352 000
83 200
2 930
Classe ISO 8
3 520 000
832 000
29 300
Classe ISO 9
35 200 000
8 320 000
293 000

2. Classification selon la norme FS 209E

Nom de classe

Nombre maximal de particules en suspension admissible par unité de volume d’air ambiant (pied cube)

en fonction de leur taille en μm

SI ANGLAISE
0.1µm/pied³
0.2µm/pied³
0.3µm/pied³
0.5 µm/pied³
0.5 µm/pied³
M 1.5
1
35
7.5
3
1
M 2.3
10
350
75
30
10
M 3.5
100
750
300
100
M 4.5
1 000
1 000
7
M 5.5
10 000
10 000
70
M 6.5
100 000
100 000
700

3. Equivalence entre les différentes normes internationales de classification des salles propres

Nbre de part

≥ 5μm/m³
(environ)

US Fed. Std 209 E
SI
1991

US Fed. Std 209 E
ANGLAIS
1991

EN ISO
14644-1

1996

France
AFNOR
NF X 44 101
1981

BPF / GMP

Europe
Indust. Pharm.
1989

Nbre de part

≥ 0,1μm/m³
(environ)

ISO 1 10
1 35
4 ISO 2 100
10 M 1 350
35 M 1.5 1 ISO 3 1 000
100 M 2 3 500
353 M 2.5 10 ISO 4 10 000
1 000 M 3 35 000
3 530 M 3.5 100 ISO 5 A et B 100 000
10 000 M 4 350 000
35 300 M 4.5 1 000 ISO 6 1 000 000
100 000 M 5
353 000 M 5.5 10 000 ISO 7 C
1 000 000 M 6
3 530 000 M 6.5 100 000 ISO 8 D
10 000 000 M 7
35 530 000 ISO 9

Comparaison générale entre les différentes normes

PAYS  

ALLEMAGNE

SUISSE

ANGLETERRE

Intitulé de la norme DIN 1946/4 (1988) SWKI (1987) DHSS (1986)
 

Salle d’opération classique  

Débit d’air soufflé 2 400 m³/h 2 000 / 3 000 m³/h 2 340 m³/h
Débit d’air neuf 1 200 m³/h 80 m³/h.pers 2 340 m³/h
Type de flux Turbulent
Niveau maximal  d’aérobiocontamination < 200 UFC /m³

Salle d’opération à haut risque  

Débit d’air soufflé 3 600 m³/h 10 000 m³/h 10 725 m³/h
Débit d’air neuf 1 200 m³/h 80 m³/h.pers 1 260 m³/h
Type de flux Laminaire Laminaire
Niveau maximal  d’aérobiocontamination < 10 UFC /m³

PAYS  

ALLEMAGNE

SUISSE

ANGLETERRE

Intitulé de la norme DIN 1946/4 (1988) SWKI (1987) DHSS (1986)
 

Salle d’opération classique  

Débit d’air soufflé 2 400 m³/h 2 000 / 3 000 m³/h 2 340 m³/h
Débit d’air neuf 1 200 m³/h 80 m³/h.pers 2 340 m³/h
Type de flux Turbulent
Niveau maximal  d’aérobiocontamination < 200 UFC /m³
 

Salle d’opération à haut risque  

Débit d’air soufflé 3 600 m³/h 10 000 m³/h 10 725 m³/h
Débit d’air neuf 1 200 m³/h 80 m³/h.pers 1 260 m³/h
Type de flux Laminaire Laminaire
Niveau maximal  d’aérobiocontamination < 10 UFC /m³

Toiture combinée

Toiture combinée


La toiture combinée consiste en un mélange des techniques « toiture chaude » et « toiture inversée« .

L’isolation est mise en place en deux couches.

La première couche d’isolant est recouverte par la membrane d’étanchéité.

La deuxième couche d’isolant est placée sur la membrane d’étanchéité. La technique de la toiture combinée protège ainsi la membrane d’étanchéité contre les chocs thermiques et le rayonnement ultraviolet, et de ce fait, ralentit son vieillissement.

Un écran pare-vapeur est parfois interposé entre le support et l’isolant inférieur.Celui-ci n’est pas nécessaire lorsque la résistance thermique de la couche supérieure est deux fois plus importante que la résistance thermique de la couche inférieure.
Le lestage est nécessaire.

  1. Lestage
  2. Natte de protection
  3. Isolant 1
  4. Membrane d’étanchéité
  5. Isolant 2
  6. Pare vapeur
  7. Support

Toiture froide

Toiture froide


Généralités

La toiture froide désigne la toiture plate dont l’isolant est placé en dessous du support de l’étanchéité avec une lame d’air ventilée interposée.

Jadis régulièrement mis en œuvre, ce système est actuellement complètement dépassé et est à proscrire.

  1. Lestage (éventuel)
  2. Membrane d’étanchéité
  3. Support
  4. Lame d’air ventilée
  5. Isolant
  6. Pare vapeur étanche à l’air
  7. Plafond

En effet, l’isolation d’une toiture plate par ce système provoque presque inévitablement de la condensation interne.

La vapeur d’eau qui migre de l’intérieur vers l’extérieur se condense sur le support d’étanchéité, dans l’isolant ou dans l’espace aéré et retombe sur l’isolant. La ventilation réelle de la lame d’air est souvent plus faible que celle nécessaire.

Le support d’étanchéité est parfois beaucoup plus froid que l’air extérieur de ventilation dont la vapeur se condense sur la face inférieure de l’étanchéité (surrefroidissement).

Lorsque le plafond n’est pas étanche à l’air, l’air intérieur chaud est aspiré dans l’espace ventilé et s’y condense d’autant plus que les courants d’air sont importants.

Cette condensation peut entraîner  l’altération de l’isolant et la suppression de son efficacité, la pourriture des planchers, le gel des matériaux, le décollement ou le ramollissement des matériaux agglomérés, le développement de moisissures, etc. 


Variantes

De même que l’on évitera de réaliser des toitures froides, on s’abstiendra en règle générale de placer l’isolant à la face inférieure du plancher de toiture, dans un faux plafond, ou entre le plancher et le béton de pente.

Isolation par l’intérieur

  1. Lestage (éventuel)
  2. Membrane d’étanchéité
  3. Support
  4. Isolant
  5. Pare vapeur (éventuel)

Isolation dans le faux plafond

  1. Lestage (éventuel)
  2. Membrane d’étanchéité
  3. Support
  4. Vide du plafond
  5. Isolant
  6. Pare-vapeur
  7. Plafond

Isolation sous béton de pente

  1. Lestage (éventuel)
  2. Membrane d’étanchéité
  3. Béton de pente
  4. Isolant
  5. Pare vapeur
  6. Support

Choisir les luminaires – critères généraux

Choisir les luminaires - critères généraux


En fonction de la distribution lumineuse souhaitée

Lorsque l’on choisira un luminaire, il faudra bien faire attention à sa courbe photométrique. Elle indique la distribution des luminosités d’un luminaire dans le sens transversal et dans le sens longitudinal (définition des plans de coupe).

distribution lumineuse

Par exemple dans le cas des allées de supermarchés illuminées par un jeu de luminaires équipés de tube fluorescent (pas d’éclairage d’accentuation), on choisira des luminaires éclairant plus fortement les rayonnages (300 lux à assurer) que le sol (150 lux à assurer). Dans beaucoup de commerces, tels que les magasins d’habillement, on essaiera de fournir un éclairage vertical important.

La hauteur du local peut aussi influencer le choix du luminaire où l’optique permet une distribution extensive, symétrique, asymétrique, intensive en modifiant le niveau d’éclairement, l’uniformité, …

Hauteur Type de luminaire
2,5 – 3 m Luminaires à distribution extensive avec tubes fluorescents disposés individuellement ou en rangées en fonction du niveau d’éclairement à atteindre. Des luminaires asymétriques peuvent être disposés le long des fenêtres éventuelles.

3 – 4 m Les luminaires sont semblables à la situation précédente: disposés en rangées sur le plafond ou suspendus, parallèlement aux fenêtres principales et à l’axe habituel du regard des occupants.

4 – 7 m

Toit plat avec ou sans lucarne ou toit en dent de scie

Ici aussi, le choix le plus économique est l’utilisation de luminaires avec lampes fluorescentes, disposés en rangées parallèles aux ondulations du toit. Si la hauteur sous plafond est inférieure à 5 m, on choisira une distribution extensive. Au-delà de 5 m, la distribution intensive est la plus adéquate.

7 m et plus La meilleure solution sont des luminaires à distribution symétriques équipés de lampes à décharge haute pression de puissance importante (250 .. 1 000 W). Tout en garantissant l’uniformité correcte, on a tout intérêt à avoir la puissance la plus élevée par luminaire, ce qui permet de diminuer le nombre de luminaires et par la même occasion les frais de maintenance et d’installation.

Lorsque des surfaces inclinées doivent disposer d’un éclairement important, il sera nécessaire d’installer des luminaires supplémentaires équipés de lampes fluorescentes. Si la surface des pièces travaillées ou des équipements utilisés est sensible aux réflexions, seuls des luminaires intensifs avec tubes fluorescents et ventelles peuvent convenir (cfr. cas précédent).
et du coût de remplacement des lampes.

En fonction de l’éblouissement

En fonction de la tâche exécutée, la sensibilité des occupants à l’éblouissement et aux réflexions sera plus ou moins grande.

Les normes introduisent le paramètre du taux d’éblouissement unifié (UGR) qui caractérise le niveau d’éblouissement ou la luminance apparente d’un ensemble de luminaires par rapport à la luminance de fond perçue dans le champ visuel d’un ou de plusieurs observateurs. Cette valeur, recommandée par la norme suivant le type de local ou de tâche, est comprise entre 10 (peu d’éblouissement) et 30 (fort éblouissant) et ne doit pas être dépassée. L’UGR sera calculé par l’auteur du projet (dialux dispose aussi d’une fonction calculant l’URG en un point ou un plan donné) et influencera le choix d’un type de luminaire, sa position et son orientation dans le local considéré et pour la tâche considérée. Une valeur d’UGR de 19 est monnaie courante !

De manière générale des luminaires pourvus de grilles de défilement ou de ventelles permettront de diminuer les risques d’éblouissement en cachant la lampe de la vue directe directe (à condition que l’angle de regard soit respecté).

photo sous éblouissement.  photo sans éblouissement.

Avant … et … Après.

En présence d’écrans de visualisation (ordinateurs, écrans de contrôle, écrans de commande de machines-outils…), il est conseillé d’opter pour des optiques présentant une luminance réduite (luminaires dits basse luminance).

Photo optiques avec luminance réduite.

Ce type de luminaire est également le bienvenu pour les travaux de précision. Pour ceux-ci, les postes de travail peuvent être équipés de luminaires ponctuels basse luminance permettant un éclairement important et localisé.

Dans la salle de sports

Dans toutes les gammes de luminaires pour salles de sports, il existe des luminaires avec grilles de défilement.

luminaires avec grilles de défilement

Cependant, l’éblouissement que l’on cherche à éviter dans les salles de sport est l’éblouissement par la vue directe de la lampe lorsqu’on regarde vers le haut. Les grilles de défilement n’empêcheront pas un tel éblouissement. Seul le choix des lampes et l’emplacement des luminaires permettront de l’éviter. La grille de défilement limitera l’éblouissement d’inconfort, mais celui-ci n’est pas très important dans une salle de sport.

De plus, la grille de défilement diminue le rendement des luminaires.


En fonction du rendement lumineux

Rendement d'un luminaire.

Tout en respectant les autres critères de choix, on choisira toujours les luminaires ayant le meilleur rendement lumineux. Celui-ci doit donc systématiquement être demandé au fournisseur ou vérifié dans les catalogues.

Remarque : le rendement des luminaires LED est souvent 100 % car le rendement de la source lumineuse n’est plus mesuré séparément du luminaire. Le rendement est alors exprimé en lumen/watt. L’allure de la courbe photométrique est un paramètre très important !

   

ηbas = 62 %
Ηhaut = 27 %
Ηtot = 89 %
UGR < 19
CIE flux code 70 99 100 70 89

Coûts totaux d’une installation en fonction du rendement des luminaires

Cas réel : local de 9,5 x 5,5 m, éclairement recommandé = 500 lux, luminaires 2 x 36 W, durée de fonctionnement 6h/jour, 250 jours/an

Rendement

Nb de luminaires

P installée

Prix d’un luminaire

Investissement

Facture électrique (0,17 €/kWh)

0,5 9 648 W 87,5 € 787,5 € 169 €/an
0,7 6 432 W 117,5 € 705 € 112 €/an
Gains grâce au haut rendement 82,5 € 57 €/an
Gain total sur 20 ans (durée de vie des luminaires) 1 140 €

Pour un même niveau d’éclairement, il faudra un nombre plus important de luminaires à mauvais rendement. Il est dès lors possible que l’on soit pénalisé par une surconsommation et par un surinvestissement.

Les luminaires bas de gamme peuvent en outre présenter d’autres défauts : mauvais contrôle de l’éblouissement, qualité mécanique des composants, …

D’une manière qualitative, voici les éléments qui favorisent un rendement élevé :

Des optiques réfléchissantes

Les réglettes nues sont souvent attractives par leur prix. Leur choix constitue cependant une erreur. Le flux lumineux n’étant pas du tout contrôlé, elles présentent des pertes importantes et des risques d’éblouissement trop importants pour les tâches demandant une attention soutenue.

Photo luminaire sans optique réfléchissante.

Rendement inférieur : 58 %.

Photo luminaire avec optique réfléchissante.

Rendement : 83 %.

De même, les réflecteurs peints présentent un moins bon rendement et un plus mauvais contrôle de l’éblouissement que les réflecteurs miroités. De plus, ils jaunissent avec le temps.

Photo réflecteurs peints.

Cloche émaillée
Rendement : 69 %.

Photo réflecteur alu.

Cloche alu
Rendement : 80 %.

Des matériaux translucides de qualité

Photo matériaux translucides.

Rendement : 83 %.

Des réflecteurs peu « enveloppants »

Toutes les surfaces de réflexion, définissant les caractéristiques photométriques du luminaire, sont autant de sources d’absorption de la lumière émise par les lampes. Moins ces surfaces sont importantes, plus le rendement du luminaire est élevé. Par exemple, les petits luminaires et les optiques paraboliques enveloppent de façon importante la lampe.

Photo réflecteur "enveloppant"

Rendement inférieur : 81 %.

Photo réflecteur peu "enveloppant"

Rendement inférieur : 79 %.

De l’écartement entre les sources

Dans les luminaires pourvus de plusieurs lampes, il y a un risque d’absorption du flux lumineux par les lampes entre elles (elles ne sont pas réfléchissantes). Il faut donc limiter le nombre de lampes par luminaire et favoriser un écartement important entre celles-ci.

Rendement : 87 %.

Rendement : 79 %.

Rendement < 60%.

De la présence de grilles de défilement ou ventelles

Tout dispositif destiné à cacher la lampe à la vue directe pour diminuer les risques d’éblouissement aura une influence néfaste sur le rendement. Puisqu’il fait obstacle à la lumière.

Photo luminaire sans grilles de défilement.

Rendement : 93 %.

Photo luminaire avec grilles de défilement.

Rendement : 75 %.

Rendements minimum recommandés

Luminaires directs à ventelles planes 70 %
Luminaires directs basse luminance 65 %
Luminaires directs très basse luminance 55 %
Luminaires mixtes 75 %
Luminaires indirects 65 %
Luminaire à optique asymétrique 60 %

Attention cependant qu’avec des luminaires équipés de lampes T5 et de ventelles paraboliques,  on peut obtenir des rendements très élevés et par la même occasion réduire de manière significative le risque d’éblouissement.

Photo luminaire avec ventelles paraboliques.
ηbas = 85 %


En fonction de l’assemblage, du montage et de la maintenance

Photo montage d'un luminaire.

Tous les luminaires doivent être construits de manière à pouvoir supporter des contraintes normales de montage et d’utilisation. Les luminaires montés en saillie ne peuvent pas se tordre lorsqu’ils sont montés sur des plafonds irréguliers. Les luminaires suspendus ne peuvent présenter de flèche entre supports, ni de distorsion de ceux-ci.

Photo montage d'un luminaire.

La construction du luminaire doit rendre la maintenance aisée : facilité de démontage des éléments, sans endommagement possible. Par exemple, l’optique peut être montée sur charnière pour faciliter son ouverture.

De plus, les instructions de maintenance et d’utilisation (choix de la lampe appropriée, par exemple) doivent être précises.

Quand les plenums (espaces au-dessus des faux plafonds) ne sont pas accessibles, il faut prendre certaines précautions afin de pouvoir accéder aux boîtes de branchement électrique des circuits au travers des luminaires.


En fonction de la structure du plafond

On peut rencontrer des luminaires :

Phot luminaire encastrés dans les faux plafonds.

Encastrés dans les faux plafonds.

Photo luminaire posés sur les faux plafonds.

En saillies, posés sur le plafond.

Photo luminaire suspendus.

Suspendus.

Encastrés

Lorsqu’on dispose d’un faux plafond, on peut y encastrer les luminaires. Dans le cas d’un faux plafond démontable, les dimensions des luminaires devront s’adapter au module du faux plafond.

En cas d’incendie, la déformation des faux plafonds risque de provoquer la chute des luminaires. Ainsi, dans les circulations servant de chemin d’évacuation, il est recommandé de fixer les luminaires directement à la dalle, au moyen de tiges, de câbles ou de chaînette.

En saillie

Lorsque le plafond est en béton, ou lorsqu’on dispose d’un faux plafond fixe qu’on ne souhaite pas rénover, on placera des luminaires en saillie.

Suspendus

Les luminaires suspendus s’installent principalement dans les locaux où la hauteur sous plafond est importante (hsp > 3,5 m). Dans ce cas, on peut favoriser des luminaires présentant une composante indirecte ne dépassant pas 50 % du flux total émis par le luminaire. Cela permet d’éviter la présence d’une zone fort sombre au dessus des luminaires.

Photo luminaire suspendus.

Les luminaires suspendus seront également utilisés lorsque l’on désire apporter un éclairage localisé des postes de travail.

Ils sont également suspendus lorsque le plafond est incliné, de manière à avoir tous les luminaires à la même hauteur.


En fonction de la qualité électrique

Picto label de qualité.

Les ballasts ne peuvent produire trop de signaux en haute fréquence sur le réseau électrique. Ceux-ci peuvent perturber les autres appareils électriques.

Pour éviter cet inconvénient, les luminaires complets et/ou les ballasts doivent posséder un label de qualité.

Picto protection électrique de classe I.

Dans la plupart des applications, les luminaires doivent être raccordés à la terre (protection électrique de classe I).

Picto luminaires de classe II.

Dans les sanitaires (projections d’eau) où un contact direct avec le luminaire est possible, il est recommandé d’utiliser des luminaires de classe II.


En fonction des protections nécessaires

Types de local

Résistance aux chocs

Protection contre les poussières et l’humidité

Protection électrique

Précisions

Bureaux

Classes

0,5J IP20

Classe I

Luminaires ouverts, non protégés contre les infiltrations d’eau.

Couloirs et escalier

> 6J

Luminaires ouverts, non protégés contre les infiltrations d’eau et  résistants aux chocs.

Locaux techniques, réserves, archives

IP44

Luminaires fermés, protégés contre les poussières et les projections d’eau.

Sanitaires

6J

Classe II

Luminaires fermés, protégés contre les poussières et les projections d’eau et résistants aux chocs.

Cas particulier des salles de sport

Photo luminaire salle de sport.

Les luminaires utilisés dans les salles où l’on pratique des jeux de balles doivent résister à l’impact des balles.

Ils doivent de préférence porter le label ci-dessous.

Picto luminaire salle de sport.

Les luminaires qui portent ce label ont été soumis au test du ballon selon la norme DIN. Ce test contrôle la sécurité électrique après une série d’impacts de ballons dosés.

Pour les jeux de ballons, le « bac » doit être pourvu d’une glace ou d’une grille de protection dont la maille ne laisse pas pénétrer la plus petite balle utilisée dans la salle.

Cas des hôpitaux

Les salles à ambiance contrôlée

Dans certains locaux à risque, est-il impératif d’avoir un degré IP élevé contre la pénétration des poussières ou des « mouches » dans le luminaire. De plus, le degré IP doit-il se limiter uniquement au luminaire et pas à l’ensemble luminaires faux-plafond ? Dit d’une autre manière, faut-il ou non encastrer les luminaires dans les zones à ambiance contrôlée avec joint étanche ?

Dans les faux plafonds, on trouve souvent des germes tels que les aspergillus, responsables d’infections pulmonaires graves pour des patients « immuno déprimés » (dont la barrière immunitaire a été abaissée). Les luminaires représentent un risque de passage de la poussière du faux plafond vers le local. De plus, la poussière venant « du bas », de l’ambiance du local, se dépose aussi sur les surfaces horizontales des luminaires.

Mais les luminaires apparents offrent une surface supérieure importante où la poussière peut se déposer. De plus, en terme de nettoyage ou de désinfection (ce qui est souvent le cas dans les salles à ambiance contrôlée), le luminaire apparent présente une plus grande surface à traiter que le luminaire encastré.

Pour ces raisons, dans les locaux à risque, on placera des luminaires avec une certaine herméticité : le degré IP sera au moins égal à 5 X.

Les chambres d’hospitalisation

Dans les chambres d’hospitalisation, le luminaire placé au dessus de la tête du patient doit combiner plusieurs éclairages :

  • L’éclairage général. Il est en général orienté vers le haut (indirect) de manière à ne pas éblouir le patient ;
  • L’éclairage de lecture en direct au niveau de la tête du patient;
  • L’éclairage de soins qui peut combiner l’éclairage général et l’éclairage de lecture ;
  • L’éclairage de veille dans certains cas de pathologie (surveillance en soins intensif par exemple) ou comme éclairage de nuit.

Les critères de choix d’un tel type de luminaire sont très précis. De plus, on combine souvent l’éclairage avec d’autres techniques :

  • La distribution de gaz médicaux ;
  • L’appel infirmière ;
  •  …

Cas des ambiances « explosives »

Des Picto luminaire ambiances "explosives".luminaires doivent être utilisés dans ce type d’ambiance.


En fonction de la puissance des sources lumineuses

Un luminaire est conçu pour des sources lumineuses d’une certaine puissance et il est impératif de se limiter à cette puissance. En effet, la dissipation thermique doit être suffisante afin d’assurer une durée de vie normale de la source et les performances du luminaire.

De plus, tout en respectant l‘uniformité d’éclairement, on a intérêt à choisir les luminaires comprenant la puissance installée la plus importante. Ceci réduira le nombre de luminaires et de ballasts et donc l’investissement.

Cependant, lorsqu’on a un faux plafond démontable et modulaire, la puissance unitaire des luminaires pour tubes fluorescents dépend du module des faux plafonds. Exemple : si le faux plafond a un module 60 cm x 120 cm, on ne pourra choisir des luminaires de x fois 58 W (ou d’autres sources de longueur 1,5 m).

Photo luminaire faux plafond.

De même, parmi les lampes T8, les tubes de 18 W (75 lm/w) ont une efficacité lumineuse inférieure aux tubes de 36 W (86 lm/W) ou 58 W (89 lm/W).  Cette même constatation est à formuler dans les sources T5 : la lampe T5 14 W est moins efficace que les T5 28 W ou 35 W.

Exemple : D’un point de vue énergétique, il est plus intéressant d’utiliser des luminaires de 2 x 36 W que de 4 x 18 W. D’autant plus qu’ils ont des prix semblables.

Les luminaires 4 x 18 W seront utilisés dans des faux plafonds de structure carrée.


En fonction de la climatisation

Luminaire avec extraction intégrée vers un plenum.

Luminaire pour tubes T5 avec extraction sur les bords.

Dans les bureaux climatisés, intégrer l’extraction d’air dans les luminaires permet d’évacuer jusqu’à 60 % de la puissance thermique produite (partie convective) par les lampes et les auxiliaires. Il en résulte évidemment une diminution des frais de climatisation.

Ce mode d’extraction permet, en outre, de faire l’économie de bouches séparées souvent plus coûteuses.

Si les luminaires sont équipés de tubes fluorescents de type T5, une extraction d’air au travers des lampes entraînera une chute du flux lumineux car la température de l’air autour de la lampe ne sera plus optimale. Cette extraction devra donc se faire par des canaux à l’extérieur ou sur la face latérale des armatures. Le potentiel d’évacuation de chaleur est alors nettement moindre.

Extraction d’air au travers des luminaires pour lampes T5.


En fonction du prix

Le choix d’un luminaire se fera également en fonction du prix de revient de l’installation. A critère de confort égal, celui-ci dépend :

  • du prix du luminaire et de son placement,
  • du prix des lampes,
  • de la consommation sur sa durée de vie,
  • du coût de remplacement des lampes.

Calculs

Pour comparer plus précisément le prix de revient de plusieurs installations, en connaissant :

  • le prix d’un luminaire (placement compris),
  • le prix des lampes,
  • le rendement du luminaire,

cliquez ici !

Economie réalisée grâce à l’intermittence du chauffage

Economie réalisée grâce à l'intermittence du chauffage


Image de l’économie : la température intérieure

La consommation d’une installation de chauffage est proportionnelle à la différence de température entre l’intérieur et l’extérieur. Plus cette différence diminue, moins on consommera.

Graphiquement, on peut représenter la consommation de chauffage comme suit :

Schéma consommation de chauffage - 01.

Schéma consommation de chauffage - 02.

Image de la consommation de chauffage sans intermittence et avec intermittence.

On voit donc que plus la température intérieure chute et plus le temps pendant lequel cette température est basse est important, plus l’économie d’énergie réalisée grâce à l’intermittence est importante.


Paramètres influençant l’économie

Si l’installation est coupée la nuit et le week-end, quelles seront les économies engendrées ? La figure ci-dessous résume les différents paramètres qui influencent le bilan thermique.

Schéma paramètres influençant l'économie.

L’économie est fonction du degré d’isolation

Plus le bâtiment est isolé, moins la chaleur emmagasinée s’échappera et plus la température intérieure restera stable lors de la coupure du chauffage. L’économie réalisée sera faible.

Au contraire, lorsque le chauffage est coupé dans un bâtiment peu isolé (des façades très vitrées, par exemple, avec des infiltrations d’air importantes)), la température intérieure chute rapidement. C’est dans ce genre de bâtiment « passoire » que le placement d’un régulateur-programmateur sera le plus rentable.

L’économie est fonction de l’inertie de bâtiment

Imaginons un local très lourd, très inerte (anciennes constructions massives) : la température intérieure chutera peu durant la coupure de nuit, car beaucoup de chaleur s’est accumulée dans les murs. Les économies seront faibles… . Par exemple, il ne sert à rien de placer un optimiseur dans un château fort.

Par contre, si le bâtiment est du type préfabriqué, fait de poutrelles et de cloisons légères : dès que le chauffage s’arrêtera, la température chutera. Dans ce cas, la consommation est pratiquement proportionnelle à l’horaire de chauffe. C’est l’exemple de la voiture qui monte rapidement en température dès l’apparition du soleil et qui se refroidit très vite aussi dès que l’on coupe le chauffage.

L’économie est fonction de la durée de coupure

Une coupure d’un week-end est beaucoup plus efficace qu’une coupure nocturne. La coupure sur le temps de midi est sans intérêt.

Économie d’énergie suite à un abaissement nocturne pour différents types de bâtiments en fonction de la durée de l’arrêt de chauffage. Le pourcentage d’économie se rapporte à un chauffage permanent.

  1. Bâtiments de construction légère
  2. Bâtiments de construction lourde

Par exemple, une interruption du chauffage de 12 heures génère 11 % d’économie dans un bâtiment de construction légère (faible inertie thermique). On gagne encore 5% si on coupe 2 heures de plus.


Source : Staefa Control.

L’économie est fonction du sur-dimensionnement de l’installation de chauffage

Si l’installation est très puissante (chaudière et radiateurs surdimensionnés), la relance du matin pourra se faire en dernière minute. Et donc la température intérieure de nuit pourra être plus faible.

Si l’installation est dimensionnée au plus juste, par les plus grands froids, il sera impossible de couper l’installation la nuit, sous peine de ne pouvoir assurer le confort au matin. Aucune économie ne sera possible.

L’économie est fonction du type d’installation de chauffage

Si le chauffage est assuré par un système à air chaud (chauffage très peu inerte), la mise en régime et l’arrêt du chauffage sont immédiats. Si l’installation est réalisée par un système de chauffage par le sol (chauffage très inerte), les temps de réponse seront forts longs et l’intermittence n’est guère envisageable …

Exemple

Exemple.

(Source : « Guide pour la pratique de l’Intermittence du chauffage dans le tertiaire à occupation discontinue », ADEME, 1989)

Trois bâtiments, respectivement de 500 (1 niveau), 2 000 (2 niveaux) et 4 000 m² (4 niveaux) sont chauffés 10 h par jour et 5 jours par semaine.

Le niveau de surpuissance de l’installation de chauffage est assez élevé puisqu’il atteint 2 fois les déperditions (calculées avec un taux de ventilation réduit).

Trois niveaux d’isolation ont été repris :

  • Peu isolé : simples vitrages, murs non isolés.
  • Très isolé : doubles vitrages, murs avec 8 cm d’isolant.
  • Bien isolé : niveau intermédiaire entre les 2 précédents.

Trois modes de coupure sont proposés :

Économie par rapport au fonctionnement continu

Mode de ralenti

Isolation

500 m²

2 000 m²

4 000 m²

Abaissement de température d’ eau

peu isolé 12,5 % 11,4 % 10,8 %
bien isolé 11,7 % 10,9 % 10,3 %
très isolé 10,2 % 9,5 % 8,3 %

Coupure (horloge)

faible inertie
(150 kg/m²)
peu isolé 37,7 % 31,9 % 29,5 %
bien isolé 33,8 % 29,6 % 26,6 %
très isolé 26,5 % 22,6 % 17,0 %
forte inertie
(400 kg/m²)
peu isolé 37,5 % 28,0 % 25,0 %
bien isolé 30,6 % 25,2 % 22,0 %
très isolé 21,9 % 18,2 % 13,7 %
 

Optimiseur

faible inertie
(150 kg/m²)
peu isolé 38,5 % 33,4 % 31,2 %
bien isolé 35,0 % 31,4 % 28,7 %
très isolé 28,6 % 25,1 % 20,1 %
forte inertie
(400 kg/m²)
peu isolé 38,2 % 31,2 % 28,6 %
bien isolé 33,4 % 28,7 % 25,8 %
très isolé 25,6 % 22,2 % 17,6 %

Température de consigne

Le gain énergétique provient de la diminution des déperditions nocturnes. Et donc, plus la température intérieure descendra, plus l’économie augmentera. Il ne faut pas descendre sous une température de 12°C, parce que :

  • Cette température correspond au point de rosée de l’ambiance et que des problèmes de condensation pourraient se poser.
  • Malgré la relance du lundi matin, la température des murs serait trop froide et engendrerait de l’inconfort pour les occupants.
  • Maintenir 12°C dans le local témoin (où se trouve la sonde de régulation), c’est maintenir l’ensemble du bâtiment hors gel.

Une consigne de 16°C durant la nuit (voire moins) et 14°C durant les week-ends et les périodes scolaires est donc recommandée.

Il faut en outre savoir que cette température de consigne ne sera que rarement atteinte (uniquement en plein hiver), ce du fait de l’inertie thermique du bâtiment qui ralentit la chute de température.

Concevoir le mur-rideau

Concevoir le mur-rideau


Assurer l’étanchéité

Un problème complexe

Le mur-rideau étant conçu par juxtaposition d’éléments, il y a discontinuité à chaque joint entre chacun d’eux. Ces discontinuités sont potentiellement des points faibles du point de vue de l’étanchéité. Il est donc indispensable de les concevoir et de les réaliser soigneusement de façon à garantir la performance de l’enveloppe. Ce n’est pas une tâche simple car le ruissellement de l’eau additionné aux pressions du vent est un phénomène complexe : il n’est, par exemple, pas exclu de voir l’eau remonter de bas en haut sur une façade en raison de courants d’air ascendants.

On rencontre ainsi différents problèmes sur le terrain :

  • assemblage mal étanché dès la réalisation,
  • déformation sous l’effet du vent des différents éléments de châssis entrainant l’ouverture des joints et la pénétration de l’eau,
  • étanchéité difficilement assurée au droit des extrémités des montants médians des châssis coulissants,
  • discontinuité des joints d’étanchéité aux angles et raccords,
  • absence de contact entre le joint d’étanchéité du mur rideau et le gros-œuvre, cela avec ou sans effet du vent,
  • trous d’évacuation d’eau insuffisants ou obturés et orifices de ventilation non protégés,
  • quincaillerie mal conçue ou mal ajustée,
  • désordre dans les acrotères et les allèges,
  • passage d’air au droit des habillages et des étanchéités,
  • passage d’air par les capots de fermetures,
  • passage d’air par les profils d’ossatures,

Une telle liste a seulement pour objectif de comprendre l’importance de la qualité des joints et de la conception et donc du budget qu’il faut pouvoir y consacrer.

Il ne pourrait être proposé ici une analyse précise de chaque système, mais bien un fil conducteur pour vérifier la performance d’un produit proposé par un fournisseur.

Une réponse de l’architecte en plusieurs étapes

Le comportement de l’eau sur une enveloppe est dû à divers effets dynamiques :

a. Le ruissellement gravitaire :
l’eau s’écoule du haut vers le bas. Des recouvrements ou des débords convenablement disposés permettent de rejeter l’eau au-delà du joint.

Schéma ruissellement gravitaire.

b. La tension surfacique :
ces forces de tension permettent à un film d’eau « d’adhérer » à des parois même en sous-face horizontale et de pénétrer à l’intérieur du joint. Pour y remédier, il faut prévoir des ruptures de la sous-face, creux ou reliefs formant une « goutte d’eau ».

Schéma tension surfacique.

c. La capillarité :
des interstices de faible dimension permettent à l’eau de cheminer sur de longs trajets par une action similaire à une aspiration. Des élargissements du joint doivent être prévus pour rompre le cheminement de l’eau.

Schéma capillarité.

d. L’énergie cinétique :
due à la chute des gouttes d’eau et au vent, celle-ci permet à l’eau de heurter l’enveloppe avec une quantité de mouvement suffisante pour, par exemple, pénétrer horizontalement dans un joint. Cette eau doit pouvoir être recueillie et rejetée à l’extérieur de l’enveloppe, c’est le rôle du drainage.

Schéma énergie cinétique.

e. La pression différentielle :
la différence de pression entre l’extérieur et l’intérieur du bâtiment peut créer un phénomène d’aspiration de l’eau présente dans le joint. Pour l’empêcher, il faut prévoir des chambres de décompression ventilées qui mettent les cavités internes de la façade à la pression extérieure.

Schéma pression différentielle.

Globalement, pour garantir l’étanchéité d’une enveloppe soumise au ruissellement des eaux, aux effets du vent et aux pressions s’exerçant sur l’enveloppe, deux conceptions de principe sont possibles :

  • L’enveloppe totalement étanche, dont les joints excluent la totalité de l’eau c’est le cas des châssis ou des façades rideaux à ossature métalliques.
  • L’enveloppe pare-pluie, qui laisse une partie de l’eau pénétrer à l’intérieur de la façade pour ensuite l’évacuer par un vide ventilé et drainé. C’est le cas général des bardages métalliques.

Ce choix sera influencé par la manière de gérer le transfert de vapeur dans la paroi (voir ci-dessous).

L’importance de la qualité des joints

Selon le type de technologie du mur-rideau, il existe des joints :

  • entre les différents éléments de la grille,
  • entre la grille et les éléments de remplissage (panneaux ou châssis) que l’on y fixe ensuite,
  • entre les différents éléments constituant les châssis de remplissage,
  • enfin, entre le mur-rideau et le gros-œuvre (pièces d’appui et périphérie).

Ils doivent être conçus de manière à pouvoir :

  • rattraper les tolérances dimensionnelles de l’assemblage,
  • compenser ou absorber les dilatations, déformations et vibrations,
  • garder de bonnes caractéristiques au fil du temps.

Pour une enveloppe de qualité, on vérifiera que ce sont bien les fixations qui reprendront les diverses tensions, en protégeant les joints d’étanchéité.

Schéma sur fixations et tensions.

La meilleure manière de concevoir un joint est d’abord de le rendre aussi imperméable aux intempéries que possible, et ensuite de se dire que néanmoins il fuira. Il faut donc de prendre les précautions nécessaires pour empêcher l’humidité de traverser l’enveloppe ou de rester dans le mur, soit par un système interne, soit par une aération.

Choix du type de joint

On distingue :

Les éléments d’étanchéité plastiques (= mastics)

Constitués d’huile et de charges diverses, la composition des mastics et silicones est propre à chaque fabricant. En fonction de leur aptitude à la déformation, de leur cohésion et de leur dureté superficielle, ils sont classés en 6 classes.

Le choix de la classe fait intervenir de nombreux critères comme :

  • la force du vent,
  • l’environnement,
  • les vibrations,
  • l’exposition du joint,
  • le type et la matière du châssis,
  • les dimensions et la nature des vitrages.

Pour soustraire le mastic le plus possible aux tensions, on dispose par exemple de place en place des cales dont l’emploi est courant en miroiterie. La pression et la dépression résultant de l’action du vent sur les panneaux ne sont transmises aux raidisseurs que par cet intermédiaire l’élément d’étanchéité n’est alors soumis qu’à une pression limitée.

Schéma mastic soumis aux tensions.

  1. Joint avec la structure.
  2. Vitrage.
  3. Joint d’étanchéité.
  4. Structure de collage.
  5. Espaceur.
  6. Fond de joint.
  7. Plans d’adhérence.

Pour l’entretien futur, c’est à celui qui met les joints en œuvre qu’il appartient de signaler au client le type de mastic utilisé et de lui communiquer le mode d’entretien prescrit par le fabricant de mastic.

Les éléments d’étanchéité élastiques (= boudins)

Caoutchoucs naturels ou artificiels, produits de synthèse, feutres ou ressorts métalliques, ils peuvent être insérés, sous forme de bandes, entre les panneaux de remplissage et la feuillure ou la parclose. Toutefois, les bandes simplement insérées n’adhèrent pas dans leur logement et elles risquent d’en sortir sous l’effet des mouvements de la façade. Il faut soit les coller à la feuillure et à la parclose, soit les introduire dans une rainure en queue d’aronde. Une autre solution consiste à les fixer sur la bordure des panneaux de remplissage. Dans le même esprit, on peut aussi disposer autour des vitrages des bandes élastiques en forme de U par exemple.

Les éléments élastiques d’étanchéité ne sont qu’exceptionnellement employés seuls pour assurer le calfeutrement des joints. En principe, on combine bandes élastiques (comme fond de joint) et mastic de finition.

Les étanchéités réalisées seulement à l’aide de profilés en néoprène

Cas particulier d’obturation élastique sans mastic. Ils se présentent sous forme de bandes ou de profilés extrudés. Leur profil permet leur fixation au châssis par emboîtement dans une ou plusieurs rainures. Ils sont coupés d’onglets aux angles et soudés, puis montés sur les profilés métalliques.
L’étanchéité est assurée par la pression de contact existant entre le profil et la ou les surfaces du vitrage d’une part et les faces verticales de la feuillure, d’autre part.
Les profilés d’obturation existent sous plusieurs formes, selon la forme des profilés de châssis et l’épaisseur des panneaux ou vitrages. La méthode est empruntée à l’industrie automobile, où les glaces pare-brise sont posées de façon analogue dans la carrosserie.
L’utilisation de ce type de profilé d’étanchéité est généralement associée à la mise en œuvre de feuillures drainées.

On a prévu l’évacuation vers l’extérieur de l’eau
qui pénètre par accident dans la feuillure.


Gérer le transfert de vapeur d’eau

Un transfert de vapeur d’eau dans la paroi

Limiter l’entrée d’eau de pluie externe se complique par le fait de devoir gérer la sortie de la vapeur d’eau interne.

En effet, en hiver, une importante quantité de vapeur d’eau se trouve dans un bâtiment, surtout s’il est peu ventilé. La vapeur générée par les occupants reste captive à l’intérieur du bâtiment. Dehors au contraire, la température est basse et l’air plutôt sec (en humidité absolue).

L’eau sous forme gazeuse (vapeur d’eau) va tendre à passer d’une région de pression de vapeur d’eau élevée (intérieur du bâtiment) à une région de pression moins élevée (extérieur du bâtiment). Ce phénomène est comparable à l’écoulement de la chaleur. Elle traverse tous les matériaux à une vitesse qui est fonction tant de la résistance du matériau au passage de la vapeur d’eau (coefficient « μ« ) que de la différence de pression de la vapeur d’eau de part et d’autre du matériau.

La migration de la vapeur d’eau à travers la paroi n’est pas en soi un problème tant qu’il n’y a pas condensation. Mais si elle condense dans l’isolant, celui-ci, humidifié perdra en grande partie sa résistance thermique. De plus, l’humidité permanente peut être source de moisissures.

En traversant la paroi de l’intérieur vers l’extérieur, si la pression de vapeur d’eau chute avant la température, le risque de condensation est faible. Si au contraire la température chute avant la pression de vapeur d’eau, le risque de condensation est élevé.

Pour supprimer les risques de condensation,

  • soit on bloque la migration de vapeur à l’aide d’un écran pare-vapeur qui sera installé du côté intérieur de l’isolant (ou une paroi intérieure en verre ou en aluminium par exemple),
  • soit on favorise la ventilation au-delà du panneau isolant pour éliminer la vapeur d’eau (disposition d’évents vers l’extérieur sur la face extérieure du panneau de façade).

En matière de gestion du passage de la vapeur d’eau au travers de l’élément constitutif du mur-rideau, on rencontre, dès lors, 3 modes de résolution :

  • L’élément étanche, qui comporte des parois extérieures et intérieures étanches, un cadre intégré, imperméable à la vapeur d’eau et solidarisé de façon continue par une âme isolante.
  • L’élément perméant, qui comporte une paroi extérieure perméable à la vapeur d’eau et une paroi intérieure moins perméable ou étanche à la vapeur.
  • L’élément ventilé ou respirant, qui comporte derrière sa paroi extérieure une lame d’air, en communication avec l’ambiance extérieure. La paroi intérieure peut-être perméable ou étanche. Les deux parois sont solidarisées à l’isolant par l’intermédiaire d’un cadre intégré à l’élément .

En allant de l’intérieur vers l’extérieur, on peut donc trouver :

  • un éventuel doublage intérieur en acier ou en tout autre matériau,
  • un film pare-vapeur, dont le rôle est d’empêcher la migration de la vapeur d’eau au travers de la paroi,
  • un isolant thermique,
  • un vide d’air éventuel, selon les systèmes,
  • la paroi extérieure.
Un exemple

  1. Garnitures d’étanchéité à l’air.
  2. Déflecteur d’eau de pluie.
  3. Ouverture pour l’équilibre des pressions.
  4. Air.
  5. Étanchéité à la vapeur.
  6. Coupure thermique.

Gestion des infiltrations d’eau de pluie

Un pare-pluie métallique étanche a été choisi du côté extérieur. Un élément de liaison entre cet élément et le vitrage a été placé pour rigidifier la paroi (tenue contre les pressions du vent).

Les joints qui assurent la liaison doivent repousser la pluie. Mais il est possible que cette liaison ne soit pas parfaite ou s’abîme dans le temps. Une ouverture est alors prévue sous l’élément. L’espace d’air aura le même niveau de pression que celui exercé sur la surface du revêtement, ce qui neutralise la force qui fait passer l’eau à travers les ouvertures éventuelles de la façade : c’est la chambre de décompression.

Un deuxième joint est par ailleurs placé du côté intérieur afin de réaliser l’étanchéité à l’air.

Gestion du passage de vapeur d’eau

La présence d’une paroi étanche du côté extérieur (froide, donc) risque d’entraîner la condensation de la vapeur d’eau venant de l’ambiance intérieure. Premier réflexe : bloquer le flux de vapeur par la mise en place d’une nouvelle paroi intérieure métallique.

Mais des fuites peuvent se produire. Une lame d’air est conservée entre l’isolant et la paroi extérieure, lame d’air mise en contact avec la chambre de décompression. L’humidité éventuelle pourra s’échapper.


Isoler en hiver et protéger en été

Pour étudier le comportement thermique du mur rideau, on peut le décomposer en 3 parties : la partie vitrée, la partie opaque et les fixations.

Choix des vitrages

Pour le choix de la partie vitrée du mur-rideau, tant de l’importance de sa surface (pourcentage de vitrage de la façade) que des caractéristiques du vitrage à choisir, on rencontre les mêmes critères de choix  que pour une façade traditionnelle.

On sera autant attentif à limiter les pertes thermiques en hiver par des vitrages isolants, qu’à limiter les apports solaires excessifs en été par une protection solaire efficace.

Photo pare-soleil.

Une orientation Nord et Sud des façades en mur-rideau sont à privilégier, notamment parce que la présence de protections solaires architecturales permet de bien maîtriser les apports solaires de la façade Sud.

Photo persiennes.

Les persiennes sont également possibles, mais leur présence du côté interne du vitrage limite leur efficacité (la majorité de la chaleur solaire entrée dans le bâtiment ne sera pas réfléchie vers l’extérieur).

Par contre, sauf comme serre, un tel espace ne paraît pas thermiquement correct. Trop froid en hiver et étouffant en été, il peut juste être exploité comme espace tampon, fort coûteux.

Nous avons tous déjà laissé notre voiture en plein soleil pour nous en rendre compte…

Concevoir

Pour plus d’informations sur le choix des vitrages, cliquez ici !

Isolation des parties opaques

La structure classique de la partie isolée thermiquement comporte les trois constituants ci-après :

  • un parement extérieur, qui constitue une protection contre les agents atmosphériques,
  • une âme, qui est l’isolant thermique,
  • un parement intérieur, résistant aux efforts mécaniques.

Les matériaux isolants (panneaux ou matelas) doivent supporter leur propre charge en position verticale sans compression ni tassement. Le matériau idéal pour l’âme isolante d’un panneau de façade doit avoir les qualités suivantes :

  1. faible conducteur de chaleur,
  2. incombustible,
  3. résistant à la corrosion,
  4. non-absorbeur de l’humidité,
  5. léger,
  6. résistant au fléchissement et au tassement.

Les matériaux suivants sont généralement utilisés :

  • les matériaux alvéolaires (plastiques alvéolaires, mousse de verre insensible à humidité),
  • les fibres minérales (laine de roche),
  • les isolants naturels (minéraux expansés et agglomérés),
  • les granulats légers (matériaux composites).

Les matériaux isolants les plus rigides seront fixés à l’enveloppe métallique soit par des adhésifs, soit par des agrafes métalliques. Les moins rigides seront comprimés en forme de panneau solide (bourrage).

Quand un espace d’air est souhaité dans l’élément, le matériau isolant doit être choisi pour sa rigidité, tout fléchissement pouvant boucher cet espace.

L’ isolation thermique indépendante du mur-rideau :

Le mur-rideau comporte dans ce cas un parement extérieur qui résiste aux agents atmosphériques. L’isolation thermique est assurée indépendamment par un contre-mur directement attaché à la structure du bâtiment. Ceci résulte des règles imposées pour la protection contre le feu, qui prescrivent en général des murs d’allège incombustibles, mais ce n’est pas l’idéal en matière de mur-rideau.
Tous les matériaux incombustibles ou ignifuges conviennent à la confection des contre-murs (parpaing de plâtre, terre cuite, béton léger ou lourd).

Le risque de pont thermique au droit des fixations

Une qualité de l’isolation d’une enveloppe réside dans sa continuité. Or, aux points de rencontre des poutrelles, traverses métalliques et boulons, ou aux bordures des éléments du mur-rideau, il existe un risque majeur de ponts thermiques, c’est-à-dire de communication directe entre l’extérieur et l’intérieur du bâtiment.

Les murs-rideaux montés sur grille seront tout particulièrement sensibles aux ponts thermiques.

Ceci se traduira par :

  • de la condensation (et même du givre),
  • un pouvoir d’isolation du mur diminué,
  • des températures maxima de résistance au feu plus basses (en cas d’incendie, aux points de contact continus le métal subira un échauffement supérieur à la température limite de résistance),
  • des traces noires sur les surfaces intérieures qui marquent les ponts thermiques entre le bâti du panneau et les pièces de fixation (les parties froides, plus humides, de la surface accumulent plus de poussière, que les autres).

Tous les ponts thermiques entre parements métalliques extérieurs et intérieurs devront disparaître par suppression totale de contact entre eux, aussi bien sur la bordure de l’élément du mur-rideau qu’à la jonction des divers profilés intérieurs. Cette rupture de contact se fait par dédoublement des pièces métalliques et interposition entre elles d’un matériau isolant comme le liège, le néoprène, des matériaux de garniture en polyvinyle, des matériaux plastiques isolant en PVC et, plus récemment, en polyuréthane injecté sur place.

En voici le principe :

schéma isolation profilé métallique 01.schéma isolation profilé métallique 02.
schéma isolation profilé métallique 03. schéma isolation profilé métallique 04.

Et les exemples de réalisation dans les profilés :

Photo isolation profilé métallique 01.Photo isolation profilé métallique 02.Photo isolation profilé métallique 03.

Si le système de chauffage élimine généralement la condensation au droit et au-dessus de l’allège, le problème est plus difficile lorsqu’il s’agit d’éviter la condensation de la partie inaccessible du mur, devant les dalles de plancher. Il peut y avoir dépôt d’humidité en ces endroits lorsque l’air ambiant y accède et il est très difficile de l’en empêcher. L’humidité peut se condenser sur l’attache, et, si elle n’est pas évacuée, elle risque de s’écouler par gravité sur la face intérieure du mur en laissant des traces. Il semble que l’on parvient à réduire ces désordres en recouvrant la face interne des raidisseurs d’un isolant : mousse de polystyrène, par exemple.


Protéger contre la propagation du feu

Cinq règles de base pour le mur-rideau

Les cinq règles suivantes, correspondant à la notion de paroi « pare-flamme », sont à prendre en compte au niveau de la façade :

  1. Les attaches en acier, ou de résistance équivalente, liaisonnant la façade au gros-œuvre doivent être en quantité suffisante.
  2. Le parement intérieur des allèges doit être en acier ou en matériau de résistance au feu équivalente. La continuité de cette protection doit être assurée sur les parties arrières des meneaux de section importante. Dans certains cas, la grille de base en aluminium doit être renforcée par une ossature de stabilité, également en acier.
  3. La jonction orthogonale façade-nez de plancher doit être réalisée par des matériaux interdisant toute propagation verticale d’un niveau à l’autre sur les faces arrière des façades et présenter une rigidité suffisante aux dilatations et aux déformations sous de fortes températures afin d’éviter le passage des flammes, fumées et gaz.
  4. Tout effet de cheminée doit être rendu impossible au niveau des meneaux verticaux, par cloisonnement horizontal répétitif.
  5. Le choix des matériaux de synthèse utilisés doit être en conformité avec les règlements en vigueur, notamment sur la toxicité de leur dégagement de chlore et d’azote.

Résistance au feu

Les façades situées dans le volume de protection, doivent être « pare-flammes » de degré deux heures au moins.
Les matériaux constitutifs des parements extérieurs des façades, y compris les volets, etc., doivent être de catégorie A0, à l’exception des stores qui peuvent être de la catégorie A1 et des menuiseries qui peuvent être des catégories A1 ou A2 ou, quand il s’agit de menuiserie en bois, catégorie A3.

A0 : ininflammable,
A1 : faible propagation du feu,
A2 : propagation moyenne du feu,
A3 : forte propagation du feu,
A4 : ne satisfait pas aux exigences.

Une attention toute particulière doit être apportée aux abouts de dalle et à l’isolation contre le feu en nez de plancher. Par cet endroit de liaison entre la façade et l’ossature, on doit éviter que le feu ne se propage d’un étage à l’autre.

On rencontre 3 principes d’organisation de la résistance au feu :

Mur-rideau résistant au feu.

 Panneaux réfractaires sur les abouts de dalle.

 Allèges et linteaux résistants au feu.

Un vitrage résistant au feu

La résistance au feu du verre : si le matériau « verre » est en lui-même incombustible, il risque facilement d’éclater sous la chaleur et n’assure alors plus aucune protection.

Pour rendre un vitrage anti-feu, un gel intumescent est placé entre les deux feuilles de verre, gel qui se solidifie en cas d’incendie et permet de tenir ensemble les éléments de verre.

Quel que soit le sens du feu, le composant verrier à intercalaire intumescent doit toujours être positionné côté intérieur du bâtiment

Présence de contre-murs intérieurs

Dans la plupart des cas, les contre-murs en maçonnerie doivent leur existence à la réglementation contre les risques d’incendie, et particulièrement à la définition de « réfractaire ». Même lorsque les panneaux sont rendus réfractaires au prix de certaines dépenses, il reste encore le problème des éléments métalliques apparents à l’intérieur du local, lorsque la température dépasse 130°C. Les éléments concernés sont surtout les raidisseurs. Lorsqu’ils sont en acier, ils peuvent résister aux températures des essais prescrits, mais ils fondent quand ils sont en aluminium. Un panneau d’allège « réfractaire » est alors sans effet puisque son support ne tient plus.

Autres techniques de protection

Il existe d’autres systèmes de protection contre le feu :

  • la protection rapportée autour de l’acier par un matériau projeté ou en plaque (produits projetés (flocages), produits en plaques, peintures intumescentes),
  • la protection par écran horizontal (plafonds suspendus) ou écran vertical (panneau de cloison),
  • le refroidissement par eau des profils creux.

   


Limiter la transmission du bruit

L’objectif consiste généralement à ne pas dépasser un niveau de pression acoustique intérieur de 35 dB.

Cette exigence requiert un isolement acoustique du mur rideau par rapport aux bruits extérieurs, mais aussi un isolement acoustique des bruits intérieurs (passage du bruit d’un étage à l’autre le long de la façade).

Isolement aux bruits extérieurs

Pour assurer l’isolement phonique d’une façade, il faut principalement :

  • garantir l’isolement phonique des parties vitrées ;
  • veiller aux joints de raccordement des divers éléments, pour éviter la présence de « ponts » et de « fissures » acoustiques.

On pense tout particulièrement à la qualité acoustique des coffres à rideaux et à volets, ainsi qu’au raccordement soigné entre les menuiseries, les châssis et les panneaux préfabriqués. Les éléments industriels apportent probablement une meilleure garantie que ceux montés sur chantier.

Les bâtiments de grande hauteur ne possèdent pas de fenêtres ouvrantes car la pression du vent en hauteur est trop importante. Tout au plus y prévoit-on quelques ouvertures de déménagement. La performance de leur façade est donc meilleure car avec des fenêtres fixes, on a la garantie que le bruit ne passe pas par les interstices des joints des ouvrants (source de bruit n°1).

Si les parois pleines ou opaques sont en principe assez isolantes, les matériaux nouveaux mis en œuvre dans les façades légères ne répondent pas d’une façon favorable à la loi des masses (frein acoustique proportionnel au poids de la paroi pour certaines fréquences).
Les panneaux non ventilés recueillent la préférence des acousticiens, à l’encontre des panneaux ventilés, du fait de la présence de larges fentes destinées à ventiler l’isolant fibreux. Il existe toutefois maintenant des fentes comportant des pièges à son pour parer ce problème.

Pour les parois vitrées, on utilise un vitrage acoustique. Il s’agit généralement d’un double vitrage (voire un triple vitrage) avec des épaisseurs de couches différentes, d’un vitrage avec du gel entre les deux verres (mais perte de transparence), ou alors de vitrage feuilleté.

 Concevoir

Pour plus d’informations sur le choix des vitrages acoustiques, cliquez ici !

Pour les balcons et auvents, il y a intérêt à garnir d’un matelas de fibre minérale ou d’un autre matériau isolant (piège à son) les parties inférieures des balcons surplombant les baies vitrées. Ce traitement vise à absorber les ondes sonores du sol qui pénètrent au travers des fenêtres après réflexion sur ces surfaces.

Isolement aux bruits intérieurs :

Schéma isolement aux bruits intérieurs.

Les bruits intérieurs se transmettent directement par le verre de la façade (transmission par mise en vibration du mur-rideau).
Il faut donc une bonne jonction en about de dalle :

  1. raccords aux planchers,
  2. raccords aux murs de refend,
  3. raccords aux poteaux.

Quelques exemples :

Raccord aux dalles effectué au moyen de profilés élastiques en Néoprène.

Mur-rideau raccordé au nez de plancher par le plâtre du plafond..

Raccord aux dalles effectué au moyen de laine minérale.


Gérer les mouvements du bâtiment

Le joint de dilatation est un dispositif constructif qui permet d’assurer la libre déformation d’une section de bâtiment par rapport à une autre.

Quand les déformations apparaissent principalement sous les effets des variations de température, le joint n’est réalisé qu’au niveau de la superstructure. Mais des déformations peuvent également être dues à des tassements différentiels et à des mouvements de sol. On parle alors de joints de tassement ou joints de rupture; le joint en superstructure est prolongé par un joint dans les fondations correspondantes.

La présence d’un joint de dilatation impose de doubler les éléments porteurs au droit de la pile concernée ou de réaliser un appui glissant dispositif qui respecte la trame en évitant le doublement de points porteurs. Une extrémité de travée est fixe, l’autre appuyée sur une console par l’intermédiaire d’un appui glissant en Néoprène ou en Téflon. La console introduit un excentrement et peut créer un moment de torsion, toujours difficile à reprendre. Il faut donc s’assurer que l’appui peut résister à cette torsion.

La largeur des joints de dilatation varie généralement de 10 à 20 mm. L’espacement entre deux joints varie et est de l’ordre d’une quarantaine de mètres.
Les joints de dilatations doivent être prolongés en façade; ils ont donc une influence sur l’aspect fini du bâtiment. Ils doivent donc être pensés très tôt dans l’élaboration du projet.

Les calfeutrements des joints de dilatation des façades doivent assurer la continuité des fonctions remplies par la façade.

Le principe des assemblages souples et élastiques réside dans l’élasticité des matériaux, dont la forme se modifie sous l’effet des forces thermiques. Les tôles ou les profilés élastiques et minces se prêtent le mieux à la réalisation de ces assemblages à ressort, ils ont l’avantage de permettre le vissage des éléments en conservant un joint fermé sans calfeutrage supplémentaire. La grande majorité des constructions sont à joints coulissants qui s’écartent et se referment selon les variations thermiques.

Les joints entre l’ossature porteuse en acier et les éléments de remplissage sont assurés par des rubans de Néoprène ou des joints en silicone extrudé qui assurent l’étanchéité par compression. Un capot presseur formant parclose est fixé aux montants par des vis maintient les éléments de remplissage en place. La forme des feuillures est prévue pour faire obstacle à la pénétration de l’eau.

Joints et tolérances (adaptation aux mouvements du bâtiment)

Les mouvements des éléments de charpentes doivent être évalués avant l’étape de la conception des murs extérieurs. On distingue trois catégories de mouvements :

  • les fléchissements sous charges variables dus aux occupants et aux forces maximales du vent contre la façade, et les fléchissements sous charges permanentes de l’ossature du bâtiment même;
  • la dilatation et le retrait des matériaux sous l’effet de la température, du rayonnement et parfois de phénomènes hygroscopiques;
  • les mouvements lents mais inexorables causés par des déformations graduelles comme le fluage du béton, le tassement des fondations, …

Les principaux éléments qui doivent s’adapter aux mouvements du bâtiment sont les panneaux vitrés. Autour d’eux, les éléments typiques, c-à-d les supports tubulaires, les couvre-joints et les couvre-supports, doivent pouvoir s’adapter à un mouvement différentiel de 4 à 5 mm d’un étage à l’autre et entre chaque élément vertical. Sinon il faut prévoir un autre système de supports.


Assurer la sécurité

Le mur-rideau pouvant couvrir aussi bien la façade du rez-de-chaussée que le 33ème étage, de nombreux aspects sécuritaires sont à assurer.

Sécurité au vent

On consultera la norme belge concernant la résistance au vent des vitrages isolants NBN S23-002, norme qui s’est vu adjoindre un addendum concernant les surfaces maximales de vitrages admises en fonction du vent.

Sécurité au bris de glace

Problème de sécurité :

  • Verre armé : si le verre casse, les morceaux sont retenus par les treillis. Au point de vue aspect, il faut accepter la présence visible du treillis.
  • Verre trempé (sécurit) sous tension : l’opération de trempe a pour effet de mettre les couches externes du verre en compression et les couches internes en tension. S’il casse, c’est en tout petits morceaux pratiquement non coupants et qui, de ce fait, présentent peu de danger. Il a une résistance accrue à la flexion, à la pression, à la torsion et aux chocs thermiques et/ou mécaniques.
  • Verre feuilleté : une couche de plastique, intercalaire en butyral de polyvinyle (PVB) est placée entre les verres. S’il casse, les morceaux de verres restent ensemble, et l’étanchéité est maintenue. Propriétés du verre feuilleté :
    • Ne se désintègre pas en cas de chocs, les morceaux restent en place collant à l’intercalaire.
    • Ne se brise qu’au point d’impact.
    • Doit être découpé sur les deux faces du vitrage.
    • Peut facilement être intégré dans un double vitrage.
    • Est facilement disponible en toutes dimensions et se pose rapidement.
    • Existe en différentes épaisseurs.

    Avantages du verre feuilleté :

    • Minimise les risques de blessures et empêche le passage à travers le vitrage.
    • Limite les conséquences du vandalisme.
    • Elimine ou retarde toute tentative d’effraction.
    • Procure simultanément sécurité et isolation thermique.
    • Ne requiert pas de main-d’œuvre spécialisée.
    • Permet une large sélection en fonction du niveau de sécurité souhaitée.
  • Verre durci : verre qui a subi un traitement semblable à celui du verre trempé, ce qui lui confère des propriétés similaires, sauf en cas de bris de verre. L’aspect d’un verre durci cassé est proche de celui d’un verre recuit, il se casse en grands morceaux. Mais il est plus résistant que le verre recuit. Le risque de chute de verre en cas de bris est donc réduit par rapport au verre trempé : les grands morceaux restent généralement en place dans le châssis. Mais il ne peut pas être considéré comme un verre de sécurité au sens des normes.

Concevoir

Pour plus d’informations sur le choix des vitrages de sécurité, cliquez ici !

Sécurité au vandalisme et à l’effraction

Pour améliorer la résistance du mur-rideau à l’effraction, on augmente l’épaisseur (13 à 36 mm) du vitrage, et on utilise du verre feuilleté. On utilise également des panneaux pleins de type « sandwich » capables de résister aux agressions mécaniques. Dans la norme EN 356, les impacts de haches et de marteau sont les chocs utilisés pour caractériser la résistance de ces éléments.

Sécurité au tir de fusil et aux armes de poing

La variabilité des surfaces maximales de contact développées au cours des chocs, ainsi que les divers niveaux d’énergie, conduisent la norme EN 1063 à établir 7 classes de vitrages pour couvrir les exigences de protection correspondantes.

La norme EN 1063 définit une exigence complémentaire permettant de distinguer par la mention « NS » les vitrages qui, sous l’action des impacts provoqués par des armes à feu, ne génèrent pas de projection d’éclat de verre.

Découvrez quelques exemples de murs/façades-rideaux : le Berlaymont à Bruxelles et l’Aeropolis II à Schaerbeek.

Exemple de calcul d’une pompe de recyclage

Exemple de calcul d'une pompe de recyclage

Circuit primaire avec boucle ouverte et circulateur ou pompe de recyclage pour assurer un débit et une température minimales au retour de la chaudière.


Données de départ

La pompe de recyclage permet d’obtenir un débit minimal dans la chaudière quel que soit le degré d’ouverture des vannes 3 voies.

La chaudière est en permanence maintenue en température (80 .. 90°C) et la température de retour ne peut jamais descendre en dessous de 55°C (qui est environ la température de rosée des fumées).

A la relance matinale, l’ouverture des vannes mélangeuses est en outre limitée pour garantir cette température de retour minimale.

La perte de charge nominale de la chaudière est de 8 kPa et le débit minimal admissible dans celle-ci est de 50 %.


Caractéristiques pression/débit de la pompe de recyclage

Lorsque les vannes 3 voies sont fermées

Le débit de la pompe = 0,5 x débit nominal de la chaudière, donc la perte de charge à vaincre est de :

8 [kPa] x (0,5)² = 2 [kPa] (règles de similitude)

lorsque les vannes 3 voies sont ouvertes en grand

La hauteur manométrique de la pompe doit être supérieure à la perte de charge nominale de la chaudière pour éviter que le débit s’inverse dans le by-pass. On prend une sécurité de 10 % sur le débit minimal qui peut traverser la pompe. On doit vaincre une perte de charge égale à :

8 [kPa] x (1,1)² = 9,7 [kPa]

La pompe choisie doit donc fournir un débit de 0,5 x débit nominal de la chaudière pour une hauteur manométrique de 2 kPa et un débit de 0,1 x débit nominal de la chaudière pour une hauteur manométrique de 9,7 kPa.


Si les pompes des circuits secondaires sont surdimensionnées

Ce calcul devient caduque si les pompes des circuits secondaires sont surdimensionnées. Par exemple, si le débit maximal puisé par les circuits secondaires est supérieur de 50 % au besoin réel (ce qui est fréquent), la perte de charge créée dans la chaudière lors de l’ouverture de toutes les vannes 3 voies est de :

8 [kPa] x (1,5)² = 18 [kPa]

Dans ce cas, si la pompe de recyclage a été choisie suivant les caractéristiques calculées ci-dessus, le débit s’inversera quand même dans le by-pass. Cela créera un point de mélange entre de l’eau froide et de l’eau chaude à la sortie de la chaudière et la consigne de température ne sera jamais atteinte.

Cela montre toute l’importance du calcul de l’ensemble des débits primaires et secondaires d’une installation de chauffage et de la possibilité de disposer d’organes de réglage de ces derniers.

Détecteurs de mouvement et de présence/absence [Eclairage]

Détecteurs de mouvement et de présence/absence [Eclairage]


 

Utilisation

Les détecteurs de présence, associés ou pas à des boutons poussoirs, permettent d’aider les gestionnaires de bâtiments dans leur « quête » à l’économie d’énergie. Ces dernières années, leur domaine d’applications s’est considérablement étendu. En effet, outre la commande de l’éclairage intérieur et extérieur, ils sont actuellement utilisés pour la commande d’automatismes tels que :

  • la gestion de la ventilation, dans les locaux à occupation intermittente comme les salles de conférence par exemple ;
  • la régulation des installations de chauffage et de climatisation ;
  • le déclenchement de l’alarme, puisque ce même principe est utilisé pour la détection d’intrusion ;
  • jusqu’au déclenchement de la chasse des toilettes, … pour utiliser l’eau de ville à bon escient, bien sûr,… et non pour enregistrer la fréquence et la durée des utilisateurs !

En éclairage, le détecteur de présence allume les luminaires lors de l’entrée de l’occupant et les éteint quelques temps après sa sortie. Une temporisation à l’extinction est nécessaire pour ne pas réduire la durée de vie des lampes par des cycles d’allumage/extinction trop fréquents. Par exemple, une absence de 1 ou 2 minutes ne peut entraîner l’extinction des lampes.

Calculs

Les économies engendrées par le placement de détecteurs de présence se situent, selon certaines sources, entre 35 et 45 %. Pour analyser au cas par cas l’intérêt de placer des détecteurs de présence.

À noter, toutefois, qu’un détecteur a sa consommation propre. S’il est de bonne qualité, cette consommation est réduite (< 1W).


Principe de fonctionnement

Dans le jargon des professionnels, un détecteur de mouvements se différencie d’un détecteur de présence par sa grande sensibilité.

Différentes technologies existent sur le marché. La technologie à infrarouge (IR) est la plus répandue dans le domaine de l’éclairage. Cependant, quelques applications de gestion d’éclairage, comme dans les sanitaires par exemple, font appel aux technologies ultrasoniques (US), combinées IR et US ou encore sonore.

En général, l’électronique des détecteurs permet de développer des logiques de gestion de l’éclairage en détection de présence ou d’absence. En d’autres termes :

  • Pour une gestion de présence, le détecteur peut travailler seul. Dès qu’une personne entre dans la zone de détection, l’éclairage est allumé. Ce principe est applicable dans les locaux où les détections sont fréquentes, mais de courte durée.
  • Pour une gestion d’absence, le détecteur doit être combiné avec un système de commande volontaire (type bouton-poussoir). Une personne entrant dans un local avec accès à la lumière naturelle peut choisir d’allumer ou pas l’éclairage en fonction du niveau d’éclairement régnant dans le local. Si elle choisit d’allumer, le détecteur ne coupera l’éclairage qu’après un délai réglable d’absence de la personne. Ce principe permet, en général, de responsabiliser les occupant.
  • Ces détecteurs permettent en réalité  d’imaginer toute sorte de fonctionnement. Par exemple, pour des couloirs : en cas d’absence la lumière est dimmée (intensité réduite) et dès détection de présence, l’éclairage est remis à 100 %. L’extinction arrive seulement en cas d’absence plus longue.


Technologies des détecteurs

Détecteur  à infrarouge (IR)

Schéma détecteur  à infrarouge.

Ils détectent le mouvement du corps humain par la mesure du rayonnement infrarouge (= chaleur) émis par le corps humain.

Ils sont dits « passifs » car ils n’émettent aucune radiation, contrairement aux détecteurs à infrarouge actif de type « barrière ». Ils mesurent le rayonnement infrarouge émis par les surfaces chaudes.

Ils fournissent une indication de changement d’occupation d’un lieu : absence ou présence. Ils ne permettent pas de connaître le taux d’occupation d’un local ou le nombre d’occupants.

Photo détecteur  à infrarouge.

Plus précisément, les détecteurs de mouvement à infrarouge comportent un certain nombre de facettes sensibles. Leur rayon d’action est ainsi découpé en une série de segments. C’est le passage d’un corps (et donc de chaleur) du rayon de vision d’une facette vers celui d’une autre facette qui permet de détecter le mouvement.

La sensibilité d’un détecteur dépend donc du nombre de segments sensibles. Par exemple, un détecteur dont le rayon de détection est découpé en peu de segments risque de ne pas détecter une personne se dirigeant vers lui.

Pour certains modèles perfectionnés, cette sensibilité est réglable. Le réglage sera différent selon le type de local : dans un bureau où les mouvements sont parfois minimes (travail sur ordinateur, par exemple) on le réglera sur une forte sensibilité, tandis que dans un local sujet à des courants d’air, on le réglera sur une sensibilité plus faible.

La limite d’utilisation des détecteurs IR réside dans son incapacité à effectuer une détection au travers d’une paroi par exemple. C’est le cas dans les sanitaires ou les bureaux paysagers aménagés avec des cloisons antibruit ou des armoires hautes.

Détecteurs ultrasoniques (US)

Schéma détecteurs ultrasoniques.

Les détecteurs US sont de type émetteur/récepteur et fonctionne sur le principe de l’effet Doppler. Toute onde ultrasonique (32 kHz à 45 kHz) émise par le détecteur qui rencontre un objet sur son parcours, « rebondit » en direction inverse avec une fréquence différente. Le détecteur est capable de mesurer l’écart de fréquence et de générer ainsi un signal de présence. Les détecteurs US ont une portée limitée mais peuvent détecter des mouvements mineurs et ce même autour de certains obstacles.

Détecteurs à double technologie

Schéma détecteurs à double technologie.

Les détecteurs de présence à infrarouges risquent de ne pas détecter les mouvements légers. Par contre des détecteurs à ultrasons peuvent être trop sensibles et risquent de déclencher l’allumage de l’éclairage lors du passage « d’une mouche ». Pour éviter cet inconvénient tout en gardant une sensibilité importante, certains détecteurs, appelés « détecteurs à double technologie » combinent ultrasons et infrarouge.
Cette combinaison permet d’augmenter la fiabilité des détecteurs et élimine les détections indésirables.

Détecteurs sonores

Comme son nom l’indique les détecteurs sonores réagissent au bruit. Cette technologie pourra être utilisée dans les sanitaires par exemple. Pratiquement, on n’utilisera qu’un seul détecteur de ce type dans les communs des sanitaires sans être obligé d’en placer un dans chaque WC. Le moindre bruit émis au travers des parois des WC permettrait de pouvoir prolonger la lecture de son journal en toute quiétude (« pour les amateurs de sieste au WC, dorénavant s’abstenir ! »).

Détecteurs « intelligents »

Ce type de détecteur à double technologie enregistre pendant plusieurs mois le mode d’occupation du local et adapte automatiquement sa sensibilité.


Types de détecteurs

On distingue deux familles d’équipement :

Les détecteurs à pouvoir de coupure (peut couper l’alimentation de la lampe)

Les détecteurs montés à  la place des interrupteurs

Ceux-ci se placent dans les circulations, sanitaires, petits bureaux etc. On profite du câblage existant laissé par l’interrupteur classique pour commander les luminaires. Il est un fait certain qu’en conception, pour autant que les utilisateurs acceptent de ne plus pouvoir intervenir dans la commande des luminaires, on placera directement le détecteur à proximité des luminaires pour réduire le câblage et permettre aussi une amélioration de la modularité de la commande (changement facile de l’emplacement du détecteur).
L’ensemble de l’interrupteur automatique est composé de 3 parties : un mécanisme, un capteur et une plaque de recouvrement.

Mécanisme … Capteur … et … Plaque de recouvrement.

Certains modèles possèdent, en plus de la détection automatique, un bouton de commande manuelle. La commande peut alors se faire automatiquement ou manuellement. La commande manuelle peut être verrouillée.
On trouve deux types de capteurs

  • Un capteur qui permet une détection horizontale seulement.
    C’est ce capteur qui est généralement placé dans les locaux intérieurs.
  • Un capteur qui permet une détection horizontale et verticale (surveillance en zone basse).
    Celui-ci s’utilise pour détecter une présence dans des escaliers par exemple.

Les détecteurs placés au plafond

Photo détecteurs placés au plafond.

Dans les entrepôts de grand volume ou les bureaux aménagés de cloisons montant à mi-hauteur, le champ de vision d’un détecteur à infrarouge de 90° risque d’être masqué. Il est dès lors recommandé d’utiliser des détecteurs panoramiques dont l’angle d’ouverture est de 360°.

Ils seront également utilisés dans les grands locaux tels que salles de sports de manière à pouvoir couvrir l’ensemble de l’espace.

Les détecteurs intégrés dans le luminaire

Photo détecteurs placés dans le luminaire.

Ce type de détecteur commande directement et individuellement le luminaire sur lequel il est monté. Dans la nouvelle norme EN 12464-1 l’éclairage individuel prend toute son importance par le fait que la zone de travail est précise et peut être mobile. De ce fait, le détecteur « embarqué » permet d’améliorer la gestion de présence individuellement.

Les détecteurs gradables (agit sur la commande 1-10V du ballast dimmable)

Les détecteurs gradables

Photo détecteurs gradables.

On rencontre deux types de détecteurs gradables :

  • analogique : connecté au ballast électronique dimmable, ce type de détecteur agit comme le potentionmètre (ou dimmer) sur le ballast en faisant varier la tension de commande de 1 à 10 Volt,
  • digital : connecté à un ballast type DALI ou sur un réseau type DALI, ce genre de détecteur peut agir sur un ou des groupes de luminaires.

Les multidétecteurs

Photo multidétecteurs.

À l’heure actuelle, de part la percée effectuée par les réseaux d’éclairage (ON, DALI, …), les détecteurs combinent plusieurs fonctions afin de commander, de réguler, de gérer un ou des groupes de luminaires :

  • la détection de présence,
  • la régulation en fonction du niveau d’éclairage naturel,
  • la réception IR d’un signal de commande à distance (télécommande).

Caractéristiques générales des détecteurs infrarouges (IR)

Un détecteur placé sur une paroi verticale est caractérisé par :

  • un angle de détection horizontal,
  • une portée latérale,
  • une portée frontale.

Un détecteur placé au plafond est caractérisé par :

  • un rayon d’action de 360°,
  • un diamètre de détection maximal (ou couverture maximale (en m²)) pour une hauteur maximale.

Lorsqu’on diminue la hauteur d’installation, la zone de couverture diminue, mais la sensibilité augmente.
Par contre, au-delà de la hauteur maximale, la sensibilité n’est plus suffisante.

Attention : le détecteur ne traverse aucune cloison, pas même en verre !

Si plusieurs détecteurs sont placés dans un même lieu, il est intéressant de prendre un modèle de détecteur avec un mécanisme « maître » (ou « master ») et un ou plusieurs avec mécanisme « esclave » (ou « slave »). Un détecteur avec mécanisme « maître » est plus cher, mais les mécanismes « esclave » sont beaucoup moins chers, ce qui rend l’ensemble intéressant économiquement.

Y a-t-il des différences entre détecteurs pour la gestion de l’éclairage et détecteurs pour la gestion de la ventilation ?

Les sondes utilisées dans un but de gestion de l’éclairage ne possèdent pas de temporisation à l’enclenchement/déclenchement. Le détecteur possède une temporisation après le dernier mouvement. Pour certains modèles, cette temporisation est réglable  (de 5 secondes à 5 minutes par exemple). La temporisation peut aller jusqu’à 30′ pour les modèles perfectionnés.

De plus, elles intègrent souvent un détecteur de luminosité : en général, le détecteur comporte un interrupteur crépusculaire dont le seuil de luminosité peut être réglé (de 5 à 1 000 lux par exemple).

En éclairage, il existe deux types de mécanismes :

  • Un mécanisme avec triac qui ne permet de commander que des lampes à incandescence ou halogène 230 V.
  • Un mécanisme avec relais qui permet de commander également des lampes fluorescentes.

Si les sondes destinées à la régulation de la ventilation sont d’un principe identique, elles intègrent par contre des temporisations à l’enclenchement et au déclenchement nécessaires pour éviter des sollicitations trop fréquentes du système de ventilation.

Ces temporisations sont généralement réglables de quelques minutes à une dizaine de minutes.

À noter qu’il existe des bouches de soufflage qui intègrent une sonde de présence directement :

Photo bouches de soufflage avec détecteur.


Emplacement

L’espace couvert par un détecteur détermine l’emplacement des détecteurs.
Les détecteurs doivent être placés de manière à couvrir tout l’espace à détecter.

Exemple.
On souhaite placer des détecteurs de présence pour commander l’éclairage du hall ci-dessous.

Caractéristiques du détecteur :

Interrupteurs automatiques 

  • Angle de détection : 180°
  • Portée latérale : 2 x 6 m
  • Portée frontale : 12 m

Schéma emplacement des détecteurs.

Trois détecteurs seront placés. Ils couvriront l’ensemble du hall.

Le choix de l’emplacement du détecteur a une grande importance sur son bon fonctionnement. Il ne faut pas que le détecteur soit influencé par une source de lumière permanente (dans ce cas, croyant l’éclairage suffisant, il ne commandera pas l’allumage) ou encore par un mouvement en-dehors de la zone commandée (ouverture de porte, …).

On peut souhaiter réaliser un zonage dans un même local. Dans certains cas, ce zonage peut être réalisé uniquement en choisissant bien l’emplacement des détecteurs; dans d’autres cas il faudra placer des « jalousies » sur le détecteur, de manière à ce qu’il ne voit que d’un seul côté.


Schémas de raccordement (en gestion de l’éclairage)

Situation 1 : il n’y a qu’un seul détecteur

Selon le type de mécanisme, le raccordement du détecteur se fait avec 2 ou 3 conducteurs

  • Un mécanisme avec triac (pour lampes à incandescence ou halogènes 230 V) doit être raccordé à la phase, un conducteur sort vers les lampes (= raccordement 2 fils).
  • Un mécanisme avec relais (pour lampes incandescentes, halogènes et fluorescentes) doit être raccordé à la phase et au neutre (ou 2° phase), un conducteur sort vers les lampes (= raccordement 3 fils).

Montage à 2 fils.

Montage à 3 fils.

Application en rénovation lorsqu’on utilise des interrupteurs automatiques :

Lorsqu’on utilise un mécanisme à relais (montage à 3 conducteurs obligatoire pour tubes fluorescents par exemple), et lorsqu’on utilise des interrupteurs automatiques) il faudra vérifier qu’une phase et un neutre (ou 2 phases) arrivent bien à l’interrupteur existant.
En effet, dans certains types de câblage (« câblage par le haut »), un seul fil arrive à l’interrupteur.

Dans ce cas, il faudra tirer un nouveau conducteur entre les lampes et le(s) détecteur(s), ce qui augmente les coûts, surtout lorsque les câbles sont encastrés.

Situation 2 : il y a plusieurs détecteurs

S’il y a plusieurs points de détection dans un même lieu, on monte les détecteurs en parallèle, ou encore on monte un détecteur avec mécanisme « maître » et un (ou plusieurs) détecteur(s) avec mécanisme « esclave » :

Détecteurs en parallèle

Montage à 2 fils.

Montage à 3 fils.

En plus de la phase (et éventuellement du neutre ou d’une deuxième phase) qui arrive au détecteur, on doit disposer d’un conducteur entre les détecteurs.

Application en rénovation lorsqu’on utilise des interrupteurs :

Si l’installation existante comporte des interrupteurs à deux directions, utilisés lorsque deux interrupteurs commandent les mêmes lampes, on dispose déjà de ce câble dans l’installation existante (câble à 3 conducteurs). Si l’installation comporte des interrupteurs-inverseurs, utilisés en plus des interrupteurs à deux directions lorsque plus de deux interrupteurs commandent les mêmes lampes, on dispose également de ce câble.
Par contre, si dans l’ancienne installation, les luminaires sont commandés par un seul interrupteur il faudra tirer ce conducteur entre les détecteurs ; ce qui engendre un surcoût.

Prescriptions relatives à l’éclairage en milieu hospitalier

Prescriptions relatives à l'éclairage en milieu hospitalier


Principe

Il est utile de pouvoir connaître les niveaux d’éclairement recommandé suivant l’ergonomie de travail (le confort de la tâche de travail).

Dans la norme NBN EN 12464-1, on établit une nomenclature dans laquelle on retrouve pour différents locaux des bâtiments du tertiaire, entre autres, les paramètres suivants:

La norme n’englobe pas tous les locaux repris dans l’hôpital. Pour cette raison, on effectuera une corrélation entre la norme EN 12646-1 et les recommandations de l’AFE (Association Française de l’Éclairage) dans les institutions de soins de santé.

Salle à usage général

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Plans de référence
Salle d’attente 200 22 0,40 80 Au niveau du sol.
Couloir : pendant le jour 100 22 0,40 80 Au niveau du sol.
Couloir : pendant la nuit 50 22 0,40 80 Au niveau du sol.
Salle de jour 200 22 0,60 80 Au niveau du sol.

Salle réservée au personnel

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Plan de référence

 

Bureau du personnel 500 19 0,60 80 0.7 m du sol.
Salle de détente 300 19 0,60 80 0.85 m du sol par défaut.

Chambres de malade, de maternité

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Plan de référence
Éclairage général 100 19 0,40 80 Au niveau du sol.
Éclairage de lecture 300 19 0,70 80 Au niveau du livre.
Examens simples 300 19 0,60 80 Au niveau du lit.
Examens et traitements 1 000 19 0,70 80 Au niveau du lit.
Éclairage de nuit 5 80 Au niveau du sol ou de la tête du patient suivant l’importance de la surveillance.
Salles de bains, toilettes pour les patients 200 22 0,40 80 Au niveau du lavabo et WC.

Salle d’examens (général)

Type d’intérieur, tâche ou activité

 

Em (lux) UGR Uo Ra Remarques Plan de référence
Éclairage général 500 19 0,60 90 4000 K ≤ TCP ≤ 5000 K 0.85 m du sol par défaut.
Examen et traitement 1 000 19 0,70 90 0.85 m du sol par défaut.

Salle d’examen des yeux

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Remarques Plan de référence
Éclairage général 500 19 0,60 90 4000 K ≤ TCP ≤ 5000 K 0.85 m du sol par défaut.
Examen de l’extérieur des yeux 1 000 90 A hauteur des yeux.
Test de lecture et de vision des couleurs sur panneaux 500 16 0,70 90 Au niveau d’un plan vertical de lecture.

Salle d’examen des oreilles

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra

Plan de référence

Éclairage général

500 19 0,60 90 0.85 m du sol par défaut.
Examen des oreilles 1 000 90 Au niveau de la tête du patient.

Salle d’examen au scanner, IRM

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra

Plan de référence

Éclairage général 300 19 0,60 80 0.85 m du sol par défaut.
Scanners avec agrandissement de l’image et systèmes de télévision 50 19 80 Au niveau du patient.

Salle d’accouchement

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra
Plan de référence

Éclairage général

300 19 0,60 80

0.85 m du sol par défaut.

Examen et traitement

1 000 19 0,70 80
Au niveau du bassin de la patiente.

Salle de traitement (général)

Type d’intérieur, tâche ou activité
Em (lux) UGR Uo Ra

Plan de référence

Dialyse

500 19 0,60 80

Au niveau de la zone à traiter.

Dermatologie
500 19 0,60 90

Salle d’endoscopie

300 19 0,60 80
Salle de pose des plâtres 500 19 0,60 80
Bain médicaux
300 19 0,60 80
Massage et radiothérapie 300 19 0,60 80

Salle d’opération

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Plan de référence
Salle de préparation et de réveil 500 19 0,60 90 0.85 m par défaut.
Salle d’opération 1 000 19 0,60 90 0.85 m par défaut.
Champ opératoire 10 000 à 100 000 Champ opératoire.

Unités de soins intensifs

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra

Plan de référence

Éclairage général 100 19 0,60 90 Au niveau du sol.
Examens simple 300 19 0,60 90 Au niveau du lit.
Examens et traitement 1 000 19 0,70 90 Au niveau du lit.
Surveillance de nuit 20 19 90 Au niveau de la tête du patient.

Cabinets dentaires

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra

Remarques

Plan de référence

Éclairage général 500 19 0,60 90 Éclairage non éblouissant pour le patient. 0.85 m au niveau du sol.
Sur le patient 1 000 0,70 90
Cavité opératoire Exigences spécifiques décrites dans la norme EN ISO 9680
Appariement à la couleur des dents Exigences spécifiques décrites dans la norme EN ISO 9680

Laboratoires et pharmacies

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra  

Remarques

 

Plan de référence
Éclairage général 500 19 0,60 80
Contrôle des couleurs 1 000 19 0,70 90 6000 K ≤ Tcp ≤ 6500 K. 0.85 m par défaut.

Stérilisation

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Plan de référence
Salle de stérilisation 300 22 0,60 80 0.85 m par défaut.
Salle de décontamination 300 22 0,60 80

Salles d’autopsie et morgues

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra Remarques Plan de référence
Éclairage général 500 19 0,60 90 0.85 m par défaut.
Table d’autopsie et de dissection 5 000 90 Des valeurs > 5 000 lux peuvent être nécessaires. Au niveau de la table.

Ventilation naturelle

© Architecture et climat 2023.

  1. Amenée d’air naturel
  2. Grille de transfert
  3. Evacuation naturelle

Principe

Dans la ventilation naturelle, ou système A, suivant la norme NBN D50-001, aucun ventilateur n’intervient. L’air se déplace grâce aux différences de pression dues au vent qui existent entre les façades du bâtiment et grâce à la différence de masse volumique en fonction de sa température, c’est le tirage thermique ou l’effet cheminée. La circulation de l’air est donc totalement naturelle !

L’air peut pénétrer dans un bâtiment au travers des inétanchéités. On ne peut considérer à proprement parler ce phénomène comme de la ventilation. En effet, les débits d’air résultants sont tout à fait incontrôlables en fonction du vent, des ouvertures parasites… On parle dans ce cas d’infiltrations.

Des amenées d’air (grilles réglables, vasistas) doivent être disposées en façade pour les locaux dits « propres » (bureaux, séjours, …). Des ouvertures de transfert (détalonnage des portes ou grilles) permettent le passage de l’air vers les locaux dits « humides » ou « viciés » (sanitaires, cuisine, …). Dans ces derniers, l’air est évacué grâce à des conduits verticaux débouchant en toiture.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

Avantages

La ventilation entièrement naturelle ne demande aucune consommation électrique, le moteur du déplacement d’air étant la pression du vent et les différences de température. Elle est en ce sens économique et réduit l’impact du bâtiment sur l’environnement.

En outre, les éléments de ventilation naturelle demandent généralement très peu d’entretien et ne comprennent pas de ventilateurs bruyants.


Inconvénients

Cette apparente économie d’énergie doit être mise en balance avec la garantie de performance que l’on peut obtenir avec un tel mode de ventilation. En effet, la ventilation naturelle étant liée aux phénomènes naturels de mouvement de l’air, la qualité de l’air risque de ne pas être garantie dans tous les locaux. Le renouvellement d’air peut être fortement perturbé par le vent, par l’ouverture de fenêtres… Les débits d’air recommandés par les normes sont ainsi difficilement atteignables sur la durée et la ventilation naturelle n’est jamais privilégiée lors d’une nouvelle construction.

Pour garantir un bon fonctionnement d’une évacuation naturelle, celle-ci doit consister en un conduit vertical débouchant correctement en toiture. Si cette condition, parfois difficile à mettre en œuvre, ne peut être remplie, l’évacuation naturelle doit être abandonnée.

Comme pour la ventilation simple flux (extraction mécanique) :

  • L’air neuf n’est pas filtré et les grilles d’amenée d’air peuvent laisser filtrer les bruits extérieurs, ce qui peut être délicat en site urbain ou fortement pollué.
  • Les grilles d’ouvertures peuvent engendrer un inconfort, par exemple en plein hiver, sauf si la grille d’ouverture est placée à une hauteur supérieure à 1,80 m par rapport au sol.

  • Les ouvertures entre locaux, favorisent le passage de bruits pouvant être très gênants. Un traitement acoustique des grilles doit alors être prévu. Mais en pratique, la présence d’absorbeur acoustique dans une ouverture augmente son épaisseur et sous-entend généralement que la grille doit être placée dans l’épaisseur du mur (et non dans le vitrage ou dans la porte).
  • Enfin, les ouvertures dans les façades ne sont pas toujours du goût des architectes !

Régulation

Il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction des besoins (en période d’occupation, la nuit, week-end). Il existe plusieurs possibilités de réguler la ventilation naturelle : bouches réglables, grilles hygroréglables, grilles commandées électriquement, bras mécaniques pour l’ouverture des fenêtres… par exemple en fonction d’un horaire ou d’une sonde CO2.

Une ventilation naturelle par ouverture manuelle des fenêtres est également fortement conditionnée par le comportement des occupants et leur conscience du niveau de pollution du local. Il peut donc être utile d’utiliser un appareil avertisseur basé sur la concentration en CO2 par exemple pour conscientiser l’usager sur la qualité de son air.

Isolation par panneaux rigides au-dessus des chevrons ou des fermettes (Toiture « Sarking »)

Isolation par panneaux rigides au-dessus des chevrons ou des fermettes (Toiture "Sarking")

Isolation au-dessus des chevrons ou des fermettes.

  1. couverture
  2. contre-lattes
  3. lattes
  4. sous-toiture
  5. isolant
  6. pare-vapeur
  7. chevrons ou fermettes
  8. pannes

La toiture « SARKING »

Le système sarking est un procédé d’isolation thermique des toitures inclinées caractérisé par la pose de panneaux isolants rigides au-dessus des chevrons ou des fermettes.

La toiture sarking vu de l’intérieur.

Les panneaux sont généralement en mousse synthétique ou en verre cellulaire, plus rarement en laine de roche rigide incompressible.

Les joints entre panneaux isolants étant rendus étanches à l’air, les panneaux isolants assument, à eux seuls, 3 fonctions de la toiture :

Lorsque les joints entre les panneaux isolants ne sont pas rendus étanches, une sous-toiture souple capillaire permettant la diffusion de vapeur est posée sur l’isolant.

Un écran rigide, sorte de plancher incliné dans le plan de la couverture, peut être éventuellement placé directement sur les chevrons ou fermettes, sous les panneaux isolants. Il peut alors servir de finition intérieure, de sécurité incendie. En outre il facilite grandement la pose d’un éventuel pare-vapeur pour lequel il sert de support.

Il est constitué, par exemple, de :

  • panneaux multiplex ou de bois aggloméré,
  • voliges rainurées bouvetées ou non,
  • plaques de fibre-ciment.

La mise en œuvre de verre cellulaire ou de laine de roche rigide incompressible, impose ce support rigide.

Isolant supporté par une plaque rigide.

  1. Couverture.
  2. Lattes.
  3. Contre-lattes.
  4. Isolant.
  5. Plaque de support.
  6. Chevrons ou fermettes.
  7. Pannes.

En l’absence de plancher, la finition intérieure est réalisée sous les chevrons, en plaques de plâtre, par exemple.

La finition intérieure, qu’elle soit constituée du support ou d’une autre finition, doit être en matériau isolant au feu de manière à retarder la transmission de flammes vers les isolants en mousses synthétiques (PUR, PIR, XPS, EPS) qui sont combustibles.

Les contre-lattes sont clouées dans les chevrons ou les fermettes au travers de l’isolant.


Conseils de mise en œuvre

Les panneaux isolants rigides de mousse synthétique (XPS, EPS) de la toiture « Sarking » sont placés parallèlement à l’horizontale.

Les joints verticaux des panneaux se retrouvent de préférence au-dessus et à l’axe du support (chevron ou fermette).

Bâtiments de classe de climat intérieur I, II ou III

Dans les bâtiments de classe de climat intérieurI, II ou III, la fonction d’étanchéité à l’air et à la vapeur est assurée par le panneau isolant lui-même à condition d’avoir des joints et des raccords étanches.
L’étanchéité à l’air et à la vapeur des joints et des raccords peut être obtenue :

  • par la mise en place de bandes de mousse souple d’épaisseur suffisante à l’intérieur des joints, ou
  • par des cordons de mastic élastique compatible à la jonction des panneaux, ou encore
  • par des bandes auto-collantes disposées sur les joints.

La fonction « sous-toiture » peut être assurée par le panneau isolant à condition de rendre étanche à l’eau la face supérieure de tous les joints entre panneaux et des raccords. Dans ce cas, une bavette collée sur la dernière rangée de panneaux ou engagée dans l’épaisseur de cette dernière, doit assurer l’évacuation des infiltrations d’eau éventuelles.

  1. Panne sablière.
  2. Chevron ou fermette.
  3. Planche de rive.
  4. Cale de bois.
  5. Panneaux isolants.
  6. Isolant entre chevrons ou fermette.
  7. Sous-toiture éventuelle.
  8. Contre-latte.
  9. Lattes.
  10. Latte plâtrière.
  11. Couverture.
  12. Gouttière.
  13. Bavette indépendante.
  14. Peigne.
  15. Finition intérieure.

Une autre solution consiste à poser sur les panneaux isolants ou à intégrer à ceux-ci, lors de leur fabrication, une sous-toiture sous forme de membrane ou de plaques rigides imperméables à l’eau mais très perméables à la vapeur. La sous-toiture souple est posée sur l’isolant avec recouvrement des joints longitudinaux et transversaux. La sous-toiture rigide est posée sur l’isolant avec recouvrement des joints longitudinaux. La jonction verticale se fait bord à bord, dans l’axe des chevrons ou fermettes. Le joint vertical est comprimé par la contre-latte fixée au chevron ou à la fermette à travers l’isolant. Les joints verticaux de l’isolant et de la sous-toiture rigide ne peuvent pas se superposer. La sous-toiture doit être prolongée dans le bas du versant jusqu’à la gouttière ou au-delà de la façade pour assurer l’évacuation des infiltrations d’eau éventuelles.

Exemple, système proposé par un fabricant.

Joint horizontal entre deux panneaux

  1. chevron ou fermette
  2. crochet de mise en place cloué au chevron
  3. panneau isolant
  4. bande de mousse souple adhésive
  5. latte de mise en place
  6. deuxième rangée de panneaux isolants à glisser contre la première rangée
  7. couche de revêtement avec rebord (200 mm) (= sous-toiture)

Joint vertical entre deux panneaux

  1. chevron ou fermette
  2. bande adhésive
  3. panneau isolant avec sous-toiture souple intégrée
  4. contre-latte

Les joints verticaux sont alignés au-dessus et à l’axe du chevron. De cette façon, l’étanchéité à l’air est assurée par la contre-latte. Une étanchéité à l’air supplémentaire peut être obtenue en plaçant une bande adhésive souple sur le support avant la mise en place des panneaux et en appliquant une même bande sur la face supérieure des joints avant la pose des contre-lattes.

Autre exemple, système proposé par un autre fabricant : 

Panneau rainuré et languetté sur le pourtour + profil le rendant étanche à l’air et à la vapeur d’eau. En outre, la face supérieure est pourvue d’une membrane de sous-toiture étanche à l’eau qui chevauche le panneau de part et d’autre.

On trouve sur le marché des panneaux de polystyrène expansé à rainures et languettes dont le fabricant propose simplement, pour réaliser l’étanchéité entre panneaux, la pose par-dessus le panneau isolant, d’une membrane étanche à l’eau de pluie et perméable à la vapeur, sans étanchéité à l’air et à la vapeur supplémentaire à la face inférieure des panneaux.

Les tenons des plaques doivent toujours être orientés vers le haut.

Ce système est moins exigeant au niveau hygrothermique que l’ensemble des précautions énoncées ci-dessus et extraites de l’article « Dossier : la toiture SARKING », paru dans le magasine « Roof Belgium » de septembre 1998, écrit sur base d’un document technique du CSTC exposant les aspects principaux de la toiture Sarking. Néanmoins, ce système, pour autant qu’il soit pourvu d’un plancher ou d’une finition intérieure étanche à l’air sous les chevrons, est conforme aux recommandations du CSTC concernant le choix du pare-vapeur, puisque ces recommandations n’exigent pas de pare-vapeur dans le cas d’une sous-toiture capillaire et perméable à la vapeur d’eau.

Bâtiments de classe de climat intérieur IV

Dans les bâtiments de classe de climat intérieur IV, les recommandations ci-dessus concernant la fonction « sous-toiture » restent valables, tandis que la fonction d’étanchéité à la vapeur d’eau nécessite la pose d’un pare-vapeur continu. La mise en place de celui-ci sera facilitée par la présence, sous les panneaux isolants, d’un « plancher » sur lequel il sera posé.

Remarque générale.

Pour une construction sûre en matière d’incendie, on doit prévoir une finition intérieure en carton-plâtre ou en tout autre matériau résistant au feu. Celle-ci permet de retarder la transmission de flammes vers les mousses synthétiques (PUR, PIR, XPS, EPS) qui sont combustibles.

Placer des amenées d’air de ventilation

Placer des amenées d'air de ventilation


Si les châssis doivent être remplacés, on profitera de l’occasion pour placer des grilles de ventilation.

Celles-ci peuvent se trouver :

  • soit, dans la menuiserie même,
  • soit, entre le vitrage et le profilé de menuiserie,
  • soit entre les profilés de menuiserie,
  • soit, entre la menuiserie et la maçonnerie.

Photo grilles châssis - 01.   Photo grilles châssis - 02.   Photo grilles châssis - 03.

Grille verticale intégrée dans la menuiserie, entre le vitrage et la menuiserie et au-dessus du châssis, contre la battée.

Si l’on ne prévoit pas de remplacer les châssis, des grilles de ventilation doivent être placées dans la maçonnerie.

Grilles réglables à insérer dans la maçonnerie.

La maçonnerie est percée, la grille placée en donnant une légère pente vers l’extérieur et enfin on réalise un bon joint d’étanchéité entre maçonnerie et grille.

Il faudra penser à respecter l’Annexe C3 de la PEB. Les bouches d’alimentation d’air de ventilation pour les systèmes de ventilation naturelle ou les systèmes de ventilation mécaniques simple flux par extraction doivent être dotées d’un réglage manuel ou automatique. Elles doivent pouvoir être réglées en suffisamment de positions intermédiaires entre les positions « fermées » et « complètement ouverte ». Ce réglage peut se faire soit en continu, soit via au moins 3 positions intermédiaires.

Les bouches d’évacuation pour systèmes de ventilation naturelle ou système de ventilation mécanique simple flux par insufflation doivent répondre aux mêmes exigences.

Pompe à chaleur sur lave-vaisselle

Pompe à chaleur sur lave-vaisselle


Pompe à chaleur avec récupération sur les buées

De la chaleur est prise sur les buées au niveau de la tubulure d’échappement pour la donner à l’eau.L’avantage d’une pompe à chaleur sur un simple récupérateur de chaleur est que, grâce à l’utilisation d’un fluide intermédiaire et d’un compresseur,  la température de la source de chaleur (ici, l’air chargé de buées)  peut être plus basse que celle du fluide auquel on donne la chaleur (ici, l’eau de lavage).

Par exemple, imaginons des buées à 40°C et de l’eau de lavage à 60°C. Dans un premier échangeur (l’évaporateur), le fluide frigorigène de la pompe à chaleur passera à 30°C, il captera la chaleur des buées, puis se fera comprimer par le compresseur pour atteindre 70°C. À cette température, il pourra donner sa chaleur vers l’eau de lavage, dans un deuxième échangeur (le condenseur).

Quel est le bilan énergétique du processus ? D’une part, la chaleur captée sur les buées sera transférée vers l’eau de lavage. Mais d’autre part, il a fallu alimenter électriquement le compresseur. On pourrait montrer que cette énergie électrique est également convertie en chaleur et transférée (dans le deuxième échangeur) vers l’eau de lavage. Si bien que l’on peut écrire :

Puissance captée dans les buées + Puissance du compresseur = Puissance donnée à l’eau de lavage.

Exemple de puissances injectées, perdues et récupérées sur un lave-vaisselle muni dune pompe à chaleur.

Source : société Stierlen.

Dans l’exemple ci-dessus, avec les 20 kW du compresseur on a « créé » 75 kW (20 + 55) ! On parle d’un coefficient de performance ou COP de 75/20 = 3,75.

Une pompe à chaleur va permettre de diminuer la puissance totale installée ainsi que la consommation d’environ 45 %.

D’après nos sources, le COP d’une pompe à chaleur sur un lave-vaisselle est d’environ 4.


Pompe à chaleur avec récupération sur les buées et sur l’air ambiant

Certaines machines avec pompe à chaleur intégrée sont encore plus performantes que les pompes à chaleur qui récupèrent de la chaleur sur les buées, puisqu’elles récupèrent aussi de la chaleur sur l’air ambiant.

Cette deuxième récupération permet d’accroître la chaleur cédée au niveau de l’évaporateur et par conséquent celle cédée à l’eau de lavage et de rinçage. L’économie d’énergie et de puissance installée est donc plus importante : elle peut aller jusqu’à 55 %.

Le COP, coefficient de performance de la pompe à chaleur, a tendance à diminuer puisque l’on cherche à capter la chaleur d’une ambiance qui est à basse température. D’une façon générale, le COP est d’autant meilleur que l’écart de température entre évaporateur et condenseur est faible. Ici, l’écart entre la température de l’ambiance et la température de l’eau de lavage est plus élevé, le compresseur a donc plus de travail à réaliser. Pour limiter cet impact, on placera les deux sources de chaleur en série, d’abord l’air ambiant, ensuite les buées chaudes.

Pompe à chaleur avec récupération sur les buées uniquement Pompe à chaleur avec récupération sur les buées et sur l’air ambiant
Schéma PAC avec récupération sur les buées uniquement. Schéma PAC avec récupération sur les buées et sur l'air ambiant.

Ce système présente un deuxième avantage non négligeable : l’air ambiant de la cuisine est refroidi, ce qui va améliorer le confort des occupants.

Attention : si l’humidité absolue de l’air du local diminue par condensation dans l’évaporateur de la pompe à chaleur, l’humidité relative du local va augmenter, ce qui ne contribuera pas à l’amélioration du confort à ce niveau.

Ce phénomène peut se comprendre sur le diagramme d’enthalpie de l’air.

Exemple : l’air sort de l’évaporateur à 18°C et 100 % d’humidité relative (point A). Il est mélangé à de l’air ambiant à 26°C et 80 % d’humidité relative (point B). Le mélange se trouvera quelque part (en fonction des proportions du mélange) sur la droite qui rejoint le point A au point B. On voit donc que  l’humidité relative sera de toute façon supérieure à celle de l’air  ambiant.

On en conclut que de l’air sec devra de toute façon être apporté au local pour diminuer son taux d’humidité, mais en quantité nettement plus faible. Autrement dit, la présence d’une pompe à chaleur sur le lave-vaisselle qui extrait l’humidité de l’ambiance permettra un débit d’extraction d’air dans la laverie nettement plus faible.

Limiter les apports solaires [Fenêtres]

Limiter les apports solaires


Les vitrages

Dans les bâtiments tertiaires avec apports internes élevés, il faut limiter les surfaces vitrées au Sud et surtout à l’Ouest, et prendre la lumière naturelle au Nord (dans la limite des possibilités urbanistiques).

Un vitrage est un élément de l’enveloppe dont le bilan thermique est particulier. Ainsi, durant la saison de chauffe :

  • Il perd constamment de la chaleur par transmission vers l’extérieur plus froid.
  • Il gagne de la chaleur, pendant les heures d’ensoleillement, par le rayonnement solaire qui le traverse.

Dans un bâtiment domestique, le bilan d’un double vitrage Sud (établi sur la saison de chauffe) est positif : il reçoit plus de chaleur solaire qu’il ne perd de chaleur par transmission. C’est ce bilan qui est à la base de la conception « solaire passive » des habitations : développer des surfaces de captation au Sud va permettre de diminuer la consommation de chauffage.

Mais il y a une limite à ce gain : si la surface vitrée est trop importante, toute l’énergie incidente ne sera plus « utile ». En mi-saison, et parfois même en hiver, le bâtiment sera « saturé » de chaleur et l’apport supplémentaire ne sera pas valorisé. Une serre annexée à l’habitat, dont on voudrait maintenir la température intérieure, est un exemple poussé à l’extrême de cet excès de surface solaire : les pertes de chaleur sont très élevées par temps froid et la température devient rapidement excédentaire en période d’ensoleillement.

Dans les immeubles de bureaux actuels, le bilan sur la saison de chauffe est toujours négatif : plus la surface vitrée est importante, et plus la consommation de chauffage est élevée en hiver. Et ceci quelle que soit l’orientation. En fait, la demande de chaleur du bureau est faible, car il est rapidement « saturé » de chaleur par les charges internes. Et lorsque le rayonnement solaire se produit, il ne contribue pas à diminuer la puissance de chauffage qui est nulle à ce moment, mais apporte un état de surchauffe.

De plus, si l’on regarde le bilan annuel, l’augmentation de la surface vitrée ne peut que générer un supplément de consommation en été. Toute augmentation de la surface vitrée entraîne donc une augmentation de la consommation globale du bâtiment.

On en conclut que si l’immeuble de bureaux prévu est fortement équipé en bureautique, il est raisonnable de se fermer au Sud et à l’Ouest pour s’ouvrir au Nord. On ne garde alors de la composante solaire que la fonction d’éclairage naturel des espaces. A fortiori, si la structure est de faible inertie thermique.

Ordre de grandeur

Pour fixer un ordre de grandeur, voici un extrait de la future réglementation thermique française relative à la protection contre l’ensoleillement des bâtiments climatisés autres que les habitations.

Le principe de cette réglementation est de compenser des surfaces de vitrage trop importantes par une protection solaire plus sévère et vice-versa.

Ainsi,

(Σ Sbaies vert x FSbaies vert x Fma) / (Σ Sfaçades)
+ 2 x (Σ Sbaies hor x FSbaies hor) / Σ Stoit

doit être inférieur à 0,35 (pour le nord de la France).

où,

  • Sbaies vert et Sbaies hor = surface des baies verticales dans toutes les orientations à l’exception du nord et surface des baies horizontales.
  • FSbaies vert et FSbaies hor= facteur solaire des baies verticales et horizontales.
  • Fma = coefficient de masque architectural (= 1 si pas de masque (valeur par défaut), = 0,75 si débord de toit ou auvent orienté du SE au SO de plus de 0,25 x hauteur baie, = 0,7 si auvent orienté du SE au SO de plus de 0,5 x hauteur de baie).
  • Sfaçades et Stoit = surface des façades dans toutes les orientations à l’exception du nord et surface de toiture.

Isolation

Choix des vitrages.

Les protections solaires

On a vu dans la réglementation française, ci-dessus, que les apports solaires dépendent évidemment de la surface du vitrage mais aussi du facteur solaire de la baie, c’est-à-dire du pourcentage d’énergie solaire qui traverse le vitrage par rapport à l’énergie incidente.

Il existe divers moyens de protéger la baie, par des stores enroulables (principalement extérieurs), par des brise-soleil, par des vitrages réfléchissants, …

    

Brise-soleil, stores enroulables, vitrages réfléchissants.

Les protections solaires les plus performantes permettent de diminuer de près de 90 % les apports de chaleur au travers des vitrages.

Toute la difficulté du choix consistera à concilier la protection contre les surchauffes et un apport en éclairage naturel suffisant, quelle que soit la saison.

Gestion des gains solaires 

Placer des protections solaires.

Rendement d’un système de ventilation

Rendement d'un système de ventilation


Rendement global

Le rendement global h d’une installation de ventilation peut être calculé comme suit :

h = q x p / P

Avec :

  • q = débit volumique en m³/s
  • p = perte de charge totale du système en Pa
  • P = puissance électrique absorbée en W

Le rendement d’un système complet de ventilation dépend du

Données

Exemples courants de rendement global de système de ventilation.

Rendement du moteur électrique

Les données de la plaque signalétique, correspondant à un fonctionnement en régime nominal, permettent de calculer le rendement d’un moteur asynchrone à la puissance nominale :

η = P / (1,73 x U x I x cos φ)

η = Rendement [-], P = Puissance [W], U = Tension [V],
I = Courant [A], cos φ= Facteur de puissance

Exemple.

À partir de la plaque signalétique ci-dessus :

η = 4 000 / (1,73 x 400 x 8,1 x 0,9) = 0,79

Les pertes au niveau des moteurs asynchrones sont constituées

  • des pertes par effet joule dans les bobinages parcourus par le courant au niveau du stator (pertes cuivre et pertes fer),
  • des pertes dans d’induit au niveau du rotor,
  • des pertes par frottement et ventilation au niveau du rotor.

Les rendements donnés par les fabricants tiennent compte de toutes ces pertes.

Le rendement d’un moteur électrique est fortement influencé par sa puissance nominale. Cela signifie que le rendement atteignable augmente avec la puissance nominale du moteur. Dans la pratique le rendement d’un moteur asynchrone se situe entre 58 % et 96 % en fonction de la taille du moteur.


Pour tous les moteurs, le rendement chute assez fort lorsqu’ils travaillent à charge partielle. Il faut donc se méfier des rendements maximums indiqués sans les rendements à charge partielle pour plusieurs points de fonctionnement différents.


Rendement de la transmission

La transmission de l’énergie du moteur au ventilateur se fait avec une certaine perte, principalement dans le cas d’une transmission par courroies, du fait du glissement de cette dernière sur les poulies.

Mode d’entraînement

Pertes

Moteur à entraînement direct (roue de ventilateur directement calée sur l’arbre du moteur) 2 à 5 %
Entraînement par accouplement 3 à 8 %
Transmission par courroies
Pmot < 7,5 kW : 10 %
7,5 kW < Pmot < 11 kW : 8 %
11 kW < Pmot < 22 kW : 6 %
22 kW < Pmot < 30 kW : 5 %
30 kW < Pmot < 55 kW : 4 %
55 kW < Pmot < 75 kW : 3 %
75 kW < Pmot < 100 kW : 2,5 %

Rendement du ventilateur

Le rendement d’un ventilateur provient des pertes par frottement au niveau des paliers, des pertes internes dues aux tourbillons créés dans le ventilateur et des pertes dues à l’espace compris entre la roue en mouvement et l’enveloppe.

Type de ventilateur Rendement
Centrifuge à aubes vers l’arrière 80 – 87 %
Centrifuge à aubes vers l’avant 57 – 73 %
Hélicoïde sans diffuseur et avec redresseur 50 – 88 %
Hélicoïde avec diffuseur et redresseur 60 – 89 %
Hélicoïde de paroi 35 – 50 %

À chaque point de fonctionnement correspond un rendement du ventilateur. Les points de fonctionnement d’égal rendement sont repris sur des courbes associées aux courbes caractéristiques des ventilateurs. Elles se retrouvent dans les catalogues des fournisseurs.

Il existe un lien entre le rendement et la puissance spécifique (PSFP) :

PSFP = P/qV [W.m-3.s] = Hm

où :

  • P = puissance absorbée au moteur du ventilateur [W]
  • qV = débit nominal à travers le ventilateur en [m³.s-1]
  • Hm est la hauteur manométrique [Pa]
  • η est le rendement nominal [-]

Dimensionner le lave-vaisselle

Dimensionner le lave-vaisselle

Une machine à laver est déterminée à partir de 3 paramètres : le temps imparti au lavage, l’inventaire des pièces à laver et le temps de contact dans la zone de lavage.


Machine à paniers fixes ou mobiles -Dimensionnement précis

Les machines à paniers sont déterminées par deux paramètres :

  • son débit (en panier/heure)
  • le temps de contact dans la zone de lavage

Le débit horaire de la machine – Méthode du nombre d’assiettes étalons

Le débit horaire de la machine est calculé à partir du nombre total de paniers par service divisé par le temps alloué à cette opération, tout en tenant compte des pointes de service et du fait que tous les paniers ne sont pas complets, particulièrement en début et fin de service (rendement d’utilisation η).

Débit (paniers/heure) = Nombre total de paniers à laver par service x 60 min


Temps alloué (en min) x h*

> Le nombre total de paniers par service

Toute la vaisselle est convertie en assiettes étalons au moyen d’une table de conversion.

Exemple de table de conversion des pièces de vaisselle en assiettes étalons (machines à paniers)
Assiette Ø : 23 cm 1
Assiette Ø < 15 cm 0,7
Ravier 2
Ramequin 0,7
Verre 0,7
Plateau Self 2,3
Couvert complet 0,2
Tasse 1
Sous-tasse 0,6

Les dimensions moyennes d’un panier sont de 500 mm x 500 mm x 115 mm. Un panier contient en moyenne 18 (16 ?) assiettes étalons.

Pour déterminer le nombre total de paniers à laver par service, il faut calculer dans l’ordre suivant :

  • la composition d’un couvert type,
  • le total des pièces à laver par service,
  • convertir ce total en nombre d’assiettes étalons,
  • le nombre total de paniers à laver par service.

Une autre façon de calculer est de partir, pour chaque type d’objet à laver, de la quantité exacte par panier. Les fabricants disposent de tables reprenant ces chiffres.

> Le temps alloué au lavage est tributaire de certains facteurs propres au client. Dans certains cas le facteur « temps » est moins important que le facteur « investissement », dans d’autres, c’est l’inverse. Le local peut également représenter une contrainte en limitant l’espace disponible au placement d’un lave-vaisselle plus important. Sachant toutefois que les frais d’exploitation (main d’ouvre surtout, mais également eau, énergie et produits) représentent à terme plusieurs fois le montant de l’investissement, la priorité est souvent donnée au temps de traitement le plus court possible.

Si l’on ne dispose pas d’autres indications, on peut estimer le temps alloué au lavage de la vaisselle à deux heures.

> Le rendement d’utilisation η

Nombre de repas Rendement d’utilisation η
jusque 150 0,65
de 150 à 1 000 0,75
plus de 1 000 0,8

Dans le cas d’un lavage différé, les pièces à laver sont d’abord stockées dans des paniers. Le lavage est différé en dehors des heures de service à table et donc toute la vaisselle est prête à entrer dans le lave-vaisselle une fois celle-ci commencée. Les temps morts sont beaucoup moins importants que lorsque le lavage est instantané. On peut, par exemple, prendre un rendement d’utilisation de 0,8.

Le choix de la machine se fait alors en comparant le résultat des calculs aux performances annoncées par les constructeurs. On vérifiera néanmoins que les performances annoncées respectent les temps de contact minimums.
Le nombre de paniers par heure et le temps de contact minimum déterminent, en fait, la longueur de la machine (parties où il y a contact avec l’eau).

Le temps de contact dans la zone de lavage

Chaque type de restauration demande un temps de contact minimum dans la zone de lavage. Il s’agit du temps pendant lequel la vaisselle est soumise aux jets des gicleurs de lavage.

Type de cuisine Temps de contact (en sec)
Restauration publique ou d’entreprise
(vaisselle sale, fraîche).
42 à 45
Hôpitaux
(vaisselle faisant partie d’un système de distribution centralisée).
48 à 80
Restauration avec système de distribution avec réchauffage. 90

Il existe une deuxième règle, à laquelle il est régulièrement fait référence dans notre pays. Il s’agit de la norme allemande DIN 10510, qui exige un temps d’exposition de la vaisselle aux jets d’eau de 2 minutes (120 secondes) minimum. Ces deux minutes incluent le prélavage, le lavage et le rinçage final.


Machine à convoyeur – Dimensionnement précis

La machine à convoyeur est déterminée par deux paramètres :

  • la vitesse d’avancement du convoyeur,
  • le temps de contact dans la zone de lavage

La vitesse d’avancement du convoyeur

La vitesse d’avancement du convoyeur est fixée en évaluant la longueur de bande nécessaire au lavage divisée par le temps alloué à cette opération, tout en pondérant par un coefficient de salissure (δ) et par un taux réel d’occupation (τ = 0,8). Ce dernier coefficient tient compte du fait que tous les convoyeurs ne sont pas complets, particulièrement en début et fin de service, et permet aussi de tenir compte des pointes de service.

Vitesse d’avancement du convoyeur
(en m/min) =
Longueur d’occupation sur le convoyeur (en m) x coefficient de salissure (δ)


Coefficient d’occupation réelle (τ) x temps alloué au lavage de la vaisselle (en min)

> La longueur de bande nécessaire est déterminée par le nombre total d’objets à laver et le nombre d’objets qu’il est possible de placer par mètre. Le nombre d’objets par mètre de bande dépend de la largeur de la bande (certains fabricants offrent la possibilité de placer trois ou quatre assiettes de front) et de l’écartement des « doigts ». Plus l’écartement est petit, plus le nombre de pièces par mètre est grand.

Pour un type de lave-vaisselle donné, on utilise, par exemple, la table de conversion ci-dessous.

Table de conversion des pièces de vaisselle à laver en longueur d’occupation sur le convoyeur (mm) (machine à convoyeur)
Nom de la pièce Longueur : L (mm)
Assiette Ø : 23 cm 30
Assiette Ø : 19 cm 20
Plateau Self 60
Ravier 12 x 19 cm 20
Verre Ø : 86 mm 20
Couvert (la pièce) 2
Tasse 10,8 cm 30
Bol ou compotier 25

Pour connaître la longueur de bande de lavage, on va donc :

  • D’abord, déterminer la composition d’un « couvert » type,
  • ensuite, relever le nombre de « couverts » par service,
  • enfin, calculer la longueur de bande de lavage à l’aide d’un tableau tel que celui ci-dessus adapté au lave-vaisselle considéré.

> Le temps alloué au lavage est tributaire de certains facteurs propres au client. Dans certains cas le facteur « temps » est moins important que le facteur « investissement », dans d’autres, c’est l’inverse. Le local peut également représenter une contrainte en limitant l’espace disponible au placement d’un lave-vaisselle plus important. Sachant toutefois que les frais d’exploitation (main d’ouvre surtout, mais également eau, énergie et produits) représentent à terme plusieurs fois le montant de l’investissement, la priorité est souvent donnée au temps de traitement le plus court possible.

Si l’on ne dispose pas d’autres indications, on peut estimer le temps alloué au lavage de la vaisselle à deux heures.

> Le coefficient de salissure :

Coefficient de salissure
Salissure légère 1,25
Salissure moyenne 1
Forte salissure 0,75

Après avoir calculé la vitesse d’avancement du convoyeur, il faut comparer cette valeur aux vitesses des machines des fabricants.

On vérifiera néanmoins que ces vitesses sont calculées pour respecter les temps de contact minimums.

Les machines à convoyeurs proposent en général une vitesse maximum et une vitesse minimum. Ces deux vitesses correspondent respectivement à un temps de contact plus faible et plus élevé.
Certaines machines disposent d’une plage continue de vitesses variant entre une vitesse minimale et maximale.

Ces vitesses d’avancement se situent entre 0,6 et 2,50 m/min.

Pour un temps de contact donné, chaque vitesse correspond, en fait, à une longueur de la machine (parties où il y a contact avec l’eau).

Le temps de contact dans la zone de lavage

Chaque type de restauration demande un temps de contact minimum dans la zone de lavage. Il s’agit du temps pendant lequel la vaisselle est soumise aux jets des gicleurs de lavage.

Type de cuisine Temps de contact (en sec)
Restauration publique ou d’entreprise
(vaisselle sale, fraîche)
42 à 45
Hôpitaux
(vaisselle faisant partie d’un système de distribution centralisée)
48 à 80
Restauration avec système de distribution avec réchauffage 90

Il existe une deuxième règle, à laquelle il est régulièrement fait référence dans notre pays. Il s’agit de la norme allemande IN 10510, qui exige un temps d’exposition de la vaisselle aux jets d’eau de 2 minutes (120 secondes) minimum. Ces deux minutes incluent le prélavage, le lavage et le rinçage final.


Méthode simplifiée de dimensionnement

On compte 7 articles en moyenne par repas.  On détermine ainsi la machine en assiette par heure. La capacité des machines à paniers statiques, à paniers mobiles et à convoyeur s’exprime selon cette unité, au moins.

On choisira le type de machine dont la gamme correspond au chiffre obtenu.

Moteur asynchrone

Moteur asynchrone

Généralité

Le moteur asynchrone couplé à un variateur de fréquence est de loin le type de moteur le plus utilisé pour les applications où il est nécessaire de contrôler la vitesse et le déplacement d’une charge.

Le système moteur-variateur convient bien pour des applications tels que les ascenseurs car on recherche une excellente précision à fois au niveau de la vitesse (confort des utilisateurs) et de la précision de la position de la cabine par rapport aux paliers.

Quant au moteur asynchrone seul, sa popularité résulte du peu d’entretien nécessaire, de sa simplicité de construction, de sa standardisation et de sa robuste.

photo moteur asynchrone


Principe de fonctionnement

Le principe de fonctionnement d’un moteur asynchrone repose :

  • D’une part sur la création d’un courant électrique induit dans un conducteur placé dans un champ magnétique tournant. Le conducteur en question est un des barreaux de la cage d’écureuil ci-dessous constituant le rotor du moteur. L’induction du courant ne peut se faire que si le conducteur est en court-circuit (c’est le cas puisque les deux bagues latérales relient tous les barreaux).
  • D’autre part, sur la création d’une force motrice sur le conducteur considéré (parcouru par un courant et placé dans un champ magnétique tournant ou variable) dont le sens est donné par la règle des trois doigts de la main droite.

Schéma principe de fonctionnement.

Comme montré sur le schéma ci-dessus, le champ tournant , à un instant donné, est orienté vers le haut. En considérant deux conducteurs diamétralement opposés, on constate que les courants induits dans ces deux conducteurs sont en sens inverse et, associés au champ magnétique, créent des forces motrices en sens inverse. Le rotor étant libre de tourner sur l’axe X-Y, les deux forces s’associent pour imprimer aux deux conducteurs un couple permettant la rotation de la cage d’écureuil : le moteur électrique est inventé.

Pour entretenir la rotation du moteur, il est nécessaire de faire varier soit le courant dans les conducteurs de la cage, soit le champ magnétique. Dans un moteur asynchrone, c’est le champ magnétique qui varie sous forme de champ tournant créé dans le stator.

Au démarrage le champ tournant balaye les conducteurs de son flux à la vitesse angulaire de synchronisme. Le rotor mis en rotation tend à rattraper le champ tournant. Pour qu’il y ait un couple entretenu au niveau des conducteurs, la variation de flux doit être présente en permanence; ce qui signifie que si les conducteurs tournent à la vitesse de synchronisme comme le champ tournant, la variation de flux sur les conducteurs devient nulle et le couple moteur disparaît.

Un rotor de moteur asynchrone ne tourne donc jamais à la vitesse de synchronisme (50 Hz). Pour un moteur à une paire de pôles (à 50 Hz, la vitesse de rotation du champ tournant est de 3 000 [tr/min]) la vitesse de rotation du rotor peut être de 2 950 [tr/min] par exemple; intervient ici la notion de glissement.


Le stator

Le stator d’un moteur triphasé (le plus courant en moyenne et grosse puissance), comme son nom l’indique, est la partie statique du moteur asynchrone. Il se compose principalement :

  • de la carcasse,
  • des paliers,
  • des flasques de palier,
  • du ventilateur refroidissant le moteur,
  • le capot protégeant le ventilateur.

   

Stators.

L’intérieur du stator comprend essentiellement :

  • un noyau en fer feuilleté de manière à canaliser le flux magnétique,
  • les enroulements (ou bobinage en cuivre) des trois phases logés dans les encoches du noyau.

Dans un moteur triphasé les enroulements sont au nombre minimum de trois décalés l’un de l’autre de 120° comme le montre le schéma ci-dessous.

Schéma principe moteur triphasé.

Influence du nombre de paires de pôles sur la vitesse de rotation et de la forme du champ statorique résultant.

Lorsque les enroulements du stator sont parcourus par un courant triphasé, ceux-ci produisent un champ magnétique tournant à la vitesse de synchronisme. La vitesse de synchronisme est fonction de la fréquence du réseau d’alimentation (50 Hz en Europe) et du nombre de paires de pôles. Vu que la fréquence est fixe, la vitesse de rotation du champ tournant du moteur ne peut varier qu’en fonction du nombre de paires de pôles.

Paires de pôles 1 2 3 4 6
Nombre de pôles 2 4 6 8 12
n0 [tr/min] 3 000 1 500 1 000 750 500


Le rotor

Le rotor est la partie mobile du moteur asynchrone. Couplé mécaniquement à un treuil d’ascenseur par exemple, il va créer un couple moteur capable de fournir un travail de montée et de descente de la cabine d’ascenseur. Il se compose essentiellement :

  • D’un empilage de disques minces isolés entre eux et clavetés sur l’arbre du rotor afin de canaliser et de faciliter le passage du flux magnétique.
  • D’une cage d’écureuil en aluminium coulé dont les barreaux sont de forme trapézoîdale pour les moteurs asynchrones standards et fermés latéralement par deux « flasques » conductrices.

Photo rotor.   Photo rotor.


Glissement

Comme on l’a vu au niveau du principe de fonctionnement d’un moteur asynchrone, la vitesse de rotation de l’arbre du moteur est différente de la vitesse de synchronisme (vitesse du champ tournant).

Le glissement représente la différence de vitesse de rotation entre l’arbre du moteur et le champ tournant du stator; il s’exprime par la relation suivante :

s = n0 – nn

Avec,

  • n0 = vitesse du champ tournant.
  • nn = vitesse de rotation de l’arbre.

Le glissement est généralement exprimé en pourcentage de la vitesse de synchronisme n0.

s = (n0 – nn) / n0 [%]

La vitesse de synchronisme, quant à elle, est fonction de la fréquence du réseau et du nombre de paires de pôles. Elle s’exprime par la relation suivante :

n0 = (f x 60) /p

Avec,

  • n0 = vitesse du champ tournant.
  • f = la fréquence du réseau (en général 50 Hz).
  • p = le nombre de paires de pôles.

Couple

Le couple C d’un moteur asynchrone est fonction de la puissance P et de la vitesse de rotation n du moteur. Il s’exprime par la relation suivante :

C = (P x 9 550) / n

Avec,

  • P = Puissance du moteur [W].
  • n = la vitesse de rotation du moteur [tr/min].

Une des courbes la plus caractéristique des moteurs asynchrones est celle du couple en fonction du glissement :

Couple en fonction du rapport :
vitesse de rotation/vitesse de synchronisme.

Sur le graphe ci-dessus on voit tout de suite qu’il faut choisir le type de moteur en fonction de l’application : pour les motorisations des ascenseurs, on préférera les moteurs à double cage présentant un profil de courbe plus plat en fonction du glissement afin de bénéficier d’un couple relativement constant quelle que soit la charge.

Une des caractéristiques importante du moteur asynchrone, est qu’il peut, dans certaines conditions, se transformer en générateur asynchrone. Lorsqu’une cabine d’ascenseur redescend en charge maximum, le moteur renvoie de l’énergie au réseau.

Les courbes suivantes montrent ce phénomène :

Fonction en moteur ou en générateur suivant le couple résistant .

Pour être complet, on peut noter qu’un moteur asynchrone classique a les caractéristiques suivantes :

  • Le courant de démarrage est de l’ordre de 6 à 7 fois le courant nominal. Il est impératif de prévoir des systèmes de limitation de courant au démarrage (étoile/triangle, variateur de fréquence, …).
  • Le couple de démarrage est important (de l’ordre de 2,5 fois le couple nominal).
  • Le couple est maximum pour un glissement de l’ordre de 30 %.

Caractéristiques d’un moteur asynchrone classique.


Pilotage de la vitesse de rotation

Le pilotage de la vitesse de rotation du moteur asynchrone est essentielle pour beaucoup d’applications.

La relation suivante permet de cerner quels sont les paramètres qui peuvent influencer la vitesse de rotation.

On a :

s = (n0 – n) / n0

Avec,

  • s = glissement [%].
  • n0 = vitesse du champ tournant [tr/min].
  • n = la vitesse de rotation de l’arbre du moteur [tr/min].

Ou :

n = ( (1 – s) x (f x 60)) / p

Avec,

  • f x 60 = fréquence du réseau [Hz] multipliée par le nombre de secondes par minute.
  • p = le nombre de paire de pôle.

On peut donc piloter la vitesse de rotation en intervenant sur :

  • le nombre de paire de pôle (moteur à deux vitesses par exemple),
  • le glissement du moteur (moteur à bague),
  • la fréquence du réseau.

Pilotage en modifiant le nombre de pôles

Des anciennes installations d’ascenseur fonctionnent encore avec des moteurs à deux vitesses. La plupart du temps se sont des moteurs dont le rotor est composé de deux nombres différents de paires de pôles. Les enroulements sont disposés dans les encoches du stator d’une manière particulière qui en fait tout sa complexité. Les différents couplages par paire de pôles permet d’obtenir différentes vitesses.

Un moteur bipolaire a une vitesse de rotation de 3 000 [tr/min], tandis qu’un quadripolaire tourne à 1 500 [tr/min] ou à 3 000 [tr/min].

Donc pour autant que l’on puisse réaliser des couplages différents sur des moteurs à deux nombres différents de paires de pôles, on obtient des vitesses différentes.


Régulation de fréquence

À l’heure actuelle, le pilotage de la vitesse des moteurs asynchrones se fait électroniquement grâce à des variateurs de vitesse. Pour cette raison, on ne parlera ici que du contrôle de la fréquence qui de loin la plus courante.

Sans perte de puissance, on peut piloter la vitesse de rotation du moteur en faisant varier la fréquence car la vitesse de rotation du champ tournant au niveau du stator change. Pour conserver le couple moteur (intéressant pour les ascenseurs), il faut que la tension du moteur se modifie avec la fréquence dans un rapport constant. En effet, le couple est lié à la fréquence, la tension et le courant par la formule suivante.

On a :

C ~ (U/f) x I

Avec,

  • C = couple moteur [Nm].
  • U = tension du réseau[V].
  • I = courant absorbé par le moteur.

Si le rapport entre la tension et la fréquence reste constant, le couple le reste aussi.

Pilotage en fréquence et en tension.

Le pilotage du moteur par un variateur de fréquence et de tension montre des intérêts certains; à savoir principalement :

  • la limitation du courant de démarrage (de l’ordre de 1,5 fois le courant nominal);
  • un coupe relativement constant quelle que soit la vitesse du moteur.

Charpente

Charpente

La charpente en bois reste la plus courante pour réaliser la structure portante de la toiture inclinée.

Cependant, pour des raisons thermiques, acoustiques ou de stabilité, la structure portante peut consister en dalles inclinées de béton coulées sur place ou en hourdis de béton lourd ou cellulaire posés en pente.


Charpente traditionnelle (à pannes et chevrons)

Le principe de la structure traditionnelle est de superposer, en les croisant perpendiculairement, des éléments linéaires. La portée diminuant au fur et à mesure des différentes couches, leur section et entre axe diminue également jusqu’à la pose aisée des éléments de couverture.

La charpente traditionnelle proprement dite, est constituée de pannes et de chevrons*.
Les pannes sont portées par les murs pignons et les murs porteurs de refend; des fermes peuvent remplacer les murs de refend si l’on veut garder de grands espaces sous la toiture.

* Remarque : dans le cas d’une isolation par panneaux autoportants, la charpente ne nécessite pas de chevrons; les panneaux sont directement fixés sur les pannes.

Schéma charpente traditionnelle.

  1. Ferme.
  2. Panne.
  3. Panne faîtière.
  4. Panne sablière.
  5. Chevrons.
  6. Sous-toiture éventuelle.
  7. Contre-lattes.
  8. Panneaux de toiture autoportants.
  9. Liteaux ou voliges.

Charpente traditionnelle à pannes et chevrons.

Le bois de charpente doit, de préférence, avoir été traité (pour résister aux insectes, aux champignons, …).

Les pannes (structure primaire)

Les pannes sont parallèles au faîte.
Outre les pannes, la structure primaire peut comprendre des sablières, des échelles de corniche, des noues, des arêtiers et des fermes.

Dans le cas d’une corniche en bois, une échelle en bois, mise à plat au-dessus du mur porteur et du parement, remplace ou supporte la panne sablière. L’échelle permet, d’une part de réaliser le porte à faux au-delà du mur porteur, d’autre part d’assurer une jonction continue entre l’isolation du mur et de la toiture.

Schéma pannes.

  1. Gîte de versant + isolant.
  2. Echelle de corniche.
  3. Maçonnerie renforcée.
  4. Cale de pente.
  5. Planche de face.
  6. Fermeture.

Echelle de corniche (N°2).

Les chevrons (structure secondaire)

Auparavant, les chevrons destinés à des toitures-greniers non isolées étaient de section carrée. Actuellement, les chevrons sont parfois remplacés par des « gîtes de versant », pièces de bois plus hautes, de largeur minimale de 38 mm et de hauteur minimale de 100 mm. Ces pièces permettent de poser une couche d’isolant plus épaisse en une seule fois. En outre, elles diminuent le nombre de pannes nécessaires, ce qui libère en partie l’espace sous-toiture.

Remarque : Dans ce cas, les pannes doivent être calculées pour reprendre des charges plus importantes. Elles portent en effet de plus grandes surfaces de toiture.

Au-dessus du mur pignon, une échelle de bois sert parfois de structure secondaire. Elle couvre toute l’épaisseur du mur (mur porteur – vide isolé – mur de parement). Elle permet, de réaliser le porte à faux au-delà du mur porteur. Elle permet également d’assurer une jonction continue entre l’isolation du mur et de la toiture.

Schéma chevrons.

Échelle de pignon.

Le support de couverture (contre-lattes, liteaux ou lattes, voligeage)

En général, lorsque la couverture est constituée de tuiles ou d’ardoises fixées au moyen de crochets, leur support est constitué de liteaux ou lattes. Lorqu’elle est constituée d’ardoises posées au moyen de clous, de « feuilles » ou de petits éléments relativement souples (ex : bardeau bitumineux), leur support est constitué d’un voligeage.
La pose d’ardoises sur liteaux est de plus en plus pratiquée, mais dans le cas de petites ardoises, la pose au clou sur voliges reste plus indiquée.

Actuellement, des panneaux de bois peuvent remplacer les voliges; dans ce cas, on veillera particulièrement, à suivre les prescriptions des fabricants et des agréments techniques.

Des voliges sont également utilisées comme support des ouvrages de rives et de raccords (rives libres, rives en butée, faîtes, noues, arêtiers, bacs de cheminée, corniches …).

Schéma support de couverture.

  1. Couverture.
  2. Lattes.
  3. Volige.
  4. Chéneau en zinc.
  5. Contre-lattes.
  6. Sous-toiture.
  7. Isolant.
  8. Pare-vapeur.
  9. Espace technique.
  10. Finition intérieur.

Noue.


Charpente à fermettes

Les fermettes remplacent les chevrons ou gîtes de versant, ainsi que les pannes.
Elles sont réalisées en atelier.

Remarque.
Une fermette se distingue d’une ferme de charpente par la section plus réduite des pièces qui la constitue et par la distance qui la sépare de la pièce voisine.

Schéma charpente à fermettes.

  1. Fermette.
  2. Entrait (de la fermette).
  3. Sablière.
  4. Sous-toiture (éventuelle).
  5. Contre-latte.
  6. Liteau ou voligeage.

Charpente préfabriquée avec fermettes.

Vu que la charpente est constituée uniquement d’éléments verticaux, un contre-ventement doit être prévu entre les fermettes.

Les fenêtres de toitures, lucarnes et raccords entre versants sont un peu plus compliqués à réaliser que pour une charpente traditionnelle.

Il existe des fermettes pour combles utilisables ou non utilisables.
Fermette pour combles non utilisables

Exemple schématique.
Combles non utilisables.

Fermette pour combles utilisables

Exemple schématique.
Combles utilisables.

Généralement, les fermettes sont posées au niveau du plafond de l’étage inférieur. Elles constituent la structure portante du plafond et éventuellement du plancher des combles à condition d’être calculée en conséquence.

Pour le reste, les principes sont identiques à ceux d’une charpente traditionnelle.

Choisir les ouvertures de transfert

Choisir les ouvertures de transfert


Le débit d’air neuf

La somme des débits nominaux des ouvertures de transfert d’un même local doit être au moins équivalente au débit requis (soit environ 22 m³/h par bureau individuel). Le débit fourni par une grille de transfert doit être précisé par le fournisseur pour une différence de pression de 2 Pa.

En pratique la section requise par local est de l’ordre de 70 cm² minimum.


Possibilité de réglage

Les dispositifs de transfert d’air montés en intérieur doivent être fixes (non réglables).


L’intégration dans la structure existante

Les ouvertures de transfert peuvent être des grilles disposées dans le bas de portes ou encore dans les murs.

Une fente suffisamment grande sous une porte peut également convenir (une ouverture de 70 cm² équivaut à un jeu d’environ 1 cm sous une porte).

Illustration ouverture de transfert sur porte.             Illustration ouverture de transfert sur porte.

Transfert d’air au travers d’une porte ou par détalonnage.

Ces fentes peuvent être considérées comme des dispositifs de transfert d’air pour autant que la plus petite dimension de la fente soit au moins de 5 mm (la hauteur de la fente est mesurée à partir du niveau du plancher fini; si la finition de plancher n’est pas connue, on suppose qu’elle a une épaisseur de 10 mm). Dans ce cas, il faut tenir compte d’un débit de :

  • 0,36 m³.h-1 par cm² de fente pour une différence de pression de 2 Pa ;
  • 0,80 m³.h-1 par cm² de fente pour une différence de pression de 10 Pa.

Les ouvertures dans les murs sont plus discrètes, car elles peuvent être cachées sous un meuble, … Cependant, elles doivent être idéalement prévues dès la conception du gros œuvre.

La section d’une fente sous une porte doit correspondre aux exigences après parachèvement de sol. Par exemple, si le sol est ultérieurement recouvert de moquette, il faut rajouter une hauteur de 1 cm à la hauteur de la fente.


L’intimité

Dans la plupart des situations, on souhaite qu’une grille de transfert soit discrète. Pour cela, les grilles sont souvent constituées de lamelles obliques empêchant la vue vers le local voisin.

lamelles obliques d'ouvertures de transfert.

Différentes possibilité de vision au travers d’une grille.

De même, sur le plan acoustique, les grilles intérieures diminuent l’isolation d’une porte. Il existe cependant des modèles possédant un dispositif d’atténuation. Si la grille est disposée dans un mur intérieur, son traitement acoustique est plus aisé étant donné l’épaisseur de la grille.

Grille acoustique d'ouvertures de transfert.Grille acoustique d'ouvertures de transfert.

Ouvertures de transfert acoustiques.

Coupe dans une grille de transfert acoustique garnie d’un matériau absorbant.


Protection incendie

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Cela signifie que les ouvertures de transfert prévues entre les bureaux où l’air neuf est amené et les couloirs par lesquels l’air transite vers les sanitaires doivent avoir la même résistance au feu.

Cela est possible grâce à des grilles de transfert coupe-feu. Pour ce qui est du détalonnage des portes, cela peut prêter à discussion.

Grille coupe-feu : ouverte à température ambiante, elle se referme par foisonnement des lames (en matériau intumescent) à une température de 120°C et est dans ce cas Rf 1h.

Estimer le surdimensionnement d’une chaudière

Estimer le surdimensionnement d'une chaudière


Indice : le temps de fonctionnement annuel

Un indice de surdimensionnement d’une installation est le temps de fonctionnement annuel des chaudières.

On considère souvent qu’une installation correctement dimensionnée doit fonctionner durant 1/3 de la saison de chauffe. Cela signifie que sur les 5 800 … 6 500 heures que dure la saison de chauffe, le brûleur fonctionne à pleine puissance durant 1 500 … 2 000 heures. En dessous de ce chiffre, on considère que l’installation est surdimensionnée d’un facteur :

Facteur de surdimensionnement de la production =
(1 500 … 2 000 [h/an]) / Durée de fonctionnement réelle [h/an]

La valeur « 1 500 … 2 000 h » n’est qu’un ordre de grandeur. En effet, le temps de fonctionnement du brûleur dépend non seulement du surdimensionnement du brûleur, mais aussi du mode d’occupation du bâtiment et de gestion du chauffage (importance des périodes de mise au ralenti), ou encore de la présence d’une production d’eau chaude sanitaire combinée.

On peut connaître le temps de fonctionnement équivalent de l’installation à pleine puissance à partir de la consommation annuelle en combustible.

Sachant que 1 m³ de gaz et 1 litre de fuel équivalent à environ 10 kWh :

Temps de fonctionnement du brûleur [h] =
Consommation [m³/an ou l/an] x 10 [kWh/m³ ou l] / Puissance installation [kW]

La puissance de l’installation dont il est question ici est la puissance maximale de l’installation, c’est-à-dire la puissance maximale du brûleur. Plusieurs cas peuvent se présenter :

Cas 1 : une chaudière au fuel

La puissance du brûleur fuel dépend du calibre du gicleur [gal/h ou kg/h] et de la pression de la pompe [bars] qui définissent le débit de combustible. Ces valeurs sont reprises sur la fiche d’entretien annuel des chaudières. En fonction du type de gicleur (calibré suivant la norme européenne ou suivant la norme américaine), on détermine le débit de fuel suivant une des formules :

où :

  • qfuel = débit de fuel
  • qgicleur = calibre du gicleur (repris dans la fiche d’entretien)
  • p = pression de la pompe fuel (reprise dans la fiche d’entretien)

Pbrûleur [kW] = qfuel [litres/h] x 10 [kWh/litre]

Cas 2 : une chaudière au gaz

Dans le cas d’une chaudière gaz à brûleur atmosphérique, le débit de gaz ne peut être réglé. Les renseignements sont donc directement repris sur la plaque signalétique de la chaudière :

  • soit directement sous forme d’une puissance (« charge calorifique » ou « puissance brute ») en [kW],
  • soit sous forme d’un débit de gaz en [m³/h] qu’il faut multiplier par 10 [kWh/m³] pour obtenir la puissance en [kW].

Dans le cas d’une chaudière gaz à brûleur pulsé, il faut relever le compteur gaz pendant la durée de fonctionnement du brûleur et diviser le volume de gaz mesuré par la durée de fonctionnement du brûleur en heure :

Puissance brûleur gaz [kW] =
Consommation gaz [m³] / Temps marche brûleur [h] x 10 [kWh/m³]

Si le temps de fonctionnement du brûleur est trop court pour permettre la mesure, une mesure cumulée sur plusieurs périodes de fonctionnement conviendra.

Cas 3 : Plusieurs chaudières ou brûleurs à 2 allures

  • Dans le cas d’un brûleur 2 allures, le calcul sera fait sur base de la deuxième allure, c’est-à-dire avec la puissance maximale.
  • Dans le cas d’une chaufferie composée de plusieurs chaudières, on somme la puissance de chaque chaudière.

Attention, dans le cas d’une puissance totale répartie en plusieurs allures de brûleur et/ou plusieurs chaudières, les conclusions que l’on peut tirer du calcul du nombre d’heures de fonctionnement peuvent varier en fonction du type de régulation appliquée.

Exemple.

Un bâtiment de bureaux consomme 25 000 litres de fuel par an. La régulation est estimée comme performante (ralenti nocturne, guère de surchauffes, …). La chaufferie comprend une chaudière de 400 kW dont un extrait de la fiche d’entretien est repris ici :

Selon cette dernière, la puissance du brûleur est de :

10 [kWh/litre] x 5 [gal/h] x 3,78 [litres/gal] x (19 [bars] / 7 [bars]) 1/2 = 311 [kW]

Le temps de fonctionnement du brûleur à cette puissance est de :

25 000 [litres/an] x 10 [kWh/litre] / 311 [kW] = 804 [heures/an]

On peut donc soupçonner en première analyse que la chaudière a une puissance 2  fois trop élevée.


La puissance spécifique en fonction du degré d’isolation du bâtiment

On peut vérifier le dimensionnement d’une installation de production de chaleur en utilisant le tableau suivant :

Puissance de l’installation de chauffage en [W/m³ chauffé]

V/S Niveau d’isolation globale du bâtiment K
K55 K65 K70 K150
0,5 38,3 44,8 48 70,1
1 22,7 26 27,6 49,1
1,5 19,9 22,3 23,4 42,1
2 18,6 20,7 21,8 38,6
3 17,4 19,8 20,9 35,1
4 16,2 17 17,4 33,3

Ici, il ne s’agit pas de calculer précisément le niveau K du bâtiment (cela reviendrait à calculer les déperditions du bâtiment) mais plutôt de choisir un ordre de grandeur sur base des exemples suivants :

K55 = le niveau d’isolation obligatoire en Région wallonne pour tout bâtiment assimilé à du logement construit depuis 1996.
K65 = le niveau d’isolation obligatoire en Région wallonne pour tout immeuble de bureaux ou école construits depuis 1996.
K70 = le niveau d’isolation obligatoire en Région wallonne pour tout bâtiment assimilé à du logement construit entre 1984 et 1996.
K150 = le niveau d’isolation d’un ancien bâtiment non isolé et complètement « passoire ».

V/S = le rapport entre le volume chauffé [m³] et la surface déperditive du bâtiment [m²] (surface des parois entourant le volume chauffé : murs extérieurs, murs en contact avec des locaux non chauffés, plancher inférieur, plafond ou toiture).

Ce tableau a été établi pour un taux de renouvellement d’air du bâtiment de 0,7 vol/h, une température extérieure de base de – 8°C et une température intérieure de consigne de 20 °C.

Calculs

Pour adapter ce tableau à votre propre situation. Le dimensionnement d’une chaudière doit se faire selon la norme décrite ci-dessous.
Exemple.

Bâtiment d’école de 15 x 40 m au sol. Les façades sont composées de simples vitrages et de panneaux légers contenant 4 cm d’isolant. Les murs pignons ne sont pas isolés. Le plancher du rez-de-chaussée repose sur le sol et le plafond du premier étage est en contact avec des combles non occupés en non isolés.

Le volume chauffé « V » est de :

40 [m] x 15 [m] x 5,6 [m] = 3 360 [m³]

La surface déperditive du bâtiment « S » est de :

sol = 15 [m] x 40 [m] (sol) + 15 [m] x 40 [m] (plafond) + 40 [m] x 5,6 [m] x 2 (façades) + 15 [m] x 5,6 [m] x 2 (pignons) = 1 816 [m]

V/S = 1,9

Étant donné le type de bâtiment non isolé, on peut grossièrement estimer le niveau d’isolation globale à : K150

Si l’installation de chauffage a été correctement dimensionnée, la puissance installée doit être voisine de :

38,6 [W/m³], soit 38,6 [W/m³] x 3 360 [m³] = 130 [kW]

Remarquons que l’on est loin des 60 W/m³ utilisés par certains chauffagistes qui ne prennent pas la peine de dimensionner la chaudière suivant la norme !


Le dimensionnement suivant la norme NBN B62-003

Les méthodes ci-dessus ne peuvent être utilisées pour dimensionner réellement une installation. Elles ne peuvent servir qu’à donner un ordre de grandeur de la puissance à installer.

Le dimensionnement d’une nouvelle chaudière doit se faire en calculant les déperditions du bâtiment suivant les normes NBN EN 12831 (2003) et NBN B62 – 003. Pour obtenir un outil pour dimensionner votre chaudière suivant la norme, cliquez ici !

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
24-09-2008 : WinMerge ok – Sylvie

Machine frigorifique à ab/adsorption

Machine frigorifique à ab/adsorption


Principe de la machine à ab/adsorption

Le principe consiste à pulvériser de l’eau en fines gouttelettes dans un récipient sous vide. Du fait de la basse pression, l’eau s’évapore. Pour cela elle a besoin d’une certaine quantité de chaleur qui est extraite de l’eau à rafraîchir, circulant dans un circuit à travers le récipient.

Schéma principe de la machine à ab/adsorption.

Mais ce système ne peut fonctionner très longtemps : rapidement, le récipient sous vide sera saturé de vapeur d’eau, et l’eau dispersée ne s’évaporera plus. Il faut donc un moyen pour maintenir ou recréer le vide dans le récipient !

C’est là qu’intervient le sorbant. C’est soit un liquide, on parle alors d’absorbant, ou un solide poreux, on parle alors d’adsorbant. Il « boit » la vapeur d’eau contenue dans l’ambiance, et la retient. Au fur et à mesure qu’il ab/adsorbe de la vapeur, sa capacité d’ab/adsorption diminue jusqu’à être nulle, à saturation. Le sorbant est alors chauffé à une certaine température et « rend » la vapeur d’eau. Il récupère alors toutes ses propriétés d’ab/adsorption.

Exemple d’absorbant.

Dans les machines frigorifiques à absorption utilisées en climatisation, la substance absorbante est généralement le bromure de lithium (LiBr), le fluide réfrigérant, de l’eau. Ce type de machine permet de refroidir de l’eau jusque environ 5°C. La température de l’eau utilisée pour la régénération de l’absorbant doit être comprise entre 80 et 120°C.

Exemple d’adsorbant.

Le gel de silicium couplé avec de l’eau comme fluide réfrigérant. La température de l’eau utilisée pour la régénération de l’adsorbant doit être comprise entre 65 à 80 °C. Cette température plus basse est un avantage par rapport à la machine à absorption.


Fonctionnement

La machine à absorption

Photo machine à absorption.

La machine frigorifique à absorption se divise en quatre composants principaux :

  1. l’évaporateur,
  2. l’absorbeur,
  3. le concentrateur,
  4. le condenseur.
  1. Dans l’évaporateur, le réfrigérant (ici de l’eau) est pulvérisé dans une ambiance à très faible pression. L’évaporateur est parcouru par un circuit à eau. En s’évaporant, le réfrigérant soustrait sa chaleur à cette eau qui est ainsi refroidie.
    Une partie du réfrigérant pulvérisé ne s’évapore pas et tombe dans le fond de l’évaporateur où elle est pompée pour être à nouveau pulvérisée.

  1. La vapeur d’eau créée dans l’évaporateur est amenée à l’absorbeur. Il contient la solution absorbante (LiBr) qui est continuellement pompée dans le fond du récipient pour y être pulvérisée. Le LiBr absorbe la vapeur d’eau hors de l’évaporateur et y maintient ainsi la basse pression nécessaire à la vaporisation du réfrigérant.

Au fur et à mesure qu’elle absorbe la vapeur d’eau, la solution absorbante est de plus en plus diluée. Elle finirait par être saturée et ne plus rien pouvoir absorber.

  1. La solution est donc régénérée dans le concentrateur. Elle est réchauffée, par une batterie à eau chaude (environ 85°C) et une partie de l’eau s’évapore. La solution régénérée retourne à l’absorbeur.

  1. Enfin, la vapeur d’eau extraite du concentrateur est amenée dans le condenseur, où elle est refroidie par une circulation d’eau froide. L’eau condensée retourne à l’évaporateur.

Deux compléments au système augmentent son efficacité :

  • Une circulation d’eau froide dans l’absorbeur.
    Le phénomène d’absorption génère de la chaleur. La circulation d’eau froide dans le fluide absorbant évite sa montée en température, ce qui diminuerait son efficacité.
    Remarque : l’eau de refroidissement de l’absorbeur peut ensuite passer dans la batterie de refroidissement du condenseur.
  • Un échangeur de chaleur sur le circuit du fluide absorbant.
    Le fluide chaud sortant du concentrateur qui retourne à l’absorbeur préchauffe le fluide qui va vers le concentrateur, économisant ainsi une partie de l’énergie nécessaire pour chauffer le fluide à régénérer.

La machine à adsorption

L’adsorbant étant solide, il est impossible de l’amener au fur et à mesure vers la source de chaleur pour être régénéré.

La machine fonctionne donc de manière cyclique. Deux récipients servent, tour à tour, d’adsorbeur et de désorbeur. Dans la première période, le premier adsorbant est utilisé pour la production de froid, tandis que l’autre est parcouru par l’eau chaude, et ainsi régénéré. Dans la seconde période, lorsque le premier adsorbant est saturé, il est remplacé par le second pour la production de froid, et est alors lui-même régénéré.

Techniques

L’utilisation des roues dessicantes est une application de ce principe.


Analogie avec la machine frigorifique traditionnelle

Bien que la machine à sorption semble assez différente de la machine frigorifique traditionnelle, le principe de base de fonctionnement reste le même :

  • circulation d’un fluide réfrigérant,
  • évaporation du fluide avec production de froid,
  • compression du fluide demandant un apport d’énergie,
  • condensation du fluide avec production de chaleur.

La différence réside dans :

  • Le moyen de comprimer le fluide,
    • mécanique dans le cas d’une machine traditionnelle,
    • thermochimique dans le cas de la machine à sorption.
  • Le type d’énergie nécessaire à cette compression
    • électrique dans le cas d’une machine traditionnelle,
    • calorifique dans le cas de la machine à sorption.

Machine frigo traditionnelle.

Machine frigo à absorption.


L’efficacité énergétique ou COP-froid

Une machine frigorifique est énergétiquement efficace si elle demande peu d’énergie pour fournir une puissance frigorifique donnée.

Schéma principe efficacité énergétique ou COP-froid.

On évalue son efficacité par le calcul du COP (coefficient de performance) : rapport entre la puissance frigorifique produite et la puissance fournie au compresseur.

  • Dans le cas d’une machine frigorifique traditionnelle, la puissance fournie est électrique. Le COP d’une telle machine peut atteindre la valeur de 3, voire plus.
  • Dans le cas d’une machine frigorifique à absorption, le COP réel tourne autour de 0.7; celui d’une machine à adsorption varie entre 0.5 et 0.6.

Quel est alors l’intérêt d’une telle machine ?

Un premier avantage réside dans l’absence de compresseur mécanique, donc de vibrations et de bruits. D’où le fait que ces machines demandent un entretien limité et présentent une grande longévité.

Le second avantage vient de la possibilité de valoriser une énergie calorifique disponible et d’éviter ainsi la consommation électrique d’un compresseur.


Quelles sources de chaleur ?

La machine à sorption « fait du froid avec du chaud » !

Voici de quoi éveiller notre désir d’utiliser de la chaleur « gratuite » ! Ce n’est pas pour rien que ce type de machine est surtout répandue dans le secteur industriel parce que certains process libèrent une chaleur importante dont il est possible de tirer une puissance frigorifique utile par ailleurs.

Dans le secteur du bâtiment, on peut imaginer deux possibilités :

Refroidissement solaire

L’intérêt du refroidissement solaire réside dans la simultanéité de la demande de froid et de l’ensoleillement. Lorsque la chaleur nécessaire au fonctionnement de la machine frigo est fournie par le soleil, le froid fourni est gratuit (pas de coût, pas de pollution).
Ce système n’est pourtant pas encore utilisé en Belgique pour deux raisons :

  1. Pour fonctionner, la machine frigo à absorption demande une température d’eau minimale qui se situe entre 70 et 95°C en fonction du couple solvant-réfigérant. Pour atteindre cette température, l’emploi de capteurs performants est indispensable (sélectifs, sous vide, à faible concentration), ce qui induit un coût d’investissement assez important.
  2. Lorsque l’ensoleillement n’est pas suffisant pour fournir de l’eau à température adéquate, une autre source de chaleur (d’appoint ou de substitution) doit permettre le fonctionnement du système. Des solutions de stockage peuvent résoudre le problème à certaines périodes, mais il reste toujours un certain nombre d’heures de fonctionnement où la chaleur doit être produite par du gaz ou du fuel. Pendant ces heures, le rendement du système est faible comparé au système classique de la machine frigorifique à compression.
    L’intérêt de la machine frigorifique à absorption couplée avec des capteurs solaires doit donc être évalué sur base d’une moyenne annuelle, en tenant compte des heures d’ensoleillement exploitables. Cette évaluation dépend de nombreuses valeurs à estimer :

    • rendement de la chaudière,
    • rendement de la machine frigorifique à absorption,
    • proportion de la demande de froid qu’on peut produire avec l’énergie solaire (X) qui dépend du nombre d’heures d’ensoleillement exploitables,
      rendement moyen de la production électrique en centrale,
    • COP de la machine frigorifique à compression.

    Avec les hypothèses prises dans le schéma ci-dessus, le bilan au niveau de la consommation d’énergie primaire est favorable au système de refroidissement solaire si au moins 51 % de la demande de froid peut être satisfaite par l’énergie solaire. Pour évaluer la rentabilité économique du système, il faudrait tenir compte des prix de l’énergie et des coûts d’investissement.
    On peut néanmoins conclure de cette comparaison grossière qu’un tel système est à exclure, sous notre climat, pour un bâtiment dont la demande de froid proviendrait principalement des charges internes : la demande ne pourrait alors certainement pas être rencontrée par l’ensoleillement plus de la moitié du temps.
    Il pourrait par contre être envisagé pour un bâtiment dont la demande de froid est limitée aux mois d’été grâce à une conception adéquate (protections solaires, valorisation de l’inertie thermique, free cooling ou free chilling,…).

 

Toiture plate : types de supports

Toiture plate : types de supports

Tant en construction neuve qu’en rénovation, la nature du support du complexe isolant-étanchéité est généralement défini.

C’est donc la nature du support qui influencera les techniques choisies pour réaliser l’isolation thermique et l’étanchéité, et non l’inverse.

Les supports sont à considérer en fonction de leur :

  • capacité portante,
  • déflexion,
  • coefficient de transmission thermique,
  • comportement hygrothermique.

On distinguera :


Les dalles monolithes

La dalle monolithe peut-être :

  • Un béton armé plein coulé sur place.

Béton coulé sur place.

  • La couche de compression d’éléments préfabriqués en béton ou en terre cuite.

Couche de compression sur poutrains et claveaux.

  • Un béton de pente avec granulats lourds ou légers.

La forme de pente ne peut être réalisée en béton léger (NIT 134 p 30).

Béton de pente.


Les éléments fractionnés en béton ou en terre cuite

Sont compris dans cette catégorie

  • Les éléments préfabriqués en béton sans couche de compression.
  • Les éléments en terre cuite sans couche de compression.
  • Les éléments préfabriqués en béton léger.

Éléments préfabriqués sans couche de compression.


Les planchers en bois et les panneaux en matière végétale

Cette catégorie comprend

  • Les planchers ou voligeages en bois.

Tous les éléments en bois doivent être traités contre les champignons et les insectes avant d’être mis en œuvre. Les produits de traitement doivent être compatibles avec les autres matériaux mis en œuvre : isolation, pare-vapeur, étanchéité, accessoires, etc.

Plancher en bois.

  • Les panneaux de particules de bois.

Si la structure est un panneau de bois aggloméré celui-ci doit appartenir à la classe « B » suivant STS 04.6

Panneau en bois aggloméré.

  • Les panneaux multiplex.

Si la structure porteuse est en multiplex, celui-ci doit être de qualité pour menuiserie extérieure.

Panneau en bois multiplex.


Les panneaux en fibres organiques liées au ciment

Panneau en fibres de bois liées au ciment.


Les tôles profilées

Tôle profilée.


Les panneaux de toiture composites

Panneaux composites agglo + EPS + agglo
renforcé par des poutrelles métalliques.

Concevoir le raccord entre souche de cheminée et versant isolé

Concevoir le raccord entre la souche de cheminée et le versant isolé


Généralités

La souche de cheminée étant fort exposée aux pluies battantes, on la réalise comme un mur creux dont la paroi extérieure est en briques de parement ou en bardage.

Son pied doit donc être drainé tout comme un pied de façade en murs creux. L’eau qui s’infiltre au travers de la maçonnerie de parement et qui arrive dans la coulisse est dirigée vers l’extérieur par une membrane, via des joints verticaux ouverts.

La membrane peut dépasser de quelques millimètres le nu du parement de manière à former casse-goutte ou déborder bien davantage pour permettre son raccord avec la bande de solin. Celle-ci est nécessaire à tous les raccords de la souche de cheminée avec la toiture : amont, latéral ou aval.

Étanchéité dans le mur et bande de solin d’une pièce.

Etanchéité et bande de solin séparés.
Recouvrement dans le même joint de mortier.

Etanchéité située une rangée de briques au-dessus de la bande de solin.

Bardage.


Continuité des fonctions « couverture » et « sous-toiture » – Raccord amont avec la toiture

Continuité de la fonction de la couverture

La cheminée se situe idéalement sur le faîte du toit. C’est la position qui assure le meilleur fonctionnement du conduit de fumée, et qui évite l’arrêt des eaux de ruissellement en amont de la cheminée. Dans les autres situations, il faut prévoir un chenal qui récolte ces eaux de ruissellement et les évacue sur les côtés de la cheminée.
Lorsque la cheminée est large ou éloignée du faîte, un chéneau à base horizontale plutôt qu’un chéneau épousant la pente du versant est conseillé. Lorsque le chéneau dépasse un mètre de long, il est même conseillé de lui donner une pente.

Il faut également assurer l’étanchéité :

  • d’une part, entre le chéneau et la cheminée,
  • d’autre part, entre le chéneau et la toiture.

Continuité de la fonction « sous-toiture »

La souche de cheminée doit être protégée des eaux qui ruissellent sur la sous-toiture en amont de la cheminée; celles-ci doivent être évacuées de part et d’autre de la cheminée.

Exemples

Cas d’une isolation entre chevrons ou fermettes – 1° exemple

Schéma cheminée et isolation entre chevrons ou fermettes.

Raccord avec la couverture à l’amont de la cheminée.
Isolant placé entre les chevrons ou les fermettes.
Une membrane dévie les eaux de la sous-toiture.

  1. Isolant
  2. Sous-toiture aboutissant au-dessus de la membrane 5
  3. Contre-latte
  4. Volige supportant le chéneau
  5. Membrane pliée déviant les eaux de la sous-toiture
  6. Support du voligeage
  7. Chéneau
  8. Bande de solin
  9. Membrane d’étanchéité
  10. Joint vertical ouvert
  11. Finition de plafond
  12. Blocs isolants
  13. Pare-vapeur

Continuité de la sous-toiture :

Elle est réalisée par une membrane d’étanchéité :

Des voliges sont placées entre les fermettes ou les chevrons à l’intersection amont de la souche de cheminée et de la toiture. Une membrane est posée sur ces voliges, remonte le long de la cheminée et déborde de celle-ci latéralement. Les plaques de sous-toiture sont posées sur la membrane et jusque contre la souche de cheminée. Le débordement latéral de la membrane doit se trouver au-dessus de la sous-toiture proprement dite de manière à ce que l’eau infiltrée puisse ruisseler sur la sous-toiture.

Lorsque la cheminée se trouve très proche de la ligne de faîtage, la membrane fait office de sous-toiture entre le faîte et la cheminée.

Raccord amont d’une cheminée située à proximité du faîte
(Photo extraite de la NIT 175 du CSTC).

Continuité de l’étanchéité à la pluie (= fonction de la couverture) :

Réalisation du chéneau :

Des voliges de l’épaisseur des lattes sont placées sur les contre-lattes et forme le support du chéneau.
Le chéneau proprement dit est réalisé en métal (zinc, plomb, cuivre, aluminium, acier inoxydable) ou à l’aide d’une membrane d’étanchéité souple.

Étanchéité des raccords :

Des solins assurent l’étanchéité du raccord entre le chéneau et la cheminée.

Les éléments de couverture sont posés en porte-à-faux su la dernière latte de manière à couvrir le haut du chéneau.

Cas d’une isolation entre chevrons ou fermettes – 2° exemple :

Schéma cheminée et isolation entre chevrons ou fermettes.

Raccord avec la couverture à l’amont de la cheminée.
Isolant placé entre les chevrons ou les fermettes.
La sous-toiture aboutit dans le chéneau.

  1. Isolant
  2. Sous-toiture aboutissant au-dessus de la bavette en zinc 11
  3. Contre-latte
  4. Volige supportant le chéneau
  5. Solin en zinc
  6. Membrane d’étanchéité
  7. Chéneau
  8. Joint vertical ouvert
  9. Finition de plafond
  10. Blocs isolants
  11. Bavette en zinc
  12. Pare-vapeur
Cas d’une toiture « Sarking »

Schéma raccord cheminée / toiture "Sarking".

Cheminée avec bardage en ardoises.
Raccord avec la couverture à l’amont de la cheminée.
Isolant placé au-dessus des chevrons ou des fermettes.
Membrane ou bavette sur le panneau isolant.

  1. Couverture
  2. Latte
  3. Contre-latte
  4. Sous-toiture éventuelle
  5. Isolant
  6. Chevêtre dans le chevronnage
  7. Panne de charpente
  8. Bardage
  9. Chéneau
  10. Blocs isolants
  11. Membrane souple ou bavette métallique avec joint mastic

Cheminée avec parement en brique.
Raccord avec la couverture à l’amont de la cheminée.
Isolant placé au-dessus des chevrons ou des fermettes.
Latte d’arrêt inclinée sur le panneau isolant.

  1. Couverture
  2. Latte
  3. Contre-latte
  4. Sous-toiture éventuelle
  5. Isolant
  6. Chevêtre dans le chevronnage
  7. Panne de charpente
  8. Bande solin
  9. Chéneau
  10. Blocs isolants
  11. Latte en bois inclinée avec joint mastic

La continuité de l’étanchéité à la pluie (= fonction de la couverture) est réalisée de la même manière que dans les exemples précédents.

Quant à la fonction « sous-toiture », vu qu’elle peut être assurée par le panneau isolant lui-même et que les panneaux isolants sont rigides, sa continuité est réalisée de manière un peu différente. Elle peut être obtenue par :

  • une membrane souple ou bavette métallique fixée sur le panneau isolant d’une part et sur la souche de cheminée d’autre part (voir 1er dessin),
  • ou par ou par une latte d’arrêt fixée sur le panneau isolant (voir 2ème dessin),

et dont le raccord avec le panneau isolant est réalisé au moyen d’un joint de mastic souple.
La membrane, la bavette ou la latte doivent déborder latéralement de la cheminée pour évacuer les eaux de ruissellement de part et d’autre de la cheminée.


Continuité des fonctions « couverture » et « sous-toiture » – Raccord latéral et aval avec la toiture

Le raccord latéral et aval entre la cheminée et la toiture se traite comme le raccord entre la toiture et un mur en butée.

Raccord aval de la couverture avec la cheminée.

  1. Solin
  2. Bavette en plomb
  3. Étanchéité et joint vertical ouvert dans le parement
  4. Latte
  5. Contre-latte
  6. Sous-toiture
  7. Isolant
  8. Pare-vapeur
  9. Espace technique
  10. Finition du plafond
  11. Blocs isolants

Continuité de la fonction de la couverture

Le raccord se fait au moyen de bavettes en plomb posées sur les éléments de couverture et épousant parfaitement leur forme d’une part, et sur la souche de cheminée d’autre part. L’étanchéité est obtenue grâce à des solins engravés dans la maçonnerie.

Continuité de la sous-toiture

La liaison de la sous-toiture avec les faces latérales et aval de la cheminée peuvent être assurées comme celle avec la face amont de la cheminée. Mais dans le cas de sous-toiture en plaques rigides, on se limite, en général, à poser celles-ci contre la souche de cheminée.

Dans le cas d’une toiture « Sarking », la continuité de la fonction « sous-toiture » est assurée par le cordon de mousse de polyuréthane injecté entre le panneau isolant et la cheminée.


Continuité de la fonction « isolation »

Il doit y avoir continuité entre l’isolation de la toiture et de celle de cheminée. Cette continuité nécessite l’utilisation de blocs moins conducteurs que la maçonnerie tels que les blocs de béton cellulaire ou carrément les « blocs » en verre cellulaire.

Exemples.

Bon ! Des blocs isolants évitent les ponts thermiques.

Mauvais ! Ponts thermiques importants !


Continuité de la fonction « pare-vapeur » et « finition intérieure »

La continuité de la fonction « pare-vapeur » n’est pas spécifique à la souche de cheminée mais au type de modèle d’isolation : elle est assurée par un bon raccord au corps de cheminée :

La finition intérieure de la toiture est raccordée de manière étanche à la finition intérieure du corps de cheminée de façon à supprimer tout risque de courant d’air.

Remplacer les optiques existantes par des optiques performantes

Remplacer les optiques existantes par des optiques performantes


Le principe

Grâce au développement d’optiques à miroir, le rendement lumineux des luminaires est actuellement passé de 40 % à plus de 70 %.

Pour des bâtiments de grande taille et équipé d’un système d’éclairage reproductible, on pourrait conserver les armatures et y incorporer un dispositif comprenant une optique à miroir, des ventelles paraboliques et un ballast électronique. On parle ici de « retrofit ». Le dispositif est préassemblé et il suffit de le raccorder dans le boîtier existant. Cette opération ne demande pas de modification des plafonds, ni de la commande, ni parfois de démontage des luminaires. Elle peut donc se faire rapidement, sans interruption significative des activités. Dans les cas idéaux, un travail de 5 minutes est nécessaire par luminaire.

  

Avant / après …

Économie d’énergie

Le seul remplacement des optiques ne diminue pas les consommations (puissance électrique installée inchangée) mais améliore le confort visuel (suppression de l’éblouissement, …). L’amélioration du rendement des luminaires doit donc être accompagnée de la diminution de la puissance totale des lampes (suppression de lampes, diminution de la puissance des lampes).

Lorsque l’on supprime des lampes dans un luminaire, il faut prévoir un dispositif (morceaux de tôle, panneaux semblables au faux plafond, …) pour refermer l’espace laissé libre par la nouvelle optique plus petite. Cette situation survient également si on diminue la puissance des lampes, puisque les nouvelles lampes auront des dimensions moindres.

L’inconvénient de cette rénovation est le maintien de l’emplacement des luminaires, qui peut ne pas être optimum ou ne plus convenir à une nouvelle occupation des locaux.

Cas particulier : les tubes nus

Lorsque le local est équipé de réglettes nues, il est simplement possible d’obtenir des niveaux d’éclairement corrects en plaçant au dessus des lampes des réflecteurs de type miroir. Ceci est nettement moins onéreux qu’une rénovation complète de l’installation.

Dans tous les cas, le gestionnaire du ou des bâtiments devra faire appel à des professionnels comme un bureau d’étude spécialisé en éclairage ou un constructeur sachant que le remplacement du « cœur » du luminaire sans toucher à la distribution des alimentations ne permet pas de réduire les consommations électriques inhérentes à la mauvaise gestion des luminaires ; on citera principalement le bon zonage et la régulation du flux lumineux en fonction de l’apport d’éclairage naturel dans les locaux avec baies vitrées.

Distribution lumineuse d’un luminaire

Distribution lumineuse d'un luminaire

La forme du réflecteur et les positions de la lampe permettent d’obtenir différents modèles de distributions lumineuses :
  • distribution extensive : donne un éclairement uniforme, permet un espacement plus important des luminaires et accentue les contrastes au niveau du plan de travail,
  • distribution intensive : concentre le faisceau lumineux vers le bas. Ce mode d’éclairage est intéressant pour l’éclairage des travées de grande hauteur ou pour le travail sur écran,
  • distribution asymétrique : permet d’éclairer, par exemple, des surfaces verticales telles que des tableaux ou des murs.

Schéma distribution extensive, intensive et asymétrique.

Schéma diagramme polaire.

Dans les catalogues, la distribution lumineuse d’un luminaire est représentée par un diagramme polaire reprenant en trait continu la distribution perpendiculaire aux lampes et en pointillé la distribution dans l’axe des lampes.

Humidificateurs à pulvérisation d’eau froide

Humidificateurs à pulvérisation d'eau froide


Principe de fonctionnement

Un humidificateur à pulvérisation d’eau froide peut être utilisé :

  • soit pour l’humidification directe des grands locaux (halls de fabrication, ateliers, …),
  • soit comme un des éléments insérés dans une centrale de traitement d’air.

Le principe commun à tous les systèmes à pulvérisation est de créer un fin brouillard par des micro-gouttelettes d’eau froide en suspension. Le mélange eau – air doit être intime afin que l’évaporation de l’eau puisse se faire le plus rapidement possible.

Schéma de principe de fonctionnement.

Quelques gouttelettes non évaporées risquent d’être entraînées par le jet d’air, si bien que l’on prévoit un casse-gouttelettes à la sortie : si l’air évolue souplement entre les lamelles, les gouttes se fracassent sur les ailettes, entraînées par leur masse cinétique !

Il existe des systèmes où l’on travaille « à refus », avec comme objectif d’approcher la saturation de l’air. Dans ce cas, l’eau excédentaire, qui n’a pas pu s’évaporer, retombe dans le bac au fond du caisson où une pompe la recycle vers la rampe de gicleurs.

Dans d’autres systèmes, on pulvérise seulement la quantité d’eau nécessaire, en travaillant à débit variable en fonction des besoins.


Évolution dans le diagramme de l’air humide

Dans l’humidificateur, les micro-gouttelettes passent de l’état liquide (eau) à l’état gazeux (vapeur). Ce changement d’état demande de la chaleur (dite « chaleur de vaporisation »).

Cette chaleur est prise sur l’air qui se refroidit en traversant le caisson (c’est un peu comme l’impression de froid ressentie en sortant du bain : l’eau présente sur notre peau s’évapore, en prenant la chaleur de vaporisation sur notre corps … qui se refroidit !).

Le bilan énergétique global est neutre : la chaleur perdue par l’air est transférée dans la vapeur d’eau contenue dans l’air. On parle d’un bilan enthalpique neutre. On dit encore qu’il s’agit d’un humidificateur isenthalpique ou adiabatique. Dans le diagramme de l’air humide, l’air subit un refroidissement dessiné le long d’une isenthalpique.

Exemple : de l’air à 20°C 30 % HR sort de l’humidificateur à 12°C et 85 % HR.
Remarques.

  • En réalité, cette évolution s’écarte légèrement d’une isenthalpe, car on devrait tenir compte de l’enthalpie de l’eau froide, mais la différence est négligeable.
  • Lorsque l’eau est recyclée en permanence, la température de l’eau se stabilise à la température de bulbe humide th de l’air (dans l’exemple : 11,3°C)

Il est intéressant de prendre conscience de l’impact technologique de ce type d’humidification sur le traitement d’air en hiver : deux échangeurs de chaleur seront nécessaires, au moins pour les humidificateurs sans recyclage, pour réaliser préchauffe et postchauffe.


Technologie

Technologie sans recyclage

Appareils à pulvérisation par centrifugation

Il s’agit de disques tournant à plusieurs milliers de tours/minute qui, par l’action de la force centrifuge, pulvérisent des aérosols aqueux d’un diamètre de l’ordre de 5 à 30 microns (µm). Ces micro-gouttelettes sont cette fois totalement évaporée dans l’air pulsé.

Schéma principe appareils à pulvérisation par centrifugation.

Il est intéressant de se rendre compte qu’un débit variable peut être obtenu par une modulation du débit d’eau avec une vitesse de rotation reste inchangée (ainsi que la taille des gouttelettes).

Dans ces systèmes, les micro-gouttelettes sont cette fois totalement évaporée dans l’air pulsé, si bien que les sels présents dans l’eau sont véhiculés vers les locaux ! La décision d’alimenter ces appareils avec de l’eau déminéralisée dépend des exigences hygiéniques et de la sensibilité des équipements présents dans les locaux (matériel informatique, par exemple). Le traitement de l’eau ne peut pas se faire par un adoucisseur traditionnel (car son principe est basé sur l’échange entre sels calcium et sels sodium) mais, par exemple, un système par osmose inverse.

Ce type d’appareil demande un espace suffisant pour que les micro-gouttelettes puissent s’évaporer avant de rentrer en contact avec un obstacle quelconque.

Si un appareil à centrifugation est introduit dans un caisson de climatisation en remplacement d’un laveur, par exemple, le dimensionnement en sera fort critique puisque la longueur minimale de vaporisation est fonction de la température de l’air, des débits d’eau et d’air, de l’humidité absolue recherchée, de la section du caisson, de la vitesse de l’air, … Le risque est amplifié par le fait que le séparateur de gouttelettes n’est pas toujours capable d’arrêter d’aussi fines particules. Un certain nombre d’entre elles seront entraînées par le flux d’air. Une solution consiste alors à placer un filtre à poche en aval de l’humidificateur. Ce filtre humide retiendra d’ailleurs une partie des minéraux. Mais… d’une part ces sels calcaires colmateront le filtre par des dépôts durs (augmentant les pertes de charge) et d’autre part ce milieu humide sera propice au développement de germes !

Pour les appareils à humidification directe, il existe des modèles déposés sur pied, suspendus au plafond, ou fixés sur un mur.

Schéma principe appareils à pulvérisation par centrifugation.

a. Pulvérisation avec recyclage
i. Régulation via point de rosée
ii. Pré-chauffe + post-chauffe
b. Humidificateur par centrifugation avec réservoir d’eau
c. Humidificateur par ultrasons avec réservoir d’eau
i. Faible débit (50W à 100W par kg d’eau pulvérisée)

Variante : appareils à pulvérisation par buses fixes à débit variable

Il est possible d’équiper les humidificateurs de pompes à débit variable (via un convertisseur de fréquence, par exemple). Si deux rampes sont prévues, une peut être fixe et l’autre variable, afin d’assurer en permanence une bonne adaptation du débit aux besoins des locaux. La régulation n’est cependant pas aussi précise qu’avec des humidificateurs à vapeur.

Les inconvénients du recyclage sont évités, ce qui est favorable sur le plan hygiénique, mais les sels restent en suspension dans l’air, ce qui peut entraîner le besoin de traiter l’eau au préalable.

Shéma principe appareils à pulvérisation par buses fixes à débit variable.

Dans un hall industriel.

Dans un caisson de traitement d’air.

 

Technologie avec recyclage

Appareils à pulvérisation par buses fixes, à eau recyclée, à débit constant

Dans ce cas, on parle d’un caisson « laveur d’air », dans lequel un brouillard est créé par la pulvérisation de micro-gouttelettes d’eau. L’air est pulsé au travers de cette « drache nationale » et en ressort … mouillé ! En pratique, le degré hygrométrique de l’air à la sortie est proche de 95 %. en réalité, seulement 1 % peut-être du débit d’eau pulsé est évaporé !

Les laveurs à pulvérisation présentent une ou deux rampes de gicleurs, disposées à courants parallèles et/ou à contre-courant.

L’eau évaporée ne contient pas de sels. Ceux-ci retombent avec l’eau excédentaire dans le bac, au fond de l’humidificateur. La concentration en sel dans l’eau du bac augmente régulièrement si bien qu’il est prévu une déconcentration par un renouvellement périodique de cette eau. Un robinet à flotteur permet l’alimentation automatique en eau d’appoint pour compenser les pertes par évaporation et le débit de déconcentration. À noter que la fréquence de déconcentration peut être automatisée par une mesure de la conductivité thermique qui augmente avec la teneur en sels.

Le châssis du laveur sera agressé par le mélange eau-air. Il est donc recommandé d’utiliser une structure en matériau synthétique, armé de fibres de verre. Son isolation thermique est également meilleure, ainsi que sa tenue aux produits d’entretien et désinfectants. Si de l’eau déminéralisée est utilisée, le châssis en matériau synthétique s’impose. Les châssis en acier galvanisé ne sont plus à recommander.

L’efficacité d’un laveur d’air, c’est-à-dire le pourcentage d’humification effectif ramené au pourcentage d’humidification maximal (celui qui amène l’air à la saturation) est de l’ordre de 85 à 95 %. Ceci est fonction :

  • du nombre de gicleurs,
  • de la direction de la pulvérisation (l’efficacité étant meilleure à contre-courant),
  • de la longueur du caisson (en général de 1,5 à 3 m),
  • de la vitesse de l’air (généralement 2 à 4 m/s, mais pouvant atteindre 7 m/s),
  • du degré de pulvérisation, soit le rapport masse en eau/masse en air (en général de 0,3 kg d’eau par m3 d’air)

Il importe de ne pas confondre un rendement d’humidificateur de 85 % et un humidificateur qui humidifie l’air jusqu’à 85 % HR ! De l’air entrant à 40 % dans un laveur à 85 % d’efficacité en ressort à 40 % + 0,85 x (100 % – 40 %) = 91 % HR.

Variante : appareils à pulvérisation par buses fixes à eau pressurisée

De l’eau, sous une pression de 70 bars, est pulvérisée sur une aiguille qui brise le jet. Des aérosols de 2 à 50 microns sont produits, avec un débit fonction de la pression.

Les applications se situent essentiellement dans l’humidification des grands espaces industriels et agricoles.

Variante : appareils à pulvérisation par buses fixes à eau et air comprimé

Cette fois, c’est l’air comprimé qui est le propulseur et qui entraîne l’eau par dépression.

Ceci permet des aérosols de très faibles diamètres (5 à 10 microns) et une très bonne diffusion de ceux-ci dans l’air.

Schéma principe appareils à pulvérisation par buses fixes à eau et air comprimé.

Photo appareils à pulvérisation par buses fixes à eau et air comprimé.

L’air pulsé doit être exempt de toutes impuretés.

Ils sont souvent utilisés pour l’humidification directe des grands espaces (débits importants de plus de 250 kg/h) mais également pour l’humidification de caissons de climatisation très volumineux. Dans ce cas, un séparateur de gouttelettes est superflu, vu la dimension des particules.

À titre d’exemple, une augmentation d’humidité absolue de 5 gr d’eau par kg d’air sec et une vitesse d’air de 2,5 m/s demande une profondeur pour le dard d’humidification de 3 à 4 m.

Dès lors, en climatisation par réseau de gaines, la difficulté réside dans l’emplacement des équipements.

De plus, la technologie à mettre en place (et leur maintenance…) est plus lourde, vu les deux fluides à préparer.

La régulation se fait par action sur la proportion d’air comprimé.

Le coût d’exploitation est généralement plus élevé que dans le cas des autres systèmes à pulvérisation.

Variante : appareils à pulvérisation par ultrasons

Schéma principe appareils à pulvérisation par ultrasons.

Photo appareils à pulvérisation par ultrasons.

Photo appareils à pulvérisation par ultrasons.

Le principe de fonctionnement de l’appareil est basé sur la mise en vibration d’une lame métallique (convertisseur piézo-électrique) à 1,65 MHz, cette lame étant située sous une couche d’eau. L’inertie de l’eau est telle qu’elle ne peut suivre le rythme. Les dépressions et les surpressions successives créent des micro-bulles qui remontent vers la surface. Du bouillonnement, jaillissent en surface des micro-gouttelettes (7 à 10 microns). De plus, des ondes sonores sont générées en surface, ce qui renforce les chocs entre les molécules.

Un brouillard s’élève de la surface…

Le débit d’eau atomisée est situé entre 1 et 20 kg/h, suivant le type d’appareil.

La puissance électrique absorbée est faible puisque l’énergie de vaporisation n’est pas assurée par l’appareil (seul le fractionnement mécanique en gouttelettes est réalisé). Elle se situe autour des 50 à 100 W par kg/h, soit moins de 10 % de la puissance demandée par un humidificateur à vapeur.

L’eau doit être déminéralisée préalablement.

Un rinçage automatique est conseillé (remplacement périodique de l’eau dans l’appareil), afin d’éviter le développement de germes, mais la consommation totale en eau de l’appareil reste beaucoup plus faible que dans les autres types d’humidificateurs.

Si l’appareil est disposé dans une gaine, une vitesse de 1,5 à 3 m/s est requise pour le balayage de l’air au-dessus de la surface de l’eau. Ceci sous-entend parfois que la section du gainage soit augmentée pour réduire la vitesse.

L’humidificateur à ultrasons peut être placé directement dans l’ambiance à traiter. Il existe également des modèles prévus pour être intégrés dans un ventilo-convecteur.

 


Avantages

D’une façon générale, les humidificateurs par pulvérisation :

  • Engendrent moins de pertes de charge que le laveur à ruissellement.
  • Ne présentent pas l’inconvénient de l’encrassement de la surface de ruissellement.

Les humidificateurs à eau froide prennent sur l’air la chaleur de vaporisation de l’eau. L’énergie de vaporisation est donc apportée par le chauffage de l’air, au moyen d’une batterie de chauffe, par exemple. Ceci permet d’utiliser un combustible traditionnel (fuel, gaz, …), plus avantageux que le vecteur électrique utilisé dans la plupart des humidificateurs à vapeur, par exemple (voir comparaison du prix des énergies).
En particulier,

  • Les appareils à pulvérisation par centrifugation ou par buse rotative, permettent une régulation du débit d’eau sur hygrostat.
  • Les appareils à pulvérisation directe dans un local sont de puissance électrique faible et de grande facilité d’installation.

Inconvénients

Les humidificateurs par pulvérisation avec eau recyclée présentent les inconvénients hygiéniques liés à la stagnation de l’eau au fond du bac de ruissellement. Un entretien régulier est indispensable ce qui augmente les coûts d’exploitation.

Les systèmes par buse impliquent une maintenance complexe liée à la présence du compresseur, de la gaine d’eau ou d’air comprimé, et en particulier à l’encrassement des buses. Un traitement de l’eau par osmose inverse est recommandé pour limiter la maintenance des buses.

La consommation en eau liée à la déconcentration n’est pas négligeable.

L’intégration des humidificateurs par pulvérisation sans recyclage d’eau n’est pas toujours aisée dans un caisson de climatisation vu la portée du diffuseur et le risque d’humidification des conduits par des micro-gouttelettes non arrêtées par le séparateur.


Maintenance

Lorsqu’on parle d’humidification surgit très souvent la crainte de la légionellose. Il faut savoir que les légionelles se multiplient à partir d’une température de 20°C; la croissance est maximum jusqu’à environ 45°C. Elles meurent dès qu’on dépasse 60°C.

Ce type de bactérie se développe en eau stagnante, en présence de substances organiques, d’algues vertes, d’amibes, tartre, etc.

Il est conseillé, sous réserve des précautions habituelles, de désinfecter les agrégats pendant 48 heures avec 5 à 10 ppm de chlore dans l’eau.

Précautions à prendre

Pour minimiser les risques de présence excessive de légionelles, on peut :

  • Se rappeler qu’en été la température de l’eau de ville est plus élevée qu’en hiver. Un bac stockant de l’eau risque d’être un bouillon de culture.Éviter des tuyauteries plastiques transparentes. L’eau déminéralisée semble être sensible à la lumière et cela favorise l’apparition d’algues.
  • Les humidificateurs travaillant avec de l’eau à une température supérieure à 60°C ne présentent pas de risque, pour autant qu’il n’y ait pas de longues interruptions sans vidange.
  • Installer des appareils avec rayons ultraviolets. En effet les rayons UV ont la propriété de tuer les légionelles. Mais la durée de vie des lampes à ultraviolets est limitée dans le temps. Un remplacement s’impose après un certain nombre d’heures.
  • Attention aux périodes d’arrêt de l’installation, qui entraînent la prolifération de germes ! Une vidange et un nettoyage s’imposent, au moins deux fois par an et au mieux une fois par mois. Idéalement, on peut automatiser la chose :
    • par horloge,
    • par un système de mesures qui commande la vidange dès que la température de l’eau dépasse un seuil (en fonctionnement, la température s’abaisse à la*température de bulbe humide* de l’air),
    • on sera attentif, lors de la sélection du matériel, à la facilité de démontage des buses pour un entretien facile.
  • Le contrôle d’une éventuelle humidification de la gaine à la sortie du caisson est utile pour prévenir tout foyer de développement de germes. Cela pourrait être la conséquence d’une vitesse trop élevée de l’air dans le caisson, emportant les gouttelettes au-delà du séparateur.

Traitement de l’eau

Afin d’éviter l’entartrage des pulvérisateurs, il est conseillé d’utiliser une eau ayant subi un adoucissement puis un mitigeage pour atteindre 10 à 15°F de dureté.

Le constructeur précise le pourcentage de déconcentration à adopter en fonction de la qualité de l’eau initiale. Un calcul du débit de déconcentration est proposé.

Dans le cas des humidificateurs à pulvérisation sans recyclage, pour éviter que les sels ne soient dispersés dans l’ambiance, il est utile de déminéraliser l’eau pulvérisée. Il faut distinguer ici « déminéralisation » et « adoucissement » de l’eau. La déminéralisation élimine les sels présents (par carbonation ou osmose inverse) tandis que l’adoucissement échange les ions calcaires et magnésium par des ions sodium. Adoucir, technique plus classique et moins onéreuse, n’évite pas le problème de la diffusion des sels dans l’ambiance.


Régulation

Pour les humidificateurs d’ambiance directe

On utilise généralement des humidificateurs par action tout ou rien sur la pompe de gicleurs ou par étagement de rampes, l’hygrostat enclenchant l’appareil lors du dépassement d’un seuil réglable. Un hygrostat supplémentaire de sécurité est également prévu pour limiter le risque en cas de panne du premier régulateur.

Pour les humidificateurs en conditionnement d’air

Pour les humidificateurs à ultrasons comme pour les systèmes à pulvérisation, on préférera une régulation à action progressive. Si l’humidificateur est placé dans une gaine, on complétera par un limiteur maximal d’humidité.

Pour les laveurs d’air

La régulation des laveurs d’air est traditionnellement basée sur le point de rosée du point de soufflage. Autrement dit, l’humidificateur fonctionne en continu et humidifie toujours l’air au maximum ( …85 %… en pratique). Le réglage de la batterie de post-chauffe se fait sur la température de l’ambiance, le réglage de la batterie de préchauffe se fait sur le degré d’humidité relative de l’ambiance.

Cette régulation est tout à fait correcte en hiver, mais pose des problèmes en mi-saison et en été. Si elle est choisie, l’arrêt de l’humidificateur pour une température extérieure dépassant un seuil (de 5°C à 10°C), évite ce risque et permet des économies énergétiques importantes, mais le respect d’une consigne fixe de 50 % HR ne pourra plus être assuré…

Précautions générales

  • Il est prudent d’asservir le fonctionnement de l’humidificateur à celui du ventilateur, pour éviter tout risque d’humidification des gainages.
  • De prendre des dispositions particulières en vue de protéger la tuyauterie d’alimentation en eau et le réservoir d’eau de l’humidificateur de tout risque de gel.

Bâches à eau glacée

Bâches à eau glacée


Principe

Il s’agit d’un réservoir d’eau glacée, disposé sur le circuit d’eau glacée des installations de climatisation. Il permet d’accumuler du froid, particulièrement durant la nuit.

On l’appelle encore « ballon d’eau glacée » ou « bâche d’eau glacée ».

Il se dissocie de son « concurrent », le stockage par bac à glace, par le fait que la réserve de froid ne se fait que sur la chaleur sensible de l’eau, entre 12° et 5°C. D’où :

> Inconvénient : le stockage de kWh frigorifiques est fort limité…

> Avantages :

  1. La machine frigorifique conserve ses caractéristiques traditionnelles de température de travail, et donc son rendement !
  2. L’installation est simple et sa régulation aussi.
  3. Pour les grands bâtiments, il est parfois possible de valoriser le réservoir d’eau obligatoire pour la protection incendie

Applications

La bâche d’eau glacée est surtout utilisée dans le but de constituer un grand réservoir tampon, permettant

  • D’augmenter le temps de fonctionnement des compresseurs (qui sont souvent surdimensionnés, puisque calculés pour les charges extrêmes de l’été …)
  • De délester le groupe frigorifique au moment de la pointe quart-horaire.
Exemple.

Au CHR de Mouscron, un ancien réservoir à eau chaude sanitaire est utilisé comme réservoir d’eau glacée, ce qui permet au gestionnaire de couper sa machine frigorifique lors de la pointe !


Technologies

On distingue plusieurs types de bâche d’eau glacée :

Simple bâche tampon 

Schéma simple bâche tampon.

Ce système rudimentaire engendre un mélange entre l’eau de retour, chaude, et l’eau glacée du réservoir.

La température de l’eau glacée augmente donc progressivement.

A la limite, un réservoir d’eau chaude sanitaire pourrait convenir.

Bâche à chicanes

Schéma bâche à chicanes.

Un compartimentage à l’intérieur du bac permet de limiter les mélanges entre eau de retour et eau de départ.
Bâche à membrane flexible 

Schéma bâche à membrane flexible. 

Le mélange entre l’eau chaude et l’eau froide est évité.
Réserve naturelle  Pièce d’eau associée au bâtiment, rivière, fleuve, mer.

Variante : le stockage d’eau glycolée

Afin de pouvoir augmenter le DT° de stockage, on peut réaliser un stockage en eau glycolée. La température de stockage peut alors descendre sous 0°C (mais sans profiter de l’énorme réservoir que constitue la chaleur latente de solidification …).

De plus, souvent un échangeur intermédiaire est ajouté afin de conserver le circuit de distribution en eau glacée sans glycol. L’intérêt est donc faible…

Les schémas d’installation sont similaires à ceux présentés pour les bâches d’eau glacée.


Schémas d’installation

On distingue trois types de schémas d’installation ouverture d'une nouvelle fenêtre !

  • stockage en amont de l’évaporateur
  • stockage en aval de l’évaporateur
  • stockage en position intermédiaire

Améliorer une climatisation « tout air » à débit variable (VAV)

Recyclage de l’air extrait

Privilégier le recyclage partiel de l’air extrait des locaux

En hiver, on souhaite profiter de l’air extérieur pour alimenter le réseau d’air froid mais 65 % du temps, l’air extérieur est inférieur à 14°C et doit donc être réchauffé avant d’être pulsé dans les locaux. Il serait dommage, alors que l’on veut économiser le groupe frigorifique, de tout reperdre en chauffage…

Pour autant qu’il n’y ait pas de problème d’hygiène et que l’installation puisse être équipée de filtre adéquat, un recyclage partiel de l’air extrait est ici tout indiqué. Ainsi, l’air extrait des locaux (à 24°) sera mélangé à l’air neuf extérieur pour obtenir la température juste souhaitée, sans surcoût énergétique. Par exemple :

50 % d’air extrait à 24°C + 50 % d’air neuf à 8°C = 100 % d’air à 16°C.

Si le recyclage n’est pas souhaité pour des raisons hygiéniques, il est possible de placer un récupérateur de chaleur sur l’air extrait qui transférera la chaleur sans autoriser de contact entre l’air vicié et l’air neuf.

Concevoir

Pour en savoir plus sur le choix d’un récupérateur de chaleur.

Fonctionnement en free cooling

Vérifier la régulation de l’installation et sa valorisation effective de l’air neuf

Une installation VAV est particulièrement bien adaptée pour une utilisation optimale des énergies gratuites par free-cooling

  • En hiver et en mi-saison, de l’air frais extérieur peut alimenter les zones à rafraîchir sans nécessiter l’enclenchement des groupes frigorifiques.

 

  • En été, une ventilation nocturne peut décharger le bâtiment de la chaleur accumulée en journée.

C’est donc le régulateur de température qui va organiser l’ouverture du registre d’air neuf, en comparant la température de l’air repris et de l’air neuf. On réalise parfois la comparaison des enthalpies (= des énergies), ce qui est plus précis puisque ce sont les niveaux d’énergie contenue dans l’air qui sont comparés : température + humidité de l’air.

Il sera très utile de vérifier que c’est bien ainsi que fonctionne l’installation existante : la mise au point fine et la qualité de la maintenance dans ce type d’installation sont déterminantes sur sa consommation finale.

Voici comment devrait se comporter la régulation :

  • Lorsque la température intérieure ambiante est inférieure à la température de consigne, le taux d’air neuf doit être maintenu au minimum hygiénique qui peut être variable en fonction du taux d’occupation.

 

  • Lorsque la température intérieure ambiante est supérieure à la température intérieure de consigne et que la température extérieure est inférieure à la température intérieure ambiante, l’augmentation du débit d’air neuf doit être prioritaire au fonctionnement de la batterie froide.

 

  • Lorsque la température intérieure ambiante est supérieure à la température intérieure de consigne et que la température extérieure est supérieure à la température intérieure ambiante, le taux d’air neuf est ramené au minimum hygiénique.

Débit d’air dans les locaux

Vérifier les débits minimum préréglés

Il faut être attentif au débit de limite basse admissible par l’appareil. On sait que le débit minimum est ajusté :

  • soit au débit d’air hygiénique,
  • soit à un débit plus élevé, pour les besoins d’une bonne distribution de l’air dans le local,
  • soit à un débit plus élevé pour les besoins de chauffage du local (si régulation « à une sortie »).

C’est ce dernier critère qui peut être générateur de consommations importantes. Si le chauffage est apporté par une batterie terminale, une régulation simple « à une sortie » consiste à moduler le débit en fonction d’une seule courbe de température :

  • En plein été, le débit est maximal.

 

  • En mi-saison, la température intérieure diminue et le débit d’air diminue également, jusqu’à atteindre le débit minimal (au moins le débit hygiénique).

 

  • En hiver, ce même débit minimum reste pulsé mais c’est la température de l’air qui augmente pour couvrir les besoins de chauffage. On agit alors sur l’ouverture de la vanne de la batterie terminale.

Ce débit minimum doit être le plus faible possible pour limiter la consommation de l’installation. Si les besoins en chauffage des locaux ont été surdimensionnés, par exemple parce qu’on a pas tenu compte des apports internes qui participent au chauffage des locaux, le débit minimum sera trop élevé toute l’année. Par un nouveau réglage, le débit minimum peut être adapté. Lors de la relance du matin de l’installation, l’arrivée d’air neuf sera stoppée et le bâtiment montera en température par recyclage de l’air intérieur.

La régulation du taux d’air neuf

Quelles que soient les conditions de fonctionnement du réseau face aux exigences thermiques, les besoins en air hygiénique doivent être rencontrés. Dans les installations avec « air recyclé », le registre d’air neuf devra en permanence être adapté : si le débit d’air à pulser dans les locaux est faible, la part de l’air neuf sera importante (jusqu’à 100 %). Au contraire, un grand débit pulsé entraîne une faible proportion d’air neuf.

Ce qui corse la régulation, c’est que les ventilateurs travaillent toujours dans des conditions différentes : ainsi, le débit de 100 % d’air neuf est souvent demandé lorsque les ventilateurs tournent à très basse vitesse…

La position des registres n’est pas significative du débit réel. Aussi, une sonde de vitesse d’air sera placée dans le conduit d’air neuf et agira sur les registres d’air neuf et de reprise pour maintenir le minimum hygiénique par mesure directe. De plus, si du free cooling est organisé pour refroidir les locaux, il sera prioritaire et l’apport d’air extérieur sera maximal.

Une régulation basée sur une sonde de qualité d’air ou une sonde CO2, disposée dans la gaine d’air repris, permet également de faciliter la gestion du débit d’air neuf en fonction de la présence effective des occupants.


Ne pas casser du froid par du chaud

Si la zone centrale demande du froid alors que la zone périphérique souhaite de la chaleur, on utilisera  de l’air extérieur « gratuit » en centrale, préparé pour les besoins de la zone intérieure (à 16°C par exemple), et cet air sera ensuite postchauffé dans les zones périphériques.

En aucun cas, il ne faudrait créer du froid par une machine frigorifique et simultanément alimenter les batteries de chauffe par le réseau de chauffage. C’est d’ailleurs une solution interdite par la réglementation thermique française. A la limite on pourrait imaginer de récupérer la chaleur du condenseur de la machine frigorifique. Mais un tel système serait inadapté ici.

C’est ici que l’existence effective d’une « zone neutre » prend tout son sens.


Pertes de charge

Diminuer les pertes de charge du réseau

Si autrefois les bouches à débit variable exigeaient une pression minimale pour un bon fonctionnement, ce critère n’est plus d’application aujourd’hui. En remplaçant les bouches, on peut donc abaisser les pressions de fonctionnement, limiter le bruit et la consommation.


Régulation par point de rosée

Pour aller plus loin, et tout particulièrement en cas de rénovation importante de l’installation, on consultera les critères de conception de qualité repris ci-dessous :

Concevoir

Choix d’une installation « tout air » à débit variable.

Hygromètres et psychromètres

Hygromètres et psychromètres


Hygromètre à cheveu

La longueur d’un cheveu varie sous l’effet de la vapeur d’eau.

L’appareil enregistre la variation de longueur d’un faisceau de cheveux suite à la variation de l’humidité.

La précision est de l’ordre de 5 %, si l’appareil est régulièrement étalonné. Autrement, la lecture n’est pas fiable;

Le temps de réponse est de l’ordre de 20 minutes.

Le cheveu peut être remplacé par un fil de soie ou de coton, voire par une fibre synthétique.

La plage normale de mesure s’étale entre 30 et 90 % et entre – 10°C et + 50° de température sèche.

Il existe également des appareils électroniques qui convertissent la variation de longueur en signal de tension (mesure de résistance électrique ou magnéto-inductive).


Hygromètre à cellule hygroscopique

Le plus connu est l’hygromètre à cellule hygroscopique au chlorure de lithium. Le chlorure de lithium est une solution saline (LiCl). Ses propriétés hygroscopiques lui font absorber constamment de la vapeur d’eau contenue dans l’air.

L’appareil comprend deux électrodes entourant une couche de fibre de verre imbibée de Licl Le tout est monté sur un capteur de température.

Lorsque les électrodes sont sous tension, le courant circulant au travers du tissu imbibé de Licl produit de la chaleur qui évapore une partie de l’eau. Par évaporation, la résistance électrique du tissu augmente (la conductivité du tissu diminue), la puissance calorifique diminue, donc aussi la température sur la sonde intérieure. Une température d’équilibre s’établit finalement sur la sonde.

Cette température est utilisée pour mesurer la pression partielle de vapeur d’eau de l’air et de là le niveau d’humidité absolue de l’air.

Cette technique réclame un entretien important, la solution de chlorure de lithium devant être régénérée régulièrement.


Hygromètre à variation de capacité

Les hygromètres électroniques à cellule capacitive sont basés sur la modification de la valeur d’un condensateur en fonction de l’humidité. Plus précisément, c’est le diélectrique du condensateur qui est sensible à l’humidité relative de l’air ambiant.

La variation de la capacité (et donc de son impédance) entraîne une variation d’un signal de tension.

L’appareil est fiable et ne demande un étalonnage que tous les 2 ans. La précision est de 3 %. Le temps de réponse est court (de l’ordre de la dizaine de secondes). Et la plage de mesure est large. Que demander de plus ? !

Si, ils ont un petit défaut : être sensible aux polluants chimiques ! On sera dès lors attentif à ne pas les nettoyer avec des solvants organiques (chlore,…).

Leur durée de vie est estimée à une dizaine d’années.


Psychromètre

Le fonctionnement du psychromètre mécanique est basé sur la lecture de deux températures : la température sèche ordinaire et la température dite « bulbe humide « .

Pour connaître cette dernière, on enrobe la base du thermomètre d’ouate humide. On force l’air à passer au travers de cette ouate (par un ventilateur ou par déplacement rapide dans l’air au moyen d’une fronde). L’air qui passe au travers de l’ouate s’humidifie L’évaporation de l’eau refroidit l’air. Plus il se refroidit, plus il était sec au départ !

En comparant les deux mesures, on peut déduire le taux d’humidité de l’ambiance. Par exemple, supposons que le thermomètre sec mesure une température ambiante de 20°C, tandis que la température lue au bulbe humide soit de 16°C. En prenant l’intersection entre l’isenthalpe passant par le point 16°C – 100 % HR, et la droite des points à 20°C, on trouve une humidité relative de 67 %.

Autrement dit, l’air ambiant à 20° et 67 % HR, lorsqu’il est humidifié se refroidit jusque 16° 100 % HR, ce que lit le thermomètre « bulbe humide ».

La précision sur cette mesure est de 0,3°C sur la température bulbe humide et de 2 % sur l’humidité relative qui s’en déduit.

Un entretien périodique est nécessaire, mais la fiabilité est bonne.

La plage normale de mesure s’étale entre – 10°C et + 60° de température sèche.

Dans le psychromètre électronique, la mesure des températures est réalisée sur base des valeurs données par des thermistances à Coefficient de Température Négatif (CTN).

Évaluer l’utilisation des équipements collectifs (imprimantes, fax, photocopieurs)

Évaluer l'utilisation des équipements collectifs

En principe, les équipements communs à plusieurs personnes tels que imprimantes ou photocopieurs doivent rester en permanence opérationnels, chacun étant susceptible de les utiliser à n’importe quel moment.

A fortiori, c’est également le cas des fax qui doivent rester en attente des messages.

Cependant une simple observation permet de constater rapidement que ces machines ne sont pas utilisées pendant une partie importante du temps, qui varie en fonction du nombre de personnes auxquelles est dédicacé un appareil.

La mise en réseau des ordinateurs accentue encore ce phénomène :

  • Toute personne peut être susceptible d’utiliser l’imprimante à n’importe quel moment. L’extinction de l’imprimante au moment de l’impression risque de provoquer une perte d’informations.
  • Au démarrage de l’ordinateur, les imprimantes doivent être sous tension, faute de quoi, certains problèmes (non reconnaissance de l’imprimante par l’ordinateur) peuvent apparaître au moment d’une impression.

Label « energy star »

Label "energy star"


Le label « Energy Star », qu’est-ce ?

Le label « Energy Star » est à l’origine (1992) un label américain (US-EPA). Il fait l’objet de négociations entre les USA et la Communauté Européenne pour le faire reconnaître en Europe par les principaux fabricants et distributeurs de matériel.

Il s’applique aux PC’s, imprimantes, photocopieurs, fax, scanner, modem, …, qui possèdent une fonction de mise en veille ou en attente (standby) caractérisée par une puissance de fonctionnement réduite.

Ces appareils ont les mêmes performances que les équipements standards (y compris la compatibilité de mise en réseau) mais en plus, ils peuvent automatiquement passer en mode veille lorsqu’ils ne sont pas effectivement utilisés.

Tout appareil acheté à partir de 1995 est potentiellement susceptible de posséder un label « Energy Star. La documentation doit en donner les consignes d’activation (pas toujours simplement, il est vrai). Dans le cas contraire, il est vivement recommandé de contacter le vendeur et lui demander une démonstration.

Les principales caractéristiques du matériel « Energy Star » :

Type d’équipement

  Puissance en mode veille (et en mode arrêt) Temps d’inactivité prédéfinie avant mise en veille   Autre
on
veille
arrêt

Ordinateur et écran séparé

30 min.
< 15 à 45 W pour chacun d’eux.

(en fonction de la puissance de l’équipement)

Portable

30 min
< 35 W

Écran

< 23 W (si X<1 Mega pixel)

< 28X W (si X>1 Mega pixel)

< 2 W
< 1  W

Imprimantes

 < 15 à 90 min.

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Le temps d’inactivité est programmé à la fabrication.
< 10 à 45 W

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Fax

 < 5 min. Le temps d’inactivité est programmé à la fabrication.
< 10 à 15 W

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Photocopieurs

< 30 à 90 min. Le mode par défaut du photocopieur est le recto-verso.
< 5 à 15 W

(en fonction du nombre de copies/minute (mode off)).

Scanner

< 12 W < 15 min.

Les autres avantages du matériel « Energy Star » :

  • Ils ont un prix comparable aux équipements traditionnels.
  • Les écrans d’ordinateur en mode veille produisent moins d’ondes électromagnétiques.
  • Les équipements en mode veille produisent nettement moins de chaleur, ce qui diminue la surchauffe ou les coûts de climatisation et augmente leur durée de vie et leur fiabilité.
  • Les appareils produisent moins de bruit (arrêt ou ralentissement des ventilateurs).

Remarque : la mise en veille ne dispense pas d’éteindre les appareils en dehors des heures de travail.


Dans la pratique, les équipements de bureau portant le label « Energy Star » consomment-ils réellement moins que le matériel standard ?

> Pour les imprimantes , les fax et les photocopieurs , la réponse est sans conteste positive.

En effet, les fonctions de mise en veille sont pré-programmées d’origine dans les appareils et l’utilisateur ne peut les modifier.

> Pour les ordinateurs personnels , les scanners , la réponse est beaucoup plus réservée.

Cela tient au comportement de l’utilisateur. Les fonctions économisatrices d’énergie des ordinateurs doivent être configurées par l’utilisateur. Dans la pratique, des études très récentes ont montré que cette configuration était effective pour seulement 15 % des machines possédant un label « Energy Star ». On peut tenter d’expliquer ce phénomène :

  • L’utilisateur n’a pas connaissance de leur existence.
  • Le sentiment inconscient de ne pas travailler ou de se faire surprendre si l’ordinateur est en mode veille.
  • Pour un utilisateur courant, l’agacement des coupures fréquentes.
  • le réflexe conditionné de relancer la machine lorsqu’elle s’arrête, même si on ne l’utilise pas.

Deux solutions devraient à terme résoudre ce problème :

  • La sensibilisation des utilisateurs aux problématiques énergétiques.
  • La pré-configuration des machines à la fabrication. Celle-ci ne pourrait alors plus être désactivée.

Que peut-on gagner en choisissant un matériel Energy Star ?

La puissance appelée par un équipement de bureautique pris individuellement est relativement faible. Essayons de voir, par un exemple, combien coûte l’ensemble de la consommation de ces équipements dans un immeuble de bureaux types et ce que peut rapporter le choix d’un matériel certifié « Energy Star ».

Exemple.

Nombre de jours de travail par an

250 jours

Nombre d’heures de travail par jour

9h

Coût du kWh électrique

0,11 €
Équipements Nbre Heures d’activité par jour Heures en attente par jour % de machines allumées par jour % de machines allumées 24h/24, 365 jours/an

Ordinateurs

100 3,5 5,5 76 20

Fax

20 0,5 8,5 100 100

Imprimantes

20 3,5 5,5 100 80

Photocopieurs 20 cpm

20 7 2 100 70

Photocopieurs 40 cpm

2 7 2 100 50
Équipements Puis. en fonctionnement (W) Puis. en attente sans Energy Star (W) Puis. en attente avec Energy Star (W) Consom. sans Energy Star (kWh/an) Consom. avec Energy Star (kWh/an)

Ordinateurs

140 140 60 42 168 23 392

Fax

20 6 6 1 086 1 086

Imprimantes

220 75 15 13 655 5 755

Photocopieurs 20 cpm

1 000 170 40 52 194 39 046
 

Photocopieurs 40 cpm

 

1 600 480 40 9 205 5 900
Bilan annuel Sans Energy Star Avec Energy Star

Consommation totale (kWh/an)

118 307 75 179 (- 36 %)

Coût total (€/an)

15 169 9790

Gain (€/an)

5379

Le gain réalisé est à majorer si la majorité des copies sont réalisées en recto-verso.

On peut également y associer la diminution des rejets atmosphériques produits par les centrales électriques, diminution de :

  • SO: 48 kg/an.
  • NO: 35 kg/an.
  • Suies : 4 kg/an.
  • CO: 16 tonnes/an.
Pour en savoir plus sur le label « Energy Star » :

sur le site de l’EPA – United States Environmental Protection Agency, les pages traitant du label « Energy Star » :

ouverture d'une nouvelle fenêtre ! http://www.energystar.gov/

ou encore sur le site « Energy Star » en Europe :

ouverture d'une nouvelle fenêtre !  http://www.eu-energystar.org/fr/index.html

Economiseurs d’écran – économiseur d’énergie

Economiseurs d'écran - économiseur d'énergie

Une confusion communément rencontrée consiste à assimiler « économiseur d’écran » et « économiseur d’énergie ».

Dans le premier cas : « l’économiseur d’écran« , il s’agit d’éviter l’affichage prolongé d’une même image afin de protéger le revêtement chimique interne au tube cathodique, assurant la brillance de celui-ci, lorsque ni la souris, ni le clavier ne sont sollicités pendant un délai ajustable.

Si on augmente ainsi la durée de vie de l’écran, l’économiseur d’écran n’engendre pratiquement pas d’économie d’énergie (diminution de puissance de 10 à 20 W par le passage souvent choisi d’un écran clair à un écran foncé).

Remarque : ces dernières années, vu les progrès considérables du matériel électronique en terme de fiabilité, l’économiseur d’écran a perdu un peu de son sens.

Dans le second cas, « économiseur d’énergie » il s’agit, à partir d’une scrutation identique de l’activité souris ou clavier, de diminuer la consommation d’électricité en passant dans un mode plus sobre sur le plan de l’énergétique (coupure partielle de l’écran, du disque dur, ventilateur etc.).

Choisir le détendeur de la machine frigorifique

Détendeur électronique.
(Source : Danfoss).


Critères de choix énergétiques

Le choix énergétique d’un détendeur est lié à sa capacité à gérer une surchauffe à la sortie de l’évaporateur le plus proche de la courbe de la valeur minimale de surchauffe stable tout en gérant le problème de différence pression minimale nécessaire à baisser la température de condensation (un des critères énergétiques principaux du cycle frigorifique). En d’autres termes, les critères de choix énergétiques des détendeurs sont :

  • la gestion intelligente de la surchauffe;
  • la capacité à travailler à des pressions d’entrée faibles pour favoriser le choix d’une stratégie de température de condensation basse.

Choix du détendeur

Auparavant, le détendeur thermostatique intégré au meuble frigorifique s’imposait. Mais à l’heure actuelle, de par les développements technologiques importants, surtout dans le domaine électronique et numérique, le choix entre différents types de détendeur est possible, à savoir entre un :

  • détendeur thermostatique;
  • détendeur électronique.

Détendeur thermostatique

Le choix d’un détendeur thermostatique est dicté, pour la plupart des cas, par un choix économique au niveau de l’investissement.
Avantages et inconvénients des détendeurs thermostatiques :

(+)

  • ne nécessite que très peu de matériel, à savoir :
    • le détendeur proprement dit intégrant la mesure de la température de condensation;
    • le bulbe et son capillaire mesurant la température du fluide réfrigérant à la sortie de l’évaporateur.
  • un coût d’investissement faible;
  • une très bonne fiabilité;
  • un réglage relativement simple;
  • un coût de maintenance également plus faible;

(-)

  • ne travaille correctement qu’à des Δp faibles en réduisant le taux de remplissage de l’évaporateur;
  • sa régulation n’est pas très fine par rapport à celle des détendeurs électroniques;
  • précision limitée dans la mesure de la surchauffe.

Détendeur thermostatique.
(Source : Danfoss).

Détendeur électronique

Le détendeur électronique n’est à proprement parlé pas une toute nouvelle technologie. Pourtant, même à l’heure actuelle, dans beaucoup de projets, les concepteurs proposent encore trop souvent les détendeurs thermostatiques.
Le « nerf de la guerre » est naturellement son coût. Les constructeurs sont clairs à ce niveau. Mais bien qu’il y ait encore des différences de prix au désavantage des détendeurs électroniques, les constructeurs annoncent des temps de retour simple entre 1 et 2,6 ans pour le choix d’un détendeur électronique par rapport à un thermostatique lorsque l’on prend en compte sa capacité à optimiser le fonctionnement de l’évaporateur.

(+)

  • très grande fiabilité;
  • optimise la surchauffe dans l’évaporateur;
  • peut être interfacé avec un régulateur qui permet de centraliser la régulation de tous les composants du circuit frigorifique et optimiser le fonctionnement de l’ensemble de l’installation;
  • travaille correctement à des Δp faibles lorsque l’on veut travailler à des pressions de condensation faibles (amélioration de la performance du compresseur);

(-)

  • coût élevé;

Comparaison des détendeurs électroniques et thermostatiques

Pas de doute que la technologie du détendeur électronique avance considérablement. L’avantage du détendeur électronique, associé avec une régulation électronique générale du meuble permet d’optimiser le passage du fluide frigorigène suivant la charge de l’évaporateur.

Schéma avantage du détendeur électronique 1.

Schéma avantage du détendeur électronique 2.

En fait c’est la régulation de la surchauffe à la sortie de l’évaporateur qui conditionne l’ouverture ou la fermeture du détendeur. Cette régulation « auto-adaptative » se base sur le principe que l’évaporateur de chaque meuble du magasin a une valeur minimale de surchauffe stable qui évolue en fonction de la charge Q0 de l’évaporateur.
Plus la réponse du détendeur « colle » avec la courbe de valeur minimale de surchauffe stable, meilleure sera l’efficacité de l’évaporateur et du compresseur; ce qui est le cas des détendeurs électroniques.

Techniques

Pour en savoir plus sur la comparaison entre les détendeurs thermostatiques et électroniques, cliquez ici!

Selon un fabricant d’équipement de régulation, le choix d’un détendeur électronique permettrait de réduire de l’ordre de 12 % les consommations énergétiques des compresseurs.


Dimensionnement du détendeur

Suivant le type de réfrigérant, qu’ils soient thermostatiques ou électroniques, la règle de sélection des détendeurs appliquée par un fabricant de meubles frigorifiques se base sur :

  • la puissance utile et la température d’évaporation en chambre d’essai pour une classe d’ambiance 3 (25°C, 60 % HR d’humidité relative);
  • une pression de condensation correspondant à la température de 35°C;
  • un sous-refroidissement de 10 K.

Les données frigorifiques sont établies pour des meubles ayant des détendeurs réglés pour obtenir une surchauffe de l’ordre de 5 K.

En détente directe, considérant que le détendeur fait partie d’un circuit dont les équipements ont une influence directe les uns sur les autres, son dimensionnement doit tenir compte aussi de la pression et, par conséquent, de la température de condensation. Avec les nouvelles techniques électroniques de régulation en mode « flottant » (variation de vitesse du compresseur et des ventilateurs du condenseur), on essaye de maintenir la température de condensation à des valeurs proches de 20°C, ce qui permet d’améliorer de manière importante l’efficacité du cycle frigorifique.

Schéma technique.

Régulation complète du cycle frigorique et en particulier la régulation en pression « flottante » de condensation.

Une température ou pression faible au niveau de la ligne liquide (après le condenseur) peut entraîner un fonctionnement aléatoire dans le cas du choix d’un détendeur thermostatique. En effet, pour que le remplissage de l’évaporateur soit correct en fonction de la charge frigorifique, un détendeur thermostatique nécessite une pression différentielle entre son entrée et sa sortie minimum.
Le problème peut être résolu par le choix d’un détendeur électronique surdimensionné en terme de débit. En effet pour une même puissance frigorifique nécessaire pour alimenter l’évaporateur, un détendeur électronique surdimensionné pourra travailler à des pressions d’entrée faibles tout en maintenant un remplissage correct de l’évaporateur.
Un fabricant annonce un temps de retour de l’ordre de 2,6 ans pour le dimensionnement d’un détendeur électronique de capacité frigorifique nominale double de celle initialement choisie.

Exemple

Un fabricant annonce un temps de retour de l’ordre de 2,6 ans pour le dimensionnement d’un détendeur électronique de capacité frigorifique nominale double de celle initialement choisie.

On voit sur le diagramme ci-dessus que :

  • Le modèle de base a d’abord été choisi pour donner une puissance frigorifique de l’ordre de 21 KW.
  • Le modèle surdimensionné peut donner la même puissance frigorifique que le modèle de base, mais pour des pressions différentielles très basses (de l’ordre de 2 bars).

Évaluer l’état mécanique du réseau de distribution

Évaluer l'état mécanique du réseau de distribution


Causes de corrosion

Dans des conditions normales d’exploitation, c’est en principe toujours la même eau qui circule dans une installation de chauffage. Il ne faut procéder à un remplissage d’appoint qu’une ou deux fois par année. Dans ce cas, la corrosion intérieure d’une installation est pratiquement négligeable et ne progresse que très lentement.

La principale cause de  corrosion sérieuse réside dans un apport prolongé d’oxygène dans le réseau de conduites. Cet apport peut être provoqué par :

  • Des fuites et donc un remplissage d’appoint fréquent avec de l’eau neuve (contenant de l’oxygène « actif »).
  • Une dépression localisée dans le réseau, de sorte que de l’air est aspiré par des points inétanches (raccords, purgeurs, …). Il faut en chercher la cause dans un vase d’expansion mal placé ou sous-dimensionné.
  • Un vase d’expansion défectueux ou sous-dimensionné.
  • Un ancien vase d’expansion à l’air libre (vase ouvert).

Une autre cause de corrosion peut être la multiplication des types de métaux dans une même installation, comme le mélange de cuivre et d’acier.


Appoint d’eau : un ordre de grandeur

La situation peut être considérée comme anormale et dangereuse pour l’installation si la quantité d’eau ajoutée annuellement dépasse :

1 litre par kW installé

Pour établir ce ratio, il faut évidemment pouvoir chiffrer la quantité d’eau d’appoint, ce qui est quasi impossible sans un compteur d’eau sur l’alimentation de ville.


Contrôle du vase d’expansion

Vase d’expansion à pression variable et à pression constante.

Que se passe-t-il quand un vase d’expansion est trop petit, dégonflé ou encore avec une membrane devenue poreuse ?

Si la membrane se perce, l’eau va remplir l’entièreté du volume du vase d’expansion. A froid, la pression dans l’installation va chuter et le gestionnaire de l’installation aura tendance à remettre de l’eau. Un indice de détérioration du vase : même lorsque la pression est fortement descendue, elle remonte très rapidement dès que l’on ouvre l’arrivée d’eau de ville.

Quand cette eau va chauffer comme plus rien ne pourra reprendre le volume de dilatation de l’eau et, sous la montée en pression, les soupapes de sécurité vont s’ouvrir, rejetant de l’eau (des traces de calcaire et de corrosion au niveau de la soupape est un signe).

Quand l’eau va se refroidir, puisqu’il manque de l’eau, la pression dans l’installation apparaîtra de nouveau trop basse et le gestionnaire rajoutera de nouveau de l’eau. Et ainsi de suite, jusqu’à ce que l’entartrage et la corrosion liés à l’ajout perpétuel d’eau n’attaquent l’installation de façon irréversible.

Comment contrôler un vase d’expansion ?

Un vase d’expansion ne peut jamais être rempli d’eau. Si c’est la cas, l’eau ne dispose plus de volume pour se dilater.

> Contrôle 1 : Un vase doit sonner « creux » lorsqu’on le frappe du côté « air ».

Vase d’expansion à membrane ou à vessie.

> Contrôle 2 : si la pression statique de l’installation diminue et que très peu d’eau suffit pour augmenter brusquement la pression, il y de forte chance que la membrane du vase soit déchirée ou poreuse.

> Contrôle 3 : une pression de gonflage trop faible peut mettre en dépression certaines parties du réseau et provoquer des entrées d’air parasites. Or, il faut savoir qu’un vase d’expansion à pression variable, se dégonfle avec le temps (c’est comme un pneu de voiture). Il faut donc vérifier régulièrement sa pression de gonflage. Pour cela, il faut isoler le vase, le vidanger, vérifier sa pression à vide et le regonfler si nécessaire (un vase d’expansion dispose d’une pipette semblable à celles des roues de voiture).

La pression à respecter doit être égale à :

Pgon [bar] = (h [m] / 10) + 0,3 [bar],

* avec un minimum à respecter de 0,5 bar

où,

  • h est la différence de hauteur [m] entre le vase d’expansion considéré comme étant au point le plus bas de l’installation et le point le plus haut de l’installation.

> Contrôle 4 : le dimensionnement correct du vase d’expansion est primordial. Cela comprend le choix de son volume, mais également de sa pression de gonflage et de remplissage. Il peut donc être utile, en cas de doute de contrôler le dimensionnement du vase.
Cliquez ici, pour en savoir plus sur :

Concevoir

Le choix, l’emplacement et le dimensionnement correct du vase d’expansion.

Remplacer la ou les chaudières

Remplacer la ou les chaudières


Surdimensionnement des installations

La plupart des installations existantes de chauffage sont surdimensionnées tant au niveau de la production que de la distribution  et de l’émission. Remplacer l’entièreté ou une partie de la production pour raison de sécurité d’approvisionnement (chaudière(s) en fin de vie) ou pour raison énergétique, environnementale et économique ne peut s’envisager que si une réévaluation de la puissance de production est réalisée. En rénovation, il est aberrant de choisir la puissance de la nouvelle chaudière :

  • en reprenant aveuglément la puissance de la chaudière existante,
  • ou en sommant la puissance des radiateurs existants,
  • ou en appliquant une proportionnelle au volume du bâtiment, du type 60 W/m³.

Ces différentes règles sont pourtant couramment utilisées par les installateurs. Elles conduisent à des surdimensionnements inadmissibles pour des nouvelles installations. En effet :

  • les radiateurs sont presque toujours surdimensionnés,
  • c’est la surface déperditive du bâtiment qui définit les besoins de chaleur, et pas uniquement le volume chauffé,
  • 60 W/m³ est une puissance nettement supérieure à la réalité,
  • par expérience, on a pu constater que les anciennes chaudières sont presque toujours surdimensionnées,
  • les bâtiments anciens ont souvent fait l’objet d’améliorations énergétiques (doubles vitrages, isolation de toiture, …), ce qui diminue leurs besoins par rapport à l’installation d’origine ;
  • les chaudières actuelles ont de nettement meilleurs rendements ;

Donc, dans le cadre d’une rénovation, la plupart des installateurs ou des bureaux d’études devraient se baser sur les paramètres suivants pour évaluer la puissance de la ou des nouvelles chaudières :

  • Consommations énergétiques annuelles par rapport à la puissance de chauffe installée. En partant du principe que la puissance du brûleur est adaptée à celle de la chaudière, le rapport suivant donne une idée du surdimensionnement de l’installation de chauffage : Consommation annuelle (kWh) / Puissance installée (kW). Une valeur de 1500 heures est une valeur couramment rencontrée ;
  • Une rapide évaluation du niveau de déperdition du bâtiment selon la méthode de calcul issue de la norme NBN EN 12831 : 2003 (Systèmes de chauffage dans les bâtiments : « Méthode de calcul des déperditions calorifiques de base » (remplace partiellement NBN B 62-003)) ;
  • Le relevé du nombre de radiateurs et l’évaluation de leur puissance peut donner une indication du surdimensionnement en recoupant la puissance obtenue par rapport à la puissance obtenue par le calcul selon la norme NBN EN 12831 : 2003.

Il y a lieu toutefois de relativiser ce surdimensionnement, car les chaudières à condensation modernes ont très peu de pertes à l’arrêt, et surtout disposent d’une très grande plage de modulation, ce qui leur permet de fonctionner à régime variable en fonction de la demande, et ce qui leur confère donc un meilleur rendement que si elles sont amenées à fonctionner sans cesse à pleine charge !


Économie réalisable

Il est difficile, voire impossible de prévoir la fin de la vie d’une chaudière. Mieux vaut programmer son remplacement par souci d’économie d’énergie ou dans le cadre du programme d’investissement lié à la maintenance du bâtiment.

L’intérêt énergétique du remplacement complet d’une chaudière (si elle est seule) ou de l’ensemble des chaudières dépend de la situation de départ et des améliorations que l’on a déjà pu pratiquer.

Pour illustrer cela, reprenons un exemple que l’on peut adapter à sa propre situation grâce aux programmes ci-dessous

Calculs

sur base du climat moyen de Uccle.

Calculs

sur base du climat moyen de St Hubert.
Exemple : dans un immeuble de bureaux

> Situation de départ :

  • 2 chaudières de 600 kW de 1978, soit 1 200 kW installés pour un besoin réel maximal de 600 kW
  • fonctionnement en parallèle des chaudières
  • pertes à l’arrêt des chaudières : 2 % (0,5 % vers l’ambiance, 1,5 % par balayage)
  • rendement de combustion : 86,6 %
  • rendement saisonnier de production calculé : 79 %
  • consommation annuelle : 155 000 litres de fuel par an

> Situation projetée :

  • 2 chaudières de 360 kW avec brûleur 2 allures
  • fonctionnement en cascade des chaudières
  • pertes à l’arrêt des chaudières : 0,2 %
  • rendement de combustion : 94 % en 1ère allure et 92 % en deuxième
  • rendement saisonnier de production calculé : 93 %
  • consommation annuelle : 155 000 [litres/an] x 79 [%] / 93 [%] = 132 000 [litres/an]
  • gain énergétique : 23 000 [litres/an] (soit 15 %)
  • gain financier (à 0,8 €/litre en 2012) : 18 400 [€/an]

Si par rapport à la situation de départ, on pratique des améliorations partielles de l’installation, le gain énergétique relatif dû au remplacement de la chaudière elle-même diminue. Voici l’évolution du rendement saisonnier avec les différentes améliorations que l’on peut imaginer :

Évolution du rendement saisonnier de l’installation et gains successifs que l’on peut espérer en améliorant les chaudières existantes et finalement en les remplaçant. On estime que le placement d’un nouveau brûleur supprimera les pertes par balayage et portera le rendement utile de l’installation à 88 %.


Rénovation plus globale

Le remplacement des chaudières est une opération importante. Idéalement, elle doit être l’occasion de repenser l’entièreté de l’installation de production et l’installation de régulation. Par exemple, il n’est pas cohérent de remplacer la chaudière existante par la même chaudière en plus moderne, mais en conservant le même surdimensionnement ou la même régulation sommaire.

Exemple 2

Réagir en situation d’urgence

Dans une école, une chaudière rend l’âme. C’est la panique !

En urgence, un devis est demandé au chauffagiste habituel. Celui-ci, sentant vraisemblablement la bonne affaire, propose une chaudière qui bizarrement est plus puissante que la précédente, alors qu’il est fort à parier que l’ancienne installation était déjà elle-même fortement surdimensionnée.

La régulation n’est évidemment pas modifiée et la nouvelle chaudière sera à nouveau maintenue sur son aquastat sans autre régulation.

Ce genre de situation est courante et montre l’importance d’étudier le remplacement des chaudières avant leur détérioration complète : redimensionnement, révision de la régulation, choix du type de la nouvelle chaudière, …

Ce plan de rénovation étant prêt, on peut répondre rapidement à une situation d’urgence, tout en optimalisant le choix de la nouvelle installation.

Comparer des devis

Un responsable technique demande, à 3 installateurs, un devis pour le remplacement de sa chaudière.

Il reçoit en retour 3 prix tout à fait différents avec une simple mention : « placement d’une chaudière de X kW, avec son brûleur et sa régulation ».

Comment choisir ? Faut-il prendre le moins cher ? D’où viennent les différences ? Tiens, le « X kW » est différent dans chaque devis ?

En fait, les 3 propositions ne sont pas comparables. Certains chauffagistes comptent remplacer l’existant par une installation ayant exactement les mêmes fonctionnalités. D’autres proposent une installation dont la puissance est judicieusement revue à la baisse et dont la régulation répond aux standards de performance actuels.

Il est évident que cette dernière solution est de loin préférable si on veut optimaliser l’économie d’énergie réalisable.

À partir du moment où plusieurs centaines de milliers d’ € sont budgétisés pour remplacer des chaudières, autant optimaliser la dépense en réétudiant l’installation dans sa globalité, certaines adaptations étant même une obligation. Cela sous-entend :

Concevoir

Il est également important d’examiner l’état du réseau hydraulique au moment du remplacement. En effet, il arrive que des chaudières neuves montées sur d’anciennes installations subissent au cours des premiers mois de fonctionnement, un embouage important, pouvant provoquer une détérioration irrémédiable. Dans le même ordre d’idée, la qualité de l’eau aura aussi toute son importance.

Évaluer

Évaluer les causes de rupture d’une chaudière.

Les analyses faites sur ces boues montrent que celles-ci sont dues au décollement et au déplacement, lors du remplissage, des boues qui se sont accumulées au fil des ans dans les circuits.

Au minimum, il faut rincer l’installation avant mise en route pour éliminer les résidus (soudure, graisse, filasse, sable, …) issus de la réalisation. De plus, si l’installation présente des traces importantes de corrosion interne, il est important de procéder à un désembouage complet : un système de désembouage (séparateur de boue) doit permettre de capter les boues avant leur entrée dans la chaudière. En complément, l’emploi de réactifs visant à disperser les boues et à faciliter leur capture peut s’avérer intéressant.


Remplacer une chaudière percée

Attention, la rupture d’une chaudière provient rarement d’un défaut de fabrication, mais plutôt d’une mauvaise exploitation :

  • condensations ou choc thermique dues à une régulation inadaptée,
  • défaut d’irrigation par embouage,
  • défaut d’irrigation par mauvaise conception du circuit de distribution,

Il est donc impératif d’éliminer la cause de rupture avant de procéder au remplacement, sous peine de voir la nouvelle chaudière subir, rapidement, les mêmes dommages que la précédente.

Évaluer

Pour en savoir plus sur les causes de rupture d’une chaudière.

Remplacer une chaudière d’un ensemble de chaudières de puissance moyenne

À l’heure actuelle, lorsqu’une chaudière traditionnelle dans un ensemble de chaudières doit être remplacée quelle qu’en soit la raison, on privilégiera une chaudière à condensation. D’une part, la technologie des chaudières à condensation est au point par rapport à tous les problèmes de corrosion liée à l’agressivité des condensats dans l’échangeur de la chaudière, d’autre part, le prix a sensiblement diminué.

D’un point de vue énergétique, on ne présente plus l’intérêt de la chaudière à condensation. L’objectif du remplacement d’une chaudière classique par une chaudière à condensation est donc bien de privilégier le fonctionnement de cette dernière pendant un maximum de temps. Dans cette configuration, la chaudière classique n’a plus qu’un rôle d’appoint en période froide lorsque la puissance de la chaudière à condensation n’est plus suffisante ou de « backup ».

Le remplacement d’une chaudière classique par une chaudière à condensation ne se fait pas en un coup de baguette magique !  Il est nécessaire la plupart du temps :

  • D’adapter l’hydraulique de l’installation tant au niveau de la production que de la distribution ;
  • De prévoir une régulation capable de concilier le fonctionnement de l’ensemble des chaudières.

Revoir la puissance de chaudière à la baisse

Comme développé ci-avant le surdimensionnement  des anciennes chaudières  est un fait avéré. Indépendamment du surdimensionnement « naturel » de la plupart des installations de chauffage, le projet de rénovation d’une partie de la chaufferie implique une réévaluation des besoins thermiques du bâtiment. En effet, différentes mesures de réduction des besoins ont pu être prises comme :

  • L’isolation partielle ou totale de l’enveloppe du bâtiment (remplacement des simples vitrages par des vitrages à basse émissivité isolation de la toiture, des murs, …) ;
  • Des actions URE sur des équipements comme la ventilation hygiénique par exemple.

Cette réévaluation peut être réalisée :

  • De manière simple, mais avec une bonne approximation, comme le calcul statique des déperditions (calcul du U*S*ΔT) ;
  • De manière plus sophistiquée, mais plus précise au moyen d’une simulation thermique dynamique déterminant les besoins de chaleur heure par heure tout au long de l’année.

Dans les deux cas, il est conseillé de faire appel à un bureau d’étude spécialisé en technique spéciale.

Si la rénovation se réalise sur des chaudières de faible puissance, faire appel à un bureau d’étude se justifie difficilement au niveau financier. Il n’empêche, c’est dans votre intérêt de sensibiliser l’installateur par rapport à ce surdimensionnement.

Une règle d’or : signalez-lui toutes les améliorations qui ont été réalisées sur l’enveloppe du bâtiment au cours des années ! C’est vous qui connaissez le mieux le bâtiment !

L’exemple ci-dessous montre qu’énergétiquement et financièrement parlant, le remplacement d’une chaudière classique à brûleur pulsé par une chaudière à condensation à brûleur modulant est intéressant.

Exemple 3 : dans un immeuble de bureaux, on décide de remplacer une des deux chaudières de 600 kW par une chaudière gaz à condensation en intégrant la notion de surdimensionnement :

> Situation de départ :

  • 2 chaudières à brûleur à air pulsé (2 allures) de 600 kW de 1983, soit 1 200 kW installés pour un besoin réel maximal de 600 kW
  • fonctionnement en parallèle des chaudières
  • pertes à l’arrêt des chaudières : 0.2 %
  • rendement de combustion : 94 % en 1ère allure et 92 % en deuxième
  • rendement saisonnier de production calculé : 92.3 %
  • consommation annuelle : 155 000 litres de fuel par an

> Situation projetée :

  • 1 chaudière existante est conservée
  • 1 chaudière à condensation de 360 kW avec brûleur modulant
  • fonctionnement en cascade des chaudières
  • pertes à l’arrêt des chaudières : 0,2 %
  • rendement de combustion de la chaudière conservée : 94 % en 1ère allure et 92 % en deuxième
  • rendement de combustion de la chaudière à condensation : 108 % à 60 % de taux de charge et 106 % à 100 % de taux de charge
  • rendement saisonnier de production calculé : 105.6 %
  • consommation annuelle : 155 000 [litres/an] x 92.3 [%] / 105.6 [%] = 135 478 [litres/an]
  • gain énergétique : 19 521 [litres/an] (soit 15 %)
  • gain financier (à 0,8 €/litre en 2012) : 15 619 [€/an]

Adapter l’hydraulique de l’installation

Cas de chaufferie avec ECS préparée séparément

L’insertion d’une chaudière à condensation dans un ensemble composé de plusieurs chaudières de technologie ancienne risque immanquablement de perturber le fonctionnement des autres chaudières et des circuits secondaires.

À moins de remplacer à l’identique (déconseillé), ce n’est que trop rarement du « plug and go » ! Hydrauliquement parlant, il faut donc être très prudent et, en règle générale, faire appel à un bureau d’étude spécialisé.

Quel que soit le cas envisagé, l’objectif de l’adaptation du circuit hydraulique sera toujours le même : ramener de l’eau la plus froide possible au niveau de la chaudière à condensation !

Indépendamment de l’hydraulique, il est obligatoire, pour arriver à optimiser l’installation, de passer à une régulation de température de sortie chaudière GLISSANTE et variable en fonction de la demande et/ou de la température extérieure !  Il n’y a plus de limite inférieure puisque la chaudière est à condensation.  La distribution de chaleur à température plus modérée améliore également les pertes de distribution !

De nombreuses installations existantes sont équipées :

  • soit d’un bouclage à l’extrémité du collecteur entre le départ et le retour (boucle A-B) ;
  • soit d’une bouteille casse-pression.

        

Collecteur bouclé et bouteille casse-pression.

Dans le cas d’un bouclage,  celui-ci permet un retour chaud au niveau des chaudières. Ce bouclage est indispensable :

Lorsqu’on envisage de remplacer une des chaudières classiques par une chaudière à condensation, il est indispensable :

  • de maintenir une température de retour au-dessus de la température de condensation dans la chaudière existante ;
  • de continuer à garantir un équilibre hydraulique entre les circuits primaires et secondaires d’une part et, d’autre part, les circuits secondaires entre eux ;
  • de favoriser un retour froid au niveau de la chaudière à condensation.

Bref, on peut parler d’un casse-tête … belge ! Mais comme nous sommes les champions du compromis, il existe des solutions capables de répondre aux différentes exigences tout en garantissant le respect des exigences de fonctionnement de chaque équipement.

Dans ce qui suit, une méthode de modification de l’installation est proposée. Ce n’est certes pas la seule, mais elle permet de rassembler pratiquement tous les impératifs liés au fonctionnement conjoint d’une association de chaudières de générations différentes avec un circuit hydraulique existant. On notera toutefois qu’il est toujours nécessaire de vérifier l’implémentation hydraulique chez le fabricant.

Étape 1 : enlèvement du bouclage

Le bouclage n’est pas favorable au retour froid vers la chaudière à condensation. Par contre, le fait de vouloir le supprimer comme dans un collecteur ouvert risque de perturber l’équilibre hydraulique entre le circuit primaire et les circuits secondaires,

Bouclage enlevé.

Étape 2 : placement d’une bouteille casse-pression

Le placement d’une bouteille casse-pression évite les perturbations hydrauliques, mais ne garantit pas, quelle que soit la demande des circuits secondaires :

  • Un retour chaud pour l’ancienne chaudière ;
  • Un retour froid pour favoriser la condensation de la nouvelle chaudière ;
  •  Un débit contrôlé dans chaque chaudière, dû au fait que le débit de la pompe primaire est fixe.

     

Placement d’une bouteille casse-pression : variante 1 et 2.

Étape 3 : individualisation des débits des chaudières

Le remplacement de la pompe primaire unique par une pompe individuelle à débit variable au niveau de chaque chaudière permet de les irriguer de manière totalement autonome vu que leur technologie est rarement la même (ancienne chaudière à grand volume d’eau ⇐⇒ nouvelle chaudière à faible volume d’eau). Le bouclage sur la chaudière existante permet d’assurer, quelle que soit la température de retour primaire à la sortie de la bouteille casse-pression la température minimale nécessaire à la non-condensation des fumées de combustion nécessaire à cette technologie de chaudière.

    

Individualisation des débits des pompes : variante 1 et 2

Cette configuration de l’hydraulique de la chaufferie est suffisante pour garantir la pérennité de l’installation, mais ne garantit toujours pas le contrôle de la température de retour à la sortie de la bouteille casse-pression.

Étape 4 : adaptation de la régulation

Une manière intéressante de garantir une température de retour froide à la sortie de la bouteille casse-pression est d’adapter en permanence les débits des pompes primaires de manière à respecter à tout moment la règle suivante : débit primaire Qp < débit secondaire Qs.

Lorsque le débit primaire < débit secondaire de la bouteille casse-pression, le retour côté primaire reste froid et garantit au niveau de la chaudière à condensation un retour froid. Cette disposition implique que la régulation de cascade des chaudières soit adaptée. Une manière d’y arriver est de contrôler la différence de température comme le propose la figure suivante : on régule le débit de la chaudière à condensation pour une maintenir une différence de température entre l’entrée côté primaire (Tp) et la sortie côté secondaire  (Ts) de la bouteille casse-pression de l’ordre de 2°C. (Tp > Ts). Lorsque l’écart de température augmente, il faut augmenter le débit de la pompe de circulation de la chaudière, et inversement).

       

Adaptation de la régulation : variante 1 et 2.

  •  Lorsque la demande de chaleur diminue, les vannes 3 voies ont tendance à se fermer et, par conséquent, le débit secondaire à diminuer,  la température Ts augmente. Sans changer le débit de la pompe primaire de la chaudière à condensation, l’écart entre les températures Tp et Ts diminue. La régulation prévoira de diminuer le débit primaire de manière à respecter la loi selon laquelle le débit primaire < débit secondaire ;
  • À l’inverse, lorsque la demande de chaleur augmente, l’écart entre Tp et Ts augmente, nécessitant d’augmenter le débit de la pompe de la chaudière à condensation pour ramener cet écart à 2°C.

Cas où l’ECS est combinée avec le chauffage

Le remplacement d’une chaudière classique par une chaudière à condensation dans un ensemble de chaudières qui alimente à la fois des circuits statiques, des batteries chaudes de centrales de traitement d’air (CTA) et de l’ECS risquent de poser un problème si on n’y prend pas garde ! En réalité, tout est conditionné par le profil de besoin de chaleur :

> Une école, un immeuble de bureaux ont des consommations d’ECS généralement faibles et discontinues. L’adaptation de l’hydraulique peut être envisagée comme présenté ci-dessous. Pendant la production d’ECS, la chaudière à condensation ne travaillera pas dans des conditions optimales. Mais cette période est brève, ou la quantité de chaleur est faible.

Consommation faible d’ECS.

> Un hôpital, un hôtel, un magasin alimentaire, … ont un besoin d’ECS qui peut être important et relativement continu. Dans ce cas, l’exploitation optimale de la condensation de  la chaudière devient difficile en considérant le schéma hydraulique envisagé jusqu’à maintenant. Une solution réside dans le choix d’une chaudière à condensation à un seul retour et à un surdimensionnement de l’échangeur de production ECS pour avoir des retour ECS les plus froids possible !!  D’autre part, il y a lieu d’envisager dans ce cas de séparer la production ECS du chauffage !

Consommation faible d’ECS.

Adapter les régimes de température

Lors d’une rénovation de la chaufferie, le réglage des courbes de chauffe d’une installation de chauffage est naturellement dépendante de la performance énergétique de l’enveloppe du bâtiment :

> Sans changement de la performance de l’enveloppe, le besoin de chaleur reste le même et les régimes de température des circuits secondaires restent inchangés  Le remplacement d’une chaudière classique par une chaudière à condensation risque d’être moins intéressant. Cependant, comme le montre le graphique suivant, pour un régime de température classique dans des bâtiments peu isolés de 90/70°C (100 % de charge) et sachant que, durant 75 % du temps de la saison de chauffe, les besoins en puissance de chauffage se situe en dessous de 60%, les températures de retour vers la production de chaleur sont sous 55°C ; ce qui implique qu’une nouvelle chaudière sur un tel circuit condense théoriquement pendant 75 % de la période de chauffe. Il est donc intéressant d’envisager la chaudière à condensation même sans ambition d’amélioration de la performance de l’enveloppe du bâtiment.

Courbe de chauffe : régime 90-70°C.

> En changeant la performance de l’enveloppe (remplacement des châssis vitrés, isolation des parois, placement d’un récupérateur de chaleur sur une ventilation hygiénique à double flux, …), le besoin de chaleur doit être revu à la baisse. Il n’est plus nécessaire de maintenir un régime de température de 90/70°C. Un régime de 80/60°C voire 70/50°C est plus approprié. En analysant le graphique ci-dessous, on constate que la plupart du temps la chaudière à condensation condense. Attention toutefois de ne pas trop réduire le régime de température sous peine de voir la chaudière traditionnelle condenser lorsqu’elle fournit un faible appoint à la chaudière à condensation. On « pourrait » observer ce phénomène lorsque les températures externes sont aux alentours des 0°C.

Courbe de chauffe : régime 90-70°C.

Adapter le conduit de cheminée

Vu que les températures de fumée à la sortie de la chaudière à condensation sont plus basses, le risque de condensation résiduelle dans la cheminée risque de la détériorer. Le coût du gainage du conduit de cheminée devra être pris en compte dans l’étude. Suivant la configuration de la chaufferie il peut être non négligeable.

Et les autres chaudières ?

Quand la décision est prise de remplacer une chaudière, il faut s’attendre à devoir investir dans le remplacement de la ou des autres chaudières composant l’ensemble. Si le remplacement de la première chaudière intervient suite :

  • À la vétusté de la chaudière, il est clair que la ou les autres chaudières risquent d’être dans le même état. Il s’ensuit qu’il sera nécessaire à terme de prévoir financièrement le remplacement de la ou des chaudières restantes.
  • À une étude énergétique et financière favorable,  le remplacement de la ou des autres chaudières peut être envisagé de manière plus posée et sereine. On l’envisagera plutôt dans le cadre de l’utilisation rationnelle de l’énergie.

Traiter les condensats

En régime permanent, une chaudière gaz à condensation de 250 kW produit en moyenne environ 37.5 litres/h de condensats.

Ces condensats sont légèrement acides (H2O + CO2). Le degré d’acidité est du même ordre de grandeur que celui de l’eau de pluie (pH : 3,8 .. 5,2). De plus l’acidité de ceux-ci est souvent compensée par le caractère plutôt basique des eaux d’entretien ménager. Ceci explique qu’il ne soit pas obligatoire de traiter les condensats avant leur évacuation à l’égout. Il sera fortement conseillé dans les grandes chaufferies de traiter quand même ces condensats en raison de leur importance relative par rapport au volume d’eau usée globalement traitée.

Dans le cas d’une chaufferie en toiture, il est recommandé de ne pas faire couler les condensats sur la toiture ou directement dans les gouttières (légère acidité, risque de gel et de bouchage des évacuations). Un conduit en matière synthétique raccordé directement à l’égout est indiqué.

Pour une chaudière à mazout à condensation, la neutralisation des condensats est obligatoire (ph 2,5, pratiquement de l’acide sulfurique…).


Remplacer une chaudière d’un ensemble de chaudières de grande puissance

Photo chaudières de grande puissance.

Les chaudières à condensation de grande puissance (> 1 000 kW), à l’heure actuelle, ne sont pas courantes. Suivant les besoins, on envisagera des configurations différentes :

> On prévoit d’éliminer une des chaudières en fin de vie ! On remplacera avantageusement la chaudière existante par une chaudière HR équipée d’un condenseur externe. La chaudière existante restante pourrait être équipée d’un échangeur à condensation.

> On veut améliorer la performance énergétique de la chaufferie en tenant compte du bon état des chaudières existantes. Le simple placement d’un condenseur externe par chaudière sera très intéressant. Attention toutefois que l’on devra revoir le fonctionnement du brûleur (voire le remplacer) sachant que la résistance au passage des fumées augmente. Il est donc nécessaire, avant d’entreprendre ce genre d’adaptation, de se renseigner chez le fabricant.

Condenseur séparé.

Revoir la puissance de chaudière à la baisse

Le principe de diminution de la puissance de la chaudière HR est le même que celui appliqué pour la chaudière à condensation.

Dimensionner la puissance du condenseur séparé

Vu que le condenseur séparé se place à la sortie du conduit des fumées de la chaudière, il ne récupère que théoriquement 11 % de la chaleur de combustion (chaleur contenue dans la vapeur d’eau). Dès lors, le condenseur séparé sera dimensionné sur une base de l’ordre de 11 % de la puissance de la chaudière sur laquelle il est placé.

Adapter l’hydraulique de l’installation

Remplacement d’une seule chaudière HR équipée d’un condenseur

L’insertion d’une chaudière HR et de son condenseur externe dans un ensemble composé de plusieurs chaudières de technologie dépend de la technologie développée par le constructeur.

Le schéma ci-dessous donne un exemple de placement d’une chaudière de puissance importante de type HR avec un condenseur séparé :

Insertion d’une chaudière HR et d’un condenseur externe.

Pour ce type de chaudière à grand volume d’eau, la bouteille casse-pression est moins indispensable que dans le cas des chaudières à faible volume d’eau. Les pertes de charge y sont moins importantes et, par conséquent, les problèmes de déséquilibre hydraulique sont réduits. Une partie du débit de retour du collecteur de distribution est dévié vers le condenseur séparé (à raison de 10 % du débit total de retour). Afin d’éviter un retour froid au niveau de la chaudière HR, un « bypass » a été placé pour réchauffer le retour vers la chaudière avec une partie du débit de sortie de la chaudière.

Placement de condenseurs séparés sur les chaudières existantes

Dans l’optique de conserver les chaudières existantes (état correct lors de l’entretien annuel), l’adjonction d’un condenseur séparé sur chaque chaudière permettra de valoriser un maximum d’énergie avec comme objectif de s’approcher des 10 % théoriques d’énergie contenue dans la vapeur d’eau des fumées de combustion. Dans cette configuration, la chaudière existante devra être équipée d’un « bypass » lui assurant une température minimum de retour.

Insertion de 2 chaudières HR et leur condenseur externe.

Adapter les régimes de température

Le même principe que pour les chaudières de puissance moyenne peut être adopté, à savoir :

  • Lorsqu’on ne réduit pas les besoins thermiques du bâtiment, le régime de température (courbes de chauffe) reste inchangé. Tout comme la chaudière à condensation, on peut espérer que le condenseur séparé condensera 75 % du temps de la saison de chauffe lorsque le régime de température est 90/70 °C ;
  • En cas de réduction des besoins thermiques du bâtiment, on peut se permettre de revoir à la baisse le régime de température. On passera à un régime 80/60 °C pour des bâtiments de performance énergétique moyenne et 70/50 °C pour des bâtiments basse énergie.

Adapter le conduit de cheminée

Sur le même principe que les chaudières à condensation, à la sortie des condenseurs séparés, les températures de fumée sont plus basses. Le risque de condensation résiduelle dans la cheminée risque de la détériorer. Le coût du gainage du conduit de cheminée devra être pris en compte dans l’étude. Suivant la configuration de la chaufferie il peut être non négligeable.

Traiter les condensats

Tout comme les chaudières à condensations, les condensats du condenseur externe peuvent être évacués à l’égout.

Cependant, dans le cas de grosse unité de condensation, le traitement des condensats est conseillé.

Surfaces nécessaires des locaux en fonction du nombre de couverts

Surfaces nécessaires des locaux en fonction du nombre de couverts


Surface cuisine + stockage + distribution + laverie

Au niveau d’un avant-projet, on peut grosso-modo considérer les surfaces suivantes :

Nombre de repas Surface (m²/repas)
Jusqu’à 50 2
50 à 200 1,5
200 à 500 1
500 à 1 000 0,8
> 1 000 0,6


Surface restaurant

Type de restaurant Surface (m²/place)
Restaurant scolaire ou universitaire 0,8 à 1
Restaurant d’entreprise 1 à 1,2
Restaurant « standing » 1,5 à 1,7

Choisir le type d’ascenseur


Critères de choix

Des critères de choix pour équiper un immeuble d’un ou de plusieurs ascenseurs relèvent principalement d’éléments :

  • constructifs tels que la hauteur de bâtiment, l’espace disponible au niveau des étages, la possibilité de placer une salle des machines au sommet de la gaine, stabilité du terrain, …
  • organisationnels comme le type de fonction du bâtiment, son occupation et son type de fonctionnement en garantissant une performance de confort et de trafic (rapport charge/vitesse),
  • de sécurité,
  • énergétique en considérant que la consommation et les appels de puissance doivent être limités,

Hauteur des immeubles

La hauteur de l’immeuble limite radicalement le choix de la technologie des ascenseurs à placer dans le sens où avec les ascenseurs hydrauliques la course est limitée à 18 m (4 à 5 étages).

Un ascenseur à traction s’impose  !

Simplification constructive

Le placement d’équipements en hauteur pose problème, non seulement au niveau de la stabilité mais aussi au niveau accessibilité. En effet, une motorisation placée au sommet de la gaine d’ascenseur :

  • Nécessite de tenir compte du poids de la cabine, des câbles, du contre-poids (il est de l’ordre du poids de la cabine + 50 % de la charge), de la structure de la salle des machines, des équipements de la salle des machines, … Le poids total repose donc sur la structure du bâtiment (colonne ou mur de gaine porteur renforcé) et se reporte au niveau des fondations.
  • Peut imposer un volume construit inesthétique visible sur le toit.
  • Pose un problème d’accessibilité.
  • Réduit la compacité de la gaine (présence de la cabine et du contre-poids) et, par conséquent, la surface utile dans les étages du bâtiment.

   

Système à traction classique.   Système hydraulique.

Heureusement pour les ascenseurs à traction, ces dernières années, la réduction importante du volume et du poids de la motorisation (« gearless » ou sans réducteur) et de sa commande (variateur de fréquence) ont permis de réduire drastiquement le poids et le volume des équipements au point de placer plus ou moins les systèmes à traction sur le même pied que les systèmes hydrauliques.

Performance de trafic

La charge et la vitesse influencent aussi le choix du type d’ascenseur. En effet :

  • Une charge importante à déplacer orienterait plutôt le choix du type d’ascenseur vers la technologie hydraulique, bien que les ascenseurs à traction soient capables de reprendre des charges importantes dans la plupart des applications du tertiaire.
  • Une vitesse de déplacement élevée (jusqu’à 2 m/s pour des ascenseurs d’immeubles tours) imposerait la technologie des ascenseurs à traction.

Ces critères sont établis lors du dimensionnement des installations d’ascenseurs en fonction :

  • de la population susceptible d’occuper le bâtiment,
  • du type de fonction du bâtiment (bureaux, hôpital, …),
  • du type d’occupation (plusieurs services différents, horaire fixe ou flexible),

Sur base de critères de performance tels que :

  • le débit relatif (en % de la population totale de l’immeuble déplacée en 5 minutes),
  • le temps d’attente moyen maximum (en seconde).

Concevoir

Pour en savoir plus sur le dimensionnement des installations d’ascenseurs, cliquez ici !

Performance de confort

Outre le temps d’attente moyen maximum et la vitesse de déplacement de la cabine, d’autres performances de confort interviennent dans le choix d’une technologie :

  • les accélérations et décélérations,
  • les mises à niveau de précision pour rester dans les tolérances conseillées par la norme NBN EN 81 (marche de 5 mm maximum entre le palier d’ascenseur et la cabine),

Sécurité

En terme de sécurité des personnes, par rapport aux risques liés au principe même de la technologie (traction et hydraulique), il n’y a pas de grande différence. Cependant, l’utilisation d’une quantité importante d’huile pour les ascenseurs hydrauliques complique la sécurité incendie et augmente le risque de pollution des sols de la salle des machines et du cuvelage de la fosse (voir la norme NBN EN 81-2 concernant les règles de sécurité pour la construction et l’installation des ascenseurs hydrauliques).

Critère énergétique

À ce niveau, on n’a pas encore parlé de l’énergie (honte à nous !). Pourtant, s’il y a bien un critère qui devrait intervenir dans le choix du type d’ascenseur, c’est le critère énergétique.

La consommation et l’appel de puissance (courant de démarrage) influencent directement le choix d’une technologie. En effet, de par la présence d’un contre-poids dans la gaine d’ascenseur à traction (la masse du contre-poids correspond à celle de la cabine plus 50 % de la charge nominale de la cabine), les consommations et les courants de démarrages sont réduits par rapport aux ascenseurs hydrauliques (à charge et à vitesse égales, la puissance est réduite d’un facteur 3).

Évaluer

Pour en savoir plus sur l’évaluation de l’efficacité énergétique des ascenseurs, cliquez ici !

Choix des ascenseurs à traction

Configuration classique

Ascenseur à traction classique.

Les ascenseurs à traction sont de loin les systèmes les plus couramment utilisés dans les immeubles du tertiaire. On citera comme avantages principaux :

  • la limitation des consommations et des appels de puissance,
  • la réduction des coûts de dimensionnement de l’installation électrique,
  • la maîtrise des chutes de tension sur le réseau,
  • la limitation des coûts de réserve de puissance,
  • une consommation d’huile dérisoire,
  • l’absence de limite de hauteur du bâtiment,
  • la grande plage de variation de vitesse,

Beaucoup d’autres avantages sont à mettre à l’actif des ascenseurs à tractiondepuis la percée des nouvelles technologies appliquées à la motorisation propre aux ascenseurs à traction. En effet :

  • Les moteurs sont de plus en plus compacts, performants et légers (« gearless » ou sans réducteur).
  • Les commandes et régulations de vitesse associée sont, à l’heure actuelle, souples, peu énergétivores et précises (variateurs de fréquence).
  • Les câbles deviennent souples, résistants et surtout légers.

    

Câble plat et câble en fibre de carbone.

Tous ces facteurs font en sorte que le poids de l’ensemble diminue beaucoup et permet d’arriver à des concepts, avec ou sans salle des machines, s’appuyant sur des structures plus légères qu’auparavant.

Les ascenseurs à traction sans salle des machines

  

Acsenseur sans salle des machines et motorisation « gearless ».

Les nouveaux systèmes de tractions, utilisant la technologie de motorisation sans réducteur (« gearless »), permettent d’éviter la conception de salle des machines au sommet de la gaine. Ce type configuration réduit les coûts liés :

  • À l’étude et la conception de la salle des machines.
  • Au surdimensionnement de la structure (stabilité moins contraignante au niveau des colonnes ou des murs porteurs de la gaine).

La construction et le placement d’un ascenseur représentent, d’après un constructeur, 4 à 5 % du coût total de construction d’un immeuble (référence à un immeuble d’appartements de 6 à 7 niveaux). Dans le secteur tertiaire, le coût engendré par les ascenseurs risque d’être encore plus conséquent sachant que le trafic est plus intense et donc les charges des cabines. La construction d’ascenseur sans salle des machines permet de réduire l’investissement de départ de l’ordre de 25 % (chiffre annoncé par un constructeur).

Le graphique suivant traduit les avantages financiers de la conception sans salle des machines :

Concevoir

Pour en savoir plus sur le choix de la motorisation des ascenseurs à traction, cliquez ici !


Choix des ascenseurs hydrauliques

Le choix d’un ascenseur hydraulique sera retenu lorsque :

  • la hauteur de l’immeuble est limitée à approximativement 18 m (4 à 5 étages),
  • la charge admissible est importante,
  • la vitesse n’est pas un critère de performance de trafic,

Cependant, comme vu ci-dessus, la motorisation de l’ascenseur hydraulique présente quelques gros inconvénients :

  • L’absence du contre-poids impose à l’ascenseur hydraulique de supporter la charge complète de la cabine. Des systèmes avec contre-poids ont été adaptés sur des ascenseurs hydrauliques, améliorant ainsi la consommation et les appels de puissance de la motorisation. Cependant, ce système perd de son intérêt puisqu’il impose le placement d’une suspension, une gaine de section plus imposante, …
  • La nécessité d’un local technique en sous-sol.
  • Les consommations sont plus importantes (de l’ordre de 170 %).
  • Les appels de puissance du groupe moto-pompe dépassent largement celles des motorisations à traction (appel de puissance 3 fois supérieur par exemple).
  • La présence d’huile en quantité importante impose des normes constructives exigeantes (cuvelage, local des machines avec ventilation adéquate, réglementation incendie sévère, …).

Au vu des nombreux inconvénients cités ci-dessus, le choix des ascenseurs hydrauliques reste marginal.

Concevoir

Pour en savoir plus sur le choix de la motorisation des ascenseurs hydrauliques, cliquez ici !

Configurations classiques

Essentiellement, on retrouve les ascenseurs avec vérin enterré et apparent. Les différents modèles permettent de tenir compte de critères :

  • de place,
  • de hauteur d’immeuble à desservir,
  • de stabilité de sol et de sous-sol,
  • de risque de pollution par rapport au sol et plus spécifiquement aux nappes phréatiques,
  • d’esthétique,

  

Vérin enterré et vérin apparent.

Techniques

  Pour en savoir plus sur les types d’ascenseurs hydrauliques, cliquez ici !

Choisir l’emplacement des luminaires dans les classes

   

Classes à aménagement fixe

La plupart du temps, les bancs des élèves sont alignés face au tableau, l’axe du regard étant parallèle aux fenêtres.

Les luminaires sont disposés en rampes parallèles aux fenêtres, de préférence entre les rangées de bancs, pour :

  • Éviter les risques d’éblouissement par les luminaires.
  • Profiter de l’éclairage naturel par une commande séparée des différentes rampes en fonction de l’éloignement à la fenêtre (zonage).
  • Éviter les ombres gênantes en compensant la lumière unidirectionnelle en provenance des fenêtres.
  • Assurer une bonne uniformité de l’éclairement dans le local en composant avec l’éclairage naturel.

De plus

  • Les luminaires disposés le long de la façade vitrée seront rapprochés de celle-ci. À défaut, étant donné le plus faible coefficient de réflexion des fenêtres (ou des tentures, le cas échéant), un déséquilibre lumineux en résulterait le soir.
  • Les lampes situées derrière les tables des élèves risquent de créer des ombres portées sur le plan de travail. On arrêtera les rangées de luminaires au niveau des derniers bureaux. Ceci permettra également de ne pas éclairer inutilement le fond de la classe.
  • La disposition des luminaires en lignes continues permet une meilleure répartition des ombres au niveau des plans de travail (absence d’ombres marquées), puisque la lumière éclairant chaque plan de travail provient de multiples directions.

 

  • Prévoir un allumage séparé des luminaires du tableau. De plus en plus les professeurs ont à leur disposition des écrans lumineux pour projeter les cours. Dans ces conditions, il n’est donc pas nécessaire d’allumer l’éclairage du tableau.

Remarques.
Il est conseillé de placer les luminaires le long de la façade au plus proche de celle-ci pour garantir une bonne uniformité dans la répartition lumineuse de la lumière, excepté les 50 cm qui bordent les murs comme préconisé par les normes. Mais dans la plupart des cas, une école n’est pas utilisée en soirée ou pendant la nuit. Il peut donc parfois être innovant d’imposer des critères spécifiques au CDC comme par exemple que l’étude de l’éclairage doit montrer une luminosité de 300 Lux excepté dans les 50 cm qui bordent les murs intérieurs et les 2 m qui bordent la façade fortement vitrée. De facto, les tubes seront alors décentrés pour profiter de la lumière naturelle.

De même, bien que l’on conseille de placer les luminaires entre les bancs, pour éviter les reflets sur les bureaux, en pratique, cette indication est bien souvent théorique et très contraignante. Elle ne sera respectée que dans des cas très particuliers où le confort doit être parfait.
En effet, c’est le dimensionnement qui détermine le nombre de luminaires et donc l’emplacement des luminaires par rapport aux bancs. De plus, les bancs peuvent être de largeur variable d’une classe à l’autre. Les luminaires ne peuvent pas être placés en fonction de l’aménagement probable de la classe.


Classes à aménagement variable

EcoleEmplacementLuminaire5.GIF (3916 octets)

L’élève n’a pas de position prédéfinie de travail.

La direction de l’éclairage naturel et la direction du regard des élèves varient avec la position particulière de chacun.

Dans ce cas, les luminaires n’ont pas de direction particulière d’émission. Ils seront disposés de manière à obtenir une répartition uniforme de l’éclairement.


Éclairage spécifique au tableau

Des luminaires asymétriques avec tubes fluorescents ou des spots avec lampes fluocompactes seront répartis sur toute la longueur du tableau (attention : longueur du tableau ouvert dans le cas de tableaux articulés). En outre, pour assurer une uniformité d’éclairement, les luminaires à tubes fluorescents seront toujours posés de façon jointive.

Les luminaires placés dans la zone bleutée ne donnent pas de réflexions gênantes sur le tableau. C’est dans cette zone qu’ils devront être placés.

Choisir les auxiliaires de distribution

Choisir les auxiliaires de distribution


Choix des circulateurs

Photo circulateur.

Point de fonctionnement et choix du circulateur

Le choix du circulateur est le rôle de l’auteur de projet (le bureau d’études) et fait suite au calcul des déperditions du bâtiment et des pertes de charge du réseau de distribution.

Concevoir

Pour en savoir plus sur les critères de dimensionnement du réseau de distribution et des circulateurs, cliquez ici !

Le circulateur sera choisi pour que son point de fonctionnement soit dans la zone de rendement maximal. Malheureusement, pour les petits et moyens circulateurs, les courbes de rendement ne se retrouvent pas dans la documentation des fabricants. Dès lors, il faut retenir que la zone de rendement maximal se situe généralement au milieu de la courbe caractéristique du circulateur (entre le 1er et le 2ème tiers de la courbe caractéristique).

Zone de rendement maximal d’un circulateur à 3 vitesses.

Dans le choix, il faudra tenir compte de la présence de vannes thermostatiques ou de vannes de réglage à 2 voies (par exemple sur des ventilos-convecteurs).

Courbes caractéristiques d’un circulateur et d’un circuit de distribution.
Lorsque les vannes thermostatiques se ferment le point de fonctionnement passe de A à B.
Le rendement du circulateur reste au voisinage de son maximum.

Notons que le cahier des charges type 105 de la régie des bâtiments impose aux grosses pompes un rendement minimal (par ailleurs élevé par rapport au matériel disponible sur le marché)&nbs

Puissance utile (Put) Rendement minimal
put > 7,5 kW 80 %
7,5 kW > put > 3,5 kW 75 %
3,5 kW > put > 2 kW 70 %

Evidemment, on ne trouvera jamais (à l’exception des circulateurs à débit variable) un circulateur dont la courbe caractéristique passe exactement sur les caractéristiques de pression et de débit calculées.

En pratique, le concepteur choisit souvent le circulateur dont la courbe caractéristique passe juste au-dessus du point de fonctionnement théorique.

Ce choix implique presque toujours un surdimensionnement d’environ 40 % (et une consommation électrique 3 fois trop élevée (règles de similitude)). En effet :

  • La puissance thermique à fournir qui conditionne le calcul du débit nécessaire est, au départ, toujours exagérée (imprécision dans le calcul des déperditions, marges de sécurité, …).
  • Le calcul des pertes de charge comprend des facteurs de sécurité par exemple dans le calcul des pertes de charge singulières.
  • En rénovation, lorsque l’on calcule le débit à fournir sur base d’une puissance de chauffage installée qui est le plus souvent excessive (chaudière, corps de chauffe).

Le bon sens « énergétique » veut donc que la courbe caractéristique du circulateur soit plutôt choisie juste en dessous et le plus près possible du point de fonctionnement théorique.

Exemple.

Le plus souvent, le circulateur possède plusieurs vitesses (par exemple 3).

Choix d’un circulateur à 3 vitesses.

On choisira celui pour lequel le point de fonctionnement théorique se situe juste au-dessus de la courbe correspondant à la vitesse maximale.

Il faut préférer un plus petit circulateur travaillant à sa vitesse maximale qu’un circulateur plus gros travaillant à vitesse réduite. La consommation de ce dernier sera toujours plus élevée.

Le cas échéant, cela permettra, en outre, de diminuer la vitesse de fonctionnement pour corriger un surdimensionnement lié aux imprécisions de calcul.

Si le circulateur est choisi trop petit, c’est-à-dire si la courbe caractéristique du circulateur passe loin en dessous du point de fonctionnement théorique du circuit, le débit d’eau dans les parties les plus éloignées de l’installation risque d’être insuffisant. Le risque d’inconfort est cependant très faible.

Par contre, si en revanche, le circulateur est trop gros, c’est-à-dire, si sa courbe caractéristique se trouve loin au-dessus du point de fonctionnement théorique, cela entraînera une surconsommation électrique et favorisera les problèmes de circulation et les nuisances acoustiques.

En conclusion, il ne faut jamais surdimensionner un circulateur.

Il faut bannir le principe en vigueur mais tout à fait erroné qui veut que « plus c’est gros, mieux ça vaut » : « choisissons plus grand, on ne sait jamais… ».

Concevoir

Pour vérifier le dimensionnement des circulateurs, cliquez ici !
Exemple :

Trop peu de chaleur, pompe trop petite ?

Que se passe-t-il si on installe une pompe plus petite que ce qu’indique le dimensionnement ?

Le diagramme d’émission des corps de chauffe montre qu’en réduisant de 50 % le débit d’un radiateur, la puissance émise n’est réduite que de 20 %.

Puissance émise par un radiateur dimensionné en régime 90/70 en fonction de son débit (débit nominal = 100 %).

La perte de puissance est encore plus faible si la température de l’eau varie en fonction des conditions météo. Par exemple, pour un radiateur fonctionnant avec un régime d’eau 60/50, une réduction du débit d’eau de 30 % ne diminue que de 2 % la puissance du radiateur.

Pompe plus grande, plus de chaleur !

Cette inversion de la phrase est tout aussi fausse. Un débit plus important n’apporte qu’un faible supplément de chaleur. Par contre surdimensionner le débit des pompes peut entraîner des problèmes hydrauliques, souvent source d’inconfort dans certains circuits.

Évaluer

Pour en savoir plus sur les problèmes hydrauliques liés au surdimensionnement des circulateurs, cliquez ici !

Si le choix de la pompe la plus adaptée n’est pas possible, on choisira une pompe plus puissante et on augmentera la perte de charge du circuit par l’installation d’une vanne de réglage sur la conduite.

Protection du circulateur

Cavitation

La cavitation est la formation de bulles de vapeur qui éclatent dans certaines zones de la roue d’un circulateur. Ce phénomène est source de bruit, réduit la hauteur manométrique du circulateur et endommage le circulateur.

Roue de pompe très fortement endommagée par la cavitation.

Il apparaît lorsqu’une dépression est entretenue à l’aspiration du circulateur. C’est pourquoi, une pression minimale à maintenir à cet endroit, appelée NPSH, est mentionnée par les fabricants dans leur catalogue. Cette pression est entretenue grâce au vase d’expansion.

Cette donnée n’est importante que :

  • dans une construction basse (la hauteur entre le point le plus haut et le point le plus bas de l’installation est réduite),
  • pour une chaufferie disposée en toiture,
  • lorsque la hauteur et/ou la distance entre le vase d’expansion et le circulateur et/ou la chaudière sont grandes.

Corrosion

Les circulateurs sont pour la plupart protégés contre les effets de la corrosion directe. Par contre, ils peuvent être victimes de phénomènes survenus dans le reste de l’installation. En effet, le circulateur est un organe de précision en mouvement constant qui supporte mal la présence d’impuretés, de tartre et de produits de la corrosion. Ceux-ci provoquent l’usure des paliers et s’accumulent entre le rotor et la chemise d’entrefer.

Il en résulte un accroissement du frottement pouvant aller jusqu’au blocage. L’usure de la chemise d’entrefer peut aller jusqu’à la perforation, noyant le stator et provoquant un court-circuit.

Ces phénomènes sont de plus en plus importants avec les nouveaux circulateurs noyés car les vitesses augmentent et les tailles se réduisent. Il en va de même pour les différents orifices d’écoulement de l’eau dans le moteur. Les circulateurs sont donc de plus en plus sensibles aux impuretés présentes dans l’eau.

Ainsi, il faut tout mettre en œuvre pour limiter la corrosion dans l’installation et celle-ci doit être soigneusement rincée avant la mise en route. Le placement d’un filtre, en amont du circulateur est également conseillé.

Photo de filtres.

Filtres.

Améliorer

Améliorer la maintenance et limiter les risques de corrosion.

Présence d’air

La présence d’air dans l’installation engendre, outre des problèmes de corrosion, une usure accélérée des coussinets du circulateur. Ceux-ci se grippent.

Pour éviter cela, il faut être attentif à :

  • ne pas placer un circulateur au point le plus élevé de l’installation,
  • placer des purgeurs aux points hauts.

De plus, incorporer un séparateur d’air sur le circuit constitue toujours un avantage supplémentaire. Certains circulateurs sont équipés d’origine d’une purge d’air automatique.

Isolation des circulateurs

Circulateur équipé d’origine d’une coquille isolante.

Les circulateurs, comme les vannes présentent des pertes de chaleur non négligeable. Les isoler par soi-même est peu recommandé car on risque de ne pas respecter les exigences de refroidissement des moteurs. Il est donc recommandé d’installer des circulateurs équipés d’origine d’une coquille isolante.

Régulation des circulateurs

Vitesse variable

Circulateur à vitesse variable.

Le choix de circulateurs à vitesse variable se justifie d’abord parce qu’ils permettent un réglage correct du débit lors de l’installation, évitant ainsi les « 40 % » de surdébit traditionnels avec des circulateurs à vitesse fixe.

Exemple.

Un circulateur doit fournir 8,6 m³/h pour une hauteur manométrique de 6 mCE (ou 0,6 bar ou 60 000 Pa).

Si on choisit un circulateur traditionnel à 3 vitesses, la vitesse réelle ne correspondra jamais au point de fonctionnement calculé.

Par exemple, comme on le fait encore souvent, on choisit une courbe caractéristique passant au-dessus du point de fonctionnement calculé.

Courbes caractéristiques du circulateur à 3 vitesses choisi.

Pour satisfaire les besoins, le circulateur sera réglé en vitesse 3 et absorbera une puissance électrique de l’ordre de 540 W. Son débit réel sera de 9,6 m³/h au lieu des 8,6 souhaités.

Si les radiateurs sont équipés de vannes thermostatiques, le surdébit se corrigera de lui-même. La pression dans le circuit augmentera, créant une gêne acoustique permanente et la surconsommation restera présente.

Par contre, si on choisit un circulateur à vitesse variable, la vitesse peut être réglée pour obtenir le point de fonctionnement souhaité.

Courbes caractéristiques du circulateur à vitesses variable
(remarque : on y constate la vitesse réglable en fonctionnement de nuit « min »).

La puissance absorbée par le circulateur est de l’ordre de 420 W.

Sur la saison de chauffe, le gain réalisé est de :

(540 [W] – 420 [W]) x 5 800 [h/an] = 696 [kWh/an] ou environ 45 [€/an] (à 6,5 [cents €/kWh] (heures pleines et heures creuses)).

Sans compter l’imprécision du calcul des pertes de charge qui peut être corrigé par le circulateur à vitesse variable.

Par exemple, si pour le débit de 8,6 m³/h, le bureau d’études a surestimé les pertes de charge de l’installation (8,5 mCE ou 85 kPa au lieu de 6 mCE ou 60 kPa). Le circulateur choisi est plus gros et le débit réellement fourni n’est pas de 8,6 [m³/h] mais de presque 12 [m³/h].

Points de fonctionnement de l’installation réel et calculé par le bureau d’études.
Le circulateur choisi rencontre moins de résistance que prévu. Son débit augmente donc.

La puissance absorbée par le circulateur n’est plus de 540 W mais de 960 W.

Dès lors, le gain réalisé en choisissant un circulateur à vitesse variable et en réglant correctement sa vitesse à charge nominale est de :

(960 [W] – 420 [W]) x 5 800 [h/an] = 3 132 [kWh/an] ou environ 204 [€/an] (à 6,5 [cents €/kWh] (heures pleines et heures creuses))

Pour un surcoût du circulateur à vitesse variable de l’ordre de 400 €.

Prix des circulateurs de la marque « x » (à titre indicatif).

Le deuxième intérêt est de pouvoir réguler la vitesse du circulateur et diminuer la puissance absorbée en fonction des besoins en débit de l’installation.

La régulation de base de la plupart des installations de chauffage dans le secteur tertiaire consiste en :

  • Une régulation de la température de l’eau circulant dans les corps de chauffe, au moyen de vannes mélangeuses.
  • Une régulation du débit circulant dans chaque corps de chauffe au moyen de vannes thermostatiques, de manière à ajuster le réglage dans chaque local individuellement.

C’est dans ce type d’installation que se justifie le plus les circulateurs à vitesse variable, en lieu et place de la traditionnelle soupape de pression différentielle.

Soupapes différentielles placées sur des circuits équipés de vannes thermostatiques.

Il est difficile d’estimer le gain supplémentaire que l’on peut ainsi réaliser. En effet, cela dépend de la réduction totale de débit résultant du fonctionnement des vannes thermostatiques (ou de vannes 2 voies de régulation, pour les ventilos convecteurs) et qui est fonction de la quantité d’apports gratuits dont bénéficient les différents locaux. Pour fixer les idées nous nous baserons sur l’exemple précédent :

Exemple.

Considérons un bâtiment nécessitant une puissance de chauffage de 200 kW (débit nécessaire : 8,6 m³/h pour une hauteur manométrique de 6 mCE), répartie en deux façades nord et sud. Un seul circuit dessert l’ensemble de l’immeuble et des vannes thermostatiques sont installées sur les radiateurs de la façade sud pour tenir compte de l’ensoleillement.

En première approximation, on peut se dire que durant 1 000 h/an (durée d’ensoleillement durant la saison de chauffe), les vannes thermostatiques de la façade sud peuvent se fermer, réduisant ainsi de 50 %, le débit nécessaire de l’ensemble du réseau (dans le cas d’une école, les vannes se fermeront quand une classe sera remplie …).

Si en fonction de la fermeture des vannes, le circulateur diminue sa vitesse tout en réduisant linéairement la pression du réseau, sa puissance absorbée passera de 420 [W] à environ 220 [W], ce qui permet une économie de :

(420 [W] – 220 [W]) x 1 000 [h/an] = 200 [kWh/an] ou 22 [€/an] (à 11,16 [cents €/kWh] en heures pleines)

Loi de variation de vitesse

Les circulateurs à vitesse variable peuvent être régulés soit en maintenant une pression constante aux bornes du circulateur, soit en réduisant la pression suivant une loi linéaire.

Lorsque les vannes thermostatiques se ferment, le circulateur réduit sa vitesse pour maintenir une hauteur manométrique constante (le point de fonctionnement passe de B à D) ou en réduisant la hauteur manométrique (le point de fonctionnement passe de B à E).

La pression constante sera appliquée dans les circuits avec tronçon commun (véhiculant l’entièreté du débit) à faible perte de charge (circuit commun court) et dans les installations avec chauffage par le sol régulé pièce par pièce.

La pression décroissante sera appliquée dans les autres cas, c’est-à-dire dans le cas d’un tronçon commun à forte perte de charge (circuit commun long).

Théories

Pour en savoir plus sur la régulation de vitesse des circulateurs en fonction de la fermeture des vannes thermostatiques, cliquez ici !

Arrêt des circulateurs

Si une vanne se ferme (vanne 3 voies) ou si le brûleur s’arrête, signifiant l’absence de besoin de chauffage, par exemple au moment de la coupure nocturne, il est inutile de maintenir les circulateurs en fonctionnement. Cela doit être prévu dans la régulation globale de l’installation, de même qu’une temporisation (d’environ 6 minutes) à l’arrêt pour permettre une évacuation complète de la chaleur contenue dans l’eau.

Les régulateurs permettant cette fonction comprennent généralement aussi une fonction « dégommage » des circulateurs. C’est une fonction qui remet les pompes en marche pendant 30 secondes, par exemple toutes les 24 heures. Pour éviter l’entartrage et le blocage de celles-ci. Cette fonction peut également être appliquée aux vannes motorisées.

Réduction de vitesse

En période de ralenti de chauffage, commandé par la régulation centrale, les vannes thermostatiques s’ouvrent en grand car leur consigne n’est plus satisfaite. C’est paradoxal, les besoins sont alors minimaux et le débit maximal.

Pour éviter cela, les circulateurs électroniques (ou à vitesse variable) offrent la possibilité d’un abaissement de vitesse en période de ralenti de chauffage. Cette régulation permet une diminution importante du débit et de la consommation électrique, notamment la nuit.

La contribution des circulateurs à l’intermittence du chauffage peut donc s’articuler globalement comme suit :

  • arrêt des circulateurs au moment de la coupure et de la fermeture des vannes,
  • fonctionnement en vitesse minimale, une fois la consigne de température de nuit atteinte et maintien du bâtiment à cette température,
  • relance en vitesse maximale.

Courbes caractéristiques d’un circulateur à vitesse variable.
Le passage en vitesse de nuit permet une diminution de la puissance électrique à moins de 150 W.


Cas particulier des hydro-éjecteurs

Traditionnellement, les circuits hydrauliques secondaires sont équipés de vannes mélangeuses à 3 voies et de leur propre circulateur. Il existe une alternative « énergétiquement » intéressante à ce type d’installation : les hydro-éjecteurs.

Installation avec hydro-éjecteurs.

La technique des hydro-éjecteurs s’adapte quasiment à toutes les installations de chauffage. Ils permettent de remplacer, de façon efficace et économique, les installations avec vannes 3 voies mélangeuses et circulateurs secondaires.

Circuit traditionnel, par exemple avec circuit en boucle ouverte et circulateur de by-pass pour garantir un débit minimal dans la chaudière.

Circuit avec hydro-éjecteurs.

Investissements évités pour une installation avec hydro-éjecteurs Investissements supplémentaires pour une installation avec hydro-éjecteurs
Vannes 3 voies.

Circulateurs des circuits secondaires.

Hydro-éjecteurs motorisés (10 % plus cher qu’une vanne 3 voies).
Câblage et distribution électrique nécessaires aux circulateurs des circuits secondaires. Augmentation de la taille de la pompe primaire et souvent installation d’une pompe de réserve.
Liaisons de contrôle entre la régulation et les circulateurs. Régulation de vitesse du circulateur (parfois prévue aussi sur une installation traditionnelle).

Une étude publiée dans le magazine « Chaud, Froid, plomberie » de février 98 montre les résultats obtenus en Autriche en comparant, sur divers projets, la solution conventionnelle des vannes 3 voies et la solution des hydro-éjecteurs, et ce, au niveau de la consommation électrique des auxiliaires et au niveau de l’investissement.

Les conclusions que l’on peut tirer de cet article peuvent être synthétisées comme suit :

  • La puissance totale installée de circulateurs installée (et la consommation qui y est liée) est toujours inférieure dans le cas des hydro-éjecteurs.
  • L’économie d’investissement liée à la solution des hydro-éjecteurs est de l’ordre de 4 à 7 %.

En conclusion, on peut dire que les hydro-éjecteurs constituent une solution qui va dans le sens de la diminution de consommation des auxiliaires. C’est également une solution éprouvée dans de nombreux bâtiments tertiaires publics. Les auteurs de projet semblent cependant peu enclins à l’ utiliser, peut-être parce qu’elle nécessite un calcul plus précis de l’installation.

Notons que l’on peut combiner les hydro-éjecteurs et les vannes 3 voies. Par exemple, dans le cas d’une installation avec un collecteur très étendu, il peut être intéressant d’équiper les derniers circuits de vannes 3 voies et d’un circulateur secondaire, pour ne pas obliger la pompe primaire à maintenir une pression importante en bout de collecteur pour alimenter correctement les derniers hydro-éjecteurs.


Choix du vase d’expansion

Vase d’expansion à pression variable.

Le rôle du vase d’expansion est primordial pour la survie de l’installation. C’est en effet lui qui va :

  • absorber le volume de dilatation de l’eau lorsqu’elle chauffe et éviter l’ouverture intempestive des soupapes de sécurité,
  • éviter un échappement de vapeur par les soupapes de sécurité en cas de surchauffe de courte durée,
  • maintenir une réserve d’eau pour couvrir des pertes du réseau,
  • empêcher les dépressions dans l’installation et donc les entrées d’air dans l’installation.

et limiter ainsi les risques :

  • de corrosion par entrées d’air et/ou ajout d’eau,
  • de cavitation et la détérioration de certains éléments (vannes, restrictions, … ).

Vase d’expansion à pression variable ou à pression constante

Vase d’expansion à pression variable et à pression constante.

Le vase fermé à pression variable et quantité d’air fixe s’applique aux petites installations dont le volume d’expansion est inférieur à 100 litres et où la hauteur statique de l’installation n’excède pas 25 m, pour une pression de sécurité réglée à 3 bars.

Le vase fermé à pression constante et quantité d’air variable, c’est-à-dire le vase d’expansion automatique avec compresseur, s’applique aux grandes installations.  Dans ce cas, le choix d’un vase d’expansion traditionnel sera soit impossible, soit économiquement non rentable ou bien posera des problèmes quant à l’espace disponible (le volume d’air total du vase devient trop grand par rapport au volume d’expansion).

Ci-après est repris un tableau aidant au choix du type de vase.

Choix du système d’expansion en fonction du volume d’expansion Vexp
et du facteur de pression Fp (données calculées dans le dimensionnement du vase).

Dimensionnement du vase d’expansion

Si on résume le rôle du vase d’expansion en disant qu’il doit permettre :

  • l’augmentation du volume de l’eau chauffée,
  • le maintien sous pression de l’installation même quand elle se refroidit.

On comprend aisément que celui-ci ne posera des problèmes que s’il est sous-dimensionné.

Le choix d’un vase d’expansion correctement calculé est donc primordial. Le dimensionnement ne peut se faire au « pifomètre » et contrairement aux autres équipements d’une installation de chauffage, on peut émettre le postulat qu’un vase d’expansion ne sera jamais trop grand.

L’inverse est par contre vrai et dangereux pour l’installation.

Calculs

Pour en savoir plus sur le dimensionnement d’un vase d’expansion, cliquez ici !

Ce dimensionnement consiste à calculer le volume du vase d’expansion, mais aussi sa pression de gonflage et aussi la pression de remplissage de l’installation à froid.

Emplacement du vase d’expansion

Un mauvais emplacement du vase d’expansion peut occasionner des corrosions graves et des anomalies de fonctionnement.

En effet, les positions relatives de ce dernier et de la pompe de circulation peuvent contribuer à des entrées d’air parasites par dépressions accidentelles (n’oublions pas qu’une installation est en principe étanche à l’eau, elle ne l’est pas à l’air, notamment aux joints et aux bourrages).

Situations acceptables

D’une manière générale, le vase d’expansion doit toujours être raccordé sur le retour chaudière, le plus près possible de celle-ci et en amont du circulateur (à l’aspiration du circulateur).

Circulateur sur le départ et vase d’expansion sur le retour : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm hauteur manométrique du circulateur.

L’évolution de la pression dans le circuit montre que le risque de dépression dans le circuit très faible, même lorsque la pression est peu élevée. De plus, la membrane d’expansion est à l’abri des températures trop élevées. Cette configuration convient aux grandes installations avec pertes de charge totales importantes et grandes différences de hauteur.

Circulateur sur le retour entre la chaudière et le vase d’expansion : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm hauteur manométrique du circulateur.

Cette configuration est encore meilleure pour éviter les risques de dépression. Elle convient aux installations avec faibles pertes de charge totales, avec différences de hauteur limitées et chaudière à forte perte de charge.

A proscrire absolument

Circulateur sur le départ et vase d’expansion après le circulateur : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm  hauteur manométrique du circulateur.

L’évolution de la pression dans le circuit montre qu’il y a en permanence des risques de dépression dans les circuits et donc des risques d’entrée d’air. De plus, la membrane du vase est soumise aux sollicitations dynamiques du circulateur et à des températures élevées.

Dans les circuits équipés dune vanne mélangeuse

Le circulateur se place juste après la vanne et le vase d’expansion se place sur le retour, le plus près possible de la chaudière.

Dans les installations importantes

Lorsque les installations sont importantes (immeubles à appartements) on peut prévoir un ou plusieurs vases intermédiaires afin que la membrane ne soit pas exposée à des températures trop élevées faute de quoi son vieillissement et la diffusion au travers de celle-ci s’accélèrent.

Vase d’expansion avec vase tampon (1) : le vase tampon est intéressant lorsque la température au droit du point de raccordement est en permanence supérieure à 60°C. Son volume doit au moins être égal à 20 % du volume d’eau net du vase d’expansion.


Quelle que soit la taille de l’installation, il est interdit de placer plusieurs vases d’expansion en divers points de l’installation. On ne peut donc installer qu’un seul vase d’expansion par installation. Si plusieurs vases sont installés, il doivent obligatoirement se trouver l’un à côté de l’autre. Ce sera le cas pour les gros vase d’expansion que l’on séparera en deux pour garantir une sécurité de fonctionnement en cas de défaillance d’un des deux.


Choix de l’appoint en eau

Beaucoup d’installations de grande taille sont équipées d’un système d’appoint en eau automatique. Ce système est intéressant pour compenser automatiquement le faible pourcentage de fuites inévitables dans de telles installations et les pertes de pression associées aux purgeurs automatiques.

Attention, cependant car on ne contrôle plus la quantité d’eau qui est rajoutée dans l’installation. Ceci risque de conduire à des corrosions internes importantes.

Il est donc impératif de combiner un système de remplissage automatique avec le placement d’un compteur d’eau qui doit être relevé régulièrement.

Ce compteur d’eau peut également être très utile dans une installation à remplissage manuel, pour se rendre compte de la quantité d’eau rajoutée annuellement.


Organes d’équilibrage

La distribution dans les installations de chauffage, malgré son apparente simplicité pour le profane reste souvent le maillon délicat entre la chaudière et les utilisateurs. Et pourtant elle conditionne l’efficacité énergétique de l’ensemble de l’installation, au même titre que la qualité des chaudières ou de la régulation.

Évaluer

Pour s’en convaincre, il suffit de voir l’ensemble des problèmes de confort et la surconsommation imputables à un défaut du réseau hydraulique. Par exemple :

  • Il est impossible de régler une courbe de chauffe si les conséquences de ce réglage sont différentes en fonction de la bonne irrigation du corps de chauffe,
  • Ou de faire fonctionner un optimiseur si la durée de remise en température varie d’une zone à l’autre en fonction de la répartition des débits,

La qualité de la distribution se joue lors des 4 étapes qui conduisent à l’exploitation de l’installation :

  • le choix du principe,
  • le dimensionnement,
  • la réalisation,
  • et la mise au point.

Cette dernière étape est importante car c’est elle qui met en état de fonctionnement une installation qui jusque-là n’était faite que d’un assemblage d’équipements. Dans la mise au point, c’est l’équilibrage qui permet d’obtenir la répartition équitable des débits d’eau chaude dans chacun des circuits de l’installation. Cette étape est indispensable car même le dimensionnement le plus précis ne permet pas d’obtenir une installation prête à fonctionner correctement, ne fut-ce que parce que les équipements sur le marché (caractéristiques des pompes, diamètres de conduites) ne permettent pas un nombre infini de choix. Il ne faut surtout pas la négliger lors de la réception de l’installation, sous prétexte qu’à ce moment, aucun problème de confort n’est apparent.

Pour équilibrer les circuits d’une nouvelle installation, il faut :

  • calculer l’installation et le débit à obtenir,
  • installer les organes d’équilibrage au niveau de chaque circuit,
  • calculer de façon théorique les réglages à effectuer,
  • vérifier la correspondance entre les débits calculés et mesurés effectivement sur les organes de réglage et corriger le réglage si nécessaire.

C’est le rôle d’un metteur au point ou de l’installateur.

Choix d’une vanne d’équilibrage

Photo vanne d'équilibrage.

Il faut donc prévoir dans toute nouvelle installation des vannes de réglage. Celles-ci ne peuvent être choisies n’importe comment. En effet, si une vanne est trop grande, non seulement elle est plus chère, mais en plus elle devra être réglée près de sa position de fermeture, ce qui lui fait perdre de la précision.

Robert Petitjean dans son ouvrage « Equilibrage hydraulique global » préconise de toujours choisir une vanne d’équilbrage dont la perte de charge en position ouverte et pour le débit voulu est supérieure à 3 kPa. En dessous de cette valeur, la précision sur la mesure de débit est, en effet, réduite. En tout cas, le diamètre de la vanne choisie ne pourra jamais être plus grand que le diamètre de la conduite.

Photo dispositif vanne d'équilibrage.

Pour permettre un réglage correct, les vannes de réglage choisies doivent de préférence être équipées d’une prise de pression permettant de calculer ou de mesurer directement (au moyen d’un appareillage spécifique) le débit de chaque circuit.

Le placement de vannes automatiques (ou régulateurs de pression différentiel) qui assurent le maintien d’une différence de pression constante au pied de chaque colonne facilite l’équilibrage car le réglage correct de la vanne n’est plus influencé par le réglage des circuits voisins, ce qui est le cas avec les vannes à réglage fixe. Le surcoût de ces vannes est ainsi compensé par la facilité de réglage. Ces vannes permettent également de maintenir un équilibrage correct, même lorsque les débits varient dans les circuits (fermeture de vannes thermostatiques). En ce sens, elles sont cependant en concurrence avec les circulateurs à vitesse variable, « énergétiquement » plus intéressants.

Equilibrage au moyen de régulateurs de pression différentielle.
Une vanne est placée sur la conduite de départ et la conduite de retour.
La vanne automatique mesure la différence de pression entre le départ et le retour de chaque colonne
et règle son ouverture pour maintenir cette dernière constante.
Ce type de vanne remplace également les soupapes de pression différentielle
couramment utilisées dans les circuits comprenant des vannes thermostatiques.

Où placer une vanne d’équilibrage ?

Théoriquement, on place une vanne d’équilibrage au niveau de chaque corps de chauffe (té de réglage ou vanne thermostatique préréglable) pour obtenir une répartition correcte des débits.

Té de réglage.

Cependant, la modification d’un réglage va perturber toute la répartition et demander des corrections fastidieuses (et donc coûteuses).

C’est pourquoi, il faut essayer de découper l’installation en plusieurs zones équilibrées entre elles. Ainsi, la perturbation due à une intervention à un endroit peut être compensée par une correction sur un nombre plus réduit de vannes de réglage.

Chaque circuit, connecté en parallèle sur une bouche de distribution constitue une zone d’équilibrage. Par exemple, si les différents corps de chauffe d’une zone sont équilibrés entre eux, une modification du réglage de la vanne de la zone modifiera dans la même proportion le débit dans chacun des corps de chauffe.

Tous les circuits (a fortiori, les corps de chauffe, dont le té de réglage n’est pas représenté ici) raccordés en parallèle sur un même collecteur (c’est-à-dire chaque branche d’un tronc commun) sont équipés dune vanne de réglage permettant de répartir le débit entre eux.

Vanne d’équilibrage sur le départ ou sur le retour ?

Cela revient au même, puisque le débit qui passe dans le retour est le même que celui qui passe par le départ. Il est recommander de placer la vanne dans le sens où le débit aura tendance à l’ouvrir car c’est dans cette position de la mesure de débit sera la plus précise et les bruits de circulation les plus faibles. Une vanne placée sur le retour a moins de pertes thermiques car la température de l’eau qui y circule est moindre.

Il faut également que la vanne soit placée dans un endroit accessible et à l’abri des turbulences :

Sections droites minimales de part et d’autre d’une vanne d’équilibrage.

Améliorer

Pour en savoir plus sur l’équilibrage d’une installation de chauffage : cliquez ici !

Limiter le nombre de vannes

Il est évident qu’isoler les vannes permet de diminuer fortement leurs pertes.

Évaluer

Pour s’en convaincre : cliquez ici !

Ce à quoi on ne pense pas toujours, c’est que l’on peut aussi limiter le nombre de vannes. Par exemple, une vanne d’équilibrage peut souvent servir de vanne d’isolement tout en conservant la mémoire de son réglage d’origine. Il est donc inutile de les doubler par une vanne d’isolement.

Dans le même ordre d’idée, les vannes taraudées présentent moins de pertes que les vannes à brides. Il faut donc les préférer lorsque cela est possible.


Purgeurs, séparateurs d’air, récupérateurs de boues

Que faut-il penser de ces éléments qui peuvent être installés dans le réseau de distribution pour faciliter son exploitation ?

Les purgeurs automatiques

Les purgeurs automatiques permettent d’évacuer l’air d’une installation sans intervention manuelle. Cela peut être intéressant dans des zones peu accessibles.

Photo purgeur automatique.Schéma principe purgeur automatique.

1. ouverture d’évacuation d’air 2. valve d’évacuation
3. mécanisme d’évacuation 4. compartiment à air
5. niveau d’eau 6. flotteur 7. raccordement d’entré

Purgeur automatique : l’air monte dans le purgeur et remplace l’eau.
Le flotteur s’abaisse et le soupape s’ouvre laissant s’échapper l’air.

Toutefois, il faut se méfier de la fiabilité des soupapes d’obturation à flotteur (il existe bien sûr des fabrications plus élaborées que d’autres au point de vue fiabilité). En effet, la moindre impureté flottant sur le plan d’eau peut s’intercaler entre le siège et la soupape de fermeture entraînant une fuite permanente du purgeur. Ce problème est souvent détecté tardivement, il correspond à des appoints d’eau supplémentaires et à une corrosion de tuyaux en raison du ruissellement sur la surface extérieure (bien souvent sous l’isolant des colonnes). La conséquence pratique est parfois une fissuration longitudinale de la tuyauterie après 10 ans de ces mauvaises conditions !

De plus, le fonctionnement d’un purgeur automatique peut s’inverser c’est-à-dire qu’en raison d’un défaut d’expansion, la contraction du volume d’eau durant l’arrêt du chauffage va provoquer une entrée d’air facilitée via le purgeur automatique, ce qui sera source de corrosion.

Le bon sens veut donc que l’on s’attaque en premier lieu à la cause du problème : si un circuit fermé contient de l’air … c’est qu’il n’est pas suffisamment étanche. Un vase d’expansion mal dimensionné ou défectueux, la présence de certains matériaux synthétiques, des remplissages fréquents, d’autres causes d’origines chimique ou technique (installation mal entretenue) peuvent être à l’origine de l’introduction d’air ou de la formation de gaz (corrosion de aluminium et formation d’hydrogène).

Donc, la première règle est de chercher les causes de la présence d’air ou de gaz et d’y remédier.

Pour ces diverses raisons, il faut considérer les purgeurs automatiques comme élément à n’utiliser que lors des remplissages généraux, et il faut absolument les faire précéder d’un robinet d’isolement qui sera rapidement fermé durant le service normal de l’installation.

Les séparateurs d’air

Le séparateur d’air est un dispositif basé sur l’un ou l’autre procédé d’obtention de coalescence des micro bulles présentes dans l’eau.

Photo séparateurs d'airPhoto séparateurs d'air

Séparateur d’air (équipé d’un purgeur automatique).

Le séparateur peut contribuer à éliminer un maximum d’air en un point accessible, contrôlable (il aura lui-même en général un purgeur automatique).

Placé sur le retour général, pour une chaufferie en point haut, il centralise parfois mieux l’air et éviter des poches dans les chaudières. Placé sur le départ en aval des chaudières, il élimine les bulles libérées lors du chauffage d’une eau neuve.

Il ne constitue pas une nécessité technique. Ces solutions sont coûteuses et ne doivent être retenues qu’en cas d’urgence ou s’il s’avère impossible de résoudre les causes originelles des problèmes.

Les récupérateurs de boues

Les pièges à boues les plus simples (et très efficaces) consistent en un cylindre vertical de 3 à 5 fois le diamètre du tuyau, ce dernier étant soudé dans le tiers supérieur (il existe bien sûr des fabrications en tout genre, mais la solution « à chicanes » ne donne pas plus de résultats en raison notamment des remous et des profils de vitesses).

Photo récupérateur de boues.

Récupérateur de boue.

Il faut considérer que la formation de résidus solides dans les installations modernes est quasi inévitable, en raison des matériaux et effets catalytiques éventuels. Pour ces raisons, le placement d’un piège à boues en partie basse du retour est à conseiller.

Il y a lieu de vider régulièrement le contenu accumulé ! en présence de quantités importantes de magnétite (Fe3O4) le piège à boues n’est pas suffisant pour une sédimentation efficace, il faut alors recourir à d’autres solutions (circuits de filtration magnétique etc).

Rappelons cependant que seul un traitement d’eau correctement adapté, après analyse préalable, constitue la manière de traiter l’installation contre la corrosion.

Évaluer l’efficacité énergétique du poste ventilation

Évaluer l'efficacité énergétique du poste ventilation


Analyse quantitative

Cette analyse est purement indicative, elle ne peut constituer à elle seule un critère de décision.

En effet, il est très difficile de donner des valeurs de consommation de référence car elles varient très fort en fonction de facteurs indépendants de l’énergie (hygiène, organisation, choix culinaires, etc). La ventilation peut être plus élevée car on a choisi une cuisine avec beaucoup de friture, grill, cuisson à la sauteuse. En effet, cette cuisson demande des débits d’extraction plus élevés.

Ainsi, si on compare, du point de vue énergétique, sa cuisine avec d’autres cuisines, on ne peut porter un jugement de valeur valable que si les concepts de base choisis sont identiques.

L’ analyse quantitative doit donc être complétée par l’analyse qualitative.

Ainsi, supposons par exemple, pour une cuisine, que l’on aboutisse aux deux conclusions suivantes :

  • Analyse quantitative : le poste ventilation est globalement peu performant (en Wh/repas).
  • Analyse qualitative : l’efficacité de la hotte est très moyenne et il n’y a pas de vitesse variable.

Ces deux conclusions se recoupent : si le poste « ventilation » est peu performant, c’est justement, dans l’exemple, parce que l’efficacité de la hotte est très moyenne et qu’il n’y a pas de vitesse variable. La conclusion de l’analyse qualitative vient justifier la conclusion de l’analyse quantitative.

L’analyse quantitative peut aussi venir trouver sa justification dans les concepts de base influençant les consommations.

En revanche, l’évaluation de sa propre situation (mesure ou estimation) permet de mieux comprendre où passe l’énergie de sa cuisine et donc de concevoir une stratégie d’amélioration fondée sur l’analyse des facteurs de consommation (et non pas sur la comparaison avec un modèle moyen et irréel).

Une valeur de référence

Nous avons relevé les ratios suivants, dans des cuisines considérées comme correctes. Ces valeurs sont valables pour une gamme de cuisines collectives allant de 50 à 400 repas par service. Au-delà, ces ratios peuvent diminuer.

Déplacement de l’air 20 Wh/repas
Débits 50 m3/repas

L’énergie consommée pour le déplacement de l’air peut varier facilement de 5 à 50 Wh par repas.

Le débit de ventilation par repas varie dans une fourchette de 12 à 100 m3/repas.

Remarque : la réglementation française exige un minimum de 20 m3 par heure et par repas préparés simultanément.

Évaluer sa propre situation

Évaluer

Vous trouverez comment évaluer la consommation électrique nécessaire au déplacement de l’air (ventilateurs) pour la ventilation de votre cuisine.

Évaluer

Vous trouverez comment évaluer les débits de ventilation de votre cuisine.

Analyse qualitative

En ce qui concerne le transport de l’air, la quantité d’énergie consommée dépasse la quantité intrinsèquement nécessaire. Ainsi, une partie de l’énergie du ventilateur sert, par exemple, à vaincre la résistance du conduit d’air.

En ce qui concerne les débits, il n’est pas possible de capter uniquement l’air vicié en séparant celui-ci de l’air non vicié. Ainsi une partie des volumes concerne l’air non vicié qui sert à transporter l’air vicié. Il s’agit de limiter les premiers au maximum.

Remarque : en période chaude, il peut être intéressant de dépasser les débits strictement nécessaires à la ventilation des cuisines plutôt que de le climatiser.

Les indices permettant de repérer des anomalies sont expliqués un à un. Ils servent à remplir une grille d’évaluation.
L’analyse qualitative de l’efficacité énergétique du poste « ventilation » se fait en passant en revue chacun des points de ventilation.

  • Repérer les indices d’un bon/mauvais appareil
  • Grilles d’évaluation

Repérer les indices d’un bon/mauvais appareil

L’efficacité énergétique d’une hotte ou d’un plafond filtrant dépend des paramètres ci-dessous. Les premiers concernent le transport de l’air, les deuxièmes, les débits d’air introduits et les troisièmes concernent la gestion des appareils de ventilation.

LE TRANSPORT DE L’AIR :

Le ventilateur

Techniques

La qualité technologique des moteurs et des pales influence les consommations nécessaires au transport de l’air.

Le conduit d’air

Techniques

Les conduits étroits , fortement coudés ou trop longs freinent le passage de l’air et nécessitent de pousser la puissance électrique des ventilateurs.

LES DÉBITS D’AIR

L’efficacité de la ventilation

L’efficacité de la ventilation n’est pas bonne si certains appareils de cuisson ou de laverie sont placés en dehors de la zone recouverte par une hotte ou un plafond filtrant ou si le débordement ou la hauteur utile de la hotte n’est pas suffisant. De même, la hauteur entre le sol et le bas de la hotte ne doit pas être trop importante. Dans ces cas, il faut augmenter les débits d’air pour obtenir la même efficacité qu’une ventilation bien disposée.

L’efficacité de la hotte

Une hotte à induction ou à effet d’induction, si elle est bien profilée permet de mieux capter l’air là où il est vicié. Elle permet de diminuer les débits de 40 %.
Des filtres à tricot encrassés provoquent des pertes de charges importantes. Cela peut avoir des conséquences négatives sur le confort ou/et sur les consommations.

Gérer

Pour plus d’informations sur l’entretien des filtres.

LES DÉBITS D’AIR

La ventilation avec transfert
Au niveau énergétique, il est avantageux de ventiler la salle de restaurant et la cuisine avec le même air, successivement (gain sur le chauffage ou la climatisation, et gain sur les ventilateurs). Cela a certaines limites : notamment si la cuisine et la salle fonctionnent à des heures trop différentes, ou si la salle a d’autres utilisations (salle polyvalente), nécessitant de ne pas les faire communiquer (pour des raisons d’hygiène de la cuisine).

Concevoir

Pour en savoir plus sur le choix d’un système de ventilation.

Réglementations

Néanmoins, ce système va à l’encontre de la « nouvelle » réglementation sur l’hygiène dans les cuisines collectives qui recommande qu’il n’y ait pas de croisement entre les circuits propres et sales. Dès lors, ce système doit être adapté pour respecter cette réglementation.

LE TRINÔME TEMPS/DÉBIT D’ AIR /TEMPÉRATURE

Il s’agit de conduire la ventilation au bon moment, avec le bon débit (et à la bonne température).

La durée de ventilation

Une durée excessive est surconsommatrice. Cette durée est parfois la conséquence d’un allumage trop précoce (ou trop prolongé) des appareils de cuisson.

Le réglage du débit

Le débit doit être limité au strict nécessaire. Ainsi la présence d’un variateur de vitesse ou d’une commande à plusieurs vitesses (souvent 2) sont des facteurs intéressants si on les utilise effectivement.

La température de l’air

Les excès de température du traitement de l’air sont de loin la cause majeure d’une surconsommation d’énergie.

Les récupérateurs d’énergie thermique

Certaines installations sont équipées de récupérateurs de chaleur sur l’air extrait (pour préchauffer l’air neuf ou pour préparer de l’eau chaude sanitaire).

Les automatismes

Les automatismes (régulateurs / programmateurs) de la température et du débit d’air sont des auxiliaires très efficaces pour réduire la consommation d’énergie, tout en améliorant le plus souvent le confort. Il faut cependant veille à les surveiller très régulièrement, car ils sont source de gaspillage si les réglages dérivent.

Grille d’évaluation – Exemple

Dans les grilles d’évaluation, chacun des paramètres cités ci-dessus a été affecté d’une pondération (incidence quantitative) sous la forme d’un nombre d’étoiles.

Une grille d’évaluation est complétée pour chaque appareil ventilation. L’utilisateur remplit les cases blanches.

POSTE VENTILATION Type : Hotte sur fourneau
Caractéristiques : Hotte à induction
Puissance moteur : 3 kW
Efficacité énergétique / Paramètres Incidence Note (0 à +/- 3)* Bilan Décision
LE TRANSPORT DE L’AIR
Ventilateur * + 2 + 20
Conduit d’air ** + 2 + 40
LES DÉBITS D’AIR
Efficacité de la ventilation ** – 2 – 40 à voir
Efficacité de la hotte *** + 3 + 90
Transfert ** – 3 – 60 non
TRINÔME TEMPS/DÉBITS D’AIR/TEMPÉRATURE
Durée de ventilation *** – 1 – 30 oui
Réglage du débit **** – 3 – 120 à voir
Température de l’air ***** + 3 + 150
Récupérateur *** – 3 – 90 à voir
Automatismes *** – 3 – 90 non

* : La note résulte d’un examen de l’appareil concerné et de son utilisation.
Exemple : il existe 3 vitesses possibles sur la hotte. Celles-ci sont effectivement utilisées en fonction des besoins.
Le paramètre « réglage du débit » est noté +3 .

0 signifie « sans objet » par rapport aux critiques écrits dans le texte correspondant.


Concepts de base ayant une influence sur les consommations

Il y a d’autres facteurs que l’efficacité énergétique des appareils de cuisson et la façon de les utiliser qui influencent les consommations du poste. Ce sont d’autres considérations que l’énergie qui conduisent au choix de ces concepts.

Nous avons relevé les points suivants :

Le confort

Une cuisine ne respectant pas les débits minimums consomme moins qu’une cuisine les respectant.

Le type de cuisson

  • Les cuissons à haute température, et surtout celles à l’air libre (grillades, sauteuses et feux vifs) nécessitent de gros débits de ventilation.
  • La cuisson sous vide, inversement, ne nécessite que des débits très réduits.

De plus, la ventilation est intimement liée à la cuisson. Et donc tous les concepts influençant  les consommations du poste cuisson vont influencer celles du poste ventilation.

Lave-vaisselle – Description

Lave-vaisselle - Description


Le lavage de la vaisselle

Les conditions d’un lavage de qualité

Quatre types d’actions déterminent la qualité d’un bon lavage :

L’action de la température

Elle sera différente suivant l’opération et le résultat que l’on veut obtenir :

  • prélavage : environ 45°C,
  • lavage : 60°C,
  • rinçage et séchage : 85°C minimum,

L’action chimique

Cette action est due aux produits lessiviels utilisés pour le lavage et le rinçage. Ces produits sont injectés automatiquement dans la machine à partir de la quantité d’eau consommée.

Les dosages moyens utilisés sont :

  • pour les produits lessiviels : 1 g par litre d’eau,
  • pour les produits tensio-actifs (ou dispersants) : 0,1 g par litre d’eau de rinçage.

Action du temps de contact eau-vaisselle

Cette action a pour but de décoller efficacement les restes accrochés plus ou moins fortement aux pièces de vaisselle sale.

Action mécanique

Elle est due au débit et à la pression des jets d’eau.

Ces 4 actions sont intimement liées. Toute modification de l’une entraîne un réajustement des 3 autres.

Les étapes du lavage

Le programme de base d’un lave-vaisselle comporte le lavage et le rinçage.
Sur les machines à déplacement automatique, un pré-lavage, un pré-rinçage et un séchage peuvent s’ajouter. Un cycle de lavage comporte la succession de toutes les étapes prévues.

Les températures varient selon le cycle de lavage.

Le pré-lavage se fait avec de l’eau froide ou tiède entre 40 et 50°C.
Le pré-lavage a pour but de réhumidifier les souillures et de les éliminer grâce à l’action mécanique de jets.
Le pré-lavage a pour avantage que la température de la solution détergente qui intervient dans l’étape suivante peut être élevée sans problème.

Cette opération n’existe que sur les machines à déplacement automatique. Pour les machines à panier statique, cette étape est réalisée manuellement à l’aide de la douchette.

Outre les avantages cités, le pré-lavage permet également de réduire l’importance des souillures dans le ou les bacs de lavage. Il en résulte une nécessité moindre de produits lessiviels, par conséquent une économie réelle.

Le lavage se fait entre 55 et 60°.

À l’élévation de température et à l’action mécanique des jets liés à la puissance de la pompe s’ajoute la durée du contact solution du produit lessiviel / vaisselle.

Le pré-rinçage éventuel se fait entre 60 et 65°C.

Son but est de commencer l’élimination de la solution détergente pour éviter la précipitation des éléments minéraux lors du rinçage et du séchage. Il doit en outre élever la température des pièces pour faciliter l’opération suivante.

Le dernier rinçage se fait entre 80 et 90°C. Pour des raisons d’hygiène, la température de 90°C doit obligatoirement être atteinte, s’il n’y a pas de séchage.

Toute trace de liquide doit être éliminée pour deux raisons :

  • d’esthétique : la vaisselle qui doit rester nette et brillante,
  • d’hygiène alimentaire par l’absence de produit détergent qui peut provoquer des intoxications plus ou moins graves que l’on attribue le plus souvent à la nourriture.
    Il est important de faire vérifier le bon fonctionnement des appareils et d’y ajouter un contrôle par analyse de la vaisselle propre dans les grandes unités.

Le séchage

Le séchage est réalisé par circulation forcée d’air chaud à 70/80°C dans l’enceinte. L’air est chauffé par une résistance ou un échangeur alimenté en vapeur.

Cette pulsion se fait le plus souvent dans un tunnel ajouté à la sortie de la machine.
Cet accessoire n’existe que sur les machines à déplacement automatique (ou à translation).

Sur les machines à panier statique,  le séchage est assuré par l’élévation de la température de l’eau et de la vaisselle (évaporation) jointe à l’action d’un produit tensio-actif ajouté à l’eau de rinçage transformant les gouttes d’eau en film tendu à la surface de la vaisselle et séchant rapidement sans laisser de traces.


Conception technique

Dans tous les matériels, on trouve :

  • Des rampes fixes ou mobiles, munies de gicleurs de taille et débit variables selon le cycle, pour projeter l’eau sur la vaisselle.

Photo rampes fixes ou mobiles, munies de gicleurs. Photo rampes fixes ou mobiles, munies de gicleurs.

  • Des pompes de circulation d’eau captant l’eau en partie basse des bacs de prélavage, de lavage et de rinçage, pour, après filtrage, la projeter sur la vaisselle.

Photo pompes de circulation.

  • Une vidange partielle par débordement dans le bac de prélavage et de lavage qui assure l’élimination de la plus grande partie des déchets. La vidange totale est déclenchée manuellement après chaque service.
  • Deux doseurs : l’un de produits lessiviels, l’autre de produits de rinçage tensioactifs pour assurer automatiquement la diffusion de produit.
  • Des paniers adaptés aux différents types de vaisselle facilitent l’entreposage et la manutention.

Dans les lave-vaisselles à bacs multiples, l’eau est amenée par cascade de la zone la plus propre vers la zone la plus sale : rinçage -> pré-rinçage -> lavage -> prélavage. De l’eau claire n’est introduite dans le lave-vaisselle que lors de son remplissage initial et lors du rinçage. Un volume équivalent à l’eau utilisée lors du rinçage est évacué à l’égout au départ de la première zone de la machine (prélavage ou lavage). Ceci permet de limiter la consommation d’énergie, d’eau et des produits lessiviels.

Schéma principe lave-vaisselles à bacs multiples.

Dans les lave-vaisselle « mono-bac » ou « à panier statique« , le principe est le même, l’apport d’eau fraîche (claire) se fait également lors du rinçage, eau qui régénère l’eau de lavage.

L’eau chaude dans les bacs de pré-lavage et de lavage « tourne » donc en circuit fermé. Elle est envoyée sur la vaisselle par la pompe via les gicleurs des bras ou rampes de lavage. Elle retombe ensuite dans les bacs via des filtres, etc.

Détail d’un filtre et d’un bac de lavage.

Une machine à laver doit être alimentée « deux fois » : une fois au remplissage avant le service, une seconde fois pour l’eau de rinçage dès la vaisselle commencée. Elle est alimentée à ces deux niveaux, soit à l’eau chaude, soit à l’eau froide. Suivant le cas, les différentes puissances internes mises en jeu seront plus ou moins importantes. Mais dans les deux cas, il faut :

  • Une puissance pour l’eau de lavage.
    Cette puissance est, en principe, dimensionnée pour maintenir l’eau de lavage à bonne température (+/- 60°C).
    On pourrait croire qu’une résistance n’est pas nécessaire pour le maintien en température vu que l’eau de lavage provient du rinçage à température plus élevée (+/- 85°C).
    Cependant, d’une part, l’eau de rinçage se refroidit au contact de la vaisselle, d’autre part, les débits de lavage sont beaucoup plus élevés (action mécanique) que les débits de rinçage et ces derniers à température plus élevée ne suffisent donc pas à maintenir l’eau de lavage à bonne température.
    La résistance ainsi dimensionnée sert également à chauffer l’eau de la cuve de remplissage (+/- 20 litres dans le cas d’une machine à capot et de 90 à 550 litres dans le cas d’une machine à déplacement) en début de service.
    Dans le cas d’une alimentation de l’eau de remplissage à l’eau froide, la montée en température risque donc de prendre un certain temps.
  • Une autre puissance pour l’eau de rinçage.
    Celle-ci doit être suffisante pour chauffer cette eau jusqu’à la température de rinçage (85°C) à partir de la température du réseau de distribution dans le cas d’une alimentation en eau froide de cette eau de rinçage ou « simplement » à partir de la température de l’eau chaude dans le cas d’une alimentation en eau froide de cette eau de rinçage.
  • De plus si le lave-vaisselle dispose d’une zone de séchage, il faudra une puissance supplémentaire pour réchauffer l’air de séchage.

Remarques :

Les puissances internes peuvent provenir de résistances électriques. Mais elles peuvent également provenir d’un circuit de vapeur. L’alimentation vapeur consiste en le raccordement des organes de chauffe à une installation produisant de la vapeur. La vapeur circule dans des tubulures placées dans les différents bacs, l’échange de chaleur se faisant par contact de l’eau des bacs ou du surchauffeur avec les tubulures contenant la vapeur.
Actuellement, on trouve également des lave-vaisselle dont l’eau chaude est produite par un circuit d’eau chaude provenant d’une chaudière au gaz propre au lave-vaisselle.

Exemple de fonctionnement d’une machine à panier statique

1. Remplissage

Ouverture de la vanne électromagnétique A.

L’eau remplit la cuve E par les gicleurs de rinçage D. Le niveau atteint, fermeture de la vanne électromagnétique A. L’eau est chauffée par la résistance de lavage dans la cuve (cette résistance sert, dans la suite, à maintenir l’eau de lavage à température).

2. Lavage (circuit fermé)

La pompe G aspire la solution de lavage au travers de la crépine J et la refoule dans les gicleurs de lavage F.

3. Rinçage (circuit ouvert)

Ouverture de la vanne électromagnétique A.
Le produit de rinçage est injecté par le doseur B.
L’eau chauffée par C est pulvérisée par les gicleurs de rinçage.
Le niveau monte, le trop plein s’écoule par la bonde K.

Remarque : la capacité du boiler de rinçage correspond approximativement à la quantité d’eau de rinçage nécessaire à un cycle (exemple : 3 litres).
Sur certains matériels, le cycle ne peut commencer tant que la température de l’eau de rinçage n’est pas atteinte.

4. Vidange

En fin de service, enlèvement de la bonde K. L’eau de la cuve  E s’écoule vers la vidange.

Exemple de schéma de fonctionnement d’une machine à déplacement automatique de la vaisselle : machine à 4 zones de lavage : prélavage, lavage, rinçage, séchage

A : Prélavage, B : lavage, C : rinçage, D : Séchage.

1 : Pompe
2 : Bacs de prélavage et de lavage
3 : Filtres des bacs
4 : Chauffe-eau de rinçage
5 : Bras de lavage
6 : Résistance de lavage

Les différentes étapes

Le lave-vaisselle est rempli d’eau avant le service. L’eau est réchauffée jusqu’à bonne température par les résistances de lavage. Dès que l’eau de remplissage est arrivée à bonne température, le lavage peut commencer. La vaisselle passe dans les différentes zones où les différents éléments (pompes, résistances chauffantes, etc) se mettent à fonctionner au fur et à mesure du passage de la première vaisselle. En régime toutes les zones sont occupées en même temps; les différentes puissances fonctionnent en permanence.
Il existe une norme allemande, la DIN 10510, qui recommande un minimum de 2 minutes de temps de contact entre la vaisselle et l’eau (prélavage éventuel, lavage, rinçage(s)).

Le prélavage, le prérinçage et le séchage peuvent être absents sur les petites machines à paniers mobiles.


Commande et régulation

L’appareil est équipé d’un commutateur marche-arrêt et d’une minuterie.

Sur les machines à convoyeur, un dispositif de réglage commande la vitesse du convoyeur.

Des thermostats assurent la régulation de la température.

Des pressostats commandent les alimentations d’eau.

Il y a un arrêt automatique du convoyeur lorsque la vaisselle n’a pas été débarrassée.

On peut également éventuellement trouver des thermomètres indiquant les températures lors des différentes phases de lavage et des détecteurs de vaisselle au niveau du séchage.

Des unités de contrôle permettent de gérer et de contrôler la machine durant son fonctionnement. En fonction de leur sophistication, la quantité et qualité des informations peuvent varier du simple affichage des températures de lavage et de rinçage à la consommation d’énergie, l’indication en clair et la mémorisation des dysfonctionnements, l’impression de « rapports HACCP » ou le transfert des données vers un ordinateur permettant de surveiller le bon fonctionnement de la machine à distance.


Gamme

Les machines à panier fixe couvrent une gamme allant de 200 à 2 000 assiettes par heure (machine à double paniers).

Les machines à paniers mobiles ou à convoyeur couvrent une gamme allant de 1 600 à 8 000 assiettes par heure et parfois plus.

La puissance électrique varie selon la capacité, mais également selon le mode d’alimentation en eau (chaude ou froide). La gamme est donc très étendue : 4 kW à 100 kW.


Précautions d’utilisation

Il peut être intéressant de prévoir plusieurs appareils adaptés au type de vaisselle.

Le tri initial et l’élimination des déchets (« décrochage »), exécutés manuellement, conditionnent les performances de la machine.

Les couverts en inox peuvent nécessiter en outre un trempage manuel préalable.

Les plateaux nécessitent en complément un séchoir à plateaux par air pulsé préchauffé ou non.

Il est nécessaire d’utiliser de l’eau adoucie.
Ce résultat peut être obtenu par un adoucisseur d’eau spécialisé placé sur le réseau d’alimentation ou intégré à l’appareil.

Les produits lessiviels en poudre ou liquides sont utilisés pour le lavage et le rinçage.

Les opérations de chargement et de déchargement doivent être exécutées dans des délais compatibles avec la durée du cycle :


Entretien

Après chaque service, un nettoyage complet de la machine (cuve, filtre) est nécessaire.

Un programme d’entretien préventif par l’installateur de la machine est conseillé pour garantir son bon fonctionnement à long terme.


« Accessoires »

L’après-rinçage à l’eau déminéralisée

Lorsque l’eau présente une forte teneur minérale, les aptitudes performantes des produits de rinçage se voient imposer des limites. Pour pallier à cela, l’utilisation d’eau déminéralisée apporte une solution. Afin de limiter le coût de traitement de l’eau, l’usage d’eau déminéralisée peut être limité à certaines pièces comme couverts et verres. Ils sont placés en paniers spéciaux équipés d’un système mécanique, optique ou magnétique d’enclenchement des jets d’eau déminéralisée à leur passage lors du rinçage final. De nombreuses machines à avancement automatique sont déjà équipées d’un tel système de rinçage.
Ce déclenchement sélectif permet de ne pas gaspiller inutilement l’eau déminéralisée pour des pièces de vaisselle n’en nécessitant pas (porcelaine, plateaux, récipients.etc.).

Les bacs et cuves thermoformés

L’utilisation du polypropylène comme matériau de fabrication des cuves présente quelques avantages :

  • diminution du poids des équipements,
  • suppression des soudures source d’accrochage et dépose des aliments et résidus,
  • diminution de la conductivité thermique avec économie d’énergie,
  • diminution du bruit au niveau du brassage de l’eau.

Isoler un mur creux par remplissage de la coulisse

Isoler un mur creux par remplissage de la coulisse


Limites d’application

On évite l’isolation dans la coulisse dans les cas suivants :

  • Lorsque le niveau d’isolation thermique souhaité ne peut pas être atteint à cause de l’épaisseur insuffisante de la coulisse.
  • Lorsque la surface extérieure du mur est imperméable à la vapeur d’eau.
    En effet, lorsqu’on isole dans la coulisse, l’eau présente dans le parement provenant des infiltrations des pluies et/ou de la condensation interstitielle, doit pouvoir être évacuée par le séchage du parement, qui, à cause de la présence de l’isolant, n’est plus possible que par la face extérieure.
    Si le revêtement extérieur est une peinture, on peut enlever cette dernière, mais ceci n’est pas facile à réaliser.
  • Lorsque la maçonnerie de parement est gélive. Soit, elle présente des briques effritées et/ou des joints expulsés, soit le test d’un échantillon en laboratoire a montré qu’elle serait incapable de résister aux contraintes provoquées par le remplissage de la coulisse.
    En effet, lorsqu’on place une isolation dans la coulisse, le mur de parement subit moins les influences de la température intérieure. Il sera plus froid en hiver et plus chaud en été. Le mur de parement subit des variations de température plus grandes et plus fréquentes; les contraintes thermiques sont plus importantes.
  • Lorsque la façade comporte des ponts thermiques importants ne pouvant être corrigés.
  • Lorsque la paroi intérieure n’est pas étanche à l’air (maçonnerie non enduite).
  • Lorsqu’il y a de la mousse sur la brique de façade.
  • Lorsque les barrières d’étanchéité sont absentes ou inefficaces.

Vérification et mesures préliminaires

> Avant d’entamer les travaux, un examen préalable de la coulisse doit être réalisé pour vérifier l’état et la qualité du mur creux. Cet examen est facilement réalisable, sans démontage du mur, au moyen d’un appareil spécialisé tel que l’endoscope.

Endoscope appareil permettant l’observation à distance à l’intérieur d’un corps creux par l’intermédiaire d’un trou de 10 à 12 mm de diamètre foré dans les joints de mortier.

On vérifie ainsi :

  • La possibilité de traiter les ponts thermiques au droit des linteaux, des retours de baies, des planchers, des pieds de mur, de la corniche, etc.
  • L’absence de gravats, de déchets et autres matériaux dans la coulisse.
  • La disposition correcte des crochets entre les deux parois du mur.
  • L’existence des membranes d’étanchéité correctement disposées.
  • La présence d’ouvertures de drainage de la coulisse disposées juste au-dessus des membranes d’étanchéité.

Détail au droit d’une fenêtre – Vue en plan

Correction d’un pont thermique.

  

Pénétration d’eau via les déchets de mortier ou morceau de brique calés entre les deux parois.

Pénétration d’eau via crochet d’ancrage mal positionné.

Détail à la base d’un mur

Mauvaise pause d’une membrane d’évacuation de l’eau au-dessus d’un linteau.

Correction avec démontage du parement et encastrement de la membrane dans la paroi intérieure.

> Les éventuels problèmes d’humidité ascensionnelle doivent d’abord être résolus; la faculté d’assèchement du mur étant amoindrie par le remplissage de la coulisse.


Choix du système d’isolation

Il existe différents moyens et matériaux isolants pour remplir la coulisse.

On choisit, en général, le système qui consiste à insuffler un isolant en vrac. La technique d’injection de mousse est actuellement peu pratiquée. Elle nécessite un contrôle précis du remplissage et de l’expansion de la mousse pour éviter une déformation du parement suite à la pression provoquée.

Le recours à un système d’isolation bénéficiant d’un agrément technique est vivement conseillé.

Le matériau isolant doit :

  • ne pas être capillaire ni hydrophile (il ne peut absorber ni retenir l’eau),
  • être suffisamment perméable à la vapeur d’eau,
  • avoir une consistance suffisante pour ne pas s’affaisser.

Grill et plaques à snacker électriques

Grill et plaques à snacker électriques


Principe

Le grill est utilisé pour des cuissons de pièces peu épaisses par contact avec l’élément chauffant.


Description

Il existe plusieurs types d’appareils comportant  :

  • Soit des plaques lisses (plaques à snacker) ou rainurées, en fonte, en chrome ou en vitrocéramique, chauffées par des résistances.
  • Soit des barreaux rapprochés en fonte, en acier, ou en acier inox, les éléments chauffants étant incorporés (cuisson par contact), ou dissociés des barreaux (cuisson par rayonnement).
  • Soit des grilles situées au-dessus d’un lit de blocs en céramique portés à incandescence par des résistances : cuisson par rayonnement.

Certains appareils sont dotés de deux plaques chauffantes rainurées superposables et articulées dont l’écartement varie selon l’épaisseur de l’aliment; ils permettent une cuisson simultanée sur deux faces.

Dans tous les cas, la répartition de la température doit, être uniforme sur toute la surface de cuisson.

L’inclinaison donnée aux plaques facilite l’évacuation des jus de cuisson dans une rigole placée à l’avant.

Pour les grills à barreaux, le jus de cuisson tombe dans un tiroir de récupération contenant de l’eau.


Commande et régulation

La régulation est assurée par thermostat ou par doseur d’énergie avec limiteur de température.


Gamme

Pour une production horaire moyenne de 40 à 250 portions, les surfaces s’échelonnent de 5 dm2 à 35 dm2.

En général, il faut prévoir 0,1 dm² par rationnaire, la puissance électrique étant de l’ordre de 200 à 300 W par dm2.


Utilisation

(viandes, poissons); les plaques lisses ont d’autres usages tels que la cuisson des œufs.

Cet appareil trouve sa place aussi bien en restauration rapide qu’en restauration commerciale et collective.
Il est utilisé dans les services diététiques des établissements à caractère hospitalier.

Variateurs de vitesse

Variateurs de vitesse

(Source : « L’essentiel sur les variateurs de vitesse »; Danfoss drive a/s).


 

Principe de base des variateurs de vitesse

Depuis la venue de la technologie des semi-conducteurs, la variation de vitesse électronique des moteurs électriques a pris le dessus sur les anciens systèmes tels que les groupes Ward-Léonard.

Cette technologie, devenue fiable, part toujours du même principe : à partir d’une source, la plupart du temps triphasée alternative pour les ascenseurs, le variateur de vitesse va recréer en sortie :

  • Une tension triphasée variable en fréquence et en amplitude pour les moteurs à courant alternatif.
  • Une tension continue variable en amplitude pour les moteurs à courant continu.

Le variateur de vitesse est composé essentiellement :

  • d’un redresseur qui, connecté à une alimentation triphasée (le réseau), génère une tension continue à ondulation résiduelle (le signal n’est pas parfaitement continu). Le redresseur peut être de type commandé ou pas,
  • d’un circuit intermédiaire agissant principalement sur le « lissage » de la tension de sortie du redresseur (améliore la composante continue). Le circuit intermédiaire peut aussi servir de dissipateur d’énergie lorsque le moteur devient générateur,
  • d’un onduleur qui engendre le signal de puissance à tension et/ou fréquence variables,
  • d’une électronique de commande pilotant (transmission et réception des signaux) le redresseur, le circuit intermédiaire et l’onduleur.

Le variateur de vitesse est principalement caractérisé selon la séquence de commutation qui commande la tension d’alimentation du moteur. On a :

  • les variateurs à source de courant (CSI),
  • les variateurs à modulation d’impulsions en amplitude (PAM),
  • les variateurs à modulation de largeur d’impulsion (PWM/VVC).


Fonction des variateurs de vitesse

Au niveau des ascenseurs, parmi la multitude de possibilités de fonctions qu’offrent les variateurs de vitesse actuels, on épinglera :

  • l’accélération contrôlée,
  • la décélération contrôlée,
  • la variation et la régulation de vitesse,
  • l’inversion du sens de marche,
  • le freinage d’arrêt.

L’accélération contrôlée

Le profil de la courbe de démarrage d’un moteur d’ascenseur est avant tout lié au confort des utilisateurs dans la cabine. Il peut être soit linéaire ou en forme de « s ». Ce profil ou « rampe » est la plupart du temps ajustable en permettant de choisir le temps de mise en vitesse de l’ascenseur.

La décélération contrôlée

Les variateurs de vitesse permettent une décélération contrôlée sur le même principe que l’accélération. Dans le cas des ascenseurs, cette fonction est capitale dans sens où l’on ne peut pas se permettre de simplement mettre le moteur hors tension et d’attendre son arrêt complet suivant l’importance du couple résistant (le poids du système cabine/contre-poids varie en permanence); Il faut impérativement contrôler le confort et la sécurité des utilisateurs par le respect d’une décélération supportable, d’une mise à niveau correcte, …
On distingue, au niveau du variateur de vitesse deux types de freinage :

  • En cas de décélération désirée plus importante que la décélération naturelle, le freinage peut être électrique soit par renvoi d’énergie au réseau d’alimentation, soit par dissipation de l’énergie dans un système de freinage statique.
  • En cas de décélération désirée moins importante que la décélération naturelle, le moteur peut développer un couple moteur supérieur au couple résistant de l’ascenseur et continuer à entraîner la cabine jusqu’à l’arrêt.

La variation et la régulation de vitesse

Parmi les fonctionnements classiques des variateurs de vitesse, on distingue :

  • La variation de vitesse proprement dite où la vitesse du moteur est définie par une consigne d’entrée (tension ou courant) sans tenir compte de la valeur réelle de la vitesse du moteur qui peut varier en fonction de la charge, de la tension d’alimentation, … On est en boucle « ouverte » (pas de feedback).

Boucle ouverte.

  • La régulation de vitesse où la consigne de la vitesse du moteur est corrigée en fonction d’une mesure réelle de la vitesse à l’arbre du moteur introduite dans un comparateur. La consigne et la valeur réelle de la vitesse sont comparées, la différence éventuelle étant corrigée. On est en boucle « fermée ».

Boucle fermée.

L’inversion du sens de marche

Sur la plupart des variateurs de vitesse, il est possible d’inverser automatiquement le sens de marche. L’inversion de l’ordre des phases d’alimentation du moteur de l’ascenseur s’effectue :

  • soit par inversion de la consigne d’entrée,
  • soit par un ordre logique sur une borne,
  • soit par une information transmise par une connexion à un réseau de gestion.

Le freinage d’arrêt

C’est un freinage de sécurité pour les ascenseurs :

  • Avec des moteurs asynchrones, le variateur de vitesse est capable d’injecter du courant continu au niveau des enroulements statoriques et par conséquent stopper net le champ tournant; la dissipation de l’énergie mécanique s’effectuant au niveau du rotor du moteur (danger d’échauffement important).
  • Avec des moteurs à courant continu, le freinage s’effectue au moyen d’une résistance connectée sur l’induit de la machine.


Le redresseur

Redresseur triphasé.

Les ascenseurs sont généralement alimentés par un réseau triphasé alternatif à fréquence fixe (50 Hz). La fonction du redresseur au sein du variateur de vitesse est de transformer la tension triphasée alternative en tension continue monophasée. Cette opération se réalise par l’utilisation :

  • soit d’un pont de diodes, le redresseur est « non-commandé »,
  • soit d’un pont de thyristors, alors le redresseur est commandés.

Le redresseur non commandé

Comme le montre la figure ci-dessous, des deux alternances d’une tension monophasée alternative (positive et négative), seule l’alternance positive passe à travers la diode entre les électrodes couramment appelées « anode » et « cathode »; on dit que la diode est « passante ».

Fonctionnement de la diode .

Pour obtenir une tension continue à la sortie du redresseur, il est nécessaire de trouver un système qui permette d’exploiter les deux alternances; c’est le pont de diodes.

Dans un redresseur triphasé non-commandé, le pont de diodes permet, comme le montre la figure ci-dessus, de générer une tension continue en redressant l’alternance négative de chaqu’une des trois tensions composées. On voit que la tension de sortie n’est pas tout à fait continue et comporte une ondulation résiduelle.

Redresseurs non-commandés.

La tension à ondulation résiduelle sortant du redresseur a une valeur moyenne de l’ordre de 1,35 fois la tension du réseau.

Tension à ondulation résiduelle.

Le redresseur commandé

Dans le redressement commandé d’une tension alternative, la diode est remplacée par le thyristor qui possède la particularité de pouvoir contrôler le moment ou il deviendra « passant » dans l’alternance positive. C’est la troisième électrode, appelée « gâchette », qui, lorsqu’elle est alimenté sur commande par la régulation du redresseur, devient conductrice. Tout comme la diode, le thyristor est « bloquant » durant l’alternance « négative ».

Fonctionnement du thyristor.

On voit tout de suite l’intérêt du thyristor par rapport à la diode : on peut faire varier la valeur de la tension moyenne de sortie en contrôlant le moment où l’impulsion sera donnée sur la gâchette pour rendre le thyristor « passant ».
Dans un redresseur triphasé commandé, le pont de thyristors permet, comme le montre la figure ci-dessus :

  • De générer une tension continue en redressant l’alternance négative de chaqu’une des trois tensions composées. On voit que la tension de sortie n’est pas tout à fait continue et comporte une ondulation résiduelle.
  • De faire varier le niveau de tension moyenne à la sortie du redresseur.

Redresseurs commandés.

Tension de sortie du redresseur.


Le circuit intermédiaire

Circuit auxiliaire.

Ce circuit joue plusieurs rôles suivant les options prises sur le type de variateur dont principalement le lissage en courant ou en tension du signal de sortie du redresseur et le contrôle du niveau de tension ou de courant d’attaque de l’onduleur. Il peut aussi servir à :

  • découpler le redresseur de l’onduleur,
  • réduire les harmoniques,
  • stocker l’énergie due aux pointes intermittentes de charge.

On différentie le circuit intermédiaire à :

  • À courant continu variable lorsque le redresseur est commandé (variation de la tension de sortie du redresseur).
  • À tension continue variable ou constante lorsque le redresseur est respectivement commandé ou pas.
  • À tension variable lorsque le redresseur est non-commandé.

Le circuit intermédiaire à courant continu variable

Ce type de circuit intermédiaire caractérise les variateurs à source de courant. Il est composé d’une bobine (ou self) de lissage « passe bas » (filtration des basses fréquences) permettant de réduire l’ondulation résiduelle. En d’autres termes la bobine transforme la tension de sortie du redresseur à ondulation résiduelle en un courant continu.

Circuit intermédiaire à courant continu variable.

Le circuit intermédiaire à tension continue constante ou variable

Ce type de circuit intermédiaire caractérise les variateurs à source de tension. Il est composé d’une bobine (ou self) de lissage « passe bas » (filtration des basses fréquences) et d’un condensateur « passe haut » (filtration des hautes fréquences) permettant de réduire l’ondulation résiduelle.

Pour un redresseur commandé, le circuit intermédiaire transforme la tension de sortie à ondulation résiduelle du redresseur en tension continue d’amplitude variable.

Pour un redresseur non-commandé, la tension à l’entrée de l’onduleur est une tension continue dont l’amplitude est constante.

Circuit intermédiaire à tension continue constante ou variable.

Le circuit intermédiaire à tension variable

À l’entrée du filtre est ajouté un hacheur composé d’un transistor et d’une diode « roue libre ». Dans ce cas, le circuit intermédiaire transforme la tension continue de sortie du redresseur à ondulation résiduelle en une tension carrée lissée par le filtre. Il en résulte la création d’une tension variable suivant que le pilote du hacheur rende le transistor « passant » ou pas.

Circuit intermédiaire à tension variable.


L’onduleur

Onduleur triphasé.

L’onduleur constitue la dernière partie du variateur de vitesse dans le circuit puissance.

Alimenté à partir du circuit intermédiaire par :

  • une tension continue variable ou constante,

Onduleur pour tension intermédiaire variable ou continue.

  • un courant continu variable,

Onduleur pour courant intermédiaire continu variable.

L’onduleur fournit au moteur une grandeur variable en tension ou en fréquence ou les deux en même temps suivant le cas. En effet, une alimentation de l’onduleur :

  • En tension ou en courant continue variable, lui permet de réguler la vitesse du moteur en fréquence.
  • En tension continue constante, lui impose de réguler la vitesse du moteur en tension et en fréquence.

Bien que les fonctionnements des onduleurs soient différents, la technologie reste plus ou moins identique. Pour une raison de souplesse de commande en fréquence, les onduleurs sont maintenant équipés de transistors haute fréquence plutôt que de thyristors. Ce type de transistor de puissance peut être allumé et éteint très rapidement et, par conséquent, couvrir une large plage de fréquence (entre 300 Hz et 20 kHz).


Modes de fonctionnement de l’onduleur

On distingue plusieurs modes de fonctionnement des onduleurs en fonction principalement du signal de sortie du circuit intermédiaire :

  • le fonctionnement en modulation d’impulsion en amplitude (PAM : Pulse Amplitude Modulation),
  • le fonctionnement en modulation de largeur d’impulsion (PWM : Pulse Width Modulation).

Mode de modulation en amplitude ou en largeur d’impulsion.

Modulation d’impulsion en amplitude

Ce type de modulation est utilisé lorsque le variateur de vitesse est à tension intermédiaire variable.
Comme on l’a vu dans le circuit intermédiaire :

  • Pour les variateurs avec redresseurs non-commandés, un hacheur est nécessaire pour générer une tension variable au niveau de l’onduleur.
  • Pour les variateurs avec redresseurs commandés, la variation de l’amplitude de la tension est générée par le redresseur lui-même.

Circuit intermédiaire à tension variable par le hacheur.

Quel que soit le système, l’onduleur reçoit à son entrée une tension continue variable en amplitude. Dans ce cas, l’onduleur, lui, ne fait varier que la fréquence d’allumage et d’extinction des thyristor ou des transistors en fonction du niveau de la tension d’entrée pour recréer une tension sinuzoidale (dans le cas d’un moteur à courant alternatif).

Modulation de largeur d’impulsion (PWM)

Ce type de modulation est souvent utilisé pour générer une tension triphasée à fréquence et tension variables.

Il existe 3 manières de gérer la commutation des thyristors ou des transistors de puissance :

  • PWM à commande par sinusoïde,
  • PWM synchrone pour limiter les harmoniques,
  • PWM asynchrone pour améliorer la réaction du moteur à toute modification rapide de la commande du variateur de fréquence.

Dans un souci de clarté, seule la PWM à commande par sinusoïde est expliquée ci-dessous :

Le principe de commande de l’onduleur réside dans l’utilisation d’un comparateur de tensions. Ce comparateur superpose à trois tensions sinusoïdales de référence une tension de forme triangulaire. La fréquence des trois sinusoïdes de référence correspondent à celle des tensions souhaitées à la sortie de l’onduleur. Les intersections entre les sinusoïdes et l’onde triangulaire détermine l’allumage ou l’extinction des thyristors (ou des transistors de puissance) selon le cas. Il en résulte un temps d’impulsion « passante » ou « non-passante » variable reconstituant un courant sinusoïdal en sortie du variateur de vitesse.

Principe PWM à commande par sinusoïde.

Attention, dans ce type de commande, il faudra être attentif à la génération d’harmoniques responsables de perturbation du réseau amont. Dans ce cas, une commande PWM synchrone limite la création d’harmoniques.


Le circuit de commande

Le circuit de commande ne fait pas partie du circuit puissance du variateur de vitesse. Ce circuit doit garantir quatre fonctions essentielles :

  1. La commande des semi-conducteurs du variateur de vitesse.
  2. L’échange d’informations de commande, de régulation et d’analyse avec les périphériques.
  3. Le contrôle des défauts (interprétation et affichage).
  4. La protection du variateur de vitesse et du moteur.

La venue des microprocesseurs a permis d’accroître la vitesse d’exécution des informations de commande et de régulation du circuit de commande vis à vis des autres circuits (circuit intermédiaire, onduleur, …).

Le circuit de commande est donc en mesure de déterminer le schéma optimum d’impulsions des semi-conducteurs pour chaque état de fonctionnement du moteur par rapport à la charge, au réseau, aux consignes de commande, …

La régulation de vitesse de moteurs triphasés à courant alternatif évolue selon deux principes de commandes différents :

  • la commande U/f (Scalaire),
  • la commande vectorielle de flux (VVC : Voltage Vector Control).

Ces principes déterminent la manière de programmation des algorithmes de commande et de régulation des variateurs de vitesses. Les deux méthodes présentent des avantages en fonction des exigences spécifiques des performances (couple, vitesse, …) et de la précision de l’entraînement.

La commande U/f (scalaire)

La commande U/f se base sur la mesure de grandeurs scalaires (valeurs d’amplitude en tension et en fréquence). C’est le système de commande de base des variateurs de fréquence standards.

Afin de garder un flux constant dans le moteur et donc aussi une variation de vitesse à couple constant la tension et la fréquence varient proportionnellement jusqu’à la fréquence nominale du moteur (50 Hz). Lorsque la tension nominale est atteinte, la tension ne sachant plus augmenter, il est toujours possible d’augmenter la fréquence; dans ce cas la variation se fait à puissance constante , le couple diminue avec la vitesse. Ce mode de fonctionnement est intéressant pour des charges à couple constant tels que les ascenseurs. En effet, le couple moteur « colle » mieux au profil du couple résistant; ce qui signifie que les consommations qui en découlent sont moindres.

Fonctionnement U/f constant.

Fonctionnement à couple constant sous une fréquence de 50 Hz.

La figure ci-dessous montre les profils des courbes du couple en fonction de la vitesse pour différents rapports U/f :

Fonctionnement à couple constant.

La commande U/f a les avantages et les inconvénients suivants :

(+)

  • facilité d’adaptation du variateur de vitesse au moteur.
  • supporte aisément les variations de charge dans toute la plage de vitesses.
  • le couple moteur reste plus ou moins constant en fonction de la vitesse.

(-)

  • plage de régulation de la vitesse limitée à 1/20.
  • à faible vitesse, pas de compensation par rapport au glissement et à la gestion de la charge.

La commande vectorielle de tension (ou de flux)

Pour ce type de commande, il est nécessaire de fournir des indications précises sur les paramètres du moteur (encodage de la plaque signalétique).

La commande vectorielle en tension (VVC : Voltage Vector Control) agit selon le principe de calcul de la magnétisation optimale du moteur à différentes charges à l’aide de paramètres de compensation permettant de contrôler le glissement et la charge du moteur.

Comme son nom l’indique, la commande vectorielle en tension travaille avec les vecteurs de tension à vide et de compensation par rapport à la variation de la charge.

La commande vectorielle à champ orienté travaille avec les valeurs des courants actifs, de magnétisation (flux) et du couple. Par un modèle mathématique approprié, il est possible de déterminer le couple nécessaire au moteur en fonction des vecteurs du flux statorique et du courant rotorique et ce afin d’optimiser et réguler le champ magnétique et la vitesse du moteur en fonction de la charge.

La commande vectorielle de flux a les avantages et inconvénients suivants :

(+)

  • bonne réaction aux variations de charge.
  • régulation précise de la vitesse.
  • couple intégral à vitesse nulle.
  • performance semblable aux entraînements à courant continu.
  • réaction rapide aux variations de vitesse et large plage de vitesses (1/100).
  • meilleure réaction dynamique aux variations de sens de rotation.
  • une seule stratégie de commande pour toute la plage de vitesse est nécessaire.

(-)

  • nécessite de connaître les caractéristiques précises du moteur.


L’optimisation automatique de l’énergie

Dans des applications telles que celles des ascenseurs (faible charge des ascenseurs à traction), des économies d’énergie peuvent être réalisées en réduisant la force du champ magnétique et par conséquent les pertes dans le moteur. En effet, en général, pour des installations classiques, les moteurs sont surmagnétisés par rapport au couple à fournir.

Dans beaucoup d’applications, on pourra fixer le rapport U/f afin d’optimiser les consommations énergétiques. Un compromis sera trouvé entre l’économie d’énergie et les besoins réels du moteur en couple minimal pour un rotor bloqué (ou couple de décrochage).

L’économie d’énergie pour des systèmes moyens d’entraînement est de l’ordre de 3 à 5 % pour des faibles charges.

 

Conserver par le froid – Objectifs

Températures de conservation

La liste des températures à garantir est donnée ci-dessous à titre indicatif. Elle nous a été fournie par un fabricant.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 20 à – 30 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Un document contenant une liste beaucoup plus complète et intitulé : HACCP pour PME et artisans – Auteurs Catherine Quittet et Helen Nelis peut être obtenu auprès – Réalise par L’Unite de Technologie des IAA a la Faculte universitaire des Sciences agronomiques de Gembloux, Le Laboratorium voor Levensmiddelentechnologie de la KU Leuven en collaboration avec l’Inspection générale des denrées alimentaires, l’Institut d’expertise vétérinaire, le service d’Inspection du Ministere de l’Agriculture Finance par le SSTC de l’Unité de Technologie des IAA de la Faculté universitaire des sciences agronomiques de Gembloux au 081/62 23 03.

Concevoir les détails: le raccord mur-toiture-plancher [isolation]

Concevoir les détails de réalisation : le raccord mur-toiture-plancher


Schéma raccord mur-toiture-plancher- 01.

  1. Mur porteur
  2. Mur de parement
  3. Isolant thermique
  4. Structure portante (gîtes)
  5. Aire de foulée
  6. Pare-vapeur
  7. Espace technique
  8. Finition intérieure
  9. Chevron
  10. Sous-toiture
  11. Contre-lattes
  12. Lattes
  13. Couverture
  14. Panne sablière

Schéma raccord mur-toiture-plancher- 02.

La continuité de l’isolation thermique est assurée par un bloc peu conducteur de la chaleur (exemple : bloc de béton cellulaire).

  1. Mur porteur
  2. Mur de parement
  3. Isolant thermique
  4. Structure portante (gîtes)
  5. Aire de foulée
  6. Pare-vapeur
  7. Espace technique
  8. Finition intérieure
  9. Chevron
  10. Sous-toiture
  11. Contre-lattes
  12. Lattes
  13. Couverture
  14. Panne sablière
  15. Poutre de ceinture
  16. Blocs peu conducteur de la chaleur

Organiser la maintenance de l’éclairage

Organiser la maintenance de l'éclairage


Dégradation des performances avec le temps

Le vieillissement d’une installation d’éclairage va se manifester par une perte progressive d’efficacité et par l’apparition, au-delà d’un certain temps, de défaillances des lampes.

photo luminaire extérieur sale.

La perte d’efficacité lumineuse provient de :

  • La baisse du flux lumineux émis, de l’ordre de 7 à 50 % en fin de vie (moyenne) des lampes.
  • La baisse du rendement des luminaires, liée à l’empoussièrement et au jaunissement des optiques (réflecteurs et diffuseurs) et des sources, de l’ordre de 5 à 26 % dans un local propre (bureaux, écoles, zones communes des hôpitaux, magasins, …) si les luminaires sont nettoyés tous les 3 ans.
  • À la réduction des facteurs de réflexion du local.

Dépôt de poussière sur un tube fluorescent disposé,
depuis 3 ans, dans un luminaire ouvert, dans un bureau standard.


Programme général de maintenance

L’objectif de la maintenance est de restituer à l’installation tout ou partie de son efficacité initiale. Le programme de maintenance peut être de trois types :

La maintenance préventive :

  • Procédure : remplacement en une seule fois de toutes les lampes à intervalle de temps régulier.
  • Avantage : maintenance aisée.
  • Inconvénient : le système comportera obligatoirement un certain nombre de lampes hors service.

La maintenance curative :

  • Procédure : remplacement des lampes hors services au coup par coup.
  • Avantage : le système ne comporte pas de lampes hors service.
  • Inconvénient : l’installation tend à maintenir un flux en général moyen ce qui conduit à un surdimensionnement important et le service de maintenance technique doit être prêt à intervenir n’importe quand.

La maintenance mixte :

  • Procédure : combinaison des deux programmes précédents.
  • Avantage : le système ne comporte pas de lampes hors service et maintient un éclairement en service relativement bon (surdimensionnement faible).
  • Inconvénient : le service de maintenance technique doit être prêt à intervenir n’importe quand.

Chacun de ces programmes a un domaine d’application privilégié. Mais pour déterminer quel type de programme sera le plus approprié, il est nécessaire de mener une étude comparative.

À noter que la planification de la maintenance ne se limite pas au choix du type de programme. Chaque programme est en effet caractérisé par plusieurs paramètres (sorte de lampe, intervalle de temps entre deux relamping, …). Et il est nécessaire de réaliser plusieurs études pour déterminer quelles seront les valeurs optimales de chacun de ces paramètres.


Remplacement des lampes

Photo remplacement des lampes - 01. Photo remplacement des lampes - 02. Photo remplacement des lampes - 03.

Principe

Le remplacement des lampes doit toujours être fait en s’assurant que la lampe neuve a des caractéristiques électriques (puissance plus spécialement) et lumineuses (température de couleur et indice du rendu des couleurs) identiques à celles de la lampe usagée, sauf si on en profite pour améliorer l’installation (remplacement des tubes fluorescents T12 par des T8, des types 33/640 par des types 840, …).

La durée de vie des lampes, indiquée dans les catalogues, est la durée de vie moyenne d’un grand nombre de sources du même type. En réalité une grande dispersion existe sur les durées de vie des lampes d’un même modèle (couramment de l’ordre de 25 %) ce qui conduit l’exploitant à s’interroger sur l’opportunité de remplacer les lampes au « coup par coup » ou de procéder à un remplacement préventif par groupes ou en totalité avant que leur durée de vie ne soit complètement écoulée.

Les considérations qui suivent devraient orienter l’utilisateur dans le choix du mode de remplacement des lampes :

  • Pour des installations comportant de nombreuses lampes, il est économique de ne pas les remplacer au fur et à mesure de leur défaillance, mais de les changer systématiquement dès qu’elles ont atteint leur durée de vie de service, et à l’occasion d’un nettoyage. Cette façon de procéder entraîne une planification de l’entretien.
  • Le remplacement préventif a pour avantages de diminuer le temps unitaire de pose de la lampe (souvent estimés dans le rapport 1 à 6), de réduire la gêne pour les utilisateurs et de garantir le maintien du flux lumineux. Il augmente par contre les dépenses d’approvisionnement du coût des lampes remplacées sans attendre leur défaillance.

 Calculs

Pour comparer les différents programmes de maintenance entre eux.

Remplacement au coup par coup et remplacement préventif : comparaison économique
Le bilan économique du type de remplacement dépend donc du type de lampe et du rapport entre les coûts d’approvisionnement et de pose. Dans le cas des tubes fluorescents, le remplacement systématique est, en général, nettement plus économique.

Exemple.

La durée de vie moyenne d’une lampe est de 8 000 heures (avec ballast électromagnétique), mais à partir de 6 000 heures, le flux lumineux chute très vite et le risque de « claquage » prématuré augmente statistiquement. Si l’on estime à 30 minutes le temps pour changer un tube au coup par coup et 10 minutes pour les changer tous en même temps, on obtient les coûts d’entretien suivants (ramenés à l’heure de fonctionnement).

Coût du remplacement au coup par coup T + H/2
_______
8 000
Coût du remplacement préventif T + H/6
_______
6 000

T = prix d’un tube
H  = prix de l’heure de travail

Si le coût du tube (de 2,5 à 7,5 €) est inférieur au prix de cinq sixièmes d’heure d’intervention (T < 5/6 H), l’entretien systématique est rentable.

Dans la pratique, une règle simple veut que l’on remplace toutes les lampes lorsque l’on a atteint 20 % de lampes défectueuses. Évidemment, lorsqu’il s’agit de l’éclairage local d’un poste de travail, la lampe défectueuse sera remplacée immédiatement.


Nettoyage des luminaires et des locaux

 Photo nettoyage des luminaires. Photo nettoyage des luminaires.

Dans un contexte d’économie d’énergie et de recherche d’efficacité de l’éclairage, il est nécessaire d’établir un plan de nettoyage périodique de l’installation et des surfaces du local.

Les lampes, les luminaires et les parois sont sujets à l’empoussièrement ; celui-ci ne doit jamais atteindre un degré tel que l’éclairement total tombe à une valeur inférieure à celle imposée.

Dans le cas d’un nettoyage annuel, on doit s’attendre à une chute de l’éclairement de l’ordre de 10 à 15 %, ce qui met en évidence l’importance du facteur nettoyage pour le maintien de l’efficacité lumineuse.

La fréquence du nettoyage doit être fixée suivant l’intensité de l’empoussièrement. Généralement, une intervention tous les 6 mois permet d’obtenir de bons résultats.

Si ce dernier est particulièrement accusé, il est recommandé d’utiliser des luminaires étanches à la poussière, à parois translucides astatiques. Le nettoyage comprend le nettoyage des lampes et le nettoyage des luminaires (il convient de s’informer auprès du fabricant sur la manière et les précautions à prendre pour le dépoussiérage et le nettoyage des diverses surfaces).

Le plan de maintenance doit également tenir compte d’un nettoyage et rafraîchissement des vitrages, parois, rideaux, qui contribuent à l’éclairage naturel des locaux.


Recyclage des lampes défectueuses

Que faire des lampes défectueuses ?

Certaines lampes contiennent des matériaux toxiques (principalement du mercure) qu’il faut éviter de laisser échapper dans l’atmosphère ou dans le sol.

Les lampes usagées ne peuvent donc être déposées en décharge normale, sans traitement. Celui-ci consiste principalement en un broyage qui permet de séparer les poudres fluorescentes, le verre et les parties métalliques. Les dernières techniques mises au point permettent de récupérer des matériaux purs aptes à la fabrication de nouvelles lampes.

La récupération des lampes doit donc se faire par des entreprises agréées à cet effet.

Consommation d’eau chaude sanitaire

Consommation d'eau chaude sanitaire


Caractéristiques de puisage des appareils

Dans les établissements industriels (source : Recknagel).

Débit Température
d’eau [°C]
Énergie consommée par utilisation [kWh]
Débit [l/mn] Durée [min] Par utilisation [l]

Lavabo individuel

10 3 30 35 0,9

Lavabo-auge collectif

– à robinet

5 à 10 3 15 à 30 35 0,5 à 0,9

– à pissette

3 à 5 3 9 à 15 35 0,25 à 0,50

Lavabo collectif circulaire

– à 6 places

20 3 60 35 1,8

– à 10 places

25 3 75 35 2,2

Douche commune

10 5 50 35 1,5

Douche en cabine

10 15 80 35 2,3

Baignoire

25 30 250 35 7,3

Valeur moyenne y compris les besoins de cuisine

50 l par jour et par personne 40 1,75 kWh par jour et par personne

Voici les données issues de campagnes de mesures en Suisse :

Débit par utilisation [l] Température d’eau [°C] Energie consommée par utilisation [kWh]

Douches en milieu scolaire

35 45 1,4

Douches en centre sportif

60 45 2,4

Douches pour ouvriers d’usine

– travail peu salissant

50 45 2

– travail très salissant

60 45 2,4

Baignoire normale

150 45 6,1

Grande baignoire

180 45 7,3

Baignoire d’hydrothérapie

300 45 12,2

Remarque.
Les différences constatées entre les sources sont dues,

  • Au fait que la température de référence des débits annoncés n’est pas toujours la même.
  • Au fait que certains auteurs donneront des valeurs de pointe pour le dimensionnement (Recknagel) alors que d’autres donneront des valeurs moyennes pour un calcul de rentabilité (campagne de mesures).

Ratios de consommation par type de bâtiment

Voici le résultat d’une campagne de mesures menée par l’EDF en 1985.

Etablissement Caractéristiques Besoins en litres à 60°C
Hotel – 3 étoiles en montagne
(sports d’hiver)
par chambre et par jour 170
– 3 étoiles tous lieux par chambre et par jour 130 à 140
– hôtel de vacances à la semaine avec bain par chambre et par jour 100
– 1 étoile avec douche (50 %) et bain (50 %) par chambre et par jour 75
– lingerie par kg de linge sec 4 à 5
Restaurant 150 à 50 repas par jour par repas 12 à 20
Grande cuisine cuisine à liaison froide par repas 2 à 3
Bureaux en absence de besoins particuliers (douche, restaurant, …) par personne et par jour 2 à 6
École – chambre d’internat par lit et par jour 30 à 40
– repas, hors lave-v. par repas 3 à 5
– repas, avec lave-v. par repas 9 à 10
Maison de retraite – chambre par lit et par jour 40
– repas, hors lave-v. par repas 3 à 5
– repas, avec lave-v. par repas 9 à 10
Maternité – chambre par lit et par jour 60
– cuisine, avec lave-v. par repas 10 à 15
Hôpitaux – chambre par lit et par jour 50 à 60
– cuisine, avec lave-v.
(de 1 700 à 300 repas par jour)
par repas 8 à 12
Foyer pour handicapés – chambre par lit et par jour 100
– cuisine, avec lave-v. par repas 9 à 10
Centre d’Aide par le Travail – chambre par lit et par jour 60
– cuisine, avec lave-v. par repas 9 à 10
Camping – 3 et 4 étoiles par campeur et par jour 12
par emplacement et par jour 45

Une campagne de mesure en Suisse complète ces informations :

Etablissement

Caractéristiques Besoins en litres à 60°C

Villa familiale

standard simple par personne et par jour 35

Appartement

standard moyen par personne et par jour 40

Immeuble d’appartements en location

par personne et par jour 35

mais des valeurs moitié de celles-ci ont été mesurées dans les immeubles HLM en France.

Il semble que 80 % de cette eau chaude soit consommée dans les salles de bains à une température mitigée de 37,5°C, contre 20 % en cuisine à une température de 45°C.

Si l’eau chaude est produite à 60°C, elle représente en volume 30 % de la consommation totale en eau (chaude + froide) des personnes (95 litres/pers/jour en immeuble collectif et 125 litres/pers/jour en maison individuelle).

Les statistiques dans les immeubles de bureaux sont très variables (de 10 à 40 l/jour et par personne à 45°C d’après le Recknagel), la variabilité étant sans doute liée à la présence ou non d’une restauration.

Données de l’Ademe-AICVF :

Piscine

toute eau confondue, chaude et froide par m² de bassin et par semaine de 250 à 2 300 litres, avec une moyenne de 1 180

Compresseurs frigorifiques [Froid alimentaire]

Compresseurs frigorifiques [Froid alimentaire]


Compresseur à pistons

Schéma compresseurs à pistons, construction ouverte.

Compresseurs à pistons, construction ouverte

Dans ce groupe de compresseurs, le moteur et le compresseur ne sont pas dans le même logement. L’arbre d’entraînement (vilebrequin) émerge du carter du compresseur. On peut y raccorder un moteur électrique, diesel ou à gaz. L’association se fait soit par un manchon d’accouplement, soit par une courroie.

L’accès à tous les éléments du compresseur est possible.

La puissance est réglée par la mise à l’arrêt de certains cylindres ou par changement de régime du moteur d’entraînement.

On utilise les compresseurs de construction ouverte dans les installations d’une puissance de réfrigération jusqu’à 500 kW.

Compresseur ouvert (source : Bitzer).

Compresseurs à pistons, construction semi-hermétique
( ou « hermétique accessible »)

La technologie des compresseurs à pistons est différente selon que l’application est en froid positif ou négatif. Il faut rappeler que si le taux de compression HP/BP est supérieur à 8 (rapport pression de sortie/ pression d’aspiration) le rendement volumétrique du compresseur diminue et par conséquent la performance énergétique se dégrade (COPfroid).

Froid positif

En froid positif, les taux de compression restent la plupart du temps inférieurs à 8, signifiant que les compresseurs peuvent être de la technologie mono-étage.

Compresseur mono-étage (source : Bitzer).

Froid négatif

En froid négatif, les taux de compression sont supérieurs à 8, imposant que les compresseurs soient de la technologie bi-étage.

Compresseur bi-étages.

Technologie

Compresseur et moteur d’entraînement sont logés dans un carter commun. L’entraînement est habituellement assuré par un moteur électrique. Il est généralement refroidi par les gaz froids du réfrigérant (gaz aspirés), quelquefois par un ventilateur ou un serpentin d’eau enroulé sur le bâti du moteur.

Pour des réparations, on peut accéder à chaque partie de la machine et même séparer le compresseur du moteur (plaques boulonnées sur le bâti, avec présence de joints intercalaires).

La puissance est réglée par mise hors service de certains cylindres ou par changement de la vitesse de rotation du moteur d’entraînement.

On utilise des compresseurs de construction semi-hermétiques dans des installations jusqu’à 100 kW ou, en recourant à plusieurs compresseurs, jusqu’à 400 kW environ.


Compresseur spiro-orbital, dit « scroll »

Le compresseur SCROLL est composé de deux rouleaux identiques en forme de spirale. Le premier est fixe, le second décrit un mouvement circulaire continu sans tourner sur lui même. Les spirales sont déphasées de 180°.

Le mouvement orbital entraîne le déplacement vers le centre des poches de gaz, ce déplacement est accompagné d’une réduction progressive de leur volume jusqu’à disparition totale. C’est ainsi que s’accomplit le cycle de compression du fluide frigorigène.

Photo compresseur spiro-orbital, dit "scroll".   Schéma principe compresseur spiro-orbital, dit "scroll".

La réduction du nombre de pièces par rapport à un compresseur à pistons de même puissance est de l’ordre de 60 %. L’unique spirale mobile remplace pistons, bielles, manetons et clapets. Moins de pièces en mouvement, moins de masse en rotation et moins de frottements internes, cela se traduit par un rendement supérieur à celui des compresseurs à pistons.

Cela se traduit par un COP frigorifique de l’ordre de 4,0 en moyenne annuelle alors qu’il se situe aux alentours de 2,5 pour les compresseurs à pistons (information constructeur).

Les variations de couple ne représentent que 30 % de celles d’un compresseur à pistons. Il n’impose donc que de très faibles contraintes au moteur, facteur de fiabilité.

Il reste limité en puissance (autour des 50 kW) mais plusieurs scrolls peuvent être mis en parallèle (jusqu’à 300 kW par exemple).

À noter également sa faible sensibilité aux coups de liquide.

Diverses méthodes de régulation de vitesse sont possibles :

  • Régulation « tout ou rien ».
  • Régulation par moteur à 2 vitesses.
  • Régulation par variateur de vitesse.

Attention : en cas de rotation en sens contraire, il n’y a pas de compression et un bruit insolite avertit le technicien !


Compresseur à vis

 Photo compresseur à vis.

Compresseur à vis (source Bitzer).

  • Type : Machine ouverte ou fermée.
  • Plage de réglage : De 10 à 100 % avec un rendement assez constant.
  • Fonctionnement : Le fluide frigorigène gazeux est comprimé par une vis hélicoïdale (un peu comme dans un hache-viande) tournant à grande vitesse. Le compresseur est entraîné par un moteur électrique.

On rencontre des compresseurs à vis selon deux technologies : les bi-rotors (type SRM) et les mono-rotors (type ZIMMERN).

Caractéristiques

  • Le rendement volumétrique d’un compresseur à vis est bon grâce à l’absence d’espaces morts, comme dans les compresseurs à pistons. Cette propriété permet d’assurer des taux de compression élevés avec un bon rendement volumétrique.

  • Les compresseurs à vis modernes ont des rotors à profils asymétriques, ce qui est préférable au niveau énergétique.

  • Les variations de puissance s’obtiennent dans les grosses machines par l’action d’un « tiroir » qui décide de l’utilisation d’une plus ou moins grande longueur de vis dans la compression des gaz, et donc induit un plus ou moins grand taux de compression. Dans les petites machines, toujours très grandes comparées à des compresseurs à piston, la modulation de puissance s’obtient par variation de la vitesse de rotation ou par utilisation de ports d’aspiration auxiliaires, soit par les deux.

Les avantages du compresseur à vis sont sa faible usure et son réglage facile. Il est toutefois encore coûteux.

Le compresseur à vis doit être abondamment lubrifié, pour assurer l’étanchéité entre les pièces en mouvement et pour réduire le niveau sonore, mais aussi pour refroidir le fluide frigorigène : on peut alors atteindre des taux de compression élevés (jusqu’à 20) sans altérer le fluide frigorigène.

Depuis peu, on utilise le compresseur à vis pour des puissances de réfrigération à partir de 20 kW environ.

Quelle amélioration choisir pour la fenêtre ?

Quelle amélioration choisir pour la fenêtre ?


Conserver les châssis existants en les modifiant éventuellement, et intervenir sur le vitrage

Le châssis peut être conservé lorsqu’il est isolant (bois, PVC, polyuréthane, alu à coupure thermique), en bon état et adaptable, c’est à dire qu’il peut, après intervention éventuelle, être équipé d’un double vitrage performant ou d’un survitrage.

Améliorer

Pour remplacer un vitrage par un vitrage plus isolant.

Améliorer

Pour savoir comment placer un survitrage.

Au survitrage, on préférera le double vitrage plus performant. La pose d’un survitrage est une amélioration thermique médiocre (Ug total de la double vitre > 3 W/m²K) qui ne se justifie que par les caractéristiques architecturales du châssis (esthétique, courbes compliquées, petits vitrages, nombreuses subdivisions, profilés trop fins ou impossibles à modifier, etc.), par le souci de ne pas diminuer la surface transparente de la fenêtre dans le cas de très petites surfaces vitrées. En outre, le survitrage nécessite un entretien plus important, puisque le nombre de face est doublé, et de la condensation périodique entre la vitre et le survitrage est difficile à éviter.

Si le châssis n’est pas isolant (métallique sans coupure thermique, par exemple) en bon état et adaptable, c’est-à-dire qu’il peut également, après intervention éventuelle, être conservé à condition que l’occupant accepte une condensation superficielle sur la face intérieure du châssis à certaines périodes.

Si le châssis existant présente une mauvaise étanchéité à l’air et ou à l’eau, autour des ouvrants, et au raccord du châssis avec la maçonnerie, celle-ci peut être améliorée.

Améliorer 

Pour savoir comment améliorer l’étanchéité à l’air et à l’eau des châssis.

Remplacer les châssis existants avec les vitrages

Dans certains cas, on ne pourra faire l’économie du remplacement du châssis.

> Lorsque le châssis n’est plus adapté.

Suite à une modification d’affectation, le mode d’ouverture peut ne plus correspondre avec la fonction du local.
Avant de remplacer le vitrage au sein d’un châssis, il faut s’interroger sur les possibilités d’ouverture, de ventilation, … qu’offre le châssis et si elles sont encore suffisantes et appropriées à l’activité. Si le type d’ouvrant n’est pas approprié, seul le remplacement du châssis est possible.

> Lorsque le châssis est en mauvais état.

(1) Les châssis en bois : La durée de vie d’un châssis en bois sera fonction du soin consacré à son entretien. Les attaques du bois par des champignons ou des insectes sont dues à une protection et/ou un entretien insuffisant. La présence de condensation interne peut également être la cause de la dégradation des châssis en bois. Si le dormant et les ouvrants du châssis s’avèrent trop abîmés, on remplacera tout le châssis. Si seul l’ouvrant est endommagé, il est possible de remplacer uniquement ce dernier. Si seule une partie d’un cadre est endommagé et lorsqu’il est possible de la remplacer sans causer d’autres dommages, on peut remplacer seulement une partie du châssis (montant, traverse). Il convient alors d’utiliser du bois de durabilité suffisante.

Techniques

Pour en savoir plus sur l’entretien des châssis en bois.

Améliorer

Pour connaître les possibilités d’amélioration de la condensation interne au châssis.

Concevoir

Pour réaliser le choix des châssis.

Améliorer 

Pour connaître les techniques de remplacement d’un ouvrant.

(2) Les châssis en aluminium : La présence de corrosion est synonyme d’une mauvaise conception du châssis en aluminium. Aucune amélioration n’est envisageable.

(3) Les châssis en PVC : Ces châssis et principalement ceux de couleur foncée, sont sensibles aux ultraviolets. Des déformations du châssis dû au phénomène de dilatation thermique peuvent être la cause de fatigue et de fissuration au sein du châssis.

Remarque.
Pour tous les types de châssis, on vérifiera l’état et l’emplacement adéquat de pièces telles que les quincailleries, les cales et les feuillures.

> Lorsqu’un survitrage est insuffisant ou rejeté pour des raisons d’entretien, et que les feuillures ne sont pas adaptables au double vitrage.

Certains châssis ne permettent pas les modifications nécessaires pour pouvoir y incorporer un double vitrage (profils en bois trop faibles, profils en PVC ou Alu impossibles à modifier). Dans ce cas, seule la pose d’un survitrage est possible. Or l’efficacité isolante de celui-ci est nettement inférieure à celle d’un double vitrage performant. Si cette efficacité est jugée insuffisante, le châssis devra être remplacé. Ce sera également le cas lorsque l’on veut éviter de la condensation entre les vitres ou un entretien plus lourd.

> Lorsqu’un survitrage est insuffisant ou rejeté pour des raisons d’entretien, et que l’on ne désire pas diminuer la surface transparente.

La pose d’un double vitrage à la place d’un simple non seulement nécessite la modification des profils du châssis, mais diminue légèrement la surface vitrée. Si on refuse cette diminution de surface vitrée, seule la pose d’un survitrage est possible. Or l’efficacité isolante de celui-ci est nettement inférieure à celle d’un double vitrage performant. Si cette efficacité est jugée insuffisante, le châssis devra être remplacé. Ce sera également le cas lorsque l’on veut éviter de la condensation entre les vitres ou un entretien plus lourd.

> Lorsqu’on n’accepte pas de condensation sur un châssis en aluminium sans coupure thermique.

Un châssis en aluminium sans coupure thermique est particulièrement perméable à la chaleur et ses performances thermiques sont donc très médiocres. Son remplacement est donc fortement conseillé si le budget le permet.

De plus même muni d’un double vitrage, dans certaines conditions climatiques, la face intérieure d’un châssis en aluminium sans coupure thermique sera couverte de condensation. Si cette condensation n’est pas maîtrisée et provoque des dégâts en rive, ou qu’elle n’est simplement plus souhaitée, le châssis doit être remplacé.

Si le remplacement des châssis et des vitrages est inévitable, un choix approprié du types de vitrages et de châssis est à faire :

Concevoir 

Pour réaliser le choix des vitrages.

Concevoir 

Pour réaliser le choix des châssis.

Doubler les châssis existants

Doubler le châssis existant par un second châssis permet d’obtenir des performances thermiques et acoustiques très élevées. Elle est donc très efficace en matière d’utilisation rationnelle de l’énergie.

Cette technique coûte environ le même prix que le remplacement du châssis, mais elle n’est conseillée que lorsque le châssis existant est en bon état et que la modification d’aspect importante de la fenêtre est acceptée à l’intérieur ou à l’extérieur suivant l’endroit où a été placé le nouveau châssis.

Il ne faut pas, non plus, perdre de vue que cette option double la charge d’entretien des fenêtres.

Améliorer

Comment doubler un châssis.

Choisir les luminaires – limiter l’éblouissement

Choisir les luminaires - limiter l’éblouissement


Locaux sans ordinateur

Dans les locaux où il n’y a pas d’écran d’ordinateur, on cherchera principalement à limiter l’éblouissement direct des occupants.

Pour les luminaires ouverts traditionnels, les risques d’éblouissement sont réduits si le luminaire dispose de ventelles empêchant la vue directe des lampes à partir d’un certain angle de vision par rapport à la verticale (angle de défilement).

Luminaire a ventelles.

Recommandations

Angle de défilement maximum

60°

Rendement minimum

70 %

La norme NBN EN 12464-1 prévoit de limiter l’éblouissement direct par des ventelles en fonction de la luminance de la lampe :

Luminance de la lampe en kCd/m2 Angle maximum de défilement
20 à < 50 75°
50 à < 500 70°
>= 500 60°

Les luminaires basse luminance ne sont pas strictement nécessaires mais apportent un confort supplémentaire aux élèves. Leur prix est cependant supérieur par rapport aux simples luminaires avec ventelles blanches (les luminaires avec ventelles blanches ont souvent un très faible rendement).


Locaux avec ordinateurs

On peut éviter les réflexions parasites sur les écrans de deux manières différentes :

Avec des luminaires basse luminance

Le choix d’un luminaire dit « basse luminance » est la meilleure solution pour l’éclairage des locaux informatisés de surface relativement importante, quel que soit le type d’écran. Celui-ci ne doit pas être incliné de plus de 20° par rapport à la verticale (position courante de travail sur PC).

Schéma sur angle d'élévation de luminaires.

Pour prévenir tout risque de reflets dans les écrans quel que soit leur type, les normes  recommandent pour un angle d’élévation de 65° des valeurs de luminance reprise dans le tableau ci-dessous et ce quel que soit le plan du luminaire considéré (C0, C30, …, C90) :

Niveau limite de luminance moyenne des luminaires (cd/m²)
État de luminance élevé de l’écran Écran à haute luminance

L > 200 cd/m²

Écran à luminance moyenne

L ≤ 200 cd/m²

Tâche de bureau classique ≤ 3 000 ≤ 1 500
Besoin de détail ≤ 1 500 ≤ 1 000
L’état de luminance élevé de l’écran (selon EN ISO 9241-302) décrit la luminance maximale de la partie blanche de l’écran, valeur fournie par le fabricant.

Cependant, la protection contre l’éblouissement se fait au détriment du rendement du luminaire (plus on dispose de ventelles devant la lampe pour limiter l’éblouissement, plus importantes seront les pertes).

Les constructeurs proposent différents types de luminaires « basse luminance » avec des angles d’élévation inférieurs à 65°. Dans ce cas, il est important de garantir le maintien d’un rendement acceptable. Pour ce faire, Laborelec (le laboratoire belge de l’industrie électrique) a établi un tableau synthétique donnant, pour différents angles d’élévation, un rendement minimum à respecter.

Type de travail
sur ordinateur
 

Recommandation
EN 12464-1

Angle d’élévation

Luminance < 200 cd/m2 pour des angles g
Recommandation
Laborelec par rapport à la DIN 5035
Angle d’élévation rendement minimum
Dans tous les plans Dans les plans longitudinaux (C90),
transversaux (C0) et diagonaux (C30 et C60)
Usage limité 65° 65°
65 %
Usage important
mais non fatigant
60°
65 %
Usage intensif
et fatigant
50° 55 %

En observant le tableau ci-dessus, on se rend compte que la DIN 5035 est plus précise et contraignante que la norme EN 12464-1. À l’heure actuelle, certains constructeurs proposent des luminaires dont les caractéristiques techniques tiennent compte des deux normes.

Exemple.

Ce luminaire basse luminance répond à la norme EN 12464-1. La luminance du luminaire est inférieure à 200 Cd/m² pour un angle de défilement > 65° et ce dans toutes les directions. Son rendement, avec 1 lampes T8 de 58 W est de 76 %. De plus, il est DIN 60.

Remarque.

Comme on l’a vu, la norme EN 12464-1 précise que pour un angle d’élévation de 65°, on considère tous les plans du luminaire; autrement dit, quel que soit la position du bureau et par conséquent l’angle de vue, les 200 Cd/m² ne peuvent pas être dépassés; ce qui n’était pas le cas dans les anciennes normes NBN L 13 – 006, IN 5035 (partie 7), CIBSE LG3 (1989) qui ne privilégiaient que certains plans. On en conclut, dans ce cas, que la EN 12464-1 est plus restrictive.

Phot tubes fluos 26 et 16 mm.

Le libre choix des luminaires équipés de lampes T5 ou T8 est laissé à l’auteur de projet. Toutefois on rappellera que pour comparer ces deux technologies il faut :

  • Vérifier que les constructeurs donnent des valeurs de rendement qui puissent être comparées (pour une même température ambiante),
  • Vérifier le prix.
  • Se rendre bien compte que les sources LED et les lampes T5 ont une luminance plus élevée que les lampes T8 donc risque d’éblouissement.

Avec des luminaires « lumière douce » ou à plexi performant

Photo écran à affichage positif.     Photo écran à affichage négatif.

Écran à affichage positif… et … Écran à affichage négatif.

Les luminaires « lumière douce » ont une luminance nettement supérieure à 200 cd/m² pour des angles d’élévation > 65°.

Ils ne peuvent donc pas être utilisés en présence d’ordinateurs, sauf dans le cas très restreint d’écrans plats à affichage positif (caractères sombres sur fond clair) et bon traitement antireflet.

En effet, la norme européenne ISO 9241 admet qu’une luminance moyenne des luminaires de 1 000 cd/m² (avec des pointes de moins de 1 500 cd/m²) ne provoquera pas de réflexion gênante sur les écrans. Ceci s’explique par la réduction du contraste entre ce type d’écran et les réflexions qui peuvent y apparaître (attention, le contraste entre le fond d’écran et le texte diminue aussi, ce qui est un inconvénient !).

Photo luminaire "lumière douce".

Les  luminaires « lumière douce » respectent ce critère soit directement, soit moyennant une adaptation qui limite leur luminance moyenne (par exemple pour les lampes fluocompactes).

L’avantage de ce type de luminaire apparaît lorsqu’on utilise des ordinateurs portables. (En effet les recommandations Laborelec s’appliquent pour des écrans inclinés de 15° à 20° par rapport à la verticale). Dans le cas d’ordinateurs portables, l’utilisateur incline plus fortement son écran. Il risque alors d’apercevoir des reflets même si les luminaires sont à basse luminance. Un luminaire « lumière douce » ayant une luminance moyenne dans toutes les directions, même verticale, peut alors se justifier. Il existe des luminaires à plexi performant avec les mêmes avantages que la « lumière douce ».


Cas particulier : les bureaux individuels

Les recommandations ci-dessus s’appliquent pour la majorité des bureaux. Cependant, dans un petit bureau (bureau individuel), on peut placer le luminaire et/ou les postes de travail de manière telle qu’il n’y ait jamais de réflexion. L’angle sous lequel l’écran voit le luminaire reste alors toujours inférieur à 50 – 60°.

Schéma luminaires de bureau.

On peut alors toujours choisir un luminaire qui n’est pas basse luminance, par exemple à ventelles planes et diffusantes ou à plexi. Ces luminaires ont un prix inférieur par rapport aux luminaires identiques équipés de ventelles paraboliques. Ces derniers apportent cependant un « plus » au standing du local et donc contribuent au confort psychologique des occupants.

Photo bureau avec luminaires sans ventelles paraboliques.     Photo bureau avec luminaires avec ventelles paraboliques.

Exemple : bureau avant et après

    

Avant : 2 vieux luminaires 2 x 36 W BM avec du bruit et éclairage trop faible.

Après : 2 luminaires 1 x 35 W T5 BE-DIM avec un niveau d’éclairement x 1,5, une économie d’énergie > 50 %, < 2,5 W/m²/100 lux et confort visuel élevé !


Cas particulier : les circulations

Les couloirs de bureaux, d’école, …

Photo luminaires dans zone de circulation. Photo luminaires dans zone de circulation. Photo luminaires dans zone de circulation.

Les circulations ne présentent aucune exigence en termes de basse luminance. Tout au plus faut-il éviter un éblouissement trop important en choisissant des luminaires comportant un système de défilement. Des luminaires ouverts à ventelles planes sont donc tout à fait indiqués (angle de défilement minimum de 75°).

Les couloirs d’hôpital, de maison de repos

Photo luminaires dans couloirs hôpital. Photo luminaires dans couloirs hôpital.

Les couloirs d’hôpitaux et des maisons de repos nécessitent une attention particulière sachant que l’éblouissement dû au luminaire peut être important pour les patients alités. C’est la raison pour laquelle les luminaires à basse luminance sont intéressants.


Flexibilité du local

Dans certains locaux, le type de travail et/ou la disposition des postes de travail peuvent varier dans le temps. Dans ce cas, l’éclairage général ne peut privilégier aucune zone ni direction dans le local. Si tel était le cas, leur adaptation à une nouvelle situation doit se faire avec un minimum de manipulations.

Voici différents types de luminaires pouvant répondre à ces exigences  :

  • des luminaires à distribution de lumière identique dans toutes les directions,
  • si des bureaux individuels risquent d’être regroupés en bureaux paysagers, il est préférable de les équiper de luminaires basse luminance.

Choisir un fluide frigorigène [Concevoir – Froid alimentaire]

Il existe différents types de fluides frigorigènes sur le marché. En voici les critères de choix :

Choisir un fluide frigorigène


L’impact environnemental

Reprenons différents fluides en fonction de leur impact environnemental dans le tableau ci-dessous. Ce tableau met bien en évidence le fait que les HFC sont en sursis comme le prévoit la réglementation européenne (règlementation dite F-gaz). Celle-ci prévoit en effet une réduction d’utilisation de 79% de l’utilisation des gaz fluorés d’ici 2030 par rapport à l’utilisation faite en 2015.

Aujourd’hui les solutions de remplacement ne sont pourtant si pas évidentes. Il faudra s’orienter vers des (nouveaux ?) fluides à faible Potentiel de Réchauffement Global (PRG) ou des fluides naturels.

Cependant, pour ces derniers, il faudra faire face aux contraintes de sécurité associées au CO2 (haute pression) au propane et au butane (inflammabilité) et à l’ammoniac (toxicité).

ODP
(/R-11)
GWP
(kg éq. de CO2)
ODP
(/R-11)
GWP
(kg éq. de CO2)
CFC
(interdits)
Mélanges de HCFC
R-11 1 4 000 R-404A 0 3 260
R-12 0,8 8 500 R-407C 0 1 530
R-502 0,2 5 490 R-410A 0 1 730
HCFC Mélanges à base R-22
R-22 0,04 1 700 R-408A 0,7 2 650
HFC
(corps purs)
Autres
R-134a 0 1 300 Propane / Butane 0 20
R-125 0 2 800 Ammoniac 0 <1
R-143a 0 3 800 CO2 0 1

Remarque : certains imaginent qu’à défaut de trouver le gaz parfait, on pourrait produire le froid dans des machines frigorifiques très compactes (donc contenant peu de fluide), puis transférer le froid par des caloporteurs (eau glycolée, CO2,.). Dans ce cas, le problème du fluide ou de sa sécurité est moins crucial.


L’impact énergétique (ou qualité thermodynamique)

Par ses propriétés thermodynamiques, le fluide frigorigène influence la consommation énergétique de la machine frigorifique. Pour illustrer ce point, nous reprenons ci-dessous les résultats d’une étude comparative entre 5 fluides différents, utilisés dans une même machine, avec les mêmes conditions de fonctionnement.

Source : ADEME, « le froid efficace dans l’industrie ».

Dans chaque cas, l’objectif est de produire une puissance frigorifique de 100 kW.

NH3 R-134a R22 propane R-404A
Puissance effective sur l’arbre [kW] 30,7 30,9 32,1 33,1 35,1
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Débit volumique balayé dans le compresseur [m³/h] 239 392 224 250 217
Débit volumique de liquide frigorigène [m³/h] 0,53 1,91 1,75 2,42 2,70
Température de refoulement de la compression réelle adiabatique [°C] 156 60 87 63 59

Hypothèses de l’étude

  • Cycle à compression monoétagée;
  • Température d’évaporation : – 15°C;
  • Surchauffe à la sortie de l’évaporateur : 5 K;
  • Surchauffe à l’entrée du compresseur : 10 K;
  • Température de condensation : 30 °C;
  • Sous-refroidissement en sortie de condenseur : 5 K
  • Taux d’espace mort du compresseur : 3 %.

Analyse

Les températures de refoulement de la compression indiquée sont légèrement plus élevées qu’en réalité parce que le compresseur est placé dans une situation de non-échange avec l’extérieur (adiabatique). Par exemple, le compresseur réel à l’ammoniac qui échangerait 1/10 de sa puissance sur l’arbre aurait une température au refoulement d’environ 142°C.

On constate que le groupe au R-404A consomme 14 % de plus que le groupe à l’ammoniac. La machine équipée de propane n’est pas très performante non plus.

Le R-134a est très performant sur le plan énergétique. Par contre, le débit volumique balayé par le compresseur est nettement plus élevé, ce qui va augmenter la taille du compresseur et des conduites d’aspiration (coût d’investissement plus élevé).

L’ammoniac présente un très faible débit volumique de liquide frigorigène et donc un faible diamètre de la conduite de liquide.

Reprenons les chiffres du COP frigorifique en partant d’une référence 100 pour le R-22 :

NH3 R-134a R22 propane R-404A
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Si le R-22 est pris en référence 100 : 105 104 100 97 91

Des résultats similaires ressortent d’une autre étude relatée par l’ASHRAE, avec comme différence notable un coefficient 99 pour le R-404A. Il faut dire que ce genre d’étude est fonction des options choisies : prendre la même machine frigorifique et changer juste le fluide, ou optimiser tous les composants en fonction des caractéristiques de chaque fluide pour produire la même puissance ?

Cette deuxième étude fournit les coefficients pour d’autres fluides :
R-410A : 99
R-407C : 95

À noter que les débits demandés par le R-407C sont, à 1 % près, identiques à celui du R-22 : il a justement été conçu comme fluide de remplacement. Il est malheureusement zéotrope et présente donc un glissement de température lors du changement d’état (un « glide ») de 7,2 °C, ce qui lui fait perdre 5 % de rendement énergétique.

Conclusion

L’ammoniac et le R-134a présentent une performance énergétique meilleure, mais cet avantage n’est pas suffisant que pour conclure sur ce seul critère.


La sécurité d’usage

De nombreuses études poussées sont menées sur les aspects :

  • toxicité (par inhalation);
  • action biologique (cancers, malformations des nouveaux-nés);
  • action sur les denrées entreposées en chambre froide;
  • inflammabilité.

Certains critères sont facilement quantifiables

  • par la concentration limite d’exposition (exprimée en ppm);
  • par la limite inférieure d’inflammabilité (concentration, en volume, dans l’air sous la pression atmosphérique).

Ce qui a permis de définir un code sécurité (Standard 34 Safety Group) :

NH3 R-134a R22 propane butane R-407C R-404A R-410A
Conc. limite d’exposition (ppm) 25 1 000 1 000 2 500 800 1 000 1 000 1 000
limite inf. d’inflammabilité (%) 14,8 2,3 1,9
Code sécurité B2 A1 A1 A3 A3 A1 A1 A1

La toxicité de l’ammoniac et l’inflammabilité des hydrocarbures entraînent des mesures de sécurité toutes particulières pour leur usage.

La norme NBN EN 378-1 traitant des Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.


Les contraintes techniques

Elles sont nombreuses (niveaux de pression requis, comportement du fluide en présence d’eau, viscosité et donc tendance à fuir de l’enceinte, commodité de détection d’une fuite) et vont influencer l’efficacité et la fiabilité de l’installation.

Une des contraintes fort importantes est le couple formé par le fluide frigorigène et l’huile de lubrification.

De l’huile est nécessaire au bon fonctionnement du compresseur. Un séparateur d’huile est prévu à la sortie du compresseur, mais son efficacité n’est jamais totale. Et la petite quantité d’huile entraînée par le fluide risque de se déposer au fond de l’évaporateur (basse température et faible vitesse). L’échange thermique est diminué et, à terme, l’huile risque de manquer au compresseur. Si autrefois la miscibilité entre le fluide CFC et les huiles minérales était très bonne (le fluide « entraînait » avec lui une certaine dose d’huile assurant une lubrification permanente), il faut aujourd’hui adopter des huiles polyolesters, plus coûteuses, très sensibles à la présence d’eau, et dont on doit vérifier la compatibilité avec les différents matériaux en contact (métaux, joints élastomères, vernis moteur,.).

L’élimination des fluides frigorigènes chlorés, bonne chose pour l’ozone stratosphérique, en est une mauvaise pour la lubrification, le chlore étant bénéfique à la présence du film d’huile. L’emploi d’additifs divers dans les huiles a dû y suppléer.


Le coût

Le prix au Kg du frigorigène est très différent selon qu’il s’agisse d’un fluide simple, comme l’ammoniac, ou d’un fluide plus complexe comme un mélange de HFC.

Mais le coût du fluide frigorigène rapporté à celui de l’installation se situe entre 1 et 3 %, ce qui reste faible. Et les coûts indirects liés au choix du fluide (dispositifs de sécurité, équipements électriques anti-déflagrant, conception étanche du local technique,…) sont sans doute plus déterminants.


Les tendances futures

En HVAC, l’utilisation courante des fluides frigorigènes CFC (R11, R12 et R502) et HCFC (R22)  a été proscrite, car ils avaient le pouvoir de détruire la couche d’ozone et de renforcer l’effet de serre.

Depuis 1990 est apparue une nouvelle famille : les HFC, fluides purement fluorés, dont le R-134a est le plus connu. Malgré tout, ce genre de fluide frigorigène n’est pas idéal sur le plan de l’environnement. Dès lors, l’utilisation dégressive de ces gaz fluorés est imposée par la réglementation. On devra alors s’orienter vers des fluides à potentiel de réchauffement global faible. Cela passera très certainement par :

  • L’élargissement de l’utilisation des fluides toxiques (amoniac) et inflammables (propane, butane)
  • Le développement de nouvelles molécules et de nouveaux mélanges
  • La réduction drastique de la charge et confinement du fluide frigorigène
  • Le retour du CO2

À ce sujet, une étude a été menée en France par  Armines CES, le Cemafroid et ERéIE pour l’AFCE avec le soutien de l’ADEME et d’UNICLIMA. Ce rapport présente notamment un série d’alternatives par secteur. Vous pouvez le télécharger en  ouverture d'une nouvelle fenêtre ! cliquant ici.

Mesurer le rendement d’un groupe de ventilation

Mesurer le rendement d'un groupe de ventilation


Mesure du débit d’air

La mesure du rendement d’un ensemble moteur – ventilateur demande l’utilisation d’un manomètre et d’un anémomètre (ou d’un tube de Pitot).

Le débit d’air est mesuré dans une section de gaine droite après le ventilateur. Par exemple le débit mesuré vaut 5 718 m³/h ou 1,588 m³/s.


Mesure des pertes de charge

Il s’agit de déterminer les pertes de charge du groupe de ventilation. Pour cela, il est nécessaire de mesurer la pression avant le groupe (avant les filtres et batteries), avant et après le ventilateur.

Exemple.

Pression extérieure 0 Pa (par défaut)
Pression avant le groupe (a) – 89 Pa
Pression avant le ventilateur (d) – 322 Pa
Pression après le ventilateur (e) 93 Pa
Pression dans le local 0 Pa (par défaut)
  • La perte de charge du réseau = la perte de charge avant le groupe + la perte de charge de la distribution = (0 Pa – (- 89 Pa)) + (93 Pa – 0 Pa) = 182 Pa
  • La puissance utile nécessaire à vaincre cette perte de charge = 182 Pa x 1,588 m³/s = 289 W
  • La perte du monobloc de ventilation = la pression avant le ventilateur – la pression à l’entrée du monobloc = (- 89 Pa – (- 322 Pa) = 233 Pa
  • La puissance utile nécessaire à vaincre cette perte de charge = 233 Pa x 1,588 m³/s = 370 W
  • La perte de charge totale de l’installation = 182 Pa + 233 Pa = 415 Pa
  • La puissance utile de l’installation = 415 W x 1,588 m³/s = 659 W
  • La puissance électrique absorbée par le moteur mesurée grâce à un compteur d’énergie = 1 730 W
  • Les pertes de l’ensemble moteur – ventilateur = 1 730 W – 659 W = 1 071 W
  • Rendement de l’ensemble moteur – ventilateur = Puissance utile / Puissance absorbée = 659 W / 1 730 W = 0,38 = 38 %

Récapitulatif des pertes du système de ventilation

Réseau de distribution 17 %
Monobloc (filtres, batteries) 21 %
Moteur, transmission, ventilateur 62 %
Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
24-09-2008 : WinMerge ok – Sylvie

Choisir le mode de pose de l’étanchéité

Les étanchéités bitumineuses

– Sur du béton ou du béton léger monolithe, l’étanchéité bitumineuse peut être :

– Sur des panneaux en béton cellulaire ou en fibro-ciment, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage au bitume ou soudage avec bandes libres sur tous les joints,
    • posée en adhérence totale par collage à froid avec bandes de pontage sur les joints d’about,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage, avec bandes de pontage sur les joints d’about,
    • (éventuellement) fixée mécaniquement à l’aide de vis.

– Sur des panneaux multiplex en particules de bois, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage au bitume ou soudage avec bandes de pontage sur les joints d’about,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage,
    • fixée mécaniquement à l’aide de clous ou de vis.

– Sur des panneaux en fibre de bois liées au ciment, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale  par collage à froid, collage au bitume ou soudage.

– Sur des planchers en bois, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • fixée mécaniquement à l’aide de clous ou de vis.

– Sur des panneaux isolants en mousse de polyuréthane (PUR), en mousse de polyisocyanurate (PIR) ou en mousse résolique (PF) revêtus, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en mousse de polystyrène expansé (EPS) revêtus, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid ou collage au bitume,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en laine de roche (MW) ou en perlite (EPB), l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid ou collage au bitume, lorsque les panneaux ne sont pas revêtus d’un film thermofusible,
    • posée en adhérence totale par soudage lorsque les panneaux sont soudables,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en liège (ICB), l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid ou collage au bitume,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en verre cellulaire (CG), l’étanchéité bitumineuse est généralement :

  • posée en adhérence totale  par collage à froid, collage au bitume ou soudage,
  • posée en semi-indépendance par collage à froid, collage au bitume ou soudage.

– Sur une étanchéité existante qui ne pose pas de problème, mais dont la durée de vie touche à sa fin, l’étanchéité bitumineuse peut être posée en adhérence totale par collage à froid, collage au bitume ou soudage.


Les étanchéités synthétiques

(D’après le tableau 1 de la NIT 151 du CSTC).
La pose des étanchéités synthétiques varie selon le matériau et est différente de celle des étanchéités bitumineuses. Exemples:

Les élastomères

  • EPDM Copolymère d’éthylène, de propylène et de diène-monomère vulcanisé

    Il sera posé en adhérence totale, en adhérence partielle ou en pose libre lestée. L’adhérence au support se fait par collage à l’aide de colle à chaud à base de bitume et d’EPDM, à l’aide de colle de contact, ou à l’aide de bitume lorsque les feuilles sont pourvues d’une couche dorsale constituée d’un voile qui sert à réaliser l’adhérence avec le bitume.Des membranes EPDM pourvues en leur sous-face d’une couche de bitume modifié SBS existent. Elles peuvent être soudées au chalumeau.Sur des tôles profilées en acier, l’EPDM est fixé mécaniquement au niveau des joints ou avec un système de vis spéciales qui ne traversent pas la membrane.

Les plastomères

  • PVC Polymère de chlorure de polyvinyle avec plastifiantLes membranes en PVC peuvent être soit fixées mécaniquement selon différentes méthodes (lorsqu’elles sont résistantes aux UV), soit être posées librement et lestées.Elles peuvent également être collées à la colle de contact ou au bitume chaud (dans le cas d’un PVC résistant au bitume).Dans de nombreux cas, comme avec le PVC non armé, il est utile de fixer l’étanchéité le long des rives pour maîtriser le retrait.

Évaluer l’étanchéité à l’air

Évaluer l'étanchéité à l'air


Importance d’une bonne étanchéité

Le confort

Une mauvaise étanchété à l’air des bâtiments engendre des courants d’air et provoque une sensation d‘inconfort.

Exemple : courants d’air au niveau des joints de fenêtre et de porte.

Un cas typique conduisant à l’établissement d’un courant d’air est celui d’un plateau de bureaux paysager où des fenêtres donnent sur deux façades d’orientations différentes : suite à l’effet du vent, une façade est en surpression et l’autre en dépression, entraînant un courant d’air transversal. Cet effet de courant d’air se fait d’autant plus ressentir que les radiateurs placés devant les fenêtres ne couvrent pas toute la largeur de celles-ci et ne compensent pas l’infiltration d’air froid.

Le même phénomène se présente lorsqu’il y a des portes donnant sur l’extérieur et non protégées par un sas.

De plus, le manque d’étanchéité à l’air engendre un affaiblissement de l’isolation acoustique, ce qui pose surtout problème dans les villes.

Les économies d’énergie / la puissance de chauffe

Les économies d’énergie

En hiver, l’air chaud s’échappe par les fuites d’air d’un bâtiment trop peu étanche, l’air froid s’y engouffre. Un taux de ventilation réel de 0,5 renouvellement/h pour un bâtiment de dimension 60 m x 10 m x 12 m, soit 7 200 m³ va entraîner une consommation hivernale de :

(0,5 x 7 200) [m³/h] x 5 800 [h] x 0,34 [Wh/m³.K] x (15° – 6°) / 1 000

= 64 000  [kWh/an]

 où,

  • 5 800 est le nombre d’heures de la saison de chauffe
  • 0,34 Wh/m³xK est la capacité thermique de l’air.
  • 15° est la température moyenne intérieure, tenant compte d’un abaissement nocturne et d’un apport équivalent de 3° par les apports « gratuits »
  • 6° est la température moyenne extérieure hivernale dans le centre de la Belgique

Soit un équivalent de +/- 4 000 € par an , si la chaleur est fournie par du combustible fuel à 0,625 €/litre.

L’impact de l’inétanchéité à l’air d’un bâtiment est d’autant plus important que celui-ci est récent et donc bien isolé. En effet, la part des pertes dues à la ventilation dans le total des déperditions y est beaucoup plus importante.

La puissance de chauffe

Le dimensionnement de l’installation de chauffage se fait sur base des pertes de chaleur par transmission (par les murs, les fenêtres, la toiture, …) et des pertes de chaleur par ventilation. Si l’étanchéité du bâtiment est très mauvaise, les pertes de chaleur par ventilation seront plus importantes que celles dont on aura tenu compte dans les calculs menant au dimensionnement de la chaudière (la norme NBN 62-003 prévoit un taux de renouvellement horaire de l’air de 1), la chaudière sera sous-dimensionnée par rapport aux besoins réels et, par temps très froid, on n’arrivera pas à chauffer convenablement.

Exemple.

Le CSTC a été appelé dans une école où il s’était avéré impossible de chauffer les locaux au-delà de 10 à 13 °C durant les moments froids et venteux de l’hiver 1984-1985, malgré une installation de chauffage correctement dimensionnée. Il a mesuré une étanchéité n50 de 30/h, ce qui correspond à un taux de ventilation réel saisonnier moyen de 1,5/h… Les parois étaient réalisées en blocs de béton poreux, laissés apparents (sans plafonnage). Et par temps venteux, l’air extérieur traversait la paroi…

Mais ce cas est très rarement rencontré.

Le mauvais fonctionnement du système de ventilation

Le système de ventilation ne fonctionnera correctement que si le bâtiment est relativement étanche à l’air.

Dans son article « La ventilation et l’infiltration dans les bâtiments : la situation en Belgique » (1986), le CSTC précise qu’un système de ventilation mécanique ne peut fonctionner correctement que pour un taux de renouvellement de l’air à 50 Pa (n50) inférieur à 5/h.


Niveaux de référence

Étanchéité globale

En Wallonie, il n’existe pas de recommandations concernant l’étanchéité à l’air globale d’un bâtiment.

Par contre, la norme européenne EN 13779 recommande un taux de renouvellement d’air maximum à 50 Pa(n50) :

  • de 1/h pour les bâtiments hauts (> 3 étages);
  • de 2/h pour les bâtiments bas.

On peut également se référer à la norme NBN D 50-001 qui recommande :

  • n50 < 3/h si ventilation mécanique,
  • n50 < 1/h si récupérateur de chaleur.

À titre de comparaison, la région de Bruxelles-Capitale imposera en 2018 un niveau d’étanchéité à l’air n50 < 0.6/h pour toute construction neuve, et n50 < 0.72/h pour les rénovations assimilées à de la construction neuve.

Étanchéité des fenêtres

En Belgique, les bâtiments des services publics doivent satisfaire aux exigences d’étanchéité suivantes :

Hauteur du bâtiment (h en [m]) η50 [m³/h.m]
h < 10 < 3,8
10 < h < 18 < 1,9
h > 18 < 1,3

Source : STS 52 Menuiserie extérieure en bois : fenêtres, portes-fenêtres, façades légères – Bruxelles – 2005.

Ces exigences sont relativement sévères par rapport aux autres pays (seuls les pays scandinaves ont des exigences plus sévères).

La figure ci-dessous donne un aperçu des valeurs d’étanchéité à l’air des menuiseries imposées par un certain nombre de pays occidentaux.

Aperçu des exigences d’étanchéité à l’air des menuiseries dans différents pays occidentaux.


Comment évaluer sa situation ?

1° possibilité : faire procéder à une évaluation par une société spécialisée

  1. On peut faire réaliser des essais de pressurisation du bâtiment pour mesurer l’étanchéité globale et localiser les fuites. Si cette technique fonctionne bien pour un bâtiment domestique, il semble difficile de l’appliquer pour un bâtiment tertiaire.
  2. On peut procéder à une analyse par gaz traceur : une dose bien connue de gaz est dispersée dans une ambiance; une heure plus tard, on vient mesurer quelle est la teneur du gaz encore présente; si celle-ci est faible, c’est que le taux de ventilation est élevé.

2° possibilité : évaluer approximativement sa propre situation

Ci-dessous, nous vous proposons d’analyser votre bâtiment. Ces observations permettront de situer votre bâtiment par rapport à d’autres bâtiments (statistiques) dans lesquels des mesures de pressurisation ont été faites.

A. Observation de la situation

Observation des parties courantes

On vérifie que les murs, s’ils sont réalisés en matériaux poreux (maçonneries de briques, blocs de béton lourds ou légers, …) sont recouverts d’une couche étanche à l’air. Celle-ci peut être un plafonnage, des plaques de plâtres enrobées correctement rejointoyées, un pare-vapeur correctement placé. Une couche épaisse de peinture filmogène est également valable au niveau de l’étanchéité à l’air. Une couche isolante en matériau synthétique ou en verre cellulaire correctement posée rend également le mur étanche à l’air.
Remarques.

  • En cas de mur creux dont la maçonnerie intérieure est apparente, l’enduit étanche à l’air peut avoir été placé sur le mur intérieur du côté coulisse; dans ce cas, elle n’est pas visible à l’oeil.
  • Il arrive que les murs soient enduits jusqu’au faux plafond mais pas au-delà. Dans ce cas, si le faux plafond n’est lui-même pas étanche à l’air, on ressentira des fuites au niveau du faux plafond.

De la même façon, on vérifie que la toiture inclinée, si les locaux sous les combles sont utilisés, dispose d’une bonne étanchéité à l’air. C’est le cas si la finition intérieure est constituée d’un plafonnage, de plaques de plâtre enrobées correctement rejointoyées, de panneaux de fibres de bois liées au ciment, avec enduit. Cette étanchéité à l’air est également assurée avec un pare-vapeur correctement placé ou avec un isolant peu perméable à l’air (mousses synthétiques, verre cellulaire) si celui-ci est correctement posé. Au contraire, le plafond n’est pas rendu étanche par un lambris en planchettes de bois ou par des lamelles en aluminium avec joints ouverts. Il ne l’est pas non plus dès que la finition intérieure est perforée par des canalisations électriques ou pour toute autre raison.

Les toitures plates correctement réalisées (toitures chaudes ou toitures inversées) sont automatiquement étanches à l’air à cause de la présence du pare-vapeur et de la membrane d’étanchéité continue caractéristique des toitures plates. La toiture froide doit être proscrite car la ventilation de l’espace situé entre l’étanchéité et l’isolant augmente les risques de courants d’air néfastes.

Observation des raccords et percements

Les infiltrations d’air peuvent avoir lieu au niveau :

  • Des châssis de fenêtres :Remarque : on croit souvent que les pertes par les fenêtres représentent la majorité des pertes par infiltrations. Or, il apparaît que ces pertes n’en représentent en moyenne que 20 % bien que, dans certains cas (cas des menuiseries les moins étanches (n50 de 20 à 40 m³/hxm), elles s’élèvent jusqu’à 75 % de la totalité de ces pertes.
  • Des raccords entre les éléments de la construction (façade/toiture, façade/plancher au niveau de la plinthe, …).
  • Des percements (passage de conduites, portes, caisson de volet, boîtiers électriques, …).
  • Des raccords entre les menuiseries et les maçonneries.

Mauvais raccord entre le mur et la menuiserie.

Il convient donc de vérifier la jonction entre les différents éléments de construction, ou un percement dès que ce dernier touche la couche de la façade qui assure l’étanchéité à l’air.
Cette vérification se fait :

  • Soit à l’œil ou à la main.
  • Soit à l’aide d’une feuille de papier,par exemple, pour vérifier l’étanchéité à l’air entre l’ouvrant et le dormant d’un châssis, on y place une feuille de papier. Si cette feuille coincée ne se déchire pas lors de la tentative d’extraction, l’étanchéité n’y est sans doute pas terrible…!
  • Soit à l’aide d’une bougie que l’on place devant les joints des zones à risque.
  • Des tâches de poussière peuvent également servir d’indice d’une mauvaise étanchéité locale.
  • Enfin au niveau des fuites évidentes, une mesure plus précise peut être réalisée grâce à un anémomètre à fil chaud.

Au niveau du châssis même, on vérifie qu’il existe un joint entre l’ouvrant et le dormant du châssis. Ce joint d’étanchéité à l’air doit être en bon état et continu on vérifie en particulier sa continuité aux angles où il a tendance à se détacher plus vite. Il doit être dans un même plan sur tout le pourtour du châssis.

On vérifie aussi l’état du joint entre le cadre et le vitrage. Celui-ci ne peut êre fissuré ou décollé. Il ne peut avoir perdu sa souplesse.

B. Confrontation des observations aux statistiques

Certaines études statistiques ont été effectuées sur l’étanchéité de bâtiments existants.
Elles concernent :

  • l’étanchéité des menuiseries,
  • l’étanchéité des murs,
  • l’étanchéité de la toiture inclinée.

En vous basant sur ces études et sur les caractéristiques propres à votre bâtiment, il est possible d’en estimer par comparaison, l’étanchéité. Pour vérification, le résultat obtenu en additionnant les volumes d’air infiltré liés à ces différentes causes, peut être comparé à des observations statistiques :

  • d’étanchéité globale.

Étanchéité des menuiseries

Les anciennes menuiseries des immeubles existants ne répondent pas aux niveaux d’étanchéité recommandés. Nous n’avons pas trouvé de rapport de mesures faites en Belgique. Par contre, une étude menée aux Pays-Bas par Mr Van Gunst (1959) (1) et Mrs De Gids et Knoll (1981) (2) révèle notamment que :

  • La plupart des châssis construits avant 1959 ne satisfont pas aux normes néerlandaises modernes.
  • L’étanchéité des joints varie considérablement. M. De Gids a, en effet, mesuré des valeurs (à 50 Pa) allant de n50 = 1,6 à 36 m³/h.m; M. Van Gunst obtient quant à lui des valeurs de n50 situées entre 1,2 et 34 m³/h.m.
  • Les déperditions au droit des raccords entre la menuiserie et la maçonnerie ne sont pas négligeables; elles représentent, en moyenne, 40 % des pertes à travers l’ensemble des joints de la menuiserie.

(1) Van Gunst E. – Het raam in onze woning in verband met gezondheid en ekonomie. De Ingenieur, n° 4 en 11 – 1959.

(2) Knoll B. et De Gids W.F. – Luchtdoorlatendheid van 21 gevels met gevelelementen in drie seizoenen. Delft, IMG-TNO, rapport C 490, november 1981.

Les nouveaux châssis (depuis environ 1985), quant à eux, répondent pour la plupart aux exigences requises. Dans le cas contraire, la mauvaise étanchéité est, sauf exceptions, due à un placement peu soigné.

Étanchéité des murs

Des mesures d’étanchéité dans divers bâtiments ont montré que tous les types de murs, s’ils sont plafonnés, sont très étanches : taux de ventilation à 50 Pa(n50) de moins de 1 m³/h.m². Par contre les murs creux en blocs de béton lourds non plafonnés donnent des taux de ventilation à 50 Pa (n50) d’environ 10 m³/h.m².

Étanchéité de la toiture inclinée

Exemples.

Des mesures d’étanchéité ont été réalisées dans 2 écoles de construction récente, dans un immeuble de bureaux et dans une habitation individuelle dont la constitution de la toiture inclinée est donnée ci-dessous.

  1. Finition intérieure (lambris de bois ou lamelle en aluminium avec joints non fermés).
  2. Isolant.
  3. Chevron.
  4. Sous-toiture de type fibres ciment – cellulose.
  5. Tuiles.

Celles-ci ont donné un taux de ventilation à 50 Pa(n50) d’environ 100 m³/h.m².

On a ensuite rajouté une feuille en PVC entre l’isolant et le plafond d’une des classes. Suivant la qualité d’exécution, on a obtenu les résultats suivants lors de nouvelles mesures d’étanchéité.

Conception de la toiture

n50 (1/h)

Pas de feuille de PVC entre l’isolant et le plafond

27

Une feuille de PVC (0,2 mm) entre l’isolant et le plafond, pas de bande adhésive sur les joints.

12

Une feuille de PVC (0,2 mm) entre l’isolant et le plafond, bande adhésive sur les joints.

5

Étanchéité globale

L’étanchéité de 45 écoles a été mesurée entre 1986 et 1987. Il est apparu que l’étanchéité des bâtiments varie très fortement : le taux de renouvellement d’air à 50 Pa(n50) varie de 0,5/h à 40/h. Il n’y a pas que les bâtiments les plus anciens où l’étanchéité à l’air est faible. Plusieurs bâtiments récents mesurés étaient très peu étanches à l’air; la plupart du temps, cette mauvaise étanchéité était due à des fuites d’air au niveau de la toiture.

Taux de ventilation à 50 PA de bâtiments en fonction de l’année de construction.

À partir des mesures dont il est question ci-dessus mais également d’autres mesures, on peut dire, d’une façon plus générale, que l’étanchéité à l’air des bâtiments en Belgique varie grosso-modo de n50 = 1/h à n50 = 30/h.

C. Évaluation des débits d’air par des ouvertures dans la façade (vitre cassée, porte ouverte, …)

Petite ouverture
À titre de repère, la vitesse de l’air s’²chappant d’une petite ouverture dans une façade (vitre brisée, fente sous une porte, fente de boîte aux lettres, …) est en moyenne de l’ordre de 1 m/s. Cette valeur est valable tant que la section d’ouverture ne dépasse pas 0,5 m². Mais pour la facilité mnémotechnique, on peut calculer la perte énergétique liée à un trou d’1 m² dans une enveloppe. Un débit de 1 m³/s (1m² x 1 m/s) s’échappera, ce qui va entraîner une consommation hivernale de :

1 [m³/s] x 3 600 [s/h] x 5 800 [h/saison chauffe] x 0,34 [Wh/m³.K] x (15° – 6°;) / 1 000

= 63 000 [kWh/an]

où :

  • 15° est la température moyenne intérieure, tenant compte d’un abaissement nocturne et d’un apport équivalent de 3° par les apports « gratuits »,
  • 6° est la température moyenne extérieure hivernale dans le centre de la Belgique,
  • 0,34 Wh/m³.K est la capacité thermique de l’air.

Retenons donc un équivalent de +/- 4 000 € par an et par m² d’ouverture permanente, si la chaleur est fournie par du combustible fuel à 0,625 €/litre.
Grande ouverture
Si l’ouverture est plus importante (ouverture permanente d’une porte d’entrée du bâtiment, par exemple), le phénomène est plus complexe. On constate que de l’air chaud va s’échapper en partie supérieure de la porte et que de l’air froid le remplacera en partie inférieure. Au centre l’écoulement d’air sera pratiquement nul (tourbillons).

On peut approcher le débit d’air par la loi empirique suivante :

Débit = C x Section x (g x Hauteur x DeltaT°/T° ext) exp (1/2)

  • les températures sont exprimées en Kelvin,
  • où le coefficient C est généralement pris égal à 0,15 … 0,2
  • et où « exp (1/2) » signifie qu’il faut prendre la racine carrée de la parenthèse.

Exemple : soit une porte de 1,8 sur 2 m de section, une température intérieure de 20°C et extérieure de 6°C, soit 279 K.

Débit = 0,15 x 3,6 x (9,81 x 2 x 14/279) exp (1/2) = 0,53 m³/s. Une vitesse moyenne de sortie d’air au travers de la porte est donc de 0,53/3,6 = 0,15 m/s.

Remarque : le rapport de conférence du CSTC, Ventilation and Air Quality in Belgian Buildings : a state of the art. / 9th AIVC Conference, Gent, Belgium, 12-15 september 1988 / par P. Wouters, ainsi que l’article La ventilation et l’infiltration dans les bâtiments : la situation en Belgique. / par P. Wouters ont été largement utilisés pour écrire ce chapitre.

Mettre en place un free-chilling

Mettre en place un free-chilling


Principe de base

Un local informatique fonctionne 24 h/24. Pour le refroidir, le groupe frigorifique tourne toute l’année, même en hiver… Or la température extérieure à Uccle est 3 550 heures par an inférieure à 8 °C, soit 40 % du temps ! Cette situation doit nous paraître aussi aberrante qu’une chaudière qui fonctionnerait au mois de juillet. Ce genre de local étant sans ou avec peu de ventilation hygiénique, il est difficile voire impossible de profiter directement de la fraîcheur de l’air par un refroidissement en mode « free cooling ». La solution ? le free-chilling !

Le principe de base est simple :

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête. Étudions cela en détail.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut une installation à eau glacée qui fonctionne en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17°C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17°C,… Si ce n’est pas le cas, il faudra étudier la possibilité d’adapter les équipements.

Si l’installation dispose déjà d’un condenseur à eau, l’adaptation sera plus aisée : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15°C et 70% HR permet de créer de l’eau de refroidissement à 12° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car en cas de vidange c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.

Quelques exemples :

  • Si l’installation est équipée d’un chiller avec refroidissement direct à air, le placement en rénovation d’un aérorefroidisseur en série sera sans doute difficilement rentable par les kWh économisés (on parle de 25.000 Euros pour un aérorefroidisseur de 300 kW placé…).
  • Un échangeur de ventilo-convecteur qui doit passer d’un régime 7 – 12°C à un régime 12 – 15°C perd 37% de sa puissance de refroidissement. S’il était surdimensionné, cela ne pose pas de problème. Autrement, il faut soit augmenter la vitesse du ventilateur, soit déclasser l’appareil…
  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.

Adapter cette technique à une installation existante nécessite donc toujours une étude particulière (cadastre des énergies de froids consommées avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une rénovation lourde !


Schémas de réalisation

Différents systèmes de refroidissement par free-chilling sont possibles

  • via un aérorefroidisseur à air spécifiqueDeux schémas sont possibles :
> Soit un montage en série avec l’évaporateur, où l’aérorefroidisseur est monté en injection (la température finale est alors régulée par la machine frigorifique, qui reste en fonctionnement si la température souhaitée n’est pas atteinte).

> Soit par un montage en parallèle avec basculement par une vanne à 3 voies en fonction de la température extérieure (aucune perte de charge si la machine frigorifique est à l’arrêt mais fonctionnement en tout ou rien de l’aérorefroidisseur).

Ces solutions sont malheureusement fort chères en rénovation par rapport au prix de l’énergie électrique économisée (compter 25 000 Euros pour un aérorefroidisseur de 300 kW installé). Il faut que le fonctionnement soit assez permanent en hiver pour rentabiliser l’opération.

  • via un appareil mixte
    Certains fabricants proposent des appareils qui présentent 2 condenseurs : un échangeur de condensation du fluide frigorifique et un aérorefroidisseur pour l’eau glacée, avec fonctionnement alternatif suivant le niveau de température extérieure (attention à la difficulté de nettoyage des condenseurs et aux coefficients de dilatation différents pour les 2 échangeurs, ce qui entraîne des risques de rupture).
  • via la tour fermée de l’installation
    Dans le schéma ci-dessous, l’installation fonctionne sur base de la machine frigorifique. Lorsque la température de l’air extérieur est suffisamment froide, la vanne 3 voies bascule et l’eau glacée prend la place de l’eau de réfrigération du chiller. Dans une tour fermée, l’eau n’est pas en contact direct avec l’air extérieur; c’est un circuit d’eau indépendante qui est pulvérisée sur l’échangeur et qui refroidit par évaporation. Mais le problème de la protection au gel reste posé : il est difficile d’envisager de mettre du glycol dans tout le réseau d’eau glacée (échange thermique moins bon, densité plus élevée donc diminution des débits, …).

 

  • via la tour ouverte de l’installation
    Dans ce cas, l’eau glacée est pulvérisée directement face à l’air extérieur. Elle se charge d’oxygène, de poussières, de sable,… Ces impuretés viennent se loger dans les équipements du bâtiment (dont les vannes de réglage des ventilos !). Les risques de corrosion sont tels que cette solution est à proscrire.
  • via un échangeur à air placé devant les orifices d’aspiration d’une tour de refroidissement
    Ceci permet de réutiliser les ventilateurs de la tour mais crée une perte de charge permanente.
  • via un échangeur à plaques traditionnel
    L’échangeur se place entre le réseau d’eau glacée et le circuit de la tour de refroidissement. Cette solution est simple, elle minimise la présence du glycol dans le circuit de la tour mais, en plus de l’investissement à réaliser, elle entraîne un écart de température supplémentaire de minimum 2°C dans l’échangeur entre l’eau glacée et l’eau de la tour, ce qui diminue la plage de fonctionnement du refroidissement par l’air extérieur. C’est le choix qui a été fait au Centre Hospitalier du Bois de l’Abbaye.

L’installation de free-chilling au Centre Hospitalier du Bois de l’Abbaye

Monsieur Tillieux, gestionnaire technique de l’hôpital, avait conscience que des besoins de froid existaient durant toute l’année, donc également pendant l’hiver :

  • des cabinets de consultation installés dans les niveaux inférieurs à refroidir en permanence.
  • ainsi que des locaux techniques utilisant le réseau glacée en hiver (salle de radiographie, blocs opératoires, salle informatique,…)

Profitant de la rénovation d’une tour de refroidissement, il adopta la technique du free-chilling sur le circuit d’eau glacée. Il adapta également les émetteurs pour que ceux-ci puissent travailler au régime 12-17°C. Il favorisa le refroidissement nocturne des locaux, ce qui ne crée pas d’inconfort pour les occupants et valorise mieux le free-chilling puisque la température est plus basse la nuit.

En collaboration avec la société de maintenance, il adopta le schéma de principe suivant :

Le schéma de gauche représente le circuit classique de refroidissement de l’eau glacée dans l’évaporateur. L’eau du condenseur est refroidie dans la tour de refroidissement.

  

Sur le schéma de droite, le groupe frigo est arrêté et l’eau glacée est by-passée dans un échangeur. L’eau de refroidissement est envoyée directement dans la tour de refroidissement.

Un jeu d’électrovannes permet le basculement d’un système à l’autre, dès que la température extérieure descend sous les 8°C. Le dimensionnement de la tour a été calculé en conséquence.

Problème rencontré lors de la mise en route

Lorsque le système basculait du mode « free-chilling » vers le mode « machine frigorifique », celle-ci déclenchait systématiquement !

Pourquoi ? Un condenseur traditionnel travaille avec un régime 27/32°C par 10° extérieurs. Or en mode free-chilling, la température du condenseur est nettement plus basse. La pression de condensation aussi. Le détendeur ne l’accepte pas : il a besoin d’une différence de pression élevée (entre condensation et évaporation) pour bien fonctionner et laisser passer un débit de fluide frigorifique suffisant vers l’évaporateur. Le pressostat Basse Pression déclenche…

Solution ? Une vanne trois voies motorisée a été installée : lors du ré-enclenchement de la machine frigo, le débit d’eau de la tour était modulée pour s’adapter à la puissance de refroidissement du condenseur.

Quelle rentabilité ?

Faute d’une mesure effective, nous allons estimer l’économie réalisée par l’arrêt du groupe frigorifique de 300 kW. Si le fichier météo de Uccle annonce 3.550 heures sous les 8°C, on peut estimer que le refroidissement effectif se fait durant 2.000 heures.

Sur base d’un COP moyen de 2,5, c’est donc 120 kW électriques qui sont évités au compresseur. Une consommation supplémentaire de 5 kW est observée pour le pompage de l’eau au travers de l’échangeur et dans la tour. Soit un gain de 115 kW durant 2000 heures. Sur base de 0,075 €/kWh, c’est 17.000 € qui sont économisés sur la facture électrique.

L’investissement a totalisé 60.000 €, dont moitié pour la tour fermée de 360 kW, le reste en tuyauteries, régulation et génie civil.

Le temps de retour simple est donc de l’ordre de 4 ans.

Séquences de régulation de la tour

  • si T° < 2°C, échange eau-air non forcé
  • si 2°C < T°ext < 4°C, échange eau- air forcé
  • si T°ext > 4°C, échange eau-air humide par pulvérisation

Évaluer la consommation des scanners

Évaluer la consommation des scanners


Puissance en fonction du mode de fonctionnement

Le marché étant tellement vaste, on se réfère à une étude menée par ouverture d'une nouvelle fenêtre ! Energy Star qui intègre sur son site un module de calcul des consommations de différents équipements de bureautique.

Les tableaux et les graphiques ci-dessous montrent des puissances moyennes pour des scanners couramment rencontrés sur le marché en intégrant 4 modes de fonctionnement (actif, prêt, attente et arrêt).

La différence des puissances dissipées entre les modes « attente » et « prêt » est :

  • En mode « attente » (ou standby), le scanner est en veille prolongée et il ne peut pas directement numériser un document. Il y a donc très peu de puissance dissipée.
  • En mode « prêt » (ou ready), le scanner est prêt à numériser un document.
Type de scanner Puissance moyenne [W]
(ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode Prêt Mode attente Mode arrêt
Scanner conventionnel. 36 24 0 0
Scanner labellisé. 36 24 12 0

Source Energy Star.

A priori, au niveau de la puissance, il n’y a pas de différence fondamentale entre un scanner conventionnel et un scanner labellisé.

Les différences se situent au niveau des temps de gestion dans les différents modes de fonctionnement.

Mode de fonctionnement

Une étude américaine (LBNL 2004 : Lawrence Berkeley National Laboratories) sur les consommations d’énergie électrique montre que les scanner sont branchés 365 jours/an.

Pour des équipements conventionnels et labellisés le nombre d’heures de fonctionnement par type de mode est repris ci-dessous sous forme de tableau et de graphique :

Type de scanner Heure moyenne [h/an]
(ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode Prêt Mode attente Mode arrêt
Scanner conventionnel. 0,1 7,6 0 16,3
Scanner labellisé. 0,1 0,5 7,1 16,3

Energy Star.

Les constructeurs d’équipements labellisés basent l’économie d’énergie sur la réduction de la période où le scanner est en mode « prêt ».

Consommation énergétique

Voyons en termes d’énergie consommée ce que cela donne. Les résultats sont repris dans le tableau et sous forme graphique ci-dessous :

Type de scanner Consommation moyenne [kWh/an]
(ouverture d'une nouvelle fenêtre ! source Energy Star)
Fonction basse énergie pas activée ou pas disponible Fonction basse énergie activée
Toujours allumé (BEPA/TA) Éteint en fin de journée (BEPA/EFJ) Toujours allumé (BEA/TA) Éteint en fin de journée (BEA/EFJ)
Scanner conventionnel. 214 69 0 0
Scanner labellisé. 214 69 108 37

Source Energy Star.

On voit tout de suite l’efficacité de la fonction attente du scanner labellisé. Toutefois, il faudra être attentif que cette fonction soit activée par défaut dès l’acquisition de l’équipement ou de ne pas oublier de la mettre en fonction.

Exemple.

Pour argumenter l’intérêt de posséder un équipement labellisé et activé, on peut calculer l’économie moyenne annuelle sur un parc de x machines en considérant que :

  • Le nombre de jour de fonctionnement est de 365 jours/an,
  • la proportion de machines allumées 24h/24 est de 59 %,
  • la proportion d’équipements labellisés est de 60 %.

et en reprenant les consommations énergétiques du tableau ci-dessus :

On applique la formule suivante (Energy Star) :

> Pour les équipements labellisés la consommation moyenne annuelle ramenée à un seul équipement est de :

(1 – 0,59) x 0,6 x kWh/anBEA/EFJ + (1 – 0,59) x (1 – 0,6) x kWh/anBEPA/EFJ

+ 0,59 x 0,6 x kWh/anBEA/TA + 0,59 x (1 – 0,6) x kWh/anBEPA/TA

=

(1 – 0,59) x 0,6 x 37 [kWh/an] + (1 – 0,59) x (1 – 0,6) x 69 [kWh/an]

+ 0,59 x 0,6 x 108 [kWh/an] + 0,59 x (1 – 0,6) x 214 [kWh/an]

=

109 [kWh/an]

> Pour les équipements non labellisés la consommation moyenne annuelle ramenée à un seul équipement est de :

(1 – 0,59) x kWh/anBEPA/EFJ + 0,59 x kWh/anBEPA/AT

=

(1 – 0,59) x 69 [kWh/an] + 0,59) x 214 [kWh/an]

=

155 [kWh/an]

L’économie est dès lors de :

1 – (109 [kWh/an] / 155 [kWh/an]) = 0,3 ou de 30 %

Évaluer l’efficacité thermique et énergétique des meubles frigorifiques fermés

Évaluer l'efficacité thermique et énergétique des meubles frigorifiques fermés


Certifications et normes

Les certifications sont en général des initiatives volontaires de la part des constructeurs pour permettre aux bureaux d’études, fournisseurs et utilisateurs de choisir correctement leurs équipements en comparant des pommes avec des pommes dans le cadre d’une concurrence saine. Une certification est accordée à un fabricant lorsque l’équipement testé selon un protocole de mesure préétabli, identique pour tous les équipements de la même famille et basé sur les normes EN en vigueur.

EUROVENT site

Caractéristiques certifiées

Dans le domaine de l’HVACR (Heating Ventilation Air Conditioning and Refrigeration), une certification qui donne une bonne garantie de qualité notamment au niveau énergétique est EUROVENT . Les exigences des fabricants, à savoir la puissance, la consommation d’énergie et le niveau sonore sont correctement évalués dans le cadre de la demande de certification, et ce, conformément aux normes EN en vigueur.
Pour les meubles frigorifiques, la certification EUROVENT porte plus particulièrement sur les caractéristiques de performances énergétiques suivantes :

  • la consommation d’énergie électrique de réfrigération REC (du groupe de froid) en [kWh/j];
  • la consommation d’énergie électrique directe DEC (avec 12 heures d’éclairage) en  [kWh/j]. Attention que pour les meubles à groupe de condensation incorporé, DEC est égal à la somme de toutes les énergies électriques consommées par le meuble frigorifique incluant l’énergie du compresseur ;
  • la consommation d’énergie électrique totale TEC en [kWh/j], avec :
    • TEC pour les meubles à groupe de condensation séparé = REC + DEC ;
    • TEC pour les meubles à groupe de condensation incorporé = DEC.

Les essais sont effectués en fonction du type de meubles et dans des conditions d’ambiance pré-définies et pour des températures de denrées spécifiques à l’usage du meuble :

Les types d’application.

Application à utiliser pour

Température positive

Denrées réfrigérées

 

Température négative

Denrées congelées, surgelées et crèmes glacées

Horizontal
1 Réfrigéré, service par le personnel. Surgelé.
2 Réfrigéré, service par le personnel. Surgelé, avec réserve incorporée.
3 Réfrigéré, ouvert, mural. Surgelé, ouvert, muraltop, …
4 Réfrigéré, ouvert, îlot. Surgelé, ouvert, îlot.
5 Réfrigéré, vitré,mural. Surgelé, vitré,mural.
6 Réfrigéré, vitré, îlot. Surgelé, vitré, îlot.
Vertical
1 Réfrigéré, semi-vertical. Surgelé, semi-vertical.
2 Réfrigéré, à étagères. Surgelé, à étagères.
3 Réfrigéré, pour chariot à façade amovible.
4 Réfrigéré, à portes vitrées. Surgelé, à portes vitrées.
Combiné
2
Réfrigéré, haut ouvert, bas ouvert.
Surgelé, haut ouvert, bas ouvert.
2
Réfrigéré, haut ouvert, bas fermé.
Surgelé, haut ouvert, bas fermé.
3
Réfrigéré, haut à portes vitrées, bas ouvert.
Surgelé, haut à portes vitrées, bas ouvert.
4
Réfrigéré, haut à portes vitrées, bas fermé.
Surgelé, haut à portes vitrées, bas fermé.
5
Multi température, haut ouvert, bas ouvert.
6
Multi température, haut ouvert, bas fermé.
7
Multi température, haut à portes vitrées, bas ouvert.
8
Multi température, haut à portes vitrées, bas fermé.

Source EUROVENT.

Les conditions d’ambiance sont :

Classes de climat des chambres test Température sèche [°C] Humidité relative [%] Point de rosée [°C] Humidité absolue [gd’eau/kgair sec]
0 20 50 9,3 7,3
1 16 80 12,6 9,1
2 22 65 15,2 10,8
3 25 60 16,7 12
4 30 55 20 14,8
5 27 70 21,1 15,8
6 40 40 23,9 18,8
7 35 75 30 27,3
8 23,9 55 14,3 10,2

Source EUROVENT.

Les classes de températures des paquets de denrées tests sont :

Classe de température des paquets tests La plus haute température du paquet test le plus chaud doit être supérieure à [°C] La plus basse température du paquet test le plus froid doit être supérieure à [°C] La plus basse température du paquet test le plus chaud doit être inférieure à [°C]
L1 -15 -18
L2 -12 -18
L3 -12 -15
M1 5 -1
M2 7 -1
H1 10 +1
H2 10 -1

Source EUROVENT.

Consommation d’énergie annuelle conventionnelle CAEC

La consommation d’énergie électrique de réfrigération (REC) est une valeur conventionnelle qui ne peut pas être directement utilisée pour calculer la consommation d’énergie annuelle dans un magasin. Pour obtenir une idée grossière de la consommation annuelle d’un meuble, une formule conventionnelle a été acceptée par les fabricants participant au programme EUROVENT Certification pour un meuble fermé, réfrigéré à étagères.

CAEC [kWh/m².an] = 365 [jours/an] x (DEC + 0,5 x REC) [kWh/j] / TDA [m²]

où :

  • (DEC + 0,5 x REC) / TDA = Coefficient conventionnel prenant en compte :
    • la stratification conventionnelle de température dans un magasin de plus de 600 m²;
    • la répartition temporelle conventionnelle des conditions d’ambiance d’un magasin pendant l’année.

Valeurs européennes moyennes TEC / TDA

Le tableau ci-dessous donne un exemple des valeurs moyennes des consommations pour le marché européen. Les valeurs ont été collectées et moyennées par le groupe WG14 d’Eurovent / Cecomaf sur la base des chiffres fournis par les fabricants et l’expérience de terrain.
Les valeurs ont été établies pour les classes de température des paquets M définies en laboratoire :

Famille de meubles Classe de température du meuble (classe de l’ambiance + denrée) Moyenne européenne TEC /TDA [kWh/jour.m²]
Pour meubles à groupe de condensation incorporé
IHC1, IHC2, IHC3, IHC4 3H2 8,2
3H2 9,6
IVC1, IVC2, (IVC3) 3H2 17,3
3H2 21,0
IVC4 3M1 13,9
IHF1, IHF3, IHF4 3L3 21,5
3L1 36,0
IHF5, IHF6 3L1 17,8
IVF4 3L1 30,5
IYF1, IYF2, IYF3, IYF4 3L3 32,3
IYM6 3H2/3L1 25,3
Pour meubles à groupe de condensation séparé (à groupe extérieur)
RHC1 3H 6,2
RHC1 3M2 6,7
RHC3, RHC4 3H 5,5
RHC3, RHC4 3M2 5,8
RVC1, RVC2 3H 10,1
RVC1, RVC2 3M2 12,3
RVC1, RVC2 3M1 13,4
RVC3 3H 13,8
RHF3, RHF4 3L3 13
RVF4 3L1 28,5
RVF1 3L3 29

Source EUROVENT.

H = horizontal, V = vertical, Y = combiné, C = réfrigéré, F = surgelé, M = multi-température, A = Assisté, S = libre service, R = groupe de condensation séparé, I = groupe de condensation incorporé

Norme

EN ISO 23953 : Meubles frigorifiques de vente- partie 2 : classification, exigences et méthodes d’essai (ISO 23953 : 2005)

EUROVENT se base principalement sur cette norme pour certifier les meubles frigorifiques.

Consommation énergétique certifiée

Actuellement, la plupart des constructeurs, comme le montre le chapitre précédent, se fient aux résultats donnés par la certification EUROVENT. La méthode d’essai est très précise et permet, entre autres, de déterminer :

  • la qualité du meuble pour maintenir les températures escomptées à l’intérieur du volume utile de chargement ;
  • les consommations énergétiques globales.

Les essais sont réalisés dans des conditions de températures elles aussi précises.

Exemple.

Un meuble RVF4 travaillant dans une classe de température 3L1 signifie que :

  • le type d’application est 4; à savoir : Surgelé, Vertical à portes vitrées
  • la température et l’humidité de l’ambiance dans laquelle est plongé le meuble est :
Classes de climat des chambres test Température sèche [°C] Humidité relative [%] Point de rosée [°C] Humidité absolue [gd’eau/kgair sec]
0 20 50 9,3 7,3
1 16 80 12,6 9,1
2 22 65 15,2 10,8
3 25 60 16,7 12
4 30 55 20 14,8
5 27 70 21,1 15,8
6 40 40 23,9 18,8
7 35 75 30 27,3
8 23,9 55 14,3 10,2
  • les températures souhaitées au niveau des denrées sont :
Classe de température des paquets tests La plus haute température du paquet test le plus chaud doit être inférieure à [°C] La plus basse température du paquet test le plus froid doit être supérieure à [°C] La plus basse température du paquet test le plus chaud doit être inférieure à [°C]
L1 -15 -18
L2 -12 -18
L3 -12 -15
M1 5 -1
M2 7 -1
H1 10 +1
H2 10 -1
  • pour un type de meuble précis, on détermine la consommation énergétique moyenne:
Famille de meubles Classe de température du meuble (classe de l’ambiance + denrée) Moyenne européenne TEC /TDA [kWh/jour.m²]
Pour meubles à groupe de condensation séparé
RVF4 3L1 28,5

Source EUROVENT.

H = horizontal, V = vertical, Y = combiné, C = réfrigéré, F = surgelé, M = multi-température, A = Assisté, S = libre service, R = groupe de condensation séparé, I = groupe de condensation incorporé.

La valeur de 28,5 [kWh/jour.m²] est donc une consommation moyenne établie pour l’ensemble des meubles verticaux négatifs à groupe de froid séparé, à étagères et à portes vitrées.

Lorqu’on analyse de plus près un cas spécifique de meuble, EUROVENT donne les valeurs suivantes pour un RVF4 3L1:

Modèle Réfrigérant Agencement interne Nombre d’étagères Rideau de nuit DEC pour 12 heures d’éclairage [kWh/jour] REC [kWh/jour] Surface totale d’exposition

TDA [m²]

 

TEC/TDA [kWh/jour.m²]
R404A HNLS (ou étagères horizontales non éclairées 5 non 25,6 27,7 2,41 22,1

Sachant que ce type de meuble a une ouverture TDA de 4,12 [m²] pour une longueur L de 2,95 [m], on peut évaluer la puissance moyenne absorbée par le meuble. Soit :

Pmoyen = TEC x (TDA / L) / 24 [kW/ml] (où ml = mètre linéaire)

Pmoyen = 22,1 [kWh/jour.m²] x (2,41 [m²] / 2,34 [m]) / 24 [h/jour]

Pmoyen = 0,94 [kW/ml]

Tout ceci signifie que les essais aboutissant à une certification du meuble frigorifique sont réalisés dans des conditions d’ambiance tout à fait particulières. Cette certification est naturellement nécessaire pour permettre aux bureaux d’études en technique spéciale ou au maître d’ouvrage de pouvoir comparer les meubles de même classe ou de même famille ensemble. Les résultats des mesures des consommations énergétiques sont des moyennes, mais ne représentent pas les consommations réelles en fonction des conditions ambiantes de température et d’humidité variables à l’intérieur du commerce.


Apports thermiques

Le meuble frigorifique fermé subit en permanence des agressions de l’extérieur ou de l’intérieur sous forme d’apports thermiques et hydriques. L’évaporateur installé dans le meuble doit en permanence les combattre par échange thermique avec l’air en convection forcée qui le traverse.

Apports externes classiques

Les agressions externes représentent une bonne partie des apports thermiques. Elles sont dues aux conditions d’ambiance (température et humidité) des zones de vente entourant les meubles.

On retrouve principalement :

  • les apports de chaleur par les parois Ppen(convection de surface et conduction au travers des parois);
  • les apports de chaleur par les portes lorsque celles-ci sont ouvertes;
  • les apports de chaleur par rayonnement Pray des parois de l’ambiance avec celle du meuble au travers des vitres des portes lorsque celles-ci sont fermées.

Apports de chaleur par pénétration Ppen_isolant au travers des parois isolées

  

Coupe d’un meuble « positif » (isolant en polystyrène en moyenne de 3 cm).

Coupe d’un meuble « négatif » (isolant en polystyrène en moyenne de 5  cm).

Les parois des meubles se composent généralement de panneaux sandwich (acier/isolant/acier) qui limitent les pénétrations de chaleur par conduction de l’ambiance des zones de vente vers l’intérieur du meuble. Les déperditions négatives ou pénétrations au travers des parois sont fonction :

  • de la composition des parois;
  • de l’importance des surfaces de pénétration;
  • de l’écart de température de part et d’autre des parois.

On évalue l’apport de chaleur par pénétration Ppen_paroi par la relation suivante :

Ppen_paroi = K moyen_paroi x Sparoi x (Tambiance – Tinterne) [W]

Pour autant que l’écart de température entre l’ambiance et l’intérieur du meuble frigorifique reste constant, les apports internes par pénétration sont théoriquement constants de jour comme de nuit.

Dans le cas des meubles frigorifiques fermés, les températures d’application sont souvent négatives et, par conséquent, les épaisseurs d’isolants sont souvent plus importantes.

Le coefficient Kmoyen_paroi s’exprime par la relation suivante :

K moyen_paroi =  λparoi / eparoi  [W/m².K]

où :

  • λparoi : coefficient de conductivité thermique (il est en général compris entre 0,02 et 0,03 [W/m.K])
  • eparoi : épaisseur de l’isolant (pour les applications en froid négatif, les épaisseurs peuvent aller jusqu’à 6 [cm].

K moyen_paroi =  0,02 / 0.06

K moyen_paroi =  0,33 [W/m².k] 

Apports de chaleur par pénétration Ppen_vitrage au travers des portes fermées

  photo portes meubles frigorifiques fermés - 01.   photo portes meubles frigorifiques fermés - 02.   photo portes meubles frigorifiques fermés - 03.

Tout comme les parois isolantes, les portes qu’elles soient vitrées ou pas, sont soumises au même écart de température. Les déperditions négatives ou pénétrations au travers des parois sont donc aussi fonction :

  • de la composition des parois (Kmoyen_paroi = 3 [W/m².K] pour un double vitrage par exemple);
  • de l’importance des surfaces de pénétration;
  • de l’écart de température de part et d’autre des parois.

On évalue l’apport de chaleur par pénétrationPpen_vitrage par la relation suivante :

Ppen_vitrage  = K moyen_paroi x Sparoi x (Tambiance – Tinterne) [W]

Apports de chaleur Pjoint_porte par convection au travers des joints de portePour autant que l’écart de température entre l’ambiance et l’intérieur du meuble frigorifique reste constant, les apports internes par pénétration sont théoriquement constants de jour comme de nuit.

Apports de chaleur Pjoint_porte par convection au travers des joints de porte

Le joint de porte est un élément essentiel dans la fonctionnalité du meuble fermé. En effet, dans la pratique, à chaque ouverture de porte, l’humidité de l’ambiance externe au meuble vient se condenser et même givrer sur sa surface vu sa basse température. Il en résulte lors de la fermeture de porte que le joint risque :

  • soit de coller contre la paroi du meuble et donc d’empêcher l’ouverture suivante;
  • soit, par accumulation de givre ou de glace, de ne plus assurer l’étanchéité du meuble (le bilan énergétique se dégrade).

L’échange avec l’ambiance externe au meuble est directement fonction des caractéristiques du joint et de la qualité du contact avec la structure portante.

On évalue l’apport de chaleur par pénétration Pjoint_porte par la relation suivante :

Pjoint_porte  = Cair  x qfuite x l x (Tambiance – Tinterne) [W]

où :

  • Cair : capacité calorifique approchée de l’air volumique de l’air humide (soit Cair = 2 kJ/m³.K)
  • qfuite : débit de fuite au niveau du joint [m³/s.m];
  • l : longueur totale du joint de porte [m]

Pour autant que le joint soit entretenu ou soit équipé de cordons chauffants (attention qu’il faudra tenir compte de la perte interne due au cordon), la perte par convection au travers du joint est négligeable.

Apports de chaleur par rayonnement au travers des parois vitrées Pray_vitrage

  

Les échanges par rayonnement au travers d’une porte vitrée de meuble frigorifique dépendent naturellement de la composition du vitrage et de la longueur d’onde du rayonnement incident.

Un verre clair, par exemple, est transparent au rayonnement visible et à l’infrarouge proche à environ 90 %. À l’inverse, le rayonnement infrarouge lointain (parois environnantes) de passe presque pas.

Spectre de transmission du verre.

Dans les 90 % du rayonnement traversant le verre clair, 30 à 40 % sont absorbés par les denrées, le reste étant, en partie renvoyé à l’extérieur par transmission (90 %), en partie absorbé par le verre lui-même.

Suite à ce qui vient d’être dit, on conçoit aisément qu’il faut éviter le rayonnement solaire direct.

Exemple :

Si on considère un ensoleillement direct d’une puissance spécifique de 1 000 [W/m²]. sur une surface de 1 m² de porte vitrée d’un meuble frigorifique, l’apport est de 1 000 [W], ce qui est évidemment énorme.

En l’absence de rayonnement solaire direct sur les meubles frigorifiques (on essaye la plupart du temps de l’éviter), ce sont :

  • les parois avoisinantes (à une température de l’ordre de 25-30 °C) qui sont émettrices dans l’infrarouge lointain (IR lointain à grande longueur d’onde). Cette composante, lorsqu’elle interagit avec une ou plusieurs parois vitrées se transforme en chaleur selon le processus de la figure ci-dessus :

   

  • Transfert de chaleur par rayonnement infrarouge au travers de parois vitrées.
  • éventuellement les éclairages de l’ambiance de vente qui eux sont des émetteurs dans le rayonnement visible et l’infrarouge proche (IR proche à courte longueur d’onde).
Bilan énergétique de quelques lampes (C. Meyer et H. Nienhuis)
Type de lampe Conduction/convection [%] Rayonnement UV [%] Rayonnement IR [%] Rayonnement visible [%]
A incandescence 15 75 10
Tube fluorescent 71,5 0,5 (1) 28
Fluo-compact 80 0,5 (1) 19,5
Halogénure métallique 50 1,5 24.5 24
Sodium haute pression 44 25 31
(1) dans le cas de lampes fluorescentes dont la surface développée est importante, on pourrait séparer le rayonnement IR lointain. Pour les lampes fluo-compact, cette distinction n’est pas d’application.

Source AFE.

En première approximation, en l’absence de rayonnement solaire direct, les apports de chaleur par rayonnement au travers des portes vitrées à plusieurs couches (ce qui est souvent le cas) sont minimes lorsqu’on considère que les éclairages externes aux meubles sont des sources lumineuses :

  • de bonne qualité telles que les lampes fluorescentes;
  • éloignées afin d’éviter un échange par convection/conduction;

Les vitrages sélectifs tels que ceux que l’on rencontre dans la construction classique permettraient de réduire l’impact du rayonnement lumineux. Cependant, on risquerait de rencontrer des problèmes visibilités des denrées au travers des portes vitrées (reflets).

Apports externes par l’ouverture des portes

En période de vente, les meubles frigorifiques fermés sont sollicités au niveau thermique et énergétique par l’ouverture périodique des portes vitrées. L’atmosphère froide et sèche interne au meuble est mise en contact avec l’ambiance variable des zones de vente, mais d’emblée plus chaude et plus humide. Il va de soi que la sollicitation thermique et énergétique du meuble est tributaire de la « fréquence » d’ouverture et fermeture des portes.

L’apport de chaleur horaire dû à l’ouverture des portes est le suivant :

Pouverture_porte  = Nporte x Nouverture  x Vlibre_meuble x Cair  x (Tambiance – Tinterne) / 3600 [W]

où :

  • Cair : capacité calorifique approchée de l’air volumique de l’air humide (soit Cair = 2 kJ/m³.K)
  • N : nombre d’ouvertures par heure [h-1];
  • Vlibre_meuble : volume non occupé par les denrées [m³].

Le profil d’ouverture des portes d’un meuble frigorifique peut être représenté par la figure suivante :

Exemple de profil d’ouverture de porte.

Apports internes

Pour maintenir le meuble à température et dans des bonnes conditions de fonctionnement ainsi que pour rendre les denrées attrayantes, des apports internes sont produits.

On retrouve principalement :

  • les apports de chaleur par l’éclairage Pecl;
  • les apports de chaleur par l’intégration des moteurs des ventilateurs dans le réseau de distribution d’air du meuble Pvent (le moteur chauffe);
  • les apports de chaleur des cordons chauffants des joints de porte Pcordon_chauf;
  • les apports de chaleur ponctuels par les systèmes de dégivrage Pdeg.

Schéma apports internes.

Apports de chaleur par l’éclairage

L’éclairage dans le volume utile de chargement contribue aussi au réchauffement des denrées alimentaires. La chaleur évacuée par l’évaporateur est grosso modo la puissance électrique qui alimente l’éclairage, à savoir la puissance des lampes et des auxiliaires s’ils sont placés dans le volume utile réfrigéré. Généralement, ce sont des tubes fluorescents qui équipent les meubles frigorifiques. Les ballasts qui les alimentent peuvent se trouver ou pas dans le volume utile; d’où l’importance d’avoir des luminaires énergétiquement performants.

L’apport de chaleur procuré par les éclairages est repris dans la relation suivante :

Pecl  = Pélectrique_luminaire + Pélectrique_ballast (si dans le volume utile de chargement)[W]

Apports de chaleur des ventilateurs

Les ventilateurs placés dans la reprise d’air, en amont des évaporateurs, dissipent aussi leur chaleur. Tout comme l’éclairage placé dans le volume utile, la puissance électrique alimentant les ventilateurs est transformée en chaleur.

On évalue l’apport de chaleur des ventilateurs Pvent par la relation suivante :

Pvent  = Pélectrique_ventilateur [W]

Apports de chaleur dus au dégivrage

Le dégivrage est un mal nécessaire sachant que les meubles frigorifiques, lorsqu’ils sont ouverts, sont des déshumidificateurs puissants. L’humidité de l’air de l’ambiance, lors de l’ouverture des portes, se retrouve sous forme de givre, de gel ou encore de glace (quand il est trop tard) sur les ailettes de l’évaporateur. L’apport de chaleur lors de l’opération de dégivrage est ponctuel.

On évalue l’apport de chaleur du dégivrage Pdeg par la relation suivante :

Pdeg = Pélectrique_dégivage [W]

  • en froid positif, on essaye d’effectuer un dégivrage naturel en coupant l’alimentation de l’évaporateur en froid;
  • en froid négatif, on effectue des dégivrages par des résistances chauffantes placées sur l’évaporateur.

Apports de chaleur dus aux cordons chauffants

Les cordons chauffants sont en général placés au niveau des vitrages afin de réduire les risques de condensation au niveau des surfaces vitrées (porte vitrée, miroir, …), des ponts thermiques inévitables, …

On évalue l’apport de chaleur dû aux cordons chauffants Pcord_chauf par la relation suivante :

Pcord_chauf = Pélectrique_cordon_chauffant [W]


Bilan énergétique

L’évaluation du bilan thermique permet de préciser la puissance frigorifique nécessaire pour combattre les agressions thermiques du meuble. La puissance frigorifique appliquée à des meubles linéaires et rapportée au mètre linéaire en [W/ml] est un ratio important souvent utilisé par les professionnels pour comparer la performance de différents meubles de même type mais de marque différente (voir certification EUROVENT).

Évaluation théorique des consommations journalières

L’évaluation théorique du bilan énergétique journalier est plus parlante que le bilan thermique des puissances mises en jeu, car elle prend en compte les modifications de régime des apports thermiques tels que l’éclairage pendant la journée, les dégivrages, …, sur une période de 24 heures. Cette période est la même que celle utilisée par EUROVENT pour caractériser les meubles frigorifiques.

Définitions

Les bilans énergétiques de jour et de nuit sont différents. Ils s’expriment par la somme des apports tant internes qu’externes selon la période de la journée ou de la nuit, multipliés par les temps respectifs pendant lesquels les apports interviennent, à savoir :

Bilan énergétique de jour

Qjour  = Σ Papports_jour x tjour

Qjour = (Ppen_paroi + Pecl + Pvent) x tjour+ Ppen_vitrage x (tjour – touverture_porte) + Pouverture_porte x touverture_porte

+ Pdégivrage x nbre_dégivr x tdégivr [Wh/jour]

Bilan énergétique de nuit

Qnuit = Σ Papports_nuit x tnuit 

Qnuit= (P pen_paroi + Ppen_vitrage  + Pvent) x tnuit [Wh/jour]

Attention que l’on néglige à la fois :

  • les apports par rayonnement au travers des portes vitrées (pas de rayonnement solaire et peu d’effet thermique de la part des luminaires sachant que le vitrage est au minimum un double vitrage ;
  • les apports par fuite au niveau des joints en considérant que ceux-ci sont de bonne qualité.

le bilan énergétique journalier représente l’énergie nécessaire à l’évaporateur du meuble frigorifique pour vaincre les apports internes et externes. Il s’écrit de la manière suivante :

Bilan énergétique

Q = Qjour + Qnuit[Wh/jour]

Calculs du bilan énergétique d’un meuble fermé vertical négatif

Bilan énergétique

Calculs

Pour évaluer le bilan énergétique d’un meuble frigorifique ouvert vertical.

L’énergie frigorifique journalière est l’énergie froid consommée par l’évaporateur du meuble ouvert.

Qtotal = Qjour + Qnuit [Wh/jour]
Apports de chaleur Énergie de jour (10 heures/jour) Energie de nuit (14 heures/jour) Energie total journalière
Pénétration paroi 3 870 5 418 9 288
Pénétration vitrage 5 498 7 766 13 264
ouverture des portes 5 733 0 5 733
Ventilation/cordon chaud 2 100 2 940 5 040
Éclairage 2 880 0 2 880
Dégivrage 6 400 0 6 400
Total 42 605
Total/m² d’ouverture de portes 42 605/(4.3 x 1000) = 9,9 [kWh/m².jour]

Puissance frigorifique de l’évaporateur

Vu la présence d’un système de dégivrage électrique (en négatif, le dégivrage naturel ne suffit pas), la détermination de la puissance frigorifique du meuble doit s’effectuer en partant de l’énergie journalière. Soit :

P0 = (Qtotal)  / (24 – nombredégivrage x tempsdégivrage)

P0 = 42 605  / (24 – 2 x 0.5)

P0 = 1 852 [W]

Puissance frigorifique spécifique

La puissance frigorifique spécifique ou couramment connue sous le nom de puissance par mètre linéaire de meuble frigorifique est de :

Pml = P 0 / longueur du meuble

Pml = 1 852  / 2,3

Pml = 805  [W/ml]

Commentaires

  • La puissance par mètre linéaire d’un meuble frigorifique fermé négatif à porte fermée est moins énergivore que son homologue ouvert;
  • le calcul théorique de l’énergie frigorifique journalière du meuble est de 9,9 [kWh/m².jour]. Pour pouvoir la comparer par rapport au TEC d’EUROVENT il serait nécessaire d’y ajouter la consommation du groupe de froid. Pour une installation classique (COP de 1.2 par exemple), la consommation du compresseur serait de l’ordre de 9,9  / 1,2 = 8,25 [kWh/m².jour]. On en déduit le TEC/TDA = 9,9 + 8,25 = 18,15 [kWh/m².jour]. En se référent au tableau de la moyenne européenne des TEC/TDA, pour ce type de meuble, TEC/TDA = 28,5 [kWh/m².jour];
  • EUROVENT annonce, spécifiquement pour ce type de meuble et pour un fabricant référencé, une valeur de TEC/TDA = 22,1 [kWh/m².jour]; ce qui montre que l’évaluation théorique est en deçà de celle mesurée en laboratoire, soit 18,15 / 22.1 = 0,82 ou 18 % en moins de consommation spécifique du meuble choisi;
  • Si la moyenne donnée par EUROVENT est de 28,5 [kWh/m².jour], le meuble étudié est donc en dessous de la moyenne européenne, soit : 22,1 / 28,5 = 0,77 ou 23 %. On se rend compte ici que la disparité des consommations des meubles testés par EUROVENT est importante; ce qui signifie qu’en froid négatif, plus encore qu’en froid positif, la qualité de la fabrication des meubles souffle le chaud et de froid. (c’est le cas de le dire).

Puissances frigorifiques spécifiques et températures

Une manière souvent utilisée pour classifier les meubles frigorifiques, est de se baser sur :

  • la puissance frigorifique spécifique;
  • ou la puissance frigorifique par mètre linéaire;
  • ou par module de porte en fonction des conditions classiques définies par EUROVENT (température d’ambiance de 25°C et une humidité relative de 60 %).

Meuble frigorifique fermé à applications négatives

Famille de meubles Type de rideau d’air Surface d’exposition [m²/ml] ou [m²/porte] Température de service [°C] Puissance frigorifique spécifique [kW/ml]
Meuble vertical self-service en convection forcée Portes vitrées, rideau d’air interne turbulent. 0,84 -23 à -25 0,8 0,86

Température

La puissance frigorifique est toujours liée à une température d’évaporation qui permet de tenir la température de consigne au sein du meuble frigorifique.

Type de meuble Température de service interne au meuble frigorifique [°C] Température de l’évaporateur[°C]
Froid négatif -18/-20 -30 à -35
-23/-25 -33 à -38

Influence de l’évaporateur

Il est important qu’un évaporateur soit bien dimensionné pour combattre les apports du meuble. Une surface d’échange insuffisante par rapport aux apports entraîne une saturation de l’évaporateur en température. Pour des applications proche de 0°C, ou dans ce cas franchement négative, la prise en glace ou le givrage est plus rapide entraînant une surconsommation du meuble.

La figure suivante représente l’évolution des températures, à la fois pour l’air qui passe au travers des ailettes d’échange et le fluide frigorigène au travers des tuyauteries :

  • au fur et à mesure que l’air traverse les différents rangs d’ailettes, sa température diminue selon une loi logarithmique et passe de la température t1 à la température t2;
  • par contre, le fluide frigorigène se vaporise tout au long du trajet inverse à température plus ou moins constante (suivant le type de fluide utilisé) et ce jusqu’au moment où la dernière goutte liquide devient gazeuse (point c où le titre du fluide Xr = 1 : 1 correspond à un fluide totalement gazeux). À partir de ce point, le fluide frigorigène entre dans sa phase de surchauffe et voit sa température augmenter (segment c-d).

L’évaporateur est principalement caractérisé par sa puissance frigorifique :

Po = K0 x Séchange x Δtmln

et dépendant des paramètres suivants :

  • le coefficient global d’échange moyen K0[W/m².K) s’exprimant sous la forme :

K0 = f1 / ((Séchange / (Si x αi)) + (1 / (Φ x αe))

avec :

  • f1 : coefficient tenant compte de la chaleur latente intervenant dans le givrage des ailettes d’échange (soit f1 = 1.25 pour le froid positif et 1,05 pour le froid négatif);
  • Φ : rendement global de la surface d’échange Séchange (Φ ~ 0,65 pour la convection forcée et ~0,75 en convection naturelle pour des échangeurs standards);
  • αe : coefficient d’échange moyen par convection pour les surfaces externes.Il est difficile à calculer, mais dépend principalement de la vitesse moyenne de l’air au travers des ailettes (0,6 < vm < 1,2 m/s) et du pas des ailettes (espace entre deux ailettes). En écoulement laminaire, αest compris entre 11 et 23 W/m².K et en écoulement turbulent entre 13 et 45 W/m².K;
  • αi : coefficient d’échange moyen interne lors de l’ébullition sèche du fluide frigorigène. Lui aussi est très complexe à déterminer, mais dépend principalement du type de fluide frigorigène, de son débit et du diamètre des conduites de l’évaporateur. On parle de 850 à 1 800 W/m².K.
  • la surface d’échange côté air de l’échangeur Séchange [m²] :

Séchange ~ 2 x VE / pas

avec :

  • VE : volume de l’évaporateur [m³];
  • pas : espace entre deux ailettes [m].
  • l’écart moyen logarithmique de température Δtmln* corrigé défini par la relation suivante :

Δtmln* = 0,95 x  f2 x ((t1 – t2)/ ln ((t1 – tfluide_frigorigène) / (t2 – tfluide_frigorigène))) [K]

avec :

  • f2 : coefficient correcteur tenant compte de la surchauffe à la sortie de l’évaporateur
  • t1 : température entrée évaporateur [K];
  • t2 : température entrée évaporateur [K];
  • tfluide_frigorigène ou t0 : température entrée évaporateur [K];


Influence du givrage

Principe de givrage

L’humidité de l’air ambiant de la zone de vente passant au travers des ouvertures de porte migre naturellement vers les parties froides du meuble et plus particulièrement vers l’évaporateur. Cette humidité se condense et givre sur les ailettes pour les applications de froid commercial (même pour les applications « positives », la température d’évaporation est négative par exemple -10°C).

Dans des applications de congélation, il arrive que l’humidité dans l’air se transforme directement en cristaux de neige qui peuvent se fixer par exemple et malheureusement sur les pales des ventilateurs de manière non homogène pouvant entraîner la destruction des ventilateurs.

Formation de givre.

La formation de givre entraîne une réduction de la puissance frigorifique P0 suite à :

  • une réduction du débit d’air passant au travers de l’évaporateur;
  • et par conséquent une augmentation des pertes de charge dans le circuit de refroidissement;
  • une augmentation de la résistance thermique de la surface de refroidissement;
  • une chute de la température du fluide frigorigène.

Aussi, il découle de la réduction de débit que l’efficacité du rideau d’air (quand il y en a un) sera moindre en favorisant l’augmentation des apports par induction, le passage accrût de l’humidité de l’air ambiant et l’augmentation de la température de l’intérieur du meuble, … C’est en fait le principe du « chien qui se mange la queue ».

Sur le diagramme psychométrique ci-dessous, le givre qui se forme sur l’évaporateur correspond à l’humidité prise dans l’ambiance de vente et/ou au niveau des denrées non emballées.

Le givrage représente donc une contrainte importante pour le commerçant sachant que :

  • l’on risque de briser la chaîne du froid;
  • le meuble frigorifique devra être équipé de systèmes de dégivrage pouvant entraîner des consommations énergétiques supplémentaires.

Il est donc nécessaire d’effectuer des dégivrages réguliers.

Poids énergétique du dégivrage

Quel que soit le type de dégivrage (naturel ou électrique principalement), pendant cette opération, de la chaleur est retirée à la résistance chauffante  en première approximation :

  • pour faire fondre le givre;
  • par les masses de l’évaporateur, du meuble et des denrées.

Temps de dégivrage

Dans le cas d’un dégivrage électrique et connaissant la puissance de la résistance électrique, il est possible d’évaluer le temps de dégivrage par la relation d’équilibre suivante :

Σénergies absorbées = Σapports énergétiques

Où les apports énergétiques sont l’énergie fournie par la résistance chauffante pendant le temps de dégivrage et l’énergie apportée par l’éclairage, les ventilateurs, …


Influence de l’éclairage

photo éclairage meuble frigorifique.

L’éclairage intensif des meubles est-il un critère de vente ?

On sait aussi que les apports internes comme l’éclairage régissent la puissance frigorifique nécessaire au maintien des températures au sein des meubles. La présence d’éclairage au sein du meuble non seulement représente une consommation électrique en soi, mais nuit aussi à la consommation énergétique des groupes de production de froid. En simplifiant, le commerçant passe deux fois à la caisse. Pour tant soit peu que l’efficacité de la production de froid ne soit pas optimisée, sa consommation énergétique sera double.

Le placement d’éclairage dans l’enceinte même réfrigérée est une mauvaise chose en soi. En effet, la plupart du temps, les constructeurs de meubles frigorifiques utilisent des lampes fluorescentes. En effet, ce type de lampes a une basse efficacité lumineuse aux basses températures comme le montre la figure suivante :

Efficacité lumineuse en fonction de la température ambiante.


Influence des ventilateurs

Les ventilateurs fonctionnent en permanence afin de maintenir les températures de consigne au sein des meubles. La puissance électrique nécessaire pour faire tourner les pales du ventilateur et, par conséquent, pour déplacer l’air au sein du meuble, est transformée en chaleur et participe au réchauffement de l’ambiance interne du meuble. Cet apport représente de l’ordre de 3 à 5 % de la consommation énergétique de la production de froid.


Influence des cordons chauffants

Les cordons servant à éviter la présence de buée sur les portes vitrées et à empêcher les portes des meubles mixtes d’être bloquées par le givre ou la glace. Ce type d’apports influence aussi le bilan énergétique du meuble. On estime sa participation à la dégradation du bilan énergétique à ~1 %.

Fluides frigorigènes [Froid alimentaire]

Fluides frigorigènes [Froid alimentaire]


L’impact environnemental

Depuis quelques décennies, l’impact des fluides frigorigènes sur l’environnement est devenu un enjeu majeur. En effet, de par la présence de fuites au niveau du circuit frigorifique, la responsabilité de ces fluides dans la destruction de la couche d’ozone et l’augmentation de l’effet de serre n’est plus à démontrer.

Trou d’ozone au pôle sud.

Que ce soit en conception, en rénovation ou même en maintenance, les fuites de fluides sont donc à éviter. Elles dépendent essentiellement de la qualité :

  • du choix et de la mise en œuvre des équipements (soudures et connexions des conduites de distribution par exemple);
  • de l’optimisation du cycle frigorifique;
  • de la maintenance;

En France, en 1997, une étude a montré que le taux de fuites annuelles pouvait atteindre 30 % de la quantité totale en poids (ou en masse) de fluides frigorigènes présent dans les installations frigorifiques des grandes surfaces (Réf.: Zéro fuite – Limitation des émissions de fluides frigorigènes, D. Clodic, Pyc Éditions, 1997).

Depuis lors, les réglementations se sont attaquées à ces problèmes :

  • Suite au protocole de Montréal (1987) les fluides frigorigènes CFC (chlorofluorocarbures, principaux responsables de la destruction de la couche d’ozone) ont été définitivement abandonnés et remplacés progressivement par les HCFC.
  • Les réglementations européennes 2037/2000, 842/2006 et 517/2014 ont notamment imposé :
    •  l’interdiction d’utilisation des HCFC à fort impact sur l’effet de serre (GWP ou global Warming Potential);
    • le remplacement progressif des HFC à haut GWP;
    • le confinement des installations frigorifiques permettant de réduire la quantité de fluide frigorigène;
    • des contrôles réguliers d’étanchéité des installations;
    •  …

Indices d’impact

Pour établir l’impact des fluides frigorigènes sur la couche d’ozone et l’effet de serre, trois indices principaux ont été définis :

  • ODP : Ozone Depletion Potential;
  • GWP : Global Warning Potential;
  • TEWI : Total Equivalent Warning Impact.

ODP (Ozone Depletion Potential)

C’est un indice qui caractérise la participation de la molécule à l’appauvrissement de la couche d’ozone. On calcule la valeur de cet indice par rapport à une molécule de référence, à savoir soit R11 ou R12 qui ont un ODP = 1.

GWP (Global Warning Potential)

C’est un indice qui caractérise la participation de la molécule à l’effet de serre. On calcul la valeur de cet indice par rapport à une molécule de référence, à savoir le CO2, et pour des durées bien déterminées (20, 100, 500 ans). Le CO2 à un GWP = 1.

TEWI (Total Equivalent Warning Impact)

Le TEWI est un concept permettant de valoriser le réchauffement planétaire (global warming) durant la vie opérationnelle d’un système de réfrigération par exemple, utilisant un fluide frigorigène déterminé en tenant compte de l’effet direct dû aux émissions de fluide frigorigène et à l’effet indirect dû à l’énergie requise pour faire fonctionner le système.
À titre indicatif, il est donné par la formule :

TEWI = (GWP x L x n) + (GWP x m[1-C]) + n x E x β

Où :

  • GWP : global warming potential;
  • L : émissions annuelles de fluide en kg;
  • n : durée de vie du système en années;
  • m : charge en fluide frigorigène en kg;
  • C : facteur de récupération / recyclage compris entre 0 et 1;
  • E : consommation annuelle d’énergie en kWh;
  • β : émission de CO2 en kg / kWh.

Voici, pour chaque fluide frigorigène, le Ozone Depletion Potential (potentiel de destruction de la couche d’ozone) et le Global Warming Potential (potentiel de participation au réchauffement climatique) sur 100 ans :

ODP GWP100
R717 Amoniac 0 0
R744 CO2 0 1
R290 Propane 0 20
R32 HFC, fluide pur 0 675
R134a HFC, fluide pur 0 1 430
R407C HFC, mélange 0 1 800
R22 HCFC 0,05 1 810
R410A HFC, mélange 0 2 100
R427A HFC, mélange 0 2 100
R417A HFC, mélange 0 2 300
R422D HFC, mélange 0 2 700
R125 HFC, fluide pur 0 3 500
R404A HFC, mélange 0 3 900
R12 CFC 0,82 10 900

Source : 4ème rapport de l’IPCC (Intergovernmental Panel on Climate Change).


Les fluides frigorigènes fluorés

Fluides frigorigènes fluorés

Les fluides frigorigènes fluorés sont en grande partie responsables de la destruction de la couche d’ozone et contribuent à augmenter l’effet de serre. Les interactions entre les deux phénomènes sont réelles mais d’une grande complexité.

On en distingue plusieurs types :

  • CFC;
  • HCFC;
  • HFC.

CFC (chlorofluorocarbures) (interdits de production depuis janvier 1995)

Ce sont des molécules composées de carbone, de chlore et de fluor. Elles sont stables; ce qui leur permet d’atteindre la stratosphère sans trop de problèmes. À ce stade, en se transformant elles contribuent à la destruction de la couche d’ozone.

R-11 Groupes centrifuges « basse pression ».
R-12 Essentiellement froid domestique et climatisation automobile, mais aussi dans les groupes refroidisseurs d’eau centrifuges.
R-13 Rares utilisations en froid très basse température.
R-14 Rares utilisations en froid très basse température.
R-113 Abandonné avant son interdiction.
R-114 Pompes à chaleur et climatisation de sous-marin.
R-115 Fluide pas utilisé seul, mais dans le R-502, mélange azéotropique très utilisé en froid commercial basse température.

HCFC (hydrochlorofluorocarbures) (utilisation interdite au Ier Janvier 2015)

Ce sont des molécules composées de carbone, de chlore, de fluor et d’hydrogène. Elles sont moins stables que les CFC et détruisent l’ozone dans une moindre mesure. Elles sont appelées substances de transition.

R-22 Fluide frigorigène le plus souvent utilisé, aussi bien en froid industriel qu’en climatisation.
R-123 Remplace le R-11 dans les groupes centrifuges.
R-124 Essentiellement utilisé dans certains mélanges.

HFC (hydrofluorocarbures) (utilisation réduite progressivement jusqu’en 2030)

Ce sont des molécules composées de carbone, de fluor et d’hydrogène. Elles ne contiennent pas de chlore et donc ne participent pas à la destruction de la couche d’ozone. Par contre, les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans élevé.

R-134a

(Solkane)

Fluide frigorigène qui a remplacé le R-12 en froid domestique et en climatisation automobile.

En application « chauffage », il présente l’avantage de faire fonctionner les pompes à chaleur à haute température (généralement jusqu’à 65 °C) et à relativement basse pression. Son utilisation est compatible avec une production d’eau chaude pour radiateurs en lieu et place d’une chaudière.

C’est également un composant majeur de la plupart des mélanges de remplacement.

R-125 N’est jamais utilisé pur en raison de sa pression critique trop faible (66°C). Il entre dans la composition de nombreux mélanges compte tenu de son pouvoir « extincteur ».
R-32,
R-152a
R-143a
Inflammables et donc utilisés uniquement en mélange avec d’autres composants qui « neutralisent » leur inflammabilité.

Mélange de fluides frigorigènes

On peut les classer en fonction du type de composants fluorés qu’ils contiennent.
Ils se distinguent également par le fait que certains mélanges sont :

  • Zéotropes : au cours d’un changement d’état (condensation, évaporation), leur température varie.
  • Azéotropes : ils se comportent comme des corps purs, sans variation de température lors du changement d’état.

Il va de soi que les frigoristes apprécient cette propriété d’azéotropie pour le fonctionnement de la machine frigorifique.

Le R407C (R134a : 52 % + R125 : 25 % + R32 : 23 %)

Le R407C est un fluide non azéotrope (il est composé de plusieurs fluides) afin d’obtenir sa température de changement d’état.

Ce fluide frigorigène présente les particularités suivantes :

  • Il est ininflammable.
  • Lors des changements de phase, la température « glisse » d’environ 5 K car les températures d’évaporation et de condensation des fluides frigorigènes qui le constituent sont différentes. Ceci rend les réglages plus difficiles et impose des échangeurs à contre-courant pour tirer le meilleur parti de ce fluide.
  • En cas de micro-fuite, le composé ayant les molécules les plus volatiles s’échappe préférentiellement. Il en résulte un fluide frigorigène déséquilibré. Il est dès lors nécessaire de vider entièrement l’installation avant de la recharger, le gaz retiré étant recyclé.
  • Les pressions sont moindres avec ce fluide frigorigène.
  • Il est moins performant que le R410A …
Le R410A (R32 : 50 % + R125 : 50 %)

Le R410A présente de meilleures qualités thermodynamiques que le R407C et le R22. D’autre part, l’étanchéité des installations est plus élevée avec le R410A, les pertes de pression sont donc faibles et les vitesses de fonctionnement peuvent être élevées. Les composants sont dès lors plus compacts.

Le R410A est cependant toxique ! De plus, il se comporte comme un réfrigérant mono-moléculaire lorsqu’il change de phase : le passage d’un état à un autre se produit à température quasiment constante (le glissement de température est négligeable). On ne doit donc pas vider complètement l’installation avant de la recharger.Pour terminer, les pressions de fonctionnement sont 60 % plus élevées que dans le cas du R22. Ceci limite donc son utilisation aux températures de condensation moyennes : maximum 45 °C.

Le R404A (R143a : 52 % + R125 : 44 % + R134a : 4 %)

Le R404A présente des caractéristiques communes avec le R410A (il se comporte aussi comme un fluide quasi-azéotropique) mais sa pression de fonctionnement est plus basse. Sa particularité est de ne pas beaucoup s’échauffer pendant la compression. La température des vapeurs surchauffées en sortie de compresseur reste donc modérée, ce qui convient parfaitement à la mise en œuvre des PAC fluide/fluide.


Les fluides à bas « effet de serre »

Ils sont considérés comme moins inquiétants pour l’environnement, car à la fois sans action sur l’ozone stratosphérique et d’un faible impact sur l’effet de serre.

Ils présentent tous des inconvénients, soit au niveau sécurité, soit au niveau thermodynamique.

L’ammoniac (NH3) ou R-717

L’ammoniac présente de nombreux avantages en tant que fluide frigorigène :

  • Impact environnemental nul (ODP et GWP100 nuls);
  • très bon coefficient de transfert de chaleur;
  • efficacité énergétique élevée (au moins aussi bonne que le R22, meilleure dans certaines conditions);
  • le gaz ammoniac est plus léger que l’air;
  • faibles pertes de charge;
  • fuites aisément détectables;
  • faible prix de revient et faibles frais d’entretien des installations;
  • très difficilement inflammable, limite d’explosion élevée et petits champs d’explosion;
  • chimiquement stable;
  • aisément absorbable dans l’eau;
  • pas très sensible à l’humidité dans le circuit;
  • naturel donc biodégradable;
  • grâce à sa haute température critique, il permet de réaliser des températures de condensation très élevées et de concevoir des PAC à haute température.

Les COP obtenus avec ce fluide frigorigène peuvent être équivalents à ceux obtenus avec des HFC.

L’ammoniac est par contre toxique (mais pas cumulativement dans le temps) et irritable. Il peut être explosif dans des cas exceptionnels (les limites inférieure et supérieure d’inflammabilité doivent être très proches l’une de l’autre). Il sera également explosif dans des locaux non aérés où il se crée un mélange d’air, d’azote et d’ammoniac. Les locaux doivent donc absolument être ventilés et le passage de l’air doit également être totalement libre. De plus, le NH3 corrode facilement le cuivre et ses alliages ainsi que le zinc. Les installateurs sont donc obligés d’utiliser de l’acier. Pour terminer, l’ammoniac n’étant pas miscible et soluble dans les huiles minérales, il faut prévoir un séparateur d’huile après le compresseur.

Les installations à l’ammoniac l’utilisent liquide et sa quantité est réduite : la quantité de gaz perdu par fuites est donc faible.

Il est à l’heure actuelle principalement utilisé dans le froid industriel.

Les hydrocarbures (HC) comme R-290 R-600a

Il s’agit essentiellement du propane (R-290), du butane (R-600) et de l’isobutane (R-600a).

Ces fluides organiques présentent de bonnes propriétés thermodynamiques, mais sont dangereux par leur inflammabilité. Le monde du froid s’est toujours méfié de ces fluides, même s’ils sont réapparus récemment dans des réfrigérateurs et des mousses isolantes. Leur utilisation future paraît peu probable en climatisation, vu le coût de la mise en sécurité aussi bien mécanique qu’électrique. En PAC, on l’utilise donc dans des quantités les plus faibles possible (maximum 3 kg pour les applications résidentielles), de préférence à l’extérieur des bâtiments.

Le dioxyde de carbone (CO2) ou R-744

Fluide inorganique, non toxique, non inflammable, mais moins performant au niveau thermodynamique. Son usage implique des pressions élevées et des compresseurs spéciaux.

Il possède cependant de bonnes qualités en application PAC pour le chauffage ou l’eau chaude sanitaire. Il est peu coûteux, et sa récupération et son recyclage sont simples à mettre en œuvre.

Actuellement, les spécialistes s’y intéressent à nouveau de par :

  • son faible impact sur l’environnement (ODP = 0, GWP = 1);
  • son faible volume massique entraînant des installations à faible volume (fuites réduites);

Il a la particularité de posséder une température critique basse à 31 °C  pour une pression de 73,6 bar.
À noter que l’utilisation de ce type de réfrigérant entraîne aussi des contraintes non négligeables telles que la nécessité de travailler :

  • à des pressions élevées (80 voire plus de 100 bar);
  • en transcritique qui demande une maîtrise de la condensation en phase gazeuse (gaz cooler);

L’eau (H2O)

Fluide inorganique, bien entendu sans toxicité. Même si sa grande enthalpie de vaporisation est intéressante, il ne se prête pas à la production de froid sous 0°C. Il est peu adapté au cycle à compression et ses applications sont rares.

Synthèse

Frigorigène Fluide naturel ODP3 GWP (100ans) valeurs IPCC 3 GWP (100ans) valeurs WMO 4 Temp. critique (°C) Pression critique (MPa) Inflammabilité Toxicité Coût relatif Puissance volumétrique
R290

(HC) CH3CH2CH3

Oui 0 20 20 96,7 4,25 Oui Non 0,3 1,4
R717 (Ammoniac NH3) Oui 0 <1 <1 132,3 11,27 Oui Oui 0,2 1,6
R 744 (CO2) Oui 0 1 1 31,1 7,38 Non Non 0,1 8,4
R718 (H2O) Oui 0 0

Caractéristiques environnementales des fluides frigorigènes naturels.


Nomenclature

Les fluides frigorigènes sont soumis à une nomenclature qui se veut internationale. L’ASHRAE, une des plus utilisées, désigne les fluides frigorigènes par la lettre R associée à 2,3 ou 4 chiffre + une lettre (R134a par exemple).

Le tableau ci-dessous montre la méthode de désignation des fluides réfrigérants :

R-WXYZ§

Nomenclature

Appellation courante

R12

R134a

R1270

Appellation pour la détermination de la formule

R-0012

R-0134a

R-1270

CFC

W = Nombre d’insaturation

Carbone = Carbone (C=C)

C=C (double liaison)

0

0

1

X = nombre de Carbone -1

nombre d’atomes de Carbone C = X + 1

1

2

3

Y = nombre de Hydrogène +1

nombre d’atomes d’Hydrogène H = Y – 1

0

2

6

Z = nombre de Fluor

nombre d’atomes de Fluor F = Z

2

4

0

R401A

nombre d’atomes de Chlore Cl*

2

0

0

Formule chimique

C Cl2F2

C2H2F4

CH3 CH=CH2

Si § = A-E => symétrie

Si § = a-b => asymétrie (avec a moins asymétrique que b)

symétrie de la molécule

symétrique

asymétrique

symétrique

Calcul du nombre d’atomes de chlore : Pour les molécules saturées (w = 0), Le nombre d’atomes de chlore s’obtient à partir de la formule suivante : Cl = 2.(C = 1) – H – F.

Étanchéité à l’eau et à l’air des châssis

Étanchéité à l'eau et à l'air des châssis

Le châssis associé au vitrage doit être imperméable à l’eau et à l’air. Il peut cependant permettre le renouvellement périodique de l’air mais de façon contrôlée.

L’étanchéité à l’air conditionne le niveau d’isolation acoustique et de confort thermique. L’étanchéité à l’eau est indispensable afin de préserver un taux d’humidité convenable et d’éviter les dégradations des matériaux.


Les niveaux de performance

Concernant les châssis, les STS définissent des niveaux de performance d’étanchéité à l’eau (PE2, PE3, PE4, PEe ) et à l’air ( PA2, PA2B, PA3 ) recommandés en fonction de la hauteur du châssis par rapport au sol.

Les niveaux PE2, PE3, PE4, PEe signifient qu’aucune infiltration d’eau ne peut se produire jusqu’à une pression respectivement de 150 Pa, 300 PA, 500 PA, et une pression maximale à précisé, et cela pour une vitesse de vent correspondante respectivement de 56 , 80, 103, et maximale (km/h).

Les niveaux PA2, PA2B, PA3 représentent des plages définies dans des graphiques donnant le débit d’air en fonction de la pression de vent. Lors des tests d’étanchéité, les résultats sont placés dans le graphique et le niveau de résistance d’étanchéité au vent correspond à celui de la zone dans laquelle le résultat se trouve.

Ces niveaux de performance doivent être établis au cours de tests réglementés d’étanchéité à l’air et à l’eau réalisés sur un échantillonnage des châssis commandés.
S’il s’agit de châssis standards agréés, ces niveaux de performance sont signalés dans leurs agréments techniques.


Facteurs influençant le niveau d’étanchéité des châssis

Le type de matériau

Le choix du matériau pour le châssis a peu d’influence sur la classe d’étanchéité de la fenêtre. Les châssis en bois, en aluminium, et en matière plastique présentent en effet une étanchéité à peu près pareille.

Le type d’ouvrant

Le type d’ouvrant influence fortement le niveau d’étanchéité.

Le tableau suivant commenté reprend une évaluation des performances d’étanchéité des différents types d’ouvrants.

Type d’ouvrant Pivot à axe vertical Pivot à axe horizontal Coulissante
à la française double battant sans meneau double battant avec meneau à l’anglaise pivotant simple pivotant à axe horizontal à visière oscillo-battantt basculante coulissante guillotine
Étanchéité à l’eau bon difficile
pourquoi ?[1]
bon excellent difficile
pourquoi ?[2]
difficile
pourquoi ?[2]
bon excellent bon moyen
pourquoi ?[4]
moyen
pourquoi ?
Étanchéité à l’air bon moyen
pourquoi ?[1]
bon excellent moyen
pourquoi ?[2]
moyen
pourquoi ?[2]
difficile
pourquoi ?[3]
bon bon bon difficile
pourquoi ?[5]
  1. Il existe un point faible au droit de la rencontre des deux battants dans la partie supérieure et intérieure. La déformation du châssis dans le temps accentue les risques de fuites locales à cet endroit. Cependant des améliorations sont possibles, par adjonction d’une ouverture de drainage au milieu de la traverse inférieure.
  2. Il existe des infiltrations d’eau et d’air par les pivots où l’interruption des joints d’étanchéité est inévitable. Les infiltrations d’eau sont les plus conséquentes. Possibilité d’utiliser des pivots compliqués et coûteux pour remédier à cet inconvénient.
  3. Il existe des infiltrations d’air par les pivots où l’interruption des joints d’étanchéité est inévitable.
  4. Infiltration d’eau inévitable dans le bas du châssis, entre la partie fixe et le ventail coulissant même si la pression du vent est très faible.
    Une amélioration possible : l’adjonction de profilés d’une hauteur suffisant du côté intérieur de la fenêtre permet souvent d’éviter que l’eau pénétrant dans la fenêtre ne s’introduise à l’intérieur de l’habitation. L’eau sera alors évacuée par des systèmes de drainage adéquats. Le montage doit être soigné afin d’obtenir autant que possible une continuité entre les joints verticaux et horizontaux.
  5. L’étanchéité à l’eau reste mauvaise étant donné le nombre réduit de points de fermeture qu’offre ce type de châssis.

On remarque une tendance croissante à utiliser les châssis oscillo-battants à la place des châssis pivotants horizontaux. Il offre en effet de nombreux avantages pratiques et une très bonne étanchéité à l’eau et à l’air en raison du nombre élevé de fermetures dont il dispose.


Détails de conception permettant d’améliorer l’étanchéité des châssis

Des améliorations peuvent être réalisées au niveau :

  • du détail des profilés
  • des détails des dispositifs architecturaux de protection de la façade

Détail des profilés

Selon le niveau d’étanchéité recherché, des améliorations importantes peuvent être apportées aux profilés.

Le niveau d’étanchéité au vent et à l’eau dépend :

  • Du nombre de frappes (simple, double ou triple) entre les ouvrants et les dormants.
  • De la présence et de l’emplacement des joints et le soin accordé au joint entre le châssis et le vitrage.
  • De la continuité des joints dans un même plan et dans les angles.
  • Des précautions prises contre les déformations du châssis, créant des espacements propices aux infiltrations d’eau et d’air.

Dès lors, on accordera une attention particulière …..

– Aux barrières d’étanchéité

  • Actuellement, le principe de la double barrière d’étanchéité est appliqué à la quasi-totalité des châssis de menuiserie extérieure.
  • Les barrières d’étanchéité à l’eau et à l’air devront être continues et chacune située idéalement dans un même plan.
  • Il faudra choisir, en fonction du profilé, des barrières d’étanchéité à l’air adaptées et qui conservent leur élasticité dans le temps afin d’assurer un écrasement suffisant contre la battée. Un défaut d’étanchéité à l’air compromet l’efficacité de la barrière d’étanchéité à l’eau mais aussi le contrôle de la ventilation et de l’isolation acoustique.
  • Il faudra préciser en cas de châssis en bois, les protections en aluminium ou en PVC à incorporer au profilé.

– A la prévention des risques de déformation des profilés de châssis par :

  • Un bon dimensionnement des sections des profilés afin d’assurer, sous l’effet des sollicitations, une flèche de ces derniers inférieure à 1/300, compte non tenu de la raideur apportée par le vitrage.
  • Un renforcement des profilés (conseillé si il s’agit de châssis en PVC).
  • Une quincaillerie adaptée et résistante.
  • Pour les châssis en bois : prévenir les déformations dues au travail du bois, au niveau des joints d’étanchéité.

Compte tenu des déformations inévitables des châssis, on procédera à un réglage régulier de la quincaillerie de façon à maintenir un écrasement du préformé d’étanchéité à l’air de 2 mm.

– Aux dispositifs d’évacuation des eaux infiltrées

  • Il faut prévoir une chambre de décompression pour recueillir les eaux d’infiltration éventuelles (étanchéité à la pluie) et pour réduire la pression du vent sur le préformé d’étanchéité (étanchéité au vent).
  • Il faut veiller à ce qu’en cas de double barrière d’étanchéité, le drainage de la feuillure du vitrage soit assuré en amont de l’étanchéité à l’air du profilé.

Accorder une importance au dimensionnement et à la mise en  place correcte du casse-gouttes

En cas de châssis en bois, on veillera à ne pas recouvrir les joints d’étanchéité lors de l’application de la finition/protection du bois, sans toutefois négliger le traitement du casse-goutte.

Détails des dispositifs architecturaux de protection pouvant limiter les risques d’infiltration

Détails architecturaux.

 

  • Dépassant de toitures, balcons,….
  • Le retour de baie sera d’autant plus efficace que le profilé est situé en retrait par rapport au nu des façades.
  • Un casse-goutte (ou lamier) en amont du châssis de façon à empêcher l’eau ruisselante sur les façades d’atteindre les profilés.
  • L’inclinaison suffisante des seuils de fenêtre de façon à limiter les éclaboussures et la stagnation de l’eau.
  • Dépassant de toitures, balcons,….
  • Le retour de baie sera d’autant plus efficace que le profilé est situé en retrait par rapport au nu des façades.
  • Un casse-goutte (ou lamier) en amont du châssis de façon à empêcher l’eau ruisselante sur les façades d’atteindre les profilés.
  • L’inclinaison suffisante des seuils de fenêtre de façon à limiter les éclaboussures et la stagnation de l’eau.

Gradation du flux lumineux (dimming)

Gradation du flux lumineux (dimming)


Principe

Le principe du « dimmer » réside dans le contrôle électronique du niveau de tension d’alimentation du luminaire qui soit à basse (0…230 V) ou très basse tension (0 – 10 V du ballast par exemple).

En contrôlant le temps de déclenchement du « dimmer » avec le bouton gradateur, le niveau de tension de sortie varie.

Schéma principe du dimmer.


Application aux lampes à incandescence et halogène

Les dimmers

Photo dimmer.

Le contrôle du flux des lampes à incandescence et halogènes est relativement simple. Un simple « dimmer » 0-100 % (230 V) contrôle directement la tension  de la lampe ou indirectement la tension d’un transformateur intermédiaire entre l’alimentation 230 V et les sources halogènes de 12 V par exemple.

Les cellules de mesure de niveau d’éclairement

Qu’elles soient centralisées ou en local, les cellules de mesure du niveau d’éclairement permettent, en général, de gérer le flux lumineux d’une lampe, mais en 0-10 V, ce qui limite son champ d’application aux lampes fluorescentes équipées d’un ballast électronique « dimmable ».


Application aux lampes fluorescentes

Avec les lampes fluorescentes, on peut réaliser du « dimming » (variation continue du flux lumineux).

Une tension de 1 à 10 V DC (courant continu) vient alimenter un ballast électronique dimmable. Cette tension variable provient de la cellule de mesure du niveau d’éclairement ou d’un régulateur des systèmes intégrant les signaux de différents éléments de gestion de commande.


Système avec régulateur.

Le dimming a l’avantage d’éviter le surdimensionnement des installations, mais la consommation totale à faible flux lumineux sera plus importante vu que le ballast garde toujours sa consommation propre.

Dans la directive européenne 2000/55/CE on définit une classification énergétique des ballasts permettant de garantir l’optimisation de la consommation des ballasts électroniques dimmables.

Pour en savoir plus : La puissance absorbée par les lampes fluorescentes et leurs auxiliaires (ballast).


Application aux lampes fluo compactes

Le flux lumineux des lampes fluo compactes peut être contrôlé à condition qu’elles soient spécifiées »dimmables ». Le niveau de « dimming » est lié à la qualité du ballast.

Lampe à ballast intégré

La plage de « dimming » pour ce type de lampe est comprise entre 7 et 100 %.

Lampe à ballast séparé

Ce type de lampe, associée à un ballast électronique, offre des performances meilleures. On considère que la plage de régulation du flux lumineux se situe entre 3 et 100 %.


Application aux LED

L’alimentation d’une lampe LED est en courant continu. Vu que le réseau européen est en courant alternatif, un redresseur AC/DC est nécessaire pour alimenter les LED. Le contrôle du flux lumineux des LED est souvent réalisé grâce à un courant pulsé par modulation de largeur d’impulsion (PWM : Pulse Width Modulation).

Modulation de la largeur d’impulsion.

La modulation du flux lumineux s’effectuera plus en courant qu’en tension, car la LED est très sensible aux faibles variations de tension et le flux lumineux est presque proportionnel au courant.

Diagramme tension-courant dans le sens passant et bloquant de la diode.

(++) L’avantage d’une telle modulation réside dans la bonne conservation des propriétés colorimétriques de la LED.

(–) Le redresseur AC/DC ne donne pas un signal continu parfait. Une composante résiduelle ondulatoire persiste. Contrairement à la lampe à incandescence, la LED possède une très faible rémanence lorsqu’elle est soumise à un signal ondulatoire. Il en résulte un phénomène non négligeable de « papillotement » qui peut altérer le confort visuel.


Application aux lampes à décharge haute pression

Les ballasts électroniques dimmables pour lampes à décharge haute pression ont fait leur apparition sur le marché le 1er janvier 1999. Ce type de ballast permet, lors du dimming, les clignotements dû à la fréquence de 50 Hz et d’augmenter sensiblement la durée de vie de la lampe.

Un autre moyen d’obtenir un flux lumineux variable se fait par découpage de la sinusoïde de tension.
Ce découpage est obtenu par un « hacheur ». Il permet de faire varier le flux lumineux par palier.


Hachage de la sinusoïde de tension.

Ce découpage peut se réaliser avec les lampes à mercure haute pression et au sodium haute pression, mais pas avec les lampes aux halogénures métalliques qui risquent de changer de couleur.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Types de lave-vaisselle

Types de lave-vaisselle

Il existe des machines polyvalentes pour toute vaisselle et d’autres à utilisation spécialisée telles que machines à laver les verres, machines à laver les ustensiles de cuisine, …


Les machines polyvalentes

On classe les machines à laver polyvalentes en deux groupes :

  

Machines à panier statique et machines à déplacement automatique de la vaisselle ou machines à translation.

Les machines à panier statique

Le panier reste fixe et les différentes phases de lavage (lavage proprement dit et rinçage) se réalisent au même emplacement.
L’avancement des paniers à l’entrée ou à la sortie est commandé par l’employé.
Le prélavage peut se faire manuellement au moyen d’une douchette avant l’entrée dans la machine.

Les machines à panier statique sont à ouverture frontale ou à capot mobile (ou à porte guillotine).
Certains appareils présentent un panier à mouvement rotatif.

Machine à ouverture frontale, machine à capot relevable et machine à panier à mouvement rotatif.

La capacité des machines à laver à panier statique s’exprime en assiettes/heure ou en paniers/heure.

Elles sont réservées aux petites exploitations jusqu’à 200 rationnaires environ.

Les machines à déplacement automatique de la vaisselle (ou à translation)

Ces machines permettent le déplacement de la vaisselle de façon linéaire sur un tapis articulé et motorisé, à vitesse fixe ou variable. Les différentes phases de lavage se font au fur et à mesure de l’avancement de la vaisselle dans la machine.

Ces machines sont aussi appelées machines à tunnel.

Schéma principe machines à tunnel.

Sur les modèles les plus simples, les zones de prélavage et de séchage n’existent pas.

Il en existe de deux sortes :

La machine à paniers mobiles

La vaisselle est placée préalablement dans des paniers.

Schéma principe machine à paniers mobiles.

Le déplacement des paniers se fait, par exemple, à l’aide d’un entraînement mécanique à « cliquets ».

La capacité des machines à paniers mobiles s’exprime en assiettes/heure ou en paniers/heure.

Ces machines sont réservées aux exploitations de taille moyenne, jusqu’à environ 600 à 700 couverts par service.

La machine à convoyeur ou à bande 

Elle est appelée ainsi car le convoyeur de chargement et de déchargement, fait partie de la machine.

Schéma principe machine à convoyeur ou à bande.

Les pièces à laver sont directement posées et accrochées sur le convoyeur pourvu de doigts.  Des paniers ne sont utilisés que pour les petites pièces.

À titre d’information, il existe des lave-vaisselle multi-pistes, chaque piste correspondant à une application bien précise (dépose des couverts sur l’une, dépose de la porcelaine ou de plateaux sur l’autre etc.). Ces convoyeurs multi-pistes sont davantage utilisés dans des configurations semi-automatiques où les couverts sont enlevés des plateaux à l’aide d’un extracteur magnétique qui les dépose ensuite sur la piste à couverts.

La capacité des machines à convoyeur s’exprime en assiettes/heure ou en m/min.

Ces machines sont réservées aux exploitations de grande taille (plus de 700 rationnaires) ou aux exploitations de type cafétéria de moindre effectif qui veulent travailler en continu : le même personnel réalise le débarrassage des tables en salle à manger et le lavage de la vaisselle.


Les machines spécifiques

Le lave-ustensiles (batterie de cuisine)

Le lave-ustensiles est une machine capable de laver la batterie de cuisine jusqu’à la dimension GN 2/1.

Il existe un nouveau type de machine qui utilise des granulés en plastique.

Ces machines utilisent le même principe que celui du sablage.

La phase de lavage des ustensiles se fait par des jets d’eau chargés de billes de plastique, ce qui a pour effet d’augmenter l’effet mécanique du nettoyage. Selon le degré de « brûlure » du plat, la durée de la phase de lavage sera plus ou moins longue.

Les granulés de plastique doivent être suffisamment durs pour pouvoir éliminer efficacement les restes alimentaires, tout en étant assez souples pour ne pas abîmer les plats.

L’efficacité des granulés permet de diminuer la consommation de produits lessiviels. Les ustensiles ne nécessitent plus de pré-trempage.
Les granulés sont réutilisés pour plusieurs cycles.

La laveuse de plateaux

Le plateau est la pièce de vaisselle la moins souillée et la plus volumineuse nécessitant un grand espace de passage en machine.

La laveuse de plateaux trouve sa place en bout de convoyeur d’amenée de la vaisselle sale.
La laveuse de plateaux permet un lavage spécifique des plateaux en direct, sans manutention.

Il est recommandé de le coupler avec un chargeur automatique et rangement sur chariot à niveau constant.

Empileur de plateaux.

La machine à laver les verres

Elle permet d’améliorer la qualité du lavage par un traitement spécifique.

Les verres qui ne sont pas particulièrement souillés ne nécessitent pas un traitement de choc comme le reste de la vaisselle. Par ailleurs, l’eau utilisée est de plus en plus chargée en éléments minéraux qui précipitent et déposent sur la machine mais aussi sur les verres, les rendant ternes.

Ces machines ne nécessitant que de faibles quantités d’eau, peuvent fonctionner à l’eau déminéralisée pour un coût intéressant. Alors que cette amélioration appliquée à toute la vaisselle sur une machine unique serait prohibitive.

Actuellement, ce principe s’utilise de manière sélective sur les machines polyvalentes.

Évaluer l’isolation thermique de la toiture

Évaluer l'isolation thermique de la toiture


Connaître les valeurs de référence

Une paroi est caractérisée par un coefficient de transmission thermique U. Plus ce coefficient est petit plus la paroi est isolante. La réglementation thermique wallonne impose, pour les parois neuves et assimilées délimitant le volume protégé, une valeur maximale du coefficient de transmission thermique.
Ces valeurs peuvent être vues comme un « garde-fou ». D’autres labels volontaires recommandent d’ailleurs des performances thermiques plus élevées.

Même lorsque cette réglementation n’est pas d’application, cette valeur peut servir de base pour estimer la valeur minimale qu’il serait intéressant d’atteindre en cas de rénovation de la toiture. Généralement, l’optimum économique en rénovation se situe à un coefficient U = 0,3 W/m²K.

Pour les toitures autres que la toiture plate inversée, l’épaisseur d’isolant à poser en fonction du coefficient de conductivité thermique de celui-ci est donnée sur le graphique ci-dessous. Pour chaque isolant, il existe un intervalle de valeurs possibles pour la conductivité thermique. Le diagramme ci-dessous permet de déterminer dans quel intervalle d’épaisseur il faudra se situer en fonction du type d’isolant choisi.

Estimation de l’épaisseur d’isolant nécessaire pour atteindre un U = de 0.3 W/m²K dans le cas d’une toiture plate autre qu’une toiture plate inversée en fonction de la conductivité thermique (λ) ou du type d’isolant choisi (les intervalles de valeurs pour chaque isolant correspondent aux valeurs certifiées).

Pour une toiture inversée, l’isolant généralement retenu est la mousse de polystyrène extrudé (il est à éviter en cas de toiture chaude à cause de son coefficient de dilatation élevé). L’épaisseur d’isolant à poser en fonction de la conductivité thermique est donnée dans le graphique suivant.

Estimation de l’épaisseur d’isolant nécessaire pour atteindre un  U = de 0.3 W/m²K  dans le cas d’une toiture plate inversée de référence en fonction de la conductivité thermique (λ) ou du type de l’isolant choisi (marques et types –  valeurs certifiées).

Si la toiture existante est en bon état, on considère généralement que la limite pour décider d’une rénovation est :

U > 0,6 W/m²K

En effet, en dessous de cette valeur, le temps de retour sur investissement devient assez important.  Une rénovation complète ou partielle (finitions, revêtements extérieurs,… ) sera toujours une bonne occasion de renforcer l’isolation.

Pour une toiture autre qu’une toiture plate inversée, elle correspond à une épaisseur approximative d’isolant de :

  • 9 cm de laine minérale,
  • ou 7 cm de mousse de polyuréthanne,
  • ou 11 cm de verre cellulaire.

Pour une toiture inversée, elle correspond à une épaisseur d’isolant d’environs :

  • 12 cm de mousse de polystyrène extrudé.

Calculer le niveau d’isolation lorsque la nature et l’épaisseur de l’isolant sont connues

L’isolant thermique est la couche de la toiture qui influence le plus ses qualités thermiques.

En première approximation, le calcul du niveau d’isolation peut se faire en ne tenant compte que de l’isolant et des résistances thermiques d’échange aux surfaces sur base de la formule simplifiée.

U = 1/(Rsi + λ/e + Rse)

avec,

Les valeurs à utiliser pour les résistances thermiques d’échange sont données dans le tableau  spécifique de l’Annexe VII de l’AGW du 17 avril 2008 :

Exemple.

8 cm de laine minérale certifiée, de marque non déterminée, dont λ vaut 0,041 W/mK (suivant NBN B62-002/A1), entraîne un U approximatif de la toiture de

  • Rsi = 0.10 m²K/W
  • e/λ = 0,08/0,041 = 1,95 m²K/W
  • Rse = 0.04 m²K/W
  • U = 0.48 W/m²K

Si les autres matériaux constituant la toiture sont connus, il est possible de calculer exactement le coefficient de transmission thermique U de celle-ci.

Calculs

Pour calculer le coefficient de transmission thermique de la toiture. 

Le résultat ainsi obtenu n’est fiable que si l’isolant est sec et en bon état. En cas de doute, un sondage est indispensable.


Repérer les indices d’une isolation thermique insuffisante

Lorsque la nature, l’épaisseur et/ou l’état de l’isolant sont inconnus, il convient d’effectuer un sondage à travers la toiture pour les déterminer.

Avant d’effectuer ces sondages, certains indices peuvent indiquer un manque d’isolation efficace.

Le principal indice est la température du plafond en période hivernale.

La condensation sur le plafond est un premier indice de plafond froid dans les locaux humides.

Photo condensation.

La condensation sur une paroi est signe d’absence ou de faiblesse de l’isolation.

Pratiquement, le plafond sera considéré comme une paroi froide lorsque sa température de surface est inférieure de plus de 2 °C à la température de l’air du local. C’est le cas lorsque la toiture n’est pas isolée.

Pour que les valeurs obtenues soient valables, il faut que la toiture soit en régime thermique stationnaire (c’est-à-dire que les températures intérieures et extérieures ne subissent pratiquement pas de variation).
On fera donc ce relevé par temps nuageux, avec une température extérieure moyenne entre celle du jour et celle de la nuit.

Choisir l’emplacement des luminaires dans les circulations

Dans les couloirs

Compromis

Le choix du nombre de luminaires, de la puissance par luminaire et de leur emplacement résultera d’un compromis entre

  • le respect d’une certaine uniformité,
  • l’investissement à consentir,
  • les facilités de câblage électrique et de réfection des plafonds.

Uniformité

Si pour des raisons d’économie d’énergie, on désire limiter l’éclairement moyen des couloirs à 200 (100 – école, halls) lux maximum, le nombre de luminaires à installer sera relativement faible par rapport à la surface à éclairer. Il en résultera un manque d’uniformité de l’éclairement et une succession dans les couloirs de zones claires et sombres. Ceci ne sera pas forcément gênant si le couloir n’est qu’un lieu de passage et non de « stationnement ». Inversement si on veut respecter une uniformité correcte (Emin / Emoy > 0,7), on augmentera le nombre de luminaires, vraisemblablement aussi la puissance installée et le niveau d’éclairement moyen puisque la gamme de puissance des lampes fluorescentes n’est pas infinie.

En fonction de la forme du couloir

  • Les couloirs étroits paraîtront plus larges et plus conviviaux si on favorise l’éclairage des murs par une composante indirecte.
  • Les couloirs longs paraîtront plus courts si on place les luminaires perpendiculairement par rapport à l’axe du regard. Comme la distribution lumineuse de la plupart des luminaires est plus large dans le sens transversal que dans le sens longitudinal, cette position permettra d’obtenir une uniformité correcte avec moins de luminaires.

Dans les escaliers

L’objectif principal (de base de l’éclairage des escaliers – halls) est d’assurer un contraste suffisant entre les marches pour éviter tout accident. Pour cela, il faut assurer l’éclairage des marches et maintenir dans l’ombre les contre-marches.

Exemple

  • La position A est correcte car elle éclaire obliquement les marches.
  • La position B est incorrecte, elle ne garantit pas un contraste suffisant entre les marches.
  • Dans les longs escaliers, la position A peut être complétée par un éclairage latéral des marches au départ d’appliques murales (position C).

Indices de protection d’un luminaire

Indices de protection d'un luminaire


Protection contre les solides et les liquides

Les luminaires sont classés en fonction du degré de protection contre la pénétration de poussières, de corps solides et d’humidité, conformément aux chiffres « IP » mentionnés dans la norme NBN C 20 – 001.

Le premier chiffre suivant l’inscription « IP » représente le degré de protection vis à vis des corps solides et des poussières. Le second chiffre représente le degré de protection vis à vis des liquides.

Degré de protection

Protection contre les corps solides

Degré de protection

Protection contre les liquides

IP1X

Protégé contre les corps solides supérieurs à 50 mm.

IPX1

Protégé contre les chutes verticales de gouttes d’eau.

IP2X

Protégé contre les corps solides supérieurs à 12 mm.

IPX2

Protégé contre les chutes d’eau pour une inclinaison maximale de 15°.

IP3X

Protégé contre les corps solides supérieurs à 2,5 mm.

IPX3

Protégé contre l’eau « en pluie ».

IP4X

Protégé contre les corps solides supérieurs à 1 mm.

IPX4

.

Protégé contre les projections d’eau.

IP5X

Protégé contre la poussière.

IPX5

Protégé contre les jets d’eau.

IP6X

Totalement protégé contre la poussière.

IPX6

Protégé contre les paquets de mer.

IPX7

Protégé contre les effets d’immersion.

Exemple.
Un luminaire classé IP20, est protégé contre les intrusions des corps solides de plus de 12 mm mais pas contre l’humidité. Un luminaire classé IP65 est protégé contre la poussière et contre les jets d’eau.

Remarque.
Concrètement, un indice IP2X signifie que l’on ne peut atteindre les parties électriques avec un doigt, un indice IP3X, avec un tournevis, un indice IP4x, avec une épingle à cheveux.


Protection contre les chocs

 Le degré de résistance au choc des luminaires est représenté par l’indice « IK » du luminaire. Cette classification remplace l’ancienne classification « IP » à 3 chiffres de type IPXXX.

IK00 pas de protection
IK01 0,15 Joule
IK02 0,2 J
IK03 0,35 J
IK04 0,5 J
IK05 0,7 J
IK06 1 J
IK07 2 J
IK08 5 J
IK09 10 J
IK10 20 J

Protection électrique

La classification électrique des luminaires est réalisée en fonction du type de protection offert contre les chocs électriques.

Classification

Exigences électriques

Conséquence d’un éventuel défaut d’isolement

Classe 0

Interdite en Belgique comme dans la majorité des pays européens.

Séparation des parties sous tension par une seule isolation, dite isolation principale.

En cas de défaut d’isolement, la protection de la personne touchant l’appareil repose sur l’environnement (par ex. sol isolant).

Classe I

Séparation des parties sous tension par une seule isolation, dite isolation principale.

Les parties métalliques accessibles sont reliées à une borne de terre.

Recommandés dans les locaux traditionnels.

En cas de défaut d’isolement, la protection de la personne qui touche l’appareil repose essentiellement sur la qualité du circuit de mise à terre et sur un disjoncteur différentiel…

Classe II

Une isolation supplémentaire ou renforcée est ajoutée à l’isolation principale.

Des matériaux à plus grande résistance d’isolement sont utilisés.

Recommandés dans les locaux humides ou lorsqu’on ne peut raccorder le luminaire à un conducteur de protection.

Du fait de la double isolation, un défaut d’isolement ne peut pas se produire et la personne qui touche l’appareil n’est pas en danger.

Classe III

L’alimentation est réalisée en très basse tension de sécurité ; le circuit est isolé du réseau et la tension est plus petite que 50 V.

En principe, cet appareil ne pose pas de risques électriques.


Protection incendie

Inflammabilité de la surface de montage

La norme CEI 60598-1 propose un marquage du luminaire en fonction de l’inflammabilité de la surface de montage et des possibilités de recouvrement. Ce marquage remplace l’ancien marquage constitué des symboles présentés dans la figure ci-dessous  (lettres F ou M dans un triangle sur pointe). Notez que bien qu’un nouveau marquage soit en place, ces symboles sont encore parfois rencontrés sur le marché.

LabelIP7.gif (1212 octets) M.GIF (350 octets)

La norme CEI 60598-1 propose de marquer uniquement les luminaires qui présentent des limitations d’application. Ainsi, les luminaires conçus pour être montés sur une surface normalement inflammable et qu’un matériau isolant thermique peut recouvrir sans risque d’incendie ne seront pas marqués. Par contre, les luminaires qui exigent des surfaces de montages non-inflammables ou qui ne peuvent être recouverts d’un matériau isolant thermique seront marqués selon le tableau ci-dessous. Un matériau est considéré comme normalement inflammable si sa température d’inflammation est d’au moins 200°C et s’il ne se déforme ni ne se ramollit à cette température.

Ce tableau est extrait des Dossiers du CSTC n°2/2009 Cahier n°15 page 5.

Symboles et limitations

 

Le luminaire ne peut être monté sur une surface normalement inflammable.

  Le luminaire n’a pas été conçu pour être recouvert par un matériau isolant thermique.
Le luminaire n’a pas été conçu pour être encastré dans une surface normalement inflammable.

Inflammabilité du luminaire

Le comportement au feu d’un luminaire peut être caractérisé par le résultat de l’essai au fil incandescent décrit dans la norme CEI 60.695-2-11. Ce test permet d’évaluer le comportement du luminaire vis-à-vis du feu et consiste à appliquer sur certaines parties du luminaire un fil incandescent chauffé à des températures définies (650°C, 850°C, 960°C…) et ce, pendant une certaine durée (5 secondes, 30 secondes…).
La table ci-dessous récapitule, en fonction de l’usage du matériel d’éclairage, les températures auxquelles le matériel doit résister.

Type d’usage

Parties du luminaire en contact avec des parties conductrices, ou les maintenant en position Enveloppes et couvercles ne maintenant pas en position de parties trans­portant le courant

 Matériel pour une utilisation sous surveillance

650 °C

650 °C
 Matériel pour une utilisation sans surveillance, mais dans des conditions moins sévères 750 °C 750 °C
Matériel pour une utilisation avec surveillance, mais dans des conditions plus sévères 750 °C 750 °C
Matériel pour un usage continu sans surveillance 850 °C 850 °C
Matériel pour un usage continu sans surveillance, mais dans des conditions plus sévères 960 °C 960 °C
Appareils fixes pour les installations électriques 750 °C 650 °C
Matériel destiné à être utilisé près du tableau principal de distribution d’un immeuble 960 °C 750 °C
Pour garantir un niveau minimal d’inflammation des parties susceptibles de contribuer à un risque de feu, et de propagation du feu par leur intermédiai­re, ces parties n’étant pas essayées autrement (pour éliminer les matériaux à combustion violente) 550 °C 550 °C

Ce tableau est extrait des Dossiers du CSTC n°2/2009 Cahier n°15 page 5.

Choisir l’ensemble chaudière-brûleur pour les installations gaz ou mazout

Choisir l'ensemble chaudière-brûleur pour les installations gaz ou mazout


Puissance à installer

Le surdimensionnement des chaudières est source de surinvestissement et de surconsommation :

  • Augmentation des pertes à l’arrêt. En effet, celles-ci sont proportionnelles à la puissance installée. Toutefois, l’augmentation du niveau d’isolation des chaudières et la présence de brûleurs avec clapet d’air se refermant à l’arrêt ont fortement diminué les pertes et donc l’influence du surdimensionnement. C’est également le cas si on divise la puissance à installer en plusieurs chaudières et que celles-ci sont régulées correctement en cascade.
  • Augmentation des cycles de marche/arrêt du brûleur. Pour les chaudières modernes, c’est principalement ici que se situe le problème. Un brûleur trop puissant a des temps de fonctionnement plus courts et démarre plus souvent. Il y a augmentation des pertes par préventilation et des imbrûlés (les premières et les dernières gouttes de combustible injectées brûlent dans des mauvaises conditions). Cela conduit donc à une diminution du rendement et à une accélération de l’encrassement.

Cycle de fonctionnement d’un brûleur en fonction de son surdimensionnement. Si le brûleur adapte en permanence sa puissance aux besoins, il fonctionnera en continu (ce serait le cas des brûleurs modulants s’ils pouvaient faire varier leur puissance de 0 à 100 %, ce qui n’est pas le cas).

La puissance utile de la nouvelle chaudière doit donc être calculée suivant la norme NBN B62-003. Attention, les installateurs choisissent souvent la puissance de la chaudière de façon approximative :

  • en sommant la puissance des radiateurs existants,
  • ou en appliquant un ratio proportionnel au volume du bâtiment, du type 60 W/m³ (dans cas, ils font une hypothèse par défaut sur les performances énergétiques de l’enveloppe du bâtiment alors que l’on sait très bien que ces performances peuvent varier largement entre bâtiments),
  • ou en reprenant la puissance des chaudières existantes (souvent fortement surdimensionnées).

Ces règles conduisent à des surdimensionnements inadmissibles pour des nouvelles installations.

Concevoir

Il faudra en outre être attentif aux paramètres utilisés pour dimensionner l’installation. Par exemple, on arrivera à des résultats tout à fait différents en fonction de la température extérieure minimum que l’on aura considérée.

Faut-il surdimensionner la chaudière pour permettre l’intermittence ? Comment vérifier que dimensionnement a été effectué correctement ?

Pour en savoir plus sur les paramètres de dimensionnement des installations de chauffage.


Réglementations, labels et rendement annoncé

L’efficacité énergétique d’un ensemble chaudière(s) – brûleur(s) s’exprime par son rendement saisonnier. Celui-ci tient compte de la qualité de la combustion et des pertes des chaudières entre les périodes de fonctionnement du brûleur.

Il n’est malheureusement pas possible de connaître le rendement saisonnier du matériel que l’on achète. Cela est impossible puisque ce rendement dépend pas uniquement de la qualité intrinsèque du matériel mais aussi de son dimensionnement, de son raccordement hydraulique (surtout pour les chaudières à condensation) et de son mode de régulation.

Il existe donc peu de moyens pour comparer précisément les performances des différentes chaudières sur le marché.

Réglementations et labels

En plus des exigences réglementaires minimales auxquelles doivent répondre toutes les nouvelles chaudières vendues en Belgique, il existe bien des labels « énergétiques » pour les chaudières gaz (« HR+ » ou « HR Top ») et les chaudières fuel (Optimaz et Optimaz-élite). Il faut cependant savoir que ces labels ne présentent pas toujours des exigences nettement plus élevées que les exigences réglementaires : en ce qui concerne le gaz, le label HR+ exige des rendements identiques à la législation tandis que pour le fioul, le label Optimaz demande des rendements un peu plus élevés que le minimum légal. Ils ne permettent pas non plus de comparer, entre elles, des chaudières possédant le même label (les performances mesurées ne sont pas affichées avec le label).

 

Labels OPTIMAZ  pour les ensembles chaudière/brûleur fuel et OPTIMAZ-Elite pour la technologie à condensation..

 

Label HR+ pour les chaudières gaz traditionnelles et HR Top pour les chaudières gaz à condensation.

Cependant, à défaut d’autres références, l’utilisation de ces labels peut être conseillée, ne fut-ce que parce qu’ils apportent la garantie que les performances minimales requises ont été vérifiées en laboratoire (pour les chaudières ne possédant pas de label, il faut souvent se fier à la bonne foi du fabricant).

Rendement annoncé

Les rendements annoncés par les fabricants dans leur documentation ne sont généralement guère comparables car mesurés dans des conditions différentes (selon une méthode propre au fabricant, selon les exigences des A.R. de 88 et de 97, …) et ne représentent jamais le véritable rendement en exploitation.

La norme allemande DIN 4702, partie 8, propose une méthode normalisée pour chiffrer le rendement saisonnier d’une chaudière dont le résultat se rapproche le plus du rendement réel (moyenne de mesures dans cinq conditions représentatives d’un moment de la saison de chauffe).

En comparant les équipements des fabricants appliquant cette méthode, on peut se faire une idée plus précise de l’économie que l’on peut faire en choisissant l’un ou l’autre matériel : elle est proportionnelle au rapport des rendements.

Exemple.

Un fabricant annonce pour sa chaudière un rendement annuel de 94 % selon la norme DIN 4702. Un autre annonce un rendement de combustion supérieur à 92 %.

La différence entre ces deux chaudières semble être de 2 %. Ce n’est pas le cas. Ces deux chiffres ne sont, en effet, pas comparables : tandis que le rendement mesuré suivant la norme DIN 4702 se rapproche grossièrement des conditions réelles d’exploitation, le rendement de combustion ne comptabilise pas toutes les pertes de la chaudière.

Ainsi pour une chaudière correctement dimensionnée ayant des pertes à l’arrêt de 0,5 %, un rendement de combustion de 92 % conduit à un rendement saisonnier de 90,9 %. C’est plus ce chiffre qu’il faudrait comparer aux 94 %.

On peut alors « imaginer » que la première chaudière consommera :

1 – 90,9 [%] / 94 [%] = 3 [%]

de moins que la seconde.

Ordre de grandeur :

Les chaudières traditionnelles (pas à condensation) actuelles les plus performantes ont un rendement annuel suivant la norme DIN 4702 de l’ordre de 94 %. Ceci équivaut pour une chaudière correctement dimensionnée à un rendement de combustion moyen théorique de l’ordre de 94,5 .. 95,3 %.

Attention, le calcul présenté ci-dessus est purement indicatif. il permet plus ou moins de classer des chaudières mais ne correspond pas forcément au rendement réel obtenu en exploitation. En effet,

  • Il ne tient pas compte de la production d’eau chaude sanitaire qui pourrait être combinée à la chaudière (dans ce cas le rendement saisonnier diminue).
  • Les régimes de fonctionnement considérés par la norme DIN 4702 ne peuvent pas, en pratique, être appliqués à toutes les chaudières. Par exemple, deux chaudières peuvent avoir le même rendement théorique suivant la norme, mais une des deux chaudières ne peut, en pratique, pas fonctionner avec un régime de température de 40°/30° (prévu pour la mesure en laboratoire). Dans ce cas cette chaudière aura un rendement, en exploitation, plus bas que l’autre.

Pertes à l’arrêt

Les fournisseurs de chaudières reprennent, en principe, dans leur documentation, la valeur des pertes à l’arrêt de leur matériel (coefficient exprimé en % de la puissance nominale de la chaudière). Attention, cependant, à la valeur du coefficient de perte à l’arrêt (ou coefficient d’entretien) mentionnée. En effet, il n’est pas mesuré de la même manière chez tous les fournisseurs. Il faut comparer les températures de chaudière considérées pour la mesure, ce qui n’est pas évident.

Extrait de catalogue : les pertes à l’arrêt mentionnées sont mesurées pour une différence de température entre l’ambiance et l’eau de 30°C et la consommation d’entretien pour une différence de température de 50°C.

Pour les chaudières à brûleur pulsé ou à prémélange modernes, il n’y a guère de différence entre les différentes marques. On retrouve une épaisseur d’isolation équivalente à 10 cm de laine minérale pour quasi tous les matériels.

Où les pertes à l’arrêt commencent à jouer un rôle important, c’est dans le choix d’une chaudière gaz atmosphérique dont le foyer reste en permanence ouvert. Néanmoins, il est très rare que l’on installe encore ce type de matériel. En effet, cette technologie est en beaucoup de points dépassée par les chaudières à prémélange avec ventilateur.

Exemple.

Ordre de grandeur :

Les chaudières actuelles les plus performantes ont des pertes à l’arrêt de l’ordre de 0,1 .. 0,3 [%] (de la puissance nominale) pour une différence de 40°C entre l’eau et l’ambiance.

Les chaudières les moins performantes dépassent 0,5 .. 0,6 % de pertes.


Chaudière « basse température » ou « très basse température » ? Un débat dépassé

Actuellement, on retrouve sur le marché des chaudières dites :

  • « Basse température », dont la température moyenne d’eau interne ne peut descendre en-dessous d’une certaine valeur, de l’ordre de 50 .. 60°C (on parle aussi dans la réglementation de chaudières « standards »). Même si cette technologie devient rare pour les nouvelles installations travaillant au gaz ou au mazout, elle est encore d’application pour les chaudières bois-énergie où la température de retour vers la chaudière est limitée à une valeur minimale (souvent autour de ~50°C).
  • « Très basse température », ne présentant aucune contrainte en ce qui concerne la température de l’eau. Cette dernière peut totalement redescendre entre les périodes de fonctionnement du brûleur. La conception de ces chaudières vise soit à éviter la condensation des fumées, même avec des températures d’eau peu élevées, soit à résister à la corrosion qui pourrait en résulter. Pour les nouvelles chaudières au gaz ou au mazout, les chaudières sont à « très basse température » lorsqu’elles ne sont pas à condensation
  • Parallèlement à ces chaudières souvent appelées « traditionnelles », on trouve également les chaudières à condensation conçues, elles, pour favoriser la condensation des fumées et fonctionnant avec les températures d’eau les plus basses. Pour les nouvelles installations, la condensation se justifie pour le gaz et mazout étant donné le gain de rendement que celle-ci permet.

Dans le contexte d’une nouvelle installation au gaz ou au mazout, la question n’est plus de faire le choix entre une « chaudière basse » ou « très basse température ». A notre sens, il s’agit d’un débat dépassé. En fait, à l’heure actuelle, il s’agit plutôt de faire le choix entre les chaudières à condensation et les chaudières « très basse température ». En effet, malgré le gain de rendement obtenu grâce à la condensation, il peut exister des situations où l’utilisation de la chaudière ne permet pas d’amortir le surinvestissement entre le « très basse température » et la condensation.

Bien que dépassée, la comparaison entre les techniques « basse » et « très basse température » reste développée ci-dessous afin d’avoir un discours complet. À noter que la question pourrait resurgir pour les chaudières au bois dans la mesure où la majorité des chaudières actuelles ont une température de retour minimale imposée (c.-à-d. chaudière « basse température »).

Avantages de la très basse température par rapport à la basse température

L’intérêt énergétique de choisir une chaudière pouvant travailler à très basse température en étant régulée en température glissante se situe au niveau de :

  • la diminution de ses pertes à l’arrêt, dont l’impact sur le rendement saisonnier dépend du type de chaudière;
  • la limitation des pertes par distribution dans le collecteur primaire, dans le cas des circuits avec distribution secondaire possédant sa propre régulation de température (vannes mélangeuses),
  • la limitation des pertes de distribution dans l’ensemble du réseau dans le cas des installations sans circuit secondaire,
  • le fonctionnement correct des vannes thermostatiques dans le cas des installations sans circuit secondaire.

Remarque : on pourrait imaginer que la diminution de la température de l’eau va améliorer l’échange entre les fumées et l’eau et donc diminuer la température moyenne de fumée. L’impact sur le rendement moyen de combustion est cependant le plus souvent négligeable étant donné la technologie appliquée dans les chaudières « très basse température » (dans lesquelles le but est de freiner l’échange entre l’eau et les fumées afin d’éviter la condensation).

Exemples.

Prenons une chaudière moderne à brûleur pulsé correctement dimensionnée de 300 kW. Son coefficient de perte à l’arrêt à température nominale (température d’eau de 70°C) est de 0,3 %. Si cette chaudière travaille en température glissante, sa température moyenne sur la saison de chauffe sera d’environ 43°C. Son coefficient de perte à l’arrêt moyen sera alors de 0,11 % :

[(43 [°C] – 20 [°C]) / (70 [°C] – 20 [°C])]1,25 x 0,3 [%] = 0,11 [%]

Par rapport au fonctionnement permanent de la chaudière à température constante de 70°C, cela permet un gain sur le rendement saisonnier (et donc sur la consommation) de seulement 0,4 %.

Prenons l’exemple d’une chaudière gaz à brûleur atmosphérique ancienne génération de 300 kW surdimensionnée de 100 %. Son coefficient de perte à l’arrêt à température d’eau de 70°C est de 1,3 %.

Si cette chaudière travaille en température glissante (température moyenne sur la saison de chauffe d’environ 43°C), le gain sur le rendement saisonnier sera cette fois de 4 %, par rapport au fonctionnement permanent de la chaudière à température constante de 70°C.

Exemple.

Une chaudière alimente un collecteur primaire DN 50 de 20 m (aller-retour), isolé par 4 cm de laine minérale.

Si le collecteur est alimenté en température glissante sans limite basse, la température moyenne du collecteur durant la saison de chauffe sera d’environ 43°C. Si la température du collecteur est limitée vers le bas, elle sera de 63°C.

Pour chacun des deux cas, la perte de distribution en chaufferie (température ambiante de 15°C) s’élève à :

Cas de la température glissante : 0,271 [W/m.°C] x 20 [m] x (43 [°C] – 15 [°C]) x 5 800 [heures/an] = 880 [kWh/an] ou 88 [litres fuel/an] ou 88 [m³ gaz/an].

Cas de la température glissante avec limite basse : 0,271 [W/m.°C] x 20 [m] x (63 [°C] – 15 [°C]) x 5 800 [heures/an] = 1 509 [kWh/an] ou 151 [litres fuel/an] ou 151 [m³ gaz/an].

Évaluer

Pour évaluer les pertes du réseau de distribution !

Les chaudières « très basse température », présentent un autre avantage qui peut justifier à lui seul leur choix (et leur surcoût) par rapport aux chaudières « basse température ». En effet, choisir une chaudière ne pouvant descendre en dessous de 50-60°C implique une conception des circuits hydrauliques plus complexes : collecteur bouclé, pompe de recyclage sur les chaudières, … . De plus, malgré une conception rigoureuse, on est rarement à l’abri, de par l’exploitation, d’un risque de condensation et donc de détérioration, par exemple lors de la relance matinale. Cela ne pose aucun problème avec les chaudières « très basse température ».

Cas imposant le fonctionnement à haute température

En outre, il existe des situations pour lesquelles la régulation des chaudières en température glissante, sans limite basse, ne convient pas à l’installation.

> Cas 1 : une installation combinée alimentant à partir du même collecteur primaire un échangeur instantané (échangeur à plaques) pour la production d’eau chaude sanitaire.

Si le volume d’eau de la chaudière et du collecteur est trop important (long collecteur), le temps de remontée en température de la chaudière risque d’être trop important et donc le temps d’attente trop long lors de chaque puisage d’eau.

Exemple.
Une chaudière de 800 kW alimente un collecteur de 20 m DN 50. La contenance en eau de la chaudière est de 1 500 litres, celle du collecteur de 173 litres.Si la température moyenne de la chaudière et du collecteur est de 43°C durant la saison de chauffe, le temps de remontée en température jusqu’à 70°C, pour produire de l’eau chaude sanitaire est de :

1,16 [kWh/m³.°C] x 1,673 [m³] x (70 [°C] – 43 [°C]) / 800 [kW] = 0,065 [h] ou 4 [min]

où 1,16 [kWh/m³.°C] = la capacité calorifique de l’eau.

Concevoir

Pour en savoir plus sur le choix du système de production d’eau chaude sanitaire.

> Cas 2 : la combinaison de plusieurs chaudières, régulées en cascade, d’une boucle primaire fermée et de circuits secondaires équipés de vannes mélangeuses.

Ces circuits présenteront des problèmes de débit d’eau chaude et d’inconfort dans certaines zones de l’installation si la température des chaudières est trop proche de la température de consigne des circuits secondaires. Les chaudières doivent donc rester à plus haute température que les utilisateurs.

Évaluer

Pour en savoir plus sur l’inconfort lié au circuit primaire.

Calculs

Simuler les problèmes d’incompatibilité hydraulique.

Concevoir

Pour en savoir plus sur le choix du type de circuit primaire.

Chaudière « basse température » ou à condensation ?

Une chaudière « très basse température » fonctionne avec des températures d’eau pouvant provoquer la condensation des fumées mais qui ne condense pas pour éviter tout risque de corrosion. En gros, on bride ses performances. Or, si les conditions sont réunies pour fonctionner en très basse température, autant opter pour une chaudière à condensation qui possède un meilleur rendement. Pour le gaz et mazout, la technologie à condensation s’impose pour la majorité des cas, même s’il existe encore certaines applications où le surinvestissement par rapport à la « très basse température » n’est amorti.

Intérêt énergétique d’une chaudière à condensation

Pour comparer le rendement des chaudières à condensation et celui des chaudières basse température, il faut comparer leur rendement global annuel ou rendement saisonnier, qui prend en compte toutes les pertes de la chaudière (par les fumées, par rayonnement et d’entretien), en fonction de la charge réelle de la chaudière durant toute la saison de chauffe et non le rendement utile maximal qui est annoncé par beaucoup de fabricants dans leur catalogue.

Ce gain réel obtenu par une chaudière à condensation est difficile à estimer d’une manière générale car il dépend de la température d’eau qui irrigue la chaudière et qui est évidemment variable (elle dépend de la courbe de chauffe choisie et donc du surdimensionnement des émetteurs).

Sur base des informations de l’ARGB et des programmes de simulation de certains fabricants, on peut dire que 6 .. 9 % d’économie sur la consommation annuelle est un ordre de grandeur réaliste (voire peut-être un peu plus pour les meilleures installations) pour les chaudières au gaz.
Ce gain doit être comparé au surcoût d’une chaudière à condensation.

Concevoir

Pour plus de détails sur :

  • Le choix du circuit relié à une chaudière à condensation, cliquez ici !

Installations propices à la condensation

Le gain dépend du taux de condensation réel, donc de la température de l’eau au retour vers la chaudière et donc de la configuration de l’installation raccordée sur la chaudière.

Toutes les installations fonctionnant à basse température sont propices à l’installation d’une chaudière à condensation, c’est d’autant plus vrai pour le mazout que pour le gaz :

  • les ventilos convecteurs dimensionnés en régime 55°/40°,
  • le chauffage par le sol dimensionné en régime 40°/30°,
  • les radiateurs dimensionnés en régime 70°/50°,
  • le chauffage de l’eau d’une piscine (eau du bassin à 26 .. 28°C),
  • la production d’eau chaude sanitaire dimensionnée en régime 70°/40°,
  • les batteries à eau chaude dimensionnées en régime 70°/40°.

Le léger surinvestissement consenti en choisissant de tels régimes de dimensionnement sera rapidement compensé par l’économie réalisée par la condensation. Une analyse de rentabilité cohérente demande de travailler sur base des performances saisonnières de l’installation. Même si cela ne fait pas office de démonstration, la figure ci-dessus illustre le gain de rendement théorique utile accessible en fonction de la température de retour (c’est-à-dire, typiquement la température des fumées – 5°C).

Evolution du rendement basé PCI en fonction de la température des fumées pour les différents combustibles (excès d’air pris à 1.2). Les échangeurs des chaudières à condensation permettent typiquement de réduire la température des fumées jusqu’à 5°C supérieurs à l’eau de retour. Par exemple, si la température de retour est de 30°C, la température des fumées devrait être proche de 35°C.

Intérêt d’installer une chaudière à condensation lors de la rénovation d’une ancienne installation de chauffage (haute température)? Oui!

Les émetteurs basse température étant propice à la condensation, Cela ne veut pas dire que dans le cas de la rénovation d’une installation équipée de radiateurs dimensionnés de façon traditionnelle (régime d’eau 90°/70°), la condensation ne peut être valorisée.

En effet, la puissance moyenne de chauffage d’un bâtiment est de moitié inférieure à sa puissance de dimensionnement (température extérieure moyenne de la saison de chauffe = 5..6°C, température extérieure de dimensionnement = – 8.. -1 0°C). Ceci signifie que, pour une installation équipée de radiateurs non surdimensionnés et calculés pour un régime d’eau de 90°/70°, la température moyenne de retour de l’eau est voisine de 43° avec une régulation en température glissante.

        

Evolution de la température de retour d’une installation dimensionnée en régime 90°/70° et régulée en température glissante en fonction de la température extérieure. Comparaison avec la température de rosée des fumées d’une chaudière gaz et mazout. On voit que la chaudière condense sur une majeure partie de l’année (voir second graphe).  En termes d’énergie, on voit que 75% de l’énergie sera fournie en condensant pour le gaz pou r40% pour le mazout.

En pratique, on peut considérer que ~75% de l’énergie délivrée par la chaudière au gaz aura lieu avec condensation pour approximativement ~40% pour le mazout. L’intérêt pour la condensation au gaz semble donc assez évident, même en régime 90°/70°. Néanmoins, il est aussi présent pour le mazout mais dans une moindre mesure. En outre, il faut savoir qu’en l’absence de condensation, les chaudières à condensation gardent un rendement supérieur aux chaudières traditionnelles parce qu’elles possèdent une surface d’échangeur supérieure.

Si les radiateurs ont été dimensionnés pour un régime de température 70°/50°, la chaudière gaz condensera durant toute la saison de chauffe. En ce qui concerne le mazout, le régime de température 70°/50°C est nettement plus favorable. A notre sens, il est préférable de travailler avec ce régime de température si on veut plus s’assurer de l’efficacité de l’installation au mazout à condensation, si l’on veut tirer le meilleur profit de cette technologie.

     

Evolution de la température de retour d’une installation dimensionnée en régime 70°/50° et régulée en température glissante en fonction de la température extérieure.

Notons que, dans la pratique, la plupart des radiateurs d’une installation existantes sont surdimensionnés et ne demandent jamais la température d’eau de 90°C (de dimensionnement). Pour s’en convaincre, il suffit d’interroger le gestionnaire de la chaufferie sur la température maximale des chaudières qu’il règle par les plus grands froids, ce, sans que les occupants ne se plaignent. Cette température est bien souvent inférieure à 90°C. De plus, souvent, l’isolation partielle du bâtiment (isolation de la toiture, placement de double vitrage) a encore renforcé le surdimensionnement. Dans ces conditions, une installation de chauffage initialement dimensionnée dans un régime 90°/70° pourrait être adaptée pour un régime de température inférieur de 70°/50° sans perte de confort et favorisant (ou consolidant) ainsi la condensation.

Cas particulier : chaudière à condensation, production d’eau chaude sanitaire et légionelles

Certains règlements sanitaires récents imposent de produire l’eau chaude sanitaire à une température de 80°C, pour éviter le développement de légionnelles. Ces règlements vont évidemment à l’encontre de l’efficacité énergétique puisqu’ils obligent le maintien des chaudières à une température permanente de 90°C.

Cette situation n’élimine cependant pas toutes les chaudières à condensation. Restent possibles les chaudières qui :

  • permettent deux retours à des températures différentes. La production d’eau chaude est raccordée sur le retour « chaud » de la chaudière et les corps de chauffe sont raccordés sur le retour « froid »;
  • et peuvent fonctionner sans débit imposé. En effet, ces chaudières, n’étant pas raccordées sur un circuit avec bouteille casse-pression, ne doivent pas suivre au plus près la température des circuits secondaires pour condenser correctement, car aucun retour d’eau à haute température vers la chaudière n’est possible même lorsque les vannes des circuits secondaires sont peu ouvertes.

Illustration d’un circuit avec deux retours à température différentes (retour « chaud » et « froid ») ainsi qu’une chaudière sans débit imposé (sans bouteille casse pression).

Exemple de circuit hydraulique raccordé à une chaudière à condensation demandant un débit minimal permanent.

Si cette chaudière doit en même temps produire de l’eau chaude sanitaire, elle sera tenue de fonctionner un certain temps, pour ne pas dire tout le temps, à haute température. Dans ce cas, les vannes des circuits secondaires devront se refermer pour obtenir la température voulue par ces derniers. Le surplus d’eau chaude alors produit par la chaudière sera directement renvoyé vers celle-ci via la bouteille casse-pression et elle ne condensera plus.

Critères de performance d’une chaudière à condensation

Toutes les chaudières à condensation n’ont pas les mêmes performances. Il faut en tenir compte lors du choix de sa chaudière :

  • la qualité de l’échangeur
  • le contrôle fin de l’excès d’air
  • la possibilité de modulation du brûleur sur la plus grande plage de puissance possible
  • un circuit hydraulique associé à la chaudière qui évite tout recyclage d’eau chaude vers la chaudière (chaudière à grand volume d’eau)

La qualité de l’échangeur

Pour un même type de combustible, toutes les chaudières à condensation ne présentent pas la même efficacité énergétique intrinsèque. Celle-ci dépend notamment de la conception de leur échangeur.

Malheureusement, même des chaudières présentant un très faible taux de condensation satisfont à certains labels (exemple, Optimaz-élite pour le fioul) et à la réglementation imposant un rendement minimum aux chaudières vendues en Belgique.

On retrouve ainsi sur le marché, des chaudières à condensation, guère plus performantes que des chaudières traditionnelles haut rendement.

En tant que maître d’ouvrage, il est cependant difficile de connaître la qualité énergétique de la chaudière à condensation que l’on achète. Il n’existe en effet pas de norme qui définit la manière dont doit être mesurée l’efficacité. Le rendement utile, calculé au départ de la fiche technique des chaudières, peut être une indication.

En cas de doute sur la qualité intrinsèque d’une chaudière, l’avis de l’ARGB  pour le gaz ou CEDICOL pour le mazout peut être pris.

Exemple : caractéristiques techniques de 2 chaudières gaz à condensation.

Chaudière de marque x : le rendement utile(sur PCI) est de 96,8 % au régime d’eau 80°/60°, de 100,2 % au régime 70°/50° et 106 % au régime 40°/30°.

Chaudière de marque y : le rendement utile(sur PCI) à pleine charge est de (300/309) = 97 % au régime d’eau 75°/60° et (323/309) = 104,5 % au régime 50°/30°.

Un autre critère peut être demandé au fabricant pour évaluer les performances de l’échangeur thermique (donnée ne se trouvant pas dans leur documentation technique) : la différence de température entre les fumées et l’eau de retour qu’ils obtiennent avec leur matériel. Une valeur inférieure ou égale à 5°C indique une bonne performance de l’échange.

Le contrôle de l’excès d’air

Rendement utile d’une chaudière gaz en fonction de la température des fumées et de l’excès d’air (n = 1,3 équivaut à un excès d’air de 30 %).

L’énergie récupérée grâce à la condensation dépend fortement de l’excès d’air lors de la combustion (la température de rosée des fumées diminue quand l’excès d’air augmente).

C’est pourquoi, les anciennes chaudières gaz atmosphériques à condensation présentaient de moins bonnes performances. En effet, elles fonctionnaient avec un excès d’air supérieur à 50%. Heureusement, ce type de chaudière n’est quasi plus commercialisé et est remplacé par des brûleurs à prémélange permettant un dosage plus juste de l’air comburant.

Les chaudières à condensation les plus sophistiquées régulent, en continu, le dosage du gaz et de l’air, au moyen d’une analyse de l’oxygène contenu dans les fumées.

La modulation de la puissance du brûleur

La diminution de la puissance du brûleur avec la charge favorise la condensation puisqu’elle entraîne la diminution de la température de fumée. On a donc intérêt à choisir une chaudière dont le brûleur est le plus modulant possible, sur la plus grande plage de puissance possible.

Par exemple, une chaudière à prémélange au gaz peut moduler de 10 à 100 % de sa puissance nominale. Cela n’est actuellement possible que dans les ensembles où le brûleur a été développé en intégration avec la chaudière (en d’autres termes, pour les chaudières dites de type « unit »). Les chaudières à condensation que l’on équipe d’un brûleur pulsé modulant traditionnel (gaz ou mazout) ne peuvent atteindre cette plage de modulation. Effectivement, elles modulent de 30 à 100 % de la puissance nominale. En outre pour les faibles puissances, les brûleurs pulsés au mazout sont seulement équipés d’une voire deux allures car la technologie du brûleur mazout doit augmenter significativement en complexité pour assurer une modulation continue, complexité qui ne se justifierait pas pour les faibles puissances.

Nous manquons malheureusement de données neutres pour juger de la différence énergétique réelle de chacune de ces solutions.

En ce qui concerne le gaz, l’ARGB semble toutefois pencher pour l’utilisation d’un brûleur modulant dans la plus grande plage de puissance possible, en maintenant le rapport air/gaz constant et l’excès d’air minimal sur toute la plage de modulation, ce parce que :

  • les principales économies apparaîtraient lorsque la modulation peut abaisser la puissance en dessous de 30 % de la puissance nominale,
  • le taux d’émission annuel de NOx serait plus faible.

La conception du circuit hydraulique

L’efficacité énergétique de la chaudière à condensation dépend fortement du circuit hydraulique. Celui-ci dépend du type de chaudière et des utilisateurs (chauffage par le sol, par radiateur, batteries à eau chaude, production d’eau chaude sanitaire).

Il faut garantir que les retours d’eau vers la chaudière soient les plus froids possibles pour permettre la condensation maximale des fumées.

Une erreur de conception de l’hydraulique de l’installation peut faire perdre tout le bénéfice escompté d’une chaudière à condensation. C’est ainsi que l’on rencontre des installations avec chaudière à condensation, dont le condenseur ne laisse échapper qu’un mince filet d’eau … voire aucune eau …

Concevoir

Pour en savoir plus sur la conception des circuits hydrauliques favorisant la condensation.

Chaudière gaz à brûleur pulsé ou à prémélange modulant ?

Lorsque l’on désire installer une chaudière gaz d’une puissance inférieure à ~1MW, on a le choix entre :

À l’heure actuelle, on n’installe plus de chaudière atmosphériques de conception ancienne. En effet, cette technologie est maintenant largement dépassée par les chaudières gaz modulantes à prémélange (avec un ventilateur et contrôle de combustion). En effet, les chaudières atmosphériques présentent des inconvénients non négligeables: un rendement utile moindre, une production importante de NOx, des pertes à l’arrêt plus importantes.

Des chaudières atmosphériques à prémélange sont encore installées. Le prémélange permet de palier à une série d’inconvénient de l’ancienne génération de chaudières atmosphériques, notamment en termes de gestion de l’excès d’air et d’une meilleure maîtrise de l’émission de NOx. Néanmoins, cette technique ne permet d’atteindre les meilleures performances.

En effet, les chaudières à prémélange avec ventilateur et contrôle de combustion permettent d’atteindre les meilleurs rendement, un large plage de modulation (de 10 à 100% de la  Pn) ainsi qu’un production maîtrisée de NOx. Ceci explique leur succès. Pour les puissances inférieures à ~1000 kW, ces chaudières gaz sont préférées aux chaudières gaz à brûleurs pulsés parce que la plage de modulation du brûleur pulsé est plus réduite (de 30 à 100% de Pn) et son coût plus important.

Pour les puissances supérieures à 1MW,  il est techniquement difficile de réaliser des brûleurs à prémélange. Pour continuer de travailler sur base de cette technologie, il sera alors nécessaire de travailler avec plusieurs chaudières en cascade, ce qui permet aussi d’améliorer la plage globale de modulation de l’ensemble de l’installation. Au delà de trois chaudières en cascade, l’installation devient difficile à réguler, à piloter, de manière optimale. Par conséquent, les technique gaz à brûleur à prémélange avec ventilateur seront raisonnablement limitées au tour de ~3MW. Entre 1MW et 3MW, les brûleurs pulsés au gaz prennent progressivement de l’intérêt pour s’imposer au delà de ~3MW (lorsque que les techniques à prémélange sont « hors-jeu »).

Évaluer

 Connaître le rendement utile d’une chaudière atmosphérique.
Exemple : comparaison des coûts d’exploitation d’une chaudière à brûleur pulsé et d’une chaudière atmosphérique.

Considérons des chaudières de 200 kW dont les caractéristiques sont les suivantes :

  • Solution 1 : Chaudière atmosphérique ancienne génération (encore vendue) avec un rendement utile de 89 % et des pertes à l’arrêt 1,3 %, production de NOx > 150 mg/kWh.
  • Solution 2 : Chaudière atmosphérique à brûleur à prémélange avec un rendement utile de 92 % et des pertes à l’arrêt 0,8 % (avec obturateur sur les fumées), production de NOx < 80 mg/kWh.
  • Solution 3 : Chaudière à brûleur pulsé modulant avec un rendement utile moyen (sur la saison de chauffe) de 94 % et des pertes à l’arrêt 0,2 %, production de NOx < 80 mg/kWh.
  • Solution 4 : Chaudière à brûleur radiant modulant avec un rendement utile moyen de 94 % et des pertes à l’arrêt 0,5 %, production de NOx < 80 mg/kWh

en considérant que les chaudières sont correctement dimensionnées, on peut estimer leur rendement saisonnier :

Choix de la chaudière

Rendement saisonnier

Surconsommation par rapport à la solution 3

Solution 1 86,4 % 8 %
Solution 2 90,3 % 3,8 %
Solution 3 93,8 % 0,1 %
Solution 4 93,9 %

Pour une consommation annuelle de l’ordre de 35 000 m³ de gaz, cela donne une surconsommation de :

Choix de la chaudière

Surconsommation par rapport à la solution 3

Solution 1 2 800 m³gaz/an
Solution 2 1 330 m³gaz/an
Solution 3
Solution 4

Technologies Low NOx

Ces dernières années, les développements des ensembles « chaudières-brûleurs » se sont concentrés sur la réduction des émissions polluantes, notamment des émissions de NOx. En parallèle, en juillet 09, est entré en application, un Arrêté Royal fixant le taux maximal d’émission des nouvelles chaudières et des nouveaux brûleurs vendus en Belgique pour les combustibles liquides et gazeux.

On a évidemment intérêt, d’un point de vue environnemental, à choisir le matériel le moins polluant possible en allant plus loin encore que les exigences légales.

Comment connaître le taux d’émission de NOx de l’ensemble chaudière-brûleur que l’on installe ?

Pour les chaudières gaz à brûleur intégré (type « unit »), les fabricants indiquent dans leur documentation le taux d’émission de leur matériel. Notons que les chaudières gaz atmosphériques sans prémélange produisent plus de NOx que les chaudières gaz à brûleur pulsé ou les chaudières à prémélange.

Pour les chaudières à brûleur pulsé, il faut se fier aux technologies appliquées (chaudières à triple parcours, brûleurs « Low NOx » fuel ou gaz).


Fonte ou acier ?

Si on considère les qualités intrinsèques de ces deux matériaux, le débat n’a guère lieu d’être en ce qui concerne les chaudières modernes.

  • En effet, les deux matériaux ont des capacités semblables de résistance à la corrosion, de longévité et de recyclage. Remarquons que, de manière générale, ni la fonte, ni l’acier ne sont capables de résister aux condensats acides.
  • Les chaudières à condensation sont en général en acier inoxydable ou en fonte d’aluminium.
  • La fonte est certes plus cassante que l’acier et supporte mal les chocs thermiques. C’est pourquoi certains constructeurs imposent le maintien d’un débit d’eau minimal constant dans la chaudière. Ceci complexifie la conception du réseau hydraulique et diminue la performance des chaudières à condensation. D’autres constructeurs ont par contre trouvé des astuces techniques pour concevoir des chaudières en fonte ne nécessitant aucune irrigation minimale et pouvant être raccordées à des circuits hydrauliques extrêmement simples (circuits primaires ouverts).
  • La fragilité de la fonte face aux tensions thermiques rend ces chaudières plus sensibles aux dépôts de boue et aux défauts d’irrigation qui en résulte. La fonte est donc à déconseiller dans les anciennes installations connaissant des problèmes d’embouage et d’entartrage. Notons à ce sujet que si l’installation contient des boues, le problème doit être réglé avant le remplacement des chaudières, sous peine de voir celles-ci se détériorer rapidement.
  • Les possibilités actuelles de formage permettent d’obtenir, avec l’un ou l’autre des matériaux, des chaudières performantes ne présentant pas de condensation même en travaillant en très basse température.
  • Les chaudières en fonte présentent un avantage pratique par rapport aux chaudières en acier : elles peuvent être acheminées en pièces détachées dans la chaufferie et montées sur place, ce qui est parfois indispensable dans les chaufferies d’accès étriqué.

   

Élements de chaudière en fonte, triple parcours, en attente de montage.

  • Pour les très petites puissances (< 50 kW), les chaudières en fonte sont moins chères que leurs cousines en acier. Pour les grosses puissances (> 300 kW), c’est l’inverse.

Grand ou faible volume d’eau ?

On rencontre sur le marché :

  • des chaudières à faible volume d’eau (0,15 .. 0,2 litre/kW) et perte de charge importante,
  • des chaudières à grand volume d’eau (plus de 1 litres/kW) et faible perte de charge.

Les fabricants de chacune de ces chaudières présentent leur technologie comme un avantage. Essayons dès lors d’y voir plus clair.

Il est vrai que chacune des techniques a ses avantages, le débat se situant principalement au niveau de l’exigence d’un débit minimum dans la chaudière pour permettre son fonctionnement et de la complexité du circuit primaire qui doit être associé à la chaudière.

Une chaudière à faible volume d’eau a très peu d’inertie, elle peut donc réagir très rapidement à toute demande de variation de puissance, par exemple dans le cas d’une demande d’eau chaude sanitaire et d’une régulation avec priorité sanitaire. Par contre, ces chaudières sont souvent soumises à des impositions de débit minimal et leur perte de charge a un rôle important sur le comportement hydraulique de l’installation. Ceci rend la conception des circuits de distribution plus complexe. En outre, les faibles sections de passage de l’eau rendent la chaudière plus sensible aux risques d’embouage. Ceci peut être un frein à son utilisation en rénovation dans des installations contenant des boues.

Exemple de circuit raccordé à des chaudières à faible volume d’eau. L’alimentation en eau des chaudières est permanente (bouteille casse-pression, circulateur de recyclage, …) même lorsque les vannes mélangeuses sont fermées. Une boucle de « Tychelman » n’est pas nécessaire puisque la perte de charge de la tuyauterie est négligeable par rapport à la perte de charge des chaudières.

Une chaudière à grand volume d’eau a une plus grande inertie thermique. Ceci augmente les temps de fonctionnement des brûleurs et donc limite le nombre de démarrages du brûleur, source d’imbrûlés. Les chaudières à grand volume d’eau peuvent fonctionner sans circulation forcée. Lors du fonctionnement du brûleur, le débit d’eau interne circulant par thermosiphon est suffisant pour éviter tout risque pour la chaudière. Cette possibilité de fonctionner sans pompe d’irrigation simplifie grandement la conception des circuits de distribution, diminue les coûts d’investissement et d’exploitation.

Exemple de circuit raccordé à des chaudières à grand volume d’eau. Il n’y a pas de pompe primaire (sauf si les collecteurs se trouvent dans une sous station éloignée de la chaufferie). L’absence de débit dans les chaudières quand les vannes mélangeuses sont fermées ne pose aucun problème. Le circuit primaire est moins coûteux en investissement et en exploitation (moins de pompes).

Notons qu’il existe des technologies qui combinent la rapidité de réaction liée à un faible volume d’eau et la possibilité de se raccorder à un circuit hydraulique extrêmement simple. C’est la régulation intégrée à la chaudière qui coupe cette dernière en cas d’arrêt de la circulation (« flow switch » qui mesure le débit de chaque chaudière ou « aquastat » qui mesure une montée en température anormale de la chaudière).


Nombre de chaudières

Lorsque la puissance utile à installer est supérieure à 200 kW, la dissociation de la production en plusieurs chaudières peut être envisagée. Dans la lecture des éléments suivants, il y a une distinction claire à faire entre les anciennes technologies de chaudières (avec des pertes à l’intérêt significatives) et les chaudières modernes (où les pertes à l’arrêt sont réduites). Comme nous sommes dans une section relative à la conception de nouvelles installations, il faut dès lors se focaliser sur ces chaudières modernes. Pour celles-ci, la division de la puissance à installer en plusieurs chaudières est essentiellement destinée à assurer la production en cas de panne d’une des chaudières (c.-à-d. la sécurité d’approvisionnement). D’un point de vue purement énergétique, la division en plusieurs chaudières peut même être légèrement défavorable avec les chaudières modernes possédant des possibilités de modulation en puissance (brûleur deux allures ou modulant). En effet, les chaudières modernes présentent des rendements de combustion supérieurs à charge partielle, c’est notamment le cas des chaudières à condensation au gaz à prémélange équipée d’un brûleur modulant (de 10 à 100% de la puissance nominale).

Intérêt de diviser la puissance à installer en plusieurs chaudières

Démultiplier le nombre de chaudières a comme intérêt de :

Assurer la continuité de la fourniture de chaleur en cas de panne d’un générateur ?

Avec les chaudières modernes, c’est le principal argument en faveur de la démultiplication des chaudières. En effet, dans certaines applications, on souhaite que l’installation de chauffage puisse fonctionner, même si une des chaudières tombe en panne. C’est par exemple le cas des hôpitaux où la sécurité d’approvisionnement est vitale.

On pourrait imaginer que pour garantir la fourniture de chaleur en cas de panne d’une chaudière, il faille dédoubler la puissance nécessaire; en d’autres termes, qu’il soit nécessaire d’installer deux chaudières de 100% de la puissance maximale des besoins. Ce n’est pas le cas. En effet, il n’est pas nécessaire que chaque chaudière puisse répondre à tous les besoins. À titre d’exemple, prenons une installation composée de deux chaudières dimensionnées à 60% de la puissance maximale des besoins (Qtot). Durant une saison de chauffe, une puissance supérieure à 60% de la puissance totale n’est nécessaire que peu de temps. Par conséquent, si une des deux chaudières tombent en panne, elle pourra réaliser la production la majeure partie du temps. Si exceptionnellement, la demande dépasse les 60%. La chaudière ne répondra pas au besoin et la température du bâtiment descendra progressivement jusqu’à ce que les déperditions soient déminuées et équilibre la production de la chaudière. La probabilité qu’une panne de chaudière crée un inconfort important est donc minime. Et le surdimensionnement généralisé des installations limite encore ce risque.

Exemple.

Monotone de chaleur basée sur le climat moyen de St Hubert : la puissance n’est supérieure à 60 % de la puissance totale que 1 280 heures sur les 6 500 heures de la saison de chauffe. L’énergie fournie par la chaudière 1 est également nettement supérieure à l’énergie fournie par la chaudière 2.

Limiter au maximum les pertes des chaudières ? Seulement pour les anciennes chaudières

C’était l’argument avancé avec les anciennes chaudières. Il n’est plus forcément d’actualité. Voyons pourquoi.

Les pertes à l’arrêt d’une chaudière sont proportionnelles à sa puissance nominale : plus la puissance nominale augmente, plus les pertes augmentent. On a donc tout intérêt, lorsque celles-ci sont importantes, à limiter la puissance de la chaudière en activité grâce à une régulation en cascade. En effet,  quand les besoins sont faible, une des deux chaudières peut rester non irriguée si bien que les pertes à l’arrêt se limite à la seule chaudière en fonctionnement (dont la puissance est inférieure à la puissance nominale totale de l’installation, et donc ses pertes).

Exemple.

Considérons un bâtiment de bureaux situé à Uccle, dont la puissance utile calculée est de 500 kW.

Deux solutions sont envisagées : une chaudière de 550  kW ou 2 chaudières 300 kW.

Solution

Combinaison

Temps de fonctionnement du brûleur durant la saison de chauffe

Temps d’arrêt de la chaudière durant la saison de chauffe

Solution 1 Chaudière
550 kW
1 844 [h] 5 800 – 1 844 = 3 956 [h]
Solution 2 Chaudière 1
300 kW
3 305 [h] 5 800 – 3 305 = 2 495 [h]
Chaudière 2
300 kW
77 [h] 5 800 – 77 = 5 723 [h]

Monotone de chaleur indiquant le temps total pendant lequel la puissance nécessaire est supérieure à un certain pourcentage de la puissance totale installée, soit dans ce cas : 2 x 300 [kW]. La 2ème chaudière devra produire 23 040 [kWh] et donc son brûleur ne fonctionnera que durant 23 040 [kWh] / 300 [kW] = 77 [h]

Si le coefficient de perte à l’arrêt des chaudières est de 1% et le rendement utile des chaudières est de 91 %, on peut estimer les pertes à l’arrêt enregistrées dans les deux solutions :

Solution

Combinaison

Puissance nominale de la chaudière

Perte à l’arrêt

Solution 1 Chaudière
550 kW
550 [kW] / 0,91 = 604 [kW] 0,01 x 604 [kW] x 3 956 [h/an] =
23 894 [kWh/an]
ou 2 389 [litres de fuel]
Solution 2 Chaudière 1
300 kW
300 [kW] / 0,91 = 330 [kW] 0,01 x 330 [kW] x 2 495 [h] =
8 233 [kWh/an]
ou 823 [litres de fuel]
Chaudière 2
300 kW
300 [kW] / 0,91 = 330 [kW] – (*)

(*) si la chaudière n’est irriguée que lorsqu’elle est en demande, on peut considérer que ses pertes à l’arrêt sont inexistantes (à nuancer en fonction de l’inertie thermique de la chaudière). On aura donc compris que dédoubler le nombre de chaudières ne permet une économie que si la chaudière non nécessaire est déconnectée hydrauliquement de l’installation (au moyen d’une vanne motorisée) et non maintenue en température. Dans le cas contraire, celle-ci présente toujours des pertes à l’arrêt.

L’intérêt énergétique de dissocier la puissance chaudière était important dans le cas des anciennes chaudières présentant des pertes à l’arrêt importantes (parfois plus de 3 ..4 %). Il l’est toujours pour les chaudières gaz atmosphériques.

Les chaudières modernes à brûleur pulsé ou à prémélange avec ventilateur ont des pertes à l’arrêt quasi négligeables (isolation importante, clapet d’air sur le brûleur éliminant les pertes par balayage). L’intérêt énergétique de démultiplier les chaudières est alors nettement moindre, voire même négatif. En effet, si la chaudière unique est équipée d’un brûleur à 2 allures ou modulant, elle travaillera durant une majorité de la saison de chauffe en petite puissance (première allure) et verra son rendement de combustion grimper. Cela compense largement la faible augmentation des pertes à l’arrêt par rapport à des chaudières multiples régulées en cascade.

On peut donc considérer qu’actuellement, exception faite du cas des chaudières gaz atmosphériques, l’intérêt d’installer plusieurs chaudières se situe presqu’exclusivement au niveau de la sécurité d’approvisionnement en cas de panne.

De plus, il faut être attentif au coefficient de perte à l’arrêt annoncé par le fabricant de chaudières, en fonction de la puissance choisie. En effet, celui-ci est généralement plus important pour les petites chaudières que pour les grosses, ce qui risque de diminuer encore quelque peu le gain énergétique éventuellement réalisable par la dissociation de la puissance à installer en plusieurs unités.

Exemple.

Voici les coefficients de perte à l’arrêt annoncés par un fabricant, en fonction de la puissance de la chaudière :

Puissance [kW]

80 130 225 345 460

Coefficient de perte à l’arrêt [%]

0,41 0,28 0,15 0,13 0,13

Augmenter le temps de fonctionnement des brûleurs ?

La dissociation de la puissance, soit au moyen de brûleurs à plusieurs allures, soit au moyen de plusieurs chaudières, a également comme avantage d’augmenter la durée de fonctionnement des brûleurs. Cela diminue le nombre de démarrages et d’arrêts du brûleur, générateurs de mauvaise combustion, de suie (source d’encrassement et de surconsommation), d’émission de polluants (NOx, CO) et de très légères pertes par préventilation.

Cet avantage réel est malheureusement difficilement chiffrable.

Chaufferies composées

On parle de « chaufferie composée » quand on associe une chaudière traditionnelle et une chaudière à condensation.

 

Chaudière à condensation associée à une chaudière traditionnelle.

Le graphe suivant montre l’intérêt de choisir une telle combinaison lorsque l’on souhaite installer plusieurs chaudières afin de garantir l’approvisionnement : lorsque l’on dissocie la puissance à installer en deux chaudières identiques dont une à condensation, celle-ci produira la plus grande partie de l’énergie nécessaire sur l’année, ce, en condensant une grande partie du temps de chauffe (dépend du régime de température). La chaudière traditionnelle ne viendra en appoint que par les plus grands froids, c’est-à-dire dans des conditions de toute façon défavorables à la condensation.

Étant donné le peu de gain supplémentaire que l’on peut espérer en combinant deux chaudières à condensation, cette solution est, elle, la plupart du temps rejetée. Cependant, les chaudières à condensation deviennent standard dans la plupart des configurations et leurs prix se démocratisent de plus en plus : on en tiendra compte !

Exemple :

Monotone représentant, pour le climat moyen de Uccle, le nombre d’heures par an pendant lesquelles une installation de chauffage non surdimensionnée, calculée pour un régime de température d’eau 90°/70° et régulée en température glissante, fonctionne avec une température d’eau de retour supérieure à une certaine valeur.
L’installation est composée de deux chaudières (une à condensation et une traditionnelle) de puissance égale à 50 % des besoins maximaux.

On constate que la chaudière à condensation pourra fournir la majorité de l’énergie nécessaire, ce dans des conditions favorables à la condensation puisque la température de retour ne dépasse 55°C (limite approximative pour que les fumées condensent) que 113 heures par an, par les plus grands froids.

Cependant, d’un point de vue énergétique, il est plus intéressant de placer une seule chaudière gaz à condensation équipée d’un brûleur modulant à grande plage de modulation (10 % .. 100 %), reprenant l’entièreté de la puissance nécessaire, plutôt qu’une chaufferie composée. En effet, ces chaudières ont un rendement maximal lorsqu’elles travaillent à faible charge (si l’excès d’air est correctement contrôlé, le rendement de combustion augmente quand la puissance du brûleur diminue). De plus, la modulation élimine quasi totalement les pertes à l’arrêt.

Dissocier la puissance à installer entraînerait donc une perte énergétique et installer deux chaudières à condensation de ce type risque d’être plus onéreux. Pour les chaudières au mazout à condensation, cela dépend des capacités de modulation en puissance de la chaudière : 1 allures, 2 allures ou modulant.


Brûleur 1, 2 allures ou modulant ?

Adapter la puissance du brûleur aux besoins réels qui sont variables, permet d’augmenter sa durée de fonctionnement et donc de limiter le nombre de démarrages et d’arrêts qui comme nous l’avons signalé plus haut sont une source d’imbrûlés et d’émissions polluantes. Diminuer la puissance du brûleur par rapport à la puissance nominale de la chaudière permet également d’augmenter le rendement de combustion (les fumées vont sortir plus froides). Le rendement de combustion augmente ainsi de 2 .. 2,5 % lorsque l’on abaisse la puissance du brûleur à 60 % de sa puissance nominale.

Exemple.

Évolution du rendement de combustion des brûleurs actuels en fonction de la modulation de sa puissance.

Pour les brûleurs pulsés modulants (fuelou gaz) (de 30 à 100 %) : dans un premier temps, lorsque la puissance du brûleur diminue (à partir de 100 % de puissance), la température des fumées diminue et le rendement augmente. À partir d’un certain moment, la diminution de la quantité de particules de combustible et leur dispersion (la pulvérisation du fuel devient difficile) imposent d’augmenter l’excès d’air pour éviter les imbrûlés. Le rendement diminue de nouveau.

Pour les nouveaux brûleurs gaz modulant avec contrôle de la combustion : le contrôle de la combustion permet de maintenir un excès d’air correct, sans production d’imbrûlé, sur toute la plage de modulation. On obtient donc une plage de modulation plus grande (10 à 100 %) avec une qualité de combustion constante et des fumées qui se refroidissent de plus en plus (pour arriver à la condensation).

Pour les brûleurs gaz atmosphérique 2 allures (sans ventilateur) (50% /100%) : l’air de combustion est amené dans la chaudière naturellement. L’excès d’air n’est donc pas contrôlé. Si la puissance du brûleur diminue de moitié, ce n’est pas le cas de la quantité d’air aspirée. L’excès d’air augmente donc et le rendement chute.

L’idéal

L’idéal serait un brûleur modulant sa puissance de 0 à 100 % en fonction des besoins, tout en gardant constante la qualité de la combustion. Dans ce cas, il démarrerait en début de saison de chauffe et fonctionnerait en continu, sauf en période de coupure (de nuit, …), avec un rendement de combustion maximal.

Ce type de brûleur n’existe malheureusement pas aujourd’hui. Néanmoins, on s’approche progressivement de cette situation.

En effet, les fabricants de chaudières ont développé des brûleurs gaz modulants spécifiques pour leur matériel (principalement les chaudières à condensation). Ces brûleurs permettent souvent une modulation de leur puissance de 10 à 100 %, certains avec un contrôle permanent de la combustion. Une des raisons pour laquelle les constructeurs ne prévoient pas de descendre sous les 10 %, est que la plage de fonctionnement du brûleur doit correspondre à la résistance foyère de la chaudière et les prescriptions relatives à la cheminée. En dessous de cette valeur de 10 %, le brûleur (entendons le ventilateur) n’est plus suffisamment puissant pour vaincre les pertes de charge du foyer et de la cheminée. Dans le cas du mazout, les premières chaudières basse puissance modulante commence à faire leur apparition.

Brûleur gaz modulant sa puissance en faisant varier la surface d’accrochage de la flamme et en adaptant les débits d’air et de gaz. On voit ici la flamme correspondant à 10, 50 et 100 % de puissance. La quantité d’air nécessaire à la combustion est réglée automatiquement par une sonde d’O2 mesurant les caractéristiques des fumées.

Choix du brûleur

Puissance nominale (Pn) Brûleur gaz atmosphérique Brûleur gaz à air pulsé Brûleur gaz à prémélange avec ventilateur Brûleur mazout à air pulsé
Pn < 100 – 150 kW Tout ou rien, voire deux allures Tout ou rien Modulant (10 – 20 à 100 %). Tout ou rien
Pn < 150 – 250 kW Deux allures Deux allures
Pn >  150 – 250 kW Modulant (30 – 100 %)
Pn > ~ 1 MW Chaudières en cascade Chaudières en cascade. Modulant (40-100%)
Pn > ~ 3 MW Techniquement trop complexe Techniquement trop complexe.

Dans cette discussion, il faut distinguer les installations au mazout et au gaz:

En ce qui concerne le gaz, les brûleurs à prémélange, avec ventilateur et contrôle de combustion permettent dès les faibles puissances d’atteindre de larges plages de modulation (typiquement, une puissance minimale de 10 à 20% de la puissance nominale). Moins cher que le brûleur pulsé gaz et possédant une plus large plage de modulation, on préfère souvent ces brûleurs à prémélange. Néanmoins, les chaudières à prémélange sont de type « unit », c’est-à-dire que chaudière et brûleur sont indissociables. Si l’on souhaite pouvoir changer de combustible pour une même chaudière, par exemple en fonction d’une situation future, il est souhaitable de travailler avec un brûleur pulsé qui, dans ce cas, est un élément distinct de la chaudière.

Pour les puissances élevées dépassant ~1MW, il est techniquement difficile de réaliser des chaudières à prémélange si bien qu’il faut associer plusieurs chaudières en cascade pour dépasser ce seuil. Néanmoins, au-delà de 3 chaudières, l’installation devient difficile à réguler/piloter. En conclusion, au-delà de 3MW, on travaille avec un ou plusieurs brûleurs pulsés au gaz. À ce niveau de puissance, les brûleurs pulsés sont de type modulant. De manière générale, entre 1MW et 3MW, les techniques à prémélange avec ventilateur et à air pulsé peuvent se justifier.

En ce qui concerne le mazout, mis à part quelques nouveaux modèles de chaudières type « prémix » modulantes à basse puissance, on travaille essentiellement sur base de brûleurs pulsés, et ce, dès les petites puissances. Avant les puissances de 100-150 kW, les brûleurs n’ont qu’une allure. Entre 150 et ~1MW, les brûleurs pulsés au gaz ont typiquement 2 allures. Ce n’est qu’à partir d’~1MW, que la complexité technique du brûleur pulsé mazout modulant se justifie économiquement.


Contrôle de la combustion

Pour les chaudières traditionnelles

Un brûleur moderne à air pulsé doit assurer en permanence une combustion complète, avec un minimum d’excès d’air. C’est la seule façon d’obtenir les meilleurs rendements de combustion et les émissions les plus faibles.

En pratique, des facteurs extérieurs tels que la pression et la température de l’air comburant, le degré d’humidité de l’air, les fluctuations du pouvoir calorifique du combustible ou encore des variations de contre-pression dans la chambre de combustion peuvent modifier la combustion.

Variation du taux d’oxygène contenu dans l’air en fonction des conditions atmosphériques extrêmes
(hiver ensoleillé – été pourri)

Hiver

Eté

Pression atmosphérique [mbar] 1 043 983
Température [°c] – 5 20
Humidité relative [%] 0 100
m³ d’O2 dans 1 m³ d’air comburant 0,2196 0,1849
Différence été/hiver 19 %

Les responsables de chaufferie ont tendance à régler les brûleurs à air pulsé avec des excès d’air plus élevés, de manière à éviter la formation d’imbrûlés quelle que soit la saison, ce, au détriment des performances de la combustion.

On aura compris qu’un réglage optimum de l’excès d’air ne peut se faire en toute saison que sous une surveillance permanente. Une sonde à oxygène (sonde O2 ou sonde lambda) mesure de façon continue la teneur en oxygène des fumées et ajuste le réglage du brûleur.

Sonde O2 au zirconium ou sonde lambda.

Étant donné le coût de ce système de réglage (de 7 500 à 10 000 € pour la transformation d’un brûleur existant; de 5 000 € à 6 250 € si l’installation de la sonde O2 s’effectue en même temps que le renouvellement du brûleur), le placement d’une sonde O2 ne peut cependant se justifier économiquement que dans les installations de grosse puissance (chaudières de plus de 1 MW). Pour fixer un ordre de grandeur, l’ARGB délivre une prime à l’installation d’une sonde O2 pour les installations consommant plus de 293 000 m³ de gaz par an (ce qui équivaut, dans le secteur, à une puissance de l’ordre de 2 MW).

L’économie réalisable dépend évidemment du réglage habituel du brûleur. Le « Recknagel » annonce qu’un réglage automatique de la combustion permet d’atteindre une augmentation du rendement annuel de production de 2 à 5 %.

Pour les chaudières à condensation

Nous avons vu que la quantité d’énergie récupérée grâce à la condensation des fumées dépend du réglage de la combustion. Cela apporte un intérêt complémentaire à la régulation permanente des paramètres de combustion.

C’est pourquoi, pour optimaliser le fonctionnement de leur chaudière à condensation, certains constructeurs ont équipé d’origine leur matériel d’une sonde O2 et d’une régulation qui corrige automatiquement la vitesse du ventilateur du brûleur en fonction de la qualité de la combustion.

Malheureusement, nous ne disposons pas actuellement de donnée neutre permettant de chiffrer le gain réel résultant de ce mode de régulation, ce par rapport aux chaudières dont le modulation se fait en maintenant constant le rapport entre le volume d’air et de gaz admis dans le brûleur.


Suivi des consommations

Compteurs d’heures sur un brûleur 2 allures.

Le suivi des consommations est une des clés de la gestion énergétique.

Gérer

Pour en savoir sur la comptabilité énergétique.

Dans le cas d’une installation fonctionnant au fuel, il est difficile d’effectuer un suivi régulier (mensuel) du fait de la complexité de la mesure de la consommation. Le placement d’un compteur de fuel sur le brûleur permet de résoudre le problème. Ce placement est parfois complexe sur un brûleur existant. C’est pourquoi il est important de le prévoir dès la commande du brûleur, les fabricants pouvant alors fournir un compteur intégré.

Notons que pour les chaudières fonctionnant au gaz, le relevé du compteur gaz permet le même suivi des consommations. Si d’autres consommations peuvent être identifiées (cuisines, stérilisateurs dans les hôpitaux, …), il faudra les dissocier des consommations des chaudières.

Une autre possibilité est l’intégration de compteurs d’heures de fonctionnement du brûleur (un compteur par allure). Il faudra alors connaître le débit de combustible pour connaître la consommation. Pour le fuel, celui-ci devra être calculé à partir des caractéristiques du gicleur reprises notamment sur l’attestation d’entretien des chaudières. La présence de compteurs d’heure de fonctionnement permet également, si on prend la discipline de les relever, de visualiser le fonctionnement de l’installation. On peut par exemple constater que dans une cascade de deux chaudières, une des deux chaudières n’a jamais tourné durant l’année. Cela indique que l’installation est surdimensionnée. Ou à l’inverse, si le nombre d’heures est identique, que la régulation en cascade est mal réglée, …. Cependant, il existe un mode de permutation sur les régulateurs de sorte à équilibrer la charge des chaudières.


En résumé, si nous devions choisir …

Nous sommes conscients qu’il est peut-être difficile de naviguer au milieu de tous les critères de choix décrits ci-dessus. C’est pourquoi nous vous faisons part des orientations que nous considérons être actuellement les plus performantes en matière de consommation énergétique et de protection de l’environnement. Ainsi, si nous devions concevoir une nouvelle installation de production de chaleur, nous choisirions,

Option 1 : Énergie fossile

Si le gaz est disponible :

  • Une chaudière gaz à condensation ou la combinaison d’une chaudière à condensation avec une chaudière traditionnelle (si on désire une assurance de fourniture de chaleur en cas de panne). Sur ce point, nous sommes un peu partagés sachant que le prix des chaudières à condensation diminue relativement vite.
  • Cette chaudière serait dimensionnée suivant la norme NBN B62-003.
  • Elle serait équipée d’un brûleur à pré-mélange modulant avec ventilateur (avec une grande plage de modulation : de 10 à 100 %) et avec un dosage entre l’air comburant et le gaz le plus précis possible sur toute la plage de modulation.
  • Elle serait raccordée à un circuit hydraulique favorisant au maximum la condensation et de préférence le plus simple possible de manière à éviter les erreurs de conception et de régulation (chaudière ne nécessitant pas de débit minimal).
  • Elle aurait les émissions de CO et NOx les plus faibles possibles.

Si le gaz n’est pas disponible :

  • Une chaudière ou plusieurs chaudières (si on désire une assurance de fourniture de chaleur en cas de panne) fuel à triple parcours. Attention que les chaudières à condensation au fuel sont de plus en plus présentes sur le marché et donnent d’excellentes performances énergétiques.
  • Si possible à condensation ou, au minimum, pouvant travailler à « très basse température ».
  • Équipée d’un brûleur « Low NOx« , à 2 allures ou d’un brûleur modulant pour les grandes puissances.
  • Équipée d’un compteur fuel pour faciliter le comptage énergétique.

Option 2 : Energie renouvelable

  • Une chaudière au bois-énergie (pellets ou plaquettes) en combinaison avec une chaudière au mazout « très basse température » (pour assurer la fourniture de chaleur en cas de panne et pour réaliser l’apport de pointe de chaleur lors des températures extérieures extrêmes, ce qui maximise le temps de fonctionnement de la chaudière au bois),
  • Alimentée en bois dans un conditionnement de qualité,
  • Équipée d’un dispositif de comptage des consommations pour faciliter le comptage énergétique (soit basé sur la quantité de bois consommé ou la régulation de la chaudière).

Et pour les chaudières de puissance importante

Chaudière à condensation avec échangeur intégré.

Au-delà d’une certaine puissance (> 1 000 à 1 500 kW), il est difficile de trouver des chaudières à condensation où l’échangeur pour la condensation est intégré à la chaudière. Les modèles proposés au-dessus de cette puissance sont en général des chaudières à haut rendement équipés d’un échangeur à condensation placé en aval (du point de vue des fumées) de la chaudière.

Intérêt des chaudières avec échangeur à condensation externe

Les chaudières HR équipées d’un échangeur à condensation externe (ou condenseur séparé) sont-elles comparables aux chaudières à condensation proprement dite ?

A priori, dans la mesure où le choix entre ces deux types de chaudières est possible, les constructeurs avancent que la chaudière à condensation dispose d’une surface d’échange plus importante que la somme des surfaces d’échange de la chaudière et de l’échangeur à condensation réunis. De plus, la température des fumées dans la chaudière HR devant rester au-dessus du point de rosée (l’échangeur de la chaudière n’est pas prévu pour condenser), les fumées entrent dans le condenseur séparé à plus haute température que dans le cas des condenseurs intégrés.

Dans une première approche, l’intérêt des condenseurs externes est mitigé. Si la possibilité existe de pouvoir choisir, dans la gamme de puissance considérée, entre une chaudière à condensation à part entière et une chaudière classique HR avec échangeur à condensation séparé, il ne faut pas hésiter un seul instant.

Condenseurs et tours de refroidissement

Condenseurs et tours de refroidissement


Vue synoptique

La chaleur extraite par une machine frigorifique doit être évacuée vers l’extérieur. Le plus simple est de refroidir le fluide frigorigène avec l’air extérieur :

Mais la puissance de refroidissement est parfois trop faible. On peut la renforcer grâce à l’évaporation d’eau supplémentaire (lorsque de l’eau s’évapore, la chaleur de la vaporisation est « pompée » sur la goutte d’eau qui reste et qui donc se refroidit):

Problème : parfois, la distance entre le groupe et la toiture est fort élevée et la perte de charge sur le circuit frigorifique serait trop importante.

Aussi, un circuit d’eau est créé : l’eau refroidit le fluide frigorifique et l’air refroidit l’eau !

Trois types d’échangeur sont rencontrés :

1° L’aéro-refroidisseur :

L’eau est directement refroidie par l’air.

Schéma principe aéro-refroidisseur - 01.
Schéma principe aéro-refroidisseur - 02.

2° La tour de refroidissement fermée :

Une puissance supplémentaire est donnée par pulvérisation d’une eau indépendante du circuit.

Schéma principe tour de refroidissement fermée - 01.
Schéma principe tour de refroidissement fermée - 02.

3° La tour de refroidissement ouverte :

Cette fois, c’est l’eau qui traverse le condenseur qui est directement pulvérisée et en partie évaporée.

Schéma principe tour de refroidissement ouverte - 01.
Schéma principe tour de refroidissement ouverte - 02.


Fonctionnement d’un condenseur

Le fonctionnement du condenseur s’intègre dans un fonctionnement global de la machine frigorifique.

En théorie, la condensation se déroule en 3 phases :

> Phase 1, la désurchauffe du fluide frigorigène, qui, sortant du compresseur sous forme de gaz très chauds (parfois jusqu’à 70°C), va se refroidir et donner sa chaleur sensible.

> Phase 2, la condensation du fluide, moment où l’essentiel de la chaleur est donnée sous forme de chaleur latente.

> Phase 3, le sous-refroidissement du liquide, communiquant encore de la chaleur sensible au fluide refroidisseur.

En pratique, ce découpage en phases ne se fait pas vraiment ainsi. Le fluide frigorigène circule dans un tube en contact avec l’eau ou l’air. Le fluide qui touche le tube est liquide et se sous-refroidit. Le fluide qui est en contact avec ce liquide condense à son tour. Enfin, le gaz qui est au centre du tube désurchauffe simplement. A la limite, le gaz au cœur du tube ne sait pas qu’il y a un refroidissement sur les parois !

Les 3 phases sont donc simultanées…


Fonctionnement d’une tour de refroidissement

Un litre d’eau évaporée évacue 2 500 kJ de chaleur.

Pour obtenir le même effet avec le refroidissement de l’eau, on devrait refroidir 60 litres d’eau de 10°C… (sur base d’une capacité calorifique de l’eau de 4,18 [kJ/kg.K].

C’est sur ce principe physique que la tour de refroidissement fonctionne. Ainsi, dans la tour ouverte, l’eau chaude issue du condenseur est pulvérisée en micro-goutelettes, puis ruisselle sur une surface d’échange eau-air. Un ou plusieurs ventilateurs provoquent un courant contraire ascendant. Du fait de l’échange avec l’air froid et de l’évaporation partielle, la température de l’eau diminue. L’eau refroidie est recueillie dans un bac et repart vers le condenseur.
En théorie, si l’échange était parfait (surface d’échange infinie), l’eau refroidie atteindrait la température humide de l’air. Par exemple, si l’air extérieur est de 30°C, 40 % HR, sa température humide est de 20°C 100 % HR. Mais l’eau n’atteindra pas cette valeur. En pratique, elle sera de 3 à 8°C au-dessus de cette valeur, suivant le dimensionnement du bureau d’études (pour atteindre 3°C, il faut dimensionner largement la tour). Cette valeur est appelée l' »approche ».

Comparons les systèmes en fixant des valeurs moyennes : une température d’air de 30°C 40 % HR, une « approche » de 5°C, un pincement des échangeurs de 6°C et un échauffement de la température de l’eau de 7°C.

Entrée condens. Sortie condens. T°condensat.
fluide frig.
Condens. à air normal T° air sec = 30° T° air = 30° T° air = 37° 43°
avec évaporation d’eau T° air sec = 30° T° air = 25° T° air = 32° 38°
Condens. à eau tour ouverte T° air humide = 20° T° eau cond = 25° T° eau cond = 32° 38°
tour fermée T° eau pulvér. = 25° T° eau cond = 31° T° eau cond = 38° 44°
dry-cooler T° air séche = 30° T° eau cond = 36° T° eau cond = 43° 49°

Cette approche simplifiée situe l’ordre de grandeur de la température de condensation, et donc l’impact sur la consommation du compresseur.


Les condenseurs à air

L’évacuation de la chaleur du circuit frigorifique est assurée au travers d’un échangeur direct fluide frigorigène/air.

Schéma principe condenseurs à air.

Le gaz chaud du réfrigérant cède sa chaleur à l’air traversant le condenseur et passe à l’état liquide. Le débit et la température du flux d’air déterminent la puissance du condenseur.

La vitesse moyenne de passage de l’air est de 2 à 4 m/s. Ordre de grandeur du coefficient d’échange d’un condenseur à air : 20 à 30 [W/m².K]

Deux types de ventilateur sont utilisés :

  

Ventilateur axial et ventilateur centrifuge.


Les condenseurs à eau

On parle de condenseur à « refroidissement indirect », puisque cette fois, le gaz chaud du réfrigérant cède sa chaleur à de l’eau circulant dans le condenseur.

Schéma principe condenseurs à eau.

Ordre de grandeur du coefficient d’échange d’un condenseur à eau : 700 à 1 100 [W/m².K]

Les performances du condenseur seront fonction de :

  • la différence de température entre le réfrigérant et l’eau,
  • la vitesse de l’eau (le débit),
  • le coefficient d’encrassement,
  • la nature du fluide frigorigène.

Pour le refroidissement, on peut utiliser l’eau du réseau (eau potable), mais cette solution n’est pas adéquate vu la consommation exorbitante d’eau qu’elle entraîne !

On peut utiliser également l’eau de nappes phréatiques, de lac ou de rivière (demander l’autorisation). Les eaux contiennent alors plus ou moins d’impuretés qui se déposent sur les tubes. Ces dépôts peuvent réduire considérablement le coefficient de transfert de chaleur. À défaut de la mise en place d’un système de nettoyage automatique, il faut surdimensionner l’échangeur de sorte que les performances de l’installation restent suffisantes.

Plus classiquement, il s’agira d’un circuit d’eau, ouvert ou fermé. C’est le cas le plus fréquent. Il entraîne l’utilisation d’une tour de refroidissement.


Les aéro-refroidisseur (ou dry cooler)

L’aérorefroidisseur est un simple échangeur eau/air : un ou plusieurs ventilateurs forcent le passage de l’air extérieur pour accélérer le refroidissement.

Illustration aéro-refroidisseur.

Cette batterie d’échange convient en toute saison, puisqu’ en ajoutant un antigel (type glycol), elle est insensible au gel.

Elle présente donc l’intérêt de refroidir le condenseur de la machine frigorifique … à distance ! Le groupe frigorifique peut être en cave et l’aéro-refroidisseur en toiture : la boucle d’eau organisera le transfert.

Un exemple simple est donné par une armoire de climatisation d’un local informatique :

Elle n’est pas aussi performante qu’une tour de refroidissement avec pulvérisation d’eau puisque la température de refroidissement est limitée à la température de l’air extérieur…

Boucle d’eau

L’eau de refroidissement tourne en circuit fermé entre le condenseur et l’aéro-refroidisseur. On doit dès lors prévoir un vase d’expansion et une soupape de sûreté sur la boucle. Des purgeurs seront placés aux points hauts de la boucle.

Un gros avantage (surtout par rapport aux tours ouvertes) est qu’il n’y a pas de risque d’entartrage ou de corrosion du circuit puisqu’il s’agit toujours de la même eau qui circule (« eau morte »).

Régulation

Généralement, un thermostat placé sur la boucle d’eau actionne le ou les ventilateurs en fonction de la température.
C’est le point faible de l’aérorefroidisseur : la température de l’eau de refroidissement est élevée

  • D’une part, parce qu’il y a un double échange : fluide/eau glycolée – eau glycolée/air, et donc un Delta T° supplémentaire.
  • D’autre part, parce que l’air de refroidissement peut être élevé en été.

Or, si l’air de refroidissement est chaud, l’eau sera encore plus chaude et, dans le condenseur, la pression de condensation sera très élevée. Le compresseur verra dès lors sa consommation énergétique augmenter.

Proportionnellement, la tour de refroidissement aura un meilleur rendement… mais une sensibilité à la corrosion plus forte…

Ce système doit donc être limité aux installations de moyenne puissance.


Les tours de refroidissement

Dans une tour de refroidissement, on va profiter de l’effet de refroidissement créé par la vaporisation de l’eau. En effet, pour passer à l’état vapeur, l’eau a besoin d’énergie. Et cette énergie, elle la prend sur elle-même. Une eau qui s’évapore … se refroidit.

Tour ouverte

On parle de tour « ouverte » si c’est l’eau de refroidissement elle-même, venant du condenseur, qui est pulvérisée. C’est le système le plus efficace qui entraîne le refroidissement le plus élevé. Mais le contact entre l’eau et l’atmosphère est source de corrosion (oxygénation de l’eau, introduction de poussières et de grains de sable qui risquent de se déposer dans le condenseur, risque de gel accru,…).

Un exemple simple est donné ci-dessous pour une armoire de climatisation d’un local informatique :

Schéma principe armoire de climatisation d'un local informatique.

À noter qu’il existe des tours ouvertes sans ventilateurs. La pulvérisation d’eau est réalisée avec une pression assez élevée et cette pulsion d’eau entraîne l’air avec elle par effet induit (effet Venturi). L’avantage premier est la diminution des bruits et des vibrations.

Tour fermée

On parle de tour « fermée » si l’eau du circuit de refroidissement circule dans un échangeur fermé sur lequel de l’air extérieur est pulsé, et de l’eau est pulvérisée. Il s’agit soit d’une tour …?

L’évaporation partielle de l’eau entraîne un refroidissement plus faible que dans le cas de la tour ouverte, mais les risques de corrosion sont annulés.

Voici l’exemple adapté pour une armoire de climatisation :

Schéma principe tour fermée.

La consommation d’eau se limite à la quantité d’eau évaporée (présence d’une alimentation par flotteur), plus un faible volume lors de purges pour éliminer les impuretés qui se sont concentrées dans le fond du bac.

 

Choisir la fenêtre comme capteur d’énergie solaire [Esquisse du projet]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).
Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m².

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Choisir l’accrochage de la toiture

Choix du système d’accrochage

La stabilité au vent de la toiture plate peut être assurée de différentes manières

Lestage par la couche de protection lourde.

Si la pente de la toiture est < 5 % et si la structure de la toiture est suffisamment portante, une couche de protection lourde est possible sur la membrane d’étanchéité ou sur l’isolant. Elle permet une durabilité accrue de l’étanchéité, car elle limite fortement les variations de température tant de la membrane d’étanchéité que de son support, et elle protège en même temps la membrane des rayonnements U.V. Sur une toiture inversée, c’est actuellement la seule façon d’accrocher l’isolant (XPS). Lorsque la toiture est accessible aux piétons, la protection lourde fait en même temps office d’aire de circulation.

Lorsqu’un incendie se déclare à l’extérieur d’un bâtiment, le lestage lourd assure une meilleure protection contre les débris incandescents et le rayonnement des flammes, et contre la propagation du feu.

Par contre, la présence du gravier ralentit l’évacuation de l’eau pluviale et peut devenir un foyer de micro-organismes qui favorisent le vieillissement de certains matériaux d’étanchéité (comme certains PVC).

La présence d’arbres à proximité, de sable, de poussières industrielles, … nécessitera un entretien plus important de la protection lourde. Nettoyage ou renouvellement.

Le lestage permet une pose en indépendance partielle ou totale de l’étanchéité ce qui améliore la répartition de la tension de vapeur sous l’étanchéité et diminue les risques de cloquage.

Lorsque la structure ne supporte pas la charge du lestage, la toiture sera nécessairement de type « toiture chaude« , et les différentes couches du complexe toiture devront être fixées.

Collage des couches

Chaque couche est collée à la couche sous-jacente.

Cette méthode convient lorsque le support est constitué d’un béton monolithe, de panneaux de béton cellulaire ou de fibro-ciment, de panneaux de multiplex, ou de panneaux de fibres de bois liées au ciment.

Cette méthode est également utilisée lorsque l’isolant est du verre cellulaire (CG).

La pose en adhérence totale offre une meilleure résistance au vent.

La pose en semi-indépendance permet une meilleure répartition des tensions dans la membrane, et une meilleure répartition de la tension de vapeur sous la membrane.

Les matériaux d’étanchéité et d’isolation doivent avoir une cohésion suffisante pour résister à un délaminage éventuel.

Fixation mécanique

Cette méthode convient lorsque le support est constitué d’un plancher en bois, de panneaux de multiplex, ou de tôles profilées en acier. Elle est également utilisée sur des panneaux en béton cellulaire.

La fixation mécanique dans le support se fait à travers l’isolant, sauf dans le cas du verre cellulaire qui n’autorise pas ce genre de fixation.

Cette méthode permet d’adapter le nombre de fixations suivant les zones de toiture (rives, angles, …)

La fixation à l’aide de vis est surtout utilisée sur les tôles en acier. La fixation à l’aide de clous est surtout utilisée sur les planchers en bois.

En résumé

Toiture Support Pente Isolant Environnement
(arbres/industrie/
sable)
LESTAGE COLLAGE MECANIQUE
Inversée Béton portant < 5 % XPS (non polluant) +
Chaude Béton portant < 5 % MW/EPB/PUR/
PIR/EPS/ICB
non polluant (+) (+)
Chaude Béton portant < 5 % MW/EPB/PUR/
PIR/EPS/ICB
polluant +
Chaude Béton portant ³ 5 % MW/EPB/PUR/
PIR/EPS/ICB
+
Chaude Béton portant < 5 % CG non polluant (+) +
Chaude Béton portant < 5 % CG polluant +
Chaude Béton portant ³ 5 % CG +
Chaude Béton non portant MW/EPB/PUR/PIR
/EPS/ICB/CG
+
Chaude Bois ou aggloméré MW/EPB/PUR/
PIR/EPS/ICB
(+) (vis/clous)
Chaude Bois ou aggloméré CG +
Chaude Fibre org. ciment MW/EPB/PUR/
PIR/EPS/ICB
(+) (vis)
Chaude Fibre org. Ciment CG +
Chaude Tôles profilées MW/EPB/PUR/
PIR/EPS/ICB
vis
Chaude Tôles profilées CG +

(+) (+) soit l’un, soit l’autre, éventuellement les deux
(+) + certainement un, éventuellement les deux


Dimensionnement du système d’accrochage

Protections lourdes

Lorsque la couche de protection lourde doit compenser les effets du vent sur la toiture, son poids doit atteindre au moins 1.5 fois l’action du vent.

En outre :

Le gravier

Le gravier doit avoir au moins le diamètre (en mm) défini dans le tableau ci-dessous (même s’il ne fait pas office de lestage mais uniquement de protection) (NBN B03-002 et BRE Digest 311).

Hauteur de toit en m. jusqu’à :

s
i
t
u
a
t
i
o
n
Bord de mer
Zone rurale
Zone urbanisée
Ville
11.5 24.0
4.0 9.5 18.0 27.0 47.0
10.0 19.0 32.0 46.0 74.0
18.0 32.0 50.0 66.0 99.0
z
o
n
ed
e
t
o
i
t
u
r
e
Angle de bâtiment bas
Angle de bâtiment élevé
Rive de bâtiment bas
Rive de bâtiment élevé
Partie courante de bâtiment bas
Partie courante de bâtiment élevé
40 48 56 64 72
36 45 53 59 67
16 18 20 25 30
16 18 20 25 30
12 14 16 18 20
16 18 20 25 30

Les dalles

Les dalles et panneaux doivent au moins avoir le poids (en kg/m²) défini dans le tableau ci-dessous (même s’il ne fait pas office de lestage mais uniquement de protection).

Ces valeurs sont valables sur un terrain plat sans bâtiment de double hauteur à proximité.

Hauteur de toit en m. jusqu’à :

s
i
t
u
a
t
i
o
n
Bord de mer
Zone rurale
Zone urbanisée
Ville
7.0 9.0 11.5 14.5 18.0 24.0
5.0 6.0 7.5 9.5 12.0 14.0 18.0 22.0 27.0 32.0 39.0 47.0
5.0 11.0 13.0 16.0 19.0 23.0 27.0 32.0 40.0 46.0 54.0 63.0 74.0
18.0 19.0 22.0 26.0 32.0 37.0 42.0 50.0 57.0 66.0 76.0 87.0 99.0
z
o
n
ed
e
t
o
i
t
u
r
e
Angle de bâtiment bas
Angle de bâtiment élevé
Rive de bâtiment bas
Rive de bâtiment élevé
Partie courante
54 56 59 64 68 72 76 81 85 89 93 98 102
43 45 48 51 54 58 61 65 68 71 75 78 82
43 45 48 51 54 58 61 65 68 71 75 78 82
32 33 36 38 41 43 46 48 51 54 56 59 61
22 22 24 25 27 29 31 32 34 36 37 39 41

Le collage

Pour connaître la résistance au vent des systèmes collés, on se base sur les résultats d’essais au vent réalisés sur toiture suivant les directives UEAtc.

La pose en adhérence totale offre une plus grande résistance au vent que la pose en semi indépendance.

La résistance utile dépend surtout de la colle et des panneaux isolants. Elle peut varier fortement : entre 500 Pa et 4 000 PA.

La résistance utile déduite des essais comprend un coefficient de sécurité de 1.5, qui tient compte d’un collage imparfait possible à certains endroits.

Les systèmes collés à froid à base de solvant n’atteignent leur résistance qu’après un certain délai. Elle est limitée durant les premiers jours, ou même plus longtemps, suivant les conditions climatiques. En pratique, pendant le séchage, aucune précaution n’est généralement prise, car la colle encore visqueuse assure une adhérence provisoire suffisante (sans colle, une feuille de plastic mouillée tient sur une vitre).

L’action du vent pris en considération pour la vérification de l’accrochage est celle relative à une période de retour de 200 ans et vaut 1.5 fois l’action du vent calculée pour une période de retour de 10 ans.

La fixation mécanique

Pour connaître la résistance au vent des fixations mécaniques, on se base sur les résultats d’essais au vent réalisés sur toiture suivant les directives UEAtc.

Il existe des systèmes courants ayant une résistance utile d’au moins 300N par vis.

La résistance utile déduite des essais comprend des facteurs de correction qui tiennent compte des dimensions et du nombre de fixations de l’élément testé, et comprend un coefficient de sécurité de 1.5, qui prévoit le manque éventuel d’une fixation, les fixations les plus proches devant alors reprendre une charge de 50 % supérieure.

L’action du vent pris en considération pour la vérification de l’accrochage est celle relative à une période de retour de 200 ans et vaut 1.5 fois l’action du vent calculée pour une période de retour de 10 ans.

Choisir la pente [isolation – Toiture plate]

Le type de toiture plate

Toiture chaude : pente minimale 2 % (sauf toiture jardin).
Toiture inversée : pente minimale 3 %.
Bien que certaines membranes supportent relativement bien les stagnations, il est conseillé de respecter ces pentes minimales.
La structure porteuse sera prévue en conséquence.
En cas de pente insuffisante, celle-ci sera augmentée par l’adjonction d’une couche inclinée compatible avec la force portante du support.

Grâce à une évacuation rapide de l’eau, une pente suffisante :

  • diminue la quantité d’eau infiltrée en cas de fuite au point bas d’une zone de stagnation,
  • offre une surface rapidement sèche et dépourvue de dépôts,
  • diminue l’humidité dans les protections lourdes,
  • diminue l’humidité autour de l’isolant des toitures inversées,
  • diminue les efflorescences salines à la surface des dalles posées sur chape,
  • diminue, dans le cas des protections lourdes en béton ou ciment, la production de dépôts calcaires pouvant obstruer les évacuations d’eau pluviale,
  • permet en cours de réalisation un assèchement plus facile de la surface de la surface à couvrir (préparation du support).

Le type de protection

Gravier : pente maximale 5 % afin d’empêcher que le gravier ne se déplace.
Toiture jardin : Afin de retenir les eaux de pluie et d’arrosage, on renonce à toute pente, ce qui permet d’obtenir un niveau d’eau uniforme.

Le type de fixation de la membrane

Colle bitumineuse à froid

Lorsque la membrane est fixée à l’aide de colle bitumineuse à froid, la pente maximale admissible est de 15 %, à cause de la plasticité de la colle.

Condensation interne par transport de vapeur par convection

Condensation interne par transport de vapeur par convection

Convection signifie déplacement d’air intérieur ou extérieur à travers un élément de construction. Elle se produit lorsqu’il existe des différences de pression de vent et de température de part et d’autre de l’élément et que la finition intérieure est perméable à l’air. Dans ce cas, l’air intérieur humide peut, au sein de l’élément, entrer en contact avec une surface à une température plus basse que son point de rosée, ce qui entraîne la formation de condensation sur cette surface.

Le problème. La solution.

Les problèmes liés au transport de vapeur par convection sont bien plus fréquents que ceux liés à la simple diffusion de vapeur. Les quantités de condensation interne sont également plus élevées. Toutefois, il n’existe pas une méthode de calcul pratique pour évaluer ce problème.

Froid cryogénique

Froid cryogénique


Lorsque l’on comprime un gaz, il se liquéfie; lorsqu’on le détend il retourne à l’état gazeux.

Ce changement d’état s’accompagne d’effets énergétiques : le passage de l’état gazeux à l’état liquide libère de la chaleur; le passage de l’état liquide à l’état gazeux (évaporation) absorbe de la chaleur.

Pour produire du froid cryogénique, on utilise un fluide à basse température d’ébullition.
Ce fluide est préalablement liquéfié industriellement puis stocké sous pression. Ce fluide est vaporisé via des buses dans l’enceinte à refroidir. En entrant dans celle-ci, il se détend, passe de l’état liquide à l’état gazeux en absorbant une grande quantité de chaleur.

Schéma principe froid cryogénique.

Les fluides utilisés sont soit l’azote, soit le dioxyde de carbone.

L’azote (N2)

  • température d’ébullition (à pression atmosphérique) : – 195,8 °C
  • pression de stockage : 2 bars
  • pouvoir réfrigérant : 69 kcal./litre N2

Le gaz carbonique (CO2)

  • température de sublimation* : – 78,9 °C
  • pression de stockage : 20 bars
  • pouvoir réfrigérant :76 kcal./kg CO2

* : le gaz carbonique a la propriété de passer directement de l’état solide à l’état gazeux (sublimation).

L’azote liquide se vaporise directement, tandis que le gaz carbonique se transforme en neige puis se vaporise.

Mesurer la consommation électrique

Mesurer la consommation électrique

Les compteurs électriques mesurent l’énergie électrique consommée. À partir de cette valeur, on peut aussi évaluer la puissance moyenne sur une période de temps donnée. La puissance est simplement donnée en divisant l’énergie comptabilisée par la période de temps.

Par exemple 10 kWh consommés en 1/2 h équivalent à une puissance de 20 kW.


Les compteurs électromécaniques

On distingue les compteurs à courant alternatif monophasé ou triphasé et ceux à courant continu.

Dans les réseaux à courant alternatif monophasé ou triphasé usuels, on utilise le plus souvent les compteurs à induction. Un disque en aluminium mobile tourne sous l’influence de la tension et du courant qui circule. Un dispositif à frein magnétique fait que la vitesse de rotation est proportionnelle à la charge. Un compteur enregistre les révolutions du disque. La consommation est indiquée en kWh. Le nombre de tours de disque nécessaires pour mesurer 1 kWh est indiqué sur le compteur.

Compteur de passage pouvant être intégré sur l’alimentation d’un appareil.

Ces compteurs ont pour rôle essentiel la facturation des consommations, mais rien n’empêche de les utiliser comme compteur « divisionnaire » lorsqu’ils ne mesurent qu’une branche de l’installation électrique (ex : la cuisine) ou même qu’un seul équipement (ex : le lave-vaisselle, la chambre froide, …).

Certains disposent de plusieurs cadrans d’affichage, fonction du nombre de tarifs d’application. La commutation d’un tarif vers l’autre s’effectue par un signal codé émis par le distributeur.

Si l’on veut connaître le profil de consommation des équipements raccordés sur le compteur et établir un diagramme de charge de l’installation, il est nécessaire d’enregistrer le mouvement du disque mobile au moyen d’un lecteur optique que l’on fixe sur le compteur. Celui-ci émet un signal chaque fois que le repère noir du disque passe dans son champ de vision. Il transforme alors (soit directement, soit via un émetteur d’impulsion séparé) les signaux optiques en impulsions qui peuvent être enregistrées par un « data logger ».

De plus en plus, ces compteurs sont remplacés par des compteurs électroniques émettant directement des impulsions pouvant être comptabilisées par un « data logger ».

Pour la mesure de fortes intensités, le compteur est associé à un TI ou « Transformateur d’Intensité » : celui-ci réduit l’intensité réellement mesurée grâce à l’introduction d’un transformateur (par exemple, un TI 200/5A signifie une échelle de mesure pouvant atteindre 200 A alors que le courant réellement mesuré par l’appareil est au maximum de 5 Ampères).

Lecteur optique convertissant les rotations du disque d’un compteur électrique en impulsions.

Le calibre du compteur est déterminé par le courant maximal admissible. Plus précisément, deux valeurs vont caractériser le calibre. Par exemple, un calibre 20-60 A signifie que l’appareil est prévu pour un courant nominal de 20 A, mais qu’il peut « encaisser » des courants jusqu’à 60 A, avec une précision et un échauffement correct. Le rapport Imax/Inom (ici égal à 3) est appelé « facteur de charge ».


Les compteurs électroniques

Les compteurs électroniques mesurent le courant et la tension, et déterminent par un traitement interne l’énergie correspondante.

Ils sont en évolution permanente, offrant chaque jour des performances supplémentaires. Le principe de base consiste à favoriser la communication d’informations (grâce aux propriétés du traitement digital), afin de pratiquer une gestion de la charge efficace.

Schéma principe compteurs électroniques.

En particulier, on distingue :

  • Des sorties impulsionnelles pour transmettre à distance le niveau d’énergie consommé.
  • Un accès à ce type d’information par ligne téléphonique ou informatique.
  • La possibilité pour le distributeur de communiquer avec le compteur pour modifier le tarif, pour organiser le relevé des consommations à distance, …
  • La possibilité de mémoriser l’évolution des consommations (analyse de charge journalière pour déterminer le moment de la pointe quart-horaire, par exemple).
  • Le relevé de diverses fonctions : le courant maximal, la puissance réactive, la puissance instantanée, …

En fonction des informations reçues, un système de gestion de charges peut mettre en marche ou arrêter les contacteurs des chauffe-eau à accumulation, des machines à laver, des chauffages électriques, de l’éclairage public et d’autres récepteurs.
On notera également :

  • La possibilité de placer des compteurs divisionnaires dans les armoires électriques, permettant ainsi, à peu de frais, de suivre la consommation d’un appareil spécifique.

  • L’existence d’appareils de mesure qui viennent se placer entre le réseau et l’équipement consommateur (un peu comme une allonge), et qui permettent de mesurer la puissance instantanée et la consommation d’un équipement raccordé sur une prise 220 ou 380 Volts.

Idéal pour se décider à balancer enfin ce vieux frigo qui coûte trois fois plus qu’un neuf par sa seule consommation !


La mesure via une pince ampèremétrique

On peut mesurer la puissance par une mesure du courant dans un conducteur en insérant un ampèremètre dans le circuit ou à l’aide d’une pince ampèremétrique, et une mesure de la tension.

Dans un circuit alimenté en courant continu : P = U x I

Dans un circuit alternatif monophasé : P = I x U x cos j

(P = Puissance active [W], I = courant [A], U = tension [V], cos j = déphasage entre U et I, souvent indiqué sur la plaque signalétique de l’équipement)

Dans un réseau alternatif triphasé, la puissance absorbée s’exprime

  • Soit par  P = 1,73 x I x Ul x cos j ,  où I est le courant mesuré au départ d’une ligne et Ul est la tension de ligne, mesurée entre deux lignes, soit 380 V,
  • Soit par P = 3 x I x Uph x cos j ,  où I est le courant mesuré au départ d’une ligne et Uph est la tension de phase, mesurée entre une ligne et le neutre, soit 220 V.

Lorsque l’on mesure la consommation d’un seul équipement triphasé, la charge est en général équilibrée entre les trois lignes. Il suffit alors de mesurer le courant appelé par une ligne. Les autres phases auront un flux identique, seulement décalé de 120°. La puissance calculée ci-dessus à l’aide des mesures effectuées sur une seule phase est la puissance totale absorbée par le moteur.

Attention !

  • Lorsqu’on mesure avec une pince ampèremétrique, il faut bien prendre garde à ne mettre qu’un seul conducteur dans la pince.
  • Les tensions nominales de 220 V et 380 V sont souvent dépassées dans la pratique (… 230 … et … 400 … Volts).

Identifier les causes d’un problème de condensation superficielle

Identifier les causes d'un problème de condensation superficielle


Une trop grande production de vapeur

L’humidité produite peut provenir soit :

De l’occupation du bâtiment

La production de vapeur est très variable en fonction du type de bâtiment (bureaux, école, hôpital, hall de sports, etc.) et de son occupation.

Le tableau ci-dessous indique différentes sources de production de vapeur ainsi que la quantité de vapeur d’eau correspondant

Sources de vapeur d’eau Production de vapeur d’eau
Un occupant au repos, assis ou avec une légère activité* : 0,055 (kg/h)
Un occupant debout avec une légère activité* : 0,090 (kg/h)
Un occupant debout avec une activité moyenne (travail ménager, travail sur machine, …)* : 0,130 (kg/h)
Plantes vertes** 0,02 à 0,05 kg d’eau par plante et par jour

* : Norme Iso 7730
** : certaines plantes comme le papyrus émettent plusieurs litres d’eau par jour dans l’environnement.

Il est difficile de diminuer de manière significative la production de vapeur de ces différentes sources à l’intérieur d’un bâtiment. Par contre, afin que l’augmentation du taux d’humidité due à cette production de vapeur reste acceptable, celle-ci doit être compensée par une ventilation suffisante. Cette ventilation consiste, d’une part, en une ventilation de base qui doit assurer la qualité de l’air en temps d’occupation normale (occupants, plantes, nettoyage, …) et d’autre part, en une ventilation intensive qui doit compenser une production spécifique de vapeur (ventilation dans les cuisines, dans la buanderie, …).
D’autre part, une production de vapeur trop importante peut être évitée dans certains cas. Exemples :

  • un grand aquarium sans recouvrement adéquat,
  • des étangs à l’intérieur,
  • des appareils à cycle de combustion ouvert sans évacuation vers l’extérieur (poêle au gaz ou au mazout, petit chauffe-eau mural, etc.),
  • l’usage intensif d’humidificateur.

De causes extérieures

Un taux trop important d’humidité peut également provenir des causes extérieures suivantes :

  • les infiltrations d’eau de pluie,
  • l’humidité ascensionnelle,
  • l’humidité de construction,
  • l’humidité accidentelle.

Ces causes extérieures considérées comme des anomalies doivent être supprimées avant d’envisager toute autre mesure pour éliminer les problèmes de condensation ou de moisissure.


Une ventilation insuffisante

Afin que l’augmentation du taux d’humidité due à la production de vapeur à l’intérieur du bâtiment reste acceptable, celle-ci doit être compensée par un renouvellement d’air. L’air humide intérieur est ainsi remplacé par de l’air extérieur plus sec.

Le schéma ci-dessous donne l’évolution de la teneur en humidité de l’air du local (xi) en fonction du taux de ventilation (ou taux de renouvellement) « n » (en h-1).

Evolution de xi en fonction de n.

xe = 3 g/kg; D = 0,1 kg/h; V = 32,5 m³; xi = xe + 2,538/n.

avec,

  • xe : teneur en humidité de l’air extérieur;
  • D : production d’humidité dans le local;
  • V : volume du local
  • n : le taux de renouvellement (h-1).

On constate que :

  • Des taux de ventilation très bas ont pour conséquence des teneurs en humidité très élevées de l’air intérieur.
  • Une trop forte augmentation du taux de ventilation n’a pratiquement plus d’influence sur la teneur en humidité de l’air du local, mais par contre va augmenter la consommation d’énergie pour le chauffage du bâtiment.

Le renouvellement d’air se fait soit de manière correcte par un système de ventilation contrôlée ( mécanique – simple ou double flux- ou naturelle), soit, de manière « archaïque », par de simples infiltrations (au travers des fentes et fissures, par l’ouverture des fenêtres, etc.).

Le renouvellement d’air par les infiltrations

Le renouvellement d’air par de simples infiltrations se rencontre encore très souvent dans les écoles. Mais si le bâtiment est trop étanche, le renouvellement d’air peut être insuffisant et cela peut mener à des problèmes de condensation superficielle. De toute façon, le renouvellement d’air par les infiltrations ne constitue pas une manière correcte d’assurer la ventilation. En effet, les défauts d’étanchéité peuvent être à l’origine d’une condensation interstitielle, c.-à-d.. une condensation à l’intérieur des éléments de construction (murs, toitures, etc.) et non pas à leur surface. En effet, l’air chaud et humide qui passe au travers de ces défauts d’étanchéité rencontre des éléments de plus en plus froids et la vapeur d’eau qu’il contient condense dès que des températures suffisamment basses sont atteintes. Dans une toiture inclinée, la condensation va provoquer des dégâts (moisissures, pourrissement, etc.).
Ainsi, mieux vaut un bâtiment étanche à l’air avec un système de ventilation contrôlé, tant pour éviter les problèmes de condensation interstitielle, que pour économiser l’énergie ou que pour assurer le confort.

Étanchéité à l’air des bâtiments

Une mauvaise étanchéité du bâtiment ne se voit pas forcément lors d’une inspection à l’œil nu.

Des murs extérieurs sans finition intérieure engendrent une mauvaise étanchéité. Les toitures inclinées sont souvent très perméables à l’air lorsque la finition intérieure est disjointe, incorrecte ou absente.

L’étanchéité à l’air dépend en grande partie de la conception et de la qualité d’exécution des détails de construction. L’utilisation de blocs de béton non plâtrés, par exemple, peut mener à une très mauvaises étanchéité du bâtiment. Le simple fait de recouvrir ces blocs d’une couche de peinture assez épaisse (équivalent à un plafonnage pour ce qui est de l’étanchéité à l’air) peut diviser par 10 la perméabilité à l’air.

Une mauvaise étanchéité peut être due aux fuites que représentent les ouvertures entre locaux à l’intérieur du volume protégé et en dehors de celui-ci.

L’étanchéité à l’air d’un bâtiment n’est pas nécessairement uniforme, elle peut être différente d’un local à l’autre.

Les anciens châssis sont, en général, perméables à l’air; les nouveaux sont beaucoup plus étanches.

Évaluer

Si vous voulez en savoir plus sur l’évaluation de l’étanchéité d’un bâtiment, cliquez ici !

Le renouvellement d’air par une ventilation contrôlée

Une ventilation de bâtiment est correcte si elle est contrôlée. Cela implique une amenée d’air extérieur dans certains locaux et une évacuation de l’air intérieur humide dans d’autres.

La ventilation des bâtiments doit répondre à la réglementation wallonne et à la norme NBN D 50-001. Les débits de ventilation y sont, entre autres, définis.

La réglementation wallonne est d’application depuis le 1er décembre 1996.
Elle concerne les logements, les bâtiments d’hébergement (hôpitaux, homes, hôtels, internats, casernes, prisons, …), les bâtiments scolaires (y compris centre PMS) et les immeubles de bureaux (administration d’une entreprise, d’un service public, d’un commerce) ou les bâtiments qui, à la suite d’une modification de leur utilisation, sont affectés à l’une ou l’autre de ces destinations.

La ventilation peut se faire de manière naturelle ou mécanique. Selon que l’extraction ou/et l’évacuation se font de manière naturelle ou mécanique, on parle de système A, B, C ou D (Norme NBN D 50-001).

Évacuation d’air
Naturelle Mécanique
Amenée d’air Naturelle Système A Système B
Mécanique Système C Système D

Le respect de la norme ne suffit pas à garantir que les bâtiments seront correctement ventilés les occupants sont simplement assurés qu’ils disposent de la possibilité de ventiler correctement.

Évaluer

Pour évaluer correctement la ventilation contrôlée de votre bâtiment, cliquez ici !

Des ponts thermiques

Un pont thermique est un point faible dans l’isolation thermique de l’enveloppe du bâtiment.
En hiver, au droit d’un pont thermique, la température de surface de la paroi à l’intérieur du bâtiment est plus basse que celle des surfaces environnantes. Si la température à cet endroit est égale ou inférieure à la température de rosée de l’air intérieur, il va y avoir condensation superficielle.

Pour une paroi, la connaissance des résistances thermique des différentes couches permet de déterminer la température intérieure de surface (θoi) pour une température extérieure (θe) et une température intérieure (θi) données.

La connaissance de cette valeur détermine le facteur de température τ de la paroi.

Au droit d’éléments de construction ou de ponts thermiques complexes, il est difficile de déterminer la température intérieure de surface en un point (θoi) manuellement. Ce calcul se fait par programmes informatiques (basés, par exemple, sur la méthode des éléments finis ou des différences finies). Il donne les valeurs du facteur de température τ en différents points du pont thermique et donc le facteur de température minimum τ min.

avec,

  • θoi min : la température intérieure de surface minimum du pont thermique.
Exemple.

τ1 = 0,585;
τ2  = 0,8;
τ3 = 0,91;
τ4 = 0,455;
τ5 = 0,61;
τ6 = 0,55;
τ7 = 0,6;
τ8 = 0,84.

τmin = τ4 = 0,455

Le facteur de température en différents points d’un pont thermique est entièrement déterminé par la configuration et la constitution du pont thermique. Il caractérise le pont thermique. Une fois déterminé, il va donc permettre de calculer la température intérieure de surface (θoi) en ce point pour n’importe quelles températures extérieure (θe) et intérieure (θi) données.

Ainsi, alors que pour une paroi, la résistance thermique d’une paroi permet d’évaluer la température de surface intérieure, pour un pont thermique, c’est la connaissance du facteur de température τ qui permet de l’évaluer.


Une température intérieure des locaux trop faible

Il y a risque de condensation superficielle sur une surface intérieure d’un local si la température de surface (θoi) est égale ou inférieure à la température de rosée(θd) de l’air intérieur. Or, pour une température extérieure (θe) donnée, la température intérieure de surface des parois (θoi) dépend non seulement de la résistance thermique de la paroi, mais également de la température intérieure du local.

Donc au plus l’air intérieur est chauffé, au plus la température de surface est élevée, au moins le risque de condensation superficielle est grand.

Si un local est non chauffé, il convient donc de prendre des mesures pour que la vapeur d’eau produite dans les locaux occupés ne puisse y pénétrer.

D’autre part, dans les locaux non chauffés, le niveau d’isolation a une influence non négligeable sur la température moyenne du local : dans des bâtiments bien isolés, les locaux non chauffés sont beaucoup plus chauds que dans les bâtiments identiques mais non isolés.

Exemple : maison unifamiliale (Pleiade)

Influence du niveau d’isolation sur la température du grenier dans la maison PLEIADE
Niveau d’isolation K23 K27 K35 K45 K55 K70
Température moyenne du grenier non chauffé 13,4 13,4 12,3 11,6 10,6 10,0

Lien entre les différents paramètres et évaluation d’un risque de condensation superficielle

1. Calcul de l’humidité absolue de l’air intérieur (xi) (sans formation de condensation superficielle)

Si, dans un local avec une production d’humidité D (kg/h) et un renouvellement n (h-1) (c.-à-d. un volume de ventilation nV (m³/h)), de la condensation ne se forme à aucun endroit, on peut poser, en régime stationnaire, que la quantité d’humidité évacuée avec l’air ventilé par unité de temps est égale à la somme de la quantité d’humidité apportée avec l’air ventilé par unité de temps et de la quantité de vapeur d’eau produite dans le local.

Ce raisonnement conduit à la relation (voir NIT 153, annexe page 77) :

avec,

  1. xi : teneur en humidité de l’air du local (geau/kgair)
  2. φe : humidité relative (%) de l’air extérieur
  3. xse : teneur en humidité de saturation de l’air extérieur (geau/kgair)
  4. D/nV : rapport entre la production d’humidité (kg/h) et le débit de ventilation dans le local (m³/h)

2. Calcul du point de rosée de l’air du local (θd)

On peut calculer la température de rosée (θd) correspondant à la teneur en humidité du local (xi) à partir du diagramme de l’air humide.

Humidité relative de l’air en fonction de la teneur absolue en humidité de l’air (x) et de la température de l’air (θ).

Ambiance intérieure (point A) : xi = 8,7 geau/kgair; θi = 20°C –> θ= 12°C

3. Calcul de valeurs intermédiaires

Pour différentes valeurs de température intérieure (θi) et différentes valeurs de température extérieure (θe), on peut calculer la valeur :

4. Évaluation du risque de condensation

Il ne se formera pas de condensation sur une paroi intérieure d’un local ou sur la face intérieure d’un pont thermique si :

avec,

avec,

5. Exemple d’évaluation du risque de condensation

Évaluer

Si vous souhaitez voir, par un exemple, comment évaluer concrètement le risque de condensation au droit d’un pont thermique dans un immeuble de bureau, cliquez ici !

Niveau d’éclairement

Niveau d'éclairement


Définition du niveau d’éclairement

Schéma définition du niveau d'éclairement.

La quantité  de lumière est caractérisée par le niveau d’éclairement exprimé en lux (lx).

20 lux représentent le seuil de perception; les autres valeurs usuelles (et recommandées dans les normes) sont généralement séparées par un facteur approximatif de 1.5 et représentant la plus petite différence significative entre deux niveaux d’éclairement.

20  30  50  75  100  150  200  300  500  750  1 000  1 500  2 000  3 000  5 000


Impact sur le confort visuel

Visibilité des objets

Au travail, une bonne visibilité de la tâche visuelle et de son environnement est particulièrement nécessaire et fortement influencée par les caractéristiques de l’éclairage. Des objets qui peuvent être reconnus facilement et dont on peut distinguer aisément des détails, peuvent devenir indistincts et même plus du tout perceptibles lorsqu’il fait plus sombre.

Performance

La performance visuelle est un taux d’évaluation du système visuel utilisé pour quantifier les aptitudes d’une personne à détecter, identifier et analyser les détails entrant dans son champ de vision, en se fondant sur la vitesse, la précision et la qualité de sa perception. La performance visuelle dépend entre autres :

  • des caractéristiques propres de la tâche à accomplir,
  • de l’acuité visuelle de l’observateur,
  • de la nature de l’arrière-plan,
  • des conditions d’éclairage,
  • des perturbations distrayant l’attention,

La visibilité de la tâche est utilisée pour relier la performance visuelle aux paramètres de l’éclairage sans tenir compte de l’attitude de l’observateur à l’égard de la tâche.

La visibilité qui caractérise une tâche est déterminée par la visibilité du détail critique. D’une manière générale, la visibilité du détail dépend de :

  • sa dimension angulaire et sa forme,
  • sa luminance et sa couleur,
  • son contraste par rapport au fond immédiat,
  • sa position dans le panorama visuel,
  • la luminance d’adaptation,
  • l’état du système visuel (âge de l’observateur),
  • le temps d’observation,


Sous un éclairement
de 500 lux.


Sous un éclairement
de 50 lux.

Lorsque le niveau d’éclairement diminue, un texte écrit suffisamment grand restera parfaitement lisible, alors qu’un texte écrit petit deviendra plus difficile à lire.

Impact sur les travailleurs

« Malheureusement », l’œil humain s’adapte très rapidement aux différentes ambiances lumineuses qu’il rencontre. Il est donc difficile de percevoir qu’une ambiance lumineuse n’est pas correcte. En situation d’équilibre, on parle de niveau d’adaptation auquel correspond la luminance d’adaptation qui affect

  • l’acuité visuelle,
  • la sensibilité aux contrastes.

En pratique, les mesures de luminance étant difficiles et coûteuses et dans un but de simplification, les recommandations relatives à ces luminances sont formulées directement en valeur d’ÉCLAIREMENT (d’où l’utilisation du luxmètre).

Sur cette base, un niveau d’éclairement insuffisant entraîne progressivement une diminution du pouvoir de perception. Cela peut occasionner un plus grand pourcentage d’erreurs dans les manipulations et un risque accru d’accidents.

Les valeurs d’éclairement recommandées  en fonction du type d’activité ou de local peuvent être trouvées dans différentes normes.


Valeurs caractéristiques et représentation

Niveau d’éclairement

Schéma niveau d'éclairement.

On distingue trois types de niveaux d’éclairement sur une grille de calcul ou de mesure lorsqu’on désire réaliser un projet d’éclairage :

  • E min étant le niveau d’éclairement minimum sur un point de la grille,
  • E max, le niveau d’éclairement maximum sur un point de la grille,
  • E moyen, la moyenne de tous les niveaux d’éclairement des points de la grille.

Le niveau d’éclairement moyen Em ou Emoyen est la valeur prise comme référence pour définir les niveaux d’éclairement utilisés par le RGPT ou les normes traitant d’éclairage. On définit aussi l‘uniformité comme étant le rapport entre E min et E moyen.

Courbe isolux

Schéma niveau courbe isolux.

Les courbes isolux s’apparentent aux courbes de niveaux d’éclairement.

Niveau de gris

Schéma niveau de gris.

C’est une autre représentation plus visuelle des courbes isolux.

Diminuer les consommations d’énergie

Diminuer les consommations d'énergie


Dans le générateur

Pertes

Dans le générateur, il n’y a pas ou de perte de vapeur sous forme de condensats mis à l’égout. En effet, la vapeur se refroidit au contact des parois en cédant sa chaleur de condensation et les condensats , issus de la transformation de la vapeur en eau, réintègrent la phase liquide; ce qui veut dire qu’il n’y a pas d’appoint d’eau osmosée. Cependant, les pertes au travers des parois sont compensées par la réchauffe supplémentaire de l’eau condensée de manière à reformer la vapeur perdue. On a donc intérêt à isoler au maximum les parois du générateur sachant qu’il y a toujours un compromis à trouver entre le prix de l’investissement dans un isolant par rapport à la réduction des déperditions engendrées.

Théories

Pour aller plus loin dans la réflexion concernant la détermination théorique des pertes.

La fiche technique d’un constructeur de stérilisateur, sur laquelle repose le calcul théorique des pertes, montre que les pertes au travers des parois du générateur sont de l’ordre de 0,8 [kW].
Ce qui représente au cours d’une année de fonctionnement de la stérilisation une surconsommation d’électricité de l’ordre de:

On a :

Consommation annuelle  = 0,8 [kW] x 4 000 [h]

Consommation annuelle  = 3 200 [kWh/an]

Où les 4 000 [h] représentent la durée totale maximale de fonctionnement de la stérilisation; soit :

  • 14 [h/jour],
  • 5,5 [jour/sem],
  • 52 [sem/an].

En réalité, le personnel de stérilisation arrive tant bien que mal à prendre congé sur l’année mais ils sont compensés par les nombreux rappels de garde de nuit ou de WE.

On consigne ces résultats dans le tableau suivant :

Type de consommation Consommation annuelle [kWh/an] Coût unitaire [€/kWh] Coût total [€/an]
électrique
3 200
0,11
352

Amélioration

Dans une installation existante, les actions d’amélioration de l’isolation sont limitées. En effet :

  • De part l’imposition auprès des constructeurs de limiter les températures de contact (risque de brûlure), les équipements sont en général isolés correctement.
  • Il n’est pas facile par après d’augmenter les épaisseurs d’isolant car beaucoup de tuyauteries encombrent l’espace autour des équipements.
  • Les faces avants des générateurs où se situent les têtes des résistances électriques pourraient être isolées par des coques préformées. Mais ne faut-il pas garder un certain échange entre la tête et l’ambiance ? Sans quoi la résistance électrique pourrait-elle « claquer » ?

Face avant de générateur.

  • les professionnels de la maintenance des équipements de stérilisation évoquent que l’isolation risque de masquer les fuites de vapeur.

N’empêche, toutes ces bonnes raisons ne sont pas suffisantes pour bannir toute amélioration. Pour s’en convaincre, il suffit d’évaluer la performance énergétique d’une isolation même partielle et sa rentabilité à court terme.

Calculs

Pour évaluer la rentabilité de l’isolation d’une cuve.

Dans la distribution

Pertes

Dans la distribution, il n’y a pas ou peu de perte de vapeur sous forme de condensats mis à l’égout si les conduites d’alimentation sont inclinées en pente douce vers le générateur. En effet, comme dans le cas du générateur, la vapeur se refroidit au contact des parois en cédant sa chaleur de condensation. Si la distribution est conçue en pente douce, les condensats, issus de la transformation de la vapeur en eau, réintègrent la phase liquide du générateur; ce qui veut dire qu’il n’y a pas d’appoint d’eau osmosée. Cependant, les pertes au travers des parois sont aussi compensées par la réchauffe supplémentaire de l’eau condensée de manière à reformer la vapeur perdue. On a donc intérêt à isoler au maximum les conduites de distribution.

Théories

Pour aller plus loin dans la réflexion concernant la détermination théorique des pertes.

Amélioration

Dans une installation existante, sauf si bien entendu l’isolant initial est enlevé, le constructeur est tenu, en principe de prévoir un isolant de manière à réduire les risques de brûlure (température de contact limitée à 50 °C).

 

Quelques centaines de W perdus.

Néanmoins, rare sont les installations où la distribution de la vapeur est isolée correctement. De nouveau, le sacro saint manque de visibilité de fuite de vapeur apparaît comme un argument de poid de la part des constructeurs pour ne pas isoler correctement les tuyauteries.

Faux naturellement, car on pourrait en déduire que les équipements non isolés sont susceptibles d’avoir des fuites (et la fiabilité ?).

Sachant qu’une conduite en cuivre de diamètre de 15 mm et de 1 m de long équivaut à une perte de l’ordre de 90 W, il est utile d’isoler au maximum.

Calculs

Pour évaluer la rentabilité de l’isolation d’une conduite.

Dans la double enveloppe

Pertes

La double enveloppe entoure la chambre de stérilisation et lui sert d’antichambre ou de réserve de vapeur.

   

Complexité de l’isolation de la double enveloppe.

Sa surface développée est assez importante et de forme complexe. Cette surface est assez déperditive et nécessite de nouveau de l’isoler correctement; ce qui n’est pas chose aisée. De plus, l’isolation n’étant pas parfaite, la déperdition réelle est toujours plus important que celle calculée par le programme suivant:

Calculs

Pour évaluer la rentabilité de l’isolation d’une cuve parallélépipédique ou cylindrique.

Comme pour la distribution, il nécessaire de savoir si les condensats qui traduisent l’importance des déperditions des parois, sont évacués à l’égout ou recyclés. Les constructeurs ont mis des systèmes au point qui permet de récupérer les condensats dans le générateur par simple gravité ou par pompage. Dans d’autres systèmes, ils sont jetés à l’égout.

Théories

Pour aller plus loin dans la réflexion concernant la détermination théorique des pertes

La moins bonne des solutions se trouve reprise dans la théorie où la plupart des condensats sont rejetés à l’égout.

Amélioration de l’isolation

D’origine, la cuve en général est bien isolée mais il faut veiller à ce qu’elle le reste suite aux différentes interventions de maintenance.

Récupération des condensats

Évaluer

Pour aller plus loin dans la réflexion concernant l’évaluation des pertes.

Dans le cas qui a été pris pour l’évaluation théorique, les coûts engendrés par la pertes d’énergie dans les condensats et dans la consommation d’eau osmosée sont :*

Consommations électriques Quantité total [kWh/an] coût unitaire [€/kWh] coûts [€/an]
Au démarrage 3 120 0,11 343
Entre les cycles 6 694 736
Pendant les cycles 2 516 276
Consommations eau osmosée Quantité total [litres/an] coût unitaire [€/litre] coûts [€/an]
Au démarrage 4 2.75 11
Entre les cycles 48 132
Pendant les cycles 20 55
Coût total 1 553

Dans le cas où les condensats ne sont pas récupérés suite à leur évacuation de l’installation vers l’égout depuis les pièges à eau (pas de récupération par gravité vers le générateur), il est raisonnable de penser que pour la valeur de 1 553 [€/an] d’économie on peut tout à fait investir dans un système de récupération composé de :

  • ballon isolé de récupération;
  • pompe à condensats refoulant vers le générateur;
  • anti-retour;
  • régulation en fonction de la demande de vapeur.

Bac tampon et pompe d’alimentation du générateur.

Ce système permettrait d’une part de réduire les consommations d’eau osmosée perdues à l’égout et d’autre part de réduire la consommation électrique des résistances chauffantes du générateur (l’eau froide amenée de l’osmoseur est réchauffée par les condensats chauds.

Dans les nouvelles générations de stérilisateur, le générateur se trouve sous la cuve du stérilisateur; ce qui permet de récupérer pratiquement l’entièreté des condensats.

Dans les installations centralisées, on s’arrange pour repomper les condensats de la double enveloppe vers le générateur.


Dans la chambre de stérilisation

Pertes

La formation de condensats dans la chambre de stérilisation est due au refroidissement de la vapeur au contact de la charge et des parois de la chambre (essentiellement les parois des portes). Ces condensats ne peuvent pas être récupérés puisqu’ils sont censés être contaminés. Ils sont donc évacués à l’égout via la pompe à vide.

Amélioration de l’isolation

L’isolation des portes de la chambre de stérilisation est prévue d’origine et il n’est pas possible de l’améliorer.

Récupération des condensats

Améliorer

Pour améliorer la récupération des condensats dans la pompe à vide.

Dans la zone technique

La zone technique, comme son nom l’indique, est l’espace qui comprend les équipements du stérilisateur

  • le stérilisateur proprement dit et sa double enveloppe,
  • le générateur de vapeur,
  • la pompe à vide,
  • la distribution,
  • les accessoires.

Cet espace est séparé des zones :

  • « propre » dans laquelle on prépare le matériel à stériliser,
  • « stérile » dans laquelle on stocke le matériel passé dans les stérilisateurs.

Déchargement automatique en zone stérile.

Les séparations sont franches entre les trois zones sachant que :

  • la zone propre a un degré d’hygiène assez élevé,
  • la zone stérile est censée être stérile,
  • la zone technique a un degré de propreté non précisé.

Dans la zone technique, Il fait chaud en permanence et les températures peuvent monter jusqu’à 30-35 °C. C’est le résultat d’une concentration excessive d’apports internes. L’isolation des parois chaudes est primordiale pour réduire les déperditions et indirectement les consommations de vapeur et d’énergie. Toutefois, il n’est pas possible de réduire drastiquement les déperditions; d’où la nécessité de placer une extraction.

Normalement, des gradients de pression doivent permettre de réduire le risque de contamination des zones propre et stérile par la zone technique. Il faut donc s’arranger pour mettre la zone technique en dépression; ce qui tombe bien puisque l’on veut extraire les calories.

De plus, en pratique, les zones stériles et propres sont souvent climatisées de part la présence d’apports internes très importants. Vu la nécessité de maintenir la zone technique en dépression et à une température raisonnable (l’électronique de régulation n’aime pas des températures supérieures à 30 °C), l’idéal est de pratiquer une fuite contrôlée d’air depuis la zone propre vers la zone technique; la zone stérile étant étanche. Donc la zone technique peut être légèrement refroidie par l’air de la zone propre.

On se rend bien compte que le bilan énergétique risque d’être mauvais, si l’isolation des équipements de la zone technique n’est pas optimale :

  • En période chaude, l’air chaud extrait du local technique doit être évacué à l’extérieur et l’énergie est perdue.
  • En période froide, il doit être récupéré soit pour chauffer le quai fournisseur (en général à proximité), soit recyclé dans le circuit de ventilation de la stérilisation (en zone « sale » par exemple moyennant un système de filtration adéquat).

Débits de ventilation dans la laverie

Débits de ventilation dans la laverie

Les différentes méthodes ci-dessous nous ont été communiquées par un fabricant. Les débits donnés sont à extraire.


Méthode du renouvellement horaire en fonction du local

Selon la norme allemande VDI 20.52

Le débit est de 120 m³/h par m² de local.

Cette valeur n’est acceptable que pour les petites cuisines (< 300 repas).

Selon Recknagel

Le débit correspond à un renouvellement horaire de 10 à 15.

Ces valeurs sont relativement faibles. Un renouvellement horaire de 20 à 25 est préférable.

Ces valeurs ne sont acceptables que pour des laveries installées dans des locaux d’une certaine grandeur (> 300 repas).

Certains fabricants parlent même d’un renouvellement horaire de 20 à 40.


Méthode en fonction du type de machine à laver

Machines à capot

Les machines à capot sont installées dans les cuisines relativement petites (< 150 repas).

Une hotte pour vapeur non grasse doit être installée au-dessus de la machine. Son débit sera de 1 000 m³/h.

Photo machines à capot.

Machines à paniers

Dans un local avec machine à paniers, il faut prévoir :

  1. un raccordement avec interposition d’un cône (*) à la tubulure d’évacuation de la machine,
  2. une hotte de captation des buées à la sortie de la machine,
  3. une extraction supplémentaire dans le local ou à l’entrée de la machine.

* le cône permet au ventilateur de la machine de régler exactement le débit à extraire dans la machine. Sans lui, le ventilateur en toiture risquerait de tout « régimenter ». Les débits extraits dans la machine seraient trop importants et risqueraient d’empêcher le séchage.

Schéma de principe machines à capot.

Les débits correspondant à ces 3 extractions sont donnés dans le tableau suivant :

Dimensions de la machine (paniers/h) Raccordement à la tubulure d’échappement (m³/h) Hotte  à la sortie de la machine (m³/h) Extraction dans le local (m³/h) Total (m³/h)
90 700 300 1 500 2 500
120 900 300 2 000 3 200
160 1 000 300 2 000 3 300
200 1 200 300 2 500 4 000

 

 Hotte à la sortie ou à l’entrée de la machine.

Machine à convoyeurs

Dans un local avec machine à convoyeurs, il faut prévoir :

  1. Un raccordement avec interposition d’un cône (*) à la tubulure d’évacuation de la machine.
  2. Une hotte de captation des buées à la sortie de la machine.
  3. Une extraction supplémentaire dans le local ou à l’entrée de la machine.

*  le cône permet au ventilateur de la machine de régler exactement le débit à extraire dans la machine. Sans lui, le ventilateur en toiture risquerait de tout « régimenter ». Les débits extraits dans la machine seraient trop importants et risqueraient d’empêcher le séchage.

Les débits correspondant à ces 3 extractions sont donnés dans le tableau suivant :

Dimensions de la machine (assiettes : diam. : 260mm) Raccordement à la tubulure d’échappement (m³/h) Hotte  à la sortie de la machine (m³/h) Extraction dans le local (m³/h) Total (m³/h)
1 500 800 300 2 500 3 600
2 500 800 300 2 700 3 800
 3 000 800 300 2 700 3 800
3 500  1 000 300 3 000 4 300
4 000 1 000 300 3 000 4 300
5 000 1 000 300 3 500 4 800


Méthode en fonction de la puissance de la machine à laver

Cette méthode se base sur la Norme allemande VDI 20.52. Elle s’appuie sur le dégagement calorifique spécifique des appareils. Elle considère les quantités de chaleur sensible et de chaleur latente dissipées dans l’ambiance pour 1 kW de puissance raccordée.

Elle prévoir un débit de 24 l/sec (86 m³/h) (hotte à extraction simple) par kW de puissance de la machine à laver.


Méthode en fonction des dégagements de chaleur des machines à laver

Cette méthode est utilisée pour une laverie importante ou une laverie industrielle.

Le fournisseur doit fournir les caractéristiques suivantes de la machine :

  • les pertes de chaleur des moteurs,
  • les pertes de chaleur par la carrosserie de la machine et du tunnel de séchage,
  • les pertes de chaleur du surchauffeur,
  • les fuites de vapeur,
  • les débits d’extraction à assurer à l’entrée et à la sortie de la machine.

L’extraction du local, complémentaire aux extractions à l’entrée et à la sortie de la machine, devra assurer la dissipation de toute la chaleur produite.

Exemple.

Une laverie industrielle assurant le lavage de la vaisselle d’une cuisine servant 2 500 repas est équipée de 2 machines à laver dont les caractéristiques sont les suivantes :

  • les pertes de chaleur des moteurs : 2 955 W,
  • les pertes de chaleur par la carrosserie de la machine : 880 W,
  • les pertes de chaleur par la carrosserie du tunnel de séchage : 12 000 W,
    dont 50 % dans l’ambiance (6 000 W) et 50% repris par la hotte (6 000 W),
  • les pertes de chaleur du surchauffeur (pour le rinçage) : 490 W,
  • les fuites de vapeur : 7 056 W,
    dont 20 % dans l’ambiance (1 410 W) et 80 % repris par la hotte (5 6460W),
  • débit d’extraction à assurer à l’entrée de la machine : 700 m³/h,
  • débit d’extraction à assurer à la sortie de la machine : 2 500 m³/h.

Calcul de l’extraction du local (complémentaire aux extractions à l’entrée (700 m³/h x 2) et à la sortie (2 500 m³/h x 2) de la machine) :

– Puissance dissipée dans l’ambiance :

(2 955 + 880 + 6 000 + 490 + 1 410) x 2 = 11 735 x 2 = 23 470 W

Débit d’air à prévoir pour assurer l’évacuation de cette chaleur (pour une différence de température entre l’air ambiant et l’air soufflé de 10 K) :

P = q x c x δT

Où :

  • P : puissance dissipée dans l’ambiance (W)
  • q : débit d’air insufflé (m³/h)
  • c : chaleur spécifique de l’air (0,34 Wh/m³x°C)
  • δT : différence de température entre l’air ambiant et l’air soufflé (°C)

d’où,

P 23 470
q = ______ = ________ = 6 904 m³/h
c x dT 0,34 x 10

En plus des 1 400 m³/h (2 x 700) à extraire à l’entrée de la machine,
et des 5 000 m³/h (2 x 2 500) à extraire à la sortie de la machine.

Mesurer le débit d’air

Mesurer le débit d'air


La mesure du débit d’air

La mesure des débits d’air d’un système de ventilation est nécessaire pour effectuer un réglage optimal, pour vérifier le fonctionnement réel et la conformité des débits de l’installation et finalement pour repérer des erreurs d’installation ou des fuites.

La mesure du débit (q) consiste en fait en une mesure de la vitesse de l’air (v) que l’on multiplie ensuite par la section de passage (S) :

q = v x S


Où mesurer le débit d’air

La norme NBN EN 12599 (Ventilation des bâtiments – Procédures d’essai et méthodes de mesure pour la réception des installations de ventilation et de climatisation installée) décrit quatre méthodes de mesure de débits d’air :

  • au niveau des bouches d’air;
  • sur la section droite d’un conduit;
  • avec dispositif d’étranglement;
  • et sur la section droite d’une chambre ou d’un dispositif.

Elle recommande la mesure en conduit si une section est accessible et appropriée.

Au niveau de la bouche d’air

Pour mesurer la vitesse de l’air au droit d’une bouche, il faut tenir compte de ses caractéristiques : son ouverture, la direction et la répartition du flux vont influencer la forme de l’écoulement à la sortie de celle-ci. Sur les bouches d’extraction, les flux d’air ne sont pas homogènes, ce qui ne permet pas de déterminer une vitesse moyenne par balayage. Pour obtenir des mesures cohérentes et reproductibles, il est préférable de :

  • envelopper la bouche d’extraction d’un cône canalisant les veines d’air vers l’appareil de mesure;
  • centrer correctement le cône de l’appareil sur la bouche;
  • ouvrir la bouche de manière raisonnable;
  • avoir installé des bouches accessibles et facilement mesurables.

Au niveau d’une bouche d’air, la mesure des débits pourra se faire grâce à un anémomètre à hélice, un débimètre à compensation ou encore grâce à la méthode du sac. Les petites sondes avec cône sont également possibles mais sont moins recommandées car la prise de mesure est plus difficile et le pourcentage d’erreur augmente.

Une technique particulière permettant également de mesurer le débit d’air au niveau d’une bouche consiste à placer un conduit supplémentaire de minimum un mètre et de petit diamètre entre la fin du réseau et la bouche sans modifier son réglage et à effectuer la mesure à environ 80 cm de la bouche initiale de la même manière que sur la section droite d’un conduit. Lors d’une telle mesure, il convient tout particulièrement de maitriser les fuites de l’assemblage.

   

Mesure de débit dans une gaine et au droit d’une bouche.

Sur la section droite d’un conduit

La mesure de débit dans un conduit doit quant à elle être réalisée sur une section droite suffisamment longue (plus de 10 fois le diamètre en amont de la mesure et 3 fois en aval) pour éviter les turbulences. Elle est réalisée à l’aide d’une petite sonde (anémomètre à hélice de petite taille, anémomètre à fil chaud ou tube de Pitot).

Comme au niveau d’une bouche d’aspiration ou de soufflage, la vitesse n’est pas uniformément répartie sur toute la section de passage dans un conduit (frottement sur les parois, turbulences, …). Mais pour des conduits de diamètres inférieurs à 16 mm une seule mesure suffit en son centre. On utilise alors un facteur de correction pour rendre compte du profil des vitesses. Par contre, si le conduit est de plus grande dimension, il faut procéder à une série de mesures en balayant uniformément la sonde de mesure sur toute la section et procéder à une moyenne arithmétique des mesures pour estimer le débit passant. On préférera dès lors un appareil muni d’un dispositif intégrateur qui réalise la moyenne enregistrée sur 15 ou 30 secondes. Dans les deux cas, il convient de :

  • effectuer le(s) trou(s) sans bavures ;
  • maintenir fermement la sonde et correctement orientée dans l’axe et le bon sens du flux ;
  • rendre accessible le conduit, ce qui n’est pas toujours possible ;
  • faire attention aux fuites d’air ;
  • reboucher correctement le(s) trou(s) après la mesure.

Finalement, il ne faut pas perdre de vue que si une partie de l’air est recyclé, le débit mesuré n’est pas le débit d’air neuf. Il faut en effet connaître le taux de recyclage pour pouvoir l’évaluer.

Avec un dispositif déprimogène

L’installation de ventilation complète contient souvent des dispositifs particuliers qui entrainent une différence de pression : diaphragme, clapet, échangeur de chaleur, atténuateurs acoustiques, bouches d’air, filtre, etc. Normalement, ces dispositifs sont étalonnés et leurs données sont connues. Les pertes de charges associées aux dispositifs permettent alors de calculer le débit d’air si une relation claire existe et que les conditions correspondent à l’étalonnage de l’appareil. La différence de pression avant/après le dispositif déprimogène est mesurée grâce à un manomètre.


Recommandations générales

Outre les recommandations particulières suivant l’endroit de la prise de mesure, le CSTC dans son étude OPTIVENT donne en plus plusieurs conseils généraux afin de favoriser la mesure et d’en diminuer l’erreur :

  • faire étalonner les instruments de mesure régulièrement auprès du fabricant ou d’un laboratoire spécialisé.
  • protéger les appareils contre les chocs et la poussière notamment.
  • effectuer la mesure dans une position confortable.
  • maintenir fermement et sans bouger l’appareil lors de la mesure afin de garder l’appareil dans les mêmes conditions durant 5 à 10 secondes le temps que le flux se stabilise.
  • assurer le contact parfait entre la paroi et l’appareil ou le cône dans le cas d’une mesure au niveau d’une bouche d’air.
  • prendre plusieurs mesures successives.

De même, en préparation à la mesure, il conseille de :

  • avoir placé et fermer l’ensemble des portes et fenêtres extérieures.
  • fermer la ou les portes intérieures du local où se prend la mesure.
  • ouvrir totalement les bouches d’alimentation ou d’extraction naturelles.
  • tester en premier lieu le système en position nominale et bloquer les éventuels clapets régit par une ventilation à la demande en position nominale.
  • remplacer éventuellement le ou les filtres par des neufs
  • arrêter les autres systèmes qui entrainent une ventilation du local (appareils de combustion, hottes de cuisine, séchoirs, …).
  • éviter d’effectuer les mesures lors de conditions climatiques extrêmes (par exemple, les périodes de grands vents).

L’étude OPTIVENT à notamment permis d’étudier la justesse de mesure de divers dispositifs dans une application résidentielle et de les classer en méthode fiable (V) ou moins fiable (X) en fonction des conditions de mesure :

Méthode de mesure

Évacuation Alimentation Prix indicatif HTVA Facilité d’utilisation
Bouche suffisamment ouverte et instrument centré ou non Bouche très fermée Bouche à flux symétrique, suffisamment ouverte et instrument centré Bouche à flux symétrique et instrument non centré Bouche à flux asymétrique ou latéral ou bouche très fermée
Mesure au niveau de la bouche d’air
Compensation avec grille V V V V V 2 500-3 000 Facile et rapide
Compensation sans grille V X V V X 2 500-3 000 Facile et rapide
Anémomètre avec cône V X V X X < 1 000 Facile et rapide
Petite sonde avec cône X X X X X < 1 000 Moins facile
Petite sonde en conduit V V V Sans objet < 1 000 Moins pratique et calcul requis
Mesure dans la section droite d’un conduit
Petite sonde en conduit V V V sans objet V < 1 000 Réseau apparent nécessaire et calcul requis

V = méthode fiable

X = méthode moins fiable

 Source : Centre Scientifique et Technique de la Construction.


Tube de Pitot

Schéma principe Tube de Pitot.

C’est le système de mesure le plus utilisé. Il constitue la mesure la plus précise pour les vitesses d’air supérieures à 2,5 à 3 m/s.

Il permet de mesurer la vitesse de l’air par la mesure d’une différence de pression. En effet, la pression dynamique pd, est fonction de la vitesse de l’air v (p= 0,5 ρv², ρ = .. 1,2 .. kg/m³) et est égale à la différence entre la pression totale et la pression statique. Le tube est donc raccordé à un manomètre soit à liquide, soit digital.

Pour ne pas perturber la mesure, il faut être attentif à rester aligné avec le flux d’air (10° d’écart maximum).

Lors de la mesure au droit d’une bouche, la présence d’un cône peut être évitée si on glisse le tube entre les lames de la grille et que l’on effectue plusieurs mesures entre les différentes lames. De préférence, les lames de la grille doivent être placées en position droite.

Mesure dans une gaine et mesure à la sortie d’une bouche.


Anémomètre à hélice

Sondes d’anémomètre à hélice et à fil chaud.

Mesure de débit d’une bouche avec un anémomètre à hélice.

Il existe des anémomètres à hélice de toutes tailles de 15 à 200 mm de diamètre, les petits diamètres permettant les mesures dans les gaines et les grands à la sortie des bouches. Plusieurs possibilités existent : l’hélice peut faire corps ou non avec l’appareil de mesure,  avec un cône ou encore être portée au bout d’une tige, ce qui permet des mesures à distance :

  • Hélice sans cône : pour faire une mesure globale au refoulement d’une bouche de très petite dimension, l’anémomètre à hélice doit être installé dans un convergent-divergent (cône). Les mesures sans cônes sont très peu fiables dans le cas de petites bouches et dans tous les cas, pour plus de justesse de la mesure, on préférera une mesure en conduit si l’utilisation du cône n’est pas possible.
  • Petite hélice (10 à 20 mm) avec cône : la mesure au centre du cône n’est souvent pas la meilleure pour caractériser le débit d’air de la bouche. Les erreurs de mesures obtenues sont généralement importante (jusqu’à 60%).
  • Petite hélice (10 à 20 mm) en conduit : la mesure en conduit est a préférée aux autres méthodes avec hélice. Elle est beaucoup plus fiable. Toutefois, elle nécessite d’avoir accès au conduit ce qui est rarement le cas ou de rajouter un bout de conduit entre la fin du réseau et la bouche pour pouvoir effectuer la mesure. Il convient également de faire attention aux éventuelles fuites. La mesure dans un conduit supplémentaire n’est pas fiable pour des vitesses supérieures à 90 m³/h, il occasionne alors une trop grande perte de pression ce qui réduit significativement le débit réel.
  • Grande hélice (environ 10cm) avec cône : c’est la méthode la plus répandues pour les petites bouches d’air mais pour donner une mesure fiable, il est nécessaire de respecter certaines recommandations pour les mesures sur bouches. En outre, elle est à proscrire lorsque la bouche est très fermée (>3/4 de sa plage de réglage) ou, en alimentation, si le flux est asymétrique ou latéral. Dans tous les cas, plus le cône sera grand et bien centré sur la bouche, plus la mesure sera fiable. Il existe depuis peu un dispositif (court tronçon cylindrique) que l’on ajoute à l’anémomètre et au cône et qui permet de stabiliser le flux ce qui permet d’améliorer les mesures. Comme dans le conduit supplémentaire, la mesure n’est plus fiable pour des vitesses supérieures à 90 m³/h pour les mêmes raisons.

Pour obtenir une mesure précise, l’anémomètre à hélice doit être étalonné régulièrement, les transports, les manipulations, l’exposition à des ambiances plus ou moins polluées pouvant altérer la vitesse de rotation de l’hélice. De plus, l’axe de l’hélice doit être maintenu parallèlement à l’axe de l’écoulement (10° d’écart maximum). L’utilisation de l’anémomètre à hélice est valable pour des vitesses d’air supérieur à 1 m/s.


Anémomètre à fil chaud

Photo anémomètre à fil chaud.

Le principe du fil chaud consiste à mesurer la puissance nécessaire au maintien en température du fil qui dépend de la vitesse de l’air. La mesure est souvent combinée à une mesure de température. Ces appareils sont peu sensibles aux chocs mais les poussières peuvent altérer les conditions de refroidissement du fil. Les anémomètres à fil chaud, contrairement aux hélices, permettent de mesurer de très faibles vitesses entre 0.2 et 3 m/s. Comme pour les hélices de petites dimensions, la mesure en conduit est a préférée à l’utilisation d’un cône et une mesure à la bouche d’air.


Débitmètre à compensation

Un débitmètre à compensation est un appareil équipé d’un ventilateur permettant de compenser ses pertes de charge propres et ainsi de ne pas perturber le débit mesuré. Il en existe deux sortes suivant le dispositif de stabilisation du flux. Soit le flux est stabilisé (rapidement) grâce à une grille, soit le flux est stabilisé (lentement) grâce à un long cône et des diffuseurs. La compensation de pression seule ne suffit pas, il faut que le flux soit stabilisé correctement pour augmenter la fiabilité de la mesure. Donc, dans de bonnes conditions de mesures, il est fiable et facile d’utilisation puisqu’il s’adapte à tous types de bouches. Toutefois, il est peu pratique du à son encombrement et son poids, si la bouche n’est pas facilement accessible, et étant donné son coût, il ne se justifie que pour des mesures très fréquentes. Il est à noter que de nouvelles versions sont en développement mais qui n’ont pas encore été testées.

Photo débitmètre à compensation.


Manomètre

On peut estimer le débit traversant un composant du système de ventilation (filtre, échangeur de chaleur, diaphragme, clapet, etc.) équipé d’une mesure de pression différentielle en connaissant les caractéristiques de l’élément utilisé. Dans leur catalogue, les fabricants indiquent pour chaque élément la perte de charge initiale et le débit pour lequel cette perte de charge est calculée.

Si on dispose d’une mesure de pression différentielle au droit du dispositif, par exemple nécessaire pour optimaliser sa durée de vie, on connaît immédiatement le débit traversant :

débitréel = (Δpmesuré / Δpcatalogue0,5 x débitcatalogue

Pour les filtres à poches, ces valeurs sont parfois données pour une poche. Il faut alors multiplier par le nombre de poches pour obtenir le débit total.


Méthode du sac

La mesure d’un débit d’air au niveau d’une bouche d’air grâce à la méthode du sac est moins courante. Elle consiste à fixer sur un cadre autour de la bouche un sac en plastique de mesure enroulé. On mesure alors le temps nécessaire pour amener le sac à une certaine surpression. Si l’étalonnage du volume du sac est correct et qu’il a été correctement fixé (sans fuite), on obtient une bonne estimation du débit en divisant le volume en m³ du sac par le temps de remplissage mesuré en secondes. La mesure d’un débit d’air au niveau d’une bouche d’air grâce à la méthode du sac est moins courante.


Gaz traceurs

Il faut noter que la mesure du débit d’une entrée d’air naturelle n’est pas possible avec un anémomètre étant donné la faible vitesse de l’air au droit de celle-ci. On peut dans ce cas avoir recours à la technique des gaz traceurs pour estimer le débit de ventilation.

Il existe plusieurs méthodes de mesure par gaz traceur

  • La première consiste à injecter (au temps t0) dans un local une dose donnée de gaz, donnant lieu à une concentration (C0) de gaz dans l’ambiance. La concentration de gaz (C1) diminue ensuite en fonction de l’apport d’air neuf dans le local. Elle est alors mesurée à plusieurs instants successifs (au temps t1), à plusieurs endroits dans la pièce. La vitesse de décroissance de la concentration en gaz traceur est une mesure du taux de renouvellement d’air β :

β [h – 1] = ln (C– C1) / (t– t1

  • La deuxième méthode consiste à injecter en permanence un gaz traceur pour maintenir, dans le local, une concentration (C) de gaz constante. L’injection est donc commandée par un régulateur et la sonde de mesure. Le débit d’air neuf (q) du local est donc proportionnel au débit de gaz injecté (qg) :

q [m³ / h] = q/ C

  • La troisième méthode donne de très bons résultats et est peu onéreuse. Elle consiste à injecter un gaz traceur (composé organique cyclique perfluoré) au moyen d’une cellule à effusion, c’est-à-dire une petite capsule remplie de gaz liquide et fermée par un bouchon de caoutchouc perméable au gaz. Un très faible flux de traceur est ainsi diffusé dans la zone à analyser. En un autre endroit de cette zone, une cellule contenant du charbon actif adsorbe le gaz émis. Plus le taux de renouvellement d’air de la zone est faible, plus la concentration en traceur dans l’air et donc dans le charbon actif est élevée. Après une période pouvant aller de quelques heures à quelques semaines, les capsules de charbon actif sont fermées et analysées par un laboratoire. On en déduit le taux de renouvellement d’air moyen de la zone.

 

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
24-09-2008 : WinMerge ok – Sylvie

Lampes au mercure haute pression

Lampes au mercure haute pression


Comment fonctionne une lampe au mercure haute pression ?

La lampe au mercure haute pression fait partie des lampes à décharge. Son principe de fonctionnement est donc identique.

Particularités

Schéma principe lampe au mercure haute pression.

L’ampoule contient de la vapeur de mercure et de l’argon.

La lumière est émise exclusivement sous forme de rayons ultraviolets invisibles rendus visibles par les poudres fluorescentes placées sur la face interne de l’ampoule.

La lampe à mercure haute pression dispose d’électrodes auxiliaires servant de démarreur interne. Pour bien fonctionner, elle ne doit donc être équipée que d’un ballast et d’un condensateur.


Caractéristiques générales

La lampe à vapeur de mercure haute pression est aujourd’hui démodée pour plusieurs raisons : son efficacité lumineuse est faible, de même que son indice de rendu des couleurs. De plus, sa durée de vie n’est pas très élevée et elle est défavorable à l’environnement.

Il existe également une lampe au mercure haute pression donnant une lumière plus chaude (3 400 – 3 500 K). Son efficacité lumineuse est légèrement plus élevée.

Cette lampe a été surtout utilisée en éclairage public. Actuellement, elle n’est plus utilisée que pour le remplacement des lampes existantes. À noter qu’il existe des lampes à vapeur de sodium haute pression compatibles avec certains équipements de lampes à vapeur de mercure haute pression et directement interchangeables.

Dans la plupart des cas, les lampes à vapeur de mercure sont couplées avec des ballasts électromagnétiques.

Données

Pour connaitre les caractéristiques des lampes au mercure haute pression.

Données

Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Prescriptions relatives à l’éclairage dans les halls de sport

Prescriptions relatives à l'éclairage dans les halls de sport


Dans une salle de sport, un bon éclairage devra permettre aux joueurs

  • de percevoir les mouvements (des balles par exemple),
  • de se situer par rapport aux marquages au sol,
  • de localiser les autres joueurs et l’équipement sportif (paniers, cages de but).

L’éclairement recommandé par les normes  est proportionnel à la vitesse de l’action. Un sport pratiqué comme loisir demande donc un éclairement plus faible qu’un sport pratiqué en compétition. Le type de sports en salle ainsi que leurs niveaux de pratique déterminent le niveau d’éclairement recommandé.

On notera aussi que pour la plupart des sports, l’éclairement vertical est aussi important que l’éclairement horizontal au sol.
La norme NBN EN 12193 établit une nomenclature dans laquelle on retrouve les paramètres suivants :

Niveau de pratique des sports

Les classes d’éclairage sont définies comme suit :

Classe I : salles de sport prévues pour accueillir des compétitions internationales et nationales. Elles sont liées, en général, à un grand nombre de spectateurs et à des distances visuelles élevées. On peut aussi associer à cette classe les entraînements de grande performance.

Classe II : salles de compétition moyenne (nombre moyen de spectateurs et distances visuelles moyennes).

Classe III : salles de compétition simple ou amateur (faible nombre de spectateurs et distances visuelles courtes).

Exigences minimales

N.B. : Les niveaux d’exigences devront correspondre aux niveaux du sport le plus exigeant pratiqué.

Exigences minimales pour l’éclairage des salles de sport Classe d’éclairage I Classe d’éclairage II Classe d’éclairage III
Éclairement Eav (lux) Uniformité Emin/Eav Rendu des couleurs Ra Éclairement Eav (lux) Uniformité Emin/Eav Rendu des couleurs Ra Éclairement Eav (lux) Uniformité Emin/Eav Rendu des couleurs Ra
Badminton

Escrime

Hockey

Squash

Tennis de table

750 0.7 60 500 0.7 60 300 0.7 20
Basket

Football en salle

Handball

Judo, Karaté

Sport scolaire

Volley-ball

750 0.7 60 500 0.7 60 200 0.5 20
Danse

Escalade

Gymnastique

500 0.7 60 300 0.6 60 200 0.5 20
Tennis 750 0.7 60 500 0.7 60 300 0.5 20
Tir à l’arc 200 0.5 60 200 0.5 60 200 0.5 60

Domaines d’application de la pompe à chaleur

Domaines d'application de la pompe à chaleur


Le chauffage des locaux

Un nouvel essor dans le secteur domestique

En construction domestique neuve (avec une bonne isolation), le chauffage par pompe à chaleur (PAC) connaît un regain d’intérêt.

Les pompes à chaleur Air/Eau domestiques (puissance calorifique nominale entre 1 et 19 kW environ) sont proposées par différents fournisseurs et sont de plus en plus éprouvées. En Europe, le marché des PAC suit une croissance continuelle. Les régions phares sont la Suède (333 000 unités en 2000), l’Allemagne (63 000 unités), la Suisse (61 000 unités) et l’Autriche (33 000 unités). La part de marché de la PAC en construction neuve atteint 95 % en Suède. L’origine hydraulique de l’électricité n’y est sans doute pas pour rien…

Statistiques du marché des pompes à chaleur tous modèles confondus entre 2005 et 2009 dans quelques pays européens.

Source : EHPA Outlook 2009,  Heat Pump Statistics.

La petite PAC de chauffage domestique est disponible de série. Par exemple, pour une maison familiale très isolée dont les besoins thermiques maximums se montent à 8 kW, une PAC compacte de 4 kW de puissance thermique (1.3 kW au compresseur) fonctionnant en mode bivalent peut couvrir près de 70 % des besoins de chauffage annuel.

Ce genre d’appareil se branche sur les réseaux de distribution de chaleur comme les chaudières classiques. Le but des fournisseurs est d’offrir aux acheteurs et aux installateurs une pompe à chaleur qui soit pour eux aussi simple d’utilisation que n’importe quel autre générateur de chaleur.

Fonctionnant en général avec l’air extérieur comme source froide, ces modèles sont universels et demandent des frais d’installation relativement limités (conduites d’amenée d’air,…). Ils peuvent donc être adaptés à des réseaux de distribution existants lors du remplacement d’une chaudière.

Par rapport à un chauffage traditionnel, le bilan en énergie primaire est relativement neutre.

Deux éléments peuvent jouer en faveur de la pompe à chaleur : un environnement particulièrement propice (source) ou un domaine d’application pour lequel elle serait particulièrement performante :

  • Il est clair que s’il y a présence d’une source froide de qualité (nappe phréatique, rivière, grande étendue ensoleillée), cette technique devrait tout particulièrement inciter les concepteurs et maîtres d’ouvrages à réaliser des études de rentabilité.
  • L’investissement élevé se justifie parfois parce que les PAC sont des outils capables de faire du chaud et du froid. Même si c’est un constat d’échec pour la conception architecturale du bâtiment domestique qui dans nos régions doit pouvoir se passer de climatisation, c’est effectivement un moyen pour corriger le défaut et combattre les surchauffes.

Les lieux d’hébergement collectifs

La solution type, rencontrée par exemple pour les immeubles d’appartements jusqu’à une cinquantaine de logements, est la pompe à chaleur Air/Eau, avec appoint électrique centralisé et distribution par chauffage par le sol. Bien que la pompe à chaleur puisse fonctionner avec les niveaux d’isolation courants, un renforcement de cette isolation est conseillé pour limiter la température de l’eau de chauffage et améliorer ainsi les performances de l’installation. Cette PAC assure une température de base avec des charges de chauffage faibles et laisse à chaque utilisateur le soin de régler sa température de confort via des chauffages d’appoint décentralisés (convecteurs dans les appartements) de faible puissance.

On détecte 3 points faibles à cette installation

  • Le chauffage par le sol de nuit, qui ne permet pas une régulation valable (il est possible que le soleil apparaisse le lendemain et que l’accumulation de chaleur de nuit consentie était inutile),
  • Le complément électrique centralisé qui se fait avec un COP de 1 et qui donc détruit partiellement la performance de la PAC,
  • Les compléments électriques décentralisés qui sont fournis au courant de jour, dont au prix fort.

La pompe à chaleur, pour dégager une économie, devra couvrir plus de la moitié de l’écart de température de base (écart entre la température de confort et la température de dimensionnement). Autrement dit, pour une température intérieure désirée de 20 °C et une température de base de – 10 °C en Belgique, la PAC doit pouvoir fournir seule la chaleur nécessaire jusqu’à une température extérieure de 5 °C pour être rentable.

Il faut éviter de surdimensionner la PAC pour ne pas multiplier les courts cycles et faire face à une usure accélérée du matériel.

Les PAC Air/Eau avec chauffage par le sol peuvent être réversibles et assurer un rafraîchissement (gain de 3 à 5 K). Il ne s’agit pas d’un système de climatisation à proprement parler, mais d’un apport de confort. La température de l’eau dans les planchers rafraîchissants ne descend pas sous 18 °C (température au sol de 20 à 22 °C), même si la charge à absorber en demanderait davantage. Le seul surcoût d’investissement est un système de régulation un peu plus complexe.

A nouveau le choix de la source de chaleur est très important. Ainsi, lorsqu’une nappe phréatique est présente, l’avantage sera donné aux PAC Eau/Eau qui ont une meilleure performance et sont moins limitées en puissance. Les ensembles de logements pouvant assumer des investissements financiers plus importants que les particuliers, ils peuvent également envisager des PAC Sol/Eau avec forage de grande profondeur pour obtenir une plus grande puissance.


Chauffage et refroidissement d’un ou plusieurs locaux par système split

L’installation d’un système split consiste généralement en une simple pompe à chaleur Air/Air,

  • dont l’évaporateur est placé à l’extérieur,
  • et dont le condenseur est soit dans un local technique où il est relié à un réseau de distribution, soit directement dans le local à chauffer, par exemple dans un ventilo-convecteur.

Structure type d’un système split.

Le transfert de chaleur entre l’intérieur et l’extérieur se fait par le fluide frigorigène qui traverse la peau du bâtiment dans des canalisations calorifugées.

Exemple de produit : Un fournisseur offre une gamme d’installations dont la puissance va de 1 à 8 kW. La distance autorisée entre le condenseur et l’évaporateur est de 15-20 mètres avec des dénivellations d’une dizaine de mètres. Les prix vont de 1 600 à 4 000 €.

Les systèmes split installés directement dans les locaux ont l’avantage de la souplesse d’installation : un simple réseau bitube est suffisant pour le transport du fluide frigorigène, on évite les intermédiaires puisque la PAC chauffe directement l’air du local, il ne faut pas d’accumulateur ni de régulation complexe d’un réseau hydraulique, … en contrepartie, ils présentent un plus grand risque de fuite de fluide frigorigène.

Réversible, la PAC peut aussi constituer une source de rafraîchissement pour l’ambiance.

Lorsque l’on multiplie le nombre d’échangeurs de chaleur, on parle de système multi-split. Les différents échangeurs intérieurs, par exemple un par local, sont alors tous reliés à un (ou plusieurs) échangeurs de chaleur extérieur. Différentes « boucles » sont donc « juxtaposées » avec comme seule interconnexion la ou les unités extérieures.

Un condenseur commun et plusieurs unités intérieures = multi-split.

Exemple de produit multi-split :

Un fournisseur propose une gamme standard d’installations multi-split complètes dont l’unité extérieure a une puissance frigorifique maximale allant de 1 à 11,5 kW et une puissance calorifique maximale de 0,9 à 17,2 kW, pour des débits d’air d’environ 2 100 m³/h. La longueur maximale de tuyauterie autorisée va de 35 à 70 mètres au total selon l’unité extérieure choisie dans la gamme. Le branchement de plus de 4 unités intérieures par unité extérieure n’est pas possible. Les unités intérieures peuvent être murales, en consoles, gainables ou en cassette 2 ou 4 voies. Leur puissance frigorifique varie entre 1 et 4,5 kW et leur puissance calorifique entre 1,1 et 6,4 kW. Chaque unité intérieure accepte une longueur de tuyauterie de 25 m. Le prix des groupes de condensation (unité extérieure) est entre 2 285 et 4 150 €, celui des unités intérieures de 585 à 2 235 € pièce.

Climatisation

Pour plus d’informations sur le choix des systèmes splits.

Chauffage et refroidissement des locaux par système à Débit de Réfrigérant Variable

Parmi les systèmes multi-split, un système permet une économie d’énergie en réalisant le transfert de chaleur entre les zones aperditives et déperditives d’un même bâtiment : il s’agit des installations à « Débit de Réfrigérant Variable (DRV) ».

Illustration installations à "Débit de Réfrigérant Variable (DRV)".

Attention : tous les systèmes DRV ne disposent pas de cette possibilité. Il faut que chaque unité intérieure puisse travailler aussi bien en froid (= évaporateur) qu’en chaud (= condenseur) et que le système organise le transfert de l’un vers l’autre. Cette version de DRV est d’ailleurs 40 % plus chère que la version qui ne peut faire que du chaud ou que du froid, alternativement.

Cette variante, dite « à récupération d’énergie », est particulièrement intéressante si l’on prévoit des apports internes élevés durant l’hiver : salle informatique, locaux intérieurs, … La chaleur extraite pourra être restituée vers les locaux demandeurs en façade. Elle peut être intéressante également en mi-saison (façades d’orientation différentes).

Ce potentiel augmente également si, au lieu de prendre une structure classique rectangulaire (bureaux en façade et couloir central), une structure carrée avec beaucoup de locaux internes est décidée, ou si des étages enterrés en sous-sol sont programmés.

Climatisation 

Pour plus d’informations sur le choix des systèmes à DRV.

Chauffage et refroidissement des locaux par ventilo-convecteurs réversibles 2 tubes/2 fils

Schéma de principe ventilo-convecteurs réversibles 2 tubes/2 fils.

Une pompe à chaleur Air/Eau réversible, souvent placée en toiture, alimente en chaud ou en froid le circuit hydraulique du bâtiment, jouant le rôle de chauffage central et de groupe de froid. Le circuit de distribution est constitué de 2 canalisations calorifugées véhiculant l’eau glacée et l’eau chaude. Des ventilo-convecteurs réversibles 2 tubes/ 2 fils émettent l’action calorifique vers l’air des locaux, en apportant si nécessaire un appoint de chaleur électrique direct lorsque les conditions de fonctionnement des locaux sont trop différentes. L’air neuf est apporté et traité par un réseau indépendant.

La régulation de la PAC et le « change over » (basculement du mode chaud au mode froid) sont basés sur la température extérieure. Il est indispensable de prévoir une plage neutre importante entre les températures de basculement pour éviter des alternances trop fréquentes. En effet, le basculement génère une destruction d’énergie importante : l’ensemble de l’eau contenue dans le circuit hydraulique passe d’eau glacée (8 °C) à eau de chauffage (35 °C) ou l’inverse. Idéalement, il y a deux basculements par jour en mi-saison : de chaud en froid dans la journée, et de froid en chaud la nuit.

Avantages

  • Économie d’investissement puisque d’une part il s’agit d’un réseau 2 tubes et pas 4, et d’autre part une seule machine fournit l’eau chaude et l’eau glacée au départ d’une seule source d’énergie, ce qui simplifie l’installation.
  • Souplesse du système. La PAC peut être remplacée par une chaudière classique et une machine frigorifique sans apporter de modifications importantes au réseau de distribution. L’inverse est tout aussi vrai et cette solution est donc à envisager lors de la rénovation des systèmes de traitement d’air par ventilo-convecteurs.
  • Les ventilo-convecteurs 2 tubes/ 2 fils permettent une régulation adaptée à chaque local. Il s’agit donc d’une souplesse supplémentaire par rapport aux appoints centralisés.

Désavantages

  • L’utilisation des résistances électriques d’appoint des ventilo-convecteurs se fait au tarif de jour est donc onéreuse. Une bonne régulation de la température de l’eau dès la sortie de la PAC est très importante pour réduire ces coûts. Pour des raisons de confort, il est d’ailleurs plus fréquent, en Belgique, d’installer des réseaux 4 tubes. Mais dans ce cas, le fonctionnement ne peut se faire avec une seule machine réversible.
  • L’installation ne fournit pas d’air neuf. Il faut donc l’accompagner par une centrale de traitement d’air et un réseau de distribution pour l’alimentation en air hygiénique. La centrale de traitement d’air peut disposer d’un récupérateur d’énergie sur l’air extrait et être alimentée en chaleur par la PAC.

Généralement, les systèmes réversibles amènent à un surdimensionnement de la puissance de chauffage pour pouvoir assurer la charge frigorifique. Or, il est intéressant d’économiser l’énergie électrique durant les périodes de chauffe (tarifs pleins). Une économie possible consiste à détourner le circuit de retour des ventilo-convecteurs vers un échangeur à plaque afin de préchauffer l’eau chaude sanitaire. Ce détour limite le surdimensionnement et permet une économie de près de 50 % sur la production d’ECS (campagne de mesure réalisée en France dans l’hôtellerie).


Chauffage et refroidissement des locaux par pompes à chaleur sur boucle d’eau

Description du principe

Schéma principe pompes à chaleur sur boucle d'eau.

La technologie des PAC sur boucle d’eau s’établit autour des trois composantes du système :

  • les PAC ou climatiseurs réversibles (Eau/Air) assurent le chauffage ou le refroidissement des locaux suivant les besoins thermiques de ceux-ci,
  • la boucle d’eau, circuit d’eau fermé raccordé aux climatiseurs réversibles et aux échangeurs de chaleur, assure la circulation d’énergie thermique dans le bâtiment,
  • une chaudière et une tour de refroidissement assurent le maintien en température de la boucle d’eau en apportant ou en évacuant les calories suivant le bilan thermique global du bâtiment.

La boucle d’eau assure ainsi le transport d’énergie entre l’ensemble des locaux et le transfert de chaleur des zones aperditives du bâtiment (zones internes, salles de réunion, locaux informatiques, locaux sur façade ensoleillée) vers les zones déperditives (locaux périphériques, locaux sur façades à l’ombre).

Elle permet donc d’effectuer en permanence le calcul simultané des besoins thermiques globaux du bâtiment et, en contrôlant sa température, de puiser ou de rejeter, sur l’extérieur, l’énergie nécessaire à l’équilibre thermique de l’immeuble.

Consommation

Comme tout système avec échangeur direct (l’air du local passe directement dans l’évaporateur), la très basse température de l’échangeur génère un supplément de consommation non négligeable lié à la déshumidification de l’air ambiant (à ce titre, le ventilo-convecteur dont l’échangeur est dimensionné sur base d’un régime 12 °C – 17 °C est nettement plus performant).

L’évacuation des condensats est d’ailleurs un point délicat. Si elle ne peut être gravitaire, elle est confiée à une pompe de relevage intégrée dans l’appareil. Généralement, les pompes prévues par le constructeur sont moins bruyantes que celles ajoutées sur place par l’installateur. Autant donc le prévoir dès la sélection de la machine.

Régulation

Au niveau des pompes à chaleur, une zone neutre de 2 à 3 °C doit être prévue dans la consigne entre chauffage et refroidissement.

Un commutateur manuel peut permettre à l’utilisateur de sélectionner la vitesse de rotation du ventilateur (et donc le niveau de bruit qu’il accepte de subir !)

Mais c’est au niveau de la boucle que la régulation doit être la mieux étudiée pour optimaliser la performance énergétique. Plusieurs scénarii sont possibles. Par exemple, on peut laisser flotter la température entre 18 et 32 °C (autrement dit, la chaudière s’enclenche sous les 18 °C et la tour s’enclenche au-dessus des 32 °C). La récupération de chaleur entre locaux demande d’ailleurs un large différentiel, mais il ne faut pas pour autant pénaliser le COP des machines ! En plein hiver et en plein été, il faudra étudier quelle est la température qui optimalise au mieux l’ensemble.

Ainsi, si on diminue l’écart entre ces 2 seuils d’enclenchement, le COP des pompes à chaleur sera amélioré, mais la consommation énergétique au niveau central sera accrue.

Exemple.

Dans la galerie commerciale, il est possible que les locaux doivent être réchauffés le matin (relance après la nuit) et refroidis l’après-midi suite à l’éclairage et à l’occupation. Idéalement, c’est alors l’inertie de la boucle qui devrait jouer, inertie renforcée par un ballon de stockage placé en série sur la boucle.

Durant l’après-midi, les machines frigorifiques chargent la boucle et son stockage. Le lendemain, en fin de nuit (pour profiter du tarif de nuit plus avantageux), les locaux sont remis en température avant l’arrivée des occupants… et le stockage est déchargé, sans consommation de la tour.

À noter : pour réduire l’encombrement du ballon de stockage, on peut envisager de le remplir avec des nodules eutectiques dont la température de solidification se situe dans la zone neutre de fonctionnement de la boucle.

Si un de nos lecteurs dispose d’une installation de ce type dans son bâtiment, nous serions heureux de participer à la mise au point de la régulation de ce système et de pouvoir en transcrire ici les résultats, en vue d’une prochaine version d’Énergie+ ! Notre adresse électronique est la suivante : energieplus@uclouvain.be.

Domaine d’application

D’une manière générale, ce système est adapté aux bâtiments dont on prévoit que les charges thermiques seront en opposition (façades d’orientation différentes). On pense tout particulièrement aux bâtiments ayant des salles aveugles avec fort taux d’éclairage, forte occupation, … et à la fois des locaux en façade Nord avec fortes déperditions (fort taux de vitrage).

Il permet une régulation individualisée. Il permet une sensibilisation de l’utilisateur final puisque la consommation propre des PAC installées dans ses locaux peut lui être facturée.

Mais il ne contrôle pas l’hygrométrie de l’air du local. La nuisance acoustique est parfois importante. Et l’utilisation d’énergie électrique aux heures pleines reste coûteuse.

De plus, aujourd’hui il entre en concurrence avec le système à « Débit de Réfrigérant Variable », (qui lui même dans une de ses variantes peut aussi comporter une boucle d’eau reliant les différentes unités extérieures).

Ce système est fréquemment utilisé dans les centres commerciaux. Chaque local est livré nu de tout équipement, sinon de la présence de la boucle et de raccordements en attente. Le commerçant investit dans une ou plusieurs machines réversibles et « pompe » le chaud ou le froid qu’il souhaite sur la boucle. On peut facilement mesurer la part individuelle de la consommation de chaque appareil dans le bilan total.

Étude de cas

Dans une galerie commerciale de Liège, un très gros circulateur à vitesse variable avait été mis sur la boucle d’eau. Sa régulation se faisait classiquement en fonction de la pression d’eau du réseau. Or les échangeurs des pompes à chaleur sont toujours alimentés à débit constant pour éviter le gel des évaporateurs. Donc l’eau tournait à grande vitesse et le Delta T° sur la boucle était seulement de 2 K, départ-retour.

Il a été imaginé de moduler la vitesse de rotation du circulateur en fonction du maintien d’un Delta T° de 6 K. Ainsi, si la demande augmente, le delta de T° augmente et la vitesse est adaptée. La température est maîtrisée et le gel est impossible.

Une chute drastique de la consommation électrique en a résulté.

Avantages du système

  • Régulation de température individualisée.
  • Conception simple, relativement facile à mettre en œuvre.
  • Système intéressant du point de vue énergétique en intersaison ou plus exactement lorsque les charges dans les différents locaux sont opposées et que la boucle est proche de l’équilibre thermique.
  • Les PAC sont relativement fiables à condition de respecter les débits d’air et d’eau.
  • Extension facile de l’installation.
  • Facilité d’installation, de démontage et de réemploi des PAC suivant l’occupation des locaux ou des réparations.
  • Sensibilisation de l’utilisateur final aux économies, car il supporte directement les frais électriques liés au fonctionnement des PAC installées dans ses locaux.
  • Réduction de la puissance de la production thermique centralisée.

Désavantages

  • Pas de contrôle de l’hygrométrie de l’air du local.
  • Problème de niveau sonore : puissance acoustique non négligeable, donc nécessité de traitement spécifique.
  • Besoin de raccordement des condensats vers l’égout.
  • Les économies sont relativement modestes. Les PAC consomment essentiellement de l’énergie électrique au qui ne peut être différée en heure creuse.
  • Le risque de panne ou d’intervention sur la boucle d’eau, sur les dispositifs centralisés, rend le système inquiétant pour les utilisateurs de climatisation critique (locaux informatiques, salles de fabrication…). Cette crainte conduit à séparer ces installations de l’installation principale ou à en dédoubler les équipements en cas de problèmes.

Choix des PAC réversibles

Ces PAC se présentent essentiellement sous trois formes :

  • Le modèle console en allège, installé contre les murs extérieurs, de préférence sous la fenêtre : il peut être carrossé ou bien intégré dans un habillage de façade ; il doit être installé dans le local à traiter et l’habillage de l’appareil doit faire l’objet d’un renforcement acoustique.
  • Le modèle plafonnier horizontal, installé généralement en faux plafond : il est conseillé d’installer la PAC à l’extérieur du local à traiter (circulation de bureau par exemple) et d’assurer le raccordement au diffuseur de soufflage par l’intermédiaire de gaines isolées thermiquement et phoniquement.
  • Le modèle vertical type armoire, installé dans un placard technique : un réseau de gaines de soufflage et éventuellement de reprise, assure la liaison entre la PAC et le local à traiter.

L’installation doit permettre de maintenir un accès aisé à l’appareil pour les opérations d’entretien. Les opérations de maintenance courantes consistent en nettoyage ou remplacement des filtres (opérations pouvant être effectuées par du personnel non qualifié).

Les opérations d’entretien, de réparation ou de remplacement de composant électrique (principalement le moteur du ventilateur de soufflage) sont possibles depuis les panneaux d’accès démontables.

En cas d’intervention sur le circuit frigorifique, il est recommandé de procéder à un échange standard de l’appareil et d’assurer la réparation en atelier.

La sélection doit être faite en fonction des besoins thermiques des locaux et de leur application. Il est souvent préférable de sélectionner un appareil d’une puissance légèrement inférieure aux besoins déterminés pour les conditions les plus défavorables; cela permet une meilleure adaptation de la puissance à la charge thermique moyenne à combattre et allonge les durées des cycles de fonctionnement de l’unité en évitant des inversions de cycle trop fréquentes.

Enfin, un réseau d’évacuation des condensats est à raccorder sur chaque appareil.
On sera attentif à la bonne isolation phonique du compresseur puisqu’il est ici situé dans le local !

Il existe des versions en apparent et des versions destinées à être insérées dans un habillage (en allège ou en faux plafond). S’il peut être placé dans un local technique attenant et relié au local par une gaine, l’installation sera nettement moins bruyante. La maintenance en sera également facilitée.

On veillera tout particulièrement à éviter la transmission des vibrations de l’appareil au bâtiment par l’usage de silentblocs ou de semelles antivibratiles. L’usage de raccordements flexibles est également favorable sur le plan acoustique et facilitera le démontage de l’appareil (prévoir des vannes d’isolement étanches).

Choix de la boucle d’eau

La boucle d’eau doit être un circuit d’eau fermé, préféré à un circuit d’eau ouvert en raison des problèmes d’embouage, d’entartrage et de corrosion. Ce circuit d’eau à température tempérée (15 °C à 35 °C environ) reçoit les composantes suivantes :

  • Les pompes de circulation prévues, l’une en fonctionnement normal, l’autre en secours, afin d’éviter tout risque de panne totale.
  • Une filtration de l’eau à réaliser au niveau des pompes de circulation et près des climatiseurs.
  • Un échangeur d’évacuation des calories, généralement du type échangeur à plaques, équipé d’un by-pass permettant les opérations de nettoyage, raccordé à un réseau d’eau de refroidissement.
  • Un réchauffeur d’eau équipé d’un by-pass.
  • Un réseau de distribution en tubes d’acier noir non calorifugé (sauf à l’extérieur); néanmoins la T°C modérée de l’eau permet l’utilisation de tuyauteries en PVC.
  • Des vannes d’isolement et d’équilibrage du réseau et, notamment, pour chaque raccordement à un climatiseur; ce raccordement sera réalisé en tuyauterie flexible facilitant l’installation, évitant les transmissions de vibrations et simplifiant les opérations de maintenance.
  • Des accessoires tels que vases d’expansion, vannes de vidange et systèmes de purge d’air (manuel et automatique), ainsi qu’un système d’appoint d’eau.

Choix de l’échangeur « froid »

L’échangeur froid doit permettre l’évacuation des calories excédentaires de la boucle d’eau. Différents systèmes sont utilisés :

  • Raccordés à la boucle d’eau par l’intermédiaire d’un échangeur à plaques, on trouve fréquemment des tours de refroidissement à circuit ouvert ou un réseau d’eau de pompage dans la nappe phréatique, dans la mer, une rivière, un lac,…
  • Raccordés directement à la boucle d’eau, on utilise des tours de refroidissement à circuit fermé ou des appareils appelés « dry-cooler ».

Le choix entre ces différents appareils s’établit en fonction de leur existence (eau de mer, nappe phréatique…), des critères dimensionnels (tours de refroidissement ouvertes ou fermées) et des contraintes acoustiques.

Il faut noter que l’utilisation de « dry-cooler » nécessite de relever la température de la boucle d’eau en été à 40 °C environ, ce qui oblige à l’emploi de PAC adaptées.

Choix de l’échangeur « chaud »

Il doit permettre d’apporter les calories nécessaires au maintien en température de la boucle d’eau. Les sources de chaleur pouvant être utilisées sont variées :

  • chaufferie alimentée au gaz ou au fuel
  • sous-station de chauffage urbain
  • PAC Air/Eau sur l’air extérieur

L’utilisation d’un échangeur de transfert d’énergie n’est pas forcément nécessaire lors de l’utilisation de chaufferies ou de sous-stations de chauffage urbain.

L’utilisation d’une nappe phréatique nécessite de descendre le niveau de T°C de la boucle d’eau, en hiver, à 12 °C environ, ce qui oblige à l’emploi de PAC adaptées et de calorifuger tout ou partie du réseau de distribution.

On trouvera dans le Tome 4 de la collection Climatisation et conditionnement d’air de J. Bouteloup différents schémas de montage des installations.


Le chauffage de l’eau chaude sanitaire

Ici encore, l’usage de la pompe à chaleur en remplacement des chauffe-eau électriques pour la préparation de l’ECS paraît logique, d’autant plus que le bilan de la pompe à chaleur en été est très performant.

Et cette fois, l’usage d’une installation électrique peut se justifier par l’arrêt possible de l’installation de chauffage du bâtiment. Mais la PAC aura bien du mal à fournir les 60° demandés dans le ballon d’eau chaude (température demandée depuis les mesures anti-légionnelles). Un préchauffage à 45 °C convient mieux à la PAC. Ceci sous-entend le placement d’un deuxième ballon en série pour rehausser la température à 60 °C.

Finalement, PAC + ballon de préchauffage : l’investissement paraîtra fort élevé par rapport à une simple résistance électrique…

Eau chaude sanitaire 

Pour plus d’informations sur le choix des PAC pour le chauffage de l’eau chaude sanitaire.

Les groupes de préparation d’air des bâtiments tertiaires

Du chaud et du froid par le même équipement

Une des applications les plus courantes de la PAC est l’alimentation en chaud et en froid des groupes de préparation d’air par des installations réversibles Air/Air. Ces installations sont très avantageuses puisqu’un seul appareil réversible assure deux fonctions pour un investissement initial raisonnable. La performance de la pompe à chaleur est élevée puisque les températures demandées sont faibles.

Concrètement, une pompe à chaleur est couplée à un caisson de traitement d’air classique, un des échangeurs de la PAC étant dans le caisson, l’autre étant à l’extérieur.

Exemple de modèle disponible sur le marché :

Modèle 1

Puissance frigorifique nominale

kW 13,5

Puissance calorifique nominale

kW 14,55

Débit d’air maximal

m³/h 2 400

Pression acoustique

dB(A) 65

Réfrigérant

R 22

Hauteur
Largeur
Longueur

mm
mm
mm
485
1 022
1 261

Poids net

Kg 88

Prix

5 085

Des puissances plus importantes sont bien sûr possibles et suffisantes pour remplacer les installations traditionnelles.

En été, la pompe à chaleur fonctionne comme unité de climatisation classique, la batterie placée dans le caisson constituant l’évaporateur et la batterie extérieure le condenseur. On peut atteindre un COP saisonnier de réfrigération de l’ordre de 3. Attention, le fonctionnement en détente directe entraîne des températures très basses dans l’échangeur et donc une déshumidification de l’air parfois exagérée par rapport aux besoins. En hiver, le cycle est inversé et la batterie interne devient condenseur tandis que l’échangeur externe joue le rôle d’évaporateur. Le COP varie alors selon la température externe, le dégivrage et le besoin d’appoint électrique. En intégrant ces divers auxiliaires, on atteint un COP saisonnier de l’ordre 2,5.

Une gestion délicate lors du dégivrage

Une difficulté reste : le chauffage de l’air est sans inertie (par opposition à un chauffage du sol ou d’un ballon d’eau). Donc, lors des périodes de dégivrage de l’évaporateur, de l’air froid risque d’être pulsé sur les occupants. L’arrêt de la pulsion de l’air étant difficile, une solution peut consister à travailler avec des pompes à chaleur modulaires. Quand un module dégivre, il s’arrête et un autre module produit.

Récupérer sur l’air extrait ?

Pour améliorer l’installation, il est possible de faire passer l’air extrait par l’échangeur extérieur lorsqu’il joue le rôle d’évaporateur. La récupération de chaleur à l’échangeur sera améliorée du fait de la grande différence de température entre l’air vicié et la basse température d’évaporation du fluide frigorigène en hiver. Cet apport de chaleur à l’évaporateur permettra de remonter la température d’évaporation et de diminuer le dégivrage, donc d’améliorer le COP.

La sélection de la puissance de la pompe à chaleur dépend du bilan thermique été et du bilan thermique hiver. Dans les secteurs commercial et tertiaire, les besoins frigorifiques en été sont souvent supérieurs aux besoins calorifiques en hiver. La pompe à chaleur sera alors surdimensionnée pour le régime de chauffe et le chauffage d’appoint ne sera alors que rarement nécessaire.


Récupération de chaleur sur l’air des locaux humides (piscines, buanderies, …)

Le traitement des locaux humides

Les bâtiments où une humidité importante est produite, et donc dans lesquels un contrôle de l’hygrométrie aura lieu (piscines, blanchisseries, cuisines industrielles,…), sont propices à l’usage d’une PAC : toute l’énergie de condensation de la vapeur d’eau peut être réutilisées sous forme de chaleur à haute température (chauffage de l’air, chauffage de l’eau chaude sanitaire). Il semble que la difficulté provienne de l’excédent des apports en mi-saison et en été.

Les piscines constituent une application particulière des PAC

Les piscines consomment beaucoup d’énergie pour diminuer le taux d’humidité et éviter ainsi les condensations sur les parois (particulièrement les surfaces vitrées). D’autre part des besoins de chaleur importants sont liés à la température élevée de l’air pour assurer pour le confort des baigneurs. Une humidité maximum de 75 % est à maintenir dans les piscines bien isolées avec pulsion d’air chaud au pied des vitrages. Mais l’humidité maximum peut descendre à 65 % si les parois sont mal isolées, et donc froides. À noter qu’avec les nouveaux vitrages isolants à basse émissivité, ce critère de pulsion au pied des vitrages n’est plus obligatoire.

Deux systèmes de PAC sont possibles pour ce type de bâtiment.

Pompe à chaleur en déshumidification

Le principe consiste à faire passer l’air à du local à déshumidifier sur l’évaporateur de la PAC. Il y est refroidi et surtout déshumidifié. L’air passe ensuite, mélangé à l’air frais hygiénique, sur le condenseur où il est réchauffé. Le condenseur de la PAC permet le chauffage de l’air ambiant, mais aussi le chauffage partiel de l’eau sanitaire (piscine, douches) particulièrement en mi-saison.

La solution est intéressante. Toutefois, au creux de l’hiver, la déshumidification ne fournit pas assez de chaleur et la pompe à chaleur ne suffit pas à elle seule à assurer tous les besoins énergétiques. Un chauffage d’appoint est donc nécessaire et le COP global est diminué.

Il faut se rendre compte que dans cette application précise le COP de la PAC n’est plus le rapport entre les kW thermiques utiles disponibles au condenseur et les kW absorbés par le compresseur. En fait,

Ceci est dû au fait que la chaleur sensible prélevée à l’air vicié par l’évaporateur lui est rendue par le condenseur et ne doit donc pas être considérée comme chaleur utile dans le calcul du COP. La source froide recherchée ici est la chaleur latente de condensation de l’humidité. On pompe l’énergie sur la déshumidification, pas sur le refroidissement de l’air. En fait, plus le besoin de déshumidification est important (forte activité dans la piscine, faible isolation,..), plus l’énergie puisée à l’évaporateur sera importante et plus le COP global de l’installation sera élevé.

Pour le calcul des performances de l’installation, il ne faut pas oublier de prendre en compte l’influence des heures de non-occupation, qui entraînent un taux d’évaporation plus faible et un COP instantané plus bas. On peut envisager un COP global de 2,5. (Valeur avancée par Paul H.Cobut, Pompes à chaleur, Atic – cours de perfectionnement).

Remarque : ce type d’installation est intéressante dès qu’il s’agit de climatiser un local où il y a une forte production de vapeur (bassins de toutes sortes, pressings, séchoirs à linge, certains locaux industriels ou laboratoires,…).

Pompe à chaleur – récupérateur

Dans ce cas, la PAC prélève une partie de l’énergie dans l’air extérieur et une autre partie dans l’air extrait. Contrairement au système précédent, l’évaporateur puisera l’énergie sur le refroidissement de l’air mélangé.

Un hygrostat raccordé à une sonde extérieure permet le dosage de l’air neuf. La PAC sera dimensionnée pour réaliser à elle seule l’effort thermique jusqu’à 0 °C environ. En dessous de cette température, un appoint sera nécessaire. Le COP de la PAC varie en fonction de la température de l’air extérieur.

Un COP global annuel de 3,3 est possible, ce qui représente un gain de 30 % par rapport à la PAC en déshumidification. Les déperditions plus importantes dues à l’introduction d’air neuf en plus grande quantité que dans l’autre système pour assurer la déshumidification représentent un accroissement des besoins calorifiques de moins de 10 % sur l’année (valeurs avancées par Paul H.Cobut, « Pompes à chaleur », Atic – cours de perfectionnement).

Il faut noter toutefois que ces résultats sont basés sur un taux d’hygrométrie tolérable assez élevé grâce à l’usage d’un vitrage très isolant. Dans le cas d’un vitrage moins isolant, le taux d’humidité acceptable est plus bas. Il faut donc un plus grand effort de déshumidification, ce qui favorise le premier type d’installation et la différence de performance entre les deux systèmes diminue.


Récupération de chaleur sur des rejets thermiques

Dans de nombreuses entreprises, une grande quantité d’énergie est gaspillée dans les extractions d’air ou de gaz. Très souvent, le volume extrait et la température du fluide sont quasi constants, ce qui simplifie l’installation. Une bâche tampon sera installée sur l’évaporateur en cas de variation importante de ces paramètres. Il en sera de même sur le condenseur en cas de charge thermique variable.

Ceci dépasse le cadre d’un bâtiment tertiaire. Et pourtant, des applications spécifiques sont parfois possibles avec une très bonne rentabilité. Parmi celles-ci, les supermarchés avec rayon surgelés conviennent particulièrement bien. Il est possible, par exemple, que la chaleur extraite des frigos soit utilisée pour chauffer le magasin ou le rideau d’air chaud à l’entrée du magasin (= condenseur de la PAC ainsi créée). En été, un clapet rejettera la chaleur vers l’extérieur.

Récupération de chaleur dans la grande distribution

Les supermarchés sont actuellement équipés d’un nombre de plus en plus important de meubles frigorifiques qui rendent parfois désagréable l’ambiance des allées empruntées par les clients.

Monsieur Marc Van Damme de la société alimentaire Delhaize a mis au point, en collaboration avec un fabricant espagnol de meubles frigorifiques verticaux, un système qui récupère la chaleur de l’unité de condensation du réfrigérateur du circuit frigorifique pour, en hiver, chauffer les allées des meubles frigorifiques.

Principe de fonctionnement

L’unité de condensation est installée sur le haut du meuble. La chaleur produite par le condenseur est récupérée et en hiver, celle-ci circule à l’arrière du meuble et est insufflée par la partie inférieure de celui-ci via une grille linéaire en inox. En été, cette chaleur est évacuée à l’extérieur du magasin par l’intermédiaire d’un conduit.

Conséquences

L’influence de cet équipement sur le chiffre d’affaires est évidente. En effet, une température douce aux rayons crémerie ou boucherie incite le client à faire ses achats dans une température confortable. Cette nouvelle technique permet également d’augmenter le confort pour l’ensemble du personnel qui doit régulièrement approvisionner ces linéaires. Cependant les gains réalisés au niveau des coûts d’exploitation amortissent facilement l’investissement.

Grâce à cette technique, l’air chaud à 40 °C ainsi récupéré et insufflé par le bas du meuble permet de maintenir dans l’allée une température de 23 °C. Ce qui est appréciable en hiver. Un système de sondes, installées en des points stratégiques du point de vente, permet un fonctionnement automatique du clapet été/hiver.

Un chauffage d’appoint est nécessaire en cas de températures extrêmes, pour le rideau d’air chaud à l’entrée du magasin, très « énergivore » et pour les zones éloignées non équipées de linéaires.

Découvrez cet exemple de PAC dans un supermarché de la région d’Anvers.

Armoires de climatisation

Armoires de climatisationArmoires de climatisation


Principe

Une armoire de climatisation constitue en quelque sorte un « caisson de traitement d’air vertical » surtout lorsqu’elles constituent la seule demande du bâtiment.

Elle s’installe généralement directement dans la pièce à climatiser. Typiquement, c’est la solution adoptée pour climatiser une salle informatique.

En pratique, cette armoire métallique verticale peut regrouper tous les éléments nécessaires au traitement

  • un filtre,
  • une batterie froide,
  • une batterie chaude (électrique ou à eau),
  • un humidificateur,
  • un ventilateur centrifuge.

On parle de climatiseur « autonome » parce que la batterie froide est généralement parcourue directement par le fluide frigorifique : la machine frigorifique est intégrée dans l’armoire et la batterie froide en constitue l’évaporateur. On parle alors de fonctionnement en « détente directe ».

Schéma de principe climatiseur "autonome".

On notera que la présence du compresseur dans le local impose une isolation acoustique sérieuse des paroi de l’armoire !

Mais il existe aussi des armoires de climatisation dont la batterie froide est raccordée à la boucle d’eau glacée du bâtiment.

Dans la plupart des cas, l’air repris est aspiré en partie inférieure et pulsé en partie supérieure de l’armoire, éventuellement via un réseau de gainage restreint.

Mais on peut imaginer une solution inverse où l’air est repris en partie supérieure puis distribué en partie inférieure via un faux plancher : c’est une belle solution dans les locaux informatiques où le passage de nombreux câbles impose de toute façon l’installation d’un faux plancher sur vérins. La distribution d’air froid autour des ordinateurs est alors idéale. On peut par exemple prévoir des dalles pleines de 60 x 60 pour porter le matériel et des dalles perforées pour servir de bouches de distribution. Une modification d’emplacement des ordinateurs ? Les dalles 60 x 60 sont interverties, sans problèmes puisque tout le faux plancher est mis sous pression et fait office de plénum de distribution !

Schéma de principe climatiseur "autonome"- 02.


Aspects technologiques

Photo armoires de climatisation.

Le chauffage de l’air

Suivant l’importance des gains gratuits dans le local, on peut envisager

  • soit de ne pas installer d’élément chauffant,
  • soit de placer une résistance électrique d’appoint, (investissement faible mais coût d’exploitation élevé),
  • soit d’insérer une batterie de chauffe alimentée par le réseau de chauffage du bâtiment,
  • soit enfin de sélectionner une machine frigorifique réversible, fonctionnant en pompe à chaleur en hiver.

L’humidification de l’air

Si l’humidité de l’air de l’ambiance doit être contrôlée, un humidificateur peut être incorporé à l’armoire de climatisation, généralement via un humidificateur à vapeur.

Cet humidificateur est parfois inséré au départ des gaines, si celles-ci sont existantes dans le prolongement de l’armoire.

Mais les armoires de climatisation se distinguent essentiellement au niveau du condenseur :

Le condenseur à air intégré à l’armoire

La paroi au dos de l’armoire est percée afin que le rejet de chaleur puisse se faire directement vers l’extérieur (attention au pont acoustique ainsi créé !). Il est également possible d’amener et d’évacuer l’air de refroidissement par gaine.

Le condenseur à air séparé

Le fluide frigorifique est directement refroidi dans le condenseur placé à l’extérieur (sur une terrasse, sur le sol,…). L’éloignement est limité afin de ne pas amplifier les pertes de charge sur le circuit du fluide frigorifique. La surélévation du condenseur doit être limitée pour pouvoir gérer le retour de l’huile vers le compresseur.

Schéma de principe condenseur à air séparé.

Le condenseur à eau recyclée

Cette fois, le condenseur est refroidi par de l’eau glycolée, eau qui est elle-même refroidie à l’extérieur.

L’installation est très souple : plus de contraintes liées à la distance entre armoire et refroidisseur, ou à la différence de niveaux. Il est même possible de raccorder plusieurs armoires sur la même boucle de refroidissement.

Mieux, il est facile à présent de récupérer cette chaleur pour préchauffer de l’air de ventilation, de l’eau chaude sanitaire,…

Pour refroidir l’eau de refroidissement, on rencontre trois types d’échangeur avec l’air extérieur :

L’aéro-refroidisseur : l’eau est refroidie dans un échangeur à air; un ou plusieurs ventilateurs forcent le passage de l’air extérieur pour accélérer le refroidissement. Un mode de régulation très simple consiste à actionner le(s) ventilateur(s) en fonction de la température de la boucle d’eau. Seul inconvénient : la performance frigorifique de l’armoire de climatisation ne sera pas excellente. En effet, la température de la boucle d’eau va monter avec la température extérieure. En plein été, le condenseur sera mal refroidi, la pression en sortie de compresseur sera plus élevée, le rendement de la machine frigorifique va se dégrader… Et ceci est renforcé par la présence du double échangeur (fluide/eau glycolée – eau glycolée/air). L’usage de l’aérorefroidisseur sera dès lors limité à des moyennes puissances.

La tour de refroidissement ouverte : cette fois, l’eau de refroidissement du condenseur est pulvérisée à contre-courant du débit d’air extérieur pulsé par un ventilateur. L’échange est particulièrement efficace et, surtout, il entraîne l’évaporation d’une partie de l’eau pulvérisée. Or, cette vaporisation entraîne un fort refroidissement de l’eau. A tel point que l’eau peut descendre sous la température de l’air extérieur. Un tel refroidissement permet de limiter la pression du condenseur et donc de diminuer le travail du compresseur. Si c’est la meilleure solution énergétique, elle pose par contre assez bien de problèmes au service de maintenance (corrosion, encrassement, gel,…). C’est la conséquence d’un circuit ouvert aux conditions atmosphériques… Pour plus de détails, on consultera le choix de la tour de refroidissement ouverte.

La tour de refroidissement fermée : un compromis à la belge ! Les avantages de l’évaporation de l’eau … sans les inconvénients du circuit ouvert (corrosion). En pratique, le circuit de l’eau de refroidissement reste fermé, l’eau glycolée n’est plus en contact avec l’air extérieur, mais l’échangeur est aspergé par de l’eau qui, elle, « tourne » de façon totalement indépendante du circuit de refroidissement. Bien sûr, la température de l’eau de refroidissement est plus élevée que dans la tour ouverte.

Le condenseur à eau perdue

Par « eau perdue », on entend :

  • Soit de l’eau de ville qui serait évacuée vers l’égout après usage : solution à proscrire vu le coût du m³ d’eau… !
  • Soit de l’eau issue d’une source naturelle (rivière, lac, puits,…) : cette solution est économique à l’exploitation, mais les coûts d’investissement sont très variables d’une situation à l’autre… L’efficacité énergétique de l’installation frigorifique est excellente puisque la température de condensation sera 8…10°C plus chaude que la température de l’eau puisée. Reste à vérifier que le captage (et/ou le réchauffage de l’eau) est autorisé par la réglementation locale ou régionale… (les choses évoluent beaucoup dans ce domaine, il est donc prudent de s’informer directement auprès des personnes concernées).

Régulation

La régulation en température du local peut se faire via un simple régulateur thermostatique. Imaginons le démarrage au matin en mi-saison, la résistance électrique est enclenchée. Puis la présence du personnel, des équipements permet à la température de rester en « zone neutre » sans intervention du climatiseur. En début d’après-midi, des apports solaires importants entraînent une surchauffe et l’enclenchement du groupe frigorifique.

La présence d’une cascade sur l’enclenchement des résistances chauffantes, la régulation progressive via par un variateur de puissance (résistance électrique) ou par une vanne (batterie à eau chaude) entraînera un meilleur confort, une stratification de températures plus faible et donc une consommation moindre. De même une régulation à vitesse variable sur le motocompresseur sera bénéfique.

  

Un principe de régulation similaire est possible pour contrôler le niveau d’humidité.

La déshumidification est ici réalisée via la condensation de la vapeur d’eau ambiante sur l’évaporateur de l’armoire. Le compresseur est alors mis en route pour déshumidifier.

Grandeurs hygrométriques

Grandeurs hygrométriques


 

La pression partielle de vapeur

L’air que nous respirons contient toujours un peu de vapeur d’eau. On peut considérer cette vapeur comme un gaz, dont la pression fait partie de la pression atmosphérique. La pression de la vapeur d’eau, à elle seule, est dénommée pression partielle de vapeur d’eau, et est représentée par le symbole pv. Ainsi, la vapeur d’eau contenue dans un air à 20°C et 50 % HR présente une pression de vapeur partielle de 1 170 Pa (par comparaison, la pression atmosphérique est de 101 300 PA).

Si la pression de la vapeur d’eau atteint sa valeur maximale, il y a saturation de l’air et on parle de pression partielle de la vapeur d’eau à la saturation, ou de pression saturante pvs.

Il est possible de calculer la valeur de la pression de saturation en fonction de la température.


L’humidité absolue

L’humidité absolue [geau/kgair sec] représente le nombre de grammes de vapeur d’eau présents dans un volume donné, rapporté à la masse d’air sec de ce volume exprimé en kilogramme.

Dans le système d’unités SI, on utilisera le kgeau/kgair sec. Comme symbole, les lettres « x », ou « w », ou « r » sont généralement utilisées.

Puisque 1 m³ d’air pèse environ 1,2 kg, en ajoutant 20 % à la valeur de l’humidité absolue, on obtient la quantité d’eau présente par m³ d’air.
Exemple : de l’air à 20°C, 50 % HR, contient 7,36 grammes d’eau par kg, soit 8,7 grammes d’eau par m³.

Nous donnons ci-dessous quelques valeurs indicatives :

Température
[°C]
Humidité absolue en
[geau/kgair sec]
A à l’extérieur en hiver
(HR = 80 %)
-5 2,1
B dans un local
(HR = 60 %)
18 7,8
C dans un local
(HR = 60 %)
20 8,8
D à l’extérieur en été
(HR = 70 %)
25 14

Ces valeurs d’humidité absolue sont lues sur les ordonnées d’un diagramme de l’air humide.

On voit donc que, pour des climats « standards », plus la température augmente et plus l’humidité absolue est élevée (plus l’air peut porter de l’eau à l’état vapeur).

Dans nos régions, on peut dire qu’en hiver l’air est « sec », même s’il pleut dehors (parce que l’humidité absolue est faible), et qu’en été, l’air est « humide » même s’il y a du soleil (parce que l’humidité absolue contenue par m³ d’air est élevée).

Il est possible de calculer l’humidité absolue en fonction de la pression partielle.


L’humidité relative

L’humidité relative s’exprime en %.

C’est le rapport entre la pression partielle de vapeur d’eau « pv » et la pression de saturation de la vapeur d’eau « pvs« . Le symbole représentatif est souvent .

φ = 100 . p/ pvs

En bonne approximation, sa valeur est proche du rapport entre l’humidité absolue portée par l’air et l’humidité absolue maximale qu’il peut porter lorsqu’il est saturé. Ceci donne une signification intuitive à cette grandeur : pour une température donnée, elle caractérise en somme la faculté que possède l’air d’absorber encore de la vapeur d’eau avant qu’elle ne condense. Par exemple, 40 % d’humidité relative signifie que l’air peut absorber encore beaucoup de vapeur d’eau puisqu’il n’est qu’à 40 % de la saturation. A 100 %, on est à la limite de la saturation de l’air par la vapeur d’eau, du brouillard apparaît.

Ci-dessous, quelques valeurs d’humidité relative obtenues en chauffant l’air extérieur qui pénètre dans un bâtiment par les joints de fenêtres ou les ouvertures.

Température [°C] Humidité absolue [geau/kgairsec] Humidité
relative [%]
Remarques
A automne
(matin)
6,5 6 100 brouillard ou pluie
B automne 10 6 79 brouillard ou brume
C chauffé à 15 6 57
D chauffé à 18 6 47
E chauffé à 20 6 41

Les courbes d’humidité relative sont aisément identifiables sur le diagramme de l’air humide.


L’enthalpie spécifique

L’enthalpie spécifique représente la quantité de chaleur contenue dans l’air humide dont la masse d’air sec est de 1 kg. C’est donc la somme de la chaleur sensible (liée à la température de l’air) et de la chaleur latente (liée à l’énergie de la vapeur d’eau qu’il contient).

Par convention, on a fixé l’enthalpie de l’air sec à 0°C comme étant zéro. De l’air à – 10°C peut donc avoir une enthalpie négative.

Le symbole représentatif est généralement h. Il s’exprime en kJ/kgair sec.

h = enthalpie de l’air sec + enthalpie de la vapeur, soit approximativement :

h = 1,006 . η+ x . (2 501 + 1,83 . η )    [kJ/kg air sec]

où, x est l’humidité absolue et η la température

L’enthalpie contenue dans l’air peut également être lue sur le diagramme de l’air humide.

Exemple :

Soit η= 25°C et x = 0,008 kgeau/kgair,

alors h = 1,006 . 25 + 0,008 . (2 501 + 1,83 . 25) = 45,5 kJ/kg air sec


Le volume spécifique et la masse volumique

Le volume spécifique représente le volume occupé par l’air humide dont la masse d’air sec est de 1 kg. Son symbole est généralement « v ».

Exemple.

un air de 20°C et 50 % HR présente un volume spécifique de 0,84 m³/kgair sec.

La masse volumique représente la masse d’air sec occupé par 1 m³ d’air humide. Son symbole est généralement « ρ ».

Exemple.

un air de 20°C et 50 % HR présente une masse volumique de 1,18 kgair sec/m³

Il est possible de calculer ces valeurs.


La température de rosée

Imaginons de l’air qui serait refroidi, tout en gardant son humidité absolue constante. Cet air va perdre de plus en plus la faculté de porter de l’eau à l’état vapeur. Au moment où tout l’air sera saturé, et que diminuer encore la température engendrerait la condensation partielle de la vapeur d’eau, on sait que l’on a atteint la température de rosée de l’air. Son symbole est ηr ou tr.

Sur le diagramme de l’air humide, la température de rosée d’une ambiance correspond à l’intersection entre l’horizontale du point d’ambiance et la courbe de saturation.

Il est possible de calculer cette valeur en fonction de la pression partielle de vapeur.


La température « bulbe humide »

La température bulbe humide ou température humide est la température indiquée par un thermomètre dit « à bulbe humide », ou psychromètre. Avant l’arrivée des appareils de mesure électroniques, il permettait de mesurer le taux d’humidité d’un local. Le procédé est le suivant :

Deux thermomètres sont soumis à un flux d’air forcé. Le premier indique la température de l’air de l’ambiance. Le deuxième est entouré d’ouate humide. L’air qui entre dans l’ouate s’humidifie. Il se refroidit également puisque l’eau s’évapore et prélève la chaleur de vaporisation nécessaire dans l’air.

En bonne approximation, sur le diagramme de l’air humide, l’air suit une isenthalpique et atteint la saturation. Connaissant la température à la saturation et la température normale, on peut déduire le taux d’humidité relative de l’air sur le diagramme.

Le symbole de la température humide est ηh ou th.

Il est possible également de calculer cette valeur.


Les relations entre grandeurs hygrométriques

Il est souvent plus rapide de consulter un abaque ou le diagramme de l’air humide, mais les relations mathématiques reprises ci-dessous entre les grandeurs peuvent être utiles notamment lors d’une automatisation de la régulation, avec programmation entre ces variables.

Entre la pression de vapeur saturante et la température η , en présence d’eau liquide (η> 0°C)

pvs = 102,7877 + (7,625 . η ) / (241,6 + η )

Exemple.

A 25°, la pression de vapeur saturante est de :

pvs = 102,7877 + (7,625 . 25) / (241,6 + 25) = 3 182 PA, (contre 3 167 en réalité)

Entre la pression de vapeur saturante et la température η , en présence de glace (η < 0°C)

pvs = 102,7877 + (9,756 . η ) / (272,7 + η)

Entre l’humidité absolue et la pression partielle de vapeur d’eau

L’humidité absolue « ²w » est liée à la pression partielle de vapeur d’eau « pv » par la relation :

x = 0,622 . (p/ (Patm – pv))

où,

  • x est exprimé en kg eau/kg air sec
  • pv est la pression partielle de vapeur d’eau
  • P est pression totale de l’air humide, que l’on peut en première approche prendre égale à la pression atmosphérique, soit 101 300 Pa
Exemple.

A 29°C et une pression partielle de vapeur de 2 000 Pa, on obtient :

x = 0,622 . (2 000 / (101 300 – 2 000)) = 0,0125 kg eau/kg air sec, soit 12,5 g eau/kg air sec.

Entre l’enthalpie, la température et l’humidité absolue

h = 1,006 . η + x . (2 501 + 1,83 . η ) en kJ/kg air sec

où,

  • x est l’humidité absolue et η la température
Exemple.

soit η = 25°C et x = 0,008 kgeau/kgair sec,

alors h = 1,006 . 25 + 0,008 . (2 501 + 1,83 . 25) = 45,5 kJ/kg air sec

Entre l’enthalpie, la température et l’humidité relative

h = 1,006 . η+ [0,622 . (p/ (Patm – pv))] . (2 501 + 1,83 . η) en kJ/kg air sec

avec p= φ  . pvs =φ . 102,7877 + (7,625 . η ) / (241,6 + η )

où,

  • φ est l’humidité relative
  • η la température
  • pvs est la pression de saturation
Exemple.

soit η= 16°C et φ = 53 % HR,

on déduit :

p= (φ /100) . pvs = 0,53 . 102,7877 + (7,625 . 16) / (241,6 + 16) = 967,3 Pa

h = 1,006 . 16 + 0,622 . (967,3 / (101 300 – 967,3)) . (2 501 + 1,83 . 16) = 31,3 kJ/kg

Entre le volume spécifique, la température et l’humidité absolue

v = (461,24 . (0,622 + x) . T) / P

où,

  • x est l’humidité absolue en kg eau / kg air sec
  • T est la température absolue = η + 273,15°C
  • P = pression totale de l’air humide, que l’on peut en première approche prendre égale à la pression atmosphérique, soit 101 300 Pa
Exemple.

soit η = 25°C et x = 0,008 kgeau/kgair,

v = (461,24 . (0,622 + 0,008) . (273,15 + 25)) / 101 300 = 0,855 m³/kg air sec

Entre la température de rosée et la pression partielle de vapeur

Si η > 0°C, η= 31,685 . x / (1 – 0,1311 . x)

Si η< 0°C, η= 27,952 . x / (1 – 0,1025 . x)

où,

  •  x = log 10 (pv / 613,34)
Exemple.

soit η = 25°C et pv = 1 600 PA, alors :

 x = log 10 (1 600 / 613,34) = 0,416

ηr = 31,685 . 0,416 / (1 – 0,1311 . 0,416) = 13,9°C

Entre la température bulbe humide et la pression partielle de vapeur
La relation suivante est empirique :

p= pvsη h – K . P (η – η h)

où,

  • pv est la pression partielle de vaporisation
  • pvsηh est la pression de vapeur saturante correspondant à ηh
  • K est une constante valant 6,6 x 10-4 pour η h > 0°C et 5,6 x 10 -4 pour ηh < 0°C
  • P est la pression totale de l’air humide, que l’on peut en première approche prendre égale à la pression atmosphérique, soit 101 300 Pa
Exemple.

soit la lecture suivante sur un psychromètre :

η = 20°C et ηh = 15°C.

Quelle est l’humidité relative dans la pièce ?

pvs = 102,7877 + (7,625 . η ) / (241,6 + η)

Si η= 15°C, pvs η h = 102,7877 + (7,625 . 15) / (241,6 + 15) = 1 711 PA </i.si>

p= pvs ηh – K . P (η- ηh) = 1 711 – 6,6 . 10-4 . 101 300 . (20 – 15) = 1 377 PA

A 20°C, pvs = 102,7877 + (7,625 . 20) / (241,6 + 20) = 2 347 PA

L’humidité relative est donc de :

φ = p/ pvs = 1 377 / 2 347 = 59 %

 

Échangeur à régénération

Échangeur à régénération


Principe

Le principe général des récupérateurs par accumulation ou encore appelé récupérateurs à régénération est de récupérer la chaleur contenue dans l’air extrait en faisant transiter cet air au travers d’un matériau accumulateur. Ce matériau accumulateur est ensuite soumis au flux d’air neuf et lui cède sa chaleur.

Le matériau accumulateur peut être imprégné ou non d’un produit hygroscopique de manière à permettre les échanges tant de chaleur sensible que d’humidité.

Il existe plusieurs types de récupérateur applicant cette technique.

Les roues

Photo roues.

Échangeur rotatif.

Un matériau accumulateur cylindrique en rotation lente (de 5 à 20 tours/min) est traversé dans une direction par l’air rejeté et dans l’autre par l’air neuf. Il se compose d’un média de transfert en aluminium, acier inoxydable ou matériau synthétique formant de très nombreux petits canaux.

Le matériau accumulateur est alternativement traversé par l’air chaud rejeté où il se charge d’énergie, et l’air neuf froid où il se décharge. En vue d’éviter le mélange d’air neuf et d’air rejeté, il est prévu un secteur de nettoyage dans lequel l’air rejeté est chassé par l’air neuf. Une légère contamination est toutefois inévitable. Dans certains cas, le transfert d’humidité est aussi à l’origine de transferts d’odeurs ou de germes et ceci limite l’emploi de tels échangeurs.

Schéma principe roues.

Une faible consommation d’énergie électrique est nécessaire pour entraîner la rotation de la roue. Les pertes de charge sont assez faibles.

Les écoulements aérauliques d’air neuf et d’air repris doivent être disposés de telle façon que la circulation de l’air s’effectue à contre-courant. Sinon, étant donné la très fine structure du matériau accumulateur, le rotor pourrait s’encrasser très rapidement, tout particulièrement sur la face avant.

Par contre, un écoulement des veines d’air à contre-courant permet ce qu’on appelle un effet d’auto-nettoyage car toute poussière qui se serait déposée sur la face avant de chacune des moitiés du rotor (donc en amont de l’échangeur tant sur l’air neuf que sur l’air repris) serait délogée dans l’autre moitié du rotor puisque l’air y circule dans l’autre sens. C’est pourquoi, en règle générale, on ne prévoit pas de filtre en amont d’un échangeur rotatif et ce tant sur l’air neuf que sur l’air repris.

Par ailleurs, il est à signaler que la fine structure du matériau accumulateur du rotor l’oblige à tourner sans arrêt (à la vitesse minimale) ou tout au moins par intermittence même en période où l’on ne souhaite pas de récupération de chaleur ou de froid et ce afin d’éviter tout risque de colmatage par encrassement des petits canaux du matériau accumulateur.

Les régénérateurs statiques à clapet unique

Dans un régénérateur statique à clapet, le trajet de l’air est modifié par un clapet pour que le medium accumulateur soit alternativement traversé par l’air neuf et l’air recyclé.

Cycle de fonctionnement d’un régénérateur statique à clapet unique.

Par rapport à la roue, ce système présente 2 inconvénients au moment du basculement du clapet :

  • Les ventilateurs de pulsion et d’extraction se retrouvent durant un cours instant en série, créant des perturbations aérauliques.
  • La contamination peut être importante. Elle sera fonction de la distance qui sépare le récupérateur de la grille extérieure d’extraction. En effet, au moment de basculement, l’entièreté de l’air vicié contenu dans ce tronçon va être emporté avec l’air neuf.

Les régénérateurs statiques à volets

Le principe de fonctionnement de ces régénérateurs est identique au régénérateur à clapet unique, à la différence près que le jeu des volets permet de limiter le risque de contamination. La quantité d’air vicié entraîné dans l’air neuf au basculement des volets ne correspond plus qu’au contenu du récupérateur, soit environ 3 % de l’air pulsé.

Cycle de basculement des volets : environ toutes les minutes.


Facteur influençant le rendement

Prenons un exemple de roue :

Soit un débit de 15 000 m³/h (4,2 m³/s) pour un modèle de roue type 240 et un rapport Volume Air neuf / Volume air vicié de 1, le graphique du constructeur fournit un rendement de 80 %. soit le diagramme suivant fourni par le constructeur :

Courbe de rendement.

Le 2ème graphe permet également de calculer la température de sortie air neuf (t2).

Pour une température d’air rejeté t= 22°C et d’air neuf t= – 10°C (t– t= 32°C), on trouve t= 17°C.

Dans le graphe ci-dessous on peut percevoir l’influence de la vitesse de rotation de la roue sur le rendement de l’échange.

Influence de la vitesse de rotation de la roue sur le rendement.

Les rendements d’échange sont généralement très élevés; ils sont essentiellement fonction de :

  • la nature du matériau accumulateur,
  • la vitesse de l’air et de la vitesse de rotation de la roue ou de basculement, ces deux dernières variables déterminant le temps de passage de l’air dans l’échangeur.

> l’efficacité thermique se situe généralement entre 75 – 95 %.


Avantages – Désavantages

Avantages

  • Dépendant du média de transfert choisi, l’énergie sensible et l’humidité peuvent être transférées, ce qui permet de diminuer la taille de l’humidificateur éventuel,
  • rendement très élevé (de 75 à 95%),
  • perte de charge relativement faible en comparaison de l’efficacité,
  • faible encombrement pour la roue,
  • fonctionnement été possible dans le cas de matériau hygroscopique,
  • pas d’évacuation de condensats,
  • encrassement et givrage limité du fait de l’inversion régulière du sens des flux d’air (la filtration reste cependant obligatoire).

Désavantages

  • Contamination de l’air neuf possible, principalement avec les régénérateurs statiques à clapet unique.
  • amenée et évacuation d’air doivent être adjacentes,
  • consommation d’énergie pour l’entraînement de la roue,
  • nécessité de l’entretien du système d’entraînement,
  • dans les roues la section de purge qui limite la contamination réduit l’efficacité de récupération,
  • le rendement est influencé par les positions relatives de l’échangeur de récupération et des ventilateurs de pulsion et de reprise.

Régulation

En demi-saison

Un système de régulation est nécessaire en mi-saison et en été pour éviter la surchauffe de l’air à la sortie du récupérateur : il faut réduire l’échange pour éviter que la température de l’air neuf devienne telle qu’elle contribue à surchauffer l’ambiance intérieure.

Lorsqu’en demi-saison il y a apparition de charges qui nécessitent de souffler dans les locaux de l’air plus froid que la température ambiante de consigne il est alors nécessaire de pouvoir réguler la puissance de l’échangeur de chaleur grâce à une variation de vitesse de rotation de la roue ou un by-pass du régénérateur.

En hiver

Dans les récupérateurs à batteries (échangeurs à plaques, à eau glycolée), si l’échange est tel que la température de l’air extrait chute sous 0°C, il faut réduire le transfert de chaleur pour éviter le givre de l’échangeur.

Dans les récupérateurs par accumulation, on peut partir de la règle empirique suivant laquelle il n’y a risque de gel que lorsque la moyenne des températures de l’air neuf et de l’air repris tombe en dessous de 0 °C et que, simultanément, il y a excès d’humidité dans l’accumulateur, c’est-à-dire que l’humidité qui s’est condensée côté air repris n’a pas pu être entièrement absorbée par l’air neuf.

Dans le cas contraire, le risque d’accumulation de givre du côté de l’air extrait est minime puisqu’à chaque cycle, ce côté est réchauffé. Ceci permet de profiter de la pleine puissance de récupération même pour des températures hivernales extrêmes et de tenir compte de cette puissance dans le dimensionnement des batteries de chauffage et des chaudières.

Dans certains cas particuliers (fonctionnement nocturne, faible température ambiante, rapport débit air neuf/air repris défavorable), il faut s’en remettre à l’expérience du fabricant. S’il y a risque de gel de l’échangeur, la solution consiste là aussi à faire varier la vitesse de rotation de la roue ou à by-passer l’accumulateur. Lorsqu’on diminue la puissance de récupération de la roue en hiver, la batterie de chauffage se trouvant après le récupérateur doit être dimensionnée en conséquence.


Entretien

Le contrôle de l’état de propreté de l’équipement de récupération est primordial.

En effet, l’encrassement des surfaces d’échange a deux conséquences néfastes sur la récupération : la réduction du coefficient d’échange de chaleur et la réduction des débits d’air.

Le tableau ci-dessous donne les différents points à contrôler lorsque l’on fait la maintenance :

Échangeur rotatif

v

1 État des surfaces d’échange (nettoyage régulier)

X

Contrôle des éventuelles fuites d’air
fuites externes

X

fuites internes

X

fuites par turbulences

X

fuites au niveau du clapet de by-pass

X

3 – Contrôle de la régulation
régulation de la vitesse de rotation

X

régulation du / des clapets de by-pass

X

régulation antigel

X


Exemple

En vue de comparer les différents systèmes de récupération, nous développons ici le calcul du rendement de l’installation pour les différents systèmes de récupération présentés.

Prenons comme exemple une installation de traitement d’air d’un immeuble de bureaux, fonctionnant en tout air neuf, 10 heures/jour, 5 jours/semaine.

Les groupes de pulsion et d’extraction GP/GE sont de même débit : 21 000 m³/h – section de 1 525 x 1 525 mm, soit une vitesse d’air de 2,5 m/s.

Dans le cas d’un échangeur rotatif à régénération, on déduit du catalogue du constructeur :

  • le choix d’une roue sélectionnée au point de vue prix, dans sa configuration la plus chère, c.-à-d. avec caisson de visite en amont et en aval ainsi qu’avec sa régulation de vitesse,
  • le fonctionnement dans les conditions extrêmes :

  • l’évolution dans le diagramme de l’air humide :

On constate que l’air extrait donne chaleur et humidité à l’air neuf qui voit sa température augmenter ainsi que son taux d’humidité absolue.

  • l’efficacité thermique instantanée :

ε= t– t/ t– t= (14,3 – (- 10)) / (22 – (- 10)) = 0,76 = 76 %

L’équipement sélectionné a entraîné les températures de sortie des fluides. On en déduit que le récupérateur a donné un accroissement de température de l’air neuf de 76 % de l’écart maximal entre les fluides, soit 0.76 x 32° = 24,3°.

Remarque : cette fois, le rendement thermique (rapport des enthalpies) donnerait une valeur identique :

η = h– h/ h– h= (29,5 – (- 6,5)) / (41 – (- 6,5)) = 0,76 = 76 %

Ceci montre que 76 % de l’énergie latente à été transférée simultanément aux 76 % de transfert d’énergie sensible).

La puissance maximale récupérée doit être estimée par le bilan enthalpique :

Pmax. réc. = 0,34 [W/(m³/h).°C] x 21 000 [m³/h] x (29,5 – (- 6,5)) = 251 [kW]

0,34 [W/(m³/h).°C] = chaleur spécifique de l’air

Si l’humidification de l’air est réalisée via une pulvérisation d’eau froide, une réduction de la puissance de la chaudière à installer de 251 kW est à prévoir. Si par contre l’humidification est réalisée par pulvérisation de vapeur, la chaudière sera diminuée de la puissance sensible (170 kW) et le système de production de vapeur sera réduit de la puissance latente (81 kW).

L’efficacité thermique, calculée dans les conditions extrêmes (- 10°C), reste sensiblement identique aux autres températures de la saison de chauffe. Aussi, la température moyenne extérieure en journée étant de 8°C, la puissance moyenne récupérée sera de :

Pmoy. réc. = 251 [kW] x (22° – (8°)) / (22° – (- 10°)) = 110 [kW]

Cela entraîne une économie thermique de :

Eréc = 110 [kW] x 10 [h/j] x 5 [j/sem] x 35 [sem] / 0,8 = 240 370 [kWh]

Le facteur 0.8 correspond au rendement saisonnier de la production de chaleur pour une installation nouvelle et dont les conduites sont isolées. On prendrait 0.7 pour une installation plus ancienne. 35 semaines correspondent à la durée de la saison de chauffe.

Suite à la présence du récupérateur, les puissances des ventilateurs sont modifiées comme suit :

Avant Après
GE GP GE GP
2,2 kW 5,2 kW 3,7 kW 6,2 kW

Ce à quoi il faut ajouter une puissance de 0,2 kW pour le moteur de la roue.


Visualisation de la récupération de la chaleur latente

Le diagramme ci-dessous fournit cette fois la courbe des fréquences cumulées des enthalpies tout au long d’une année. C’est le même principe que pour la courbe cumulée des températures mais cette fois-ci on pense en terme d’enthalpie pour tenir compte de l’énergie totale (latente + sensible).

On peut y lire le travail réalisé par un récupérateur de type « roue », dont l’efficacité a été choisie à 75 % (valeur maximale). L’air neuf est pulsé en permanence à 16° – 55 % HR, tandis que l’air vicié est extrait à 18° – 60 % HR.

Le « travail » du récupérateur y est visualisé, en hiver comme en été, et on peut y repérer également la régulation de la vitesse de rotation de la roue : pour ne pas entraîner de surchauffe en mi-saison, la roue est ralentie. En été, dès que l’enthalpie de l’air extrait devient inférieure à celle de l’air extérieur, la roue est remise à la vitesse maximale.

Exemple de fonctionnement d’un échangeur rotatif (Courbes d’enthalpies).

Image par défaut pour la partie Concevoir

Choisir la motorisation de l’ascenseur à traction

Image par défaut pour la partie Concevoir

Choix de la motorisation avec ou sans réducteur ?

Sur le plan des performances de confort et de trafic, les différents types de motorisation conviennent dans la plupart des cas. En effet, le dimensionnement de l’installation dépendant surtout de la charge et de la vitesse à atteindre, la gamme disponible sur le marché est assez large pour satisfaire l’ensemble des performances souhaitées, quel que soit le type de motorisation.

Pour cette raison, on différentie plutôt les motorisations à traction en fonction des critères principaux suivants :

  • le rendement global,
  • la performance énergétique,
  • l’encombrement des équipements.

Les critères secondaires, mais néanmoins importants, prennent en compte le poids, la consommation d’huile, le niveau acoustique, …

Rendement global de la motorisation

Le rendement global de la motorisation influence le dimensionnement de l’installation et les consommations futures. En effet, à puissance mécanique égale (pour déplacer la charge), meilleur sera le rendement de la motorisation, moins :

  • le surdimensionnement du moteur et de l’installation électrique sera important,
  • les consommations énergétiques durant la vie de l’ascenseur seront grandes,
  • les chutes de tension en ligne perturberont le réseau électrique interne voire externe.

On adopte une règle immuable en terme de rendement :

Plus les équipements de la motorisation sont nombreux,
moins bon est le rendement !

On sait que :

Pélectrique = Pmécanique /  η global de motorisation

Où :

  • Pmécanique est la puissance mécanique à l’arbre du treuil,
  • η global de motorisation est le rendement de la motorisation.

Le rendement global de la motorisation :

η global = ηélectr_commande x ηélectr_moteur x ηmécan_réducteur x ηmécan_treuil

Le cas des moteurs à traction avec réducteur de vitesse, par rapport à la même motorisation sans réducteur, montre que les intermédiaires occasionnent des pertes et, par conséquent, réduisent la puissance mécanique disponible à la roue de traction pour une même puissance électrique absorbée.

Le tableau suivant permet de comparer les différents rendements globaux en fonction du type de motorisation et en présence ou non d’un variateur de vitesse électronique.

Performance énergétique

Indépendamment du rendement global de la motorisation, la maîtrise de la performance énergétique passe surtout par l’optimisation des courants de démarrage. En effet, le fonctionnement des ascenseurs est plus une succession de démarrages et d’arrêts, où le courant absorbé peut être très important, que de longues courses à courant nominal plus réduit. Ceci est d’autant plus vrai que le trafic est intense; ce qui est le cas des bâtiments du secteur tertiaire.

Il va de soi, qu’à l’heure actuelle, le variateur de vitesse devient un gage de performance énergétique certain et que de prévoir un nouveau projet de conception sans cet équipement :

  • priverait les utilisateurs d’un confort renforcé (démarrage progressif, mise à niveau précise, …),
  • occasionnerait des consommations inutiles et des appels de puissance pénalisants au niveau de la pointe quart-horaire.

Le marché s’oriente vers les motorisations avec ou sans réducteur (« gearless ») mais équipés d’un variateur de vitesse statique cumulant différents avantages comme :

  • le contrôle permanent du couple et de la puissance en optimisant les courants de démarrage et les consommations,
  • la possibilité de renvoyer de l’énergie sur le réseau électrique durant le freinage,

 

Commande par variation de fréquence.

Sans tenir compte du rendement de la motorisation, la performance énergétique est en fait liée principalement à la gestion des démarrages et des arrêts par le variateur de vitesse.

L’analyse effectuée par le CADDET (Centre for the Analysis and Dissémination of Demonstrated Energy Technologies) sur les consommations d’une motorisation classique par rapport à une motorisation innovante, a mis en évidence des différences énergétiques importantes :

Paramètres
Type de motorisation
Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 1 1
Charge de l’ascenseur [kg] 630 630
Puissance du moteur électrique [kW] 5,5 3,3
Calibre de la protection moteur [A] 35 16
Nombre de courses pour 3 mois 27 444
Consommation électrique pour 3 mois [kWh/3 mois] 958 447

Il est clair que l’économie est importante (53 %). Toutefois, pour être tout à fait neutre dans l’étude, la motorisation sans réducteur de vitesse et équipée d’un variateur de fréquence, devrait être comparée à une motorisation classique avec réducteur à vis sans fin, équipée aussi d’un variateur de fréquence. Les économies seraient moins importantes mais tout de même en faveur de la motorisation sans réducteur, de part le meilleur rendement.

Si on reprend le graphique des rendements et qu’à la motorisation classique on adjoint un variateur de vitesse de caractéristiques similaires (au niveau énergétique) à celles du « gearless », l’économie réalisée sur la gestion énergétique optimale du variateur de vitesse est de l’ordre de 31 %. On a donc tout intérêt à envisager une motorisation sans réducteur.

Paramètres
Type de motorisation + variateur de vitesse
Traction classique avec réducteur à vis sans fin Sans réducteur ou « Gearless »
Rendement ~ 0,55 ~ 0,77
% d’économie énergétique due au rendement  ~ 22
% d’économie due au variateur de fréquence ~ 31 %

Évaluer

 Pour en savoir plus sur l’estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’une motorisation, cliquez ici !

Encombrement

Une réduction des coûts d’investissement et un gain de place sont liés à la limitation de l’espace nécessaire à la machinerie.

Un constructeur annonce une réduction de l’ordre de 25 % de l’investissement nécessaire à la conception d’un ascenseur sachant que la salle des machines n’est plus nécessaire; ce qui rend le critère d’encombrement crédible.

Concevoir

Pour en savoir plus sur le choix du type d’ascenseur, cliquez ici !

Ici encore, la motorisation sans réducteur (« gearless ») vient révolutionner le monde des ascenseurs dans le sens où la compacité de ce système est impressionnante au point de pouvoir concevoir des projets d’ascenseurs sans salle des machines, en plaçant directement la motorisation dans la gaine et l’armoire de commande compacte à même le dernier palier de l’ascenseur par exemple.

  

Compacité de la motorisation sans réducteur « gearless ».

Critères secondaires

Les critères secondaires, mais non des moindres, permettent d’affiner le choix de la motorisation. On citera principalement :

  • le poids,
  • la consommation d’huile,
  • le niveau sonore.

La même analyse effectuée par le CADDET (Centre for the Analysis and Dissémination of Demonstrated Energy Technologies) donne des résultats concernant la comparaison des motorisations classiques (moteur à deux vitesses à réducteur à vis sans fin par rapport à une motorisation sans réducteur). Le poids de la motorisation sans réducteur permet d’envisager des projets de conception plus « léger » au niveau de la stabilité.

Type de motorisation
Paramètres Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 1 1
Charge de l’ascenseur [kg] 630 630
poids de la motorisation [kg] 430 230
Niveau acoustique [dB] 65-75 50-55
Nombre de courses pour 3 mois 27 444
Quantité d’huile nécessaire [litres] 3,5

Choix du variateur de vitesse

L’intervention du maître d’ouvrage dans le choix du variateur de vitesse se résumera à conscientiser le bureau d’étude ou le constructeur à tenir compte de différents aspects :

Rendement

Le rendement du variateur de vitesse varie en fonction de la charge et de la vitesse du moteur. En général, il se situe aux alentours de 90-95 %.

Surcouple de démarrage et choix de la puissance

Certains variateurs de vitesse sont prévus pour accepter pendant le démarrage un surcouple (160 % par exemple). Le choix de la puissance d’un variateur de vitesse doit être réalisé pour que le couple donné par le variateur de vitesse au moteur soit le plus proche possible du couple nominal de l’ascenseur; le dimensionnement en tiendra compte.

Concevoir

Pour en savoir plus sur le dimensionnement du variateur de vitesse, cliquez ici.

Le besoin de refroidissement

Les variateurs de fréquence doivent évacuer leurs pertes calorifiques. Le choix du variateur se basera sur la quantification de cette perte et la possibilité d’avoir recours uniquement à la ventilation naturelle.

La compatibilité électromagnétique

La compatibilité électromagnétique des variateurs de vitesse par rapport à leur environnement est importante pour le limiter les perturbations du réseau électrique du bâtiment. En effet, la génération d’harmoniques par le variateur peut entraîner des déclenchements intempestifs de protections, la perturbation des ordinateurs, …

Le choix du variateur tiendra compte de la directive CEM et de la marque CE des équipements.

La récupération d’énergie

Dans le choix d’un variateur de fréquence, on prendra en compte aussi la possibilité de renvoi d’énergie au réseau lors du freinage de l’ascenseur ou lors de la descente de la cabine en charge lorsque la cabine remplie dépasse le poids du contrepoids : le couple résistant peut devenir moteur.

Attention toutefois que si le choix se porte sue une motorisation à vis sans fin, la charge ne peut pas entraîner le moteur électrique car la vis sans fin est un organe mécanique irréversible; le moteur ne peut pas devenir générateur et renvoyer de l’énergie sur le réseau.

Récupérer la chaleur sur condenseur de la machine frigorifique [Améliorer – Climatisation]

Récupérer la chaleur sur condenseur de la machine frigorifique [Améliorer - Climatisation]


Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite du bâtiment vers l’extérieur.
Il semble dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique.

Fonctionnement du condenseur

En principe, trois opérations successives se passent dans le condenseur de la machine frigorifique :

Évolution des températures du fluide frigorigène
et du fluide de refroidissement.

  1. Dans une machine frigorifique, les gaz qui sont expulsés par le compresseur en fin de compression sont à très haute température (de 70 à 80°C). On dit qu’ils sont surchauffés. Comme la condensation se fait à une température largement inférieure (aux alentours de 40°C, par exemple), une quantité de chaleur va devoir être évacuée des gaz surchauffés pour les amener à leur température de condensation qui correspond à la pression de refoulement (dite pression de condensation). C’est la désurchauffe.
  2. Puis lors de la condensation elle-même, une importante quantité de chaleur va aussi devoir être évacuée pour liquéfier (si possible complètement) le fluide frigorigène gazeux.
  3. Enfin, si les conditions des échanges thermiques dans le condenseur le permettent (température du fluide refroidisseur suffisamment basse, débit du médium de refroidissement suffisamment important), le liquide condensé va subir le sous-refroidissement, ce qui améliore le rendement de l’évaporateur.

Récupération de l’énergie

Dans certains cas, on pourrait envisager de récupérer cette énergie pour chauffer de l’eau ou de l’air, au lieu de la gaspiller en pure perte :

  • si on a des besoins en eau chaude sanitaire de température pas trop élevée (45° à 50°C),
  • si on a des besoins de chauffage pour des locaux contigus,
  • si on veut éviter ou diminuer la puissance de climatisation du local des machines, ou faire des économies d’énergie sur ce poste,
  • si on veut participer à la lutte contre le réchauffement global de l’atmosphère.

Par exemple, voici ce qui peut être réalisé à partir du préparateur d’eau glacée ci-dessus.

Le fonctionnement normal est de refroidir l’eau glacée à l’évaporateur (cooler). La chaleur contenue dans le fluide frigorigène évaporé est comprimée puis condensée dans un condenseur à air (fonctionnement classique d’une machine frigorifique).

Par contre, si un récupérateur de chaleur est placé, le réfrigérant passe d’abord dans un condenseur à eau (le récupérateur en question) pour donner la chaleur de désurchauffe, puis pour se condenser. Le liquide à haute pression passe au travers du détendeur avant de repasser à l’évaporateur. La chaleur excédentaire est rejetée via le condenseur à air.

La récupération de l’énergie du côté des condenseurs suppose évidemment des investissements supplémentaires par rapport à des machines classiques plus simples

  • des échangeurs de condenseurs adaptés,
  • des réservoirs-tampons pour l’eau chaude sanitaire ou de chauffage,
  • une disposition plus compliquée des tuyauteries,
  • une bonne évaluation des pertes de charge dans les tuyauteries,
  • une régulation complète permettant le contrôle correct de toute l’installation, y compris des récupérateurs.

Étant donné les spécificités inhérentes à chaque projet, le rapport entre l’investissement et les économies d’énergie doit faire l’objet de calculs adaptés, à demander aux auteurs de projet. Il faut en effet considérer ensemble la machine frigorifique et les appareils de production d’eau chaude sanitaire ou de chauffage.

Le bilan doit prendre en compte :

  • l’apport d’énergie « gratuite » par la machine frigorifique,
  • le fait que l’on doit quand même disposer, en plus des récupérateurs, d’une puissance installée suffisante pour pallier les périodes où la machine frigorifique ne fonctionne pas,
  • la pénalisation énergétique apportée toute l’année par l’échangeur supplémentaire,
  • le cas où le condenseur de la machine frigorifique doit assurer à lui seul, l’évacuation de toute la chaleur (lorsqu’il n’y a pas de besoin d’énergie dans les récupérateurs, ou quand ces derniers sont arrivés à leur consigne maximale de température).
Exemple d’application très intéressante :

Le plus logique est de récupérer la chaleur sur le condenseur à air pour chauffer directement l’air d’un local. Ainsi, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.

Études de cas

Pour visualiser un exemple de schéma d’une installation avec stockage de glace et récupération de chaleur au condenseur, cliquez ici !

Application sur une installation de ventilo-convecteur 4 tubes

Dans le cas des ventilos-convecteurs à 4 tubes, si le réseau d’eau glacée fonctionne en hiver et en mi-saison, n’y a-t-il pas intérêt à récupérer la chaleur au niveau du condenseur de la machine frigorifique ?

Par exemple, ne pourrait-on pas imaginer que le chauffage apporté vers les locaux en façade Nord soit récupéré sur le condenseur de la machine frigorifique refroidissant le centre informatique du bâtiment ?

En pratique, il semble que ce soit difficile:

  • La récupération de chaleur risque de se faire à une température trop haute. Les ventilos-convecteurs ont besoin d’eau à 40°…45°C en hiver. Donc la condensation devrait se faire à une température de 50°C. Or, à cette saison, le condenseur peut être refroidi à une température bien inférieure, puisque l’air extérieur est très froid. La récupération risque de pénaliser le COP de la machine frigorifique
    Par exemple, une machine frigo qui prépare de l’eau à 7°C, avec un condenseur à eau refroidi à 27…32°C, génère un COP-froid de 6. Soit 6 kWh froid pour 1 kWh électrique. Pourquoi risquer de dégrader un tel système …?
  • La récupération de la désurchauffe semble surtout intéressante, puisque les températures y sont plus élevées, mais la quantité d’énergie y est plus faible que dans la phase de condensation (refroidir un gaz libère peu d’énergie par rapport à condenser ce gaz).
  • Les puissances en jeu ne s’accordent pas forcément puisqu’elles sont antagonistes : en plein hiver, la demande de froid risque d’être trop faible pour apporter de la chaleur utile au réseau d’eau chaude et en mi-saison, la demande de chaleur risque d’être insuffisante pour évacuer la chaleur au condenseur, générant ainsi sa montée en température défavorable.

De plus, en hiver, il y a concurrence avec le procédé de free-chilling qui refroidit directement la boucle d’eau froide avec l’air extérieur. Plutôt que de récupérer au condenseur de la machine frigorifique, celle-ci est totalement arrêtée !

Enfin, il faudrait comparer ce système avec le système DRV (Débit de Réfrigérant Variable) qui dispose d’une version avec récupération d’énergie apte à réaliser ce type de transfert directement au niveau des locaux.

Exemple.

Ci-dessus, d’une part, un réservoir à glace a été adjoint à l’équipement frigorifique, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

D’autre part, en mi-saison, on récupère la chaleur au condenseur : à ce moment, la chaleur captée dans les locaux à refroidir est récupérée dans les locaux à réchauffer. L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir.

En plein été, la dissipation de chaleur se fait par un condenseur traditionnel (dit condenseur de rejet). En plein hiver, une chaudière d’appoint reste nécessaire pour vaincre la forte demande.


Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été).

Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique.

Ainsi, dans un immeuble de bureaux, les besoins d’eau chaude sanitaire sont faibles. La température de l’eau sera élevée dans le ballon (…60°C…). Si le condenseur est intégré dans le ballon d’eau chaude sanitaire, la machine frigorifique va travailler avec une pression de condensation élevée. La performance de la machine frigorifique va se dégrader. Si la pression de condensation s’élève encore, le pressostat HP (Haute Pression) de sécurité risque d’arrêter la machine… Un deuxième condenseur en série est alors nécessaire pour éliminer les calories. Le coût de l’installation paraît difficile à rentabiliser. D’ailleurs, faut-il encore de l’eau chaude dans les bureaux ?

Tout au contraire, dans un hôtel, dans un hôpital, dans des cuisines industrielles, des boucheries, … les besoins d’eau chaude sont élevés et une récupération de chaleur au condenseur se justifie tout à fait. Mais un ballon de préchauffage est propice au développement de la légionelle. Il faut donc s’assurer que l’eau séjournera durant un temps suffisamment long dans le dernier ballon : 60°C durant 30 minutes ou 70°C durant 4 minutes, par exemple (en cas de débit de pointe, de l’eau « contaminée » risque de traverser seulement le 2ème ballon).

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude.

Dans le système ci-contre, un simple échangeur thermique (placé en série et en amont du condenseur normal) est inséré au bas d’un ballon d’eau chaude. Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir.

On parle de condenseur-désurchauffeur parce que la désurchauffe des gaz provenant du compresseur aura lieu dans cet échangeur.

La réglementation impose le principe selon lequel il ne doit pas y avoir de contact possible entre le fluide frigorigène et l’eau potable. En cas de perforation de l’enveloppe du fluide, la détérioration éventuelle doit se manifester à l’extérieur du dispositif.

Dans l’échangeur ci-dessus, une double paroi de sécurité est prévue selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Dans ce ballon intermédiaire, il n’y a aucun risque de dépôt calcaire puisque l’eau n’est jamais renouvelée.

En cas de fuite de fluide frigorigène, la pression dans le ballon augmente et une alarme est déclenchée.

Un deuxième condenseur en série est nécessaire pour le cas où le besoin de chauffage de l’eau sanitaire serait insuffisant.

Schéma 3 : en présence d’une boucle de distribution

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

Un tel schéma (contrairement au précédent) risque cependant d’être propice au développement de la légionelle, puisque le ballon de récupération peut être à une température inférieure à 60°C durant un temps assez long. Il n’est pas à recommander si des douches sont présentes dans l’installation.

On trouvera de nombreux schémas techniques d’application dans l’excellent ouvrage Climatisation et Conditionnement d’air – Tome 2 – Production de chaud et de froid de J. Bouteloup.