Choisir la fenêtre comme capteur de lumière naturelle [Les fenêtres]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.

On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Choisir la fenêtre comme capteur d’énergie solaire [Les fenêtres]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’

un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).

Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m²

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Choisir le système de régulation de la machine frigorifique

Variateur de vitesse.  (Source : Delhaize).

Critères de choix de la régulation

Dans le cas du froid alimentaire, les critères de choix de la régulation sont :

  • la puissance frigorifique disponible au niveau de l’évaporateur;
  • l’efficacité énergétique du compresseur (consommation électrique, COP).

Il va de soi que les deux critères sont intimement liés. On observe par exemple qu’en maîtrisant la surchauffe à la sortie de l’évaporateur, non seulement la puissance frigorifique augmente (remplissage optimal de l’évaporateur) mais la consommation électrique du compresseur diminue. Globalement, ces deux effets sont cumulatifs et sont mis en évidence par des valeurs d’efficacité énergétique élevées (COP).

La puissance frigorifique de l’évaporateur

La charge frigorifique disponible pour l’application au niveau de l’évaporateur conditionne non seulement le choix :

  • de l’évaporateur en premier;
  • du compresseur, du condenseur et du détendeur et des auxiliaires;

mais aussi, et c’est l’objet de ce chapitre, le choix :

  • des types de régulation;
  • des organes d’entrée des régulateurs comme les capteurs de pression et de température (la pression de condensation à l’entrée du condenseur par exemple);
  • des organes de sortie des régulateurs comme les variateurs de fréquence et les détendeurs asservis(régulation de la vitesse du compresseur par exemple);
  • des superviseurs éventuels.

La régulation de la puissance frigorifique à l’évaporateur, suivant la charge de l’application, est primordiale. En effet, elle conditionne la stabilité de la température au niveau de la zone à refroidir, celle-ci étant impérative pour la conservation des denrées alimentaires.

Consommation énergétique des compresseurs et des auxiliaires

Si pour le même prix, à savoir une puissance frigorifique optimalisée au niveau de l’évaporateur, on peut réduire les consommations électriques du compresseur, des ventilateurs des évaporateurs et des condenseurs, des cycles de dégivrage, … tout le monde est gagnant tant pour le portefeuille du commerçant que pour la planète.

À titre indicatif, un grand constructeur d’élément de régulation annonce des économies d’énergie (essentiellement une réduction des consommations électriques) variant de 20 à 30 % par le choix d’une régulation :

  • de l’ouverture du détendeur électronique donnant une gestion de la surchauffe et, par conséquent du remplissage de l’évaporateur;
  • du débit du compresseur par variation de sa vitesse;
  • du dégivrage de l’évaporateur;
  • de la pression de condensation (régulation en pression flottante);

La répartition des consommations énergétiques moyennes du froid alimentaire dans des supermarchés se répartit comme suit :

répartition des consommations énergétiques moyennes du froid alimentaire

Tous les postes de consommations énergétiques sont importants, d’accord, mais celui des compresseurs doit revêtir une attention toute particulière. En effet, la plupart des choix qui seront effectués sur la régulation des différents équipements de la machine frigorifique influenceront de près ou de loin la consommation électrique du compresseur contribuant à améliorer sa performance énergétique :

Exemple.

L’investissement dans une régulation associée avec un détendeur électronique permet de prédire, selon un fabricant, une réduction des consommations énergétiques du compresseur de l’ordre de 25 % soit 12 % des consommations énergétiques totales du poste froid alimentaire.

réduction des consommations énergétiques du compresseur de l'ordre de 25 %


Les régulations

Le choix de la régulation d’une installation frigorifique doit être considéré :

  • dans un premier temps, au niveau global, c’est la supervision;
  • dans un second temps au cas par cas par rapport aux différents équipements, ce sont les régulateurs dédicacés.

Supervision

La gestion technique centralisée (GTC)

GTC d’un supermarché (source : Delhaize).

Avec la venue de l’électronique, et plus particulièrement de la régulation numérique, tout est pratiquement réalisable au niveau de la régulation du cycle d’une installation de froid alimentaire sachant que les équipements individuels peuvent se trouver souvent à des distances non négligeables.

Pour les installations de froid alimentaire importantes, une gestion globale de tous les points critiques tels qu

  • les températures des différents meubles frigorifiques;
  • les pressions de condensation, d’évaporation, …;
  • les phases de dégivrages,

peut s’avérer très intéressante tant pour le responsable commercial du magasin que pour les responsables techniques et de la maintenance des équipements.

On nomme couramment ce type de superviseur une Gestion Technique Centralisée (GTC) qui est capable à la fois  :

  • d’effectuer des campagnes de mesure de traçabilité, de « benchmarking » (analyse des tendances de consommations énergétiques par exemple);
  • de modifier des paramètres de régulateur individuel (modification de consigne de température de meuble frigorifique, …);
  • La gestion technique centralisée offre les avantages et inconvénients suivants :

(+)

  • une meilleure vue globale de l’installation;
  • gestion des alarmes possible;
  • programmation aisée de la maintenance;
  • maîtrise plus facile du dépannage des installations;
  • benchmarking possible entre différents magasins d’une même chaîne de distribution;

(-)

  • Investissement important. Ne conviens que pour des installations importantes (pour le commerçant de détail, cela semble du luxe);
  • les systèmes de supervision et de régulation sont souvent propriétaires et, par conséquent, la note reste souvent « salée » en cas d’implémentation ou de modification de l’installation;

Schéma d'une installation de supermarché.

Une installation de supermarché est régulièrement configurée de la manière suivante :

  • les meubles frigorifiques sont dans les zones de ventes;
    les compresseurs sont dans un local technique annexe (pas toujours à proximité);
  • les condenseurs sont sur le toit.
    Dans ce cas, une gestion technique centralisée permet de voir globalement comment se comporte l’installation.

Les réseaux

Les réseaux de communication entre le superviseur et les régulateurs locaux sont souvent de types LON. Attention de nouveau que les protocoles de communication entre les différents équipements peuvent être propriétaires.

Régulation individuelle des équipements

Dans le cadre d’une démarche URE (Utilisation Rationnelle de l’Énergie), le choix de régulateurs individuels de qualité s’impose. En conception, il va de soi aussi qu’une régulation qui vise à réduire les consommations énergétiques de l’installation au maximum doit être envisagée globalement. En effet, le choix d’une régulation performante :

  • de la surchauffe ne devrait se concevoir qu’en association avec une variation de débit pour le compresseur (variateur de fréquence contrôlant la vitesse du moteur électrique du compresseur).
  • de pression flottante au niveau du condenseur, en fonction du climat externe, ne devrait aussi se concevoir qu’en association avec un détendeur électronique performant de manière à continuer à alimenter de manière optimale l’évaporateur en fluide frigorigène.

De manière générale, une somme de choix d’équipements adéquats associés à des régulateurs de qualité, permet d’améliorer sensiblement les performances énergétiques de la machine.

À l’heure actuelle, les fabricants de régulation en froid alimentaire offre les possibilités principales de régulation suivantes :

  • Régulation de la surchauffe à la sortie de l’évaporateur permettant le remplissage optimal de l’évaporateur quelle que soit la charge frigorifique de celui-ci.
  • Régulation du débit de réfrigérant en fonction de la demande de l’évaporateur.
  • Régulation de la pression de condensation au niveau du condenseur (pression flottante) dans le but de réduire le travail du compresseur (taux de compression HP/BP optimisé).

Surchauffe

La régulation moderne de la surchauffe se réalise au moyen de régulateur intégrant un algorithme de contrôle de la valeur minimale de surchauffe stable. Afin de garantir la pleine maîtrise de la surchauffe, le régulateur sera associé avec un détendeur électronique.

Schéma régulateur associé a un détendeur électronique.

Un fabricant de régulateurs annonce une réduction de l’ordre de 12 % de la consommation énergétique du compresseur et un temps de retour sur investissement de 1,5 à 2,5 ans. En effet, meilleur sera le remplissage de l’évaporateur moins long sera le temps de fonctionnement du compresseur.

Techniques

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Consigne flottante de basse pression

Le choix d’une consigne flottante de basse pression (ou température flottante à l’évaporateur) permet, outre les nombreux avantages au niveau de la qualité de conservation des denrées alimentaires, de réduire les consommations énergétiques par la simple augmentation de la consigne de température d’évaporation en période creuse des zones de vente. On sait que l’augmentation de la température d’évaporation conditionne le travail du compresseur. On estime, en général, qu’une augmentation de la consigne de température d’évaporation de 1 K réduit la consommation énergétique du compresseur de l’ordre de 2 à 3 %.

On est souvent amené à choisir ce genre de régulateur au même moment que le choix de l’équipement à placer dans les zones de vente comme les meubles frigorifiques, les chambres froides, …

Il existe sur le marché un grand choix de modules de régulation permettant par exemple de combiner les fonctions :

  • de régulation de température par commande des ventilateurs de l’évaporateur;
  • de dégivrage;
  • de monitoring de température;
  • de commande directe de compresseur dans les installations simples;
  • d’alarme température haute;

N’hésitez donc pas à bien négocier la qualité de votre régulateur au même moment que le choix des meubles et/ou chambres frigorifiques.

Débit du fluide frigorigène

Auparavant, la variation du débit du fluide frigorigène, et par conséquent l’adaptation de la puissance de la machine frigorifique à la charge nécessaire à l’évaporateur, était obtenue, par exemple, en enclenchant en « tout ou rien » une cascade de compresseurs en fonction de la pression d’aspiration Pa à l’entrée de la centrale.

Régulation en cascade de plusieurs compresseurs.

La mission était plus délicate encore pour un compresseur seul. Les moyens de régulation du débit frigorigène étaient limités et parfois très gourmands en énergie pour le compresseur (injection des gaz chauds par exemple).

La venue des variateurs de vitesse et surtout ces derniers temps la maîtrise des perturbations qu’ils engendraient auparavant au niveau des harmoniques, a permis de les adapter au compresseurs :

Régulation par variation de fréquence de la vitesse du compresseur.

Sur base d’une mesure en continu fiable de la pression d’aspiration (Pa) du compresseur, la  régulation par variation de fréquence du moteur d’entrainement du compresseur permet d’adapter le débit de fluide réfrigérant en fonction de la demande de l’évaporateur (le compresseur se comporte comme une pompe volumétrique).

Les principaux avantages et inconvénients du choix de ce type de régulation sont :

(+)

  • le COP est optimisé en permanence;
  • la pression d’aspiration est plus stable;
  • le compresseur peut être dimensionné plus petit;
  • les courants de démarrage sont plus faibles;
  • la durée de vie du compresseur est prolongée de par la diminution du nombre des démarrages/arrêts;

(-)

  • l’investissement est plus important;
  • il faut maîtriser les problèmes d’harmoniques;

De manière générale, l’évaluation des temps de retour simple sur investissement est, à l’heure actuelle, assez difficile à objectiver, car, des installations équipées de ce genre de régulation :

  • peu sont réellement monitorées (une fois l’installation terminée, il n’y a pas de réel contrat de maintenance ou de « benchmarking »);
  • si elles le sont, le temps de monitoring est souvent court.

Il est donc difficile de valider les temps de retour annoncé par les fabricants. L’équipe d’Energie+ serait tout à fait ravie de pouvoir disposer d’études de cas pertinentes.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Pression de condensation flottante

Schéma pression de condensation flottante.

La régulation de la pression de condensation en fonction des conditions climatiques externes est de loin celle qui permet de réduire fortement les consommations énergétiques du compresseur. En effet, tout comme l’augmentation de la basse pression à l’évaporateur améliore les performances du compresseur (une augmentation de température de 1 K réduit les consommations du compresseur de + 3 %), la diminution de la pression de condensation réduit aussi de + 3 % les mêmes consommations. Cependant, autant la réduction de la pression d’évaporation est limitée de par la température de l’application à respecter, autant la pression de condensation pourrait être abaissée au plus bas essayant de « coller » au maximum à la température extérieure pour un condenseur à air par exemple.

Schéma sur la diminution de la pression de condensation.

La diminution de la pression de condensation augmente l’efficacité du compresseur et de l’évaporateur.

S’il n’y avait pas de limite mécanique, par exemple la nécessité de maintenir une certaine pression haute sur le détendeur afin qu’il fonctionne correctement, on pourrait envisager des pressions de condensation proche de celles d’évaporation. La limite basse actuelle de pression de condensation est souvent fixée à 20 °C.

Vu que la plupart du temps la température externe, sous nos latitudes, est comprise entre 5 et 15°C, le pouvoir rafraichissant de l’air doit être utilisé au maximum. C’est pour cette raison qu’il est important de choisir une régulation de la pression de condensation flottante. Elle permet donc l’abaissement de la pression de condensation par la régulation du débit d’air externe (variation de la vitesse des ventilateurs des condenseurs).

graffique sur la régulation de la pression de condensation flottante.

On y arrive grâce à des régulateurs qui prennent en compte en permanence la température d’entrée d’air (dans le cas d’un condenseur à air) et la pression de condensation et l’introduise dans un algorithme de régulation de la vitesse du ventilateur d’air afin moduler son débit.

La régulation flottante de la pression (ou température) de condensation chez certains fabricants est réalisée en prenant en compte :

  • la température de l’air entrant dans le condenseur (= température externe) tair;
  • la pression de condensation (température de condensation) pc;
  • une information de la puissance frigorifique du compresseur est nécessaire Pf. Elle peut être obtenue lorsque que le compresseur est lui-même équipé d’un régulateur.

L’algorithme du régulateur recalcule la pression de condensation adéquate en fonction des différents paramètres d’entrée (pc, tair, Pf). La figure ci-dessus donne un exemple de loi de régulation imaginée par un constructeur spécialisé dans le domaine.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Check-list pour une installation [Chauffage à eau chaude URE]

Voici un résumé des points essentiels qui garantissent une installation de chauffage énergétiquement efficace et confortable.

On sera attentif à 4 aspects du projet :

Paramètres de dimensionnement

Exigences

Pour en savoir plus

La puissance utile des chaudières doit être calculée se base des prescriptions de la norme NBN B62-003 en tenant compte de la température de base de la région correspondante.

Concevoir

Dans les installations équipées de radiateurs, la puissance électrique d’un circulateur en [W] doit être proche de la puissance thermique du réseau qu’il alimente Pth en [kW].

Concevoir 

Dans le cas d’une installation fonctionnant au gaz, les radiateurs doivent au minimum être dimensionnés en régime 80°/60° (ou mieux encore en régime 70°/50°) pour pouvoir optimaliser le fonctionnement des chaudières à condensation.

Concevoir 

Dans le cas d’une installation fonctionnant au fuel, les radiateurs sont dimensionnés en régime inférieur ou égal à 80°/60° pour bénéficier d’une certaine surpuissance à la relance.

Concevoir 


Choix de matériel

Exigences

Pour en savoir plus

Si le gaz naturel est disponible, la chaudière est une chaudière à condensation, de préférence ne demandant pas de débit minimal et équipée d’un brûleur modulant (10 .. 100 %).

Concevoir

Pour les grosses puissances, la chaudière à condensation peut être couplée à une chaudière traditionnelle très basse température.

Concevoir 

Si le gaz naturel n’est pas disponible, la chaudière est une chaudière fuel traditionnelle très basse température équipée d’un brûleur Low NOx.

Concevoir 

Au-delà d’une puissance de 150 kW, le brûleur des chaudières traditionnelles sera à deux allures vraies régulées en cascade.

Concevoir 

Les brûleurs fuel doivent être équipés d’origine d’un compteur de combustible.

Concevoir 

Les chaudières à condensation sont raccordées à un circuit hydraulique favorisant les retours à température la plus froide possible et approuvé par le fabricant de la chaudière.

Concevoir 

Dans le cas de chaudières ne demandant pas de débit minimal et pouvant travailler à très basse température, le collecteur primaire est un collecteur ouvert sans pompe primaire.

Concevoir 

Les circuits de distribution secondaires correspondent à des zones d’activités homogènes et disposent de leur régulation propre.

Concevoir 

Les conduites parcourant des locaux non chauffés sont isolées avec une épaisseur d’isolant fonction de leur diamètre.

Concevoir 

Les vannes et brides disposées dans des locaux non chauffés sont isolées au moyen de coquilles isolantes amovibles.

Concevoir 

Les circulateurs sont à vitesse variable et leur débit maximal est ajusté aux besoins réels.

>Concevoir 

La courbe caractéristique maximale d’un circulateur doit se trouver juste en dessous du point de fonctionnement théorique calculé du circuit correspondant.

Concevoir 

Chaque circuit secondaire est équipé d’un organe d’équilibrage (correctement dimensionné) permettant une répartition correcte du débit dans l’installation.

Concevoir 

Un chauffage par le sol ne peut être installé dans des locaux à occupation variable, à forte occupation ou fortement ensoleillé.

Concevoir 

Le chauffage par le sol est à déconseillé au dessus du sol ou de caves non chauffées.

Concevoir 

Des radiateurs ne peuvent être installés devant des vitrages.

Concevoir 

Des corps de chauffe de types différents ne peuvent être raccordés sur un même circuit de distribution avec un réglage de la température d’eau unique.

Concevoir 


Régulation

Exigence

Pour en savoir plus

Les chaudières multiples sont régulées en cascade par action sur le brûleur, leur vanne d’isolement et leur circulateur éventuel.

Concevoir

Chaque zone d’occupation et de besoin homogènes dispose de son propre circuit de distribution dont la température d’eau est régulée en fonction d’un thermostat d’ambiance ou d’une sonde extérieure.

Concevoir 

La température des chaudières suit au plus près la température des circuits secondaires de distribution (sauf si la chaudière ne peut descendre en température, si une production instantanée d’eau chaude sanitaire est combinée à la chaudière ou si le collecteur primaire est un collecteur bouclé).

Concevoir 

L’intermittence est gérée par un optimiseur qui assure une coupure complète des circuits de distribution et éventuellement des chaudières et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures.

Concevoir 

Chaque circuit dispose un thermostat d’ambiance qui permet de gérer la température d’inoccupation et éventuellement d’ajuster le réglage de la courbe de chauffe dans le cas d’une régulation en fonction de la température extérieure.

Concevoir 

Si nécessaire, le régulateur doit comprendre une possibilité de dérogation au régime de ralenti avec retour au mode automatique sans intervention manuelle.

Concevoir 

Les locaux profitant d’apports de chaleur plus importants que les autres sont équipés d’une régulation locale (par exemple, pour les radiateurs, des vannes thermostatiques, « institutionnelles » dans les lieux publics).

Concevoir 

Dans les installations de taille importante, les régulateurs sont de type digital, communiquant, de manière à pouvoir être raccordés sur une centrale de gestion centralisée.

Concevoir 

Les équipements de régulation doivent être accompagnés d’un mode d’emploi clair (plus clair que le simple mode d’emploi des régulateurs), comprenant l’explication du principe de régulation et de l’utilisation des équipements.

Concevoir 

La régulation doit mettre à l’arrêt les circulateurs en absence de besoin de chauffage (en fonction de la fermeture des vannes et en fonction de la température extérieure).

Concevoir 


Chaufferie

Exigence

Pour en savoir plus

La section de la cheminée doit être adaptée à la puissance et au type de chaudière installée.

Concevoir

La cheminée doit être équipée d’un régulateur de tirage.

Concevoir 

La cheminée raccordée à une chaudière à condensation doit être étanche à l’humidité et résister à la corrosion.

Concevoir 

La chaufferie doit être équipée d’une ventilation haute et d’une ventilation basse, respectant la norme NBN B61-001.

Concevoir 

Choisir le pare-vapeur pour une toiture plate existante

Quel pare-vapeur choisir ?

Les toitures inversées ne nécessitent pas de pare-vapeur, l’étanchéité en faisant office.

Pour les toitures chaudes, le choix du type et de la classe d’écran pare-vapeur dépend de plusieurs facteurs.

La classe de l’écran pare-vapeur nécessaire se calcule. Dans les cas les plus courants, il est fait usage de tableaux pour déterminer cette classe.

Le tableau suivant (extrait de la NIT 215 du CSTC) indique la classe de pare-vapeur à choisir en fonction de la classe de climat intérieur, du support et de l’isolant.

Support ou forme de pente Classe de climat intérieur PURPIREPSPF MWEPBICB CG
Techniques de pose de l’étanchéité
Fixation mécanique (a) Autres Fixation mécanique (a) Autres
Béton coulé in situ, éléments préfabriqués en béton (b) (c) I

II

III

IV

E3

E3

E3

X

E3

E3

E3

E4

E3

E3

E3

X

E3

E3

E3

E4

(h)

(h)

(h)

(d)

Voligeage ou panneaux à base de bois résistant à l’humidité (e) (f) I

II

III

IV

E1 (g)

E2

X

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Tôles profilées en acier I

II

III

IV

(i)

E1 (g)

E2

X

(i)

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Panneaux sandwiches autoportants I – III

IV

voir remarques

Non autorisé

(a) Afin d’éviter un “effet de pompage” résultant de l’action du vent, l’étanchéité à l’air du complexe toiture dont le support est perméable à l’air doit toujours être assurée, et ce de l’une des façons suivantes :

  • par la pose d’un pare-vapeur de classe E1 ou supérieure
  • par l’utilisation de panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces), d’épaulements sur les quatre bords et mis en œuvre sur un support permettant une bonne fermeture des emboîtements. Ces mêmes panneaux à bords droits ou coupés peuvent également assurer l’étanchéité à l’air du complexe toiture, pour autant que les joint entre les panneaux, ainsi que les raccords avec les rives de toiture (voir NIT 191) soient rendus étanches à l’air
  • en rendant étanches à l’air les joints entre les éléments d’un plancher de toiture.

(b) Pour la rénovation des toitures avec un plancher de toiture étanche à l’air en béton sec, on ne prévoit pas de pare-vapeur dans les classes de climat intérieur I, II et III.

(c) Dans les classes de climat intérieur I, II et III, on ne pose pas d’écran pare-vapeur complémentaire sur les planchers de toiture en béton léger (p. ex. béton cellulaire) sans couche d’isolation thermique complémentaire, si la membrane d’étanchéité est adhérente ou lestée. Dans le cas contraire, il est nécessaire de rendre étanches les joints entre les éléments en béton. Dans des climats de la classe IV, une condensation résiduelle annuelle peut entraîner des dégâts aux éléments (corrosion des armatures, p. ex.), de sorte qu’une isolation thermique complémentaire posée sur un pare-vapeur non perforé est indispensable.

(d) Pour les bâtiments de la classe de climat IV, il convient d’examiner avec le fabricant de l’isolation si un pare-vapeur complémentaire est éventuellement nécessaire.

(e) Préalablement au collage d’un isolant thermique au moyen de bitume sur un plancher en bois, les joints (y compris le joint périphérique) sont rendus étanches au moyen d’une membrane du type P 150/16. Lorsque les joints de cette membrane sont collés, celle-ci peut être assimilée à un pare-vapeur de la classe E2.

(f) Lorsque l’isolation est posée sur un panneautage, les joints de ce dernier ainsi que les joints aux rives sont rendus étanches par la pose d’une bande de “pontage”.

(g) La résistance à la diffusion de vapeur des panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces) équivaut au minimum à celle offerte par un pare-vapeur de classe E1, lorsque les panneaux sont à épaulement sur les quatre bords et qu’ils sont mis en oeuvre sur un support permettant une bonne fermeture des emboîtements.

(h) La pose d’un écran pare-vapeur n’est pas requise, si les joints entre les panneaux d’isolation sont entièrement remplis de bitume (voir l’ATG pour cette application).

(i) Dans le cas d’une isolation en PF, on pose une couche de désolidarisation continue.

X La fixation mécanique au travers du pare-vapeur n’est pas autorisée en classe de climat IV.

REMARQUES

Compatibilité

Lorsque l’étanchéité est de type bitumineux, on pose de préférence un pare-vapeur bitumineux. Lorsque l’étanchéité est de type synthétique, on pose de préférence un pare-vapeur synthétique. Les deux types de matières peuvent être combinées à condition d’être compatibles entre elles, car elles sont en contact au droit des rives et des lignes de compartimentage de l’isolant.

Rénovation

Dans le cas d’une rénovation, l’étanchéité existante peut être conservée et faire office de pare-vapeur. Dans ce cas, il convient de vérifier si ce pare-vapeur possède une classe suffisante.

Panneaux sandwiches

Les panneaux sandwiches de toiture avec âme isolante appartiennent généralement, dès la fabrication, à la classe de pare-vapeur E1. Les dispositions relatives à la résistance au passage de la vapeur d’eau, à prendre en fonction de la classe de climat intérieur, sont prévues dans l’agrément technique des panneaux.

Toitures plates légères isolées à l’intérieur de la structure

Un freine vapeur est toujours nécessaire. Son choix est particulièrement délicat. On recommandera souvent le placement d’un pare-vapeur « intelligent ». Néanmoins, le choix étant particulièrement délicat on conseillera de se référer à l’avis (et aux calculs dynamiques!) d’un bureau d’études spécialisé.


Comment poser le pare-vapeur d’une toiture chaude ?

Un écran pare-vapeur mal posé où posé à un mauvais endroit peut causer de graves dégâts. Son action peut être insuffisante ou même, dans certains cas, peut créer des désordres ou les aggraver.

Le pare-vapeur se pose toujours du côté chaud par rapport à l’isolant.

On sera attentif à ne pas emprisonner d’eau dans les couches situées entre l’écran pare-vapeur et la membrane d’étanchéité.

Le pare-vapeur sera continu. Les joints seront soignés. Le pare-vapeur ne sera pas percé (accident mécanique ou passage de canalisations).

Aux rives et raccords, l’étanchéité et le pare-vapeur sont reliés en emprisonnant complètement l’isolant.

Le mode de pose du pare-vapeur dépend :

Du mode de pose et de fixation de l’isolant et de l’étanchéité

Lorsque l’étanchéité est posée en indépendance totale ou fixée mécaniquement, le pare-vapeur peut être posé en indépendance totale. Il est toutefois préférable de le poser en semi-indépendance pour faciliter la mise en œuvre. Le pare-vapeur est ainsi maintenu en place pendant la phase de mise en œuvre et en attendant le lestage final.

Lorsque l’étanchéité et l’isolant sont collés, le pare-vapeur doit également être collé de façon à ce que l’ensemble puisse résister au vent.

– Du support

Sur les supports en bois

Sur des panneaux, le pare-vapeur est collé (après pontage des joints), soudé ou cloué.

Sur des voliges, le pare-vapeur est cloué.

Sur les supports en tôles profilées

Pour les classes de climat intérieur < III, les lés du pare-vapeur sont posés parallèlement aux ondes.
Tous les joints sont réalisés par recouvrement.
Les joints longitudinaux doivent se trouver sur une nervure supérieure des tôles.
Sur une nervure supérieure, le pare-vapeur peut être perforé par les fixations mécaniques de l’isolant (et de l’étanchéité).

Pour la classe de climat intérieur IV, il faut poser le pare-vapeur sur un support intermédiaire plan.

Schéma classe de climat intérieur IV, pose du pare-vapeur.

Sur les autres supports

La pose est identique à celle des membranes d’étanchéité posées directement sur les mêmes supports (voir Choix du mode de pose de l’étanchéité), c’est-à-dire en indépendance, en semi-indépendance ou en adhérence totale.

Choisir le système de ventilation dans les bureaux

© Architecture et climat 2023.

Système de ventilation double flux dans les bureaux.


Configurations les plus courantes pour les immeubles de bureaux

Les bureaux ou zones de bureaux sont généralement desservis par des circulations donnant également accès à un ou plusieurs complexes sanitaires.

Ce type d’agencement très généralisé donne aux différents principes de ventilation retenus une orientation commune :

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

L’introduction d’air neuf dans les bureaux,
le transfert des volumes d’air introduits via les circulations,
l’évacuation vers l’extérieur de l’air vicié dans les locaux sanitaires.


Ventilation simple flux avec extraction sanitaire

Lorsque l’ambiance extérieure (bruit et pollution limités) le permet, la solution la plus simple à mettre en œuvre est le système simple flux avec extraction sanitaire.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié
  • L’air neuf est de préférence introduit dans les bureaux au moyen de grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie.

Grille intégrée entre le vitrage et la menuiserie.

Grille verticale intégrée dans la menuiserie.

  • L’air vicié est évacué dans les sanitaires au moyen d’un ventilateur d’extraction.
  • Les transferts d’air entre bureaux et sanitaires se font, soit par un détalonnage des portes, soit par des passages appropriés avec grilles à chevrons ou autre.

Grille de transfert d’air.

Les circuits d’extraction (conduits et ventilateurs) sont dans la plupart des cas communs à plusieurs niveaux. Ils sont généralement conçus suivant le principe du « parapluie ». Les conduits verticaux empruntent les gaines techniques également verticales et les conduits horizontaux passent dans l’épaisseur des faux plafonds. Ces ensembles desservent à chaque niveau une ou plusieurs zones sanitaires. Pour peu que l’extraction d’air soit limitée aux zones sanitaires (pas d’extraction complémentaire dans les couloirs ou certains locaux spécifiques à des fins d’équilibrage), ce réseau horizontal restera limité en ampleur.

Étant donné l’absence de conduit de distribution vers chaque bureau, l’espace nécessaire aux conduits d’air est peu important. Ceci prend toute son importance en rénovation en regard des hauteurs de faux plafond qui ne doivent pas tenir compte du passage de conduits d’air.

Cependant, cette configuration souffre de certaines limites :

  • pour limiter l’influence du vent et des circulations d’air parasites, ce type d’installation ne s’applique qu’aux immeubles de taille moyenne et peu élevés : pour les nouveaux immeubles de plus de 13 m de haut (hauteur du plancher au dernier étage), la réglementation wallonne, demande ainsi, la preuve, étude à l’appui, qu’il est possible de garantir les débits d’air neufs recommandés au moyen d’amenées d’air naturelles.
  • ce type d’installation ne permet ni traitement de l’air (préchauffage ou rafraîchissement, gestion de l’humidité) ni récupération d’énergie. Il pourrait donc ne pas correspondre aux attentes de confort ou de performance énergétique.


Ventilation double flux avec extraction sanitaire

Le système de ventilation double flux, c’est-à-dire équipé d’une pulsion et d’une extraction mécanique est le meilleur en terme de maîtrise des débits dans les locaux : on a la garantie que les bureaux sont alimentés en air neuf et que l’air vicié des sanitaires est directement évacué vers l’extérieur.

© Architecture et climat 2023.

Ce système est pratiquement indispensable dans les immeubles de bureaux importants en site urbain.

La distribution de l’air neuf est assurée par un réseau de conduits placé dans les faux plafonds des zones de circulation.

La diffusion de l’air neuf à l’intérieur de chaque bureau est obtenue par une ou plusieurs bouches, soit murales dans le cas d’une retombée des faux plafonds des circulations, soit plafonnières s’il existe un faux plafond dans le local.

© Architecture et climat 2023.

  1. Bureau
  2. Couloir

Pulsion mécanique dans les bureaux soit via le faux plafond des bureaux,
soit via la retombée du faux plafond des couloirs.

L’extraction et le transfert se font comme pour le système simple flux.

Concrètement, le choix du double flux par rapport au simple flux sera guidé par

Études de cas

Une ventilation double flux a été mise en œuvre dans le bâtiment PROBE du CSTC à Limelette.

Choisir le modèle d’isolation pour le versant du toit

L’efficacité énergétique

L’efficacité énergétique de l’isolation d’une toiture inclinée dépend évidemment de l’épaisseur et du coefficient de conductivité thermique de l’isolant (λ).

Elle dépend aussi de la continuité de l’isolant. Ainsi une isolation posée entre chevrons de 6 cm d’épaisseur écartés de 30 cm ne couvre que 80 % de la toiture, le reste étant couvert par les chevrons nettement moins isolants.

De ce point de vue, il est bon de poser l‘isolant sous les chevrons. On limite ainsi le pont thermique au niveau des pannes. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La meilleure solution si on veut éviter complètement les ponts thermiques, est d’isoler la toiture par l’extérieur, par la méthode « sarking » ou en posant des éléments autoportants à isolation continue (c-à-d sans raidisseurs).


La complexité de la toiture

Dans le cas d’une toiture compliquée (pentes variables, formes complexes, hors équerre, fenêtres et pénétrations nombreuses), il est préférable d’utiliser de petits éléments pour réaliser le système de toiture.

Par contre, l’isolation par panneaux autoportants convient bien pour des toitures simples.


Le type de charpente

L’entre-axe des chevrons et l’épaisseur des gîtes de versant ou des arbalétriers de fermettes peuvent rendre difficile la mise en œuvre de certaines techniques d’isolation, notamment l’isolation par l’extérieur de type « sarking« .

En effet, avec ce type de toiture, la largeur minimale des supports de l’isolant (chevrons, gîtes de versant, arbalétriers) est de 38 mm pour pouvoir réaliser une pose correcte. (Dimensions plus importantes des vis et clous, précision avec laquelle doivent être réalisés les assemblages).

Les chevrons carrés ont généralement une épaisseur de 6 à 8 cm. Dans le cas d’une isolation posée entre chevrons, l’épaisseur de l’isolant est limitée à celle des chevrons. S’il est fait usage de laine minérale, l’isolation de la toiture est insuffisante et la pose d’une couche isolante sous les chevrons s’impose.

Par contre lorsque la charpente comprend des gîtes de versant ou des arbalétriers de fermettes d’une hauteur plus importante, 12 cm par exemple, l’isolation entre ces éléments de charpente peut être suffisante.

Schéma de l'isolation entre chevrons ou gîtes.

Des gîtes de versant permettent de poser en une seule couche 12 cm d’isolant.


Les performances acoustiques souhaitées

Les laines minérales sont de bons isolants acoustiques. Elles « piègent » les sons provenant du bruit aérien extérieur ou de l’impact des gouttes de pluie ou des grêlons sur la couverture. Une isolation entre chevrons à l’aide de laine minérale convient donc particulièrement lorsque de bonnes performances acoustiques sont souhaitées.

Le modèle d’isolation par l’extérieur (Toiture « Sarking » ou isolation par panneaux autoportants) peut poser des problèmes acoustiques, surtout si l’isolant est du polystyrène expansé.


Souhait de garder la charpente apparente

Lorsque l’on désire garder la charpente apparente, y compris les chevrons, il est nécessaire de poser l’isolant au-dessus de ceux-ci. Dans ce cas la toiture « sarking » est la plus appropriée. Les panneaux isolants peuvent éventuellement être posés sur un support décoratif (plaques, planchettes, …) assurant la finition du plafond entre les chevrons.

Si seules les pannes et fermes doivent rester apparentes, l’isolant peut être placé entre les chevrons. Il peut également être fait usage de panneaux autoportants.

Charpente apparente d’une toiture isolée.


Le souhait de faire réaliser les travaux par un non professionnel

Dans ce cas la pose de l’isolation doit se faire sans influence sur l’organisation des travaux des corps de métiers intervenant sur la toiture (charpentier, couvreur, zingeur, maçon …).

La pose de l’isolant devrait donc se faire après l’achèvement de leurs travaux.

L’isolant est posé par l’intérieur entre les chevrons, gîtes de versant ou fermettes, ou il est posée sous les chevrons de façon continue si la perte de place provoquée par cette technique est acceptable. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La finition du plafond des combles ne pourra se faire qu’après la mise en place de l’isolant et du pare-vapeur éventuel.

Choisir l’étanchéité [isolation de la toiture plate]

Membranes bitumineuses bicouches

Toutes les membranes bitumineuses utilisées seront toujours du type bitume amélioré APP ou SBS.

Les deux produits sont équivalents en qualité. Les membranes APP résistent mieux à la chaleur, mais sont plus difficiles à poser par temps froid. Les membranes SBS doivent être protégées des rayonnements UV (généralement par des paillettes d’ardoise).

Il existe des membranes bitumineuses, dont le comportement au feu est amélioré.

Les systèmes multicouches offrent plus de garanties en cas d’erreur de mise en œuvre au niveau de l’assemblage des lés.

La plupart des entreprises spécialisées dans la pose d’étanchéités bitumineuses sont capables de poser correctement une étanchéité multicouche (par opposition à une étanchéité monocouche).

Lorsque le bâtiment doit être mis à l’abri alors qu’il n’est pas encore achevé, et que la toiture risque d’être abîmée par la fin des travaux, le système multicouche offre la possibilité de protéger provisoirement le bâtiment avec la première couche, et de n’achever le travail par la pose de la dernière couche, que lorsque le bâtiment est complètement achevé.

Lorsqu’en cas de fuite les dégâts risquent d’être très importants, on préférera une étanchéité multicouche qui présente moins de risques d’infiltration.

Si l’on perçoit qu’une rénovation ultérieure de la toiture sera difficile ou coûteuse, on optera, dès le départ, pour un système plus fiable. Une rénovation peut être rendue difficile par la présence d’une couche de protection impossible ou lourde à déplacer, des difficultés d’accès, etc.

Si pour accéder à des appareillages, il est nécessaire de circuler souvent sur la toiture, mieux vaut prévoir une étanchéité multicouche qui résiste mieux au poinçonnement accidentel.


Membranes bitumineuses monocouches

La pose d’un système monocouche requiert de l’entreprise chargée de l’ouvrage une grande expérience et une bonne formation.

Lorsqu’on souhaite un investissement minimal (tout en sachant que l’entretien après quelques années risque de nécessiter de gros frais), on peut se contenter d’une étanchéité bitumineuse monocouche.

Lorsque l’on peut contrôler facilement l’exécution des recouvrements et pratiquer un essai d’étanchéité à l’eau en mettant la toiture sous eau, on peut se contenter d’une étanchéité bitumineuse monocouche.


Membranes synthétiques

Les membranes synthétiques en hauts polymères offrent des résistances mécaniques élevées, des résistances au feu, et des résistances chimiques qui varient d’un matériau à l’autre. On choisira une membrane synthétique principalement pour ses caractéristiques particulières.

Parmi celles-ci, deux seulement sont utilisées de manière significative, un plastomère : le PVC, et un élastomère : l’EPDM.

Le comportement au feu du PVC et de l’EPDM traité « NO-FLAM » est satisfaisant.

Le prix des membranes synthétiques (suffisamment épaisses pour garantir des qualités mécaniques suffisantes) est généralement plus élevé que celui des membranes bitumineuses. Pour réduire le prix de ces membranes, on en réduit parfois l’épaisseur, ce qui les fragilise malgré leurs qualités évidentes.

Ces membranes étant monocouches, leur mise en œuvre nécessite un soin particulier. De plus, les techniques de soudage et de fixation étant particulières à chaque matériau, le personnel chargé de poser les membranes doit être formé à ces techniques et être hautement qualifié.

Certaines membranes nécessitent des conditions atmosphériques très favorables pour pouvoir être mises en œuvre.


Que faire dans certains cas ?

Type d’étanchéité
Ma toiture a des formes compliquées. oui bitumineuse
non pas de préférence
L’étanchéité est facile à remplacer en cas de problème. oui pas de préférence
non bitumineuse bicouche
On prévoit une circulation technique fréquente sur la toiture. oui bitumineuse bicouche ou synthétique épaisse
non pas de préférence
Je veux payer le moins possible. oui bitumineuse monocouche
non pas de préférence
Je peux contrôler facilement l’exécution. oui pas de préférence
non bitumineuse bicouche
Une fuite aurait des conséquences graves. oui bitumineuse bicouche
non pas de préférence
Je dispose d’un personnel qualifié et expérimenté pour réaliser la toiture. oui pas de préférence
non bitumineuse bicouche
Je dois protéger provisoirement mon bâtiment avant la fin des travaux. oui bitumineuse bicouche en deux phases
non pas de préférence
Je suis dans un environnement particulier. oui synthétique adapté
non pas de préférence
Les conditions atmosphériques risquent d’être mauvaises pendant le chantier. oui je vérifie les limites de mise en œuvre de la membrane choisie
non pas de préférence
Les risques liés à un incendie sont importants. oui synthétique ou bitumineux « ANTI-FEU »
non pas de préférence

Concevoir les détails : la trappe d’accès [isolation]

Trappe d’accès

Schéma trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.

Détails

Schéma détails isolation trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.
  5. Finition intérieure (plâtre, bois, …).
  6. Charnière.
  7. « Elément décoratif de finition ».
  8. Joint mousse synthétique.

L’isolant choisi pour être placé à l’intérieur de l’ouvrant est peu perméable à la vapeur : il s’agit d’une mousse synthétique, par exemple.

« Un élément décoratif de finition » placé entre la finition intérieure et la structure en bois de la trappe assure l’étanchéité à l’air entre ces deux éléments. Cette étanchéité est complétée par des joints de mousse synthétique.

Comparer les critères de choix [protection solaire]

Récapitulatif des protections et des critères de choix

+ + Très bon + Bon 0 Moyen – Mauvais – – Très mauvais

Protections extérieures

Brise-soleil

+ + + + + + – – + + 0 + + 0 – – + +

Stores
vénitiens

+ + + + + – – + + + + + + +
Stores
enroulables
+ + + + 0 – – + + + + + + + +
Eléments
architecturaux
+ + + + + + – – + + 0 + + – – – – + + +
Auvents + + + + + + – – – – + + + + + + – – +
Stores
projetés à
l’italienne
+ + + + + – – – – + + + + + + +

Protections intérieures

Stores
enroulables
et plissés

en tissu
+ + 0 0 + + + – – + + + + +
Stores
enroulables
et plissés
réfléchissants
+ + + + + 0 + + – – + + + +
Stores
vénitiens
et à lamelles
verticales
– – + + + + – – + + + + + + +
Films
adhésifs
– – à + + – à + + – à + – – à + + + + – – + + + + – à + + + +

Protections intégrées au vitrage

Stores
vénitiens
+ + + + + + + + + + + + + – – + – –
Stores
enroulables
+ + + + + + + + + + + + – – + + – –

Outil PROSOLIS, comparaison des complexes vitrages-protections solaire

copie écran PROSOLIS

Vous devez choisir une protection solaire spécifique ? un type de vitrage et une protection solaire ? L’outil PROSOLIS est là pour vous aider !

Développé par l’UCL (Architecture et Climat) et le Centre Scientifique et Technique de la Construction (CSTC) en 2015, cet outil est accessible gratuitement à l’adrese : www.prosolis.be

Il permet de comparer facilement et en fonction du contexte (orientation – type de bâtiment) les performances thermiques et visuelles de différents complexes « vitrages – protections solaires parallèles au vitrage « .

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
22-09-2008 : WinMerge ok – Sylvie
Salle d'opération

Analyser les besoins thermiques : une salle d’opération

Salle d'opération

Facture globale de l’hôpital

Afin de pouvoir estimer l’importance de la climatisation des salles d’opération par rapport à la consommation globale d’un hôpital, il est nécessaire de se référer à quelques ratios.

Consommations électriques

Le graphe suivant montre la consommation moyenne électrique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 9,5 MWh/lit.an ou 1,9  GWh/200 lits.an.

Consommations thermiques

Le graphe suivant montre la consommation moyenne thermique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 17,7 MWh/lit.an ou 3,5 GWh/200 lits.an.


Besoins thermiques de la salle d’opération

1. Hypothèses

Un hôpital moyen comprend 200 lits. D’expérience, le nombre de salles d’opération est environ de 2 par 100 lits, ce qui signifie que l’on prend comme base un hôpital avec 4 salles d’opération.

Voici les prix moyens du kWh prix en compte dans la simulation

  • électrique : 11 c€/kWh,
  • thermique : 3,25 c€/kWh.

2. Apports

Les salles d’opération sont de plus en plus isolées et se rapprochent du concept des salles blanches rencontrées dans l’industrie :

  • les apports externes sont limités,
  • de par le développement de l’imagerie médicale dans les interventions chirurgicales, les apports internes deviennent importants,
  • si un taux élevé de renouvellement d’air est jugé nécessaire à la garantie de l’hygiène de la salle, les débits sont importants.

En pratique, on distingue des apports :

  • quelquefois solaires,
  • souvent internes (luminaires, occupation, monitoring, imagerie médicale, etc.),
  • faibles des parois (positifs ou négatifs selon la saison),
  • faibles de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance). Le local est en principe mis en surpression (ce qui annule les infiltrations), mais un régime en dépression peut aussi être choisi si le patient est infecté.

Suite à ces faibles besoins, la température de l’air pulsé sera très proche de la température de consigne ambiante. Dans l’exemple étudié, une température de pulsion d’air (18°C) seulement 2 degrés plus froide que l’ambiance (20°) suffit pour reprendre les charges.

Proportionnellement, c’est donc la demande thermique liée à la préparation de l’air neuf pulsé qui représente la source majeure de consommation.

3. Bilan thermique

Dans ce qui suit, on établit, de manière théorique, les consommations des équipements de climatisation de l’air de la salle d’opération.

Cette climatisation de l’air est variable au cours de l’année suivant les conditions climatiques extérieures et intérieures. Pour cette raison, on considère le fichier météo d’une année climatique-type (sans canicule et froid sibérien) à Uccle, par exemple.

Chaque point de la courbe représente une heure de l’année pendant laquelle on a relevé la température et l’humidité. Les 8 760 points-heures qui composent l’année peuvent alors être placés dans le diagramme de l’air humide.

Le fichier météo est ensuite divisé en 5 zones distinctes.

Pour amener l’air extérieur à une température (18°C) et une humidité de soufflage fixe (égale à celle de l’ambiance), pour les différents points-heures extérieurs il est nécessaire de :

O préchauffer et humidifier,
O préchauffer,
O refroidir, déshumidifier et post-chauffer,
O refroidir et déshumidifier sans post-chauffer,
O refroidir et humidifier.

Suivant les débits d’air mis en œuvre, l’intégration des différences d’enthalpies entre les différents points-heures de l’année et les conditions d’ambiance des salles constituent la consommation annuelle du système de traitement d’air, par chauffage, refroidissement, humidification et déshumidification.

On considère que les salles fonctionnent selon le profil d’occupation suivant:

Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
O O O O O
O O O O O O O O O

avec les débits d’air neuf suivants :

O 4 500 m³/h
O 900 m³/h

Les résultats pour les 4 salles sont repris dans le tableau et le graphique ci-dessous.

Besoin énergétique électrique (kWh/an)

Jour Nuit WE Total

Total électrique

29 399

7 597

5 361

42 357

Pour 4 salles

169 428

Besoin énergétique thermique (kWh/an)

Total thermique

36 014

14 288

9 203

59 505

Pour 4 salles

238 020

Comparaison (kWh/an)

Total 4 salles 407 448
Total consommation de l’hôpital 5 400 000
Ratio des salles d’op. 7,5 %

Soit 7,2 % de la consommation totale de l’hôpital.

4. Bilan économique

Le bilan économique est synthétisé ci-dessous dans le tableau et sous forme de graphique :

Coûts énergétiques électriques (€/an)p

salles d’opération

13 511

hôpital

209 000

Coûts énergétiques thermiques (€/an)

salles d’opération

9 670

hôpital

113 750

Les coûts globaux des consommations énergétiques pour la climatisation de l’ensemble des 4 salles d’opération représentent 6 à 7 % de la facture énergétique de l’hôpital.

5. Conclusion

Les zones à risque de contamination élevé sont des postes consommateurs d’énergie importants. Les grands débits d’air neuf traités et le contrôle de l’humidité en sont responsables. C’est pour ces raisons qu’il est impératif, en conception nouvelle ou en rénovation, d’étudier l’alternative qui consiste à recycler l’air et à laisser varier l’humidité ambiante dans une plage qui respecte les normes et les règlements en vigueur.

Concevoir

Pour en savoir sur la gestion des débits.

Concevoir 

Pour en savoir plus sur le contrôle de l’humidité.

Les consommations électriques des ventilateurs

Plusieurs approches sont possibles.

> sur base de la puissance électrique installée des ventilateurs :

Cons. transportair [kWh/an] = Nbre jours/an x Nbre heures/jour x Puissance vent. [kW]

> sur base du ratio Wh/m³ transporté :

En fonction de la qualité du ventilateur et des pertes de charge du réseau (de faibles diamètres de conduits entraînent des vitesses et des pertes de charge élevées), on aura :

Puiss. transportair [kW] =  0,4 … à … 1,1 [W/(m³/h)] x débit horaire [m³/h] / 1 000

Cons. transportair [kWh/an] = Puiss. transp. [kW] x Nbre jours/an x Nbre heures/jour

> sur base des caractéristiques de conception du réseau :

La consommation électrique du (des) ventilateur(s) s’estime par :

Cons. transportair [kWh/an] = qx  Δp x h / (ηx 3 600 x 1 000)

où,

  • q= débit d’air transporté [m³/h]
  • Δp = pertes de charge (pulsion + extraction) [Pa]
  • h = durée de fonctionnement [h/an]
  • η= rendement total du système de transport de l’air (moyenne entre pulsion et extraction).
Soit pour quatre salles d’opération dont la perte de charge de dimensionnement est de 1 200 [PA] et qui tourne avec un rendement global de 0,65 :

  • 2 600 heures par an à 4 500 [m³/h] en période d’occupation,
  • 2 520 heures par an à 900 [m³/h] en période d’inoccupation de WE,
  • 3 640 heures par an à 900 [m³/h] en période d’inoccupation de nuit.

4 x (2 600 x 4 500 + 2 520 x 900 + 3 640 x 900) x 1 200 [PA] / (0,65 x 3 600 x 1 000) = 35 372  [kWh/an].

Soit de l’ordre de 35 372 / 5 400 000 = 0,6 % de la consommation totale de l’hôpital.

Afin de compléter notre propos concernant la ventilation d’une salle d’opération, voici un article portant sur la classification des filtres à air.

Choisir le système de dégivrage de la machine frigorifique d’une chambre froide

Précautions à prendre au niveau du choix de l’enceinte et du groupe d’une chambre froide

Au niveau de la configuration de l’enceinte et pour éviter au mieux la formation de givre sur l’évaporateur, il est préférable que celui-ci soit situé loin de l’entrée par laquelle est amené l’air chaud et humide.

Exemple.

La chambre froide est installée chez un grossiste en fruits et légumes. L’évaporateur de la chambre froide se situe comme sur le dessin ci-après :

La porte est ouverte toute la journée pour permettre aux clients (des petites supérettes) de venir faire leurs achats, des bandes en plastique sont installées pour limiter les pertes frigorifiques.

La température d’évaporation étant de -8° un dégivrage est nécessaire. La proximité de la porte favorise les entrées d’air à température moyenne de 20°. Cet air chaud est aspiré par l’évaporateur et du givre apparaît très vite sur la batterie.

Un dégivrage est nécessaire toutes les deux heures alors que dans d’autres conditions seuls 3 à 4 dégivrages par 24 heures seraient suffisants.

Pour éviter des consommations importantes d’électricité et une régulation qui apporterait toujours des soucis, il a été prévu d’arrêter la production frigorifique toutes les deux heures tout en laissant tourner les ventilateurs de l’évaporateur. On dégivre 10 minutes uniquement grâce à la température ambiante de l’air.

En ce qui concerne l’installation, pour faciliter et optimiser les opérations de dégivrage, on choisit, de préférence, une installation avec :

  • Une vanne magnétique sur le circuit frigorifique (juste avant l’évaporateur).
    Cette vanne va permettre d’arrêter le cycle du fluide frigorigène lors d’un dégivrage : lors d’un dégivrage, l’alimentation électrique de la vanne magnétique est coupée. La vanne se ferme. La Basse Pression au compresseur descend et le compresseur s’arrête dès que le niveau réglé sur le pressostat Basse Pression est atteint.
    Quand il n’y a pas de vanne magnétique, le compresseur est directement arrêté électriquement (contacteur). Mais dans ce cas, une migration de réfrigérant peut se produire et encore continuer à s’évaporer, ce qui peut poser problème.
  • Des manchons souples placés à la sortie du ventilateur de l’évaporateur si la technique de dégivrage produit de la chaleur sur l’évaporateur. Lors d’un dégivrage, lorsque la ventilation est à l’arrêt, ce manchon retombe et se rabat sur la surface de pulsion du ventilateur. Une barrière physique est ainsi créée autour de la chaleur produite dans l’évaporateur pour dégivrer l’évaporateur.
    Ces manchons souples en fibre polyester sont encore appelés « shut up ».


Précautions à prendre au niveau de l’utilisation de l’enceinte d’une chambre froide

Une organisation rationnelle des interventions dans les chambres froides peut être source d’économies d’énergie substantielles. On peut regrouper les interventions et laisser les portes ouvertes pendant un temps le plus court possible.

Il y aura ainsi moins d’air humide qui entrera à l’intérieur de l’enceinte. Au niveau économies d’énergie, on gagne ainsi sur trois plans :

  • au niveau de l’énergie nécessaire pour dégivrer,
  • au niveau de l’énergie nécessaire au refroidissement et au séchage de l’air humide qui entre dans l’enceinte,
  • au niveau de l’énergie nécessaire pour éliminer les quantités de chaleur accumulées dans les évaporateurs au moment des dégivrages, dont le nombre et la durée peuvent diminuer.
Exemple.

Soit une chambre froide négative de dimensions intérieures :
L = 4 m, l = 4 m, h = 3 m.

L’air à l’extérieur de la chambre a les caractéristiques suivantes :
t° = 28°C, HR = 80 %.

L’air intérieur a les caractéristiques suivantes :
t° = -18°C, HR = 50 %.

La chambre est « sollicitée » pendant 12 h/jours.

Il y a 10 interventions par heure, pendant chacune d’elle la porte est laissée ouverte pendant 30 secondes.
Avec cette utilisation, l’énergie électrique nécessaire pour le dégivrage est de 15,6 kWh/jour.

Avec une meilleure organisation, le personnel n’ouvre plus la porte que 5 fois par heure et ne la laisse plus ouverte que 6 secondes par intervention.
L’énergie électrique nécessaire pour le dégivrage n’est plus que de 3,9 kWh/jour soit une économie de 11,7 kWh/jour.
Avec un prix moyen de 0,11 € du kWh, cela représente une économie de 11,7 [kWh] x 0,11 [€] 260 [jours], soit 350 € par an pour une seule chambre froide.

Il faut ajouter à cette économie, l’énergie gagnée sur le refroidissement et le séchage de l’air entrant dans la chambre froide, ainsi que sur le givrage de la vapeur qu’il contient.
En effet, dans le premier cas, le renouvellement d’air de la chambre est de 61 volumes par 24 h; l’énergie frigorifique nécessaire pour traiter cet air est de 109,6 kWh pour le refroidissement et le séchage, dont 46,9 kWh pour le givrage.
Dans le second cas, le renouvellement n’est plus que de 6,2 volumes par 24 h et l’énergie nécessaire n’est plus que de 11 kWh (refroidissement et séchage), dont 4,7 kWh pour le givrage.

Avec un COP global moyen de 2,5 et un coût moyen de 0,115 € du kWh électrique, cela représente une économie supplémentaire de :

((109,6-11) [kWh] / 2,5) x 0,11 [€] x 260 [jours], soit 1179 € par an.

Dans cet exemple, on n’a pas diminué le nombre de dégivrages dans le cas où il y a moins de vapeur qui entre dans la chambre. Cela représente, en fait, une économie supplémentaire, car il faut moins d’énergie pour refroidir les masses métalliques des évaporateurs, chauffées lors des dégivrages.

Remarque : vu la remarque ci-dessous, cet exemple sert plus à montrer qu’il y a de grosses possibilités d’économies par une utilisation rationnelle de la chambre froide qu’à donner des chiffres exacts. En effet, la masse de l’évaporateur ainsi que le nombre de dégivrages ont été encodés de manière arbitraire.

Calculs

Si vous voulez estimer vous même les possibilités d’économiser de l’énergie grâce à une utilisation rationnelle de votre chambre froide, cliquez ici !

Mais ATTENTION : ce tableau doit être utilisé avec beaucoup de précautions !

En effet, les résultats dépendent de paramètres introduits par l’utilisateur. Or ces paramètres ne sont pas toujours connus et dépendent eux-mêmes du résultat des calculs.

Par exemple :

  • La masse des évaporateurs est une donnée arbitrairement introduite par l’utilisateur. Or elle dépend d’une série de paramètres qui ne sont pas dans le tableau (et notamment la puissance frigorifique totale). Il est donc a priori très difficile de choisir une valeur correcte pour la masse des évaporateurs.
  • Le nombre de dégivrages est aussi une donnée arbitrairement introduite par l’utilisateur.
    Or, il dépend de la masse de givre piégée sur les ailettes des évaporateurs, de l’écartement de ces ailettes, de la surface d’échange des évaporateurs (c’est-à-dire de leurs dimensions) qui conditionne l’épaisseur moyenne de givre déposé sur les ailettes.

Il faut aussi se rappeler que le rendement d’un évaporateur baisse au fur et à mesure que du givre vient se placer dans les interstices entre les ailettes.
Cela veut dire que si on diminue artificiellement le nombre de dégivrages, on diminue évidemment l’énergie nécessaire pour les dégivrages parce qu’il faut moins souvent chauffer les masses métalliques, mais on diminue aussi le rendement des évaporateurs (et donc de la machine entière) avec le grand danger d’avoir des évaporateurs bourrés de glace, ce qui provoquera finalement l’arrêt de la machine.

En fait, cela revient à dire que le calcul des machines frigorifiques doit être un calcul intégré où les éléments du bilan frigorifique ne peuvent pas toujours être envisagés séparément, comme c’est le cas ici avec ce tableau…; il s’agit d’un calcul itératif !


Choix de la technique de dégivrage

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons :

  • par résistance chauffante,
  • par introduction de vapeurs refoulées par le compresseur,
  • par aspersion d’eau sur la surface externe, givrée, de la batterie,
  • par circulation d’air.

Les deux premières méthodes citées ci-dessus sont les plus courantes :

Par résistance chauffante

Des résistances chauffantes sont imbriquées dans les tubes en cuivre qui composent la batterie de l’évaporateur. Leur position et leur puissance sont étudiées par le fabricant de manière à répartir uniformément la chaleur produite à l’ensemble de la batterie.

Avantages, inconvénients et choix

C’est une méthode simple, très répandue pour les unités de puissance moyenne.
Elle n’est pas dénuée de divers inconvénients : la consommation se fait en électricité directe, et donc à un prix élevé en journée, surtout si la période de dégivrage a lieu durant la pointe quart-horaire du mois.

Précautions

Dans les équipements frigorifiques des grandes cuisines, la place disponible fait souvent défaut et la tendance des architectes est de sélectionner du matériel très compact. D’autre part, les budgets sont de plus en plus étroits, ce qui ne facilite pas la sélection de matériel de qualité.

Cependant pour assurer un bon fonctionnement du dégivrage à long terme, certaines précautions sont à prendre :

  • Les résistances n’ont pas une durée de vie éternelle. Elles doivent être remplacées en cas de défaillance. Lors de l’installation de l’évaporateur, il ne faudra donc pas oublier de tenir compte de leur longueur (généralement la longueur de l’évaporateur) et laisser l’espace nécessaire pour permettre de les extraire de leur  » doigt de gant « .
  • Toutes les résistances sont fixées à l’aide de fixation ad hoc dans la batterie. Il importe de fixer également les nouvelles qui seraient introduites après un remplacement.En effet, si les résistances ne sont pas bien fixées, les dilatations produites lors du chauffage et du refroidissement peuvent faire bouger les résistances et les faire sortir de leur position avec comme conséquence de ne plus chauffer uniformément la batterie.

Par introduction de vapeurs refoulées par le compresseur

Cette technique, encore appelée dégivrage par « vapeurs chaudes » ou par « gaz chauds », consiste à inverser le cycle et à faire fonctionner l’évaporateur, le temps du dégivrage, en condenseur.

Avantages, inconvénients et choix

L’inversion de cycle est très économique, notamment car les vapeurs chaudes sont directement introduites dans les tubes avec des températures très élevées. Les temps de dégivrage sont donc très courts : parfois quelques secondes suffisent.

Néanmoins, cette méthode complique le réseau des conduites frigorifiques : des éléments supplémentaires tels que la vanne à 4 voies (qui sert à l’inversion de cycle), vannes magnétiques pour couper les circuits, etc. viennent s’ajouter à l’installation.

Ainsi, elle est surtout utilisée dans les installations industrielles.

Dans les équipements frigorifiques des grandes surfaces, il n’y a que les machines à glaçons (lit de glace en poissonnerie), quand il en existe, qui sont parfois munies d’un système d’inversion de cycle pour démouler les glaçons.

Par aspersion d’eau sur la surface externe, givrée, de la batterie

Avantages, inconvénients et choix

Cette technique est parfois utilisée pour des enceintes froides à des températures voisines de 0°C et pour des enceintes demandant une humidité élevée (chambres de conservation de fruits). La consommation d’eau, fluide de plus en plus coûteux, est un inconvénient.

Par circulation d’air de la chambre

De l’air provenant soit de l’intérieur de la chambre même, soit de l’extérieur, est envoyé sur l’échangeur. Dans le premier cas, le dégivrage est très lent. Dans le second, il faut isoler l’évaporateur de la chambre, ce qui n’est pas pratique.

Avantages, inconvénients et choix

L’inertie des produits stockés doit être suffisante à maintenir l’ambiance dans une fourchette de température acceptable. C’est donc une technique qui n’est pas à utiliser pour des chambres froides qui sont quasi vides juste avant le réapprovisionnement.

La première de ces méthodes a l’avantage de récupérer totalement l’énergie frigorifique stockée dans la glace. De plus, seule une horloge est nécessaire pour interrompre la production frigorifique. Elle ne tombe donc jamais en panne.

En général, cette méthode est utilisée avec une température de chambre supérieure à 0°C et lorsque les enceintes ne sont pas trop sollicitées par des ouvertures de portes. Mais la pratique montre que certains régulateurs « intelligents » utilisent également ce système lorsque la température est fortement négative, grâce au fait qu’en dessous de -5°C la structure de la glace est très différente (beaucoup plus poudreuse et donc moins collante : une sublimation est alors possible).

Remarque : cette technique est celle utilisée par un fabricant qui propose une régulation intelligente des dégivrages.


Choix de la régulation du dégivrage

Le dégivrage est une source de consommation d’énergie :

  • Par l’apport de chaleur nécessaire à la fusion du givre (effet utile).
  • Suite à l’échauffement, suivi du refroidissement, de la masse métallique de la batterie (effet nuisible).
  • Par le réchauffement partiel, suivi de la remise en température de la chambre froide, une partie de la chaleur que nécessite le dégivrage ayant été perdu dans cette enceinte (effet nuisible).

Il existe donc une fréquence optimale de dégivrage pour minimiser l’énergie dépensée par cette opération :

  • Trop fréquents, ils sont effectués alors qu’une faible quantité de givre s’est déposée sur la surface froide, l’effet utile est insuffisant devant les effets nuisibles qui l’accompagnent.
  • Trop peu fréquents, la masse excessive de givre présente sur la batterie diminue l’efficacité énergétique de la machine frigorifique.

Choix du type de régulation

Pour les petites enceintes, une régulation par horloge peut suffire. Mais mal utilisée, cette régulation peut conduire à des aberrations énergétiques : qu’il y ait présence ou non de glace, le dégivrage est enclenché à l’heure programmée, la durée du dégivrage est fixe, quelle que soit la présence effective de glace.

Ainsi, en fonction des conditions d’exploitation des enceintes froides (peu ou beaucoup d’ouvertures de portes), les agents d’exploitation devront modifier la fréquence des dégivrages par le réglage des horloges, et une sonde de fin de dégivrage doit permettre à l’installation de redémarrer plus rapidement que la période fixée.

Cependant ils ne doivent, en aucun cas, intervenir sur la séquence. Certaines d’entre elles, interne des opérations de dégivrage si elles sont mal conduites, peuvent créer des écarts de pression intolérables entre l’intérieur et l’extérieur des chambres froides.

Pour les plus grandes enceintes, il est indispensable, au niveau énergétique, que la séquence des dégivrages réels se rapproche au mieux de la séquence utile. On utilise pour cela une régulation électronique intelligente de dégivrage. De tels systèmes permettent des économies substantielles.

Il en existe au moins deux sur le marché :

  • Le premier système de régulation électronique intelligent permet d’espacer la séquence de dégivrages initialement programmés s’il n’a pas détecté de phase de fusion suffisamment longue durant les 10 dernières opérations de dégivrage programmées.
  • Le second système de régulation électronique intelligent détecte la présence de glace à partir de deux sondes de température (l’une mesure la température ambiante de la chambre, l’autre est placée dans les ailettes de l’évaporateur). L’explication de ce principe ne nous a pas été détaillée.Chez ce fabricant, le critère d’arrêt du dégivrage classique est une température d’évaporateur de 10°C. Cela semble élevé, mais c’est, semble-t-il, une sécurité par rapport à l’absence totale de glace.En plus de cette détection de givre, ce système choisit un dégivrage par circulation d’air de la chambre chaque fois que la température intérieure le permet. Ce qui est très intéressant au niveau énergétique puisque non seulement il ne faut pas produire de la chaleur pour le dégivrage, mais qu’en plus, toute l’énergie latente contenue dans la glace sera restituée à l’ambiance.Un dégivrage classique par résistance chauffante n’aura lieu que lorsqu’il n’est pas possible d’attendre la fusion de la glace par l’air ambiant.

Quel que soit le système de régulation intelligente, la souplesse de ces appareils par rapport aux thermostats mécaniques permet d’affiner les réglages et de proposer des fonctions complémentaires :

  • alarmes,
  • possibilité de faire fonctionner le congélateur avec une consigne abaissée de 5°C la nuit (pour bénéficier du courant de nuit),
  • possibilité de délester durant la pointe 1/4 horaire,

D’après le fabricant du second système ci-dessus, l’investissement (+/- 1 625 €) est amorti en moins d’un an.

Exemple.

Une chaîne de supermarchés belge a adopté ce système pour l’ensemble de ses chambres froides depuis 2 ans. Un des responsables techniques nous a confirmé que l’investissement a largement été amorti sur cette période en regard des économies d’énergie apportées (plus de 20 % de la consommation de la chambre). Une généralisation de ce système à l’ensemble des points de vente est programmée.

De plus, ces systèmes peuvent tout à fait s’adapter sur des installations existantes.

Lors de la pose d’un système de régulation de dégivrage, il est important de l’adapter au mieux à la chambre froide et à son utilisation. Il appartient au frigoriste de bien poser au client les questions pour comprendre son mode de travail et de câbler la régulation la plus appropriée.

Autres précautions…

Pour optimiser le dégivrage, le frigoriste ne doit pas oublier de prévoir deux temporisations dans les étapes de dégivrage :

  • Après l’opération de dégivrage proprement-dite, il faut prévoir une temporisation avant l’ouverture de la vanne magnétique (permettant à la production frigorifique de reprendre). Cette précaution permet d’assurer l’égouttage.
  • Ensuite, il faut prévoir une deuxième temporisation avant la remise en fonctionnement des ventilateurs de l’évaporateur. Cette temporisation permet à la batterie d’atteindre une température moyenne inférieure ou égale à celle de l’enceinte. À défaut, la remise en route prématurée des ventilateurs peut envoyer de la chaleur dans la chambre froide et/ou des gouttelettes d’eau encore présentes.

Il veillera aussi à prévoir un système de sécurité qui arrête le dégivrage dès qu’une température ambiante excessive est atteinte. Cette sécurité doit, par exemple, être accompagnée d’une alarme qui prévient le personnel du problème.

Cette précaution est d’autant plus importante que les produits stockés sont coûteux.

Exemple.

Il est déjà arrivé qu’un contacteur qui commandait les résistances électriques de dégivrage d’une enceinte stockant des crustacés, du caviar, etc. reste bloqué et que du chauffage soit diffusé toute la nuit dans la chambre avant que le personnel ne s’en aperçoive le lendemain matin.


Évacuation des condensats

Il faut prévoir un raccordement de décharge pour l’évacuation des condensats ou des eaux de dégivrage.

Dans les chambres froides négatives, pour éviter le gel, les tuyaux qui évacuent les condensèrent doivent être calorifugés, voir chauffés. L’évacuation par le haut à l’aide d’une pompe de relevage offre l’avantage d’éviter les passages de tuyaux à l’intérieur de l’enceinte (en général, l’évaporateur est suspendu au plafond). De façon générale, il faut chercher à sortir les condensats par le chemin le plus court de la chambre froide vers l’extérieur de manière à éviter tout souci.

L’exploitation devra toujours veiller à la bonne évacuation des eaux de dégivrage, et donc maintenir toujours libre de givre non fondu le bac de collecte de ces eaux. Elle doit également veiller au bon état de la conduite d’évacuation et de son système de chauffage (pour les chambres à températures négatives).

L’écoulement des condensats est primordial pour assurer de parfait dégivrage. Un bac de condensats qui ne se vide pas va provoquer très rapidement la prise en glace de la batterie par simple conduction entre l’eau et les ailettes.

Connaître les paramètres principaux [ventilation]


Débits

Annexe C3 de la PEB

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779:Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation.  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

Finalement, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par wc ou urinoir ou 15m²/h par m² de surface si le nombre de wc n’est pas connu lors du dimensionnement. un débit de 5m³/h par m² est à définir pour les douches et salles de bain avec un minimum de 50m³/h

L’Arrêté royal fixant les exigences de base générales auxquelles les lieux de travail doivent répondre (anciennement RGPT)

La dernière version de cet Arrêté royal ne prescrit plus un renouvellement d’air minimum par travailleur mais stipule que la concentration de CO2 doit resté inférieur à 900 ppm dans des locaux de travail normaux. Ainsi, l’exigence est placée sur le résultat attendu et plus le moyens. Pour atteindre ce résultat, si on considère qu’une personne expire 20 litres de CO2 par heure cela induit une renouvellement d’air de 25 m³/h par personne pour un air extérieur à 400 ppm de base. Les débits « exigés » sont donc assez bien augmentés ! Mais attention à tenir compte du taux d’absence, pour une salle de réunion par exemple.

litre de CO2 émis par personne

Source : SPF Emploi, Directive pratique « Qualité de l’air intérieur dans les locaux de travail », version du 2 mai 2019 ((https://emploi.belgique.be/sites/default/files/content/documents/Bien-être%20au%20travail/Fichiers%20thémes/Directive%20pratique%20Qualité%20de%20l’air%20intérieur%20dans%20les%20locaux%20de%20travail%20%281%29.pdf))

Équilibre amenée d’air neuf – évacuation d’air vicié

Le débit total pour l’alimentation correspond à la somme des débits d’alimentation de conception du bâtiment et, de même, le débit total pour l’évacuation correspond à la somme des débits d’évacuation du bâtiment.

Dans les bâtiments tertiaires (immeubles de bureaux, écoles, …), on retrouve souvent une grande quantité de locaux dits « à pollution non spécifique » (bureaux), par rapport au nombre de sanitaires. Dans ce cas, le débit d’air neuf à introduire dans le bâtiment est nettement plus important que les débits à extraire recommandés dans les sanitaires.

Ni la norme NBN D50-001 (relative aux logements), ni la réglementation wallonne n’imposent d’équilibrer les débits d’extraction et d’amenée d’air. C’est cependant le moyen de garantir que les débits d’air neuf prévus soient effectivement introduits dans le bâtiment : l’air ne rentrera pas s’il ne peut sortir !

La norme et la réglementation doivent donc être considérées comme une ligne de conduite reprenant les exigences minimales à respecter. Les débits de conception doivent être au minimum identiques au débits exigés mais peuvent être augmenter pour équilibrer le système.

On peut par exemple fixer des débits d’extraction supplémentaires, pour correspondre au débits d’alimentation, dans des espaces sans débits minimum recommandés comme les cagibis, dressing, locaux techniques, réserves et stockage, etc.).

Dans la mesure du possible, il faut donc essayer d’équilibrer les débits d’amenée et d’évacuation d’air, tout en laissant un léger surplus d’amenée d’air par rapport à l’extraction pour maintenir le bâtiment en surpression et éliminer les entrées d’air parasites. Pour donner un ordre de grandeur, on peut imaginer le critère suivant, fixant un rapport entre le débit de pulsion et d’extraction à atteindre :

(débit de pulsion – débit d’extraction) < (n x volume du bâtiment)

où n est le taux d’infiltration d’un bâtiment. On peut alors imaginer que l’excès de pulsion d’air pourra s’échapper du bâtiment par les inétanchéités.

Il faut cependant éviter de trop surdimensionner les extractions sanitaires sous peine de risque de courants d’air et d’inconfort dans ces derniers. On peut, dès lors :

  • Disposer des évacuations d’air complémentaires dans les circulations ou des locaux annexes comme des réserves, …

Extraction dans les sanitaires et les couloirs.

  • Équiper les locaux demandant des débits d’air neuf plus importants (salles de séminaire, salles de réunion) de leur propre extraction.

Extraction dans les sanitaires et les salles de réunion.

Ces deux pistes ont également comme avantage de permettre un meilleur contrôle de la distribution de l’air dans le bâtiment et de s’assurer que le cheminement de l’air ne soit pas aléatoire.

En dernier recours, un déséquilibre peut être assumé. Pour autant qu’il n’excède pas trop la capacité d’évacuation d’air par les inétanchéité, il n’aura pas d’impact majeur sur la capacité du réseau de pulsion à assurer le débit minimum attendu. La distribution d’air dans le bâtiment sera par contre difficile à prévoir, puisqu’elle dépendra de la distribution des inétanchéités de l’enveloppe. Des phénomènes de courant d’air peuvent aussi survenir lors d’ouvertures de portes ou fenêtres.

Études de cas

Un tel système de ventilation sans équilibrage a été mis en œuvre dans le bâtiment PROBE du CSTC à Limelette.

Perte de charge de base

La méthode principale de dimensionnement des réseaux de ventilation mécanique consiste à fixer une perte de charge linéaire constante (par exemple : 1 Pa/m) dans le tronçon le plus défavorisé.

À partir de cette valeur, en tenant compte du débit véhiculé par chaque branche du réseau et de la pression nécessaire au niveau des bouches, on pourra calculer pour chaque tronçon :

  • la section du conduit,
  • la vitesse de l’air,
  • la perte de charge.

Les pertes de charge de tout le réseau (conduits rectilignes, coudes, tés, …) sont alors additionnées aux pertes de charge des accessoires (batteries, filtres, prise d’air, ….) pour dimensionner le ventilateur.

Remarquons que, pour simplifier le calcul des réseaux complexes, on peut aussi se fixer une perte de charge dans tout le réseau et en déduire directement les diamètres des conduits. Le réseau ainsi constitué ne sera pas directement équilibré et devra être équipé d’organes de réglage.

Améliorer

Pour en savoir plus sur l’équilibrage des réseaux de distribution : cliquez ici !

Comme on le voit, c’est le choix de la vitesse ou de la perte de charge de départ qui conditionne le diamètre des conduits, donc, les pertes de charge totales, la consommation du ventilateur et l’investissement final.

Un compromis doit être trouvé entre consommation et investissement.
Exemple : le réseau suivant doit véhiculer un débit total de 12 600 m³/h.

Concevoir

Pour visualiser le dimensionnement complet de ce réseau suivant les méthodes de la perte de charge et de la vitesse constante, cliquez ici !

Voici les résultats du dimensionnement du réseau suivant la méthode de la perte de charge linéaire constante et suivant la méthode de la vitesse d’air constante :

Méthode de la perte de charge linéaire constante dans le tronçon le plus défavorisé (de A à a)

Perte de charge linéaire de base choisie [Pa/m]

0,5 1 1,5
Vitesse d’air max [m/s]. 6,7 8,85 10,4
Vitesse d’air min [m/s]. 4,49 5,93 6,97
Hauteur manométrique du ventilateur [Pa]. 176 208 240
Consommation (pour un fonctionnement de 3 000 h/an) [kWh/an]. 2 835 3 352 3 869
Facture énergétique  (à 0,16 €/kWh) [€/an]. 453,6 536,3 619
Surface de conduits [m²]. 114 101 94
Investissement (à 27,5 €/m²) [€]. 3 122,6 2 773 2 589,9
Coût sur 10 ans [€]. 7 658,6 8 136 8 779,9
Coût relatif entre les solutions. 100 % 106 % 115 %

Par cet exemple, on constate que la valeur de 1 Pa/m choisie comme base de dimensionnement, peut être considérée comme une valeur maximum que l’on peut préciser dans le cahier des charges, les 6 % de différence avec la solution basée sur 0,5 Pa/m étant tempérée par le coût de l’argent sur 10 ans, qui n’est pas pris en compte ici.

Ordres de grandeur et recommandations

Un moyen de vérifier la qualité énergétique du dimensionnement est de comparer les vitesses d’air ou les pertes de charge obtenues dans les différents tronçons aux valeurs suivantes :

  • Vitesses maximums couramment admises pour limiter la production de bruit dans les conduits :
Vitesses maximales admissibles au niveau du bruit dans un réseau de distribution d’air [m/s]
Types de local Conduit principal* Dérivation Grille, bouche Entrée d’air
Chambre. 7 2-4 0,5-2 1
Bureau. 7 2-4 1-2 1

* dépend de la distance des locaux occupés par rapport à la gaine principale.

  • Vitesse maximum de l’air dans les conduits de ventilation imposée, dans certains cantons suisses, pour des raisons d’économie d’énergie. Notons que ces vitesses correspondent à une perte de charge de base inférieure à 1 Pa/m :
Vitesse maximum de l’air autorisée dans le canton de Zurich
Débit maximum Vitesse maximum de l’air
< 1 000 [m³/h] 3 [m/s]
< 2 000 [m³/h] 4 [m/s]
< 4 000 [m³/h] 5 [m/s]
< 10 000 [m³/h] 6 [m/s]
> 10 000 [m³/h] 7 [m/s]
  • Pertes de charge maximum recommandées par SIA (Société suisse des ingénieurs et architectes) pour l’ensemble d’un réseau de ventilation, ce qui comprend la pulsion, l’extraction et l’éventuelle récupération de chaleur :
Recommandations SIA V382/3 : pertes de charge totales du système
Pour toutes les installations. 1 200 [Pa]
Pour les installations énergétiquement très performantes. 900 [Pa]
À titre de comparaison, en moyenne dans les anciennes installations. 1 500 à 2 000 [Pa]

Paramètres de confort

Dans un nouveau projet, il est également important d’émettre des exigences en terme d’acoustique, de vitesse et de température d’air à respecter dans les zones de travail pour éviter que l’occupant ne condamne la ventilation pour des raisons d’inconfort. Ces exigences ont notamment une influence importante sur le choix des bouches de pulsion.

Bruit

Pour se prémunir des désagréments acoustiques liés aux installations de ventilation mécanique, il faut préciser dans le cahier des charges de la nouvelle installation, les exigences acoustiques que l’on désire obtenir dans les locaux, sachant que plus elles sont élevées, plus le silencieux sera important et donc les pertes de charge également.

Les exigences acoustiques peuvent être symbolisées par le niveau NR (Noise Rating) :

Exigences acoustiques
NR 20 – 30 Condition de séjour, de repos, de sommeil dans les chambres, …
NR 30 – 35 Bonnes conditions d’écoute dans les bureaux de direction, consultation, …
NR 35 – 40 Conditions d’écoute normales dans les grands bureaux, restaurants calmes, …
NR 40 – 45 Conditions d’écoute modérées dans les laboratoires, restaurants, …

On peut également imposer, dans les locaux, le niveau de pression acoustique maximum généré et/ou transmis par le système de ventilation. Voici les critères de conception proposés par la NBN EN 13779 (2007): Ventilation dans les bâtiments non résidentiels – Exigences de performances pour les systèmes de ventilation et de conditionnement d’air : suivant le type de bâtiment ou de local :

    Type de bâtiment Type de local  

Niveau de pression acoustique en dB(A)

Plage type
Valeur par défaut
Résidentiel salle de séjour 25-40 32
chambre 20-35 26
Établissements dédiés aux enfants
écoles maternelles, crèches 30-45 40
Lieux publics auditoriums 30-35 33
bibliothèques 28-35 30
cinémas 30-35 33
tribunaux 30-40 35
musées 28-35 30
Lieux commerciaux magasins de détail 35-50 40
grands magasins 40-50 45
supermarchés 40-50 45
grandes salles d’ordinateurs 40-60 50
petites salles d’ordinateurs 40-50 45
Hôpitaux couloirs 35-45 40
salles d’opération 30-48 40
salles de consultation 25-35 30
chambre de nuit 20-35 30
chambre de jour 25-40 30
Hôtels accueil 35-45 40
salles de réception 35-45 40
chambres (pendant la nuit) 25-35 30
chambres (pendant le jour) 30-40 35
Bureaux petits bureaux 30-40 35
salles de conférence 30-40 35
bureaux paysagés 35-45 40
bureaux compartimentés (cabines) 35-45 40
Restauration cafétéria 35-50 40
restaurants 35-50 45
cuisines 40-60 55
Écoles salles de classe 30-40 35
couloirs 35-50 40
gymnases 35-45 40
salle des professeurs 30-40 35
Sport stades couverts 35-50 45
piscines 40-50 45
Général toilettes 40-50 45
vestiaires 40-50 45

Vitesse et température d’air

Pour éviter les sensations de « courant d’air » ou de « masse d’air » dans la zone d’occupation, la diffusion de l’air doit respecter les performances suivantes (issues de la norme DIN 1946 et de la pratique) :

Grandeurs à respecter

Où ?

Combien ?

Vitesse de l’air. Zone d’occupation
(à 1,8 m de haut).
max : 0,2 m/s.
Le long des murs
(à 1,8 m de haut).
max : 0,4 m/s.
Écart de température dans l’ambiance. Zone d’occupation. max : + 1,5°C (chauffage).
Zone d’occupation. max : – 1°C (en refroidissement).

Choisir un système de toiture plate

Choisir un système de toiture plate


Quels sont les critères de qualité d’une toiture plate ?

Une toiture plate de bonne qualité doit :

Etre étanche (même au droit des raccords) à la pluie, à l’air et à la neige

  • La membrane d’étanchéité doit avoir été correctement posée par des spécialistes et suivant les prescriptions du fabricant.
  • La membrane d’étanchéité sera de préférence multicouche.
  • Les raccords doivent être conformes aux règles de l’art, et les remontées d’étanchéité doivent être suffisamment hautes.
  • Les pontages des joints actifs doivent être adaptés aux mouvements.

concevoir 

Pour choisir la membrane d’étanchéité, cliquez ici !

Evacuer les eaux de pluie et de fonte de neige

  • Les pentes doivent être suffisantes.
  • Les évacuations des eaux pluviales doivent être correctement dimensionnées.
  • L’eau de pluie doit pouvoir déborder sans risque et visiblement en cas d’obstruction des évacuations.

Isoler thermiquement les locaux et la structure du bâtiment

  • L‘isolation doit être suffisamment performante (épaisseur et résistivité thermique).
  • L’isolation doit être continue.

concevoir 

Pour choisir l’isolant thermique, cliquez ici !

Résister aux contraintes mécaniques au niveau de toutes les couches (support, isolant, étanchéité, protection)

  • La toiture doit résister aux charges d’utilisation (charges permanentes, charges mobiles, charges localisées, charges réparties).
  • La toiture doit être capable de supporter la neige.

concevoir 

Pour déterminer la résistance à l’écrasement de l’isolant existant, cliquez ici !
  • La toiture doit être prévue pour son usage (circulable pour les véhicules, pour les piétons, pour l’entretien, …)

concevoir 

Pour déterminer la protection nécessaire, cliquez ici !
  • La toiture doit résister au vent.

concevoir 

Pour déterminer l’accrochage nécessaire, cliquez ici !

Résister aux agents physiques et chimiques extérieurs

  • La membrane d’étanchéité doit résister à l’érosion éolienne et hydraulique.
  • La toiture doit résister aux chocs thermiques et au gel.
  • La membrane d’étanchéité doit résister aux rayonnements ultra-violets (UV) ou être protégée de ceux-ci.
  • La membrane d’étanchéité doit être adaptée pour résister à la pollution chimique acide de l’environnement extérieur auquel elle est exposée.

Techniques

Pour connaître les caractéristiques des différentes membranes d’étanchéités, cliquez ici !

Ne permettre aucune condensation interne

  • Le pare-vapeur doit être continu.
  • La toiture doit être étanche aux courants d’air.

concevoir 

Pour vérifier le bon choix et la bonne pose du pare-vapeur, cliquez ici !

Etre facile à entretenir et à réparer

améliorer 

Pour savoir en quoi consiste l’entretien de la toiture plate, cliquez ici !

Subsidiairement, isoler phoniquement les locaux de l’environnement extérieur


Quand réaliser une toiture chaude ?

Lorsque l’isolant est pris en sandwich entre 2 étanchéités (le pare-vapeur en dessous et la membrane au-dessus), on appelle cela une toiture chaude.

Schéma toiture chaude.

A utiliser le plus souvent possible
C’est actuellement la technique la plus utilisée.

On préférera la toiture chaude à la toiture inversée pour sa facilité d’entretien, particulièrement lorsque l’environnement est fortement boisé (chute des feuilles, germination et développement de plantes).

On préférera également la toiture chaude lorsque le lestage du complexe isolation-étanchéité n’est pas possible à cause du manque de portance du support.

Avantages

  • Risque de condensation interstitielle facilement maîtrisable par le choix d’un pare-vapeur adéquat et pour les cas les plus difficiles d’un isolant étanche à la vapeur d’eau (verre cellulaire).
  • Possibilité d’utiliser des matériaux isolants à la conductivité thermique  très faible (ex : PUR)
  • Entretien facile.
  • Charge pondérale réduite (pas besoin de lester).
  • Remontées verticales d’isolant possibles autour des obstacles.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection et préservation de l’isolant par la membrane de l’étanchéité.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…)

Inconvénients

  • Encombrement important pour des niveaux d’isolation élevés.
  • Séchage impossible de l’isolant en cas d’infiltration.

Quand réaliser une toiture inversée ?

Lorsque l’on pose l’isolant au-dessus d’une toiture existante, on réalise une toiture inversée.

Schéma toiture inversée.

Le principal avantage de la toiture inversée est la protection thermique de la membrane d’étanchéité et l’absence de dégradation importante de l’isolant en cas de fuite.

Alors que la toiture chaude est réalisable dans tous les cas, la toiture inversée n’est possible que :

  • Lorsque les rives du toit sont suffisamment hautes pour déborder d’au moins 5 cm la face supérieure de l’isolant.

  • Lorsque la forme de la toiture n’est pas trop compliquée (impossibilité de réaliser des remontées de l’isolant d’une toiture inversée).

  • Lorsque le support a une masse d’au moins 300 kg/m² (+/- 13 cm de béton armé) afin de parer au risque de condensation du fait de l’eau de pluie froide.
    L’eau qui s’infiltre sous l’isolant entraîne des déperditions calorifiques. Le déphasage entre le début des précipitations et la chute maximale de la température en sous-face du plafond augmente en fonction de l’inertie thermique qu’offre le support. Si celle-ci est importante, la suspension de la fonction isolante ne se fait sentir que très progressivement et retarde l’apparition de la condensation de surface. Dans le cas contraire, le risque augmente.
    Les toitures inversées de type léger (tôles profilées par exemple) sont sujettes après quelques minutes à des phénomènes de condensation en sous-face lorsque des précipitations coïncident avec des humidités relatives élevées à l’intérieur du local.

Avantages

  • Pas de risque de condensation interstitielle (l’isolant doit être posé en une seule couche)
  • Protection de la membrane d’étanchéité des variations thermique et des rayons UV. (NB : les membranes d’étanchéité actuelles résistent parfaitement à ces contraintes)
  • L’isolant (étanche à l’eau) ne risque pas d’être gorgé d’eau en cas de fuite à travers la membrane d’étanchéité.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…).

Inconvénients

  • Performances thermiques de l’isolant réduites (mouillé). Nécissité donc d’augmenter l’épaisseur d’environ 20% pour compenser.
  • Encombrement encore plus  important que la toiture chaude pour des niveaux d’isolation élevés. Dans ce cas on préconisera plutôt la toiture mixte : superposition  toiture chaude + toiture inversée.
  • Les remontées verticales autour des obstacles ne sont pas possibles. À ces endroits la technique de la toiture chaude doit être appliquée.
  • Poids important dû au lestage que doit supporter la construction.
  • Entretien difficile à cause du lestage. Pente maximale de 5°.

Quand réaliser une toiture combinée ?

Lorsqu’une isolation est rapportée au-dessus d’une première couche isolante, on parle de toiture combinée .

Schéma toiture combinée.

On adoptera cette technique lorsqu’une valeur d’isolation élevée est exigée et que l’épaisseur de l’isolant à mettre en place est importante.

La couche inférieure d’isolant sert également sur certains supports à faciliter la pose de l’étanchéité.

Avantages

  • Protection de la membrane d’étanchéité contre les chocs thermiques et le rayonnement ultraviolet, et de ce fait, ralentissement de son vieillissement.
  • Diminution des risques de condensation sous la membrane d’étanchéité en cas de précipitation lors de conditions climatiques intérieures sévères.
  • Protection du bâtiment des variations de température, et par conséquent, des dilatations et contraintes thermiques, du gel et des condensations.

Inconvénients

  • Ce système n’est conseillé que lorsque des couches d’isolation très épaisses sont nécessaires.
  • Entretien plus difficile que pour une toiture chaude non lestée.

Quand isoler par l’intérieur ou isoler le faux plafond ?

Toiture froide.

Isolation sous le support.

Faux plafond isolant.

A éviter !

La pose d’un pare-vapeur continu est difficile, si bien que la vapeur d’eau de l’ambiance risque de former de la condensation dans la toiture. De plus, le support est soumis aux chocs thermiques.

Enfin, il sera très difficile d’éviter les ponts thermiques au droit des murs de support de la toiture.

Schéma ponts thermiques.

Avantages

Aucun.

Inconvénients

  • Condensation : l’isolation d’une toiture plate par ce système provoque presque inévitablement de la condensation interne. Cette condensation peut entraîner l’altération de l’isolant et la suppression de son efficacité, la pourriture des planchers, le gel des matériaux, le décollement ou le ramollissement des matériaux agglomérés, le développement de moisissures, etc.
  • Chocs thermiques : un toit plat sans isolation thermique est déjà fortement sollicité par les variations de la température en sa partie supérieure. Les tensions thermiques sont cependant tempérées par la chaleur provenant de l’intérieur du bâtiment. À cause de la position de l’isolant du côté intérieur, les variations thermiques sont augmentées, et le support ou le béton de pente subissent donc des chocs thermiques importants et peuvent se fissurer. Il peuvent également entraîner des désordres dans les parois latérales contiguës et dans la membrane d’étanchéité.
  • Ponts thermiques : la pose de l’isolant sous la toiture sans interruption est difficile à cause des murs porteurs intérieurs. Les interruptions provoquent des ponts thermiques qui entraînent l’apparition de condensation de surface locale.

Quand réaliser une toiture légère isolée à l’intérieur de la structure ?

Schéma toiture légère isolée à l'intérieur.

Cette technique est délicate et nécessite une bonne maîtrise des phénomènes de condensation par un choix adéquat du freine vapeur et du matériau isolant. Cette technique ne convient pas pour des climats intérieurs très humides (Classe IV). La toiture ne peut pas être lestée ou à l’ombre pour permettre un séchage de l’isolant en été.

Avantages

  • Encombrement réduit. L’espace occupé par la structure est utilisé pour placer l’isolant. Cela permet donc d’augmenter l’épaisseur de la couche isolante.
  • Utilisation possible de matériaux hygroscopiques organiques comme de la cellulose

Inconvénients

  • Gestion délicate de la condensation interstitielle.
  • Faible inertie thermique de la toiture

Que faire si un faux plafond est nécessaire ?

Si le faux plafond est ajouré et n’est pas isolé, il ne contribue en rien à l’isolation thermique du complexe de toiture. Il ne provoquera aucun problème de condensation.

Schéma condensation.

Si le faux plafond est muni d’un matelas isolant, il risque d’y avoir de la condensation sur la face inférieure du support de la toiture dans certaines conditions d’utilisation des locaux sous-jacents. L’isolation du faux plafond doit idéalement être évitée.

Schéma, isolation du faux plafond doit idéalement être évitée.

Toutefois, si pour des raisons d’efficacité acoustique le matelas isolant ne peut être évité, on s’arrangera pour que son épaisseur soit la plus faible possible, et on rapportera sur la toiture une épaisseur d’isolation supplémentaire pour déplacer le point de rosée au-dessus du pare-vapeur.

La somme des résistances thermiques des couches situées sous le pare-vapeur ne peut excéder 30 % de la résistance thermique globale, sinon le point de rosée risque de se trouver sous le pare-vapeur avec comme conséquence, de la condensation interne.

Choisir un système convectif sur boucle d’eau froide : ventilo-convecteurs ou poutres froides

ventilo-convecteurs ou poutres froidesventilo-convecteurs ou poutres froides


Domaine d’application

Les émetteurs convectifs sur boucle d’eau sont parmi les systèmes de refroidissement les plus fréquemment rencontrés. On rencontre aujourd’hui particulièrement 2 technologies : les ventilo-conveteurs et les poutres froides.

On rencontre le ventilo-convecteur comme émetteur :

  • Dans les installations de climatisation devant assurer à la fois des besoins de chaleur en hiver et des besoins de refroidissement en été; ainsi, on les rencontre classiquement en allège de fenêtre des locaux, pour casser le froid du vitrage en hiver et compenser les apports solaires importants en été dans les bureaux, les commerces, les restaurants, les salles informatiques, les chambres d’hôtel,…
  • Dans les installations de chauffage pour lesquelles on souhaite une relance très rapide; une salle des fêtes, une salle de conférence, … dont le chauffage est intermittent, seront utilement équipés de ventilo-convecteurs.
  • Dans les installations de chauffage irriguées par de l’eau à basse température; les circuits raccordés à une source géothermale, à une pompe à chaleur, à un capteur d’énergie solaire,… sont valorisés par les ventilo-convecteurs qui augmentent la puissance de l’échange.

On rencontre plus particulièrement le ventilo-convecteur « 4 tubes » dans les bâtiments dont les besoins simultanés sont différents d’un local à l’autre : une cafeteria, un local informatique, des bureaux, des salles d’archives,… et le tout sur une même façade !

Le ventilo « 2 tubes – 2 fils » est une solution qui peut à la limite convenir lorsque le bâtiment est neuf et particulièrement bien isolé. Les apports internes (éclairage, bureautique, personnel,…) sont tels que le chauffage ne doit être enclenché qu’en période de gel, par exemple. Mais il sera utile de demander au bureau d’études une évaluation précise des coûts d’exploitation prévus pour le bâtiment…

C’est souvent la solution choisie par les promoteurs : le prix de revient du bâtiment est moindre. Quant à l’exploitation, ce n’est plus leur affaire … !

La possibilité de faire du chaud et du froid avec le même appareil, son prix de revient très raisonnable suite aux faibles surfaces des échangeurs, la facilité de la régulation local par local, l’efficacité du transport thermique par eau, … fait du ventilo-convecteur un best-seller de nos bâtiments climatisés !

Les poutres froides sont, en quelque sorte, des convecteurs de chauffage qui ont été placés au plafond pour faire du froid !

Photo poutres froides.  Photo poutres froides.

Il s’agit de tuyauteries parcourues par de l’eau glacée, serties d’ailettes pour favoriser l’échange convectif. Elles sont placées au plafond ou intégrées dans le faux plafond.

On distingue les poutres « actives » ou « dynamiques » (effet d’induction créé par l’air neuf) des poutres « passives » (convection naturelle uniquement) . Cet échangeur travaille sous un faible écart de température, suite à la condition de non-condensation. Sa puissance frigorifique varie selon la largeur de la poutre, la présence d’induction, l’écart de température,…

Ce produit étant à la mode, la Belgique voit son parc de poutres froides s’agrandir d’année en année, principalement dans les bureaux. Cette technique s’adapte à la construction nouvelle, mais aussi en rénovation grâce au fait de ne pas devoir percer des parois pour le passage de gainages d’air volumineux.

Les éjecto-convecteurs, sorte d’intermédiaire entre les deux précédents, est une technique des années 70 qui n’est plus guère rencontrée aujourd’hui.

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des ventilo-convecteurs, cliquez ici !

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des éjecto-convecteurs, cliquez ici !

 Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des poutres-froides, cliquez ici !

Avantages des émetteurs convectifs sur boucle d’eau

Ventilo-convecteurs et poutres froides partagent certains avantages, mais se distinguent pas d’autres.

Dans les deux cas, on bénéficie de :

  • La séparation entre la fonction ventilation des locaux (air neuf hygiénique) et l’apport thermique (apport de froid) est un gage de bonne régulation.
  • La possibilité de faire du chaud et du froid avec le même appareil, et avec une puissance relativement élevée.
  • Le système ne demande que le percement de trous pour le passage de tuyauteries d’eau. En rénovation de bâtiments, on évite ainsi l’encombrement des gainages à air de grandes dimensions… De plus, il est possible de récupérer l’ancienne installation de chauffage.
  • Une efficacité du transport thermique par eau :. Le transport du froid vers les locaux par de l’eau glacée (pompe) est environ dix fois moins énergétique que le transport par de l’air froid (ventilateur).
  • Une facilité de régulation, local par local, et donc un bon confort pour les utilisateurs : une régulation souple puisque réalisée tant via le débit d’eau que le débit d’air. un arrêt possible de l’équipement, localement, un mode de régulation très accessible par les utilisateurs, une liaison possible des différents appareils par bus de communication, ce qui permet une régulation globale de qualité par GTC.
  • Ces systèmes ne font intervenir qu’un seul corps de métier. Le plafond froid combine lui deux compétences : la pose de faux plafonds et la pose de tuyauteries. L’ensemble est plus complexe à gérer, d’autant que l’oeil est très sensible à la planéité des plafonds.

Le ventilo-convecteur a en outre comme avantage :

  • Un prix de revient raisonnable, surtout pour le système 2 tubes-2 fils, suite aux faibles surfaces des échangeurs à débit d’air forcé, et au faible coût de pose, (à noter que le prix de l’appareil dépend peu de la taille de l’échangeur et qu’il est donc possible de le surdimensionner au départ pour tenir compte d’un éventuel accroissement des charges futures).
  • Une facilité de placement : placement aisé en allège lorsque les hauteurs sous plafond ne permettent pas l’intégration d’un faux plafond, la possibilité de placer le ventilo en hauteur et de libérer la place au sol.
  • Une intégration possible d’une prise d’air neuf à l’arrière de l’équipement.
  • Une fiabilité de l’appareil (qui constitue un grand classique de la climatisation) et donc une longue durée de vie; ce n’est pas la Rolls de la clim, … mais une bonne Peugeot, quoi !
  • Dans le cas des systèmes 4 tubes :
    • La souplesse d’utilisation est totale puisque chaque ventilo est autonome : un local peut être refroidi lorsque son voisin est chauffé…
    • La possibilité de récupérer la chaleur extraite dans un local pour la fournir au local en demande.
    • Plus de circuits de zones, de vannes de commutation, … la régulation est plus simple et le service de maintenance ne s’en plaindra pas !

Par contre, la poutre froide a l’avantage de :

  • Le bruit est limité, pour autant que l’air neuf ne soit pas pulsé à trop haute vitesse (attention aux systèmes actifs).
  • La préparation d’eau glacée à une température de 15°C environ permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »). Cette propriété n’est tout à fait effective que si une machine frigorifique est spécifiquement prévue pour l’alimentation en eau froide des plafonds. Elle est en partie perdue si la même machine frigorifique est utilisée pour préparer l’air neuf déshumidifié …
  • Cette température élevée permet d’imaginer, durant une bonne partie de l’année, un refroidissement direct de l’eau glacée dans un aéro-refroidisseur ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique. Cette technique est généralement appelée « free-chilling ». La consommation liée au froid se résume à l’alimentation des pompes de circulation ! La présence d’une source d’eau froide naturelle peut également être mise à profit (rivière, lac, …).
  • L’encombrement au sol est nul !

Désavantages des émetteurs convectifs sur boucle d’eau

En termes d’inconvénients, dans les deux cas :

  • L’hygrométrie n’est pas contrôlée dans les locaux, ce qui peut poser problème d’un air trop sec en hiver.
  • La difficulté d’assurer un confort thermique correct est réelle, notamment sans courants d’air dans la zone de travail,… Une poutre statique génère une « coulée » d’air froid très désagréable sur les personnes situées sous les poutres. Elle ne peut a priori se placer que dans les locaux de grande hauteur. Par contre, la poutre dynamique semble plus confortable, car elle induit un mélange avec l’air ambiant plus élevé et donc une température de l’air plus homogène. Cependant, à l’intersection entre les flux d’air créés par deux poutres voisines parallèles, les deux flux d’air risquent de tomber sur la tête d’un utilisateur ! Le ventilo-convecteur quant à lui peut générer des courants d’air froids.
  • Curieusement, la facilité de fabrication et de pose peut devenir un inconvénient, surtout en marché public où le prix constitue le critère de sélection : la qualité des équipements fournis et la qualité de l’installation sont très variables !

 Le ventilo-convecteur a en outre comme désavantage de :

  • Lorsqu’un appareil de mauvaise qualité est installé (sous-dimensionnement des échangeurs, vitesse élevée du ventilateur, …), le bruit sera l’élément le plus négatif de cet équipement. Le niveau sonore peut être compris entre 35 et 65 dB, selon la qualité constructive, la vitesse du ventilateur et l’âge de l’équipement.
  • Le ventilo dont une prise d’air est réalisée en façade est une solution peu adaptée aux critères de confort actuel ! Ses performances thermique et acoustique sont faibles. Sans oublier le risque de gel…
  • Dans le cas des systèmes 2 tubes : Les besoins doivent être similaires dans les différents locaux d’une même zone; autrement dit, le nombre de zones doit être suffisamment élevé, si on ne souhaite pas de conflits en mi-saison pour le passage du chaud au froid !
  • Dans le cas des systèmes 4 tubes :
    • Le coût d’installation est plus élevé puisque les ventilos contiennent deux échangeurs, les circuits sont dédoublés, de même que le nombre de vannes, de circulateurs,…
    • L’encombrement est également plus important (ventilos plus volumineux et gaines techniques plus larges).
    • Durant toute une partie de l’année, il faut maintenir en fonctionnement les deux réseaux; les pertes énergétiques de ces réseaux ne sont pas négligeables…
  • Dans le cas des systèmes 2 tubes – 2 fils : Le coût d’exploitation est certainement le point noir de ce système…

La poutre froide a, elle, comme désavantages :

  • Le coût d’installation est élevé, du moins en rapport à la puissance frigorique fournie.
  • La puissance frigorifique reste limitée par rapport aux systèmes traditionnels. Ou du moins, placer des poutres dans les plafonds risque de générer des problèmes d’inconfort si bien que la densité maximale admissible reste faible.
  • Dans le cas des poutres dynamiques, il est courant de pulser un débit d’air supérieur à celui strictement nécessaire pour assurer l’air neuf hygiénique dans les locaux. Autrement dit, pour assurer la puissance de refroidissement demandée par le local, l’air primaire pulsé passe bien souvent de 1 renouvellement horaire à deux renouvellements. Le débit d’air total brassé est alors de l’ordre de 5 (3 renouvellements d’air secondaire sont induits). Or c’est de l’air neuf qui est ainsi doublé, ce qui va générer une consommation supplémentaire très élevée durant la vie du bâtiment.
  • La poutre dynamique est très semblable à l‘éjecto-convecteur dans son mode de fonctionnement. On peut donc lui faire les mêmes nombreux reproches. Il est d’ailleurs très curieux que l’éjecto-convecteur, écarté du marché, car ne convenant plus aux besoins de souplesse des locaux, revienne aujourd’hui, sous une forme plus complexe encore en matière de maintenance : dans le plafond ! Le prix d’investissement justifie-t-il de refaire les mêmes erreurs ?
  • L’encrassement des poutres demande un entretien régulier, pas toujours aisé lorsqu’on ne souhaite pas interrompre l’activité des personnes.


Choix du régime d’eau

Dans le cas des poutres froides, le circuit est alimenté au régime aller-retour de 15°C – 17°C (on parle d’eau froide), pour limiter les risques de condensation dans l’émetteur. Dans le cas des ventilo-convecteurs par contre, le régime peut être plus bas (6°C-12°C – on parle d’eau glacée).

Choisir une température d’eau glacée la plus haute possible

Plus la température de l’eau glacée est basse, plus l’inconfort des occupants augmente (température d’air très basse). De plus, la consommation des ventilos-convecteurs augmente :
Car la chaleur latente de l’air captée augmente.
En effet, si la température de la boucle d’eau glacée est inférieure à la température de rosée de l’ambiance et l’humidité de l’air se condenseront inutilement.

Il est donc utile de dimensionner les ventilos sur base d’un régime de température élevé. Par exemple : départ 12°C – retour 16°C, départ 12°C – retour 18°C, …

Dimensionner les installations avec un régime 6°C – 12°C va permettre de sélectionner des échangeurs plus petits (delta T° plus élevé par rapport à l’ambiance), donc moins chers à l’investissement, mais nettement plus coûteux à l’usage.

En fait, lorsque le bureau d’études dimensionne au régime 6°C – 12°C, il voit dans le catalogue du fabricant la part de chaleur latente captée par rapport au sensible.

Exemple : la sélection d’un ventilo-convecteur.

Le catalogue d’un fabricant prévoit :

Régime 6/12°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 3,40 kW
Puissance frigorifique sensible : 2,35 kW

On constate que 1,05 kW est consacré à la déshumidification de l’air ambiant, soit 31% de la puissance totale. À ce moment, la consommation de l’appareil est majorée de 31 % !

Voyons pour le régime 12/18 (pour le même appareil) :

Régime 12/18°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 1,58 kW
Puissance frigorifique sensible : 1,58 kW

La déshumidification n’a plus lieu. Mais l’échangeur ne produit plus que 1,58 kW utile… Il faudra augmenter la surface d’échange de 49 % pour atteindre les 2,35 kW du régime 6/12.

On rétorquera que la déshumidification est parfois nécessaire en plein été. Effectivement, mais c’est le rôle du groupe de préparation d’air hygiénique de déshumidifier l’air, avec un contrôle basé sur la sonde de reprise d’air. Le ventilo agit lui sans aucun contrôle. On le voit bien puisque le catalogue part d’une humidité ambiante de 46 %, qui n’est pas à déshumidifier. Le ventilo le fera quand même !

De plus, suite à la condensation sur les ailettes, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.

> Car le rendement (ou COP) de l’installation frigorifique diminue.

Au régime 7°C – 12°C, la température moyenne de l’évaporateur est plus basse qu’au régime 12° – 17°C. Le compresseur a plus de mal à travailler et le COP de l’installation en est légèrement dégradé. En moyenne, on considère que le COP diminue de 3 % par degré d’abaissement de la température d’évaporation.

Si la machine frigorifique alimente à la fois le réseau d’eau glacée et la batterie froide du caisson de traitement d’air (par exemple, au régime 7°C – 12°C), l’impact est plus faible mais l’intérêt de travailler à haut régime de température reste et l’on essayera d’organiser la mise en série hydraulique des batteries.

> Car il est alors possible de récupérer la chaleur captée par l’eau glacée pour préchauffer l’air neuf hygiénique.

Évaluer

Chiffrer l’investissement et le coût d’exploitation pour le régime à haute température.

Problème des locaux à forte chaleur sensible dégagée

Dans les locaux informatiques, par exemple, on n’arrive pas toujours à travailler avec des ventilos alimentés à haute température (12°C – 17°C). La puissance frigorifique délivrée n’est pas toujours suffisante.

Dans ce cas, il est plus intéressant de créer un réseau spécifique pour l’eau du local informatique. On peut y travailler à température plus basse puisque l’air ne contient pas d’humidité (donc pas de consommation par le latent).

De plus, un tel réseau indépendant est souvent adéquat parce que le travail y est réalisé 24h/24 et alimenté sur secours, ce qui implique une gestion autonome.

Généralement, les besoins d’apport d’air neuf sont faibles, la ventilation se fait par transfert d’air venant des couloirs et extraction dans le local.

Possibilité de free-chilling

Les ventilos-convecteurs alimentés par de l’eau froide à « haute température » (régime 12°C – 17°C) pourront valoriser tout particulièrement la technique de free-chilling qui consiste à by-passer le groupe frigorifique et à refroidir directement l’eau de 17 à 12°C par l’air extérieur.

Concevoir

Pour en savoir plus sur la mise en place d’un free-chilling, cliquez ici !

Puisque cette possibilité existe dès que la température extérieure est inférieure à 10°C, cette technique sera particulièrement intéressante si des besoins de refroidissement des locaux existent en période d’hiver.

C’est l’analyse des besoins du bâtiment en fonction de la température extérieure qui devra le dire.


Combinaison avec la ventilation hygiénique

Trois combinaisons entre les émetteurs convectifs et le réseau de ventilation sont possibles :

Contrôle de température et ventilation totalement séparés

Illustration sur le contrôle de température et ventilation totalement séparés

Dans ce cas, air neuf et contrôle de la température sont complètement séparés. L’air est amené par un réseau de ventilation mécanique optimisant les récupérations d’énergie sur l’air extrait et la valorisation du free cooling.

Éventuellement, l’air neuf est traité en centrale pour fournir un apport de chaleur ou de froid « de base » dans les locaux. L’unité terminale sert alors de correction locale. Attention ! Dans ce type de configuration, il existe un risque de destruction d’énergie entre le traitement centralisé et l’unité terminale.

On rencontre cette configuration dans le cas des poutres froides statiques et de la plupart des installations de ventilo-convecteurs.

L’émetteur combiné à la gaine de pulsion d’air

C’est la configuration typique des poutres froides dynamiques, qui utilisent la pulsion d’air hygiénique pour générer un effet d’induction sur l’échangeur de chaleur.

De même, lorsque le ventilo est placé en faux plafond, on a souvent tendance à insérer l’apport d’air neuf dans le plénum constitué par ce faux plafond. Le ventilo aspire un mélange d’air du local et d’air neuf.

Illustration sur l’émetteur combiné à la gaine de pulsion d'air

Un tel système demande la présence d’un organe autorégulant à l’entrée de chaque ventilo pour ne pas perturber le débit lorsque des ventilos voisins se mettent à l’arrêt.

On peut également se demander ce que devient l’apport d’air neuf dans le local lorsqu’il n’y a pas de demande de chaud ou de froid, c’est-à-dire lorsque le ventilateur du ventilo est mis à l’arrêt. En effet, le ventilateur principal n’a, en principe, pas été dimensionné pour vaincre la résistance des batteries du ventilo.

Pour garantir un apport d’air neuf permanent, le ventilateur du ventilo doit fonctionner en permanence, avec une puissance d’environ 60 W.

Une telle configuration sous-entend un préchauffage central minimum de l’air en hiver, puisqu’il est impensable, notamment pour des raisons de condensation, de faire circuler de l’air à – 10°C au travers du bâtiment.

Dans le cas d’un ventilo-convecteur placé en allège, la tuyauterie d’air neuf peut être intégrée dans le faux plafond du local inférieur, ce qui diminue le coût d’investissement.

On retrouve une telle intégration dans les MTA, Modules de Traitement d’Air.

Le ventilo-convecteur équipé d’une prise d’air neuf directe à l’arrière de l’équipement

C’est au départ une solution peu onéreuse car elle ne demande aucun réseau d’air pour la pulsion. En fait, on est face à une ventilation mécanique dont seule l’extraction est gainée.

Ce système n’entraîne aucun conflit entre apport thermique par le ventilo et apport thermique par l’air neuf (pas de destruction d’énergie), mais il interdit aussi toute gestion URE de la ventilation : récupération de chaleur sur l’air extrait et recyclage sont pratiquement impossible.

illustration sur le ventilo-convecteur équipé d'une prise d'air neuf

Quelques difficultés spécifiques à ce système :

  • Il demande une protection vis-à-vis du risque de gel,
  • Il réalise un pont thermique et acoustique avec l’extérieur,
  • Le débit d’air neuf sera mal contrôlé et fonction notamment de la pression du vent sur la façade, ce qui réduit son utilisation aux bâtiments peu élevés,
  • La filtration de l’air neuf est très grossière et insuffisante dans les milieux urbains pollués (filtre gravimétrique),
  • Si l’on veut respecter les critères de confort en plein hiver, elle impose d’intégrer une humidification de l’air dans l’appareil, ce qui est possible mais coûteux (systèmes ultrasoniques) et implique un réseau d’eau dans les locaux, et donc peut être, à terme, des problèmes d’hygiène.


Choix de la performance énergétique des échangeurs

A puissance thermique égale, en vue d’abaisser les coûts et de remporter le marché, le fabricant proposera un matériel plus compact. La qualité de la batterie en souffrira : ailettes plus fines, entraxes des ailettes diminuées, …

Plusieurs conséquences en résultent :

  • La perte de charge (et donc la consommation permanente du ventilateur) est augmentée.
  • Le by-pass factor est diminué, c’est-à-dire que beaucoup d’air rentrera en contact direct avec les ailettes, ce qui renforcera la condensation de l’humidité contenue dans l’air. Là encore, la consommation du ventilo sera inutilement augmentée.
  • Si la condensation augmente, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.
  • Enfin, les fines ailettes seront très sensibles aux chocs et la pose et la maintenance en seront moins aisées.

Si la surface de l’échange est diminuée, le fabricant cherchera à augmenter la vitesse de passage de l’air et donc, dans le cas du ventilo-convecteur la consommation du ventilateur.

Un critère de performance peut donc être de comparer la puissance électrique du ventilo-convecteur à la puissance frigorifique sensible annoncée par le fabricant. Ce rapport doit être le plus faible possible. Pour que cette comparaison soit fiable, il faut cependant que les données constructeurs aient été mesurées suivant les mêmes conditions de fonctionnement. Ce sera le cas, si les appareils comparés sont certifiés « Eurovent ».

Il nous semble également qu’en exigeant une haute performance acoustique, l’on puisse obtenir un maximum de garantie d’une qualité globale du ventilo.

Remarque : si le projet est très important (1 000 ventilos, par exemple), il est alors utile de vérifier les performances annoncées par le constructeur auprès du laboratoire de Thermodynamique de l’ULg, par exemple.


Choix en fonction des critères d’exploitation

Il est utile de penser dès le départ :

  • À l’accessibilité des différents organes pour la maintenance (accès aux filtres, accès aux organes de réglage, facilité de démontage des panneaux d’allège, facilité de nettoyage des batteries et des bacs de condensats,…).
  • Au souhait de pouvoir intervenir hors de la présence des occupants (p.ex., localisation en couloir).
  • Pour les ventilo-convecteurs :
    • Aux qualités des parties mobiles : suspension du moteur, résistance à l’échauffement, …
    • A la tenue aux vibrations : usure du supportage, tenue des raccordements hydrauliques, étanchéité des flexibles, …
    • A la résistance des ailettes (déformations, chocs, …).

Choix de la régulation des productions de chaleur et de froid

Deux situations vont se présenter : si le bâtiment est homogène dans ses besoins, un seul réseau d’eau sera prévu et on choisira de l’alimenter en eau chaude en hiver et en eau glacée en été. C’est évidemment une solution très bon marché, mais c’est également la moins souple. Par exemple, la façade Sud est alimentée de la même manière que la façade Nord…

Si on souhaite alimenter différemment chacune des façades, ou même alimenter séparément la salle de réunion, on peut décomposer le bâtiment en différentes zones, et faire fonctionner simultanément le réseau d’eau chaude et le réseau d’eau glacée. Chaque zone utilisera le réseau qui lui convient en fonction des besoins du local.

C’est donc le bureau d’études qui va définir en accord avec l’architecte du degré de souplesse désiré pour les utilisateurs. Le coût de l’installation est directement lié à cette souplesse de fonctionnement.

Une alternative est de passer à une solution 4 tubes.

A signaler les critères énergétiques de qualité

  • l’adaptation possible dans certains cas de la température de départ de la boucle d’eau glacée,
  • la régulation de la température de départ de la boucle d’eau chaude,
  • un basculement froid/chaud (« change over ») avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Il est également possible d’installer une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale. La rentabilité d’une telle opération doit être étudiée. L’investissement est limité puisque c’est la même machine frigorifique qui devient pompe à chaleur. Toute la difficulté réside dans l’estimation de la performance saisonnière de la PAC et si cette valeur permet de compenser le coût plus important de l’énergie électrique. Si une source froide est possible (lac, rivière, forage, …), cette opération est fort intéressante.

La régulation optimale de la boucle d’eau glacée

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à un régime constant du type aller 6° – retour 11°, mais il y a là un potentiel d’énergie à récupérer : dans certains cas l’on peut faire varier ce régime de température et travailler à température plus élevée. La consommation du compresseur en sera diminuée d’autant !

Améliorer

Pour en savoir plus sur l’amélioration de la machine frigorifique, cliquez ici !

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace (ce n’est pas une économie d’énergie mais plutôt une économie financière résultant de la gestion de la pointe quart-horaire).

Améliorer

Pour en savoir plus sura mise en place d’un stockage d’énergie frigorifique, cliquez ici !

La régulation optimale de la boucle d’eau chaude

La production de chaleur se fait, par exemple, par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

Lorsque l’occupation du bâtiment permet d’imaginer que des besoins de chaleur et de froid pourront coexister, la production de chaleur peut alors être assurée par une machine frigorifique dont on récupère la chaleur au condenseur.  A ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer ! L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir. Une chaudière d’appoint reste nécessaire pour vaincre la pointe hivernale. C’est une possibilité à étudier lorsque les bâtiments sont constitués de larges plateaux : on peut penser qu’il faudra refroidir le cœur pour chauffer les bureaux périphériques.

Choisir la couche isolante dans le versant du toit

  1. Lattes
  2. Contre-lattes
  3. Sous-toiture
  4. Isolant
  5. Charpente
  6. Pare-vapeur
  7. Finition du plafond

Suivant que l’isolation est extérieure (ou intérieure avec sous-toiture) ou intérieure sans sous-toiture, le type d’isolant et sa mise en œuvre seront différents.


Le  type de pose

Le choix du type d’isolant dépend de la façon dont on souhaite la placer, en d’autres mots, du modèle d’isolation. Les caractéristiques de chaque type d’isolant (rigidité, résistance mécanique, comportement à l’eau, etc.) font qu’il est mieux adapté à tel ou tel modèle d’isolation.

Ainsi, les isolants les mieux adaptés aux différents modèles d’isolation sont les suivants :

Isolation entre chevrons ou fermettes

  1. couverture
  2. contre-lattes
  3. lattes
  4. sous-toiture
  5. fermettes
  6. isolant
  7. pare-vapeur
  8. finition intérieure

Isolation au-dessus de la charpente
(méthode sarking)

  1. couverture
  2. contre-lattes
  3. lattes
  4. sous-toiture
  5. isolant
  6. pare-vapeur
  7. chevrons ou fermettes
  8. panne
  • panneaux de mousse synthétique,
  • plaque de verre cellulaire (sur plancher),
  • laine minérale rigide (sur plancher),
  • panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …)

Isolation par éléments auto-portants

  1. couverture
  2. languette d’assemblage
  3. lattes
  4. panneau de toiture préfabriqué
  5. raidisseur du panneau
  6. isolant du panneau
  7. pare-vapeur intégré éventuel
  8. plaque inférieure du panneau
  9. panne

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait. La valeur de calcul de la conductivité thermique (λU) d’un isolant possédant ce type d’agrément est connue avec précision. Il est certifié par le fabricant. Il est régulièrement vérifié par des essais. Il peut être utilisé pour calculer les performances de la paroi à la place des coefficients moins favorables tabulées dans les normes (Annexe B1 de la PEB).

Le choix du matériau isolant se fait en fonction des critères ci-dessous

  • l’efficacité isolante,
  • la compatibilité avec le support,
  • le comportement au feu,
  • le prix.

C’est au concepteur de choisir ceux qui sont prioritaires.


L’efficacité isolante à atteindre

La valeur isolante du matériau dépend de son coefficient de conductivité thermique λ. Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

Le choix l’épaisseur d’isolant doit donc se réaliser en fonction de la performance thermique à atteindre.

Exemple d’épaisseur calculée d’isolant

Remarque : les calculs ci-dessous sont faits avec l’hypothèse que la toiture est étanche à l’air. Dans le cas contraire, en pratique, les mêmes épaisseurs d’isolant peuvent mener à une valeur U 2,5 fois plus élevée que celle prévue.

Pour assurer l’étanchéité à l’air, il est préférable que la toiture soit équipée d’une sous-toiture. Si elle est rigide, la sous-toiture permet de garantir le contact entre elle et l’isolant et ainsi assurer une meilleure étanchéité à l’air.

Enfin, toujours pour éviter les infiltrations d’air, il est nécessaire de prévoir un écran étanche à l’air, car le plafond n’est pas rendu étanche par sa finition (lambris, planchettes, plaques de plâtres,…)

Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

1/U = [1/hi + d1/λ1 + d2/λ2 + … + di/λi + Ru + 1/he]

d’où :

di = λi [(1/U) – (1/hi+ d1/λ1 + d2/λ2 + … + Ra + 1/he)]

Exemple.

Le tableau ci-dessous donne les résultats des calculs pour une configuration de toiture avec sous-toiture.

Dans les calculs, l’espace entre les éléments de couverture et la sous-toiture est considéré comme une couche d’air très ventilée.

Données concernant les différentes couches (de l’intérieur vers l’extérieur) :

  1. plaques de plâtre, 9 mm,   = 0,35 W/(mxK);
  2. gaine technique : vide non ventilé de 2 cm –> Ra = 0,17 m²K/W;
  3. isolant : MW :   = 0,041 W/(mxK); EPS :   = 0,040 W/(mxK); PUR :   = 0,028 W/(mxK); XPS :   = 0,034 W/(mxK);
  4. sous-toiture cellulose-ciment, 5 mm, = 0,23 W/(mxK).

(Valeurs extraites de la NBN B 62-002/A1)

On a donc pour U = 0,3 et :λi = 0,04

di = λi [(1/U) – (1/HI + d1/λ1 +Ra + d2/λ2 + 1/HI)]

di = 0,04[(1/0,3) – (1/8 + 0,009/0,35 + 0,17 + 0,005/0,23 + 1/8)]

di = 0,114 m

Valeur U sans isolation [W/(m²xK)] Épaisseur (en mm) d’isolant nécessaire pour obtenir :
U < 0,3 W/(m²xK)
MW, EPS PUR XPS
2,1 > 115 > 80 > 100

Calculs

Si vous voulez estimer le coefficient de transmission thermique d’une toiture à partir des différentes épaisseurs de matériaux.

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante lorsque celle-ci existe. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.

La formule devient alors :

di = λi ((1/ U) – (1/he + 1/hi) [m]

Pour U = 0,3 W/m²K,

di =λi ((1/ 0,3) – (1/23 + 1/8 )) m
=λi x 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λi.

L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR), son  i vaut 0.028 W/mK (suivant NBN B 62-002/A1)

di = 0.028 x 3.16 = 0.088 m

L’épaisseur commerciale : 90 mm

Calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant.

Les isolants minces réfléchissants ont fait l’objet d’une polémique importante ces dernières années.

 

Qu’en penser ? Nous reproduisons en annexe le compte-rendu détaillé de l’étude du CSTC à ce sujet, étude confirmée par plusieurs études scientifiques dans divers pays européens. L’affirmation des fabricants d’un équivalent de 20 cm de laine minérale est fantaisiste. Dans le meilleur des cas un équivalent de 4 à 6 cm peut être obtenu, ce qui est insuffisant.

Si ce produit connaît malgré tout un certain succès commercial, c’est parce que sa pose est très rapide (agrafage sous pression), donc intérêt de l’entrepreneur qui en fait la publicité, et que le produit se présente en grandes bandes continues, assurant une très grande étanchéité au passage de l’air, donc impression d’une certaine qualité pour l’occupant.

Si on souhaite les associer à un isolant traditionnel, leur faible perméabilité intrinsèque à la vapeur d’eau les prédispose naturellement à être utilisés comme pare-vapeur (pose du côté chaud) et non comme sous-toiture (risque de condensation en sous-face).


La compatibilité avec d’autres matériaux

Certains isolants sont incompatibles avec d’autres éléments de la toiture en contact avec l’isolant.

Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.


La tenue au feu

Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.

La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant, les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.


L’impact écologique

Les différents matériaux isolants n’ont pas tous le même impact sur l’environnement. Pour limiter cet impact, on choisira de préférence un isolant « écologique ».

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant, mais aussi de sa mise en œuvre.

En toiture inclinée, l’isolant de bonne qualité, correctement posé et protégé des agressions extérieures, ne nécessite aucun entretien et sa durée de vie ne pose pas de problème particulier.

Mais toute vie a une fin. Il faut donc être attentif au coût de son remplacement en fin de vie, dont le coût de mise en décharge. Dans le futur, celui-ci risque de croître, notamment pour les mousses synthétiques.


Les conseils généraux de mise en œuvre de la couche isolante

> L’isolant doit être placé sur toute la surface de la toiture sans oublier les éventuelles parties verticales ossature-bois, les joues des lucarnes, etc.

> Les joints entre les éléments suivants doivent être bien fermés :

  • entre les différents panneaux isolants,
  • entre les panneaux isolants et la charpente.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

> Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé.
Par exemple :

  • L’isolant de la toiture doit être en contact avec l’isolant des murs extérieurs dans le cas d’une échelle de corniche, les espaces libres doivent être remplis d’isolant.
  • Il doit être dans le prolongement et en contact avec le dormant du châssis muni d’un vitrage isolant.
  • Il doit être en contact avec l’isolant autour du conduit de cheminée.

> Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.

> Il faut protéger et manipuler les panneaux isolants avec précautions pour éviter les écrasements, les déchirures, l’eau, la boue.

Locaux isolés, la salle de spectacles ou de conférences

Locaux isolés, la salle de spectacles ou de conférences


Analyse de la demande

Quelles sont les spécificités d’une salle de spectacles ou de conférences ?

Un grand volume unique
>
l’adéquation d’un traitement centralisé,
Une présence nombreuse d’occupants
>
un besoin important d’air hygiénique,
Une présence variable d’occupants
>
un besoin variable d’air hygiénique et un besoin de commander ce débit en fonction de la présence réelle des occupants,
Une occupation intermittente
>
un besoin d’assurer une température minimale en dehors des périodes d’occupation,
Peu de parois vitrées
>
des besoins de refroidissement liés essentiellement à la présence humaine et non aux apports solaires
Souvent, présence d’absorbants acoustiques sur les parois (et donc d’une couche isolante)
>
un mauvais accès à l’inertie des parois et donc une tendance à la montée en température rapide de l’air si les apports sont élevés.

Choix d’un système spécifique aux salles de conférence

De l’analyse de la demande, il apparaît un facteur clef : la quantité d’air neuf hygiénique est très élevée. Un système « tout air » paraît adéquat puisque le débit d’air neuf sera proche du débit requis pour le traitement de la charge thermique.

De façon simplifiée (seuls les besoins sensibles sont pris en compte) :

  • Une personne demande 30 m³/h d’air neuf.
  • Si cet air est pulsé à une température de 16°C dans une ambiance à 24°C, il apporte un refroidissement de :

30 [m³/h] x 0,34 [Wh/m³.K] x (24 – 16) [K] = 82 Watts

De plus, un système de climatisation « tout air » pourra répondre avec rapidité aux variations brusques des besoins.

Parmi les installations « tout air », il faut choisir entre une installation à débit d’air constant et une installation à débit d’air variable.

Il est clair qu’aujourd’hui le débit d’air neuf traité doit être adapté à l’occupation réelle. Si la salle est prévue pour 300  personnes, on ne peut pulser en permanence 9 000 m³/h (= 300 pers x 30 m³/h. pers), même si 20 personnes occupent en réalité la salle. Le coût du traitement d’air de 9 000 m³/h est élevé (sur base d’un fuel à 0,4 € du litre, on dépasse les 7,5 € de l’heure par 5°C extérieur). Et surtout, cela représente un gaspillage écologique non justifiable.

Mais le choix est plutôt :

  • solution 1 : pulser un débit d’air constant dans la salle et, dans ce débit, intégrer une quantité variable d’air neuf.
  • solution 2 : pulser un débit d’air variable lié à la présence des personnes et y intégrer un débit minimal d’air neuf.

Autrement dit, dans le schéma ci-dessous,

  • Soit le ventilateur est à débit constant, une sonde d’ambiance module le réglage des batteries de chaud et de froid, et une sonde de qualité d’air dans la reprise module l’ouverture du registre d’air neuf.
  • Soit le ventilateur est à débit variable en fonction de la présence effective des occupants, une sonde d’ambiance module le réglage des batteries de chaud et de froid, et une sonde de qualité d’air dans la reprise module l’ouverture du registre d’air neuf.

Un traitement d’air à débit constant

La première solution paraît plus claire à mettre en œuvre parce que chaque équipement est géré de façon indépendante par un capteur différent.

De plus, le débit d’air pulsé étant constant, une bonne distribution de l’air est maintenue en permanence. Certains modes de distribution (jets d’air à induction situés près des occupants) sont très sensibles à cet aspect : si le débit diminue, une « coulée » d’air froid inconfortable risque de se produire près des occupants.

Une telle installation permet une très bonne exploitation du free cooling, c’est-à-dire, du refroidissement par de l’air extérieur « gratuit » en hiver et en mi-saison. En été, rien n’empêche de refroidir également le bâtiment pendant la nuit (night-purge) grâce à l’air extérieur frais.

Le poste de traitement de l’air neuf, qui est sans conteste le poste consommateur principal (les déperditions par les parois sont proportionnellement très faibles dans un bâtiment isolé), est parfaitement maîtrisé grâce à l’injection d’air neuf liée à la dégradation de la qualité d’air.

En pratique, le régulateur choisira la valeur du débit d’air neuf maximum entre la demande de la sonde de qualité d’air et la demande de free-cooling pour refroidir l’ambiance.

Si le programme d’occupation de la salle est très élevé, un récupérateur de chaleur sur l’air extrait s’avère utile puisque peu d’air sera recyclé.

Concevoir

Pour trouver plus d’infos sur l’organisation d’un conditionnement d’air à débit constant.

Mais il reste un défaut : si seulement 20 personnes sont présentes dans la salle de 300 personnes, le ventilateur brassera les 9 000 m³ chaque heure (alors que 600 suffiraient), avec un bruit qui sera maximum lui aussi ! …Et lorsque tous les occupants seront partis, qui arrêtera l’installation ? et lorsque l’installation sera arrêtée, comment faire pour que la salle ne soit pas trop froide juste à l’arrivée des occupants ?

Suivant le type de bâtiment et son régime d’occupation prévisible, différentes solutions sont possibles en combinant :

  • Un ou plusieurs détecteurs de présence, pour arrêter l’installation après une période de temporisation.
  • Des ventilateurs à deux ou trois vitesses, pour réduire la puissance motrice en situation d’occupation réduite.
  • Des équipements statiques (= des radiateurs) pour gérer la période en dehors de l’occupation (maintien hors gel, relance à 16° au matin, …), ou pour gérer des ambiances différentes si plusieurs locaux attenants sont concernés.

Un traitement d’air à débit variable

L’avantage paraît clair : ne pulser que l’air nécessaire et ainsi limiter le bruit et la consommation du ventilateur.
En pratique :

  • se baser sur un chauffage de base statique (radiateur, convecteur),
  • apporter l’air neuf extérieur pour les occupants, si présents, ou pour rafraîchir l’ambiance (free-cooling),
  • apporter l’air froid pour refroidir le local en été.

La difficulté, c’est que l’on superpose une régulation de température et une régulation de débit d’air neuf sur le même équipement : le ventilateur. Cela ne peut fonctionner que si l’occupant est quasi la source unique d’apport de chaleur dans la salle (pas de projecteurs,par exemple). De plus, il faut trouver un capteur qui puisse commander la vitesse de rotation du ventilateur en fonction du nombre de personnes présentes.

C’est le cas d’une salle de cinéma d’aujourd’hui :

  • La commande des billets renseigne les spectateurs sur le nombre de places restantes.
  • Mais elle informe également le variateur de vitesse du ventilateur du nombre de personnes dans la salle et donc du débit d’air neuf à pulser (c’est le cas à ImagiMons).
  • Une sonde d’ambiance (dans la reprise, par exemple) module la température de pulsion dans la salle.

Avec un débit d’air minimal pour assurer un balayage de base, le confort peut tout à fait être garanti.

Un avantage supplémentaire réside dans le fait qu’il n’est pas nécessaire de recycler l’air, puisque seul l’air neuf est pulsé par le ventilateur. Par contre, un récupérateur de chaleur sur l’air extrait permettra de récupérer de l’ordre de 50 % de la puissance thermique.

Mais des risques de mauvaise distribution de l’air dans la salle apparaissent lorsque le débit est faible…

Concevoir 

Pour trouver plus d’infos sur l’organisation d’un conditionnement d’air à débit variable (attention : appliqué à un immeuble de bureaux).
Remarque.

En dehors du cas de la salle de cinéma, force est de constater que nous manquons d’exemples d’application de ce système.

Mais nos lecteurs connaissent peut-être d’autres solutions et nous serions très heureux d’en être informés et d’en faire profiter chacun dans une prochaine version d’energie+.

Reste, pour les deux solutions, à trouver la meilleure distribution de l’air. Il semble qu’une pulsion de bas en haut (soufflage par les gradins et reprise en partie supérieure) permet de mieux gérer la qualité de l’air pour les occupants. La création d’un plénum de distribution dans l’espace situé sous les gradins est souvent une solution facile à gérer.


Choix de la régulation du débit d’air neuf

Quel que soit le système de climatisation choisi, une modulation de l’apport d’air neuf devra y être intégrée.

On peut évidemment y adapter une gestion par horloge.

Cependant, lorsque l’horaire d’occupation est aléatoire et que le taux d’occupation est variable (une même salle peut être occupée par 20 ou 200 personnes), on peut envisager une gestion tenant compte du nombre d’occupants.

Dans ce cas, la sonde CO2 est la plus fiable. Elle reflète mieux la présence effective de personnes dans un local puisqu’elle est directement proportionnelle à leur respiration. Mais elle est chère (minimum 750 €). Sa rentabilité n’est donc possible que pour la gestion d’un débit nécessaire important et relativement aléatoire.

Sonde COV et sonde CO2.

Dans certains cas particuliers, on pourrait éventuellement envisager l’utilisation d’une sonde COV, sensible aux odeurs les plus diverses, et donc à la fumée de cigarette. La sonde COV (Composés Organiques Volatiles), encore appelée sonde de qualité d’air, n’est pas trop chère (+/- 225 €). Elle semble cependant difficile à paramétrer au départ (quelle valeur de consigne faut-il lui donner ?) et capricieuse dans le temps. Elle nécessite donc un étalonnage régulier et une bonne information de l’exploitant sur son principe de fonctionnement. Elle est généralement choisie pour le réglage du taux d’air neuf dans les locaux avec présence de fumeurs (la sonde CO2 détecte très mal l’odeur de cigarettes…). La sonde devra être entretenue (nettoyage et étalonnage périodique). Si cette maintenance est peu probable, ou si l’ambiance se révèle être trop chargée en poussières, on préférera une régulation à deux vitesses basée sur le dépassement d’un seuil critique, plutôt qu’une régulation analogique réglée sur le signal 0-10 V de la sonde.

Sonde COV ou sonde CO?

La comparaison des utilisations entre sonde COV et sonde CO2 apparaît clairement par l’expérience menée par le COSTIC en France :

Correspondance entre la mesure d’une sonde COV et la mesure d’une sonde CO2 dans un bureau de 32 m³, sans ventilation :

  • Phase 1 : une seule personne est présente dans le bureau durant 1 heure. Deux cigarettes sont fumées successivement, après 15 et 45 minutes.
  • Phase 2 : après ventilation de la pièce, six personnes sont introduites dans le bureau durant 10 minutes et il leur est interdit de fumer.

On observe très nettement la sensibilité de la sonde COV à la fumée de cigarette lors de la première phase. Par contre, la forte occupation de la phase 2 est mieux mise en évidence par la sonde CO2.

En conclusion, les sondes de qualité d’air, sensibles à la fumée de cigarette et aux composés organiques odorants, sont adaptées aux salles de réunion pour fumeurs, aux restaurants, … . Les sondes CO2, uniquement sensibles à la présence du dioxyde de carbone sont plus adaptées aux locaux dans lesquels la cause de la pollution est celle provoquée par l’occupation : salles de conférence, amphithéâtres, …

Études de cas 

La régulation de la ventilation d’une salle de conférence par sonde CO2.

Conditionnement d’air d’un immeuble de bureaux

Conditionnement d'air d'un immeuble de bureaux


Solution 1 : réseau « tout air neuf » à un conduit, à débit d’air constant

Le principe de base d’une installation « tout air » est double : fournir aux occupants de l’air neuf hygiénique et assurer le traitement thermique des locaux. L’air est donc préparé en centrale et distribué dans les différents locaux.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 01.

Un tel système est bien adapté au traitement d’une grande salle unique (salle de réunion, salle de conférence, …) mais s’adapte mal à un ensemble de bureaux dont les charges thermiques et les occupations peuvent être très différentes, notamment parce qu’ils seraient sur des façades d’orientations différentes.

A priori, ce n’est donc pas une bonne solution pour des immeubles de bureaux présentant beaucoup de locaux distincts.

De plus, l’encombrement apporté par les gaines est fort important.

1ère amélioration

Pour réduire l’encombrement, on peut réaliser des variantes à « haute pression » : on réduit les sections, on augmente la vitesse, la pression délivrée par le ventilateur augmente, … le bruit aussi ! L’insertion d’un caisson absorbeur acoustique s’impose.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 02.

Mais la consommation relative à l’énergie motrice (ventilateur) déjà élevée, en est encore augmentée puisque le débit d’air est véhiculé avec des pertes de charge accrues.

De plus, un problème majeur subsiste : dans les solutions ci-dessus, c’est toujours de l’air neuf qui est traité et pulsé dans les locaux. Une consommation énergétique importante en résulte !

2ème amélioration

Le recyclage d’air vicié est requis afin d’éviter le gaspillage d’énergie qu’entraîneraient le chauffage et le refroidissement de la totalité de l’air neuf mis en œuvre.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 03.

Cette solution est plus économe mais elle entraîne l’inconvénient de mélanger et redistribuer de l’air extrait de locaux différents… Pour des raisons hygiéniques, elle sera exclue en milieu hospitalier par exemple. Dans les immeubles de bureaux, certains disent que le recyclage est à l’origine du « sick building syndrom », c’est-à-dire, en bref, de la propagation du rhume de la secrétaire à l’ensemble du personnel !

Ce qui est certain, c’est que si une telle installation est choisie, elle devra faire l’objet d’un entretien régulier et d’une attention toute particulière au niveau du système d’humidification et de filtration. Si la filtration est de qualité, on pourra bénéficier au contraire d’un air plus pur que celui d’un bâtiment traditionnel, sans conditionnement d’air.


Solution 2 : réseau « tout air  » à un conduit, avec traitement terminal

Pour mieux réguler l’installation en fonction des besoins, une solution consiste à partir d’une installation monogaine (air globalement prétraité en centrale) sur laquelle des batteries finales ajustent la température de pulsion requise par zone ou par local individuellement. Mais si les besoins des bureaux ne sont pas globalement homogènes, on risque de « détruire de l’énergie » (par exemple, préparer de l’air froid en centrale, air qui sera ensuite réchauffé dans le caisson terminal…).

Shéma principe réseau "tout air " à un conduit, avec traitement terminal - 01.

Le recyclage entraîne un mélange de l’air provenant de différentes ambiances …

Pour l’éviter une autre solution est envisageable : l’air de chaque local peut être partiellement recyclé à l’entrée du caisson terminal.

Shéma principe réseau "tout air " à un conduit, avec traitement terminal - 02.

Mais ce n’est pas très performant.

Par exemple, imaginons la situation en été : de l’air est préparé à 16°C en centrale, il est mélangé à l’air du local à 24°. Une température moyenne résultante de 22°C en résulte, par exemple. La batterie de froid sera moins bien exploitée que si elle avait été mise directement en contact avec l’air à 24°C. Autrement dit, la batterie de froid devra être surdimensionnée légèrement. Autant séparer les fonctions : l’air du local est traité dans le caisson et de l’air neuf est apporté séparément au local. C’est finalement ce que réalise l’installation par ventilo-convecteurs de la famille « air + eau ».

Pour plus de détails, on peut consulter les installations « tout air » à débit constant monogaine.


Solution 3 : réseau « tout air  » à deux conduits

Pour assurer le traitement individuel, on peut également préparer et distribuer l’air via deux réseaux parallèles : un réseau d’air chaud et un réseau d’air froid (système à débit constant double gaine, ou « Dual Duct »). Chaque local (ou zone de locaux) sera alimenté via une boîte de mélange sous dépendance d’une sonde de température ambiante. Ce système est contraignant à plusieurs niveaux : financièrement (investissement), énergétiquement (risque de « détruire » de l’énergie à l’exploitation) et spatialement (encombrement dans les faux plafonds).

Schéma principe réseau "tout air " à deux conduits.

Ce type d’installation ne serait envisageable que si l’on peut regrouper les locaux en quelques zones homogènes, mais en pratique il ne s’installe plus aujourd’hui. On le rencontre encore dans des installations réalisées il y a une  vingtaine d’années.

Pour plus de détails, on peut consulter les installations « tout air », à débit constant, à double gaine.


Solution 4 : réseau « tout air  » à un conduit à débit variable

Reste des cas où l’installation « tout air » se justifie par la nécessité d’apporter beaucoup d’air aux locaux : un immeuble avec une large zone centrale, de larges plateaux intérieurs, de nombreuses salles de réunion, … Ce sont des zones à alimenter en air hygiénique et à refroidir toute l’année. C’est là que la climatisation par pulsion d’air froid se justifie le mieux, notamment parce que l’air froid sera distribué « gratuitement » durant une bonne part de l’année en utilisant l’air extérieur (free cooling).

Si l’on pressent que la présence des personnes sera fluctuante dans le temps, on pourra valoriser la technologie d’aujourd’hui qui adapte le débit d’air aux besoins : cette fois, la température de l’air est maintenue d’une manière uniforme toute l’année (par exemple 16°C) mais on fait varier le débit d’air introduit dans chaque local en fonction de ses besoins thermiques. Cet ajustement des débits est réalisé au moyen de boites terminales VAV (variable air volume) sous la dépendance des thermostats d’ambiance.

Schéma principe réseau "tout air " à un conduit à débit variable.

Les dimensions de la centrale de traitement d’air seront réduites par rapport à un système à débit d’air constant car on va profiter de la non-simultanéité des charges et des occupations des locaux qui se trouvent sur des façades différentes.

Mais des défauts résident :

  • dans la lourdeur technologique des équipements (clapet d’air, ventilateur à débit variable, …) et de leur régulation,
  • dans la mise au point de l’installation qui ne semble pas évidente
  • dans le coût d’investissement initial qui est élevé.
  • dans l’encombrement des conduits (comme tous les systèmes « tout air »),
  • dans le manque de souplesse pour répondre à des besoins variables à l’intérieur d’une même zone; la température de pulsion étant uniforme au sein d’une zone, si un local est à refroidir au sein d’une zone à chauffer… problème ! Or qui peut prévoir l’avenir de l’occupation des locaux ?

Cependant, si le système « tout air » est choisi pour la climatisation d’un immeuble de bureaux, le VAV est assurément la meilleure solution sur le plan énergétique, dans la mesure où le coût du transport est optimalisé (on ne transporte que le débit d’air nécessaire) et dans la mesure où la capacité de refroidissement de l’air extérieur est valorisée, tant en journée (free-cooling diurne en hiver et en mi-saison) que durant la nuit (free-cooling nocturne pour décharger le bâtiment durant la nuit en été). Les coûts d’exploitation seront donc réduits.

Le chiffre de 20 % d’économie thermique et électrique (ventilateur) est couramment cité, entre un VAV simple (sans réchauffage terminal) et un système unizone à débit constant.

Les locaux périphériques devront être équipés d’éléments chauffants pour assurer les besoins de chauffage durant les périodes froides de l’hiver : un réseau de radiateurs peut être prévu en façade ou des batteries de chauffe terminales peuvent compléter le réseau d’air.

Exemple d’une bonne application du VAV dans les bureaux

Si différentes salles de réunion sont prévues, l’architecte les disposera de telle façon qu’elles soient alimentées sur un même réseau de préparation d’air (par exemple une par étage, raccordée par une trémie verticale commune). L’ingénieur prévoira une climatisation à débit d’air variable, avec dans chaque local une bouche de pulsion commandée par détecteur de présence. Le ventilateur travaillera à vitesse variable en fonction de la demande réelle. Le groupe de préparation sera dimensionné avec un facteur de simultanéité (défini de commun accord avec le Maître d’Ouvrage) pour tenir compte du fait que toutes les salles ne seront pas occupées en même temps.

Pour plus de détails, on peut consulter :

Concevoir

Le choix du conditionnement d’air des « locaux intérieurs ».

Concevoir

Choisir une installation « tout air ».


Solution 5 : le ventilo-convecteur

Photo ventilo-convecteur.

Parmi la famille « air-eau », le ventilo-convecteur est sans aucun doute le système le plus fréquemment utilisé.

Des avantages incontestables

  • Une souplesse d’adaptation aux variations de la charge dans les locaux, puisqu’il permet une régulation local par local. Un arrêt de l’équipement est même possible localement, chose difficile à faire avec une installation par éjecto-convecteur ou plafonds froids, arrêt volontaire ou forcé (un contact d’ouverture de fenêtre peut imposer l’arrêt).
  • Une large gamme de puissance (par opposition aux systèmes par plafonds froids rayonnants qui sont limités à ce niveau).
  • Une bonne adaptation aux exigences actuelles en matière de découpage des zones périphériques des bâtiments à structure répétitive (un appareil par module de façade, par exemple). Mieux, rien n’empêche d’installer initialement un appareil pour deux modules et, moyennant les réservations nécessaires sur les collecteurs hydrauliques, de pouvoir ultérieurement greffer un échangeur supplémentaire si la puissance frigorifique augmente ou si une cloison est créée.
  • Un faible encombrement, permettant notamment aux appareils de prendre facilement la place des radiateurs en cas de rénovation du bâtiment.
  • Une possibilité de libérer le sol s’il est accroché au plafond ou intégré dans le faux plafond.
  • Un coût modéré à l’investissement, même si les exigences de qualité attendues en matière de régulation peuvent parfois faire augmenter les budgets.
  • Un coût modéré à l’exploitation, du moins s’il est comparé aux systèmes « tout air ». Il est toutefois battu sur ce plan par les installations par plafonds froids, par exemple, notamment suite aux fonctionnements des ventilateurs.
  • Une possibilité de valoriser la performance d’une chaudière à condensation en hiver puisque le réseau d’eau chaude peut fonctionner à très basse température.

Comme inconvénient, on notera :

  • L’impossibilité du ventilo-convecteur de contrôler le taux d’humidité de la pièce, mais ce n’est généralement pas un critère gênant pour un immeuble de bureaux puisqu’on peut réaliser cet objectif à partir de l’air hygiénique.
  • Le niveau de bruit qui est directement lié à la vitesse du ventilateur et à la surface du ou des batteries d’échange (il faut être très strict dans le niveau de bruit à imposer au cahier des charges).
  • La difficulté de réaliser une bonne intégration dans l’habillage et vis-à-vis de la grille de pulsion.
  • La difficulté d’assurer un confort thermique correct, notamment sans courants d’air dans la zone de travail,…
  • Les débits d’air hygiéniques sont constants et limités à 1 ou 2 renouvellements horaires du local. Il est donc impossible de réaliser du free cooling sur l’installation, c’est-à-dire de profiter de l’air frais et gratuit extérieur.

Solution 6 : le plafond rafraîchissant

Photo plafond rafraîchissant.

De l’eau froide circule dans des conduites fixées sur le faux plafond métallique du local.

Schéma principe plafond rafraîchissant.

Des avantages appréciés

  • Le confort est meilleur que dans les systèmes traditionnels (par ventilo-convecteurs par exemple) :
    1. Parce que l’apport de froid par rayonnement est plus stable (inerte) et mieux réparti spatialement que l’apport de froid par air. L’impression d’avoir « la tête au frais » est agréable.
    2. Par la diminution des courants d’air froid et des déplacements de poussières dans les locaux, puisque le débit d’air est limité au débit hygiénique. À noter que ce débit d’air neuf est souvent augmenté (doublé) pour pouvoir contrôler l’humidité en période estivale. Ce qui exige un soin tout particulier dans la façon de distribuer l’air.
    3. Par l’absence de bruit : fonctionnement statique, sauf débit hygiénique.
  • La préparation d’eau glacée à une température « élevée » de 15°C environ permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »). Cette propriété n’est effective que si une machine frigorifique est spécifiquement prévue pour l’alimentation en eau froide des plafonds. Elle est en partie perdue si la même machine frigorifique est utilisée pour préparer l’air neuf déshumidifié …
  • Cette température élevée permet d’imaginer, durant une bonne partie de l’année, un refroidissement direct de l’eau glacée soit dans un aéro-refroisseur, soit dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique. Cette technique est généralement appelée « free-chilling« . La consommation liée au froid se résume à l’alimentation des pompes de circulation ! La présence d’une source d’eau froide naturelle peut également être mise à profit (rivière, lac, …).
  • Le confort apporté par le rayonnement froid au dessus des occupants permet une augmentation de 2°C de la consigne de température ambiante des systèmes traditionnels (température max = 26°C ou 27°C, au lieu des 24 ou 25°C habituels pour des ventilos ou des poutres froides, par exemple). Il s’en suit une légère réduction de la puissance frigorifique nécessaire (entre 4 et 10 %) mais surtout une augmentation des capacités de travailler en free cooling nocturne puisque l’on peut davantage profiter de l’effet « tampon » du local qui peut démarrer sa journée à 21° et la terminer à 27°C.
  • Les coûts d’exploitation énergétiques sont plus faibles que dans le cas des systèmes traditionnels (ventilo-convecteurs par exemple). Une étude de cas réalisée par Tractebel Development Engineering précise ce facteur. On épargne la consommation des ventilateurs des ventilo-convecteurs, mais on augmente un peu la consommation des pompes de distribution de l’eau puisque qu’un delta T° aller-retour de 2 à 3 K est réalisé contre 5 à 6 K pour les ventilos.
  • La régulation est en partie auto-adaptative : une augmentation des charges du local provoque une augmentation de sa température et donc une augmentation de la puissance de refroidissement.
  • L’entretien est réduit.
  • L’encombrement au sol est nul, ce qui peut être également le cas avec des ventilos-convecteurs en plafond, mais ils génèrent alors nettement plus d’inconfort lié à la pulsion d’air.
  • Le traitement des zones internes par ce système est moins encombrant que par ventilo-convecteurs.

Des inconvénients qui peuvent limiter l’application des plafonds froids :

  • La puissance frigorifique reste très limitée par rapport aux systèmes à ventilo-convecteurs : de l’ordre de 90 W/m² de plafond actif. Si ce système doit vaincre des apports internes importants (bureautique, éclairage, occupants), la réserve disponible pour les apports solaires n’est que de l’ordre de 25 W/m². Ceci sous-entend que les apports solaires des vitrages soient limités :
    • soit par la conception du bâtiment créant des ombres portées,
    • soit par la mise en place de protections solaires extérieures,
    • soit par le placement de stores intérieurs clairs combinés à des vitrages performants,
    • soit par la configuration des lieux (bureaux paysagers, salles profondes).
  • Le coût d’installation est plus élevé que le système des ventilo-convecteurs, surtout en rapport à la puissance frigorifique fournie.
  • Ce coût est notamment lié à la régulation que l’on rend parfois assez sophistiquée pour éviter tout risque de condensation. Ce risque doit cependant être évalué à sa juste mesure.
  • Par rapport au ventilos, le chauffage en hiver reste à imaginer. Plusieurs solutions sont possibles :
    • soit un chauffage de l’air pulsé (mais les débits ne permettent de couvrir que peu de déperditions, le bâtiment doit donc être fort isolé au départ),
    • soit le chauffage par le plafond (mais inconfortable),
    • soit un chauffage par le plafond limité aux premiers panneaux situés en façade (plus confortable, mais limité en puissance),
    • soit un chauffage traditionnel par radiateur (solution généralement appliquée en rénovation puisque l’on peut récupérer l’installation existante).
  • Le système requiert une hauteur de faux plafond disponible, mais limitée (par exemple 160 mm). Les conduits d’air d’un diamètre de 150 mm (max) posent nettement moins de problèmes qu’avec un système « tout air ».
  • L’inconnue sur la tenue dans le temps de ce type de produit (problèmes hydrauliques, manque de performance dans les circuits mal éventés, …) diminue progressivement, l’expérience étant maintenant d’une bonne dizaine d’années. Ce risque peut être limité par un suivi de réalisation rigoureux.

Solution 7 : la poutre froide

Le complément aux plafonds froids…

Généralement, le plafond froid est perçu comme l’installation de grand confort. Mais la faible puissance spécifique est un frein majeur… Lors du dimensionnement, cela « coince » au niveau du local d’angle suite à l’ensoleillement sur 2 façades. C’est à ce moment que des poutres sont proposées en supplément du plafond, pour augmenter l’effet frigorifique (le fait que ces équipements travaillent à même régime de température d’eau est d’ailleurs un avantage).

… ou le système de refroidissement à part entière

Il est possible de prévoir le refroidissement complet du local uniquement par poutres froides, qu’elles soient statiques ou dynamiques

Des avantages

On retrouve beaucoup de qualités du plafond froid :

  • La préparation d’eau glacée à une température de 15°C environ qui permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »).
  • Durant une bonne partie de l’année, le refroidissement direct de l’eau glacée dans un aéro-refroidisseur ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique (« free-chilling« ).
  • L’encombrement au sol est nul !

Le prix est généralement très compétitif, surtout pour la poutre statique, bien sûr.

Des inconvénents

Le confort apporté par les poutres froides est objet à discussion

  • La poutre statique génère une « coulée » d’air froid très désagréable sur les personnes situées sous les poutres. Elle ne peut a priori se placer que dans les locaux de grande hauteur.
  • Par contre, la poutre dynamique semble plus confortable car elle induit un mélange avec l’air ambiant plus élevé et donc une température de l’air plus homogène.
  • Cependant, à l’intersection entre les flux d’air créés par deux poutres voisines parallèles, les deux flux d’air risquent de tomber sur la tête d’un utilisateur !

L’utilisation de poutres froides demande donc une plus grande vigilance que les plafonds froids en matière de vitesses d’air résiduelles et d’inconfort lié aux turbulences.

Il faut se rendre compte qu’avec une poutre dynamique on peut brasser jusqu’à 6 à 8 fois le volume d’air du local. Cela génère beaucoup de difficultés de distribution de l’air, amplifiées par la position de l’échangeur en plafond. Des astuces doivent être trouvées pour que l’air « coule » le long des parois avant de gagner le cœur du local. Mais on ne sait pas toujours quel sera le meuble placé le long de la paroi, ni si la paroi elle-même ne sera pas déplacée un jour…

De là, les solutions d’intégration au dos d’une armoire, sur le mur opposé à la fenêtre. C’est certainement une belle solution technique mais figée une fois pour toutes et donc peut-être démodée dans quelques années…?

En fait, la poutre dynamique développe la même configuration rigide que l’éjecto. C’est le débit d’air neuf qui va induire l’air du local et la puissance frigorifique lui sera liée. Pas de possibilité d’augmenter ultérieurement cette puissance comme on l’a avec les ventilos.

Puisque l’air neuf est le moteur du système dynamique, et que l’air neuf est indispensable au local, le système ne peut jamais être arrêté, ce qui est un inconvénient par rapport aux ventilos qui peuvent profiter d’une plage neutre.

Le taux d’air neuf varie entre 1 et 2,5 Volume/heure, ce qui génère des consommations supplémentaires de chauffage de l’air capté à la température extérieure en hiver.

Tout cela cadre mal avec la mobilité de plus en plus recherchée dans les bureaux actuels.


Solution 8 : la pompe à chaleur sur boucle d’eau

Schéma principe pompe à chaleur sur boucle d'eau.

Le principe consiste à placer une boucle d’eau dans l’ensemble du bâtiment. Cette eau évolue à une température de l’ordre de 30 à 35°C.

Dans chaque local, une machine frigorifique réversible est greffée sur le circuit.

Si le local demande du refroidissement, elle fonctionnera en machine frigorifique et l’eau évacuera la chaleur du condenseur. Si le local demande à être chauffé, la machine travaillera en pompe à chaleur et refroidira la boucle d’eau.

S’il y a égalité entre les locaux en demande de chaud et de froid, c’est parfait, la boucle d’eau effectuera le transfert entre locaux. S’il y a excès de chaleur à extraire des locaux, un échangeur en toiture refroidira l’eau de la boucle. Si au contraire, la majorité des locaux sont en demande de chaleur, une chaudière traditionnelle fournira le complément.

Ce système est évidemment avantageux lorsque l’on pressent des demandes très variables et opposées dans le bâtiment. Mais en pratique, ce cas ne se rencontre qu’une petite partie de l’année. Le reste du temps, la performance globale ne semble pas très élevée. L’investissement initial reste très élevé. Et le coût d’exploitation reste élevé en hiver suite à l’énergie thermique électrique.

Une part de la mauvaise performance est liée à cette température intermédiaire de la boucle : 35°C, c’est finalement une température élevée pour un condenseur à eau, alors qu’en hiver ou en mi-saison l’air extérieur permet des températures plus faibles.
En pratique, on rencontre ce type d’installation dans les galeries commerciales : la boucle d’eau et les installations extérieures sont disposées en base, et chaque commerçant installe son propre équipement. Il est facile de répartir les consommations entre locataires.

Pour un immeuble de bureaux à charge très variable, avec souhait de récupération d’énergie entre locaux, la climatisation par Débit de Réfrigérant Variable (variante avec 3 tubes) apportera très certainement une solution plus souple.

Choisir le mode de préparation de l’eau chaude sanitaire

Installation centralisée ou décentralisée ?

La centralisation possède des avantages certains, …

En effet, regrouper la préparation d’eau chaude dans une seule chaufferie permet :

  • Un coût d’installation inférieur à la somme des coûts des installations individuelles qu’elle remplace.
  • Un encombrement plus faible (voire une nuisance acoustique plus faible dans certains cas).
  • Une meilleure fiabilité et durée de vie.
  • Un coût de maintenance plus faible (un seul appareil de production, un seul conduit d’évacuation des gaz brûlés).
  • Un rendement de production souvent supérieur à ceux des appareils décentralisés, dans le cas des installations à combustible.
  • Une possibilité de valoriser l’effet de foisonnement des demandes (simultanéité des besoins), d’où des puissances et des volumes de stockage moindres.

Mais des désavantages également …

  • Un rendement de distribution médiocre, avec parfois l’obligation d’installer une boucle de recyclage, ou un traçage des conduites. Le rendement est fonction de l’isolation de la conduite, mais il dépasse rarement 70 % dans ce cas.
  • Une difficulté de répartir la consommation en fonction des usagers (placement de compteurs et relevé possible mais plus lourd à gérer), et donc tendance à un « laisser-aller » dans les consommations puisqu’on ne les paye qu’indirectement…
  • Un manque de souplesse dans l’adaptation aux besoins des différents utilisateurs.

Qui sont donc des avantages pour la décentralisation !

L’installation peut être décentralisée auprès de chaque unité fonctionnelle du bâtiment :

Exemple.

La salle de sports d’une école peut avoir son ballon accumulateur, tandis que la conciergerie et le réfectoire peuvent être équipés chacun de préparateurs à eau chaude gaz indépendants.

L’installation peut même être décentralisée au niveau d’un point de puisage :

Exemple.
L’évier tout au bout du couloir, où le personnel d’entretien puise 1 ou 2 seau par jour, sera utilement équipé d’un petit préparateur à accumulation électrique.

Et énergétiquement parlant ?

La centralisation a pour désavantage d’éloigner les points de puisage du point de production de l’eau chaude, et donc de créer des pertes par tuyauteries, soit parce l’eau chaude met beaucoup de temps à parvenir, soit parce qu’un réseau de distribution doit être créé ce qui génère également des pertes.

1ère synthèse

Calculs

Pour chiffrer la perte liée à l’eau chaude « bloquée » dans un tuyau lors de la fermeture du robinet, cliquez ici (page générale) !

Calculs

Pour calculer la perte énergétique annuelle d’une tuyauterie, cliquez ici (page générale) !

Le tableau ci-dessous, extrait d’une publication EDF, peut aider le choix :

Besoins Distance entre production et points de puisage Foisonnement
(simultanéité des besoins)
Solution
Importants faible bon centralisé
mauvais (1) centralisé
grande bon centralisé
mauvais (1) décentralisé
Faibles faible semi-centralisé (2)
grande décentralisé

(1) Le foisonnement est mauvais quand les appels maximaux sont, par nature, à peu près simultanés : hôtellerie, restauration, douches d’entreprises, …

(2) Un système semi-centralisé est caractérisé par le regroupement géographique de plusieurs postes : une production commune à plusieurs points de puisage rapprochés. C’est un compromis qui vise à la fois à limiter le nombre d’équipements de production d’ECS et à réduire la longueur du réseau.

Un exemple de comparaison des consommations

Une étude réalisée dans le cadre du programme Ravel (Suisse) compare 3 façons de préparer de l’eau chaude sanitaire pour 32 appartements répartis en 3 bâtiments :

  • un boiler électrique dans chaque appartement,
  • une préparation centralisée par bâtiment,
  • une préparation centralisée pour l’ensemble des 3 bâtiments.

Sur le plan énergétique, malgré la multiplicité des ballons (et donc des surfaces de déperditions), c’est la 1ère solution qui est la plus favorable (rendement total annuel de 79 %), et c’est la production centralisée et combinée au chauffage des bâtiments qui est la plus génératrice de pertes (55 %).

Mais sur le plan de l’énergie primaire consommée (en centrale), cette conclusion s’inverse suite au fait de l’énergie électrique. Cela veut dire aussi que la première solution restera la plus chère à l’exploitation. Rien n’est simple…!


Production indépendante ou combinée ?

Faut-il une préparation d’eau chaude indépendante ou combinée avec la chaudière qui assure le chauffage du bâtiment ?

Installation combinée

Une installation à double usage permet d’alléger le prix d’investissement, le poste « production de chaleur » étant commun au chauffage des locaux et à la production d’eau chaude sanitaire. Il est seulement parfois nécessaire d’augmenter légèrement la puissance installée pour le chauffage des locaux, si la puissance de l’eau chaude dépasse 25 % de la puissance du chauffage du bâtiment.

Circuit équipé d’une chaudière à condensation et d’une chaudière classique en appoint.

Mais il y a quelques inconvénients :

  • Le principal est que le système de production de chaleur doit rester en service en mi-saison et en été. À ce moment, le rendement est alors dégradé suite aux pertes à l’arrêt des chaudières, aux pertes du collecteur et au plus mauvais rendement de combustion des brûleurs qui fonctionnent souvent en cycles courts. Des rendements de production de l’eau chaude inférieurs à 50 % sont fréquents.
  • Par ailleurs, durant la saison de chauffe, la performance de la chaudière « basse température » sera dégradée par la nécessité de remonter périodiquement la température de sortie de l’eau chaude. S’il s’agit d’une chaudière à condensation, elle requiert de l’eau de retour à basse température. Or, si la production d’eau chaude sanitaire à 60°C lui est aussi demandée, elle devra, au moins à certains moments, travailler à plus haute température… et donc perdre un peu d’efficacité liée à la condensation (en fonction du type de chaudière et du régime de dimensionnement de l’échangeur).

Une solution peut consister à fractionner la puissance de chauffe et à installer une petite chaudière dont la puissance convient pour le chauffage de l’eau chaude sanitaire en été. Durant la saison de chauffe, cette chaudière peut-être connectée en parallèle sur le réseau de chauffage et dédicacée à la production d’eau chaude sanitaire en été. Elle peut ainsi être également utile pour les relances de chauffage de début de journée en mi-saison, évitant la mise en température de la chaudière principale.

Exemple théorique.

Comparons les pertes d’une installation combinée et d’une chaudière propre à la production d’eau chaude sanitaire.

Hypothèse : il s’agit d’une installation équipant un home pour personnes âgées. La consommation globale en eau chaude du bâtiment est estimée à 1000 m³ d’eau à 60°C par an. Le besoin énergétique pour chauffer cet eau est de :

1,16 [kWh/m³.°C] x 1000 [m³/an] x (60 [°C] – 10 [°C]) = 58 000 [kWh/an]

dont 38 400 [kWh/an] durant la saison de chauffe et 19 600 [kWh/an] en été.

Installation combinée : une chaudière de 650 kW moderne ayant un coefficient de perte à l’arrêt (à 70°C) de 0,3 % de la puissance chaudière. Cette chaudière reste en permanence à une température de 70°C, été comme hiver, pour produire l’eau chaude sanitaire. Elle alimente en permanence un collecteur de distribution de 20 m (DN 100). En été, son rendement de combustion baisse de 2 % suite à un fonctionnement par de nombreux cycles courts (la puissance de l’échangeur sanitaire étant nettement inférieure à la puissance de la chaudière). Il passe de 92% à 90%.

Installation séparée : une chaudière de 500 kW pour le chauffage et une chaudière de 150 kW pour la production d’eau chaude sanitaire. A 70°C, ces deux chaudières ont le même coefficient de perte à l’arrêt que la chaudière de 650 kW. La chaudière de chauffage est régulée en température glissante (température moyenne de 43°C) et arrêtée en été. Ses pertes à l’arrêt sont ainsi réduites à 0,1 %. La chaudière de 150 kW est, elle maintenue à 70°C toute l’année.

Pertes

Installation combinée
[kWh/an]

Installation séparée
[kWh/an]
Différence
[kWh/an]

En hiver (5 800 h/an)

Pertes de combustion 38 400 [kWh/an] x (1 – 0,92)
= 3 072 [kWh/an]
0 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 3 925 [h/an] / 0,92
= 8 320 [kWh/an] (*)
0,001 x 500 [kW] x 4 000 [h/an] / 0,92 = 2 174 [kWh/an] 6 146 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 5 500 [h/an] / 0,92 = 2 055 [kWh/an] – 2 055 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92
= 2 106 [kWh/an]
7,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92 = 971 [kWh/an] 1 135 [kWh/an]
Pertes d’hiver 3 072 [kWh/an] + 8 320 [kWh/an] + 2 106 [kWh/an] = 13 498 [kWh/an] 3 072 [kWh/an] + 2 174 [kWh/an] + 2 055 [kWh/an] + 971 [kWh/an] = 8 272 [kWh/an] 5 226 [kWh/an]

En été (2 960 h/an)

Pertes de combustion 19 600 [kWh/an] x (1 – 0,90)
= 1 960 [kWh/an]
19 600 [kWh/an] x (1 – 0,92)
= 1 568 [kWh/an]
392 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 2 935 [h/an] / 0,90
= 6 359 [kWh/an]
6 359 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 2 860 [h/an] / 0,92 = 1 399 [kWh/an] – 1 399 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 2 960 [h/an] / 0,90 = 1 098 [kWh/an] 1 098 [kWh/an]
Pertes d’été 1 960 [kWh/an] + 6 359 [kWh/an] + 1 098 [kWh/an] = 9 417 [kWh/an] 1 568 [kWh/an] + 1 399 [kWh/an] = 2 967 [kWh/an] 6 450 [kWh/an]

Sur l’année

Bilan global – pertes totales 22 915 [kWh/an] 11 239 [kWh/an] 11 676 [kWh/an] ou 1 168 [m³gaz/an]

L’installation d’une chaudière combinée entraînerait donc une surconsommation d’environ 1 200 m³ de gaz par an ou une dépense complémentaire d’environ 275 € par an.

(*) Justification des heures prises en compte :
La saison de chauffe dure 5 800 [h/an]. La chaudière de 650 kW tourne 1 800 h/an pour le chauffage et 100 h/an pour l’eau chaude sanitaire (75 en saison de chauffe et 25 en été). La chaudière reste donc chaude sans que son brûleur ne fonctionne durant 3 925 h/an. La chaudière de 500 kW tourne 1 800 h/an pour le chauffage et est en attente chaude 4 000 h/an. La chaudière de 150 kW tourne 400 h/an (dont 100 h en été).

Concevoir

Pour plus d’informations sur le choix des systèmes de chauffage, cliquez ici !

Installation indépendante

Une préparation spécifique d’eau chaude permet de séparer les deux fonctions (chauffage des locaux et chauffage de l’eau) lorsque les profils de demande sont trop différents. On requiert par exemple à un ballon accumulateur électrique, à un accumulateur au gaz, à un préparateur instantané gaz, …

Cela permet de concevoir et de dimensionner au mieux chaque installation, sans réaliser de compromis … où l’énergie se trouve souvent mal valorisée.

Avec l’arrivée des critères anti-légionelles, la demande de haute température pour la production de l’eau chaude sanitaire apparaît contraire à l’évolution basse température que vit le monde du chauffage.

Cette séparation permet également l’usage de 2 énergies différentes (gaz et électricité, par exemple).

Ballon mixte  ?

On pourrait aussi prévoir un système mixte avec un serpentin d’eau chaude pour l’hiver et une résistance électrique pour l’été.

Schéma explicatif sur le ballon mixte.

  1. Thermomètre.
  2. Tube plongeur pour sonde de thermostat.
  3. Anode en magnésium.
  4. Tube de retour de circulation.
  5. Cuve (acier galvanisé, cuivre ou acier).
  6. Thermovitrification / émail / plastique.
  7. Capot de recouvrement.
  8. Thermostat de réglage et de sécurité.
  9. Corps de chauffe électrique.
  10. Prise d’eau froide.
  11. Brise-jet.
  12. Tube plongeur pour sonde de thermostat.
  13. Pieds réglables.
  14. Calorifuge (laine minérale, polyuréthane sans CFC).
  15. Retour chauffage.
  16. Serpentin.
  17. Aller chauffage.
  18. Prise d’eau chaude.

Reprenons le bilan de l’exemple précédent :

Exemple théorique (suite) :

Installation combinée
[kWh/an]

Ballon mixte

En été (2 960 h/an)

Besoin pour le chauffage de l’eau 19 600 [kWh/an] 19 600 [kWh/an]
Pertes d’été 9 417 [kWh/an]
Consommation 19 600 [kWh/an] + 9 417 [kWh/an] = 29 017 [kWh/an] 19 600 [kWh/an]
Prix du kWh 0,023 [€/kWh] 0,044 [€/kWh nuit]
Facture 29 017 [kWh/an] x 0,023 [€/kWh] = 667 [€/an] 19 600 [kWh/an] x 0,044 [€/kWh nuit] = 862 [€/an]

(On ne considère pas les pertes des ballons qui resteront constantes quel que soit le système).

Le bilan est donc plutôt en défaveur de la solution mixte, du fait du coût de l’électricité. Le bilan est également défavorable à la solution mixte si on l’établit en tenant compte de la consommation en énergie primaire puisque le rendement actuel de production de l’électricté est d’environ 38 %.

Chaque cas est cependant un cas particulier.

Le bilan doit donc être fait au cas par cas en fonction de la demande. Il sera notamment fonction du fait que le ballon mixte puisse couvrir l’ensemble des besoins de la journée ou non (le coût du kWh électrique de jour est double de celui de nuit).

En rénovation, tout dépend également des performances de la production combinée existante. Par exemple, l’association CEDICOL a réalisé une mesure sur site (source : magazine « L’entreprise », mars 90) dont il ressort un rendement saisonnier annuel de production d’eau chaude de 71 % et un rendement d’été de 49 % :

La production de cette installation domestique est, en été, de 186 litres d’eau chaude par jour.

L’installation comprend une chaudière au fuel de 27 kW alimentant un ballon de stockage de 160 litres. La chaudière est régulée en température glissante avec une priorité sanitaire. Cela signifie qu’entre deux demandes du ballon, la chaudière redescend en température.

Durant l’été 88, la chaudière a consommé 189 litres de fuel (soit 1 880 kWh) pour produire 24 180 litres d’eau chaude (soit 939 kWh). Le rendement de production en été est donc de 939 / 1 880 kWh = 49 %.

Pour l’ensemble de l’année, le système produit 42 150 litres d’eau chaude avec un rendement saisonnier de 71 %.

Séparer la production d’eau chaude en été, et produire cette dernière au moyen de l’électricité permettrait de gagner :

1 880 [kWh] x (1 – 49 % / 93 %) = 890 [kWh]

Le gain financier est de :

  • Facture d’été en production combinée : 189 [litres] x 0,2116 [€/litres] = 40 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Perte : 4 [€/an]

On se trouve dans la situation la plus favorable de production combinée, avec une chaudière fonctionnant en température glissante. Dans le cas dune ancienne chaudière restant à température constante tout l’été (de 70°C, par exemple), il n’est pas rare d’avoir des rendements de production inférieurs à 20 % en été !

Dans ce cas, le bilan serait alors le suivant :

  • Consommation en fuel d’été : 1 880 [kWh] x 49 [%] / 20 [%] = 4 606 [kWh] ou 460 [litres fuel]
  • Gain énergétique : 4 606 [kWh] x (1 – 20 % / 93 %) = 3 616 [kWh]
  • Facture d’été en production combinée : 460 [litres] x 0,2116 [€/litres] = 97 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Gain : 53 [€/an]

En tout cas, si l’on prévoit de conserver le mode de production combinée l’été et que la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, il sera utile de greffer une horloge sur la régulation pour imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de remettre la chaudière en route suite au puisage d’un seau d’eau !

Attention aux installations avec boucle de distribution

La solution du ballon mixte est à éviter s’il existe une boucle de circulation mal isolée générant des pertes permanentes élevées : les retours « froids » de la boucle de circulation perturbent la stratification des températures dans le ballon et la température de fourniture de l’eau diminue.

Schéma du ballon mixte avec boucle de circulation mal isolée.

Les solutions ne sont guère performantes : soit le thermostat s’enclenche pour réchauffer le ballon, soit un réchauffage de boucle maintient la température à son niveau. Mais ceci génère un chauffage électrique de jour assez coûteux.

Les capteurs solaires sont aussi une solution pour l’été

Les capteurs solaires apportent également une solution « mixte », prenant le relais en période ensoleillée. Mais il faudra s’assurer que le système de chauffage dispose d’un mode « veille » très économe lorsque le soleil est actif.


Production instantanée ou à accumulation ?

Les besoins d’eau chaude varient dans le temps. Et le préparateur doit s’y adapter en permanence !

Imaginons deux situations extrêmes :

  1. Les vestiaires du club de foot de Frouchy-les-Bains-de-Pieds : 6 douches pouvant débiter 12 litres/min chacune, utilisées 3 fois par semaine après les matchs.Le chauffage instantané de l’eau demanderait une puissance de 175 kW !
    À titre de comparaison, le chauffage d’une habitation domestique demande 20 kW par – 10°C extérieur…Solution : la petite chaudière du local produira et accumulera de l’eau chaude durant les 6 à 8 heures qui précèdent les matchs… et le réservoir sera vidé dans l’heure qui suivra le coup de sifflet de l’arbitre.
  2. L’hôpital de 1 200 lits, avec restauration et buanderie incorporée : il y a toujours un robinet d’eau chaude ouvert quelque part !Les besoins sont permanents et le système de préparation doit y répondre en temps réel, avec une modulation de la puissance en fonction des moments de la journée. Stocker les besoins journaliers d’eau chaude est inimaginable…Solution : un échangeur (à plaques ou tubulaires) rapide, raccordé à la chaudière, produisant instantanément l’eau chaude en fonction du besoin.

En réalité, la solution idéale est toujours en équilibre entre ces deux extrêmes  :

  • Dans les vestiaires, la chaudière peut déjà recharger le ballon pendant le puisage des douches, pour les cas où deux matchs se suivraient la même après-midi. On parle de semi-accumulation.
  • Dans l’hôpital, un réservoir d’appoint permet de mieux fournir l’important débit de pointe demandé au matin. On parle de semi-instantané.

En fait, « semi-accumulation », « semi-instantané », c’est la même chose : un juste équilibre à trouver dans le dimensionnement du préparateur entre ces 2 modes de production. Et une même méthode de dimensionnement.

La préparation instantanée « pure »

On distingue essentiellement le préparateur instantané gaz et l’échangeur instantané à plaques.

préparateur instantané gazéchangeur instantané à plaques

Les avantages d’une préparation instantanée sont liés à l’absence de stockage :

  • Le faible encombrement
    C’est un argument-clef si la place disponible est particulièrement réduite.
  • La faible charge au sol
    C’est un argument si la chaudière est prévue sous toiture.
  • L’absence de pertes par stockage
    Cet argument tend à devenir négligeable, vu l’isolation poussée des ballons récents.
  • La bonne performance hygiénique
    L’eau chaude ne stagnant pas dans le préparateur, les risques de propagation de la légionelle sont réduits.
  • Le faible coût d’investissement
    Cette technique est relativement peu onéreuse à installer.

Mais les inconvénients du préparateur instantané sont aussi nombreux :

  • la fluctuation de la température de l’eau au niveau de l’utilisateur
    Malgré une régulation fine (PID) (à prévoir absolument), on reste limité par le temps de réponse des éléments mécaniques de l’installation qui rend les fluctuations inévitables. Il est déconseillé d’utiliser ce type de système dans un bâtiment ayant un profil de puisage discontinu.

  • Le rendement de production dégradé de la chaudière
    Avec une chaudière combinée chauffage-ECS, il est indispensable de maintenir la chaudière en permanence à température élevée (min 70°C) pour garantir un temps de réponse minimum lorsqu’une demande apparaît. Ceci interdit une régulation en température glissante des chaudières et n’est donc pas optimum énergétiquement, principalement avec les anciennes chaudières ou même avec des chaudières gaz atmosphériques récentes dont les pertes à l’arrêt sont importantes.
  • Le fonctionnement du brûleur en cycles courts
    Étant donné l’absence de réservoir tampon, chaque puisage va entraîner la mise en route de l’installation pour des temps très courts. Les temps de fonctionnement du brûleur seront donc brefs, ce qui est défavorable pour le rendement de combustion et la pollution atmosphérique.
  • La puissance élevée du générateur
    La production instantanée demande généralement une puissance de générateur très importante. Dans le cas d’une production d’ECS combinée au chauffage, il peut être nécessaire de surdimensionner la chaudière uniquement pour l’ECS.
  • La puissance des circulateurs
    La perte de charge des échangeurs instantanés demande des pompes plus puissantes dont la consommation électrique n’est pas à négliger.
  • La fragilité de certains équipements
    Les préparateurs instantanés au gaz sont fortement soumis à l’entartrage et sont sujets à percer parfois rapidement. Cet effet est renforcé dans les chaudières murales où la compacité entraîne également l’utilisation d’un matériel plus léger que les chaudières au sol, ce qui limite la durée de vie.

La préparation en accumulation « pure »

Le ballon de stockage est un tampon permettant de dissocier le rythme de la production des variations brusques de la demande. Il lisse les pointes et réduit le coût de la puissance. Il permet parfois d’utiliser de l’énergie moins chère la nuit (accumulateur électrique).

Généralement, le principe de l’accumulation offre la possibilité de changer plus facilement le vecteur énergétique (gaz, fuel, bois, …) de l’unité de production de chaleur, et même d’intégrer une production solaire ou par pompe à chaleur.

Mais par contre, il nécessite un investissement supplémentaire, en euros (son propre coût) et en m² (son encombrement). Il génère également une perte d’énergie par les parois.

Ce mode de production sera logiquement d’application :

  • Si la source d’énergie est électrique
    Il est alors presque inimaginable de recourir à un système instantané, vu l’importance de la puissance nécessaire (un préparateur 12 litres/minute requiert une puissance de 24 kW, soit une ligne de 100 A environ !). Un système par stockage s’impose pratiquement. Cela permet d’ailleurs de valoriser le courant de nuit, moins onéreux.
  • Si les consommations présentent des pointes très importantes
    En effet, une masse d’eau chaude est immédiatement disponible, sans devoir développer une puissance considérable.

La préparation semi-instantanée ou en semi-accumulation

La production d’ECS en semi-accumulation ou en semi-instantanée (échangeur + ballon de stockage) est la plus appropriée au mode de consommation d’ECS dans la plupart des applications tertiaires.
Elle combine les avantages des deux systèmes :

  • Le confort
    Grâce au ballon d’eau chaude, les temps de réponse sont courts et les fluctuations de température réduites.
  • L’encombrement
    L’encombrement est plus réduit qu’en accumulation pure.
  • La puissance
    La puissance de production à installer est plus réduite qu’en instantané pur.
  • Le rendement de production
    Avec une chaudière combinée chauffage-ECS, le fonctionnement en température glissante ne pose pas de problème, la chaudière pouvant fonctionner en basse température pour le chauffage des locaux et rehausser sa température de consigne lorsqu’il y a demande du ballon d’ECS.

Le schéma ci-dessous paraît être le bon compromis assurant la production à la demande, et donc en limitant les pertes de stockage, tout en ayant un ballon stabilisateur de température au démarrage d’une demande de pointe.

Concevoir

Pour plus d’informations sur le choix des ballons de stockage, cliquez ici !

Concevoir

Pour plus d’informations sur le choix des préparateurs instantanés au gaz, cliquez ici !

Concevoir

Pour plus d’informations sur le choix des échangeurs à plaques, cliquez ici !
Pour info, les ingénieurs Français distinguent :

  • les préparateurs semi-instantanés comme ceux dont la capacité d’accumulation est calculée pour vaincre les besoins en ECS de l’heure de pointe, mais ne pouvant absorber les pointes de 10 minutes sans surdimensionner l’échangeur,
  • des préparateurs à semi-accumulation dont le volume de stockage est capable d’absorber les pointes de 10 minutes, avec une puissance de génération limitée aux besoins horaires.

Production combinée et chaudière à condensation

Si le chauffage de l’eau sanitaire est assuré par une chaudière à condensation, il y a lieu d’adapter le réseau hydraulique pour valoriser sa performance. En pratique, il faut assurer le retour le plus froid vers la chaudière.

Or nous sommes en présence d’un paradoxe

  • L’eau sanitaire est très froide (10°C) à son arrivée. Elle devrait dès lors permettre de valoriser l’efficacité énergétique d’une chaudière à condensation.
  • L’eau chaude sanitaire doit être portée à haute température (généralement 60°C pour gérer le problème de la légionellose). Le circuit de chauffage monte donc environ à 75°C, et génère des retours à 65°C en fin de période de chauffage du ballon ! Par rapport aux circuits « basse température » dont nous sommes aujourd’hui coutumiers en chauffage, c’est donc un régime « haute température »… et cela supprime toute possibilité de condensation.

Deux solutions apparaissent :

1° – Il existe deux raccordements de retour à la chaudière à condensation. Le retour de l’eau chaude sanitaire peut être raccordé à l’entrée « haute température ». On a abandonné alors tout espoir de condenser avec le réseau d’eau chaude sanitaire. C’est adéquat lorsque les besoins d’eau chaude sont fort importants, voire permanents (hôpital, abattoir, …).

schéma de raccordements de retour à la chaudière à condensation.

2° – On décide au contraire de valoriser au maximum la condensation. Sachant que la température de retour doit être inférieure à 53°C, on décide de travailler avec un circuit d’eau de chauffage du ballon à la plus basse température de retour possible. Lors du dimensionnement de la puissance de l’échangeur de production d’eau chaude, un retour à 40 .. 45°C est choisi, par exemple via un régime 70° – 40° ou 90° – 45° au lieu d’un traditionnel régime 90° – 60°.

schéma de raccordements de retour à la chaudière à condensation.

Cette formule n’est quasiment possible qu’en présence d’un échangeur instantané. En effet, la température de retour de 40 .. 45°C ne pourra réellement être atteinte que lorsque la température de l’eau froide est de 10°C.

Lorsque l’échangeur instantané alimente une boucle de distribution et qu’aucun puisage n’est effectué, l’échangeur est alimenté par de l’eau à 55°C, ce qui rend impossible un retour d’eau de chauffage vers la chaudière à 40°C. En cas de puisage, il y a mélange entre l’eau froide de ville et l’eau chaude de la boucle. L’eau alimentant l’échangeur est donc à une température supérieure à 10°C. Cependant le débit de boucle étant en pratique réduit, la quantité d’eau froide appelée sera la plupart du temps suffisante pour que la température d’alimentation de l’échangeur soit assez basse pour permettre la condensation.

Techniques

Pour plus d’informations sur les circuits hydrauliques favorables à la condensation, cliquez ici !

Quelle régulation pour la production combinée ?

Il est recommandé d’avoir une régulation de la température de départ de chaudière basée sur le principe de la « priorité sanitaire » : la haute température ne soit être appliquée que lorsqu’il y a demande de production d’eau chaude sanitaire.

Imaginons un ballon réglé sur 60°C :

  • En temps normal, la chaudière est gérée par une régulation à température glissante.
  • Lorsqu’il y a demande d’eau chaude sanitaire (T°ballon = 57,5°C), la température de départ chaudière augmente et les vannes mélangeuses des différents circuits de chauffage peuvent se fermer quelque peu.
  • Dès la satisfaction du ballon (T°ballon = 62,5°C), la température de chaudière revient à la valeur calculée par le régulateur en fonction de la température extérieure.

Cette régulation sous-entend l’absence d’un préparateur instantané (échangeur à plaques) qui lui doit pouvoir réagir au quart de tour, et qui demandera une température de chaudière toujours élevée.

Elle montre aussi toute l’importance d’un surdimensionnement du serpentin installé dans le ballon :

T°chaudière = T°ballon + X°

X sera d’autant plus petit que la puissance de l’échangeur sera grande.

L’intérêt d’une telle régulation est d’autant plus important que la chaudière alimente le ballon d’eau chaude aussi en été. Dans ce cas, la régulation permettra d’arrêter totalement la chaudière (température retombant à 20°C) sauf durant les périodes de chauffage de l’eau sanitaire. Ces périodes seront définies par une horloge qui limitera la charge du ballon de stockage à un nombre limité de périodes de la journée. Cela permet d’éviter que la chaudière ne démarre pour des faibles puisages, avec pour conséquence :

  • un maintien quasi permanent de la chaudière à une température moyenne relativement élevée,
  • un fonctionnement du brûleur par cycles courts, synonyme de mauvaise combustion et d’émissions polluantes.

Remarque.
À noter que certains constructeurs proposent une régulation tout à fait optimisée :

  • Lorsque la température dans le ballon atteint 61 ou 62°C, la chaudière est déjà coupée. La circulation d’eau chaude est maintenue de telle sorte que le ballon monte à 62,5°C mais sans prolonger inutilement le maintien en température de la chaudière.
  • Certains ballons sont régulés via 2 sondes plongeuses : si le puisage est faible, la première sonde est froide mais la deuxième reste chaude. L’installation ne réagit pas, elle se base sur la température moyenne entre les 2 sondes. Si le puisage est important, des remous vont déstratifier la température dans la cuve, la deuxième sonde sera rapidement touchée par le flux d’eau froide : une réaction immédiate de l’installation de chauffage est programmée. Cette astuce permet de ne pas faire réagir trop vite la chaudière et d’attendre qu’un volume d’eau important soit à réchauffer, ce qui augmente la durée de la période de condensation.


Choix du vecteur énergétique

Rien n’est simple…

Poser la question du choix du combustible pour chauffer l’eau chaude sanitaire, c’est aussi parfois comparer des équipements qui ont des performances différentes … en fonction du combustible choisi !

Par exemple, si les besoins se résument à 10 seaux d’eau par semaine pour le nettoyage des locaux de bureaux, et que le gaz naturel n’est pas disponible, le fuel est un choix technologiquement impossible.

Mais procédons par étape pour dégager les lignes de force :

L’énergie solaire

  • couvre 40 à 50 % des besoins, sans générer ni CO2 ni autres polluants. Ceci n’étant vrai que lorsqu’ils sont utilisés pour un bâtiment donc les consommations sont simultanées et également fortes en été comme les piscines, les homes, hôpitaux, l’hôtellerie, les logements collectifs… Les écoles, fermées en juillet et aout sont, par exemple, peu compatible avec ce type de vecteur,
  • c’est un « combustible gratuit » mais qui coûte essentiellement par l’investissement initial dans l’installation, son prix ramené au kWh fourni dépasse légèrement le prix du gaz naturel. Cette source d’énergie est difficilement rentable en moins de 20 ans,
  • est mieux valorisé pour les bâtiments bas (rapport m² de toiture/consommation ECS plus favorable),
  • est source d’énergie instable qui doit être complétée par un autre combustible d’appoint,
  • est porteur d’image de marque car il témoigne que l’investisseur veut promouvoir un autre type de consommation,
  • pari sur l’avenir puisqu’on peut penser que les prix énergétiques ne feront qu’augmenter.
  • dans le cadre de la lutte contre les légionelles, le chauffage de l’eau sanitaire par l’énergie solaire présente des risques liés à l’inconstance de la température de chauffe. En considérant que la fourchette de température de 25 – 45°C est idéale pour le développement des bactéries, avec un système tel que le chauffage solaire, on risque de s’y retrouver régulièrement au cours de l’année; ce qui signifie que le chauffage solaire ne doit être utilisé que comme moyen de préchauffage.
  • l’installation doit plutôt être orientée plein sud,
  • le solaire thermique produit 40% d’énergie primaire en plus que le solaire photovoltaïque mais coute presque 3 fois plus cher au m²,
  • c’est un système encombrant qui prend la place d’éventuels panneaux solaire photovoltaïques souvent bien plus rentables à tous points de vue,

Le gaz naturel

  • sans conteste le combustible traditionnel qui présente le plus de qualités environnementales : absence de soufre, faible taux de CO2 par kWh produit, faible taux de NOx,
  • facile à distribuer dans le bâtiment (un préparateur peut être facilement rapproché des consommateurs par circulation d’une conduite gaz),
  • facile à réguler grâce à la souplesse de la flamme gaz, permettant de produire en instantané et avec une puissance modulée,
  • mais aussi, requérant un conduit d’évacuation de fumées, au minimum de type ventouse,
  • nécessitant une bonne sélection de l’équipement (limitant les pertes à l’arrêt et, si possible, valorisant l’énergie de condensation de la vapeur d’eau contenue dans les fumées),
  • non disponible sur tout le territoire,
  • d’un coût au kWh en moyenne plus élevé que celui du fuel, sauf en période de crise internationale.

Évolution des prix du fuel et du gaz depuis 1996. En moyenne, de 1996 à 2001, le gaz a été 8 % (tarif ND2) plus cher que le fuel (au tarif officiel). Si l’institution parvient à obtenir une ristourne de 5 % sur le prix officiel du fuel, cette différence serait de 13 %.

Le fuel

  • Combustible engendrant des émissions polluantes plus importantes au niveau de l’utilisateur final (taux de CO2 et taux de NOx plus élevés (pour les chaudières de plus de 70 kW) que pour le gaz, présence de soufre). Le risque de pollution au cours de son transport reste important (marée noire),
  • Le coût est l’argument de vente principal, même s’il peut subir de fortes fluctuations.
  • La combustion requiert des puissances minimales élevées, ce qui force une production combinée entre chauffage et sanitaire, … et crée des mauvais rendements en été.

L’électricité

  • Source d’énergie presque parfaite lors de son utilisation : propre, de rendement proche de 100 %, d’investissement faible dans l’équipement, avec comme seul défaut une puissance limitée qui oblige à prévoir des ballons accumulateurs d’eau chaude,
  • Mais source d’énergie chère qui provoque de plus la controverse par sa production !
Développons :

La qualité écologique des rejets

  • Soit l’électricité est produite par énergie nucléaire, les rejets en CO2 sont nuls mais les déchets nucléaires sont difficilement gérables.
  • Soit l’électricité est produite par un combustible traditionnel et les émissions en CO2, NOx, SO3, … sont en moyenne élevées (les fortes émissions des anciennes centrales au fuel ou au charbon ne sont que partiellement compensées par la qualité des centrales TGV qui valorisent le gaz).

L’efficacité énergétique de la production

  • De façon simplifiée, il faut brûler 3 kWh de combustible (dit « primaire ») pour obtenir 1 kWh électrique, les 2 autres kWh étant perdus en chaleur autour de la centrale. Chaque tasse de café au bureau génère 2 tasses d’eau chaude dans la Meuse à Tihange… L’électricité, fabuleuse pour l’éclairage, pour l’électronique,… ne peut se défendre pour produire de la chaleur.
  • Seule la pompe à chaleur (PAC) peut justifier sa place comme corps de chauffe, puisqu’elle replace le bilan au point de départ : 1 kWh électrique au compresseur génère 3 kWh de chaleur utilisable. Idéalement, la PAC pourrait refroidir l’eau de la Meuse et produire les 3 tasses de café !

Mais la haute température de l’eau chaude sanitaire handicape fortement cette application.

Non, je n’ai pas dit qu’il faut d’abord filtrer la Meuse pour améliorer le goût du café, cela n’a rien à voir !…

Conclusions

  • Si une chaleur régulière peut être récupérée dans le bâtiment, elle doit être étudiée en priorité (machine frigorifique, buanderie, process, …).
  • L’étude d’un préchauffage par énergie solaire doit être intégrée dans tout nouveau projet.
  • Le gaz est alors le vecteur le plus adéquat pour produire l’appoint du chauffage de l’eau chaude sanitaire.


Critères de l’efficacité énergétique

Une évaluation difficile

Ce rendement est difficile à évaluer. Beaucoup de facteurs interviennent et les hypothèses d’exploitation modifient fortement le regard.

Pour s’en convaincre, il suffit de prendre un exemple simple d’un ballon de préparation électrique de 200 litres :

  • performant… si le puisage est de 150 litres chaque jour,
  • catastrophique … si le ballon alimente 3 lavabos deux étages plus haut, avec des utilisateurs qui, en pratique, n’attendent pas que l’eau soit chaude pour se rincer les mains !

Rendement de production des préparateurs d’eau chaude

Le Recknagel fournit quelques valeurs :

Chauffe-eau électrique à accumulation Chauffe-eau électrique instantané Préparateur instantané gaz Chaudière murale gaz Chauffe-eau gaz à accumulation Chaudière double service
0,99 0,99 0,84 0,86 0,86 0,90

Rendement d’exploitation

Cette fois, c’est l’ensemble du système de production d’eau chaude qui est étudié. Les pertes par tuyauteries, les pertes de stockage du ballon, … interviennent dans le bilan.

Pour avoir une idée des performances des différents systèmes présents sur le marché, voici d’abord les chiffres de rendement saisonnier que propose le VITO dans le cadre d’un diagnostic d’une installation domestique (programme SAVE BELAS).

Rendement
exprimé en énergie locale

Rendement
exprimé en énergie primaire

épaisseur d’isolant du ballon éventuel 2,5 cm 5 cm 10 cm

2,5 cm

5 cm

10 cm

Ballon combiné à une chaudière
(1 enveloppe commune)
ancienne chaudière à T°constante 0,46 0,52 0,56 0,46 0,52 0,56
nouvelle chaudière à T°constante 0,61 0,69 0,74 0,61 0,69 0,74
nouvelle chaudière à T°glissante 0,69 0,78 0,83 0,69 0,78 0,83
Ballon combiné à une chaudière
(2 enveloppes distinctes)
ancienne chaudière à T°constante 0,41 0,48 0,54 0,41 0,48 0,54
nouvelle chaudière à T°constante 0,54 0,64 0,72 0,54 0,64 0,72
nouvelle chaudière à T°glissante 0,61 0,72 0,81 0,61 0,72 0,81
Instantané gaz
(combiné ou non avec le chauffage)
0,90 0,90 0,90 0,90 0,90 0,90
Accumulateur gaz 0,69 0,78 0,83 0,69 0,78 0,83
Accumulateur électrique 0,76 0,87 0,93 0,29 0,33 0,35

Les hypothèses de calcul sont les suivantes :

  • demande annuelle d’ECS : 43 litres/pers.jour à 40°C pour une famille de 4 personnes.
  • volume de stockage éventuel de 150 litres
  • rendement moyen de la production d’électricité en Belgique : 0,38

Voici également les valeurs proposées par le Recknagel :

Rendement
exprimé en énergie locale

Rendement
exprimé en énergie primaire

Ballon combiné à une chaudière
à fuel 0,45 0,45
à gaz 0,45 0,45
Echangeur à plaques combiné à une chaudière à fuel 0,60 0,60
à gaz 0,60 0,60
Ballon électrique à accumulation de nuit 0,70 0,27
instantané 0,95 0,37
Chauffe-eau à accumulation à fuel 0,50 0,50

Conclusion

Même si quelques imprécisions subsistent (le rendement du préparateur gaz instantané nous paraît fort élevé dans l’étude du VITO, de même que celui de l’accumulateur gaz), les systèmes à gaz instantanés sortent clairement du lot et sont donc à conseiller. Attention : ces conclusions sont tirées d’études sur des installations domestiques !

Pour comparer la performance des différents systèmes pour une application particulière, nous proposons un petit logiciel d’évaluation.

Calculs

Pour analyser le rendement global d’une installation particulière, cliquez ici !

Un préchauffage par capteurs solaires ?

Une technologie aujourd’hui maîtrisée

photo capteurs solaires.

Arrivé à un haut niveau de maturité technique, le solaire thermique est une solution de choix dans les défis énergétiques. Il est une substitution immédiate et directe à l’usage des combustibles fossiles. Pour les grandes installations, il permet de manière aisée une réduction de 20 à 50 % des besoins énergétiques pour la production d’eau chaude sanitaire. Il présente un intérêt d’autant plus élevé pour des applications tertiaires collectives où les consommations d’ECS sont élevées.  Cette technique montre de nombreux avantages :

  • Utilisation d’une énergie propre et disponible gratuitement : pas de rejet de CO2 ni d’autres gaz à effet de serre ;
  • Anticipation de la raréfaction voire de l’épuisement des gisements d’énergie fossile ;
  • Coût de fabrication peu onéreux : technique simple ;
  • Rendement élevé : technique efficace ;
  • Investissement sûr ;
  • Indépendance énergétique et non dépendance vis-à-vis de la fluctuation des prix de l’énergie ;
  • Durée de vie importante : environ 25 ans ;
  • Entretien léger ;
  • Augmentation de l’image verte d’un établissement, d’une société ;

Les besoins en ECS étant généralement répartis de manière presque constante au fil de l’année, le (pré)chauffage de l’eau chaude sanitaire est une application particulièrement adaptée au solaire thermique.

schéma corrélation entre consommation ecs et apport solaire.

Trois facteurs majeurs influencent directement l’efficacité et  la rentabilité d’une installation :

  • La consommation d’eau chaude : trop faible, inconstante ou concentrée sur les mois d’hiver, elle constitue souvent le facteur limitant de la productivité du système, d’où l’intérêt de la mesurer.
  • L’emplacement des capteurs : une orientation ou une inclinaison défavorables, un ombrage excessif diminuent l’efficacité, donc la rentabilité du système solaire.
  • La régulation solaire et la gestion de l’appoint : le principe de base consiste à assurer une température de retour vers les capteurs la plus basse possible, afin de récupérer le maximum d’énergie solaire.

Le chauffe-eau solaire mis en service en 2001 à la résidence Vieux-temps à Fléron est composé de 56 m² de capteurs à tubes sous vide et d’un volume de stockage solaire de 6 600 litres. L’énergie solaire couvre 47 % des besoins en eau chaude de l’établissement.

À l’évidence, l’impact visuel des capteurs est limité.

 > Plus d’infos sur le choixd’un préchauffage par capteur solaire

Les étapes de la réalisation d’un projet solaire thermique ont été balisées par le programme « Soltherm » de la Région Wallonne :

Études de cas Parcourir l’audit solaire établi pour :

– le home La Charmille à Gembloux !

– la piscine d’Herstal !

– la piscine de l’Hélios à Charleroi !


Récupérer l’énergie au condenseur de la machine frigorifique ?

La machine frigorifique évacue de la chaleur vers l’extérieur. Or la production d’eau chaude sanitaire demande une fourniture de chaleur, au contraire. L’idée de récupérer la chaleur de l’un au bénéfice de l’autre est attirante.

En pratique, pour le groupe frigorifique, chauffer l’eau sanitaire de 10 à 30°C est très efficace, effectivement. Par contre, chauffer l’eau de 30 à 60°C est difficile. Sous prétexte de récupération, la machine frigorifique finit par avoir un très mauvais rendement : le compresseur doit augmenter son taux de compression pour atteindre les hautes températures !

Cette technique est donc à privilégier pour les installations où la demande d’eau chaude sanitaire est très importante (hôtels, restaurants,…) et pour lesquels on assurera le préchauffage de l’eau sanitaire, sans perturber le cycle de la machine frigorifique. De l’ordre de 20 à 25 % de la puissance frigorifique peut être alors récupéré.

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude.

échangeur thermique

Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir.

L’échangeur est équipé d’une double paroi de sécurité, selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface.

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Schéma ballon intermédiaire à double échange

Un appoint en série est prévu (2).

Schéma 3 : en présence d’une boucle de distribution.

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

 Concevoir

Motivé ? Alors, découvrez plus de détails sur le fonctionnement côté machine frigorifique en cliquant ici !

Critère anti-légionelles

Toute zone « morte » de l’installation est une zone propice au développement de la légionelle. Ces bactéries adorent se développer dans une eau entre 35 et 45°C. Ce sont surtout les grandes installations qui sont les plus sensibles. Une étude du CSTC à mis en évidence que 40 % des grandes installations étaient contaminées : immeubles à appartements, piscines, homes, hôpitaux…

D’une manière générale, les principes à poursuivre pour combattre la légionelle sont les suivants :

  • éviter la stagnation (bras morts des réseaux),
  • forcer une T° > 55°C dans la boucle de circulation,
  • éliminer les zones tièdes au fond des ballons de stockage.

Voici les recommandations du CSTC :

  • « L’eau chaude doit être produite à une température de 60°C; on évitera qu’elle reste durablement dans le chauffe-eau à une température moindre.
  • L’eau doit être maintenue à 55°C au moins en tout point du réseau principal.
  • Dans un système de distribution avec recirculation, la température de retour ne peut jamais être inférieure à 55°C. Par ailleurs, la chute de température entre le point de départ et le point de retour à l’appareil de production d’eau chaude ne peut dépasser les 5°C : si l’eau quitte l’appareil de production à 60°C, la température de retour devra être de 55°C au moins.
  • Il est interdit de laisser stagner de l’eau chaude ou de l’eau froide : les branchements « morts » sur le réseau de distribution (y compris les vases d’expansion sanitaires, par exemple) sont donc « à risque ». Ils ne pourront dépasser 5 m et avoir un volume d’eau supérieur à 3 litres.
  • Les installations doivent être entretenues régulièrement; à cet effet, les appareils de production d’eau chaude seront dotés des ouvertures nécessaires. »

Source : CSTC magazine (hiver 2000).

À ce titre, les accumulateurs d’eau chaude sont-ils plus ou moins performants que les préparateurs instantanés ? Difficile à dire, … pour supprimer tout risque, il est recommandé une température de 60°C durant 30 minutes ou 70°C durant 4 minutes. Les préparateurs instantanés ne vérifient pas ces critères, mais avec ce système, il n’y a pas de stagnation, donc pas de développement possible (il faut un minimum de 2 jours de stagnation entre 25 et 45°C pour générer la prolifération bactérienne).

Ce qui est certain, c’est que la température de production est plus élevée qu’autrefois, que l’isolation thermique doit être renforcée et … qu’il faut investir dans des mitigeurs de qualité qui ne craignent pas trop le calcaire (risque de brûlure !).

Précisons enfin que la transmission de la légionelle se réalise par inhalation d’aérosols (gouttelettes de 1 à 5 microns) et par la contamination des poumons. On pourra donc être contaminé en prenant une douche mais pas en buvant un verre d’eau ! Ceci implique que la préparation à haute température est importante dans une piscine mais pas forcément dans une école.


Traitement de l’eau ?

Pour assurer la fiabilité des systèmes de douches (absence de dépôt dans les surfaces d’évaporation dont les pommeaux, de blocage des boutons poussoirs,…), il faut passer très souvent par la réduction de la teneur en carbonates de l’eau de distribution.

Techniques de traitement

Trois techniques de traitement de l’eau sont possibles :

  • Mettre en place un adoucisseur par résines échangeuses d’ions, avec rinçage de l’installation; ce procédé est d’une efficacité reconnue.
  • Traiter physiquement grâce à un champ magnétique; l’efficacité de ce type de solution est variable en fonction des conditions de fonctionnement de l’installation (comme par exemple la vitesse de l’eau traitée). On consultera les études du CSTC et du CSTB à ce sujet.
  • Dissoudre des cristaux de polycarbonates qui jouent le rôle d’inhibiteurs; cette solution s’applique pour des températures inférieures à 60°C.

Mesure de la dureté de l’eau

On commencera par analyser le TH de l’eau, Titre Hydrotimétrique, qui caractérise la dureté totale de l’eau dans la région du bâtiment à concevoir. Ce TH exprime la somme des ions Calcium Ca++ et Magnésium Mg++, responsables de la dureté de l’eau.

L’unité de mesure est le degré français °F. Ainsi, 1° F = 10 mg CaCO3/litre. L’échelle suivante permet de juger de la tendance de l’eau à déposer des sels :

eau très douce : < 7,5°F
douce : 7,5 à 15°F
assez dure : 15 à 20°F
dure : 20 à 30°F
très dure : > 30°F

La compagnie des eaux peut fournir cette valeur. Sinon, il existe des kits de mesure que les sociétés de maintenance utilisent et qui sont en vente chez les marchands d’adoucisseurs. Un pharmacien peut également faire cette mesure

Dimensionnement de l’installation

Partons d’une eau dont le TH est de 30°F (soit 0,3 kg de CaCO3/m³).

  1. On convient de limiter le TH à une valeur de 15°F, c.-à-d. de retirer 15°F/m³ d’eau à traiter. Il n’est pas nécessaire d’adoucir davantage : la consommation de sels augmenterait alors qu’un très léger dépôt de calcaire protège le réseau de tuyauteries de la corrosion par l’oxygène.
  2. On estime la consommation journalière. Par exemple : 3 000 m³/365 = 8,2 m³/jour. Il nous semble que le traitement de l’eau chaude est suffisant puisque c’est lors du chauffage de l’eau que le problème se pose. Le traitement de l’eau froide ne se justifie que pour une raison de confort.
  3. La capacité de traitement sera de 8,2 x 15 = 123 m³.°F/jour.
  4. Considérant le prix des appareils (un adoucisseur plus petit est moins cher), on peut raisonnablement choisir un appareil de capacité nominale de 250 m³.°F/jour par exemple.De cette manière, la saumure de régénération a au moins un jour pour se reconstituer. À ce sujet, il faut considérer une consommation annuelle de sel de l’ordre de 2 000 à 3 000 kg (0,6 à 1 kg/m³). Cela entraîne la nécessité de prévoir un bac à saumure suffisamment grand pour éviter une trop grande fréquence de manipulation.Il faut aussi prévoir une mise à l’égout (environ 10 litres d’eau évacuée/litre de résine à régénérer).
  5. Choisir un dispositif de régénération volumétrique, beaucoup plus économique qu’un programmateur horaire.

L’analyse comparative de « Test-Achats »

Les résultats de l’analyse comparative publiée dans Test-Achats de juin 2000 concernent bien entendu le secteur domestique. Les coûts de l’énergie sont également ceux en vigueur dans le domestique. Toutefois, il nous a semblé intéressant d’y faire écho ici parce que le secteur tertiaire à parfois des besoins en ECS très limités, comparables à ceux d’une habitation.

Les coûts annuels repris dans le tableau englobent le coût d’investissement dans l’appareil (amorti en 15 ans) et le coût d’exploitation. Hypothèse : consommation de 180 litres d’eau chaude/jour (5 à 6 personnes)

Coût annuel
(amortissement + exploitation)

Chaudière murale au gaz naturel
(tarif B, sans veilleuse)

189 €

Chaudière murale au gaz naturel
(tarif B, avec veilleuse)

189 €

Chauffe-bain au gaz naturel
(tarif B, sans veilleuse)

251 €

Chauffe-bain au gaz naturel
(tarif B, avec veilleuse)

269 €

Boiler électrique 200 l
(tarif exclusif nuit)

321 €

Boiler au gaz naturel 145 l
(tarif B)

339 €

Boiler sur chaudière à mazout 120 l

355 €

Boiler sur chaudière au gaz naturel 120 l

366 €

Boiler électrique 200 l
(tarif bihoraire)

387 €

Chauffe-bain au propane en réservoir

428 €

Boiler au propane en réservoir

587 €

Chauffe-bain au propane en bouteilles

615 €

Boiler électrique 150 l
(tarif jour).

729 €

Boiler au propane en bouteilles 145 l

849 €

Le préparateur instantané gaz se révèle le plus économique. Tandis que le préparateur au propane gagne a être remplacé !

Mettre en place un stockage d’énergie frigorifique [Climatisation – concevoir]

Mettre en place un stockage d'énergie frigorifique


Choix entre les différentes technologies

L’objectif est de fabriquer et de stocker l’énergie frigorifique avant son utilisation, par exemple la nuit.

Deux types de technologie existent sur le marché :

  • soit des réservoirs d’eau très froide, sortes d’énormes ballons « tampon », qui sont des réservoirs à « chaleur sensible« .
    Le bac constitue une réserve d’eau à 5°C, un tampon mis en série dans l’installation. On pourra en disposer facilement au moment de la pointe. Mais la capacité de stockage est faible… L’objectif est seulement de délester le groupe frigorifique durant quelques minutes sur le quart-d’heure critique.
  • soit des réservoirs de glace, sous forme de barres de glace ou sous forme de nodules, qui sont des réservoirs à « chaleur latente« .

    L’installation (et sa régulation) est plus coûteuse mais nettement plus efficace ! Il est possible de stocker 80 fois plus d’énergie dans un litre d’eau qui gèle que dans un litre d’eau que l’on refroidit d’1 degré ! Le projet est alors véritablement de diminuer l’équipement frigorifique (au lieu de deux machines de 300 kW, c’est une machine de 300 kW et un stockage de glace qui est installé) et de réaliser un écrêtage de la puissance électrique durant plusieurs heures.


Avantages et inconvénients

Avantages

  • Le kWh frigorifique produit la nuit et/ou en dehors des heures de pointe revient nettement moins cher.
  • Si la réserve est utilisée au moment de la pointe ¼ horaire du bâtiment, les compresseurs peuvent être délestés, ce qui permet de réelles économies financières sur le coût de la pointe.
  • Nouvelles installations : diminution de la puissance frigorifique installée, par étalement de la charge dans le temps, et donc diminution de l’investissement initial en machines frigorifiques et équipements annexes.
  • Installations existantes : augmentation de la charge frigorifique sans augmentation de la puissance électrique installée (c’est intéressant pour des bâtiments en rénovation dont on souhaite augmenter l’équipement bureautique, sans devoir augmenter la puissance du transformateur).
  • Diminution de l’encombrement des tours de refroidissement en toiture.
  • Augmentation de la durée de fonctionnement des compresseurs (à la limite, fonctionnement 24h/24), ce qui améliore leur rendement moyen.
  • Possibilité d’un secours partiel (quelques heures seulement…) en cas de panne de la machine frigorifique ou d’interruption de la fourniture d’énergie électrique, seules les pompes étant alimentées par le groupe de secours. C’est une sécurité parfois recherchée pour les salles informatiques.
  • Pour les grands bâtiments, le réservoir d’eau obligatoire pour la protection incendie peut parfois être utilisé comme bâche d’eau glacée.

Inconvénients

  • Aucun gain sur le bilan énergétique thermique ! Même plutôt quelques pertes de frigories durant le stockage … C’est essentiellement une opération tarifaire, financière et non énergétique.
  • Lorsque la machine frigorifique « fait de la glace », la température à l’évaporation descend. Elle travaille avec un moins bon rendement que lors du régime normal de préparation de l’eau glacée ! Ceci est partiellement contrebalancé par le fait que la température de condensation va également pouvoir diminuer, suite aux températures plus fraîches de la nuit.
  • La puissance de la machine frigorifique descend à 60 % … 70 % de sa valeur nominale lorsqu’elle prépare de l’eau glacée.

Par exemple, voici l’évolution pour une machine particulière : la puissance lors de la charge de nuit est donc réduite à 324 kW / 458 kW = 71 % de la valeur nominale.

  • L’installation est plus complexe et nécessitera une régulation pour la gestion des cycles charge-décharge.
  • Le stockage thermique est volumineux et sera donc généralement limité à une part de la consommation journalière.

La démarche à suivre

Le choix de la mise en place d’un stockage de froid nécessite d’analyser correctement le profil de consommation du circuit froid.

Fixer les objectifs du stockage

De multiples combinaisons entre capacité de stockage, puissance de déstockage et puissance frigorifique sont possibles.

Il est donc utile de préciser les objectifs visés par le stockage : diminution de la pointe quart-horaire ? diminution de la puissance frigorifique installée ? réduction de l’encombrement des condenseurs/tours de refroidissement en toiture ? réserve stratégique de froid en cas de rupture de la machine frigorifique ?…

On distingue de multiples stratégies d’utilisation.

Par exemple :
Un stockage total de la charge frigorifique durant la nuit :

Un stockage partiel pour limiter la pointe frigorifique :

Un stockage partiel avec une utilisation spécifique à la gestion de la pointe quart horaire :

Seul un bilan financier global (coût d’investissement initial et coût d’exploitation associé) de chaque configuration peut permettre de sélectionner la combinaison optimale.

Vérifier l’encombrement

Les réservoirs de stockage sont parfois adoptés parce qu’ils permettent une diminution de l’encombrement des tours de refroidissement en toiture.

Par contre, ils nécessitent de la place à l’intérieur du bâtiment… Dans certains cas, le stockage est enterré dans le sol, devant le bâtiment ou sous celui-ci.

On tiendra compte également du poids supplémentaire sur la structure du bâtiment, ainsi que des pressions d’eau atteintes suivant la configuration du réseau.

Établir le profil des charges

Au contraire des systèmes de refroidissement classiques où il suffit de connaître la puissance de refroidissement maximale pour pouvoir faire son choix, l’accumulation de glace exige un profil de charge.

Il s’agit d’une présentation graphique (ou sous forme de tableau) de la charge de froid demandée en fonction du temps, et ce pour la journée de l’année où la charge de refroidissement est la plus importante (journée de référence, celle servant de base à la conception).

Le profil de charges est, en général, sous forme d’une courbe en cloche, dont la surface représente de 60 à 80 % de la surface du rectangle dans lequel la courbe s’inscrit. Ce pourcentage est appelé « facteur de simultanéité ». Plus ce facteur est bas, plus le rendement de l’installation sera défavorable.

Si la puissance maximale atteinte varie en fonction de la saison, la forme du diagramme reste relativement stable.

Etablir un scénario de charge et de décharge

Qui fait quoi et à quel moment ?

Voici 2 exemples :

  • L’objectif est de réduire la pointe électrique : le délesteur de charge arrête la machine frigorifique au moment critique et le réservoir prend le relais.
  • L’objectif est de garantir du froid en cas de panne du secteur : pour la sécurité du refroidissement du local informatique, un réservoir restera en permanence en glace, en stand-by pour le cas où… Dans ce cas, le groupe électrogène de secours doit seulement alimenter la pompe qui va envoyer l’eau glacée sur la glace.

Le dimensionnement des équipements et leur régulation sont fonction des objectifs recherchés…


La sélection du groupe frigorifique

Une machine frigorifique capable de préparer de la glace se distingue de celle destinée uniquement à la préparation de l’eau glacée :

  • La préparation de la glace requiert une température à l’évaporateur de plusieurs degrés sous zéro (de – 4° à – 10°C, en fonction du type de stockage choisi), alors que l’eau glacée se prépare généralement avec une température d’évaporation réglée sur + 2°C.
  • Si le stockage de l’énergie frigorifique est partiel, la même machine produira la glace la nuit et l’eau glacée le jour. Elle doit donc pouvoir s’adapter aux deux températures d’évaporation différentes.
  • La machine frigorifique travaillant de nuit, la machine doit être prévue pour pouvoir travailler avec une température de condensation réduite et profiter ainsi d’un coefficient de performance (« COPfroid » ou « efficacité frigorifique ») amélioré (les machines standards fonctionnent avec des températures de condensation élevées en permanence). En général, ceci suppose la présence d’un détendeur électronique, capable de s’adapter aux fluctuations de température de condensation.
  • Le système choisi requiert parfois la mise en place d’un fluide secondaire, type eau glycolée.

Même s’il est possible d’utiliser les machines standards, il sera toujours utile de procéder à une analyse spécifique pour ce type d’application. Notamment pour sélectionner le type de fluide frigorigène adapté à la fluctuation de température souhaitée, tant à l’évaporateur qu’au condenseur.

On sera particulièrement attentif à l’isolation des équipements : une isolation étanche à la vapeur pour éviter la condensation et la formation de glace. Cette isolation doit être scellée avant les essais.


La répartition des charges frigorifiques

La charge frigorifique doit être répartie entre la machine frigorifique et le stockage.

À titre d’exemple, considérons le profil de charge suivant :

Les besoins effectifs journaliers sont de 750 kWh. Une puissance maximale de 100 kW n’est requise que durant 2 heures sur un total de 10 heures d’exploitation.

On distingue deux principes de sélection des équipements :

Accumulation complète (Full Storage)

Dans le cas de ce système, on stocke dans la glace toute la quantité de froid nécessaire pour une journée complète. La machine frigorifique est arrêtée en journée et seule la glace en cours de fonte assure le refroidissement.

Il en résulte un système d’accumulation de glace très imposant, mais les coûts d’exploitation sont faibles (toute l’énergie est produite au tarif de nuit).

La puissance de la machine frigorifique est déterminée par le rapport entre l’énergie totale à accumuler (ici 750 kWh) et la durée de la période de production en Heures Creuses (ici 14 heures).

750 kWh / 14 h = 54 kW

Ce système est rarement appliqué, à cause du coût d’investissement et de l’espace disponible très élevés.

Accumulation partielle (Partial Storage)

Dans ce système, la même machine frigorifique réalise :

  • la préparation de glace durant la nuit,
  • le refroidissement partiel de l’eau glacée durant la journée, en étant alors secondée par la fonte de la glace.

La machine frigorifique fonctionnera donc 24 heures sur 24 lors de la journée de référence. Elle est alors dimensionnée en fonction de la charge de froid totale sur les 24 heures (ici 750 kWh en 24 heures) plutôt que sur la base de la charge de pointe (ici 100 kW).

En appelant :

  • Pc = puissance compresseur en direct
  • Pr = puissance réduite du compresseur la nuit = f x PC
  • f  = 3 % par °C d’abaissement de la température à l’évaporateur (valeur typique), soit une perte de puissance de 30 à 35 % en fonctionnement de nuit par rapport au fonctionnement de jour
  • En = énergie frigorifique journalière
  • Td = Temps de fonctionnement de la machine en direct
  • Ts = Temps de fonctionnement de la machine en phase de stockage de glace

La machine sera dimensionnée par :

en = Td x PC + Ts x Pr

d’où :

  • en = Td x PC + Ts x f x PC
  • PC = en / (Td + Ts x f )

Exemple de sélection

Pour expliquer la méthode de sélection, nous avons choisi de recourir à un exemple d’une installation selon le principe de fonte interne.

* A supposer

  • une charge de pointe de 1 000 kW
  • un régime de température de 12°C / 7°C
  • un refroidissement nécessaire entre 8 heures du matin et 18 heures (soit 10 heures)
  • une charge de refroidissement totale 8 000 kWh

* Il est demandé

La sélection d’un système d’accumulation de glace pour une machine frigorifique aussi petite que possible.

* Solution

La plus petite machine frigorifique est celle qui tourne 24 heures sur 24.

Pour faire de la glace, la machine frigorifique produira du glycol à une température négative (ex : – 5°C). Mais, pendant la journée, la machine frigorifique fonctionnera à des températures positives dans la mesure où elle devra seulement pré-refroidir le glycol à 12°. Sa puissance étant limitée, la glace assurera le post-refroidissement.

Les caractéristiques de fonctionnement de la machine frigorifique ne sont donc pas identiques pour la production de glace et pendant la journée. La nuit, lors de la fabrication de la glace, la machine présente une puissance de l’ordre de 65 à 70 % de la puissance nominale. Cette valeur de 70 % n’est qu’indicative et devra donc être vérifiée a posteriori avec les fournisseurs de la machine frigorifique en fonction des températures d’évaporation et de condensation réelles.

Dans notre exemple, nous avons un temps de fabrication de glace de 14 heures et un temps de fonte de 10 heures. La machine frigorifique fonctionnera donc 10 heures à 100 % de capacité et 14 heures à 70 % de capacité. La quantité totale de froid à fournir est de 8 000 kWh. Dès lors, si nous comparons le froid produit au froid nécessaire, nous obtenons :

(10 h x 100 % de cap.) + (14 h x 70 % de cap.) = 8 000 kWh

cap. x (10 + 14 x 0,7) = 8 000 kWh

cap. = 404 kW

La machine frigorifique fournira donc 404 kW pendant la fonte et 70 % de cette valeur pendant la fabrication de glace, soit 283 kW.

La puissance de stockage de glace nécessaire est alors égale au temps de fabrication multiplié par la puissance de production de froid pendant la fabrication, soit :

14 heures x 283 kW = 3 960 kWh.

On trouve la même puissance de stockage en soustrayant de la charge totale de froid de 8 000 kWh la puissance de froid fournie par la machine frigorifique pendant la fonte :

8 000 kWh – (10 h x 404 kW) = 3 960 kWh.

*Conclusions

Il faut un appareil d’accumulation de glace d’une puissance de stockage minimale de 3 960 kWh.

Si le réservoir présente une capacité de 50 kWh/m³, il faudra prévoir un stockage de :

3 960 / 50 = 80 m³

Attention à la température de restitution de la glace !

La méthode de sélection ci-dessus est une première approche simplifiée !

Ainsi, il faut également vérifier si l’appareil d’accumulation de glace peut garantir la puissance de fonte souhaitée à la température demandée (ce n’est pas tout d’avoir les kWh, encore faut-il qu’ils soient restitués à une température suffisamment basse !).

Pour des applications exploitant le principe de la fonte externe, cela ne pose généralement pas de problème dans la mesure où un réservoir peut être complètement fondu en 2 heures à une température d’eau de 1 à 2°C. Dans le cas de la fonte interne, en revanche, il est conseillé d’examiner cet aspect avec le fabricant, étant donné que la puissance de fonte est nettement inférieure et dépend en outre dans une large mesure de la quantité de glace restante. Généralement, on admet dans le cas de la fonte interne que la puissance de fonte restante est d’autant plus faible que la quantité de glace restante est petite. Mais cette situation est améliorée si une pompe à air pulse des bulles d’air au fond du réservoir. L’agitation est favorable à l’homogénéité des températures, notamment par bris de la glace en fin de fonte interne.

Dans notre exemple, la puissance de fonte la plus importante à fournir est de :

1 000 kW – 404 kW = 596 kW
(puissance de pointe – capacité de la machine frigorifique).

Comparé à la puissance de stockage de l’appareil d’accumulation de glace (3 960 kWh), il s’agit d’un temps de fonte « équivalent » de 6,2 heures. Avec les systèmes de fonte interne couramment utilisés, on peut alors s’attendre à des températures de fonte autour de 5°C. Cela convient donc pour la température demandée de l’ordre de 6°C.

Le fournisseur dispose de logiciels de dimensionnement plus élaborés qui vérifieront si la température lors de la décharge reste compatible avec la demande.

 Études de cas 

Un exemple d’analyse de l’évolution de la température, issue d’un logiciel de ce type, est donné dans les études de cas.

Le dimensionnement du réservoir de stockage

Capacité d’un stockage eau

La chaleur sensible de l’eau est de 1,163 kWh/m³.K.
La capacité de stockage dépend dès lors du régime de fonctionnement :

  • en régime 5°/12°C, un m³ d’eau stocké à 5° dispose d’un delta T° = 7°C, soit une réserve de 8,14 kWh/m³.
  • en régime 5°/15°C, un m³ d’eau stocké à 5° dispose d’un delta T° = 10°C, soit une réserve de 11,63 kWh/m³.

Pour stocker 1 000 kWh, il faudra 123 m³ sous un delta T° = 7°C, et 86 m³ sous un delta T° = 10°C.

Capacité d’un stockage glace

La chaleur latente de cristallisation de l’eau est de 93 kWh/m³ (en eau), soit de 84,5 kWh/m³ (en glace). en quelle sorte, on pourrait parler d’une capacité de stockage équivalente, en chaleur sensible, à un delta T° de l’ordre de 80°C ! Et cette propriété peut encore être renforcée par l’addition d’un sel eutectique dans l’eau.

Mais en pratique, l’entièreté d’un m³ de stockage ne se transforme pas en glace, ne fût-ce que pour pouvoir encore laisser passer le fluide caloporteur.

Aux valeurs de stockage en chaleur latente, on peut ajouter la chaleur sensible, en eau et en glace, fonction des niveaux de température atteints.

Les valeurs moyennes suivantes peuvent être prises :

Capacité de stockage

Volume pour 1 000 kWh

Bac à eau chal. latente 40 kWh/m³ 25 m³
chal. sensible et latente 50 kWh/m³ 20 m³
Bac à glace chal. Latente 48 kWh/m³ 21 m³
chal. Sensible et latente 58 kWh/m³ 17 m³
Nodules chal. Latente 40 à 50 kWh/m³ 25 à 20 m³
chal. Sensible et latente 50 à 60 kWh/m³ 20 à 17 m³

On constate que, en moyenne, un m³ de stockage en « glace » emmagasine 4 à 6 fois plus de froid qu’une bâche de stockage en « eau glacée ».

Ces valeurs permettent de dimensionner grossièrement le système. Les fabricants disposent d’outils de simulation permettant d’affiner ce calcul.

Études de cas

Un exemple de dimensionnement pour une installation de 500 kW frigorifique est donné dans les études de cas.

Les schémas d’installation

Stockage d’eau glacée

Les schémas d’installation diffèrent en fonction de la place relative du ballon par rapport au chiller.

 Techniques

Pour plus d’informations : cliquez ici !

Stockage de glace

Les schémas de principe sont basés sur trois types de configuration :

  • Stockage en série avec la charge, la machine frigorifique étant en aval des bacs de stockage.
  • Stockage en série avec la charge, la machine frigorifique étant en amont des bacs de stockage.
  • Stockage en parallèle avec la charge.

Voici différents schémas possibles extraits de l’ouvrage « Production de chaud et de froid » de Bouteloup chez Pyc Éditions :
Stockage de glace dans des réservoirs à faisceaux tubulaires

  Techniques 

Pour plus d’informations : cliquez ici !

Stockage de glace en parallèle avec réservoir à nodules

   Techniques 

Pour plus d’informations : cliquez ici !

Études de cas

Un exemple de schéma d’une installation existantes est donné dans les études de cas.

Régulation du système stockage-chiller

La régulation du système « stockage – machine frigorifique » est fonction de divers paramètres :

  • l’importance relative du stockage par rapport aux besoins journaliers,
  • la configuration du système (série amont, série aval, parallèle),
  • les objectifs stratégiques (puissance frigorifique minimale, gestion de la pointe ¼ horaire, conservation d’une réserve de froid permanente pour la salle ordinateur en cas de défaillance du groupe frigorifique,…),

Si le stockage est total, la gestion est simple : le stockage assure les besoins journaliers totaux. Une simple vanne trois voies motorisée ajuste l’offre à la demande. Dans certains cas, il est même possible de profiter des Heures Creuses du week-end pour précharger le stockage au maximum.

Si le stockage est partiel, on distingue deux possibilités :

  • Chiller prioritaire : la machine frigorifique assure la charge permanente de base, tout en disposant de l’appoint du stockage pour vaincre les pointes. Ce système permet de charger le compresseur de façon constante, ce qui est l’idéal pour son rendement.
  • Stockage prioritaire : la charge de base est couverte par la décharge du stockage. La machine frigorifique est prévue pour couvrir les pointes de la journée. Ce système, qui suppose une capacité de stockage plus importante, valorise davantage les kWh frigorifiques produits la nuit, mais pénalise la machine frigorifique dans son fonctionnement direct.

Quelques schémas d’installation pratiques sont proposés dans la publication « Production de chaud et de froid » de Bouteloup chez Pyc Éditions.

Exemples de scénarios possibles avec une GTC :

> « Stockage total » : pour les mois de novembre, décembre, janvier et février, le stockage a été dimensionné pour fournir seul les besoins de froid. L’installation fonctionnant en tarif horo-saisonnier, il est très important de limiter au maximum les pointes de puissance. La machine frigorifique sera donc délestée.
> « Priorité stockage » : en mi-saison, la priorité est donnée à la décharge du stockage, avec appoint de la machine frigorifique en fin de journée et durant les pointes.
> « Priorité chiller » : en été, c’est la machine frigorifique qui assure la base et le stockage est utilisé pour couvrir les pointes grâce à la rapidité de l’apport frigorifique qu’il permet. Lorsque vient la fin de la journée, le système bascule en mode « déstockage uniquement » afin de vider l’excédent. La décision de basculer est prise par la GTC en fonction de divers paramètres. Suivant les cas on prendra en compte : l’épaisseur de glace restante, la température extérieure, l’ensoleillement, l’heure dans la journée, l’historique des deux derniers jours, l’historique de l’année précédente,… Un tel modèle, mis au point progressivement, permet des économies importantes à terme. Toute la difficulté consistant à conserver une réserve de froid suffisante pour une pointe éventuelle !
> « Charge nocturne » : cette charge peut être démarrée « au plus tard », afin d’être juste suffisante en début de journée. Un historique peut permettre d’optimaliser le moment de la relance en fonction des besoins.
> Le fin du fin : si l’on prévoit quelques besoins de relance de chauffage dans le bâtiment en début de journée, une récupération de chaleur sur le condenseur de la machine frigorifique est possible; la préparation du froid de l’après-midi génère le petit coup de chaleur du matin, le stockage faisant office de réservoir tampon entre ces deux besoins !

Évaluation de la rentabilité

La rentabilité d’un stockage de glace s’établit par le rapport entre le surcoût au niveau de l’installation frigorifique et l’économie financière réalisée.

Le surcoût est estimé entre 20 et 30 % de l’installation frigorifique initiale. Cette estimation comprend :

  • Les bacs à glace : on peut compter 30 €/kWh de stockage pour une petite installation de 2 000 kWh, 25 €/kWh pour une installation de 5 000 kWh, 20 €/kWh pour une belle installation de 10 000 kWh.
  • Les équipements annexes : pompes, échangeurs,…
  • La déduction du prix de la machine frigorifique que l’on a pu économiser.

Ce qui est difficile à chiffrer et qui constitue un frein majeur du développement du stockage de nuit, c’est le volume nécessaire dans le bâtiment pour entreposer les bacs !…

L’économie financière est essentiellement résultante de l’écrêtage de la pointe quart-horaire. L’économie réalisée sur le coût moindre du kWh de nuit par rapport au kWh de jour est proportionnellement plus faible.

En effet, prenons le tarif « binôme A – Éclairage » :

Le prix du kWh de jour est de 6,25 c€/kWh (HTVA) contre 4,33 c€/kWh la nuit. En passant d’une production de jour vers une production de nuit, l’économie est donc de 31 %. Mais le fait de produire de la glace engendre un abaissement de la température d’évaporation, et le compresseur n’apprécie pas !

Ainsi, un compresseur qui voit la température d’évaporation passer de + 2°C à – 5°C voit son rendement baisser de 20 % environ. Si, parce qu’un échangeur intermédiaire supplémentaire est placé, la température d’évaporation passe à – 10°C, le rendement chute de 30 %… ! En y ajoutant quelques pertes inévitables par les parois des bacs, et les consommations des pompes,… tout le bénéfice est mangé !

Il n’empêche que les installations à – 5°C sont possibles et que l’on peut sélectionner des machines frigorifiques capables de valoriser la faible température nocturne (et donc la faible température de condensation).

Mais c’est sur le coût de la pointe de puissance que le gros de l’économie doit être trouvé (8 €/kW de pointe, chaque mois) ! Le temps de retour du projet pour une installation électrique de 500 kW et plus descend sous les 3 ans, d’après les fournisseurs.

Chaque scénario doit être étudié sérieusement. Ainsi, un bâtiment avec une prédominance de consommation électrique en été aura avantage à choisir le tarif horo-saisonnier. Dans ce cas, le délestage du groupe frigorifique durant les 4 mois d’hiver sera très rentable : 14 €/kW HTVA. Mais c’est également le moment où la demande de froid est la plus faible… L’équipement peut-il s’amortir sur ces mois d’hiver ?


La réception du matériel

Lors de la réception du matériel, il sera bon de vérifier :

Au niveau du circuit hydraulique :

  • la concentration en glycol à plusieurs endroits du circuit,
  • l’isolation des circuits et des vannes,
  • la stabilité hydraulique (équilibrage) dans tous les modes de fonctionnement du réseau, avant même d’enclencher le groupe frigorifique,
  • les débits et les pertes de charge dans diverses configurations (pour vérifier notamment si on a tenu compte de la viscosité du glycol lors de la sélection des pompes),
  • les points repris dans la régulation et la stratégie de commande choisie,
  • la protection du circuit secondaire éventuel (boucle d’eau glacée vers les ventilos, par exemple) contre tout risque de gel.

Au niveau du stockage :

  • le niveau d’eau dans le réservoir,
  • le débit et les températures lors de la charge et de la décharge.

Au niveau de la machine frigorifique :

  • la charge effective du stockage dans les conditions prévues et les températures d’évaporation spécifiées, et ceci dans le temps prévu.

Plusieurs essais sous des régimes différents seront nécessaires. On tiendra compte du fait que lors de la première mise en charge, la température initiale du bac est plus élevée que celle en régime (généralement autour des 5°C). Le premier temps de charge sera donc plus long.


La maintenance

La maintenance d’un stockage de glace est faible. On suivra les recommandations du fabricant, dont la vérification régulière de la concentration en eau glycolée.

La présence de vannes d’isolement doit permettre de démanteler facilement le réservoir de stockage sans interrompre le restant du circuit.

Si l’isolation doit être remplacée, on sera attentif à sécher au préalable soigneusement la zone traitée et à rétablir l’étanchéité au passage de la vapeur d’eau afin d’éviter la corrosion ultérieure des installations.

Concevoir le raccord entre versant isolé et pignon

Concevoir le raccord entre le versant isolé et le pignon - Quelques exemples


Isolation entre chevrons

Schéma Isolation entre chevrons- 01.

Rive non débordante – étanchéité par tuile de rive.

    1. Isolation
    2. Chevron ou fermette
    3. Isolation ou bloc isolant
    4. Mortier de scellement
    5. Sous-toiture
    6. Contre-latte
    7. Latte
    8. Rejet d’eau
    9. Tuile de rive
    10. Isolant entre chevrons
    11. Pare-vapeur
    12. Finition intérieure

Schéma Isolation entre chevrons- 02.

Rive en surplomb – étanchéité par tuile de rive.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile de rive
      8. Isolant entre chevrons
      9. Pare-vapeur
      10. Finition intérieure

> Continuité de l’étanchéité à la pluie (= fonction de la couverture)

La couverture a pour objectif d’arrêter l’eau et de l’évacuer vers la gouttière. Les mesures ci-dessous indiquent comment assurer cette étanchéité au niveau du raccord mur pignon – toiture :

1. Étanchéité assurée par des tuiles de rive

Les tuiles de rive sont posées sur les liteaux de façon à déborder d’environ 2 cm de la face extérieure du pignon ou à affleurer la face extérieure de la planche de rive du débordant. Une rive non débordante peut parfois être munie d’une planche de rive par choix esthétique. Si nécessaire, les débordants de toiture permettent en choisissant leur porte-à-faux, d’adapter la largeur d’un versant étroit au module horizontal des tuiles.

2. Étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet

Schéma étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet.

Rive non débordante – étanchéité par tuiles à double bourrelet.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Mortier hydrofugé
      5. Sous-toiture
      6. Contre-latte
      7. Latte
      8. Tuile de rive
      9. Assise de maçonnerie en saillie
      10. Isolant entre chevrons
      11. Pare-vapeur
      12. Finition intérieure

La finition entre le haut du pignon et la couverture peut être réalisée d’un côté par des tuiles ordinaires de l’autre par des tuiles à double bourrelet.

La tuile ordinaire ou à double bourrelet est scellée au mur avec un mortier hydrofugé et repose ou non sur une assise de maçonnerie en saillie.

Un débordement de la tuile de 20 mm au moins doit être prévu pour éviter l’écoulement des eaux sur le parement extérieur.

Schéma étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet.

Rive en surplomb – étanchéité par tuiles à double bourrelet et chéneau d’évacuation.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile de rive
      8. Chéneau encastré avec pattes de fixation
      9. Agrafure et patte de fixation
      10. Pare-vapeur
      11. Finition intérieure

Un petit chéneau est fixé au-dessus de la sous-toiture. L’eau qui y est recueillie est acheminée vers la gouttière. La largeur du chéneau est fonction de celle du recouvrement de la tuile, de la longueur du versant et de son inclinaison. Cette solution est déconseillée dans un environnement poussiéreux (sable à la côte) ou arboré car elle présente un risque d’obstruction.

3. Étanchéité assurée par planche de rive et bavette métallique

Schéma étanchéité assurée par planche de rive et bavette métallique.

Rive revêtue d’une bavette en plomb .

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile
      8. Bavette en plomb
      9. Pare-vapeur
      10. Finition intérieure

Une bande métallique recouvre la planche de rive et une partie de la rangée de tuiles attenante. La malléabilité du plomb facilite la liaison entre les éléments. L’étanchéité à la pluie des rives réalisée de cette façon ne nécessite pas de tuiles spéciales; la dernière rangée de tuile doit éventuellement être meulée pour s’ajuster à la planche de rive.

Lorsque la rive est achevée par une tuile entière, la bavette en plomb doit se prolonger jusqu’à l’emboîtement; dans le cas de tuiles meulées, elle doit recouvrir toute la tuile.
Ce type de raccord entre pignon et couverture est nécessaire lorsque le pignon n’est pas parallèle à la ligne de pente.

     

Bavette rigide sur tuile entière.        Bavette rigide sur tuile meulée.

4. Généralités (tous types d’étanchéité)

Pour assurer l’étanchéité en tout temps et vu la pression du vent particulièrement importante sur les bords de la toiture, il est conseillé de fixer mécaniquement les tuiles couvrant ces bords.

Continuité de la sous-toiture

La sous-toiture est prolongée jusqu’au mur de parement ou jusqu’à la planche de rive.

Continuité de l’isolation

La couche isolante doit être continue pour éviter les ponts thermiques.

La continuité de l’isolation exige une bonne coordination entre les corps de métier. En effet, dans le cas d’une isolation entre chevrons, l’isolant de toiture est posé après la sous-toiture et la couverture. Or, la jonction de l’isolant entre le mur et la toiture ne peut être correctement réalisée que si elle est réalisée avant la pose de la sous-toiture (par l’extérieur); en effet, celle-ci condamne l’accès à cette zone.

Continuité du pare-vapeur et raccord de la finition intérieure de toiture avec celle des murs

Le pare-vapeur doit être correctement raccordé contre la face intérieure du pignon. La finition fixée sous le pare-vapeur est raccordée de manière étanche avec la finition intérieure du pignon de façon à supprimer tout risque de courant d’air à travers la toiture (voir détails ci-dessus).


Toiture « Sarking » – Étanchéité à la pluie réalisée par tuiles de rive

Schéma toiture "Sarking" - étanchéité à la pluie réalisée par tuiles de rive.

Rive à fleur de mur.

  1. Mur intérieur porteur
  2. Isolation du mur extérieur
  3. Chevron ou fermette
  4. Sous-toiture
  5. Panneau isolant
  6. Contre-latte
  7. Latte
  8. Tuile
  9. Pare-vapeur
  10. Finition intérieure

Schéma toiture "Sarking" - étanchéité à la pluie réalisée par tuiles de rive.

Rive en surplomb.

  1. Mur plein
  2. Isolation du mur extérieur
  3. Parement extérieur
  4. Chevron ou fermette
  5. Panneau isolant
  6. Sous-toiture
  7. Contre-latte
  8. Latte
  9. Tuile
  10. Planche de rive
  11. Ardoises
  12. Plafond de rive
  13. Latte de support de finition intérieure
  14. Pare-vapeur
  15. Finition intérieure

Continuité de l’étanchéité à la pluie (= fonction de la couverture)

L’étanchéité à la pluie des rives des toitures « Sarking » est réalisée de la même manière que celle des toiture isolées entre chevrons.

Continuité de la sous-toiture, de l’isolant, de l’écran étanche à la vapeur et à l’air

En général, les panneaux isolants de la toiture « Sarking » assument à eux seuls 3 fonctions de la toiture, à savoir, celle de la sous-toiture, celle de l’isolant et celle de l’écran étanche à l’air et à la vapeur. Ainsi, pour autant que les panneaux soient posés correctement, la continuité à ces 3 niveaux est assurée.
Cependant, dans le cas d’une rive en surplomb, l’isolant de toiture doit être prolongé au-delà de la jonction avec l’isolant du mur de manière à assurer la continuité de la fonction de la sous-toiture sur la largeur du surplomb.

Connaître les détails techniques du mur creux

Connaître les détails techniques du mur creux


3 Principes de base

Remarque : il n’est pas possible de donner une liste exhaustive de tous les détails techniques corrects que l’on peut rencontrer dans les murs creux. Aussi, nous avons préféré expliquer les différentes fonctions à assurer au niveau thermique et montrer la façon d’y arriver dans quelques cas précis de manière à avoir « les outils » pour pouvoir évaluer l’efficacité de tout autre détail de conception.

Afin d’assurer confort et efficacité énergétique, le mur creux doit assurer 3 fonctions de base :

l’étanchéité à l’eau,
l’isolation,
l’étanchéité à l’air.

Ces fonctions doivent être assurées de manière continue. Pour ce faire, elles doivent l’être :

  • aussi bien au niveau des parties courantes des murs,
  • qu’au niveau des différents points particuliers c.-à-d. au niveau des différentes jonctions (avec un châssis, avec la fondation, avec un plancher, avec une terrasse, avec la toiture, etc.) (= « détails techniques« ).

L’étanchéité à l’eau

(contre les infiltrations d’eau de pluie, l’humidité ascensionnelle, les eaux de nettoyages, ….)

> Parties courantes : le principe même du mur creux permet d’assurer une bonne étanchéité à l’eau de pluie.
> Chaque interruption de la coulisse doit être drainée par une membrane d’étanchéité placée en escalier vers l’extérieur et des joints verticaux laissés ouverts de manière à rejeter l’eau qui a pénétré dans la coulisse.
> A chaque ouverture dans le mur (fenêtres, …), il faut veiller à ce que l’eau soit rejetée vers l’extérieur et ne puisse pénétrer à l’intérieur.
> Les matériaux doivent être protégés de l’humidité ascensionnelle, des eaux de nettoyage ou de toute autre source d’eau.

 L’isolation

> Dans les parties courantes du mur creux, l’isolation doit être continue dans la coulisse.

Une discontinuité dans l’isolation des parties courantes engendre des pertes de chaleur supplémentaires de deux types :

  • des pertes par convection  par circulation d’air autour des panneaux (principalement pour les murs à remplissage partiel de la coulisse). Un espace de 5 mm suffit pour provoquer une rotation spontanée de l’air.

Schéma isolation continue dans la coulisse.

> Au droit de chaque nœud constructif, il doit y avoir continuité de la coupure thermique. Cela suppose :

Schéma isolation et nœud constructif.

  1. soit la continuité de l’isolation (cas idéal),
  2. soit l’interposition d’un élément isolant ,
  3. soit l’équivalence de la résistance thermique par un allongement du « chemin » à faible résistance thermique.

 L’étanchéité à l’air

> Outre qu’elle diminue les déperditions thermiques, l’étanchéité à l’air est très importante car elle conditionne le bon fonctionnement de l’étanchéité à l’eau du mur creux.

Elle permet une mise en équilibre des pressions de part et d’autre de la maçonnerie de parement. En l’absence d’une barrière à l’air efficace, l’eau qui aurait traversé la maçonnerie de parement au droit d’une petite discontinuité pourrait être projetée au point d’atteindre la paroi intérieure lorsque celle-ci est exposée à des pluies accompagnées de vent.

     

Pas d’étanchéité à l’air côté intérieur.   Étanchéité à l’air côté intérieur.

Elle est assurée :

> Dans les parties courantes du mur creux, par un enduit appliqué sur le mur intérieur.
> Aux jonctions entre mur et châssis, par les joints d’étanchéité (fond de joint + mastic).

Partie courante et angle d’un mur

Schéma mur creux et étanchéité à l'eau.

L’étanchéité à l’eau

Le principe même du mur creux est d’offrir une barrière efficace à l’eau de pluie.

En effet, la lame d’air entre la maçonnerie de parement et le mur porteur intérieur constitue une interruption dans les matériaux qui permettent l’acheminement de l’eau. Elle empêche donc l’eau qui aurait pu passer au travers de la maçonnerie de parement, de continuer son chemin vers l’intérieur du bâtiment.
De plus, elle permet de récolter l’eau qui a réussi à traverser le mur de parement pour la renvoyer vers l’extérieur.

Pour que ce principe de barrière capillaire fonctionne bien, il faut cependant :

  • Que le mur intérieur soit étanche à l’air.
  • Que la coulisse (3) ait une épaisseur totale de 6 cm au moins de manière à former une véritable rupture capillaire.
    Remarquons qu’une coulisse remplie complètement d’un isolant non capillaire et hydrophobe reste une coupure capillaire.
    Dans le cas d’un mur creux isolé à remplissage partiel, la lame d’air restante doit être d’au moins 3 cm.
  • Que la coulisse soit drainée au bas du mur.
  • Que la maçonnerie de parement (1) soit, de préférence, réalisée au moyen de matériaux capillaires.
    En effet, une maçonnerie capillaire peut absorber l’eau qui a pénétré par les inévitables microfissures du parement et par les joints ainsi que l’eau qui ruisselle sur ses faces externe et interne. Ainsi des matériaux de parement capillaires engendrent des pénétrations d’eau dans la coulisse beaucoup moins rapides et abondantes que des matériaux peu capillaires.
  • Que, dans le cas d’un mur creux isolé avec remplissage intégral de la coulisse, l’isolant (4b) soit non capillaire et hydrophobe (c.-à-d. qu’il ne peut ni s’humidifier dans la masse, ni transférer l’eau qui aurait traversé la maçonnerie de parement.
  • Que les crochets (5a et 5b) soient inclinés vers l’extérieur (remplissage intégral d’isolant) ou munis de casse-gouttes (remplissage partiel d’isolant).

Précautions supplémentaires lors de l’exécution

Il ne peut pas y avoir de déchets de mortier dans la coulisse.

Les joints doivent être bien fermés, le mortier de bonne qualité.

Les joints entre les panneaux isolants doivent être fermés de manière à éviter le passage d’eau entre ceux-ci.

Dans le cas d’un remplissage partiel de la coulisse, les panneaux doivent être bien maintenus contre le mur intérieur par les rondelles de manière à empêcher tout contact entre le mur de parement et le mur intérieur càd de manière à garder efficiente la coupure capillaire que forme la coulisse.

L’isolation

  • Les panneaux isolants (4a et 4b) choisis doivent être rigides ou semi-rigides pour ne pas s’affaisser dans la coulisse.
  • Dans le cas d’un remplissage partiel de la coulisse, les rondelles doivent bloquer l’isolant contre le mur intérieur.

Précautions supplémentaires lors de l’exécution

  • Les panneaux isolants doivent être protégés et manipulés avec précaution sur chantier. Il faut éviter les écrasements, la boue, les déchirures, … afin de préserver leur structure qui est à l’origine de leur pouvoir isolant.

Schéma mur creux et isolation.

    • La surface du mur porteur doit être propre et plane de manière à assurer le contact entre mur porteur et isolant (1).
    • Les panneaux doivent être posés de manière jointive. Les joints sont, de préférence alternés. En surface on utilise des bandes adhésives pour recouvrir les joints et/ou des panneaux à emboîtement (2a). Les angles peuvent être recouverts à l’aide de bandes adhésives (2b).
    • Les crochets, qui servent, entre autres, au maintien de l’isolant contre le mur intérieur, dans le cas d’un remplissage partiel de la coulisse, doivent être en nombre suffisant : 5 par m² en surface (3a), 5 par mètre courant aux angles (3b) et 3 par mètre courant autour de la baie. Ils doivent être bien ancrés.
  • Pendant l’exécution du mur, la coulisse doit être protégé (utilisation de membranes et de voliges temporaires) contre la pluie.

L’étanchéité à l’air

L’étanchéité à l’air est assurée par un enduit (7) (plafonnage, le plus souvent) sur la face interne du mur intérieur. Celui-ci réduit fortement les infiltrations d’air dans le bâtiment.
S’il n’est pas possible d’appliquer l’enduit sur la face vue de la paroi intérieure (maçonnerie intérieure apparente), on applique un enduit de ciment du côté coulisse de ce même mur.

L’enduit est moins indispensable lorsque le creux du mur est pourvu de panneaux isolants peu perméables à l’air (tels que mousse de polyuréthane, polystyrène expansé, etc.) avec jonctions bien jointives.

Précautions supplémentaires lors de l’exécution

Les joints des maçonneries intérieures et extérieures doivent être bien fermés.


Pieds de façade

Cas d’un plancher sur terre-plein

Schéma isolation et plancher sur terre-plein.

  1. Mur de structure.
  2. Bloc isolant.
  3. Isolation sur dalle.
  4. Joints verticaux ouverts.
  5. Membrane d’étanchéité.
  6. Membrane d’étanchéité.
  7. Feuille d’étanchéité.
  8. Feuille d’étanchéité.
  9. Feuille d’étanchéité.
  10. Interruption de l’enduit.
  11. Enduit.

L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus de la fondation. Il faut donc la drainer à ce niveau pour renvoyer l’eau infiltrée à l’extérieur. Ce drainage est réalisé au moyen d’une membrane d’étanchéité (5) posée « en escalier » et des joints verticaux ouverts (4) (1 joint ouvert par mètre) dans la rangée de briques de parement juste au-dessus de la membrane.
    Remarque : ces joints ne servent donc pas à uniquement à ventiler la coulisse mais aussi à la drainer.
  • La membrane (6) et la feuille d’étanchéité (7) protègent le pied du mur et la dalle sur sol contre l’humidité ascensionnelle.
  • Les feuilles d’étanchéité (8) et (9) protègent l’isolant contre les eaux de nettoyage et contre l’humidité de construction de la dalle de sol.Remarque : l’utilisation d’un soubassement est tombée en désuétude ces dernières années. Or, en plus de sa fonction architecturale, ce soubassement protégeait la maçonnerie des éclaboussures.

L’isolation

  • L’isolant sur la dalle (3) freine le transfert de chaleur par conduction vers le sol.
  • La continuité entre l’isolation du mur (1) et celle du sol est assurée par un bloc plus isolant (2) que le reste du mur (bloc de béton cellulaire ou d’argile expansée).Remarque : dans certains cas, pour des raisons de stabilité, par exemple, un bloc isolant ne peut être utilisé. Il faut alors trouver un autre moyen de neutraliser le pont thermique : on place un isolant sur le trajet de la chaleur.

       

Sans correction du pont thermique et avec correction du pont thermique.

L’étanchéité à l’air

Interruption (10) de l’enduit (11) au-dessus de la membrane d’étanchéité (5) afin que l’humidité éventuelle ne contourne celle-ci.

Précautions supplémentaires lors de l’exécution

  • Ne pas encrasser le fond de coulisse (remplissage partiel).

Risque de transfert d’eau vers le mur intérieur.

  • Aux angles du mur, réaliser des jonctions étanches de la membrane d’étanchéité.

Pliage des membranes à l’angle du mur.

Remarque : il existe des profilés d’étanchéité qui assure un raccord étanche entre les membranes aux angles intérieurs et extérieurs.

  • Dans les parties courantes, assurer une jonction étanche entre les membranes (recouvrement (30 cm) ou collage); empêcher la perforation ou le déchirement des membranes.

Cas d’une fondation profonde ou d’un sol extérieur pavé

Sol extérieur pavé ou fondation profonde.

  1. Membrane d’étanchéité.
  2. Joints verticaux ouverts.
  3. Membrane d’étanchéité.

L’étanchéité à l’eau

L’eau qui pénètre dans le mur et arrive dans la coulisse est renvoyée vers l’extérieur un peu au-dessus du niveau du sol extérieur via une membrane (1) et des joints ouverts (2). Les quelques briques de parement qui se trouvent sous terre doivent être emballées sur 3 côtés par une membrane (3) de manière à empêcher l’eau d’arriver jusqu’à la coulisse.

Pour le reste, tout est identique au cas du plancher sur terre-plein.

Précautions supplémentaires lors de l’exécution

Il faut veiller à la continuité de l’isolant de part et d’autre de la membrane d’étanchéité.

Cas d’un plancher sur vide sanitaire

Schéma isolation et plancher sur vide sanitaire.

  1. Membrane d’étanchéité
  2. Joints verticaux ouverts
  3. Membrane d’étanchéité
  4. Bloc isolant
  5. Isolant sous dalle

L’isolation

  • L’isolant sous la dalle (5) freine le transfert de chaleur par convection vers le sol.
  • La continuité entre l’isolation du mur et celle du plancher est assurée par un bloc plus isolant (4) que le reste du mur (bloc de béton cellulaire, de verre cellulaire ou d’argile expansée).

L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus de la fondation. Une membrane d’étanchéité (1) posée « en escalier » et des joints verticaux ouverts (2) dans la rangée de briques de parement juste au-dessus de la membrane renvoient l’eau infiltrée à l’extérieur.
  • La membrane (3) protège le pied du mur contre l’humidité ascensionnelle.Remarque : même si l’isolant sous la dalle n’est pas étanche à l’eau, il n’a pas besoin d’être protégé.
  • contre l’humidité ascensionnelle car il n’est pas en contact avec le sol,
  • contre les eaux de nettoyage car la dalle du plancher le protège,
  • et contre l’humidité de construction car l’isolant est posé par dessous après séchage de la dalle.

Pour le reste, tout est identique au cas du plancher sur terre-plein.


Jonction avec un plancher

Schéma isolation et jonction avec un plancher.         Schéma isolation et jonction avec un plancher.

L’isolant du mur doit être continu au niveau du plancher. Le hourdi doit être placé au ras du mur intérieur.

Ainsi, les différentes fonctions de l’enveloppe sont assurées de la même manière que pour les parties courantes du mur.


Seuil de fenêtre

Schéma isolation et seuil de fenêtre.

  1. Seuil
  2. Châssis
  3. joint d’étanchéité
  4. Membrane d’étanchéité
  5. Isolant
  6. enduit
  7. Tablette
  8. Pattes de fixation

> L’étanchéité à l’eau

  • Le seuil (1) renvoie toutes les eaux qui ruissellent sur le châssis ou infiltrées dans la chambre de décompression vers l’extérieur « loin » de la maçonnerie de parement.
    Le châssis (2) doit donc être posé sur le seuil avec la sortie du conduit de drainage arrivant sur la face supérieure inclinée du seuil.

    Pour bien assurer ces fonctions, le seuil doit :
    • déborder à l’intérieur de la coulisse de 3 cm minimum (5 cm dans un cas avec volet),
    • avoir une pente minimale de 5 % sur sa face supérieure,
    • être muni d’un casse-goute permettant de maintenir les eaux à distance du parement extérieur,
    • être encastré dans la maçonnerie de manière à assurer l’étanchéité de sa jonction avec la maçonnerie (et pour des questions de stabilité),
    • être d’un seul tenant ou avec joints rendus étanches au mastic dans le cas de deux pierres consécutives.
  • Un joint d’étanchéité (3) (fond de joint + mastic) entre le seuil et le châssis empêche les infiltrations à ce niveau.
  • La coulisse est interrompue par le seuil. L’eau qui aurait pénétré par celui-ci ou entre ce dernier et le châssis est renvoyée vers l’extérieur par une membrane d’étanchéité (4) placée sous le seuil et sous la tablette intérieure « en escalier descendant vers l’extérieur ».
    Pour éliminer l’eau qui aurait pénétré dans les battées verticales, il est conseillé de prévoir une membrane d’étanchéité dans le bas de cette dernière (sous le seuil), ainsi que des exutoires de part et d’autre du seuil.

> L’isolation

L’isolant est accolé contre le dormant du châssis ainsi il y a continuité dans l’isolation. Cette disposition s’adapte particulièrement bien lorsque le châssis est placé dans le prolongement de la coulisse isolée, en battée contre la brique de parement.
Le seuil de fenêtre ne peut être en contact avec les blocs intérieurs, l’isolant (5) doit contourner celui-ci et continuer jusqu’au châssis.

> L’étanchéité à l’air

  • Un joint d’étanchéité (7) doit être prévu entre l’enduit et le châssis.

> La stabilité

Les pattes de fixation (8) reprennent les charges propres ou transmises par les menuiseries et les transmettent au mur porteur. À cette fin, de manière à avoir un bon ancrage des pattes de fixation, il faut remplir le creux des blocs de la rangée supérieure de l’allège et des pieds droits de baie avec du mortier ou du béton.
On considère en général que les supports inférieurs reprennent les charges verticales.

Remarque : en principe, des cales de support sont placées sous les montants verticaux des châssis, mais dans le cas d’un seuil en pierre, il faut éviter de trop charger celui-ci en flexion et il vaut dès lors mieux prévoir des pattes de fixation qui reprennent toute la charge.

Précautions supplémentaires lors de l’exécution

  • La membrane d’étanchéité doit être d’un seul tenant; à défaut, les joints doivent être collés ou soudés.
  • Eviter la perforation et le déchirement des membranes.
  • Les pattes de fixation doivent être bien ancrées.

Cas d’un appui métallique

> L’étanchéité à l’eau

Schéma isolation et appui métallique.

  1. Châssis
  2. Tablette.
  3. Joints d’étanchéité.
  4. Seuil métallique.
  • L’appui métallique est imperméable à l’eau, la membrane d’étanchéité sous l’appui est donc inutile.
  • Un joint d’étanchéité entre l’appui et la maçonnerie empêche les infiltrations au droit de cette jonction.

> Pour les autres fonctions, tout reste identique au cas du seuil de fenêtre en pierre bleue.


Ébrasement de baie

Schéma isolation et ébrasement de baie, étanchéité à l'eau.

> L’étanchéité à l’eau

  • Un préformé en mousse à cellule fermée (1) évite le contact du châssis avec la maçonnerie humide. Ce préformé sert également de fond de joint.
  • La pénétration de l’eau dans la coulisse par la jonction entre le châssis et le gros œuvre est empêchée par la battée et par le joint en mastic (2).
    En principe, la battée est de 7 cm pour les châssis bois, PVC et polyuréthane; 4 cm pour les châssis métalliques.
    Remarque : le joint d’étanchéité doit être suffisamment large pour pouvoir reprendre les mouvements entre le châssis et le gros-œuvre (minimum 5 à 8 mm pour un cas standard).

Schéma isolation et ébrasement de baie, étanchéité à l'eau.

> L’isolation

L’isolant arrive jusqu’au ras de la baie. Après la pose du châssis, on injecte un isolant expansé à cellules fermées (3) entre celui-ci et le gros œuvre Ainsi il y a une continuité parfaite dans l’isolation.

Remarque : Dans le cas d’une coulisse très large partiellement remplie, il faut remplir la coulisse intégralement sur 15 à 20 cm (sur tout le pourtour de la baie) afin de permettre, après pose du châssis, l’injection de l’isolant de raccordement.

Schéma isolation et ébrasement de baie et isolation.

> L’étanchéité à l’air

Un joint d’étanchéité à l’air doit être prévu entre l’enduit et le châssis.

> La stabilité

  • Les pattes de fixation (9) reprennent les charges propres ou transmises par les menuiseries et les transmettent au mur porteur. À cette fin, de manière à avoir un bon ancrage des pattes de fixation, il faut remplir le creux des blocs de la rangée supérieure de l’allège et des pieds droits de baie avec du mortier ou du béton.
    On considère en général que les supports latéraux reprennent les charges horizontales (vents, sollicitations dues aux manœuvres, …).

Linteau de baie

Schéma isolation et linteau de baie.

  1. Membrane d’étanchéité
  2. Joints verticaux ouverts
  3. Isolant
  4. Joint d’étanchéité

> L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus du châssis, celui-ci constitue un barrage à l’eau qui s’écoule dans la coulisse. Une membrane d’étanchéité (1) posée « en escalier descendant vers l’extérieur » et des joints verticaux ouverts (2) dans la rangée de briques de parement juste au-dessus de la membrane renvoient l’eau infiltrée à l’extérieur.
    Afin d’éviter la formation de poche d’eau et la perforation de la membrane, l’isolant doit être coupé en biseau (3) de manière à servir de support à la membrane.
    Remarque : une autre solution consiste à placer une membrane juste au-dessus du châssis. Cette solution est parfois choisie lorsque lors du placement des menuiseries, on se rend compte qu’une membrane n’a pas été prévue dans le gros œuvre.

Schéma isolation et linteau de baie, étanchéité à l'eau.

  • Un joint d’étanchéité (4) (fond de joint + mastic) entre la maçonnerie de parement et le châssis empêche les infiltrations à ce niveau.
    Remarque : le joint d’étanchéité doit être suffisamment large pour pouvoir reprendre les mouvements entre le châssis et le gros œuvre (minimum 5 à 8 mm pour un cas standard).

Schéma isolation et linteau de baie, étanchéité à l'eau.

Précautions supplémentaires lors de l’exécution

  • La membrane d’étanchéité doit être d’un seul tenant; à défaut, les joints doivent être collés ou soudés.
  • Les extrémités de la membrane doivent, de préférence, être relevées.
    À défaut, l’eau qui a pénétré dans la coulisse par le mur de parement au-dessus de la baie, peut être drainée latéralement et être évacuée par les joints laissés ouverts en pied de façade.

  • On doit veiller à ce qu’il n’y ait pas de déchets de mortier dans le fond de la coulisse au-dessus de la membrane.
  • Éviter la perforation et le déchirement des membranes.

> L’isolation – l’étanchéité à l’air

Ces deux fonctions sont assurées de la même façon que pour l’ébrasement de baie.

Précautions supplémentaires lors de l’exécution

Il faut veiller à la continuité de l’isolant de part et d’autre de la membrane d’étanchéité.

– – – – – – – – – – – –

Remarque : cette feuille s’inspire des 3 documents suivants :

  • la NIT 188 : « La pose des menuiseries extérieures » du CSTC.
  • « L’isolation thermique des murs creux – Guide pratique du maçon et du menuisier » / FFC.
  • « L’isolation thermique des murs creux – Outil didactique / FFC.

Choisir parmi le différents systèmes de refroidissement

Choisir un système de refroidissement

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux et ébaucher des solutions classiques, mais nullement « passe-partout ».


Critères de choix technico-économiques

Une concertation dès l’Avant-Projet

Il serait prétentieux de prétendre énoncer en quelques lignes tous les critères constituants la démarche conceptuelle qui conduit au choix d’un système de climatisation d’un immeuble.

La solution résulte en effet de la concertation étroite entre le Maître de l’Ouvrage, l’Architecte, l’Ingénieur de bureau d’études et tous les partenaires qui forment l’équipe de projet. Cette concertation se situe lors de l’Avant-Projet de l’étude du bâtiment et résulte du meilleur compromis entre critères parfois contradictoires :
  • évaluation des besoins : apports (-> froid), déperditions (-> chaud), occupation (->débit d’air hygiénique),…
  • mobilité aux variations de programme (usage du bâtiment, un ou plusieurs locataires, …)
  • confort au sens large (climatique, acoustique, visuel,…),
  • coût d’investissement et d’exploitation,
  • optimalisation de l’usage des surfaces,
  • esthétique externe et interne (le bâtiment doit être beau à voir et à vivre !),
  • etc…
À noter qu’au plus tôt se constitue cette équipe de projet, au plus l’ensemble des contraintes sera pris en considération à temps.

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux et ébaucher des solutions classiques, mais nullement « passe-partout » :


Le coût d’investissement

Considérons une base relative de 100 % comme valeur moyen d’une installation de climatisation. Une simple installation de chauffage est alors à 30 %. L’échelle des prix en fonction du type d’équipement et du niveau de régulation qui lui est associé peut être évalué comme suit :

Installations  « détente directe »

Investissement
par rapport à la référence

Window 60 – 75 %
Split system 80 – 160 %
Débit réfrigérant variable (2 tubes) 160 – 200 %
Débit réfrigérant variable (3 tubes) 240 – 300 %
Armoire de climatisation 60 – 6 000 %%
Roof-top 30 – 100 %

Installations « tout air »

Investissement
par rapport à la référence

Tout air-débit constant 120 – 170 %
Tout air-débit variable 120 – 180 %

Installations « sur boucle d’eau »

Investissement
par rapport à la référence

Ventilo-2 tubes 85 – 110 %
Ventilo-2 tubes/2 fils 90 – 125 %
Ventilo- 4 tubes 100 – 150 %
Pompe à chaleur sur boucle d’eau 80 – 170 %
Plafonds froids 110 – 160 %

Le coût des plafonds froids (plutôt élevé en regard à l’énergie frigorifique produite) est pénalisé notamment par la régulation qui doit permettre d’éviter tout risque de condensation. Mais, comme tout produit récent, son prix est progressivement en baisse sensible…


Le coût d’exploitation énergétique

Le coût d’exploitation est directement fonction des charges à vaincre : un immeuble fort vitré consommera beaucoup plus que son équivalent équipé de protections solaires extérieures, par exemple … C’est donc d’abord le bâtiment qui crée la consommation !

On peut cependant établir une échelle entre les systèmes suivant leur performance énergétique :

Installations  « détente directe »

Coût énergie

Window élevé
Split system moyen
Débit réfrigérant variable faible
Armoire de climatisation moyen
(Roof-top) (faible)

Installations « tout air »

Coût énergie

Tout air-débit constant élevé
Tout air-débit variable moyen

Installations « sur boucle d’eau »

Coût énergie

Ventilo-2 tubes moyen
Ventilo-2 tubes/2 fils moyen à élevé
Ventilo- 4 tubes moyen
Pompe à chaleur sur boucle faible à élevé
Plafonds froids faible

Quelques règles à suivre pour concevoir une installation à faible consommation énergétique :

  • Éviter de détruire l’énergie : en aucun cas, on ne doit concevoir une installation dont la régulation fonctionnerait par mélange entre fluides chauds et froids. Les installations « tout air » à doubles conduits sont particulièrement sensibles à ce phénomène.
  • Récupérer la chaleur extraite lorsque le bâtiment requiert du chaud et du froid simultanément : un grand local informatique refroidi en hiver, des plateaux très étendus et fort équipés dont il faut en permanence refroidir la partie centrale, … On aura intérêt à concevoir une installation qui peut récupérer la chaleur extraite de ces locaux pour la restituer dans les locaux en demande de chaleur (bureaux en périphérie). Les installations à débit de réfrigérant variable et les pompes à chaleur sur boucle d’eau sont performantes à ce niveau. Dans les installations plus classiques (ventilos), une récupération de chaleur au condenseur des groupes frigorifiques est également possible et moins contraignante.
  • Préchauffer l’air neuf en récupérant la chaleur soit sur l’eau en sortie des faux plafonds, soit sur le condenseur de la machine frigorifique.
  • Limiter les résistances chauffantes électriques qui peuvent entraîner des dépenses importantes vu le coût du kWh électrique par rapport au kWh thermique. On sera attentif à ne sélectionner une installation de ventilos 2 tubes/2 fils que dans un bâtiment très isolé (besoins de chaleur très limités suite aux apports gratuits). De plus une gestion des équipements devra superviser l’ensemble.
    Un petit outil de simulation
    permet de quantifier l’impact du choix du vecteur énergétique de chauffage.
  • Préférer un refroidissement à haute température : l’efficacité frigorifique d’une installation à eau glacée sera améliorée si le fluide est produit et circule à relativement « haute » température. De là, l’avantage du refroidissement par plafonds froids dont la boucle d’eau « glacée » fonctionne au régime 15°-17°. Cette température élevée permet également, durant une bonne partie de l’année, un refroidissement gratuit de l’eau glacée dans un aéroréfrigérant ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique (« free-chilling« ).  La présence d’une source d’eau froide naturelle peut également être mise à profit (forage, rivière, lac, …)
  • Préférer un refroidissement par rayonnement : pour les plafonds froids également, le confort apporté par le rayonnement froid au-dessus des occupants permet une augmentation de 2°C de la consigne de température ambiante (température max = 26°C ou 27°C, au lieu des 24 ou 25°C habituels pour des ventilos, par exemple). Il s’en suit une réduction de la puissance frigorifique nécessaire.
  • Transporter l’énergie par l’eau et pas par l’air : le transport de l’eau par pompes représente moins de 2 % de l’énergie transportée. Le transport de l’air par ventilateur représente de 10 à 20 % de l’énergie véhiculée ! Les systèmes « tout air » subissent donc un sérieux handicap. Le système à débit d’air variable (VAV) limite les dégâts à ce niveau.
  • Valoriser l’air frais extérieur gratuit : dans le cas d’une installation « tout air », une partie importante de l’énergie frigorifique peut être fournie par l’air extérieur (free cooling en hiver et mi-saison). Il semble y avoir conflit entre cet argument et le précédent ! En réalité, on choisira une installation « tout air » lorsque le bilan énergétique prévoit du refroidissement régulièrement en hiver et en mi-saison.
  • Enfin, ne pas raboter le budget régulation : la qualité de la régulation est déterminante ! on pense tout particulièrement au ventilo-convecteur qui est le pire ou le meilleur des équipements, … selon la régulation qui lui est associée !

Le coût de maintenance

Les prix donnés à titre indicatif ci-dessous (Source : « GIE – Climatisation et Développement » en France) correspondent à un contrat annuel de maintenance sur devis (les prix les plus bas correspondent aux surfaces traitées les plus grandes). Ces valeurs sont assez anciennes (années 2000), mais les variations entre les différentes installations peuvent être supposées toujours pertinentes. À ces prix s’ajoute celui du renouvellement périodique des équipements défectueux, lié à leur durée de vie. Ainsi, les installations en « détente directe » sont généralement plus fragiles, ce qui implique un remplacement plus fréquent des composants.

Installations « détente directe »

€/m2
Window très faible
Split system 3 – 7,5
Débit réfrigérant variable
Armoire de climatisation 2,25 – 9,25 (si gamme informatique)
(Roof-top) (1,5 – 3,25)

Installations « tout air »

€/m2

Tout air-débit constant 1,5 – 5
Tout air-débit variable 2 – 6,25

Installations « sur boucle d’eau »

€/m2

Ventilo-2 tubes 3 – 5
Ventilo-2 tubes/2 fils 3 – 5
Ventilo- 4 tubes 3 – 5
Pompe à chaleur sur boucle 3,75 – 6,25
Plafonds froids  

 


Le confort thermique

Installations  « détente directe »

Confort thermique
Window faible
Split system faible
Débit réfrigérant variable bon
Armoire de climatisation moyen
(Roof-top) (moyen)

Installations « tout air »

Confort thermique
Tout air-débit constant bon
Tout air-débit variable bon

Installations « sur boucle d’eau »

Confort thermique
Ventilo-2 tubes moyen
Ventilo-2 tubes/2 fils moyen
Ventilo- 4 tubes bon
Pompe à chaleur sur boucle moyen
Plafonds froids excellent
Remarque  : Le confort thermique des plafonds froids est meilleur que celui des systèmes traditionnels (ventilo-convecteurs par exemple)

  1. parce que l’apport de froid par rayonnement est plus stable (inerte) et mieux réparti spatialement que l’apport de froid par convection forcée,
  2. parce qu’il permet la sensation agréable d’avoir « la tête au frais »,
  3. parce que le confort est renforcé par l’absence de courant d’air froid, puisque le débit d’air est limité aux besoins hygiéniques,
  4. parce ces mouvements d’air limités entraînent peu de déplacement de poussières dans les locaux.


La puissance frigorifique

Le dimensionnement des installations de climatisation est généralement fonction de la puissance frigorifique maximale nécessaire en été.

À ce niveau, les plafonds froids sont relativement limités puisque la puissance de refroidissement n’atteint que de l’ordre de 80 W/m² de plafond actif. Ce système ne permet pas de refroidir seul une salle informatique, par exemple.

A puissance frigorifique égale, un système « tout air » entraîne des débits d’air véhiculés très importants et donc des gainages coûteux et encombrants !


Le confort acoustique

Pour atteindre les niveaux requis par les normes, il va de soi que les plafonds froids sont avantagés. Mais on peut également sélectionner des installations plus classiques de qualité (basse vitesse des ventilateurs, amortisseurs de bruit,…).

Ainsi, une installation « tout air » classique à laquelle on adjoint des bouches de diffusion par déplacement devient excellente sur le plan acoustique.

Installations  « détente directe »

Confort acoustique
Window faible
Split system bon
Débit réfrigérant variable bon
Armoire de climatisation moyen
(Roof-top) (bon)

Installations « tout air »

Confort acoustique
Tout air-débit constant bon
Tout air-débit variable bon

Installations « sur boucle d’eau »

Confort acoustique
Ventilo-2 tubes bon
Ventilo-2 tubes/2 fils bon
Ventilo- 4 tubes bon
Pompe à chaleur sur boucle faible
Plafonds froids excellent

La centralisation


Si la surface des locaux à climatiser est limitée (rénovation de quelques locaux,par exemple), un système à « détente directe » (voire plusieurs équipements décentralisés) sera suffisant et nettement moins coûteux.

Si une installation centralisée bénéficie de l’effet de taille en terme de prix d’investissement, il n’y a que peu d’effet majeur à l’exploitation (efficacité frigorifique meilleure pour les grosses puissances, mais pertes en ligne et pertes en régulation plus élevées…).


Le fluide caloporteur

L’effet refroidissant

Il peut être apporté aux locaux par de l’air, de l’eau, ou par le fluide réfrigérant lui-même.

L’air ayant une faible chaleur spécifique, un système « tout air » entraîne un encombrement très important (gaines volumineuses), et donc une perte d’espace utile pour l’aménagement des locaux. En rénovation, cette technique est souvent exclue (si on ne veux pas « tout casser » !). Si les locaux sont de toute façon demandeur d’air hygiénique en grande quantité (présence de nombreux occupants), le problème est vu différemment : il est alors logique d’associer les fonctions « ventilation » et « rafraîchissement »…

L’eau glacée est le choix le plus fréquent. La boucle d’eau pouvant se placer aussi bien en allège qu’en faux plafond.

L’idée de faire circuler le fluide réfrigérant directement dans les locaux est nouvelle. C’est certainement la formule la plus souple. Elle s’adapte bien aux locaux à très faible inertie (parois légère, tapis de sol, faux plafond) pour lesquels on peut parfois en mi-saison chauffer au matin, … mais refroidir sous le soleil de midi !

L’effet calorifique

Il peut être apporté par de l’air, de l’eau, par le fluide réfrigérant ou par l’électricité.

Le transport par air entraîne les mêmes conclusions en chaud qu’en froid.

Le chauffage par boucle d’eau peut se justifier par la présence d’autres besoins dans le bâtiment (eau chaude sanitaire, par exemple) : l’installation de production d’eau chaude sera commune.

Lorsque le fluide « réfrigérant » est utilisé pour chauffer : l’échangeur dans le local devient le condenseur de la machine frigorifique. C’est la solution la plus économique à l’exploitation si la chaleur est extraite de locaux refroidis. Si la chaleur est extraite de l’air extérieur (fonctionnement en pompe à chaleur), la performance diminue fortement avec la baisse des températures extérieures. Le chauffage est alors obtenu avec un prix de revient supérieur aux installations à combustible classique. Ce choix ne peut se justifier qu’au regard de la consommation globale (hiver + été) de l’installation.

Enfin, le chauffage par résistance chauffante ne doit être sélectionné que lorsque les besoins thermiques sont très limités. Le prix de revient du kWh électrique de jour est en effet 3 fois plus élevé environ que celui du kWh thermique (pointe de puissance comprise).


Le recyclage de l’air

Dans le cas d’une installation « tout air », l’apport de froid dans les locaux entraîne un débit d’air nettement plus élevé que celui nécessaire pour les besoins hygiéniques (4 … 6 fois, environ). Dès lors, plus des 3/4 du débit total est recyclé. Seul 1/4 du débit total est de l’air neuf hygiénique.

Bien que les débits hygiéniques soient largement respectés, le mélange avec de l’air recyclé est loin de faire l’unanimité. On parle de « Sick Building Syndrom ». En réalité, il est difficile de faire la part des choses entre les plaintes liées au mauvais entretien des installations et celles liées au recyclage proprement dit.

De là, la préférence donnée aux installations dans lesquelles apport d’air neuf et apports thermiques sont dissociés : le réseau d’air pulse le débit nécessaire au renouvellement hygiénique (cet air est ensuite expulsé sans recyclage).

Calculs

Dans les outils de calcul – rubrique « Climatisation » – vous trouverez un outil permettant de calculer les caractéristiques d’un mélange d’air


L’encombrement

Les installations de climatisation « tout air » sont fort encombrantes, local volumineux à prévoir pour la centrale de préparation d’air (chauffer, refroidir, humidifier l’air,..).

Gaines de volumes importants à placer. L’augmentation de l’épaisseur des faux plafonds qui en résulte peut entraîner un étage de moins sur un bâtiment de 10 étages !

Petit calcul approximatif pour avoir un repère …

Une personne requiert 30 m³/h d’air hygiénique. Sur base d’une vitesse de 5 m/s dans les conduits, cet apport d’air requiert 30 [m³/h] / 3 600 [s/h] / 5 [m/s] = 16 [cm²], soit un conduit de 4 cm sur 4 cm. Et ceci rien que pour une personne !
Si l’air est en même temps « porteur » de la charge thermique (air chaud en hiver et air froid en été), les débits d’air traités sont en moyenne multipliés par 6. La section des conduits aussi. On arrive alors à un ratio de 100 cm² par personne, soit 10 cm sur 10 !
À titre d’exemple : l’hôpital St Luc de Woluwé traite et distribue 300 000 m³ d’air par heure ! ! !

Photo technique des plafonds froids.

La technique des plafonds froids demande par contre une épaisseur de faux plafonds moins élevée.

Quant aux ventilo-convecteurs en allège, si les tuyauteries de raccordement sont discrètes, les convecteurs eux-mêmes peuvent occuper, au sol, de la place recherchée.


Le tableau de synthèse


Reprenons les différents critères :

Installations  « détente directe »

Investis.

Coût énergie

Confort acoustique Confort thermique
Window 60 – 75 % élevé faible faible
Split system 80 – 160 % moyen bon faible
Débit réfrigérant variable 160 – 200 % faible bon bon
Armoire de climatisation 240 – 300 % moyen moyen moyen
Roof-top 60 – 6 000 % faible (bon) (moyen)

Installations « tout air »

Investis.

Coût énergie

Confort acoustique confort thermique
Tout air-débit constant 120 – 170 % élevé bon bon
Tout air-débit variable 120 – 180 % moyen bon bon

Installations « sur boucle d’eau »

Investis.

Coût énergie

Confort acoustique confort thermique
Ventilo-2 tubes 85 – 110 % moyen bon moyen
Ventilo-2 ubes/2 fils 90 – 125 % moyen à élevé bon moyen
Ventilo- 4 tubes 100 – 150 % moyen bon bon
Pompe à chaleur sur boucle 80 – 170 % variable faible moyen
Plafonds froids 85 – 110 % faible excellent excellent

Stratégie de choix

Un système technique, notamment de refroidissement, ne devrait pas se choisir uniquement sur base de critères technologiques et économiques, même s’ils sont essentiels. Le choix doit intégrer toute la complexité du bâtiment, son programme, ses besoins énergétiques de chaud et de froid, son site, son occupation,…

Pour s’y retrouver, il est nécessaire de se donner une stratégie. Un exemple de stratégie de choix peut être d’identifier des groupes de critères jugés prioritaires sur base desquels faire une première sélection peut s’effectuer. Par exemple, dans une approche orientée vers la performance énergétique, on mettra en avant les critères liés :

  • Aux propriétés thermiques et constructives du projet : Quelle est l’inertie du bâtiment ? Quelles sont les puissances demandées et les besoins d’énergie en chaud et en froid, en fonction des charges internes et solaires, des performances de l’enveloppe ? Quels sont les débits d’air hygiéniques ? Quelle est la modularité envisagée (possibilité de modifier fréquemment les cloisons) ?
  • Aux ressources énergétiques disponibles sur le site : Dans notre climat, un bâtiment peut être rafraîchi la plus grande partie de l’été en ventilant naturellement le bâtiment par de l’air extérieur. Si le site est trop bruyant ou pollué, une ventilation mécanique adaptée utilisée en mode free cooling sera également efficace. L’air extérieur peut en outre être rafraichi par des aménagements paysagers (parcs, bassins) ou technologiques (humidification). Si l’air extérieur reste malgré tout chaud la journée, la température nocturne tombe suffisamment pour permettre de décharger la chaleur accumulée à l’intérieur. Si l’air extérieur n’est pas valorisable sur le site du projet, peut-être une ressource hydrique l’est-elle (sans aller jusqu’à solliciter la nappe phréatique, un étang par exemple constitue une masse d’eau fraiche impressionnante) ? La capacité thermique du sol peut également être sollicitée, si sa composition permet des forages à un coût raisonnable.
  • Au profil de l’occupant : Selon qu’il souhaite ou non avoir un rôle actif dans la conduite du bâtiment, les choix techniques ne seront pas les mêmes. Est-il disposé à ouvrir ses fenêtres en été ? Les choix dépendront également des profils d’occupation : sont-ils stables ou variables ? Enfin, les attentes de confort sont un critère majeur : les occupants exigent-ils une température constante réglable selon leurs envies, ou sont-ils prêts à accepter une évolution raisonnable, mais moins maîtrisée des conditions intérieures ?

Une fois que l’on s’est donné une liste de critères principaux, il faut faire l’inventaire des choix possibles, et s’orienter vers celui qui offre la meilleure performance énergétique. Cette première sélection doit ensuite être discutée sur base des autres critères : impact financier, contraintes d’entretien, risque de nuisance acoustique, etc.


Organigramme de sélection

L’organigramme ci-dessous propose un guide de sélection d’un système de refroidissement. Il s’appuie sur une stratégie de sélection partant des profils d’occupants, des caractéristiques du bâtiment et des ressources du site et va jusqu’à la sélection d’une technologie.

Concevoir

Pour en savoir plus sur les choix techniques détaillés et les principes d’économie d’énergie accessible pour chaque technologie, cliquer ici !

Cet organigramme s’applique surtout aux constructions neuves, mais peut globalement être repris pour des projets de rénovation également. Il s’agit d’un guide générique, qui peut ne pas s’appliquer à un cas particulier. Restez donc prudents et critiques dans son utilisation. Tous les embranchements sont référencés par une lettre (de A à Q). Un mot d’explication est donné sur chacun de ces choix en dessous de l’organigramme.

>> Les textes en italique dans le schéma sont cliquables et mènent vers des informations complémentaires.

Organigramme de sélection - 1 partie.

La ventilation intensive naturelle d’été La ventilation intensive naturelle d’été La ventilation intensive mécanique d’été

Organigramme de sélection - 2 partie.

Le système tout air, à débit variable (VAV) Le climatiseur de local Le refroidissement adiabatique La machine frigorifique à ab/adsorption La machine frigorifique à compression La dalle active Le free-chilling Les plafonds froids La géothermie et le géocooling La dalle active La géothermie et le géocooling La dalle active Le free-chilling Les plafonds froids La machine frigorifique à ab/adsorption Le système tout air, à débit variable (VAV) Le système tout air, à débit constant, mono-gaine Le système tout air, à débit variable (VAV) Le système tout air, à débit constant, mono-gaine Les plafonds froids La machine frigorifique à compression Les poutres froides Les ventilo-convecteurs

Quelques commentaires sur cet organigramme :

  • A à D : La première partie sert à identifier le profil de l’occupant : actif ou passif.
    • Si le profil est passif (c’est-à-dire lorsque que l’occupant ne peut intervenir sur son environnement par l’ouverture d’une fenêtre, la fermeture d’un store,…)., toutes les stratégies intégrant la notion de confort adaptatif sont caduques.
    • Si l’occupant est actif, on peut envisager d’aller vers une limitation acceptée de la puissance de refroidissement disponible. C’est le sens de la question « D. Température glissante ? »
      • Répondre oui signifie que l’on tolère une dérive limitée des températures intérieures en été, telle que définie par la norme NBN EN 15251. L’installation de refroidissement sera alors vue comme une aide limitée en cas de vague de chaleur exceptionnelle (on parle de top cooling) ou de besoins localisés (systèmes split).
      • Répondre non signifie que, malgré le comportement actif possible des occupants, on souhaite avoir la garantie du maintien de consignes strictes de température. On s’oriente alors vers un système de refroidissement capable de répondre instantanément aux besoins. Pour en savoir plus sur les profils d’occupants, voir la page « confort thermique ».
  • E à G : La question E se place dans le cadre d’une fluctuation contrôlée des températures. Une stratégie de free cooling est dans ce cadre indispensable, au moins en journée,  faute de quoi les charges internes et solaires ne peuvent être dissipées et le confort ne pourra être maintenu. Mais ce free cooling (diurne et/ou nocturne) est-il suffisant ? Une simulation dynamique du comportement du bâtiment peut être intéressante pour répondre à cette question. Différentes réponses sont envisageables :
    • 1/Oui, auquel cas il n’est pas nécessaire d’installer de système de refroidissement. Félicitation, votre consommation d’énergie thermique en été sera nulle ;
    • 2/Oui, sauf dans certains locaux, par exemple ceux avec des serveurs informatiques, ou une salle de réunion particulièrement exposée au soleil, ou les quelques locaux sous toiture,… Dans ce cas, une installation de refroidissement à détente directe, de type armoire de climatisation ou système split parait un bon choix. Éventuellement, la chaleur extraite de ces locaux pourrait être utile à d’autres ? Alors on s’orientera vers un système à débit de réfrigérant variable (VRV) ;
    • 3/ Oui, sauf en plein été. Dans ce cas, un appoint mécanique de type top cooling est pertinent, pour franchir confortablement les jours chauds sans investir dans un système de distribution spécifique au refroidissement ;.
    • 4/ Non, le free cooling est tout à fait incapable d’assurer le confort du bâtiment, malgré la bonne volonté et la coopération des occupants.
  • H à I : Un appoint d’été dans un bâtiment qui ne dispose pas d’autre système de refroidissement qu’un free cooling se base souvent sur le réseau de ventilation : l’air neuf hygiénique est refroidi en centrale avant d’être diffusé dans l’ensemble du bâtiment. Le débit d’air correspond au débit nominal du réseau de ventilation hygiénique, c’est-à-dire de débit nécessaire pour assurer la qualité de l’air des locaux en supposant une occupation de référence. Éventuellement, ce débit peut être augmenté légèrement si le groupe de pulsion le permet, mais avec précaution : les pertes de charge seront alors très élevées et la consommation électrique d’un ventilateur également (pour éviter cela, on peut surdimensionner le réseau de ventilation par rapport au débit hygiénique). Dans ces cas, le refroidissement de l’air peut éventuellement se faire au départ d’une source naturelle. Typiquement, si l’air extrait des locaux n’est pas trop humide, un refroidissement adiabatique peut être envisagé. Une climatisation solaire peut aussi être envisagée, si le besoin de froid est effectivement lié aux gains solaires, et non aux gains internes des locaux. Enfin, une machine frigorifique traditionnelle à compression sera choisie.
  • J : Cette question fait le constat d’une incompatibilité entre une stratégie ouverte à une remise en cause du confort et à la valorisation du comportement des occupants et les résultats attendus, déduits par exemple d’une simulation dynamique. Avant de conclure que, dans ce cas, le free cooling est une impasse et de basculer sur un système de refroidissement plus traditionnel, il peut être utile de creuser un peu les résultats de la simulation. Pourquoi le free cooling est-il à ce point insuffisant que même un appoint limité de type top cooling (climatisation uniquement à certains moments extrêmes (canicule par exemple) ne suffit pas ? C’est peut être justifié par le site : trop de bruit ou de pollution pour ventiler efficacement, ou par l’architecture : pas assez de protection solaire, ou pas de possibilité pour l’air de traverser le bâtiment en assurant un balayage efficace, ou pas assez d’inertie thermique, ou une trop grande dispersion des charges internes. Une fois la cause identifiée (il s’agira souvent d’un faisceau de causes partielles), les modifications à apporter au projet peuvent être envisagées. Peut-être sont-elles acceptables par le maître d’ouvrage et l’architecte ? Le rôle de l’ingénieur sera ici déterminant. À lui d’être créatif d’imaginer des propositions compatibles avec les souhaits des autres intervenants.
  • K à L : le slab cooling, ou activation de la dalle, est présenté comme première alternative au free cooling. Il présente en effet certaines similarités : valoriser l’inertie du bâtiment au travers d’un déphasage entre période de refroidissement effectif (la nuit) et période d’accumulation de chaleur (journée). Ce déphasage permet de valoriser une source de fraicheur fluctuante ou limitée, en particulier l’air extérieur (free chilling) ou un forage géothermique de puissance limitée (geocooling).
  • M : ici, on bascule du côté des émetteurs à puissance contrôlée, qui implique de disposer à tout moment d’une capacité de dissipation de la chaleur. Le choix des systèmes dépendra d’abord de la disponibilité ou non d’une ressource géothermique. Des essais de sol, ou l’examen de données géologiques permettent d’identifier le potentiel de valorisation thermique du sous-sol. La chaleur du bâtiment peut y être dissipée directement, au moyen d’un simple échangeur (géocooling), ou indirectement, au travers d’une machine frigorifique. Dans les deux cas, il est fortement recommandé de pouvoir travailler dans le bâtiment avec des émetteurs à « haute température », de type plafonds froids. En l’absence de ressource géothermique, on cherchera à valoriser l’air extérieur au travers d’une installation d’une dalle active (slab cooling). Cependant, un appoint « traditionnel », par exemple sur le réseau de ventilation sera nécessaire pour compléter la puissance et assurer une capacité de modulation locale et dans le temps de la dissipation de la chaleur. Enfin, si le besoin de refroidissement est directement lié à la course solaire, une climatisation solaire peut éventuellement être envisagée.
  • N à P : en l’absence d’une ressource naturelle, ou lorsque son exploitation est impossible, on se tournera vers une production traditionnelle de froid (machine frigorifique à compression). La question du système de refroidissement est alors limitée au choix du réseau de distribution. Si la puissance demandée dépasse largement celle que peut véhiculer le réseau de ventilation hygiénique, on optera pour une distribution par boucle d’eau. Eau froide si des émetteurs à haute température peuvent être choisis, eau glacée sinon. Si le réseau de ventilation peut, moyennant un surdimensionnement limité, assurer le refroidissement, on se dirigera vers des systèmes de conditionnement d’air VAV ou CAV selon le niveau de variabilité des besoins, et vers toutes les solutions intermédiaires possibles en termes de gestion des débits.

Concevoir

Pour plus d’informations sur la valorisation de la fraicheur de l’environnement, cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système de refroidissement tout air  (débit d’air constant, VAV), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système convectif sur boucle d’eau froide : (ventilo-convecteurs ou poutres froides), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système rayonnant sur boucle d’eau froide (plafond froid, dalle active, cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système à détente directe (climatiseurs et systèmes à Débit de Réfrigérant Variable), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système de ventilation intensive (free cooling), cliquer ici !

Objectifs de la conservation par le froid

Objectifs de la conservation par le froid

La liste des températures à garantir

La liste des températures à garantir est donnée ci-dessous à titre indicatif. Elle nous a été fournie par un fabricant.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 20 à – 30 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Un document contenant une liste beaucoup plus complète et intitulé : HACCP pour PME et artisans – Auteurs Catherine Quittet et Helen Nelis – Réalise par L’Unite de Technologie des IAA a la Faculte universitaire des Sciences agronomiques de Gembloux, Le Laboratorium voor Levensmiddelentechnologie de la KU Leuven en collaboration avec l’Inspection generale des denrees alimentaires, l’Institut d’expertise veterinaire, le service d’Inspection du Ministere de l’Agriculture Finance par le SSTC. peut être obtenu auprès de l’Unité de Technologie des IAA de la Faculté universitaire des sciences agronomiques de Gembloux au 081/62 23 03.

Choisir un silencieux [ventilation]

Choisir un silencieux


Choix du silencieux

Le choix d’un silencieux est commandé par le niveau de bruit à atteindre dans les locaux (par exemple NR 35). Il dépend des caractéristiques des locaux, de tout le réseau de distribution, du ventilateur, … . Le choix est donc difficilement maîtrisable par le responsable du bâtiment. La sélection d’un silencieux s’effectue généralement par le fabricant lui-même. La sélection qu’il opère est d’abord guidée par l’atténuation acoustique souhaitée. Celle-ci permet de définir grâce à des abaques l’épaisseur des baffles, leur écartement et leur longueur.

Il faut ensuite veiller à optimiser la vitesse de l’air dans le silencieux :

  • Premièrement, pour limiter au maximum les pertes de charge dans le silencieux. Il faut trouver un juste compromis entre les pertes de charge, l’encombrement et l’investissement. En effet, plus les sections du silencieux sont importantes, plus la vitesse de passage de l’air est faible, mais plus encombrant et plus cher est le silencieux.
  • Ensuite, pour que l’écoulement de l’air dans le silencieux ne génère lui-même trop de bruit (ce serait un comble si le silencieux générait plus de bruit qu’il n’en atténue !). La valeur maximum du bruit régénéré que l’on tolère permet de définir la vitesse maximum de l’air dans le silencieux. On en déduit sa section frontale minimum en fonction du débit à véhiculer et son nombre de baffles.
Règle de bonne pratique.

On dimensionnera le silencieux de telle sorte que la vitesse de l’air soit limitée à 10 m/s lors du passage entre les baffles acoustiques du silencieux. Si la section d’ouverture du silencieux est de …30 %… à …50 %…, cela induit que la vitesse faciale à l’entrée du silencieux devrait être de …3 m/s… à …5 m/s… environ. Ceci conduit généralement à une perte de charge proche de 50 .. 80 Pa.

Pour limiter les pertes de charge du silencieux, on peut être attentif à :

  • À choisir les ventilateurs les moins bruyants, ce qui va de pair avec la recherche du rendement maximum.
  • Ne pas surestimer les besoins réels d’atténuation.
  • Choisir des silencieux circulaires, générant moins de pertes de charge. Ceci n’est pas toujours possible lorsque les débits deviennent importants, les silencieux circulaires n’apportant pas une atténuation suffisante.
  • Choisir des silencieux actifs, générant peu de pertes de charge, puisqu’ils n’utilisent pas de matériaux absorbants.

Emplacement du silencieux

La meilleure position d’un silencieux varie d’une installation à l’autre. On respectera les prescriptions suivantes

  • Le silencieux doit être le plus près possible du ventilateur, principalement si le gainage passe au-dessus d’un local critique juste en aval du ventilateur.
  • Si le gainage à la sortie du ventilateur traverse un local sans exigence acoustique (local technique, ..), il est préférable de placer le silencieux dans la cloison séparant ce local des locaux avec exigences acoustiques, pour éviter la transmission de bruit par by-pass du silencieux.

Mauvaise position du silencieux : le bruit du ventilateur by-passe le silencieux et bonne position du silencieux.

  • Si un clapet coupe-feu doit être installé dans le mur du local technique, le silencieux ne peut être placé dans la cloison et la portion de conduit entre le silencieux et le mur doit être garni d’un matériau absorbant.
  • Les silencieux doivent souvent encadrer la source sonore (généralement le ventilateur), tant du côté réseau que du côté prise d’air extérieur, pour limiter la transmission du bruit vers le voisinage.
  • Si le niveau de bruit demandé dans les locaux est très bas (NR 25 .. NR 30), il est souvent nécessaire de placer un deuxième silencieux en fin de réseau, de manière à atténuer les bruits générés par le réseau.

Choisir le pare-vapeur / Cas d’un comble perdu

Schéma pare-vapeur dans un comble perdu.

  1. Couverture.
  2. Lattes.
  3. Contre-lattes.
  4. Sous-toiture.
  5. Chevron.
  6. Panne.
  7. Plancher.
  8. Isolant.
  9. Pare-vapeur.

Pourquoi faut-il un pare-vapeur ?

Schéma principe du pare-vapeur.

À l’intérieur des locaux occupés, il y a toujours production de vapeur (par les occupants, par les plantes, par le nettoyage, etc.). La pression partielle de vapeur à l’intérieure des locaux occupés est donc toujours supérieure à celle présente à l’extérieur. Ainsi la vapeur d’eau va migrer au travers de la toiture en passant par le plancher isolé.

Vu que la résistance à la diffusion de vapeur de certains isolants (laines minérales, par exemple) est très faible, la pression de vapeur du côté inférieur de l’aire de foulée ou de la sous-toiture (s’il n’y a pas d’aire de foulée), ou de la couverture (s’il n’y a pas de sous-toiture) est quasi identique à la pression de vapeur à l’intérieure des locaux occupés; elle est donc relativement élevée. Or, après avoir traversé l’isolant, cette vapeur d’eau va rencontrer une paroi froide et il y a donc, suivant les cas, un grand risque de condensation interne dans l’isolant ou de condensation superficielle sur la face inférieure de l’aire de foulée, de la sous-toiture ou de la couverture.

Le pare-vapeur, placé sous l’isolant, va, grâce à sa grande résistance à la diffusion de vapeur, diminuer la pression de vapeur du côté froid de l’isolant, ainsi l’air en contact avec la paroi froide que constitue le plancher, la sous-toiture ou la couverture est déjà fortement déchargé de sa charge de vapeur et il n’y a plus de risque de condensation.

Faut-il toujours un pare-vapeur ?

Non, (voir quel pare-vapeur choisir ? ci-dessous).

Mais, le risque de condensation interne par transport de vapeur contenue dans l’air qui pourrait traverser la paroi est bien plus important que le risque de condensation interne par diffusion de vapeur. Il faut donc, en priorité, stopper le passage d’air au moyen d’un matériau résistant au passage de l’air et bien fermer les joints. Ce rôle est souvent rempli par la finition intérieure. Dans certaines configurations (fonction du type de plancher, de couverture, de sous-toiture, de classe de climat intérieur), cet écran d’étanchéité à l’air suffit à éviter toute condensation interne.

Schéma condensation interne par diffusion de vapeur.

Schéma condensation interne par diffusion de vapeur.

La vapeur qui passe par un joint non rebouché entre 2 plaques de plâtre enrobé est … 100 … 1 000 fois plus importante que la vapeur qui traverse la plaque elle-même.

Mais attention, si cette étanchéité peut être assurée, par la dalle en béton, elle ne l’est pas forcément par le plancher léger. Dans ce dernier cas, il est toujours intéressant de prévoir un écran étanche à l’air.
Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre l’écran étanche à l’air et la finition inférieure.


Quel pare-vapeur choisir?

Classe du pare-vapeur

Le choix du pare-vapeur se fait en fonction :

  • du type de plancher
  • du type de sous-toiture,
  • du matériau de couverture,
  • du climat intérieur des locaux.
Sous-toiture : Classe de climat intérieur Tuiles en terre cuite, ardoises synthétiques, tôles ondulées. Ardoises naturelles, tuiles en béton ou en métal Bardeaux bitumés sur voliges
A B C A B C A B C
Aucune I
II, III E1 E1 E1
Capillaire I
II, III E1 E1 E2 E2
Non capillaire en bandes I
II, III E1 E1 E1 E1
Non capillaire continue I
II, III E2 E2 E2 E2
IV A examiner au cas par cas.

(-) :

un écran d’étanchéité à l’air suffit.

Plancher type A  : plancher lourd étanche à l’air, avec isolant sur le plancher.

Plancher type B : plancher léger étanche à l’air; l’isolant n’est pas recouvert d’un revêtement de sol.

Plancher type C : plancher léger étanche à l’air; l’isolant est recouvert d’un revêtement de sol.

Source : NIT 186 du CSCT.

Forme

Le pare-vapeur peut être :

  • incorporé à la finition dans le cas d’un plancher léger,
  • fixé aux laines minérales,
  • indépendant.

Conseils de mise en œuvre

> Le pare-vapeur doit être placé sur toute la surface du plancher.

> Il faut bien fermer les joints entre les plaques, les panneaux ou les membranes (selon le cas).

  • Dans le cas de plaques de finition avec pare-vapeur intégré, la fermeture des joints est assurée par :
    1. l’injection d’un silicone,
    2. la pose d’un enduit de finition.

Schéma sur plaques de finition avec pare-vapeur intégré.

  1. Injection de silicone
  2. Pare-vapeur
  3. Plaque plâtre
  4. Enduit de finition
  • Dans le cas d’une laine minérale munie d’un pare-vapeur, la pose de celui-ci se fait en même temps que celle de l’isolant.
  • Dans le cas d’un pare-vapeur posé indépendamment sous le gîtage d’un plancher léger, celui-ci est agrafé sur la partie inférieure des gîtes. Entre deux lés, on prévoit un recouvrement de 50 mm minimum rendu étanche à l’air et la vapeur au moyen d’un ruban adhésif simple ou double face ou d’une latte de serrage.

Schéma sur un pare-vapeur posé indépendamment sous un plancher léger.

Bande adhésive.

  1. Agrafe
  2. Pare-vapeur
  3. Bande adhésive

Schéma sur latte de serrage.

Latte de serrage.

  1. Plancher
  2. Isolant
  3. Pare-vapeur
  4. Latte de serrage
  5. Finition intérieure.
  • Dans le cas d’un pare-vapeur posé indépendamment entre le plancher (lourd ou léger) et l’isolant, celui-ci est posé avec recouvrement rendu étanche à l’air et la vapeur au moyen d’un ruban adhésif.

Avec un pare-vapeur en bitume, les joints sont collés ou soudés.

> Il faut bien fermer les raccords avec la maçonnerie :

  • soit en comprimant le pare-vapeur entre un joint souple et une latte, le tout cloué ou vissé,
  • soit au moyen d’un ruban adhésif double face adhérant parfaitement à la maçonnerie.

Schéma sur raccords avec la maçonnerie et pose d'un pare-vapeur.

Joint souple + latte fixée.

  1. Pare-vapeur
  2. Joint souple
  3. Latte

> Il faut veiller à ne pas perforer le pare-vapeur :

  • Dans le cas d’un plancher léger dont le pare-vapeur est placé sous la structure, les canalisations (eau, électricité, …) ne peuvent être encastrées au-dessus du pare-vapeur. Si elles sont nécessaires, elles sont logées dans un vide technique obtenu, par exemple, par la pose d’un lattage entre le pare-vapeur et la finition. La création de ce vide permet, en plus, le cas échéant, de rectifier la planéité de la finition du plafond. Celui-ci est couramment réalisé à l’aide de matériaux plans assez rigides : planches rainurées languettées (bois, MDF, PVC…), panneaux bois, plaques de plâtre (rejointoyées ou enduites).

Schéma plancher léger et pare-vapeur.

  1. Plancher en bois
  2. Isolant semi-rigide
  3. Pare-vapeur
  4. Latte / Vide technique
  5. Couche de finition
  • Le pare-vapeur doit rester continu derrière les éléments encastrés dans la finition (spots, boitiers, …).
  • Pour les spots, la chaleur produite peut dégrader les matières sensibles tels que les mousses synthétiques, les feuilles de polyéthylène (PE), … et provoquer des incendies. Dans le cas d’un plancher léger (pare-vapeur sous le structure), il faut donc soit choisir des matériaux pouvant résister à ces températures, soit les protéger en en interposant un écran adéquat.

Si l’on superpose deux couches d’isolant, il ne peut y avoir de pare-vapeur entre les deux couches.

Photo pare-vapeur.

Deux couches d’isolant sans pare-vapeur entre les couches.

Dimensionner l’ascenseur

Dimensionner l'ascenseur


Indicateurs de performance

Les indicateurs de performances sont principalement :

  • le temps d’attente moyen maximum probable (= « l’intervalle ») en secondes,
  • le temps nominal d’une course en secondes,
  • le débit relatif du trafic, exprimé par le pourcentage du nombre d’occupants maximum du bâtiment déplacé en 5 minutes.

Intervalle et temps nominal d’une course

Dans une étude de dimensionnement, un constructeur définit ses critères de performance. Ils sont traduits sous forme d’un tableau de satisfaction comme représenté ci-dessous :

Niveau de qualité Intervalle [s] Temps nominal d’une course [s] Moyenne
Entrant uniquement Double sens
Excellent 20-25 25-32 15-20
Bon 25-32 32-40 20-25
Satisfaisant 32-40 40-50 25-32

Débit relatif du trafic

Le débit relatif du trafic est fonction :

  • du type de bâtiment,
  • du type d’occupation des niveaux (fixe, à temps partiel, occasionnel, …),
  • de la présence de un ou plusieurs services différents avec des horaires différents.
Débit relatif du trafic (relative handling capacity)
[% du total de la population en 5 min.]
Type de bâtiments Services occupant le bâtiment Type d’occupation Niveau de qualité
Bon Excellent
Bureau Un seul service Fixe 16-20 20-25
Flexible 13-16 16-20
Plusieurs services Fixe 13-16 16-20
Flexible 12-15 15-18
Hébergement 12-16 16-18
Hôpital 13-16 16-20

Dimensionnement

1. Dimensionnement général de l’installation

Un préalable consiste à déterminer le type d’ascenseur que le maître d’ouvrage et le maître d’œuvre voudraient placer dans l’immeuble, connaissant les données constructives (nombre d’étages, type d’occupation, confort à atteindre, …).

Ce choix fixé, les fabricants ou les bureaux d’étude sont à même de déterminer, en fonction d’hypothèses prises sur la configuration de l’ascenseur (vitesse, accélération, …) et de données constructives du bâtiment, le nombre d’ascenseurs nécessaires pour atteindre les performances recommandées. Ces calculs sont basés sur des données statistiques d’utilisation d’ascenseurs.

D’autres paramètres de bonne pratique permettent de simplifier le dimensionnement ou de mieux cibler le choix des équipements. Le tableau ci-dessous reprend ces ordres de grandeur :

Paramètres Types d’immeuble
Résidentiel Tertiaire Tour
Nombre de courses annuel < 200 000 < 400 000 < 800 000
Nombre de cycles/h max. 180 240 240

Pour donner les bases d’un dimensionnement, comme opéré par un constructeur, prenons un exemple simple :

Données

Soit un ascenseur d’immeuble de bureaux, occupé par un seul service dont les employés travaillent, pour la plupart, avec un horaire flexible.

Les données constructives de l’immeuble sont les suivantes :

Données constructives du bâtiment
Paramètres Unités Valeurs
Destinations privilégiées
niveau 0
Nombre d’étages occupés
8
Nombre total d’étages
9
Population estimée
nbre de personnes
320
Hauteur totale de course
m
28
Hauteur moyenne d’un étage
m
3,5

Pour lancer la première itération, le constructeur propose les données suivantes au niveau de l’ascenseur :

Information concernant les ascenseurs
Paramètres Unités Valeurs
Vitesse évaluée m/s
1,6
Accélération
m/s²
0,8
Charge évaluée de la cabine
nbre de personnes
8
Nombre estimé d’ascenseurs
3
Largeur d’ouverture
mm
800
Temps de fermeture de porte
s
2,5
Temps d’ouverture de porte
s
1,7
Temps de transfert
s
2,4

Simulation

Les résultats de la simulation sont les suivants :

Résultats du calcul
Paramètres Unités Valeurs Appréciation
Type de trafic
Entrant
Facteur de charge de la cabine (CLF : Car Load Factor)
%
80
Temps de course aller/retour (RTT : Round Trip Time)
s
90,6
Débit de population (HC : Handling Capacity)
nombre de personne / 5 min
63,6
Débit relatif de population (RHC : Relative Handling Capacity)
% population / 5 min
19,9
Excellent
Intervalle
s
30,2
Bon
Temps de course nominal
s
17,5
Excellent
Estimation de la performance
Excellent

Ces résultats sont comparés aux recommandations de performance; le but étant d’atteindre une performance acceptable tant au niveau du temps nominal et de l’intervalle de course que du débit relatif de trafic.

Le résultat de la simulation estime donc la performance excellente (en analysant les critères de performance ci-dessus) pour autant que le bâtiment soit équipé de 3 ascenseurs avec les caractéristiques énumérées ci-dessus.

Si les résultats des calculs estimaient la performance médiocre, il eut été nécessaire de relancer une itération avec un nombre d’ascenseurs supérieur par exemple, tout en sachant que le maître d’ouvrage cherche toujours, à juste titre, à limiter l’investissement. Il va de soi aussi que l’amélioration de la performance ne doit pas se faire au détriment du confort des utilisateurs et de la performance énergétique comme, par exemple, augmenter la vitesse et l’accélération de la cabine.

La simulation peut aussi donner des résultats auxiliaires tels que :

Nombres de courses et d’arrêt probables
Facteur de remplissage de cabine [%] Course aller / retour ou le Round Trip Time [s] Intervalle [s] Débit [per./5 min] Débit relatif [% pers/5 min] Nombre probable d’arrêts en montée Nombre probable d’arrêts en descente Course probable [m]
10 43,4 14,5 16,6 5,2 1,34 1 17,42
20 50 16,7 28,8 9,0 1,76 1 19,16
30 57,3 19,1 37,7 11,8 2,24 1 20,82
40 64,7 21,6 44,5 13,9 2,74 1 22,28
50 71,9 24 50 15,6 3,24 1 23,48
60 78,7 26,2 54,9 17,2 3,71 1 24,41
70 84,9 28,3 59,3 18,5 4,15 1 25,1
80 90,6 30,2 63,6 19,9 4,56 1 25,63

Interprétation des résultats

D’autres résultats peuvent encore être sortis de la simulation tels que :

  • le nombre de courses probables en montée et en descente vers différents étages,
  • le nombre d’arrêts moyen. Par exemple :
    • pour les bureaux : 7 à 8,
    • pour le résidentiel : 5,
  • les temps de course vers les différents étages,

Ces informations sont très précieuses pour les constructeurs et les installateurs mais, cependant, sortent du cadre du dimensionnement vu du côté du maître d’ouvrage.

Le graphique suivant donne une idée des zones de performance des intervalles et des débits relatifs en fonction du facteur de remplissage de la cabine :

Graphique de performance : trafic entrant.

Le graphique suivant montre la performance des temps de course en fonction de la vitesse nominale.

Graphique de temps de course nominale.

Cet exemple simplifié montre que le dimensionnement d’ascenseurs constitue un défi de taille. La difficulté ne réside pas nécessairement dans le dimensionnement par rapport aux données constructives de l’immeuble mais dans l’évaluation de l’occupation probable du bâtiment. Pour passer l’écueil :

  • Il faut préparer correctement l’esquisse par l’étude approfondie du programme d’occupation des étages.
  • Il est nécessaire de tenir compte du nombre de destinations probables (Rez-de-Chaussée, parking souterrain, cafétéria, …) et de leur emplacement.

2. Dimensionnement de la motorisation

Quel que soit le type de motorisation, il faut partir du dimensionnement des différents équipements. À partir de la connaissance des caractéristiques de la charge (couple, vitesse et puissance mécanique nécessaire), le réducteur éventuel, le moteur électrique et le système de démarrage et de régulation de la vitesse peuvent être dimensionnés.

Couple et puissance mécanique nécessaires en fonction du type de charge

Le couple de démarrage de la motorisation doit être suffisant pour mettre en mouvement la charge de l’ascenseur.

On considère que les caractéristiques de la motorisation sont une corrélation entre :

  • le couple,
  • la vitesse,
  • la puissance mécanique.

Suivant le type de motorisation, les profils des courbes du couple et de la puissance mécanique en fonction de la vitesse de rotation sont spécifiques.

Typiquement, pour le couple :

  • Les motorisations à traction ont un profil de couple constant, quelle que soit la vitesse de rotation.
  • Les motorisations hydrauliques, quant à elle, ont un profil de couple quadratique (C = f(n²)).

Quant à la puissance mécanique :

  • Les motorisations à traction ont un profil de puissance proportionnel à la vitesse de rotation de la roue.
  • Les motorisations hydrauliques, quant à elles, ont un profil de puissance proportionnel au cube de la vitesse de rotation de la roue.

Courbes caractéristiques pour une motorisation à traction.

Courbes caractéristiques pour une motorisation hydraulique.

Exemple de calcul du couple et de la puissance nécessaires à la sortie d’une motorisation à traction.

De manière simplifiée, le couple est calculé comme suit :

C = m  x a x r

où :

  • C : le couple en [Nm].
  • m = m1 – m2 : la charge de l’ascenseur en [kg].
  • m1 : masse de la cabine.
  • m2 : masse du contre-poids (m2 = 1,5 m1).
  • a = v / t : l’accélération de la cabine en [m/s²].
  • v : la vitesse de déplacement de la cabine et du contre-poids.
  • t : le temps d’accélération.
  • r : le bras de levier ou le rayon de la roue d’entraînement en [m].

À noter qu’il faudrait aussi tenir compte des différentes inerties de la motorisation, du poids du câble, …, mais cela sort du cadre de ce chapitre.

Quant à la puissance mécanique à l’arbre, elle est approchée comme suit :

P = C x ω

où :

  • P : la puissance en [W].
  • C : le couple en [Nm].
  • ω = 2 x π x n /60 : la vitesse angulaire en [rad/s].
  • n : la vitesse de rotation de la roue.

Dans le cas des ascenseurs à traction, le couple résistant reste pratiquement constant en fonction de la vitesse, tandis que la puissance nécessaire à l’arbre est, quant à elle, proportionnelle à cette même vitesse; c’est ce que l’on demande souvent au variateur de vitesse comme mode de fonctionnement.

Dimensionnement du moteur électrique

Par exemple, le dimensionnement d’un moteur asynchrone se résume, en simplifiant, à déterminer le couple nécessaire à déplacer la charge à vitesse nominale ; c’est le couple nominal. On en déduit une puissance nominale mécanique qui va déterminer le choix du moteur. Il faut aussi tenir compte qu’un couple additionnel doit être disponible (sur toute la plage de vitesse) entre le couple de démarrage et celui de la vitesse nominale ; c’est ce surcouple qui assure l’accélération.

Lorsque le couple de démarrage de la charge est supérieur à celui du moteur, il ne démarre pas. Dans le cas des ascenseurs à traction, le couple de démarrage de la charge peut être important (réducteur à vis sans fin par exemple).

3. Dimensionnement du démarreur

Couple du moteur électrique

À l’heure actuelle, concevoir un nouveau projet d’ascenseur sans prévoir leur commmande et leur régulation de vitesse par un variateur électronique de fréquence, ruine tout espoir de gestion énergétique efficace et d’optimisation du confort des utilisateurs.

Jusqu’il y a peu, le dimensionnement du variateur de vitesse par rapport au moteur électrique était très délicat. En effet, dans le cas des ascenseurs dont la charge varie continuellement presque à chaque démarrage, les fonctions telles que les compensations de démarrage (adaptation de la tension) et de glissement (charge variable) était peu maîtrisées. Aujourd’hui, ces fonctions de compensations sont automatiquement adaptées en temps réel en mesurant les paramètres de fréquence, de tension et de courant alimentant le moteur.

Couple du moteur

Le dimensionnement du variateur tient compte du couple à délivrer au moteur afin que celui-ci puisse répondre aux exigences de la charge utile en optimisant l’appel de puissance.

Dans le cas d’un moteur courant de type asynchrone ou synchrone, le couple est fonction du fluentreferx dans l’entrefer et du courant induit :

C [Nm] = Φ (Weber] x I[A]

où :

  • C est le couple à l’arbre du moteur [Nm].
  • Φ est le flux dans l’entrefer.
  • I est le courant dans l’induit.

Fonctionnement du variateur de fréquence

Pour optimiser le couple du moteur, le variateur en fréquence et tension maintien le rapport U/f constant en adaptant la tension U proportionnellement à la fréquence f délivrée au moteur (Φ~ U/f).

Courbes caractéristiques d’une régulation U/f constant.

Pour les démarrages lourds (motorisation à réducteur à vis sans fin par exemple), le démarrage s’effectue initialement en tension U0.

Couple de démarrage du variateur de vitesse

Comme on l’a vu précédemment, la caractéristique de charge de l’ascenseur est différente suivant le type d’ascenseur :

  • Pour l’ascenseur à traction, le couple reste constant quelle que soit la vitesse.
  • Pour l’ascenseur hydraulique, le couple varie de manière quadratique (le couple est fonction de la vitesse au carré).

Le couple de démarrage du variateur de vitesse doit être adapté en fonction de la caractéristique de charge :

  • Pour une motorisation hydraulique, la plage de variation du couple des pompes, en fonctionnement normal, se situe entre 30 et 80 % du couple nominal. Un dimensionnement énergétiquement intéressant du variateur de fréquence serait de considérer que le couple nominal pourrait être calé à 80 % sachant que les variateurs sont capables de fournir brièvement un surcouple de 160 %.
  • Pour une motorisation à traction, le couple à 100 % du variateur doit être proche du couple nominal de la charge. Un surcouple de démarrage à 160 % est nécessaire pour les charges importantes (motorisation avec réducteur à vis sans fin par exemple).

Puissance du variateur de vitesse

Une fois la caractéristique de charge du variateur de vitesse déterminée, le dimensionnement de la puissance du variateur de vitesse peut s’effectuer selon 4 méthodes :

  • La détermination du courant absorbé par le moteur à charge nominale correspond à celui du courant que peut fournir le variateur.
  • La détermination de la puissance apparente « S » du moteur à charge nominale correspond à celle du variateur :
Smoteur = Svariateur = U x I x racine de 3 /1000
  • La détermination de la puissance mécanique du moteur à charge nominale permet de connaître la puissance apparente du variateur :
Svariateur = Puissance mécanique / rendement cos phi
  • Suivant la puissance normalisée du moteur asynchrone par exemple, on peut déterminer celle du variateur.

4. Dimensionnement de l’installation électrique

Du choix de la motorisation et de son dimensionnement, il en découle celui de l’installation électrique de puissance. C’est à ce stade qu’un choix erroné :

  • Entraîne, en cas de surdimensionnement de l’installation, des investissements plus conséquents et une réservation de puissance surévaluée auprès du distributeur d’électricité.
  • Risque de provoquer des perturbations sur le réseau électrique telles que les chutes de tension en ligne, soit en cas de sous-dimensionnement de l’installation électrique interne au bâtiment, soit en cas de sous-évaluation de la réserve de puissance souscrite au distributeur d’électricité.

Le tableau suivant montre que le calibre de la protection moteur d’une motorisation sans réducteur, et commandé par variateur de fréquence, permet de dimensionner l’installation électrique presque comme un circuit classique triphasé de faible puissance.

Type de motorisation
Paramètres Hydraulique Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 0,63 1 1
Charge de l’ascenseur [kg] 630 630 630
Puissance du moteur électrique [kW] 11 5,5 3,3
Calibre de la protection moteur [A] 50 35 16

5. Rôle du maître d’ouvrage dans tout cela ?

Le rôle du maître d’ouvrage dans le dmensionnement proprement dit est limité. Toutefois, il doit garder en mémoire les ordres de grandeurs de dimensionnement repris ci-dessus. Il doit aussi demander à l’installateur de lui fournir le détail des résultats des simulations avec les explications adéquates simplifiées qui justifient le choix de la motorisation, de l’installation électrique, …


Considérations énergétiques de dimensionnement

Comme on l’a vu précédemment, le nombre d’ascenseurs dans un bâtiment, leur charge utile et leur vitesse sont sélectionnés sur la base de calculs de trafic.

La charge utile et la vitesse sont les principaux facteurs qui déterminent :

  • la puissance nécessaire à la motorisation pour permettre à la cabine d’effectuer ses déplacements verticaux,
  • la consommation d’énergie par course,
  • le courant de démarrage, et par conséquent l’appel de puissance influencant la pointe quart-horaire,

1. Vitesse de la cabine

Dans les bâtiments tertaires, la capacité de transport d’un ascenseur n’est pas du tout proportionnelle à sa vitesse (pertes de temps lors du chargement, fermeture des portes, accélération, freinage, ouverture des portes, déchargement).

Exemple.

Au lieu de la vitesse très largement répandue de 1,0 m/s pour des maisons d’habitation avec 3 à 5 arrêts, on peut opter pour une vitesse de 0,63 m/s. La capacité de transport n’est ainsi que faiblement réduite, les temps d’attente et la durée de la course ne sont majorés que de quelques secondes. La puissance du moteur et le courant de démarrage sont par contre diminués d’environ 35 %.

Dans les immeubles tertiaires, l’occupation plus importante encore réduit l’importance de la vitesse de déplacement par rapport au temps d’immobilisation de la cabine.

Au niveau du dimensionnement, il est intéressant de considérer cette réduction de vitesse en l’introduisant dans le simulateur afin de voir les différences de performances; demandez-le aux constructeurs. Si les différences de performances ne sont pas probantes, pourquoi ne pas prévoir d’emblée un fonctionnement des ascenseurs à vitesse réduite; cela permettrait de dimensionner toute l’installation électrique et la motorisation au plus juste.

2. Motorisation

Photo moteur ascenseur - 01.Photo moteur ascenseur - 02.

La consommation d’énergie et les courants de démarrage sont déterminés par le système d’entraînement. L’importance des chutes de tension au démarrage dépend non seulement du système d’entraînement mais aussi des caractéristiques du réseau amont.

Un plus faible appel de puissance au démarrage et pendant une course à vitesse constante se traduit par :

  • des taxes de raccordement plus avantageuses (réserve de puissance moindre, compteur moins puissant, …),
  • une installation électrique plus économique (câbles de plus faible section, fusibles, etc.),
  • de plus faibles chutes de tension (scintillement),
  • des pertes dans le réseau d’alimentation moins importantes (les pertes augmentent avec le carré de l’ampérage),
  • un besoin plus faible de puissance de groupe électrogène (si présent ou à dimensionner).

L’utilisation de motorisation avec variateur de vitesse permet des courants de démarrage maîtrisés. Les sollicitations mécaniques du moteur sont par ailleurs fortement atténuées, facteur important dans le contexte de la longévité et de la fiabilité des systèmes de motorisation. Une grande longévité se traduit également par des économies d’énergie (grise) et des économies sur les coûts.

3. Nombre de démarrage

Le nombre de démarrages par heure ou par jour permet de déterminer la consommation moyenne ainsi que la chute de tension admissible au démarrage sur le réseau d’alimentation. Sur la base de ces données, on peut ensuite déterminer le dimensionnement correspondant des installations électriques nécessaires. Il est également possible d’en déduire le coût de la consommation d’énergie et le montant de la réserve de puissance à consentir. Il est ainsi possible de comparer la rentabilité des systèmes d’entraînement.

4. Système de commande et de gestion, et auxiliaires

Le système de commande

Le système de commande de l’ascenseur engendre une consommation permanente de courant (ventilation des armoires de commande et de la motorisation, commandes électromécaniques, …) mais permet également de réduire la consommation d’énergie pour l’exploitation de l’ascenseur. Un système de commande et de gestion par ordinateur ou automatique risque de consommer plus; mais cette consommation n’a rien à voir avec le nombre d’appels de cabine réduit pour une même fréquentation de l’immeuble.

Il est intéressant pour le maître d’ouvrage ou le responsable énergie de connaître les consommations des auxiliaires; ne pas hésiter à le demander (dans le cahier des charges par exemple).

L’éclairage

Photo éclairage ascenseur.

Un éclairage automatique de la cabine en lieu et place d’un éclairage permanent et le juste dimensionnement du luminaire en fonction du niveau d’éclairement recommandé par la norme (50 lux), autorise des économies relativement importantes sur la consommation d’énergie.

Concevoir

Pour en savoir plus sur le choix de l’éclairage.

Choisir les luminaires – critères généraux

Choisir les luminaires - critères généraux


En fonction de la distribution lumineuse souhaitée

Lorsque l’on choisira un luminaire, il faudra bien faire attention à sa courbe photométrique. Elle indique la distribution des luminosités d’un luminaire dans le sens transversal et dans le sens longitudinal (définition des plans de coupe).

distribution lumineuse

Par exemple dans le cas des allées de supermarchés illuminées par un jeu de luminaires équipés de tube fluorescent (pas d’éclairage d’accentuation), on choisira des luminaires éclairant plus fortement les rayonnages (300 lux à assurer) que le sol (150 lux à assurer). Dans beaucoup de commerces, tels que les magasins d’habillement, on essaiera de fournir un éclairage vertical important.

La hauteur du local peut aussi influencer le choix du luminaire où l’optique permet une distribution extensive, symétrique, asymétrique, intensive en modifiant le niveau d’éclairement, l’uniformité, …

Hauteur Type de luminaire
2,5 – 3 m Luminaires à distribution extensive avec tubes fluorescents disposés individuellement ou en rangées en fonction du niveau d’éclairement à atteindre. Des luminaires asymétriques peuvent être disposés le long des fenêtres éventuelles.

3 – 4 m Les luminaires sont semblables à la situation précédente: disposés en rangées sur le plafond ou suspendus, parallèlement aux fenêtres principales et à l’axe habituel du regard des occupants.

4 – 7 m

Toit plat avec ou sans lucarne ou toit en dent de scie

Ici aussi, le choix le plus économique est l’utilisation de luminaires avec lampes fluorescentes, disposés en rangées parallèles aux ondulations du toit. Si la hauteur sous plafond est inférieure à 5 m, on choisira une distribution extensive. Au-delà de 5 m, la distribution intensive est la plus adéquate.

7 m et plus La meilleure solution sont des luminaires à distribution symétriques équipés de lampes à décharge haute pression de puissance importante (250 .. 1 000 W). Tout en garantissant l’uniformité correcte, on a tout intérêt à avoir la puissance la plus élevée par luminaire, ce qui permet de diminuer le nombre de luminaires et par la même occasion les frais de maintenance et d’installation.

Lorsque des surfaces inclinées doivent disposer d’un éclairement important, il sera nécessaire d’installer des luminaires supplémentaires équipés de lampes fluorescentes. Si la surface des pièces travaillées ou des équipements utilisés est sensible aux réflexions, seuls des luminaires intensifs avec tubes fluorescents et ventelles peuvent convenir (cfr. cas précédent).
et du coût de remplacement des lampes.

En fonction de l’éblouissement

En fonction de la tâche exécutée, la sensibilité des occupants à l’éblouissement et aux réflexions sera plus ou moins grande.

Les normes introduisent le paramètre du taux d’éblouissement unifié (UGR) qui caractérise le niveau d’éblouissement ou la luminance apparente d’un ensemble de luminaires par rapport à la luminance de fond perçue dans le champ visuel d’un ou de plusieurs observateurs. Cette valeur, recommandée par la norme suivant le type de local ou de tâche, est comprise entre 10 (peu d’éblouissement) et 30 (fort éblouissant) et ne doit pas être dépassée. L’UGR sera calculé par l’auteur du projet (dialux dispose aussi d’une fonction calculant l’URG en un point ou un plan donné) et influencera le choix d’un type de luminaire, sa position et son orientation dans le local considéré et pour la tâche considérée. Une valeur d’UGR de 19 est monnaie courante !

De manière générale des luminaires pourvus de grilles de défilement ou de ventelles permettront de diminuer les risques d’éblouissement en cachant la lampe de la vue directe directe (à condition que l’angle de regard soit respecté).

photo sous éblouissement.  photo sans éblouissement.

Avant … et … Après.

En présence d’écrans de visualisation (ordinateurs, écrans de contrôle, écrans de commande de machines-outils…), il est conseillé d’opter pour des optiques présentant une luminance réduite (luminaires dits basse luminance).

Photo optiques avec luminance réduite.

Ce type de luminaire est également le bienvenu pour les travaux de précision. Pour ceux-ci, les postes de travail peuvent être équipés de luminaires ponctuels basse luminance permettant un éclairement important et localisé.

Dans la salle de sports

Dans toutes les gammes de luminaires pour salles de sports, il existe des luminaires avec grilles de défilement.

luminaires avec grilles de défilement

Cependant, l’éblouissement que l’on cherche à éviter dans les salles de sport est l’éblouissement par la vue directe de la lampe lorsqu’on regarde vers le haut. Les grilles de défilement n’empêcheront pas un tel éblouissement. Seul le choix des lampes et l’emplacement des luminaires permettront de l’éviter. La grille de défilement limitera l’éblouissement d’inconfort, mais celui-ci n’est pas très important dans une salle de sport.

De plus, la grille de défilement diminue le rendement des luminaires.


En fonction du rendement lumineux

Rendement d'un luminaire.

Tout en respectant les autres critères de choix, on choisira toujours les luminaires ayant le meilleur rendement lumineux. Celui-ci doit donc systématiquement être demandé au fournisseur ou vérifié dans les catalogues.

Remarque : le rendement des luminaires LED est souvent 100 % car le rendement de la source lumineuse n’est plus mesuré séparément du luminaire. Le rendement est alors exprimé en lumen/watt. L’allure de la courbe photométrique est un paramètre très important !

   

ηbas = 62 %
Ηhaut = 27 %
Ηtot = 89 %
UGR < 19
CIE flux code 70 99 100 70 89

Coûts totaux d’une installation en fonction du rendement des luminaires

Cas réel : local de 9,5 x 5,5 m, éclairement recommandé = 500 lux, luminaires 2 x 36 W, durée de fonctionnement 6h/jour, 250 jours/an

Rendement

Nb de luminaires

P installée

Prix d’un luminaire

Investissement

Facture électrique (0,17 €/kWh)

0,5 9 648 W 87,5 € 787,5 € 169 €/an
0,7 6 432 W 117,5 € 705 € 112 €/an
Gains grâce au haut rendement 82,5 € 57 €/an
Gain total sur 20 ans (durée de vie des luminaires) 1 140 €

Pour un même niveau d’éclairement, il faudra un nombre plus important de luminaires à mauvais rendement. Il est dès lors possible que l’on soit pénalisé par une surconsommation et par un surinvestissement.

Les luminaires bas de gamme peuvent en outre présenter d’autres défauts : mauvais contrôle de l’éblouissement, qualité mécanique des composants, …

D’une manière qualitative, voici les éléments qui favorisent un rendement élevé :

Des optiques réfléchissantes

Les réglettes nues sont souvent attractives par leur prix. Leur choix constitue cependant une erreur. Le flux lumineux n’étant pas du tout contrôlé, elles présentent des pertes importantes et des risques d’éblouissement trop importants pour les tâches demandant une attention soutenue.

Photo luminaire sans optique réfléchissante.

Rendement inférieur : 58 %.

Photo luminaire avec optique réfléchissante.

Rendement : 83 %.

De même, les réflecteurs peints présentent un moins bon rendement et un plus mauvais contrôle de l’éblouissement que les réflecteurs miroités. De plus, ils jaunissent avec le temps.

Photo réflecteurs peints.

Cloche émaillée
Rendement : 69 %.

Photo réflecteur alu.

Cloche alu
Rendement : 80 %.

Des matériaux translucides de qualité

Photo matériaux translucides.

Rendement : 83 %.

Des réflecteurs peu « enveloppants »

Toutes les surfaces de réflexion, définissant les caractéristiques photométriques du luminaire, sont autant de sources d’absorption de la lumière émise par les lampes. Moins ces surfaces sont importantes, plus le rendement du luminaire est élevé. Par exemple, les petits luminaires et les optiques paraboliques enveloppent de façon importante la lampe.

Photo réflecteur "enveloppant"

Rendement inférieur : 81 %.

Photo réflecteur peu "enveloppant"

Rendement inférieur : 79 %.

De l’écartement entre les sources

Dans les luminaires pourvus de plusieurs lampes, il y a un risque d’absorption du flux lumineux par les lampes entre elles (elles ne sont pas réfléchissantes). Il faut donc limiter le nombre de lampes par luminaire et favoriser un écartement important entre celles-ci.

Rendement : 87 %.

Rendement : 79 %.

Rendement < 60%.

De la présence de grilles de défilement ou ventelles

Tout dispositif destiné à cacher la lampe à la vue directe pour diminuer les risques d’éblouissement aura une influence néfaste sur le rendement. Puisqu’il fait obstacle à la lumière.

Photo luminaire sans grilles de défilement.

Rendement : 93 %.

Photo luminaire avec grilles de défilement.

Rendement : 75 %.

Rendements minimum recommandés

Luminaires directs à ventelles planes 70 %
Luminaires directs basse luminance 65 %
Luminaires directs très basse luminance 55 %
Luminaires mixtes 75 %
Luminaires indirects 65 %
Luminaire à optique asymétrique 60 %

Attention cependant qu’avec des luminaires équipés de lampes T5 et de ventelles paraboliques,  on peut obtenir des rendements très élevés et par la même occasion réduire de manière significative le risque d’éblouissement.

Photo luminaire avec ventelles paraboliques.
ηbas = 85 %


En fonction de l’assemblage, du montage et de la maintenance

Photo montage d'un luminaire.

Tous les luminaires doivent être construits de manière à pouvoir supporter des contraintes normales de montage et d’utilisation. Les luminaires montés en saillie ne peuvent pas se tordre lorsqu’ils sont montés sur des plafonds irréguliers. Les luminaires suspendus ne peuvent présenter de flèche entre supports, ni de distorsion de ceux-ci.

Photo montage d'un luminaire.

La construction du luminaire doit rendre la maintenance aisée : facilité de démontage des éléments, sans endommagement possible. Par exemple, l’optique peut être montée sur charnière pour faciliter son ouverture.

De plus, les instructions de maintenance et d’utilisation (choix de la lampe appropriée, par exemple) doivent être précises.

Quand les plenums (espaces au-dessus des faux plafonds) ne sont pas accessibles, il faut prendre certaines précautions afin de pouvoir accéder aux boîtes de branchement électrique des circuits au travers des luminaires.


En fonction de la structure du plafond

On peut rencontrer des luminaires :

Phot luminaire encastrés dans les faux plafonds.

Encastrés dans les faux plafonds.

Photo luminaire posés sur les faux plafonds.

En saillies, posés sur le plafond.

Photo luminaire suspendus.

Suspendus.

Encastrés

Lorsqu’on dispose d’un faux plafond, on peut y encastrer les luminaires. Dans le cas d’un faux plafond démontable, les dimensions des luminaires devront s’adapter au module du faux plafond.

En cas d’incendie, la déformation des faux plafonds risque de provoquer la chute des luminaires. Ainsi, dans les circulations servant de chemin d’évacuation, il est recommandé de fixer les luminaires directement à la dalle, au moyen de tiges, de câbles ou de chaînette.

En saillie

Lorsque le plafond est en béton, ou lorsqu’on dispose d’un faux plafond fixe qu’on ne souhaite pas rénover, on placera des luminaires en saillie.

Suspendus

Les luminaires suspendus s’installent principalement dans les locaux où la hauteur sous plafond est importante (hsp > 3,5 m). Dans ce cas, on peut favoriser des luminaires présentant une composante indirecte ne dépassant pas 50 % du flux total émis par le luminaire. Cela permet d’éviter la présence d’une zone fort sombre au dessus des luminaires.

Photo luminaire suspendus.

Les luminaires suspendus seront également utilisés lorsque l’on désire apporter un éclairage localisé des postes de travail.

Ils sont également suspendus lorsque le plafond est incliné, de manière à avoir tous les luminaires à la même hauteur.


En fonction de la qualité électrique

Picto label de qualité.

Les ballasts ne peuvent produire trop de signaux en haute fréquence sur le réseau électrique. Ceux-ci peuvent perturber les autres appareils électriques.

Pour éviter cet inconvénient, les luminaires complets et/ou les ballasts doivent posséder un label de qualité.

Picto protection électrique de classe I.

Dans la plupart des applications, les luminaires doivent être raccordés à la terre (protection électrique de classe I).

Picto luminaires de classe II.

Dans les sanitaires (projections d’eau) où un contact direct avec le luminaire est possible, il est recommandé d’utiliser des luminaires de classe II.


En fonction des protections nécessaires

Types de local

Résistance aux chocs

Protection contre les poussières et l’humidité

Protection électrique

Précisions

Bureaux

Classes

0,5J IP20

Classe I

Luminaires ouverts, non protégés contre les infiltrations d’eau.

Couloirs et escalier

> 6J

Luminaires ouverts, non protégés contre les infiltrations d’eau et  résistants aux chocs.

Locaux techniques, réserves, archives

IP44

Luminaires fermés, protégés contre les poussières et les projections d’eau.

Sanitaires

6J

Classe II

Luminaires fermés, protégés contre les poussières et les projections d’eau et résistants aux chocs.

Cas particulier des salles de sport

Photo luminaire salle de sport.

Les luminaires utilisés dans les salles où l’on pratique des jeux de balles doivent résister à l’impact des balles.

Ils doivent de préférence porter le label ci-dessous.

Picto luminaire salle de sport.

Les luminaires qui portent ce label ont été soumis au test du ballon selon la norme DIN. Ce test contrôle la sécurité électrique après une série d’impacts de ballons dosés.

Pour les jeux de ballons, le « bac » doit être pourvu d’une glace ou d’une grille de protection dont la maille ne laisse pas pénétrer la plus petite balle utilisée dans la salle.

Cas des hôpitaux

Les salles à ambiance contrôlée

Dans certains locaux à risque, est-il impératif d’avoir un degré IP élevé contre la pénétration des poussières ou des « mouches » dans le luminaire. De plus, le degré IP doit-il se limiter uniquement au luminaire et pas à l’ensemble luminaires faux-plafond ? Dit d’une autre manière, faut-il ou non encastrer les luminaires dans les zones à ambiance contrôlée avec joint étanche ?

Dans les faux plafonds, on trouve souvent des germes tels que les aspergillus, responsables d’infections pulmonaires graves pour des patients « immuno déprimés » (dont la barrière immunitaire a été abaissée). Les luminaires représentent un risque de passage de la poussière du faux plafond vers le local. De plus, la poussière venant « du bas », de l’ambiance du local, se dépose aussi sur les surfaces horizontales des luminaires.

Mais les luminaires apparents offrent une surface supérieure importante où la poussière peut se déposer. De plus, en terme de nettoyage ou de désinfection (ce qui est souvent le cas dans les salles à ambiance contrôlée), le luminaire apparent présente une plus grande surface à traiter que le luminaire encastré.

Pour ces raisons, dans les locaux à risque, on placera des luminaires avec une certaine herméticité : le degré IP sera au moins égal à 5 X.

Les chambres d’hospitalisation

Dans les chambres d’hospitalisation, le luminaire placé au dessus de la tête du patient doit combiner plusieurs éclairages :

  • L’éclairage général. Il est en général orienté vers le haut (indirect) de manière à ne pas éblouir le patient ;
  • L’éclairage de lecture en direct au niveau de la tête du patient;
  • L’éclairage de soins qui peut combiner l’éclairage général et l’éclairage de lecture ;
  • L’éclairage de veille dans certains cas de pathologie (surveillance en soins intensif par exemple) ou comme éclairage de nuit.

Les critères de choix d’un tel type de luminaire sont très précis. De plus, on combine souvent l’éclairage avec d’autres techniques :

  • La distribution de gaz médicaux ;
  • L’appel infirmière ;
  •  …

Cas des ambiances « explosives »

Des Picto luminaire ambiances "explosives".luminaires doivent être utilisés dans ce type d’ambiance.


En fonction de la puissance des sources lumineuses

Un luminaire est conçu pour des sources lumineuses d’une certaine puissance et il est impératif de se limiter à cette puissance. En effet, la dissipation thermique doit être suffisante afin d’assurer une durée de vie normale de la source et les performances du luminaire.

De plus, tout en respectant l‘uniformité d’éclairement, on a intérêt à choisir les luminaires comprenant la puissance installée la plus importante. Ceci réduira le nombre de luminaires et de ballasts et donc l’investissement.

Cependant, lorsqu’on a un faux plafond démontable et modulaire, la puissance unitaire des luminaires pour tubes fluorescents dépend du module des faux plafonds. Exemple : si le faux plafond a un module 60 cm x 120 cm, on ne pourra choisir des luminaires de x fois 58 W (ou d’autres sources de longueur 1,5 m).

Photo luminaire faux plafond.

De même, parmi les lampes T8, les tubes de 18 W (75 lm/w) ont une efficacité lumineuse inférieure aux tubes de 36 W (86 lm/W) ou 58 W (89 lm/W).  Cette même constatation est à formuler dans les sources T5 : la lampe T5 14 W est moins efficace que les T5 28 W ou 35 W.

Exemple : D’un point de vue énergétique, il est plus intéressant d’utiliser des luminaires de 2 x 36 W que de 4 x 18 W. D’autant plus qu’ils ont des prix semblables.

Les luminaires 4 x 18 W seront utilisés dans des faux plafonds de structure carrée.


En fonction de la climatisation

Luminaire avec extraction intégrée vers un plenum.

Luminaire pour tubes T5 avec extraction sur les bords.

Dans les bureaux climatisés, intégrer l’extraction d’air dans les luminaires permet d’évacuer jusqu’à 60 % de la puissance thermique produite (partie convective) par les lampes et les auxiliaires. Il en résulte évidemment une diminution des frais de climatisation.

Ce mode d’extraction permet, en outre, de faire l’économie de bouches séparées souvent plus coûteuses.

Si les luminaires sont équipés de tubes fluorescents de type T5, une extraction d’air au travers des lampes entraînera une chute du flux lumineux car la température de l’air autour de la lampe ne sera plus optimale. Cette extraction devra donc se faire par des canaux à l’extérieur ou sur la face latérale des armatures. Le potentiel d’évacuation de chaleur est alors nettement moindre.

Extraction d’air au travers des luminaires pour lampes T5.


En fonction du prix

Le choix d’un luminaire se fera également en fonction du prix de revient de l’installation. A critère de confort égal, celui-ci dépend :

  • du prix du luminaire et de son placement,
  • du prix des lampes,
  • de la consommation sur sa durée de vie,
  • du coût de remplacement des lampes.

Calculs

Pour comparer plus précisément le prix de revient de plusieurs installations, en connaissant :

  • le prix d’un luminaire (placement compris),
  • le prix des lampes,
  • le rendement du luminaire,

cliquez ici !

Concevoir le mur-rideau

Concevoir le mur-rideau


Assurer l’étanchéité

Un problème complexe

Le mur-rideau étant conçu par juxtaposition d’éléments, il y a discontinuité à chaque joint entre chacun d’eux. Ces discontinuités sont potentiellement des points faibles du point de vue de l’étanchéité. Il est donc indispensable de les concevoir et de les réaliser soigneusement de façon à garantir la performance de l’enveloppe. Ce n’est pas une tâche simple car le ruissellement de l’eau additionné aux pressions du vent est un phénomène complexe : il n’est, par exemple, pas exclu de voir l’eau remonter de bas en haut sur une façade en raison de courants d’air ascendants.

On rencontre ainsi différents problèmes sur le terrain :

  • assemblage mal étanché dès la réalisation,
  • déformation sous l’effet du vent des différents éléments de châssis entrainant l’ouverture des joints et la pénétration de l’eau,
  • étanchéité difficilement assurée au droit des extrémités des montants médians des châssis coulissants,
  • discontinuité des joints d’étanchéité aux angles et raccords,
  • absence de contact entre le joint d’étanchéité du mur rideau et le gros-œuvre, cela avec ou sans effet du vent,
  • trous d’évacuation d’eau insuffisants ou obturés et orifices de ventilation non protégés,
  • quincaillerie mal conçue ou mal ajustée,
  • désordre dans les acrotères et les allèges,
  • passage d’air au droit des habillages et des étanchéités,
  • passage d’air par les capots de fermetures,
  • passage d’air par les profils d’ossatures,

Une telle liste a seulement pour objectif de comprendre l’importance de la qualité des joints et de la conception et donc du budget qu’il faut pouvoir y consacrer.

Il ne pourrait être proposé ici une analyse précise de chaque système, mais bien un fil conducteur pour vérifier la performance d’un produit proposé par un fournisseur.

Une réponse de l’architecte en plusieurs étapes

Le comportement de l’eau sur une enveloppe est dû à divers effets dynamiques :

a. Le ruissellement gravitaire :
l’eau s’écoule du haut vers le bas. Des recouvrements ou des débords convenablement disposés permettent de rejeter l’eau au-delà du joint.

Schéma ruissellement gravitaire.

b. La tension surfacique :
ces forces de tension permettent à un film d’eau « d’adhérer » à des parois même en sous-face horizontale et de pénétrer à l’intérieur du joint. Pour y remédier, il faut prévoir des ruptures de la sous-face, creux ou reliefs formant une « goutte d’eau ».

Schéma tension surfacique.

c. La capillarité :
des interstices de faible dimension permettent à l’eau de cheminer sur de longs trajets par une action similaire à une aspiration. Des élargissements du joint doivent être prévus pour rompre le cheminement de l’eau.

Schéma capillarité.

d. L’énergie cinétique :
due à la chute des gouttes d’eau et au vent, celle-ci permet à l’eau de heurter l’enveloppe avec une quantité de mouvement suffisante pour, par exemple, pénétrer horizontalement dans un joint. Cette eau doit pouvoir être recueillie et rejetée à l’extérieur de l’enveloppe, c’est le rôle du drainage.

Schéma énergie cinétique.

e. La pression différentielle :
la différence de pression entre l’extérieur et l’intérieur du bâtiment peut créer un phénomène d’aspiration de l’eau présente dans le joint. Pour l’empêcher, il faut prévoir des chambres de décompression ventilées qui mettent les cavités internes de la façade à la pression extérieure.

Schéma pression différentielle.

Globalement, pour garantir l’étanchéité d’une enveloppe soumise au ruissellement des eaux, aux effets du vent et aux pressions s’exerçant sur l’enveloppe, deux conceptions de principe sont possibles :

  • L’enveloppe totalement étanche, dont les joints excluent la totalité de l’eau c’est le cas des châssis ou des façades rideaux à ossature métalliques.
  • L’enveloppe pare-pluie, qui laisse une partie de l’eau pénétrer à l’intérieur de la façade pour ensuite l’évacuer par un vide ventilé et drainé. C’est le cas général des bardages métalliques.

Ce choix sera influencé par la manière de gérer le transfert de vapeur dans la paroi (voir ci-dessous).

L’importance de la qualité des joints

Selon le type de technologie du mur-rideau, il existe des joints :

  • entre les différents éléments de la grille,
  • entre la grille et les éléments de remplissage (panneaux ou châssis) que l’on y fixe ensuite,
  • entre les différents éléments constituant les châssis de remplissage,
  • enfin, entre le mur-rideau et le gros-œuvre (pièces d’appui et périphérie).

Ils doivent être conçus de manière à pouvoir :

  • rattraper les tolérances dimensionnelles de l’assemblage,
  • compenser ou absorber les dilatations, déformations et vibrations,
  • garder de bonnes caractéristiques au fil du temps.

Pour une enveloppe de qualité, on vérifiera que ce sont bien les fixations qui reprendront les diverses tensions, en protégeant les joints d’étanchéité.

Schéma sur fixations et tensions.

La meilleure manière de concevoir un joint est d’abord de le rendre aussi imperméable aux intempéries que possible, et ensuite de se dire que néanmoins il fuira. Il faut donc de prendre les précautions nécessaires pour empêcher l’humidité de traverser l’enveloppe ou de rester dans le mur, soit par un système interne, soit par une aération.

Choix du type de joint

On distingue :

Les éléments d’étanchéité plastiques (= mastics)

Constitués d’huile et de charges diverses, la composition des mastics et silicones est propre à chaque fabricant. En fonction de leur aptitude à la déformation, de leur cohésion et de leur dureté superficielle, ils sont classés en 6 classes.

Le choix de la classe fait intervenir de nombreux critères comme :

  • la force du vent,
  • l’environnement,
  • les vibrations,
  • l’exposition du joint,
  • le type et la matière du châssis,
  • les dimensions et la nature des vitrages.

Pour soustraire le mastic le plus possible aux tensions, on dispose par exemple de place en place des cales dont l’emploi est courant en miroiterie. La pression et la dépression résultant de l’action du vent sur les panneaux ne sont transmises aux raidisseurs que par cet intermédiaire l’élément d’étanchéité n’est alors soumis qu’à une pression limitée.

Schéma mastic soumis aux tensions.

  1. Joint avec la structure.
  2. Vitrage.
  3. Joint d’étanchéité.
  4. Structure de collage.
  5. Espaceur.
  6. Fond de joint.
  7. Plans d’adhérence.

Pour l’entretien futur, c’est à celui qui met les joints en œuvre qu’il appartient de signaler au client le type de mastic utilisé et de lui communiquer le mode d’entretien prescrit par le fabricant de mastic.

Les éléments d’étanchéité élastiques (= boudins)

Caoutchoucs naturels ou artificiels, produits de synthèse, feutres ou ressorts métalliques, ils peuvent être insérés, sous forme de bandes, entre les panneaux de remplissage et la feuillure ou la parclose. Toutefois, les bandes simplement insérées n’adhèrent pas dans leur logement et elles risquent d’en sortir sous l’effet des mouvements de la façade. Il faut soit les coller à la feuillure et à la parclose, soit les introduire dans une rainure en queue d’aronde. Une autre solution consiste à les fixer sur la bordure des panneaux de remplissage. Dans le même esprit, on peut aussi disposer autour des vitrages des bandes élastiques en forme de U par exemple.

Les éléments élastiques d’étanchéité ne sont qu’exceptionnellement employés seuls pour assurer le calfeutrement des joints. En principe, on combine bandes élastiques (comme fond de joint) et mastic de finition.

Les étanchéités réalisées seulement à l’aide de profilés en néoprène

Cas particulier d’obturation élastique sans mastic. Ils se présentent sous forme de bandes ou de profilés extrudés. Leur profil permet leur fixation au châssis par emboîtement dans une ou plusieurs rainures. Ils sont coupés d’onglets aux angles et soudés, puis montés sur les profilés métalliques.
L’étanchéité est assurée par la pression de contact existant entre le profil et la ou les surfaces du vitrage d’une part et les faces verticales de la feuillure, d’autre part.
Les profilés d’obturation existent sous plusieurs formes, selon la forme des profilés de châssis et l’épaisseur des panneaux ou vitrages. La méthode est empruntée à l’industrie automobile, où les glaces pare-brise sont posées de façon analogue dans la carrosserie.
L’utilisation de ce type de profilé d’étanchéité est généralement associée à la mise en œuvre de feuillures drainées.

On a prévu l’évacuation vers l’extérieur de l’eau
qui pénètre par accident dans la feuillure.


Gérer le transfert de vapeur d’eau

Un transfert de vapeur d’eau dans la paroi

Limiter l’entrée d’eau de pluie externe se complique par le fait de devoir gérer la sortie de la vapeur d’eau interne.

En effet, en hiver, une importante quantité de vapeur d’eau se trouve dans un bâtiment, surtout s’il est peu ventilé. La vapeur générée par les occupants reste captive à l’intérieur du bâtiment. Dehors au contraire, la température est basse et l’air plutôt sec (en humidité absolue).

L’eau sous forme gazeuse (vapeur d’eau) va tendre à passer d’une région de pression de vapeur d’eau élevée (intérieur du bâtiment) à une région de pression moins élevée (extérieur du bâtiment). Ce phénomène est comparable à l’écoulement de la chaleur. Elle traverse tous les matériaux à une vitesse qui est fonction tant de la résistance du matériau au passage de la vapeur d’eau (coefficient « μ« ) que de la différence de pression de la vapeur d’eau de part et d’autre du matériau.

La migration de la vapeur d’eau à travers la paroi n’est pas en soi un problème tant qu’il n’y a pas condensation. Mais si elle condense dans l’isolant, celui-ci, humidifié perdra en grande partie sa résistance thermique. De plus, l’humidité permanente peut être source de moisissures.

En traversant la paroi de l’intérieur vers l’extérieur, si la pression de vapeur d’eau chute avant la température, le risque de condensation est faible. Si au contraire la température chute avant la pression de vapeur d’eau, le risque de condensation est élevé.

Pour supprimer les risques de condensation,

  • soit on bloque la migration de vapeur à l’aide d’un écran pare-vapeur qui sera installé du côté intérieur de l’isolant (ou une paroi intérieure en verre ou en aluminium par exemple),
  • soit on favorise la ventilation au-delà du panneau isolant pour éliminer la vapeur d’eau (disposition d’évents vers l’extérieur sur la face extérieure du panneau de façade).

En matière de gestion du passage de la vapeur d’eau au travers de l’élément constitutif du mur-rideau, on rencontre, dès lors, 3 modes de résolution :

  • L’élément étanche, qui comporte des parois extérieures et intérieures étanches, un cadre intégré, imperméable à la vapeur d’eau et solidarisé de façon continue par une âme isolante.
  • L’élément perméant, qui comporte une paroi extérieure perméable à la vapeur d’eau et une paroi intérieure moins perméable ou étanche à la vapeur.
  • L’élément ventilé ou respirant, qui comporte derrière sa paroi extérieure une lame d’air, en communication avec l’ambiance extérieure. La paroi intérieure peut-être perméable ou étanche. Les deux parois sont solidarisées à l’isolant par l’intermédiaire d’un cadre intégré à l’élément .

En allant de l’intérieur vers l’extérieur, on peut donc trouver :

  • un éventuel doublage intérieur en acier ou en tout autre matériau,
  • un film pare-vapeur, dont le rôle est d’empêcher la migration de la vapeur d’eau au travers de la paroi,
  • un isolant thermique,
  • un vide d’air éventuel, selon les systèmes,
  • la paroi extérieure.
Un exemple

  1. Garnitures d’étanchéité à l’air.
  2. Déflecteur d’eau de pluie.
  3. Ouverture pour l’équilibre des pressions.
  4. Air.
  5. Étanchéité à la vapeur.
  6. Coupure thermique.

Gestion des infiltrations d’eau de pluie

Un pare-pluie métallique étanche a été choisi du côté extérieur. Un élément de liaison entre cet élément et le vitrage a été placé pour rigidifier la paroi (tenue contre les pressions du vent).

Les joints qui assurent la liaison doivent repousser la pluie. Mais il est possible que cette liaison ne soit pas parfaite ou s’abîme dans le temps. Une ouverture est alors prévue sous l’élément. L’espace d’air aura le même niveau de pression que celui exercé sur la surface du revêtement, ce qui neutralise la force qui fait passer l’eau à travers les ouvertures éventuelles de la façade : c’est la chambre de décompression.

Un deuxième joint est par ailleurs placé du côté intérieur afin de réaliser l’étanchéité à l’air.

Gestion du passage de vapeur d’eau

La présence d’une paroi étanche du côté extérieur (froide, donc) risque d’entraîner la condensation de la vapeur d’eau venant de l’ambiance intérieure. Premier réflexe : bloquer le flux de vapeur par la mise en place d’une nouvelle paroi intérieure métallique.

Mais des fuites peuvent se produire. Une lame d’air est conservée entre l’isolant et la paroi extérieure, lame d’air mise en contact avec la chambre de décompression. L’humidité éventuelle pourra s’échapper.


Isoler en hiver et protéger en été

Pour étudier le comportement thermique du mur rideau, on peut le décomposer en 3 parties : la partie vitrée, la partie opaque et les fixations.

Choix des vitrages

Pour le choix de la partie vitrée du mur-rideau, tant de l’importance de sa surface (pourcentage de vitrage de la façade) que des caractéristiques du vitrage à choisir, on rencontre les mêmes critères de choix  que pour une façade traditionnelle.

On sera autant attentif à limiter les pertes thermiques en hiver par des vitrages isolants, qu’à limiter les apports solaires excessifs en été par une protection solaire efficace.

Photo pare-soleil.

Une orientation Nord et Sud des façades en mur-rideau sont à privilégier, notamment parce que la présence de protections solaires architecturales permet de bien maîtriser les apports solaires de la façade Sud.

Photo persiennes.

Les persiennes sont également possibles, mais leur présence du côté interne du vitrage limite leur efficacité (la majorité de la chaleur solaire entrée dans le bâtiment ne sera pas réfléchie vers l’extérieur).

Par contre, sauf comme serre, un tel espace ne paraît pas thermiquement correct. Trop froid en hiver et étouffant en été, il peut juste être exploité comme espace tampon, fort coûteux.

Nous avons tous déjà laissé notre voiture en plein soleil pour nous en rendre compte…

Concevoir

Pour plus d’informations sur le choix des vitrages, cliquez ici !

Isolation des parties opaques

La structure classique de la partie isolée thermiquement comporte les trois constituants ci-après :

  • un parement extérieur, qui constitue une protection contre les agents atmosphériques,
  • une âme, qui est l’isolant thermique,
  • un parement intérieur, résistant aux efforts mécaniques.

Les matériaux isolants (panneaux ou matelas) doivent supporter leur propre charge en position verticale sans compression ni tassement. Le matériau idéal pour l’âme isolante d’un panneau de façade doit avoir les qualités suivantes :

  1. faible conducteur de chaleur,
  2. incombustible,
  3. résistant à la corrosion,
  4. non-absorbeur de l’humidité,
  5. léger,
  6. résistant au fléchissement et au tassement.

Les matériaux suivants sont généralement utilisés :

  • les matériaux alvéolaires (plastiques alvéolaires, mousse de verre insensible à humidité),
  • les fibres minérales (laine de roche),
  • les isolants naturels (minéraux expansés et agglomérés),
  • les granulats légers (matériaux composites).

Les matériaux isolants les plus rigides seront fixés à l’enveloppe métallique soit par des adhésifs, soit par des agrafes métalliques. Les moins rigides seront comprimés en forme de panneau solide (bourrage).

Quand un espace d’air est souhaité dans l’élément, le matériau isolant doit être choisi pour sa rigidité, tout fléchissement pouvant boucher cet espace.

L’ isolation thermique indépendante du mur-rideau :

Le mur-rideau comporte dans ce cas un parement extérieur qui résiste aux agents atmosphériques. L’isolation thermique est assurée indépendamment par un contre-mur directement attaché à la structure du bâtiment. Ceci résulte des règles imposées pour la protection contre le feu, qui prescrivent en général des murs d’allège incombustibles, mais ce n’est pas l’idéal en matière de mur-rideau.
Tous les matériaux incombustibles ou ignifuges conviennent à la confection des contre-murs (parpaing de plâtre, terre cuite, béton léger ou lourd).

Le risque de pont thermique au droit des fixations

Une qualité de l’isolation d’une enveloppe réside dans sa continuité. Or, aux points de rencontre des poutrelles, traverses métalliques et boulons, ou aux bordures des éléments du mur-rideau, il existe un risque majeur de ponts thermiques, c’est-à-dire de communication directe entre l’extérieur et l’intérieur du bâtiment.

Les murs-rideaux montés sur grille seront tout particulièrement sensibles aux ponts thermiques.

Ceci se traduira par :

  • de la condensation (et même du givre),
  • un pouvoir d’isolation du mur diminué,
  • des températures maxima de résistance au feu plus basses (en cas d’incendie, aux points de contact continus le métal subira un échauffement supérieur à la température limite de résistance),
  • des traces noires sur les surfaces intérieures qui marquent les ponts thermiques entre le bâti du panneau et les pièces de fixation (les parties froides, plus humides, de la surface accumulent plus de poussière, que les autres).

Tous les ponts thermiques entre parements métalliques extérieurs et intérieurs devront disparaître par suppression totale de contact entre eux, aussi bien sur la bordure de l’élément du mur-rideau qu’à la jonction des divers profilés intérieurs. Cette rupture de contact se fait par dédoublement des pièces métalliques et interposition entre elles d’un matériau isolant comme le liège, le néoprène, des matériaux de garniture en polyvinyle, des matériaux plastiques isolant en PVC et, plus récemment, en polyuréthane injecté sur place.

En voici le principe :

schéma isolation profilé métallique 01.schéma isolation profilé métallique 02.
schéma isolation profilé métallique 03. schéma isolation profilé métallique 04.

Et les exemples de réalisation dans les profilés :

Photo isolation profilé métallique 01.Photo isolation profilé métallique 02.Photo isolation profilé métallique 03.

Si le système de chauffage élimine généralement la condensation au droit et au-dessus de l’allège, le problème est plus difficile lorsqu’il s’agit d’éviter la condensation de la partie inaccessible du mur, devant les dalles de plancher. Il peut y avoir dépôt d’humidité en ces endroits lorsque l’air ambiant y accède et il est très difficile de l’en empêcher. L’humidité peut se condenser sur l’attache, et, si elle n’est pas évacuée, elle risque de s’écouler par gravité sur la face intérieure du mur en laissant des traces. Il semble que l’on parvient à réduire ces désordres en recouvrant la face interne des raidisseurs d’un isolant : mousse de polystyrène, par exemple.


Protéger contre la propagation du feu

Cinq règles de base pour le mur-rideau

Les cinq règles suivantes, correspondant à la notion de paroi « pare-flamme », sont à prendre en compte au niveau de la façade :

  1. Les attaches en acier, ou de résistance équivalente, liaisonnant la façade au gros-œuvre doivent être en quantité suffisante.
  2. Le parement intérieur des allèges doit être en acier ou en matériau de résistance au feu équivalente. La continuité de cette protection doit être assurée sur les parties arrières des meneaux de section importante. Dans certains cas, la grille de base en aluminium doit être renforcée par une ossature de stabilité, également en acier.
  3. La jonction orthogonale façade-nez de plancher doit être réalisée par des matériaux interdisant toute propagation verticale d’un niveau à l’autre sur les faces arrière des façades et présenter une rigidité suffisante aux dilatations et aux déformations sous de fortes températures afin d’éviter le passage des flammes, fumées et gaz.
  4. Tout effet de cheminée doit être rendu impossible au niveau des meneaux verticaux, par cloisonnement horizontal répétitif.
  5. Le choix des matériaux de synthèse utilisés doit être en conformité avec les règlements en vigueur, notamment sur la toxicité de leur dégagement de chlore et d’azote.

Résistance au feu

Les façades situées dans le volume de protection, doivent être « pare-flammes » de degré deux heures au moins.
Les matériaux constitutifs des parements extérieurs des façades, y compris les volets, etc., doivent être de catégorie A0, à l’exception des stores qui peuvent être de la catégorie A1 et des menuiseries qui peuvent être des catégories A1 ou A2 ou, quand il s’agit de menuiserie en bois, catégorie A3.

A0 : ininflammable,
A1 : faible propagation du feu,
A2 : propagation moyenne du feu,
A3 : forte propagation du feu,
A4 : ne satisfait pas aux exigences.

Une attention toute particulière doit être apportée aux abouts de dalle et à l’isolation contre le feu en nez de plancher. Par cet endroit de liaison entre la façade et l’ossature, on doit éviter que le feu ne se propage d’un étage à l’autre.

On rencontre 3 principes d’organisation de la résistance au feu :

Mur-rideau résistant au feu.

 Panneaux réfractaires sur les abouts de dalle.

 Allèges et linteaux résistants au feu.

Un vitrage résistant au feu

La résistance au feu du verre : si le matériau « verre » est en lui-même incombustible, il risque facilement d’éclater sous la chaleur et n’assure alors plus aucune protection.

Pour rendre un vitrage anti-feu, un gel intumescent est placé entre les deux feuilles de verre, gel qui se solidifie en cas d’incendie et permet de tenir ensemble les éléments de verre.

Quel que soit le sens du feu, le composant verrier à intercalaire intumescent doit toujours être positionné côté intérieur du bâtiment

Présence de contre-murs intérieurs

Dans la plupart des cas, les contre-murs en maçonnerie doivent leur existence à la réglementation contre les risques d’incendie, et particulièrement à la définition de « réfractaire ». Même lorsque les panneaux sont rendus réfractaires au prix de certaines dépenses, il reste encore le problème des éléments métalliques apparents à l’intérieur du local, lorsque la température dépasse 130°C. Les éléments concernés sont surtout les raidisseurs. Lorsqu’ils sont en acier, ils peuvent résister aux températures des essais prescrits, mais ils fondent quand ils sont en aluminium. Un panneau d’allège « réfractaire » est alors sans effet puisque son support ne tient plus.

Autres techniques de protection

Il existe d’autres systèmes de protection contre le feu :

  • la protection rapportée autour de l’acier par un matériau projeté ou en plaque (produits projetés (flocages), produits en plaques, peintures intumescentes),
  • la protection par écran horizontal (plafonds suspendus) ou écran vertical (panneau de cloison),
  • le refroidissement par eau des profils creux.

   


Limiter la transmission du bruit

L’objectif consiste généralement à ne pas dépasser un niveau de pression acoustique intérieur de 35 dB.

Cette exigence requiert un isolement acoustique du mur rideau par rapport aux bruits extérieurs, mais aussi un isolement acoustique des bruits intérieurs (passage du bruit d’un étage à l’autre le long de la façade).

Isolement aux bruits extérieurs

Pour assurer l’isolement phonique d’une façade, il faut principalement :

  • garantir l’isolement phonique des parties vitrées ;
  • veiller aux joints de raccordement des divers éléments, pour éviter la présence de « ponts » et de « fissures » acoustiques.

On pense tout particulièrement à la qualité acoustique des coffres à rideaux et à volets, ainsi qu’au raccordement soigné entre les menuiseries, les châssis et les panneaux préfabriqués. Les éléments industriels apportent probablement une meilleure garantie que ceux montés sur chantier.

Les bâtiments de grande hauteur ne possèdent pas de fenêtres ouvrantes car la pression du vent en hauteur est trop importante. Tout au plus y prévoit-on quelques ouvertures de déménagement. La performance de leur façade est donc meilleure car avec des fenêtres fixes, on a la garantie que le bruit ne passe pas par les interstices des joints des ouvrants (source de bruit n°1).

Si les parois pleines ou opaques sont en principe assez isolantes, les matériaux nouveaux mis en œuvre dans les façades légères ne répondent pas d’une façon favorable à la loi des masses (frein acoustique proportionnel au poids de la paroi pour certaines fréquences).
Les panneaux non ventilés recueillent la préférence des acousticiens, à l’encontre des panneaux ventilés, du fait de la présence de larges fentes destinées à ventiler l’isolant fibreux. Il existe toutefois maintenant des fentes comportant des pièges à son pour parer ce problème.

Pour les parois vitrées, on utilise un vitrage acoustique. Il s’agit généralement d’un double vitrage (voire un triple vitrage) avec des épaisseurs de couches différentes, d’un vitrage avec du gel entre les deux verres (mais perte de transparence), ou alors de vitrage feuilleté.

 Concevoir

Pour plus d’informations sur le choix des vitrages acoustiques, cliquez ici !

Pour les balcons et auvents, il y a intérêt à garnir d’un matelas de fibre minérale ou d’un autre matériau isolant (piège à son) les parties inférieures des balcons surplombant les baies vitrées. Ce traitement vise à absorber les ondes sonores du sol qui pénètrent au travers des fenêtres après réflexion sur ces surfaces.

Isolement aux bruits intérieurs :

Schéma isolement aux bruits intérieurs.

Les bruits intérieurs se transmettent directement par le verre de la façade (transmission par mise en vibration du mur-rideau).
Il faut donc une bonne jonction en about de dalle :

  1. raccords aux planchers,
  2. raccords aux murs de refend,
  3. raccords aux poteaux.

Quelques exemples :

Raccord aux dalles effectué au moyen de profilés élastiques en Néoprène.

Mur-rideau raccordé au nez de plancher par le plâtre du plafond..

Raccord aux dalles effectué au moyen de laine minérale.


Gérer les mouvements du bâtiment

Le joint de dilatation est un dispositif constructif qui permet d’assurer la libre déformation d’une section de bâtiment par rapport à une autre.

Quand les déformations apparaissent principalement sous les effets des variations de température, le joint n’est réalisé qu’au niveau de la superstructure. Mais des déformations peuvent également être dues à des tassements différentiels et à des mouvements de sol. On parle alors de joints de tassement ou joints de rupture; le joint en superstructure est prolongé par un joint dans les fondations correspondantes.

La présence d’un joint de dilatation impose de doubler les éléments porteurs au droit de la pile concernée ou de réaliser un appui glissant dispositif qui respecte la trame en évitant le doublement de points porteurs. Une extrémité de travée est fixe, l’autre appuyée sur une console par l’intermédiaire d’un appui glissant en Néoprène ou en Téflon. La console introduit un excentrement et peut créer un moment de torsion, toujours difficile à reprendre. Il faut donc s’assurer que l’appui peut résister à cette torsion.

La largeur des joints de dilatation varie généralement de 10 à 20 mm. L’espacement entre deux joints varie et est de l’ordre d’une quarantaine de mètres.
Les joints de dilatations doivent être prolongés en façade; ils ont donc une influence sur l’aspect fini du bâtiment. Ils doivent donc être pensés très tôt dans l’élaboration du projet.

Les calfeutrements des joints de dilatation des façades doivent assurer la continuité des fonctions remplies par la façade.

Le principe des assemblages souples et élastiques réside dans l’élasticité des matériaux, dont la forme se modifie sous l’effet des forces thermiques. Les tôles ou les profilés élastiques et minces se prêtent le mieux à la réalisation de ces assemblages à ressort, ils ont l’avantage de permettre le vissage des éléments en conservant un joint fermé sans calfeutrage supplémentaire. La grande majorité des constructions sont à joints coulissants qui s’écartent et se referment selon les variations thermiques.

Les joints entre l’ossature porteuse en acier et les éléments de remplissage sont assurés par des rubans de Néoprène ou des joints en silicone extrudé qui assurent l’étanchéité par compression. Un capot presseur formant parclose est fixé aux montants par des vis maintient les éléments de remplissage en place. La forme des feuillures est prévue pour faire obstacle à la pénétration de l’eau.

Joints et tolérances (adaptation aux mouvements du bâtiment)

Les mouvements des éléments de charpentes doivent être évalués avant l’étape de la conception des murs extérieurs. On distingue trois catégories de mouvements :

  • les fléchissements sous charges variables dus aux occupants et aux forces maximales du vent contre la façade, et les fléchissements sous charges permanentes de l’ossature du bâtiment même;
  • la dilatation et le retrait des matériaux sous l’effet de la température, du rayonnement et parfois de phénomènes hygroscopiques;
  • les mouvements lents mais inexorables causés par des déformations graduelles comme le fluage du béton, le tassement des fondations, …

Les principaux éléments qui doivent s’adapter aux mouvements du bâtiment sont les panneaux vitrés. Autour d’eux, les éléments typiques, c-à-d les supports tubulaires, les couvre-joints et les couvre-supports, doivent pouvoir s’adapter à un mouvement différentiel de 4 à 5 mm d’un étage à l’autre et entre chaque élément vertical. Sinon il faut prévoir un autre système de supports.


Assurer la sécurité

Le mur-rideau pouvant couvrir aussi bien la façade du rez-de-chaussée que le 33ème étage, de nombreux aspects sécuritaires sont à assurer.

Sécurité au vent

On consultera la norme belge concernant la résistance au vent des vitrages isolants NBN S23-002, norme qui s’est vu adjoindre un addendum concernant les surfaces maximales de vitrages admises en fonction du vent.

Sécurité au bris de glace

Problème de sécurité :

  • Verre armé : si le verre casse, les morceaux sont retenus par les treillis. Au point de vue aspect, il faut accepter la présence visible du treillis.
  • Verre trempé (sécurit) sous tension : l’opération de trempe a pour effet de mettre les couches externes du verre en compression et les couches internes en tension. S’il casse, c’est en tout petits morceaux pratiquement non coupants et qui, de ce fait, présentent peu de danger. Il a une résistance accrue à la flexion, à la pression, à la torsion et aux chocs thermiques et/ou mécaniques.
  • Verre feuilleté : une couche de plastique, intercalaire en butyral de polyvinyle (PVB) est placée entre les verres. S’il casse, les morceaux de verres restent ensemble, et l’étanchéité est maintenue. Propriétés du verre feuilleté :
    • Ne se désintègre pas en cas de chocs, les morceaux restent en place collant à l’intercalaire.
    • Ne se brise qu’au point d’impact.
    • Doit être découpé sur les deux faces du vitrage.
    • Peut facilement être intégré dans un double vitrage.
    • Est facilement disponible en toutes dimensions et se pose rapidement.
    • Existe en différentes épaisseurs.

    Avantages du verre feuilleté :

    • Minimise les risques de blessures et empêche le passage à travers le vitrage.
    • Limite les conséquences du vandalisme.
    • Elimine ou retarde toute tentative d’effraction.
    • Procure simultanément sécurité et isolation thermique.
    • Ne requiert pas de main-d’œuvre spécialisée.
    • Permet une large sélection en fonction du niveau de sécurité souhaitée.
  • Verre durci : verre qui a subi un traitement semblable à celui du verre trempé, ce qui lui confère des propriétés similaires, sauf en cas de bris de verre. L’aspect d’un verre durci cassé est proche de celui d’un verre recuit, il se casse en grands morceaux. Mais il est plus résistant que le verre recuit. Le risque de chute de verre en cas de bris est donc réduit par rapport au verre trempé : les grands morceaux restent généralement en place dans le châssis. Mais il ne peut pas être considéré comme un verre de sécurité au sens des normes.

Concevoir

Pour plus d’informations sur le choix des vitrages de sécurité, cliquez ici !

Sécurité au vandalisme et à l’effraction

Pour améliorer la résistance du mur-rideau à l’effraction, on augmente l’épaisseur (13 à 36 mm) du vitrage, et on utilise du verre feuilleté. On utilise également des panneaux pleins de type « sandwich » capables de résister aux agressions mécaniques. Dans la norme EN 356, les impacts de haches et de marteau sont les chocs utilisés pour caractériser la résistance de ces éléments.

Sécurité au tir de fusil et aux armes de poing

La variabilité des surfaces maximales de contact développées au cours des chocs, ainsi que les divers niveaux d’énergie, conduisent la norme EN 1063 à établir 7 classes de vitrages pour couvrir les exigences de protection correspondantes.

La norme EN 1063 définit une exigence complémentaire permettant de distinguer par la mention « NS » les vitrages qui, sous l’action des impacts provoqués par des armes à feu, ne génèrent pas de projection d’éclat de verre.

Découvrez quelques exemples de murs/façades-rideaux : le Berlaymont à Bruxelles et l’Aeropolis II à Schaerbeek.

Dimensionner le lave-vaisselle

Dimensionner le lave-vaisselle

Une machine à laver est déterminée à partir de 3 paramètres : le temps imparti au lavage, l’inventaire des pièces à laver et le temps de contact dans la zone de lavage.


Machine à paniers fixes ou mobiles -Dimensionnement précis

Les machines à paniers sont déterminées par deux paramètres :

  • son débit (en panier/heure)
  • le temps de contact dans la zone de lavage

Le débit horaire de la machine – Méthode du nombre d’assiettes étalons

Le débit horaire de la machine est calculé à partir du nombre total de paniers par service divisé par le temps alloué à cette opération, tout en tenant compte des pointes de service et du fait que tous les paniers ne sont pas complets, particulièrement en début et fin de service (rendement d’utilisation η).

Débit (paniers/heure) = Nombre total de paniers à laver par service x 60 min


Temps alloué (en min) x h*

> Le nombre total de paniers par service

Toute la vaisselle est convertie en assiettes étalons au moyen d’une table de conversion.

Exemple de table de conversion des pièces de vaisselle en assiettes étalons (machines à paniers)
Assiette Ø : 23 cm 1
Assiette Ø < 15 cm 0,7
Ravier 2
Ramequin 0,7
Verre 0,7
Plateau Self 2,3
Couvert complet 0,2
Tasse 1
Sous-tasse 0,6

Les dimensions moyennes d’un panier sont de 500 mm x 500 mm x 115 mm. Un panier contient en moyenne 18 (16 ?) assiettes étalons.

Pour déterminer le nombre total de paniers à laver par service, il faut calculer dans l’ordre suivant :

  • la composition d’un couvert type,
  • le total des pièces à laver par service,
  • convertir ce total en nombre d’assiettes étalons,
  • le nombre total de paniers à laver par service.

Une autre façon de calculer est de partir, pour chaque type d’objet à laver, de la quantité exacte par panier. Les fabricants disposent de tables reprenant ces chiffres.

> Le temps alloué au lavage est tributaire de certains facteurs propres au client. Dans certains cas le facteur « temps » est moins important que le facteur « investissement », dans d’autres, c’est l’inverse. Le local peut également représenter une contrainte en limitant l’espace disponible au placement d’un lave-vaisselle plus important. Sachant toutefois que les frais d’exploitation (main d’ouvre surtout, mais également eau, énergie et produits) représentent à terme plusieurs fois le montant de l’investissement, la priorité est souvent donnée au temps de traitement le plus court possible.

Si l’on ne dispose pas d’autres indications, on peut estimer le temps alloué au lavage de la vaisselle à deux heures.

> Le rendement d’utilisation η

Nombre de repas Rendement d’utilisation η
jusque 150 0,65
de 150 à 1 000 0,75
plus de 1 000 0,8

Dans le cas d’un lavage différé, les pièces à laver sont d’abord stockées dans des paniers. Le lavage est différé en dehors des heures de service à table et donc toute la vaisselle est prête à entrer dans le lave-vaisselle une fois celle-ci commencée. Les temps morts sont beaucoup moins importants que lorsque le lavage est instantané. On peut, par exemple, prendre un rendement d’utilisation de 0,8.

Le choix de la machine se fait alors en comparant le résultat des calculs aux performances annoncées par les constructeurs. On vérifiera néanmoins que les performances annoncées respectent les temps de contact minimums.
Le nombre de paniers par heure et le temps de contact minimum déterminent, en fait, la longueur de la machine (parties où il y a contact avec l’eau).

Le temps de contact dans la zone de lavage

Chaque type de restauration demande un temps de contact minimum dans la zone de lavage. Il s’agit du temps pendant lequel la vaisselle est soumise aux jets des gicleurs de lavage.

Type de cuisine Temps de contact (en sec)
Restauration publique ou d’entreprise
(vaisselle sale, fraîche).
42 à 45
Hôpitaux
(vaisselle faisant partie d’un système de distribution centralisée).
48 à 80
Restauration avec système de distribution avec réchauffage. 90

Il existe une deuxième règle, à laquelle il est régulièrement fait référence dans notre pays. Il s’agit de la norme allemande DIN 10510, qui exige un temps d’exposition de la vaisselle aux jets d’eau de 2 minutes (120 secondes) minimum. Ces deux minutes incluent le prélavage, le lavage et le rinçage final.


Machine à convoyeur – Dimensionnement précis

La machine à convoyeur est déterminée par deux paramètres :

  • la vitesse d’avancement du convoyeur,
  • le temps de contact dans la zone de lavage

La vitesse d’avancement du convoyeur

La vitesse d’avancement du convoyeur est fixée en évaluant la longueur de bande nécessaire au lavage divisée par le temps alloué à cette opération, tout en pondérant par un coefficient de salissure (δ) et par un taux réel d’occupation (τ = 0,8). Ce dernier coefficient tient compte du fait que tous les convoyeurs ne sont pas complets, particulièrement en début et fin de service, et permet aussi de tenir compte des pointes de service.

Vitesse d’avancement du convoyeur
(en m/min) =
Longueur d’occupation sur le convoyeur (en m) x coefficient de salissure (δ)


Coefficient d’occupation réelle (τ) x temps alloué au lavage de la vaisselle (en min)

> La longueur de bande nécessaire est déterminée par le nombre total d’objets à laver et le nombre d’objets qu’il est possible de placer par mètre. Le nombre d’objets par mètre de bande dépend de la largeur de la bande (certains fabricants offrent la possibilité de placer trois ou quatre assiettes de front) et de l’écartement des « doigts ». Plus l’écartement est petit, plus le nombre de pièces par mètre est grand.

Pour un type de lave-vaisselle donné, on utilise, par exemple, la table de conversion ci-dessous.

Table de conversion des pièces de vaisselle à laver en longueur d’occupation sur le convoyeur (mm) (machine à convoyeur)
Nom de la pièce Longueur : L (mm)
Assiette Ø : 23 cm 30
Assiette Ø : 19 cm 20
Plateau Self 60
Ravier 12 x 19 cm 20
Verre Ø : 86 mm 20
Couvert (la pièce) 2
Tasse 10,8 cm 30
Bol ou compotier 25

Pour connaître la longueur de bande de lavage, on va donc :

  • D’abord, déterminer la composition d’un « couvert » type,
  • ensuite, relever le nombre de « couverts » par service,
  • enfin, calculer la longueur de bande de lavage à l’aide d’un tableau tel que celui ci-dessus adapté au lave-vaisselle considéré.

> Le temps alloué au lavage est tributaire de certains facteurs propres au client. Dans certains cas le facteur « temps » est moins important que le facteur « investissement », dans d’autres, c’est l’inverse. Le local peut également représenter une contrainte en limitant l’espace disponible au placement d’un lave-vaisselle plus important. Sachant toutefois que les frais d’exploitation (main d’ouvre surtout, mais également eau, énergie et produits) représentent à terme plusieurs fois le montant de l’investissement, la priorité est souvent donnée au temps de traitement le plus court possible.

Si l’on ne dispose pas d’autres indications, on peut estimer le temps alloué au lavage de la vaisselle à deux heures.

> Le coefficient de salissure :

Coefficient de salissure
Salissure légère 1,25
Salissure moyenne 1
Forte salissure 0,75

Après avoir calculé la vitesse d’avancement du convoyeur, il faut comparer cette valeur aux vitesses des machines des fabricants.

On vérifiera néanmoins que ces vitesses sont calculées pour respecter les temps de contact minimums.

Les machines à convoyeurs proposent en général une vitesse maximum et une vitesse minimum. Ces deux vitesses correspondent respectivement à un temps de contact plus faible et plus élevé.
Certaines machines disposent d’une plage continue de vitesses variant entre une vitesse minimale et maximale.

Ces vitesses d’avancement se situent entre 0,6 et 2,50 m/min.

Pour un temps de contact donné, chaque vitesse correspond, en fait, à une longueur de la machine (parties où il y a contact avec l’eau).

Le temps de contact dans la zone de lavage

Chaque type de restauration demande un temps de contact minimum dans la zone de lavage. Il s’agit du temps pendant lequel la vaisselle est soumise aux jets des gicleurs de lavage.

Type de cuisine Temps de contact (en sec)
Restauration publique ou d’entreprise
(vaisselle sale, fraîche)
42 à 45
Hôpitaux
(vaisselle faisant partie d’un système de distribution centralisée)
48 à 80
Restauration avec système de distribution avec réchauffage 90

Il existe une deuxième règle, à laquelle il est régulièrement fait référence dans notre pays. Il s’agit de la norme allemande IN 10510, qui exige un temps d’exposition de la vaisselle aux jets d’eau de 2 minutes (120 secondes) minimum. Ces deux minutes incluent le prélavage, le lavage et le rinçage final.


Méthode simplifiée de dimensionnement

On compte 7 articles en moyenne par repas.  On détermine ainsi la machine en assiette par heure. La capacité des machines à paniers statiques, à paniers mobiles et à convoyeur s’exprime selon cette unité, au moins.

On choisira le type de machine dont la gamme correspond au chiffre obtenu.

Choisir les ouvertures de transfert

Choisir les ouvertures de transfert


Le débit d’air neuf

La somme des débits nominaux des ouvertures de transfert d’un même local doit être au moins équivalente au débit requis (soit environ 22 m³/h par bureau individuel). Le débit fourni par une grille de transfert doit être précisé par le fournisseur pour une différence de pression de 2 Pa.

En pratique la section requise par local est de l’ordre de 70 cm² minimum.


Possibilité de réglage

Les dispositifs de transfert d’air montés en intérieur doivent être fixes (non réglables).


L’intégration dans la structure existante

Les ouvertures de transfert peuvent être des grilles disposées dans le bas de portes ou encore dans les murs.

Une fente suffisamment grande sous une porte peut également convenir (une ouverture de 70 cm² équivaut à un jeu d’environ 1 cm sous une porte).

Illustration ouverture de transfert sur porte.             Illustration ouverture de transfert sur porte.

Transfert d’air au travers d’une porte ou par détalonnage.

Ces fentes peuvent être considérées comme des dispositifs de transfert d’air pour autant que la plus petite dimension de la fente soit au moins de 5 mm (la hauteur de la fente est mesurée à partir du niveau du plancher fini; si la finition de plancher n’est pas connue, on suppose qu’elle a une épaisseur de 10 mm). Dans ce cas, il faut tenir compte d’un débit de :

  • 0,36 m³.h-1 par cm² de fente pour une différence de pression de 2 Pa ;
  • 0,80 m³.h-1 par cm² de fente pour une différence de pression de 10 Pa.

Les ouvertures dans les murs sont plus discrètes, car elles peuvent être cachées sous un meuble, … Cependant, elles doivent être idéalement prévues dès la conception du gros œuvre.

La section d’une fente sous une porte doit correspondre aux exigences après parachèvement de sol. Par exemple, si le sol est ultérieurement recouvert de moquette, il faut rajouter une hauteur de 1 cm à la hauteur de la fente.


L’intimité

Dans la plupart des situations, on souhaite qu’une grille de transfert soit discrète. Pour cela, les grilles sont souvent constituées de lamelles obliques empêchant la vue vers le local voisin.

lamelles obliques d'ouvertures de transfert.

Différentes possibilité de vision au travers d’une grille.

De même, sur le plan acoustique, les grilles intérieures diminuent l’isolation d’une porte. Il existe cependant des modèles possédant un dispositif d’atténuation. Si la grille est disposée dans un mur intérieur, son traitement acoustique est plus aisé étant donné l’épaisseur de la grille.

Grille acoustique d'ouvertures de transfert.Grille acoustique d'ouvertures de transfert.

Ouvertures de transfert acoustiques.

Coupe dans une grille de transfert acoustique garnie d’un matériau absorbant.


Protection incendie

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Cela signifie que les ouvertures de transfert prévues entre les bureaux où l’air neuf est amené et les couloirs par lesquels l’air transite vers les sanitaires doivent avoir la même résistance au feu.

Cela est possible grâce à des grilles de transfert coupe-feu. Pour ce qui est du détalonnage des portes, cela peut prêter à discussion.

Grille coupe-feu : ouverte à température ambiante, elle se referme par foisonnement des lames (en matériau intumescent) à une température de 120°C et est dans ce cas Rf 1h.

Concevoir le raccord entre souche de cheminée et versant isolé

Concevoir le raccord entre la souche de cheminée et le versant isolé


Généralités

La souche de cheminée étant fort exposée aux pluies battantes, on la réalise comme un mur creux dont la paroi extérieure est en briques de parement ou en bardage.

Son pied doit donc être drainé tout comme un pied de façade en murs creux. L’eau qui s’infiltre au travers de la maçonnerie de parement et qui arrive dans la coulisse est dirigée vers l’extérieur par une membrane, via des joints verticaux ouverts.

La membrane peut dépasser de quelques millimètres le nu du parement de manière à former casse-goutte ou déborder bien davantage pour permettre son raccord avec la bande de solin. Celle-ci est nécessaire à tous les raccords de la souche de cheminée avec la toiture : amont, latéral ou aval.

Étanchéité dans le mur et bande de solin d’une pièce.

Etanchéité et bande de solin séparés.
Recouvrement dans le même joint de mortier.

Etanchéité située une rangée de briques au-dessus de la bande de solin.

Bardage.


Continuité des fonctions « couverture » et « sous-toiture » – Raccord amont avec la toiture

Continuité de la fonction de la couverture

La cheminée se situe idéalement sur le faîte du toit. C’est la position qui assure le meilleur fonctionnement du conduit de fumée, et qui évite l’arrêt des eaux de ruissellement en amont de la cheminée. Dans les autres situations, il faut prévoir un chenal qui récolte ces eaux de ruissellement et les évacue sur les côtés de la cheminée.
Lorsque la cheminée est large ou éloignée du faîte, un chéneau à base horizontale plutôt qu’un chéneau épousant la pente du versant est conseillé. Lorsque le chéneau dépasse un mètre de long, il est même conseillé de lui donner une pente.

Il faut également assurer l’étanchéité :

  • d’une part, entre le chéneau et la cheminée,
  • d’autre part, entre le chéneau et la toiture.

Continuité de la fonction « sous-toiture »

La souche de cheminée doit être protégée des eaux qui ruissellent sur la sous-toiture en amont de la cheminée; celles-ci doivent être évacuées de part et d’autre de la cheminée.

Exemples

Cas d’une isolation entre chevrons ou fermettes – 1° exemple

Schéma cheminée et isolation entre chevrons ou fermettes.

Raccord avec la couverture à l’amont de la cheminée.
Isolant placé entre les chevrons ou les fermettes.
Une membrane dévie les eaux de la sous-toiture.

  1. Isolant
  2. Sous-toiture aboutissant au-dessus de la membrane 5
  3. Contre-latte
  4. Volige supportant le chéneau
  5. Membrane pliée déviant les eaux de la sous-toiture
  6. Support du voligeage
  7. Chéneau
  8. Bande de solin
  9. Membrane d’étanchéité
  10. Joint vertical ouvert
  11. Finition de plafond
  12. Blocs isolants
  13. Pare-vapeur

Continuité de la sous-toiture :

Elle est réalisée par une membrane d’étanchéité :

Des voliges sont placées entre les fermettes ou les chevrons à l’intersection amont de la souche de cheminée et de la toiture. Une membrane est posée sur ces voliges, remonte le long de la cheminée et déborde de celle-ci latéralement. Les plaques de sous-toiture sont posées sur la membrane et jusque contre la souche de cheminée. Le débordement latéral de la membrane doit se trouver au-dessus de la sous-toiture proprement dite de manière à ce que l’eau infiltrée puisse ruisseler sur la sous-toiture.

Lorsque la cheminée se trouve très proche de la ligne de faîtage, la membrane fait office de sous-toiture entre le faîte et la cheminée.

Raccord amont d’une cheminée située à proximité du faîte
(Photo extraite de la NIT 175 du CSTC).

Continuité de l’étanchéité à la pluie (= fonction de la couverture) :

Réalisation du chéneau :

Des voliges de l’épaisseur des lattes sont placées sur les contre-lattes et forme le support du chéneau.
Le chéneau proprement dit est réalisé en métal (zinc, plomb, cuivre, aluminium, acier inoxydable) ou à l’aide d’une membrane d’étanchéité souple.

Étanchéité des raccords :

Des solins assurent l’étanchéité du raccord entre le chéneau et la cheminée.

Les éléments de couverture sont posés en porte-à-faux su la dernière latte de manière à couvrir le haut du chéneau.

Cas d’une isolation entre chevrons ou fermettes – 2° exemple :

Schéma cheminée et isolation entre chevrons ou fermettes.

Raccord avec la couverture à l’amont de la cheminée.
Isolant placé entre les chevrons ou les fermettes.
La sous-toiture aboutit dans le chéneau.

  1. Isolant
  2. Sous-toiture aboutissant au-dessus de la bavette en zinc 11
  3. Contre-latte
  4. Volige supportant le chéneau
  5. Solin en zinc
  6. Membrane d’étanchéité
  7. Chéneau
  8. Joint vertical ouvert
  9. Finition de plafond
  10. Blocs isolants
  11. Bavette en zinc
  12. Pare-vapeur
Cas d’une toiture « Sarking »

Schéma raccord cheminée / toiture "Sarking".

Cheminée avec bardage en ardoises.
Raccord avec la couverture à l’amont de la cheminée.
Isolant placé au-dessus des chevrons ou des fermettes.
Membrane ou bavette sur le panneau isolant.

  1. Couverture
  2. Latte
  3. Contre-latte
  4. Sous-toiture éventuelle
  5. Isolant
  6. Chevêtre dans le chevronnage
  7. Panne de charpente
  8. Bardage
  9. Chéneau
  10. Blocs isolants
  11. Membrane souple ou bavette métallique avec joint mastic

Cheminée avec parement en brique.
Raccord avec la couverture à l’amont de la cheminée.
Isolant placé au-dessus des chevrons ou des fermettes.
Latte d’arrêt inclinée sur le panneau isolant.

  1. Couverture
  2. Latte
  3. Contre-latte
  4. Sous-toiture éventuelle
  5. Isolant
  6. Chevêtre dans le chevronnage
  7. Panne de charpente
  8. Bande solin
  9. Chéneau
  10. Blocs isolants
  11. Latte en bois inclinée avec joint mastic

La continuité de l’étanchéité à la pluie (= fonction de la couverture) est réalisée de la même manière que dans les exemples précédents.

Quant à la fonction « sous-toiture », vu qu’elle peut être assurée par le panneau isolant lui-même et que les panneaux isolants sont rigides, sa continuité est réalisée de manière un peu différente. Elle peut être obtenue par :

  • une membrane souple ou bavette métallique fixée sur le panneau isolant d’une part et sur la souche de cheminée d’autre part (voir 1er dessin),
  • ou par ou par une latte d’arrêt fixée sur le panneau isolant (voir 2ème dessin),

et dont le raccord avec le panneau isolant est réalisé au moyen d’un joint de mastic souple.
La membrane, la bavette ou la latte doivent déborder latéralement de la cheminée pour évacuer les eaux de ruissellement de part et d’autre de la cheminée.


Continuité des fonctions « couverture » et « sous-toiture » – Raccord latéral et aval avec la toiture

Le raccord latéral et aval entre la cheminée et la toiture se traite comme le raccord entre la toiture et un mur en butée.

Raccord aval de la couverture avec la cheminée.

  1. Solin
  2. Bavette en plomb
  3. Étanchéité et joint vertical ouvert dans le parement
  4. Latte
  5. Contre-latte
  6. Sous-toiture
  7. Isolant
  8. Pare-vapeur
  9. Espace technique
  10. Finition du plafond
  11. Blocs isolants

Continuité de la fonction de la couverture

Le raccord se fait au moyen de bavettes en plomb posées sur les éléments de couverture et épousant parfaitement leur forme d’une part, et sur la souche de cheminée d’autre part. L’étanchéité est obtenue grâce à des solins engravés dans la maçonnerie.

Continuité de la sous-toiture

La liaison de la sous-toiture avec les faces latérales et aval de la cheminée peuvent être assurées comme celle avec la face amont de la cheminée. Mais dans le cas de sous-toiture en plaques rigides, on se limite, en général, à poser celles-ci contre la souche de cheminée.

Dans le cas d’une toiture « Sarking », la continuité de la fonction « sous-toiture » est assurée par le cordon de mousse de polyuréthane injecté entre le panneau isolant et la cheminée.


Continuité de la fonction « isolation »

Il doit y avoir continuité entre l’isolation de la toiture et de celle de cheminée. Cette continuité nécessite l’utilisation de blocs moins conducteurs que la maçonnerie tels que les blocs de béton cellulaire ou carrément les « blocs » en verre cellulaire.

Exemples.

Bon ! Des blocs isolants évitent les ponts thermiques.

Mauvais ! Ponts thermiques importants !


Continuité de la fonction « pare-vapeur » et « finition intérieure »

La continuité de la fonction « pare-vapeur » n’est pas spécifique à la souche de cheminée mais au type de modèle d’isolation : elle est assurée par un bon raccord au corps de cheminée :

La finition intérieure de la toiture est raccordée de manière étanche à la finition intérieure du corps de cheminée de façon à supprimer tout risque de courant d’air.

Label « energy star »

Label "energy star"


Le label « Energy Star », qu’est-ce ?

Le label « Energy Star » est à l’origine (1992) un label américain (US-EPA). Il fait l’objet de négociations entre les USA et la Communauté Européenne pour le faire reconnaître en Europe par les principaux fabricants et distributeurs de matériel.

Il s’applique aux PC’s, imprimantes, photocopieurs, fax, scanner, modem, …, qui possèdent une fonction de mise en veille ou en attente (standby) caractérisée par une puissance de fonctionnement réduite.

Ces appareils ont les mêmes performances que les équipements standards (y compris la compatibilité de mise en réseau) mais en plus, ils peuvent automatiquement passer en mode veille lorsqu’ils ne sont pas effectivement utilisés.

Tout appareil acheté à partir de 1995 est potentiellement susceptible de posséder un label « Energy Star. La documentation doit en donner les consignes d’activation (pas toujours simplement, il est vrai). Dans le cas contraire, il est vivement recommandé de contacter le vendeur et lui demander une démonstration.

Les principales caractéristiques du matériel « Energy Star » :

Type d’équipement

  Puissance en mode veille (et en mode arrêt) Temps d’inactivité prédéfinie avant mise en veille   Autre
on
veille
arrêt

Ordinateur et écran séparé

30 min.
< 15 à 45 W pour chacun d’eux.

(en fonction de la puissance de l’équipement)

Portable

30 min
< 35 W

Écran

< 23 W (si X<1 Mega pixel)

< 28X W (si X>1 Mega pixel)

< 2 W
< 1  W

Imprimantes

 < 15 à 90 min.

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Le temps d’inactivité est programmé à la fabrication.
< 10 à 45 W

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Fax

 < 5 min. Le temps d’inactivité est programmé à la fabrication.
< 10 à 15 W

(en fonction du nombre de pages/minute, du type d’impression et de la présence ou pas de la couleur).

Photocopieurs

< 30 à 90 min. Le mode par défaut du photocopieur est le recto-verso.
< 5 à 15 W

(en fonction du nombre de copies/minute (mode off)).

Scanner

< 12 W < 15 min.

Les autres avantages du matériel « Energy Star » :

  • Ils ont un prix comparable aux équipements traditionnels.
  • Les écrans d’ordinateur en mode veille produisent moins d’ondes électromagnétiques.
  • Les équipements en mode veille produisent nettement moins de chaleur, ce qui diminue la surchauffe ou les coûts de climatisation et augmente leur durée de vie et leur fiabilité.
  • Les appareils produisent moins de bruit (arrêt ou ralentissement des ventilateurs).

Remarque : la mise en veille ne dispense pas d’éteindre les appareils en dehors des heures de travail.


Dans la pratique, les équipements de bureau portant le label « Energy Star » consomment-ils réellement moins que le matériel standard ?

> Pour les imprimantes , les fax et les photocopieurs , la réponse est sans conteste positive.

En effet, les fonctions de mise en veille sont pré-programmées d’origine dans les appareils et l’utilisateur ne peut les modifier.

> Pour les ordinateurs personnels , les scanners , la réponse est beaucoup plus réservée.

Cela tient au comportement de l’utilisateur. Les fonctions économisatrices d’énergie des ordinateurs doivent être configurées par l’utilisateur. Dans la pratique, des études très récentes ont montré que cette configuration était effective pour seulement 15 % des machines possédant un label « Energy Star ». On peut tenter d’expliquer ce phénomène :

  • L’utilisateur n’a pas connaissance de leur existence.
  • Le sentiment inconscient de ne pas travailler ou de se faire surprendre si l’ordinateur est en mode veille.
  • Pour un utilisateur courant, l’agacement des coupures fréquentes.
  • le réflexe conditionné de relancer la machine lorsqu’elle s’arrête, même si on ne l’utilise pas.

Deux solutions devraient à terme résoudre ce problème :

  • La sensibilisation des utilisateurs aux problématiques énergétiques.
  • La pré-configuration des machines à la fabrication. Celle-ci ne pourrait alors plus être désactivée.

Que peut-on gagner en choisissant un matériel Energy Star ?

La puissance appelée par un équipement de bureautique pris individuellement est relativement faible. Essayons de voir, par un exemple, combien coûte l’ensemble de la consommation de ces équipements dans un immeuble de bureaux types et ce que peut rapporter le choix d’un matériel certifié « Energy Star ».

Exemple.

Nombre de jours de travail par an

250 jours

Nombre d’heures de travail par jour

9h

Coût du kWh électrique

0,11 €
Équipements Nbre Heures d’activité par jour Heures en attente par jour % de machines allumées par jour % de machines allumées 24h/24, 365 jours/an

Ordinateurs

100 3,5 5,5 76 20

Fax

20 0,5 8,5 100 100

Imprimantes

20 3,5 5,5 100 80

Photocopieurs 20 cpm

20 7 2 100 70

Photocopieurs 40 cpm

2 7 2 100 50
Équipements Puis. en fonctionnement (W) Puis. en attente sans Energy Star (W) Puis. en attente avec Energy Star (W) Consom. sans Energy Star (kWh/an) Consom. avec Energy Star (kWh/an)

Ordinateurs

140 140 60 42 168 23 392

Fax

20 6 6 1 086 1 086

Imprimantes

220 75 15 13 655 5 755

Photocopieurs 20 cpm

1 000 170 40 52 194 39 046
 

Photocopieurs 40 cpm

 

1 600 480 40 9 205 5 900
Bilan annuel Sans Energy Star Avec Energy Star

Consommation totale (kWh/an)

118 307 75 179 (- 36 %)

Coût total (€/an)

15 169 9790

Gain (€/an)

5379

Le gain réalisé est à majorer si la majorité des copies sont réalisées en recto-verso.

On peut également y associer la diminution des rejets atmosphériques produits par les centrales électriques, diminution de :

  • SO: 48 kg/an.
  • NO: 35 kg/an.
  • Suies : 4 kg/an.
  • CO: 16 tonnes/an.
Pour en savoir plus sur le label « Energy Star » :

sur le site de l’EPA – United States Environmental Protection Agency, les pages traitant du label « Energy Star » :

ouverture d'une nouvelle fenêtre ! http://www.energystar.gov/

ou encore sur le site « Energy Star » en Europe :

ouverture d'une nouvelle fenêtre !  http://www.eu-energystar.org/fr/index.html

Choisir le détendeur de la machine frigorifique

Détendeur électronique.
(Source : Danfoss).


Critères de choix énergétiques

Le choix énergétique d’un détendeur est lié à sa capacité à gérer une surchauffe à la sortie de l’évaporateur le plus proche de la courbe de la valeur minimale de surchauffe stable tout en gérant le problème de différence pression minimale nécessaire à baisser la température de condensation (un des critères énergétiques principaux du cycle frigorifique). En d’autres termes, les critères de choix énergétiques des détendeurs sont :

  • la gestion intelligente de la surchauffe;
  • la capacité à travailler à des pressions d’entrée faibles pour favoriser le choix d’une stratégie de température de condensation basse.

Choix du détendeur

Auparavant, le détendeur thermostatique intégré au meuble frigorifique s’imposait. Mais à l’heure actuelle, de par les développements technologiques importants, surtout dans le domaine électronique et numérique, le choix entre différents types de détendeur est possible, à savoir entre un :

  • détendeur thermostatique;
  • détendeur électronique.

Détendeur thermostatique

Le choix d’un détendeur thermostatique est dicté, pour la plupart des cas, par un choix économique au niveau de l’investissement.
Avantages et inconvénients des détendeurs thermostatiques :

(+)

  • ne nécessite que très peu de matériel, à savoir :
    • le détendeur proprement dit intégrant la mesure de la température de condensation;
    • le bulbe et son capillaire mesurant la température du fluide réfrigérant à la sortie de l’évaporateur.
  • un coût d’investissement faible;
  • une très bonne fiabilité;
  • un réglage relativement simple;
  • un coût de maintenance également plus faible;

(-)

  • ne travaille correctement qu’à des Δp faibles en réduisant le taux de remplissage de l’évaporateur;
  • sa régulation n’est pas très fine par rapport à celle des détendeurs électroniques;
  • précision limitée dans la mesure de la surchauffe.

Détendeur thermostatique.
(Source : Danfoss).

Détendeur électronique

Le détendeur électronique n’est à proprement parlé pas une toute nouvelle technologie. Pourtant, même à l’heure actuelle, dans beaucoup de projets, les concepteurs proposent encore trop souvent les détendeurs thermostatiques.
Le « nerf de la guerre » est naturellement son coût. Les constructeurs sont clairs à ce niveau. Mais bien qu’il y ait encore des différences de prix au désavantage des détendeurs électroniques, les constructeurs annoncent des temps de retour simple entre 1 et 2,6 ans pour le choix d’un détendeur électronique par rapport à un thermostatique lorsque l’on prend en compte sa capacité à optimiser le fonctionnement de l’évaporateur.

(+)

  • très grande fiabilité;
  • optimise la surchauffe dans l’évaporateur;
  • peut être interfacé avec un régulateur qui permet de centraliser la régulation de tous les composants du circuit frigorifique et optimiser le fonctionnement de l’ensemble de l’installation;
  • travaille correctement à des Δp faibles lorsque l’on veut travailler à des pressions de condensation faibles (amélioration de la performance du compresseur);

(-)

  • coût élevé;

Comparaison des détendeurs électroniques et thermostatiques

Pas de doute que la technologie du détendeur électronique avance considérablement. L’avantage du détendeur électronique, associé avec une régulation électronique générale du meuble permet d’optimiser le passage du fluide frigorigène suivant la charge de l’évaporateur.

Schéma avantage du détendeur électronique 1.

Schéma avantage du détendeur électronique 2.

En fait c’est la régulation de la surchauffe à la sortie de l’évaporateur qui conditionne l’ouverture ou la fermeture du détendeur. Cette régulation « auto-adaptative » se base sur le principe que l’évaporateur de chaque meuble du magasin a une valeur minimale de surchauffe stable qui évolue en fonction de la charge Q0 de l’évaporateur.
Plus la réponse du détendeur « colle » avec la courbe de valeur minimale de surchauffe stable, meilleure sera l’efficacité de l’évaporateur et du compresseur; ce qui est le cas des détendeurs électroniques.

Techniques

Pour en savoir plus sur la comparaison entre les détendeurs thermostatiques et électroniques, cliquez ici!

Selon un fabricant d’équipement de régulation, le choix d’un détendeur électronique permettrait de réduire de l’ordre de 12 % les consommations énergétiques des compresseurs.


Dimensionnement du détendeur

Suivant le type de réfrigérant, qu’ils soient thermostatiques ou électroniques, la règle de sélection des détendeurs appliquée par un fabricant de meubles frigorifiques se base sur :

  • la puissance utile et la température d’évaporation en chambre d’essai pour une classe d’ambiance 3 (25°C, 60 % HR d’humidité relative);
  • une pression de condensation correspondant à la température de 35°C;
  • un sous-refroidissement de 10 K.

Les données frigorifiques sont établies pour des meubles ayant des détendeurs réglés pour obtenir une surchauffe de l’ordre de 5 K.

En détente directe, considérant que le détendeur fait partie d’un circuit dont les équipements ont une influence directe les uns sur les autres, son dimensionnement doit tenir compte aussi de la pression et, par conséquent, de la température de condensation. Avec les nouvelles techniques électroniques de régulation en mode « flottant » (variation de vitesse du compresseur et des ventilateurs du condenseur), on essaye de maintenir la température de condensation à des valeurs proches de 20°C, ce qui permet d’améliorer de manière importante l’efficacité du cycle frigorifique.

Schéma technique.

Régulation complète du cycle frigorique et en particulier la régulation en pression « flottante » de condensation.

Une température ou pression faible au niveau de la ligne liquide (après le condenseur) peut entraîner un fonctionnement aléatoire dans le cas du choix d’un détendeur thermostatique. En effet, pour que le remplissage de l’évaporateur soit correct en fonction de la charge frigorifique, un détendeur thermostatique nécessite une pression différentielle entre son entrée et sa sortie minimum.
Le problème peut être résolu par le choix d’un détendeur électronique surdimensionné en terme de débit. En effet pour une même puissance frigorifique nécessaire pour alimenter l’évaporateur, un détendeur électronique surdimensionné pourra travailler à des pressions d’entrée faibles tout en maintenant un remplissage correct de l’évaporateur.
Un fabricant annonce un temps de retour de l’ordre de 2,6 ans pour le dimensionnement d’un détendeur électronique de capacité frigorifique nominale double de celle initialement choisie.

Exemple

Un fabricant annonce un temps de retour de l’ordre de 2,6 ans pour le dimensionnement d’un détendeur électronique de capacité frigorifique nominale double de celle initialement choisie.

On voit sur le diagramme ci-dessus que :

  • Le modèle de base a d’abord été choisi pour donner une puissance frigorifique de l’ordre de 21 KW.
  • Le modèle surdimensionné peut donner la même puissance frigorifique que le modèle de base, mais pour des pressions différentielles très basses (de l’ordre de 2 bars).

Chauffage [Concevoir l’avant-projet]

Chaudière à brûleur radiant modulant avec ventilateur ?
Circulateur à vitesse variable ?

Plafond chauffant ?
Vanne thermostatique ?


Décomposer la réflexion en 4 postes

Pour faciliter la tâche, décomposons l’installation de chauffage en 4 parties :

  1. production de chaleur,
  2. distribution de chaleur,
  3. émission de chaleur,
  4. régulation.

Cela permet de visualiser directement les qualités à atteindre par l’installation, en termes de pertes à minimiser :

Objectifs d’une installation de chauffage de qualité : cliquez sur les boutons ci-dessus pour visualiser les différentes pertes, et donc les objectifs de qualité.


La production de chaleur

Production de chaleur
Une réflexion préalable, faut-il investir dans une cogénération chaleur + électricité ? Oui, si les besoins de chaleur du bâtiment sont élevés.

Un cogénérateur produit simultanément de l’énergie électrique et de la chaleur pour le bâtiment. Le premier avantage de la cogénération est d’ordre énergétique : entre 15 et 30 % d’économie d’énergie primaire sur les besoins totaux. Mais l’avantage de la cogénération est aussi financier, dans la mesure où elle permet à l’utilisateur de réduire sa facture électrique.

Photo cogénérateur.

La cogénération : pour qui ?

Incontestablement, le premier secteur concerné par la cogénération est le secteur hospitalier. Les besoins thermiques d’un hôpital sont élevés et relativement constants. Il faut en effet produire de l’eau chaude sanitaire tout au long de l’année et bien souvent chauffer les chambres même en été. De plus, la demande électrique d’un hôpital est relativement importante. Le secteur hospitalier permet dès lors d’envisager la mise en place d’unités de cogénération puissantes dont le prix d’installation par kW est intéressant.

Le secteur hôtelier présente des caractéristiques similaires, seules les tailles des installations varient.

Un autre secteur qui mérite un intérêt particulier est le secteur sportif et plus particulièrement le secteur des piscines. Le profil de leurs besoins thermiques et électriques est intéressant pour une cogénération. Malheureusement, les tailles de ces installations sont faibles et demandent des moteurs de faible puissance dont les coûts sont élevés. Ce handicap est compensé, dans certains cas très largement, par les subsides auxquels peuvent prétendre les piscines (Infrasport, AGEBA dans certains cas).

L’intérêt de la cogénération pour les nouveaux immeubles de bureaux (banques, administrations,…) est beaucoup plus faible. La difficulté réside dans le peu de demande de chaleur en journée (dans un bâtiment bien isolé, le chauffage est essentiellement concentré sur la relance du matin, alors que les besoins électriques sont répartis tout au long de la journée). Mais chaque cas est particulier et mérite d’ être étudié avec soin.

Concevoir

Pour plus d’informations sur la mise en place d’une cogénération, cliquez ici !

Production de chaleur
Quel choix de combustible ? Le gaz sort gagnant.

Le débat se situe généralement entre le fuel et le gaz naturel.

Raccordement au gaz ou placement de citernes à mazout ?

Pour notre part, nous pouvons résumer le choix comme ceci :

  • Si la priorité est donnée à l’efficacité énergétique et à la réduction de l’émission de gaz à effet de serre, le gaz naturel, en particulier avec les chaudières à condensation, est largement gagnant.
  • Si la priorité est donnée à la rentabilité de l’investissement, le fuel se défend. Il a été, en moyenne, moins cher que le gaz ces dernières années. Mais son avenir est instable.
  • Si le réseau de gaz naturel n’est pas présent, la question ne se pose plus : le gaz en bonbonne est nettement plus cher à l’usage et, suite à son bilan écologique défavorable, l’électricité ne doit pas être utilisée pour le chauffage direct, ni des locaux, ni de l’eau chaude sanitaire. On sera d’ailleurs très attentif à éviter les « appoints » électriques sur les unités terminales (bouches de pulsion d’air, par exemple).

Concevoir

Pour plus d’informations sur le choix entre fuel et gaz naturel, cliquez ici !

Alternative : envisager le chauffage au bois ? Oui, en région forestière.

Le chauffage au bois d’un groupe de bâtiments dans une région boisée est écologiquement très intéressant, par exemple via l’exploitation des taillis des bois communaux. Il est par contre peu imaginable de développer un tel projet en milieu urbain.

Nous n’avons pu développer ici les techniques de chauffage au bois pour le secteur tertiaire. Nous vous recommandons de contacter une équipe spécialisée dans ce domaine :

ERBE asbl (Equipe Régionale Biomasse Énergie).
Tel : 081 627 144

L’APERe (Association pour la Promotion des Energies Renouvelables) vous conseille encore d’autres Sites web :

Alternative : envisager la pompe à chaleur ? Oui, si source de chaleur disponible.
Le bilan global d’une pompe à chaleur est « neutre » aujourd’hui :

  • En moyenne annuelle, elle produit 2,5 à 3 kWh de chaleur pour 1 kWh électrique au compresseur,
  • mais pour obtenir 1 kWh en centrale, il aura fallu utiliser 2,5 à 3 kWh de combustible ou d’énergie nucléaire,
  • et le prix du kWh électrique est 2,5 fois plus élevé que le prix du gaz naturel ou du fuel…

Mais il se peut que l’existence d’une source de chaleur particulière fasse pencher la balance dans un sens très favorable. Ainsi, il nous paraît intéressant d’étudier la pertinence du placement d’une pompe à chaleur :

  • Si l’on prévoit dans plusieurs locaux des apports internes élevés durant l’hiver : salle informatique, locaux intérieurs, locaux enterrés, locaux avec équipements forts dispensateurs de chaleur tels que salle de radiographie, imprimerie,… (la chaleur extraite de ces locaux pourra être restituée vers les locaux demandeurs en façade).
  • Si le bâtiment comprend des locaux chauds et humides (piscine, buanderie, …).
  • Si le bâtiment provoque des rejets thermiques vers l’extérieur durant tout l’hiver (process industriel, extraction d’air vicié à fort débit,…).

Concevoir

Pour plus d’informations sur les domaines d’application de la pompe à chaleur, cliquez ici !

Production de chaleur :
Opter pour les chaudières à très basse température et/ou à condensation.

Un rendement maximum de la chaudière ? La garantie d’une bonne utilisation de la chaleur du combustible est de constater … que les fumées sortent froides de la chaudière ! Et que la chaufferie reste froide elle aussi. De là, les chaudières à très basse température.

Pratiquement toutes les chaudières sur le marché sont de bonne qualité, pour le secteur tertiaire (moyenne puissance). Une technique sort du lot : la chaudière gaz à condensation. Une technique est aujourd’hui à rejeter : la chaudière gaz atmosphérique.

photo principe de l'échangeur d'une chaudière à condensation. Depuis quelques années, on développe des « chaudières à condensation » : les fumées passent au travers d’un échangeur alimenté par l’eau froide revenant des radiateurs. Or les fumées contiennent de l’eau, à l’état de vapeur. Cette vapeur va condenser, former des gouttes (à évacuer vers l’égout) et préchauffer l’eau froide. Cette technique peut apporter en pratique de 6 à 9 % d’amélioration de rendement. Mais elle n’est courante que pour le gaz.

Pour le fuel, la présence de soufre va rendre les gouttes très corrosives et demander l’usage de chaudières inox, très coûteuses. Mais on en parle de plus en plus.

Photo d'un brûleur de chaudière atmosphérique. Une chaudière atmosphérique est une chaudière dont le brûleur ne possède pas de ventilateur : la flamme bleue est visible directement.

Problème : cette chaudière reste en contact avec l’air ambiant une fois la flamme éteinte. Or le foyer est chaud et est surmonté de la cheminée !
Conclusion : l’air de la chaufferie s’engouffre dans le foyer, appelé par le tirage thermique. Et l’eau de chauffage parcourant le foyer se refroidit en pure perte…

De l’apport d’air comburant étant naturel, le réglage de la combustion est moins performant.

Quelle technologie ? Notre sélection :

Voici les orientations que nous considérons être actuellement les plus performantes (en matière de consommation énergétique et de protection de l’environnement) pour le choix d’une chaudière :

Si le gaz est disponible :

Choix d’une chaudière gaz à condensation ou la combinaison d’une chaudière à condensation avec une chaudière traditionnelle,

  • équipée d’un brûleur modulant (avec une grande plage de modulation : de 10 à 100 %) et avec un dosage entre l’air comburant et le gaz le plus précis possible sur toute la plage de modulation,
  • raccordée à un circuit hydraulique favorisant au maximum la condensation (c’est-à-dire le retour d’eau très froide) et le plus simple possible de manière à éviter les erreurs de conception et de régulation (chaudière ne nécessitant pas de débit minimal),
  • avec les émissions de NOx les plus faibles possible, et en tout cas < 150 [mg/Nm³].

Si le gaz n’est pas disponible :

  • pouvant travailler à très basse température,
  • équipée d’un brûleur « Low NOx » à 2 allures,
  • équipée d’un compteur fuel.

S’il est imaginé que l’occupation puisse être très variable :

Si certaines personnes restent le soir pour prolonger leur travail, si une garde est organisée (conciergerie), … une production spécifique (décentralisée) pourra être imaginée dès le départ du projet (convecteur gaz indépendant, par exemple).

Production de chaleur :
quel dimensionnement ?

Avec les chaudières modernes performantes, dont le brûleur est vendu séparément de la chaudière, le surdimensionnement de la chaudière n’est plus à combattre à tout prix. En effet, l’isolation est devenue telle que ce surdimensionnement n’apporte guère de pertes supplémentaires. Au contraire, un corps de chaudière surdimensionné par rapport à la puissance du brûleur entraîne une augmentation du rendement de combustion.

Pour la même raison, il n’est plus nécessaire de dissocier la puissance à installer en plusieurs chaudières. S’il n’y avait le souhait d’assurer en permanence du chauffage en cas de panne, on recommanderait de placer une grosse chaudière unique équipée d’un brûleur 2 allures ou modulant, ce qui diminuerait l’investissement tout en permettant un rendement optimal.

La puissance utile de l’installation sera dimensionnée sur base de la norme NBN B62-003. L’application de cette norme conduit en outre à un surdimensionnement suffisant pour permettre une relance en cas de chauffage intermittent, ce, même dans la cas d’un bâtiment très isolé. Il ne sert donc à rien de prévoir une réserve de puissance complémentaire pour la chaudière et son brûleur.

Concevoir

Pour plus d’informations sur le choix de la production de chaleur, cliquez ici !

La distribution de chaleur

Distribution de chaleur : favoriser l’eau

Le fluide caloporteur (entre chaudière et émetteurs) sera de préférence l’eau : plus flexible, demandant moins d’énergie de transport que l’air, et permettant un passage éventuel futur d’une énergie à une autre (contrairement à l’électricité).

Distribution de chaleur : sept critères de qualité

1° – Le réseau sera décomposé en zones thermiquement homogènes (même horaire d’occupation, même nécessité de dérogation, même orientation, même type de corps de chauffe) : à chaque zone son circuit et sa régulation.

Ainsi, si une bibliothèque est prévue dans une école, elle doit disposer de son propre circuit hydraulique, afin de garantir une régulation adaptée (ne chauffer que la bibliothèque le samedi matin, par exemple). De même pour la salle de gym, pour le réfectoire, pour la salle de réunion, pour la cuisine, … Cet investissement dans des tuyauteries supplémentaires permettra dans le futur d’optimiser la régulation des différentes zones.

Exemple de décomposition en zones homogènes pour une école.

De même, lors de la conception d’un immeuble de bureaux, on imaginera de pouvoir chauffer chaque étage indépendamment des autres (utilisation de WE, multi-locataires, …).

2° – Les tuyauteries et les vannes seront très bien isolées dans le sol, à l’extérieur ou dans des espaces ne faisant pas partie du volume protégé (volume chauffé) du bâtiment (chaufferie, grenier, sous-sol, …). On isolera de même toutes les conduites de chauffage se trouvant dans les faux plafonds, les locaux techniques ou les gaines techniques, même si ceux-ci font partie du volume protégé du bâtiment. De même, les circulateurs à rotor noyé seront munis d’origine d’une coquille isolante.

Ordres de grandeur :

  • Dans une ambiance à 20°C, la perte de 1 m de tuyau de 1 pouce non isolé avec de l’eau de chauffage est équivalente à la consommation d’une ampoule de 60 W !
  • L’épaisseur d’isolation sera plus ou moins équivalente au diamètre du tuyau.

3° – Un circulateur à vitesse variable sera placé sur un réseau équipé de vannes thermostatiques : il est logique que si la température est atteinte dans un local, le débit d’eau dans le radiateur soit stoppé par la vanne thermostatique (ou par une vanne 2 voies dans les ventilo-convecteurs). Mais alors, si plusieurs vannes sont fermées, la pompe de circulation doit diminuer sa vitesse de rotation : c’est le cas des circulateurs à vitesse variable.

Vanne thermostatique et circulateur à vitesse variable, deux équipements à associer…

4° – Des vannes d’équilibrage seront prévues au départ des circuits secondaires : vu le calcul très approché des tuyauteries, il est heureux de prévoir ce répartiteur global entre les différents circuits. De plus, c’est ce qui va permettre de régler les circulateurs à leur bonne vitesse nominale (en pratique, il apparaît que les circulateurs sont en moyenne 2 fois trop puissants –> la première économie générée par un circulateur à vitesse variable est de pouvoir bien régler le débit maximal). L’économie sur la consommation du circulateur amortit rapidement cet outil.

Possibilité de mesure du débit réel.

5° – Les tuyauteries seront choisies suffisamment larges : il est dommage de choisir des tuyauteries de faible section, … puis de consommer de l’énergie pour y faire passer malgré tout un débit d’eau important.
Ordre de grandeur : le dimensionnement du réseau de distribution doit être tel que la puissance électrique des circulateurs ne dépasse pas le millième de la puissance utile des chaudières.

6° – Les circulateurs seront arrêtés lorsque la demande est nulle : en fonction de la programmation (nuit, week-end, vacances) et en fonction de la température extérieure (coupure si t°ext> à 15°C, par exemple).

7° – Un circuit de réserve est placé dès le départ : l’emplacement pour un circuit supplémentaire est à prévoir sur la boucle primaire afin d’éviter des « repiquages » d’installations ultérieurs.

Distribution de chaleur : pour les chaudières à condensation, bien étudier le circuit.

Pour bénéficier de la condensation des fumées, il faut disposer d’eau de retour très froide. Toute possibilité de recyclage d’eau chaude directement vers la chaudière doit être évitée. En d’autres mots, il faut éviter les bouteilles casse-pression, les collecteurs bouclés, les soupapes de pression différentielle, les vannes 3 voies diviseuses.

Exemples de situations défavorables…

Or certains fabricants imposent un recyclage (un bypass) car leur chaudière est à faible capacité d’eau et donc nécessite un débit d’eau permanent ! C’est peu compatible avec un retour d’eau très froide …

Il vaut mieux sélectionner une chaudière dont la capacité en eau est élevée et qui ne demande pas de débit permanent. Sa chaudière est une « grosse marmite » dont la flamme peut s’enclencher sans risque s’il n’y a pas de circulation d’eau. En quelque sorte, la bouteille casse-pression est intégrée dans la chaudière.

Circuit favorable au retour d’eau froide vers la chaudière.

Un circuit primaire ouvert est alors recommandé. Et seules les pompes secondaires alimentent les réseaux. Encore une économie.

Concevoir

Pour plus d’informations sur la distribution du chauffage, cliquez ici !

L’émission de chaleur

Émission de chaleur : favoriser la basse température

Au départ, il faut se rendre compte que, dans un immeuble récent bien isolé, la performance des différents types d’émetteurs sera toujours assez bonne. Grâce à l’isolation, la température intérieure est assez homogène, quel que soit le moyen de chauffage.
Photo chauffage par le sol.

Idéalement, pour assurer le rendement optimal de la chaudière (et tout particulièrement la condensation), il faut travailler avec un fluide caloporteur à la plus basse température possible. Et donc, disposer de la surface d’émission la plus grande possible.

Ceci conduit inévitablement au chauffage par le sol. Hélas, ce système présente par ailleurs beaucoup d’inconvénients dont l’inertie, ce qui le rend inadapté lorsque les besoins sont variables dans le temps ou en intensité (à ne pas installer dans une école, ou un restaurant, ou une salle de réunion, ou dans un local avec des larges baies vitrées…).

Finalement, le radiateur réalise le bon compromis entre apport par rayonnement et par convection, et, s’il est largement dimensionné (sur base d’un régime 80° – 60°), il permettra des retours froids la majeure partie de l’année.

Bien sûr, un radiateur devant une allège vitrée ne devrait jamais exister…

Synthèse des critères de choix

Le chauffage par le sol est intéressant :

  • dans des locaux situés au-dessus de locaux chauffés,
  • non soumis à des apports de chaleur importants et variables (occupants, soleil, …),
  • à usage continu (de type hébergement).

Il peut apporter une réponse adéquate aux locaux de grande hauteur, où le chauffage à air chaud sera moins adéquat (stratification).

Le chauffage par convecteur convient dans des locaux avec une variation de charge fréquente (local ensoleillé, local de réunion).

Dans tous les autres cas, le chauffage par radiateurs est le meilleur compromis confort/consommation.

À noter qu’en rénovation, les anciens radiateurs pourront souvent être conservés vu leur surdimensionnement fréquent, favorable à un fonctionnement à basse température.

Concevoir

Pour plus d’informations sur le choix d’un émetteur de chauffage

La régulation de chaleur

Régulation de chaleur : c’est le point clef de la consommation énergétique.

Nous sommes à l’époque du « just in time » de la production de chaleur. Les régulateurs sont suffisamment intelligents que pour ne produire que la chaleur « juste nécessaire », à la température minimale souhaitée, au bon moment. Il est impératif de réserver un budget important à la qualité de la régulation. Qualité ne veut pas dire sophistication. Au contraire, la bonne gestion future sous-entend des systèmes simples.

Une sonde extérieure (complétée par une sonde d’ensoleillement au Sud)
et une sonde d’ambiance (dite « de compensation ») définissent les besoins des locaux.
Elles demandent à la vanne 3 voies mélangeuse de s’ouvrir en conséquence.

Le système de régulation doit permettre de :

  • Chauffer distinctement chaque zone de locaux dont l’usage est distinct.
    Par exemple, la bibliothèque, la cafétéria, la salle de réunion, … auront des régulateurs indépendants des bureaux qui la jouxtent. À ce titre, la vanne thermostatique n’est qu’un complément local de régulation et non l’outil de base (la vanne reste ouverte la nuit, mais une programmation centrale doit arrêter le débit d’eau dans les radiateurs).
  • Programmer le chauffage exclusif d’une zone thermique distincte.
    Par exemple, il doit être possible de chauffer la bibliothèque le samedi, sans alimenter le restant du bâtiment. Dans un immeuble de bureaux, chaque étage doit pouvoir être alimenté séparément, même si un seul exploitant est prévu… au départ.
  • Minimiser la température de l’eau en sortie de chaudières.
    La solution traditionnelle consiste à chauffer l’eau en fonction de l’évolution de la température extérieure. Mais aujourd’hui, il est possible de se limiter à la température maximale demandée par le circuit secondaire de distribution le plus demandeur. Ou encore, dans les bâtiments conditionnés, ce sera le pourcentage d’ouverture des vannes des unités terminales qui seront représentatifs des besoins locaux. Même s’il fait froid dehors, l’occupation réelle du bâtiment peut limiter les besoins… et donc la température de départ de l’eau chaude en chaufferie.
  • Gérer l’intermittence par un régulateur-optimiseur.
    Il assure une coupure complète des circuits de distribution (et éventuellement des chaudières) la nuit et le week-end, avec un contrôle anti-gel interne de sécurité, et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures. Autrement dit, on abandonne le simple « ralentissement nocturne », qui fournit de l’eau tiède dans le bâtiment à minuit, … en pure perte.
  • Arrêter l’apport d’air neuf en période de relance.
    Dans un bâtiment bien isolé, le chauffage de l’air neuf représente 50 % environ des besoins. Il doit pouvoir être arrêté (ou recyclé) en période de relance, avant l’arrivée des occupants, fournissant ainsi un surcroît de puissance pour la montée en température des locaux après la coupure nocturne.
  • Imaginer dès le départ la gestion future par les occupants.
    Comment cela se passera-t-il lorsqu’une réunion sera organisée le soir ? et durant les congés entre Noël et Nouvel An, s’il gèle dehors ? Qui aura accès à quoi ? Est-ce qu’une programmation annuelle ne serait pas pratique pour encoder une fois pour toutes les congés ? et quelle dérogation à cette programmation ?… Autant y penser au départ du projet…
  • Utiliser un détecteur qui sera le témoin des besoins réels.
    Par exemple, autrefois la salle de gymnastique était chauffée du matin au soir. Qu’il y ait quelqu’un ou non dans la salle. Aujourd’hui, c’est le contact dans la serrure de la porte ou un détecteur de présence qui enclenche l’aérotherme lors de l’arrivée du groupe. Vu l’isolation des locaux, la température des locaux passera rapidement de la consigne de veille à la consigne normale.

Lister les besoins des locaux

Au départ, il est important de préciser les demandes de chaque zone. Et de trouver quel sera le témoin de la demande réelle : le thermostat d’ambiance, la température extérieure, un détecteur de présence, … Le fabricant peut répondre à toute demande… si elle est clairement exprimée.

Chaque zone d’occupation et de besoin homogènes, disposant de son propre circuit de distribution, verra la température d’eau régulée, par exemple en fonction d’un thermostat d’ambiance (dans le cas ou un local « témoin » est possible) et/ou d’une sonde extérieure.

Les locaux profitant d’apports de chaleur plus importants que les autres (soleil, occupants, …) seront équipés de vannes thermostatiques, vannes de qualité « institutionnelle » si les locaux sont ouverts au public.

Vanne institutionnelle : le réglage de la consigne n’est pas accessible à l’occupant, elle résiste au choc d’un ballon de basket et ne peut être facilement démontée.

Analogique ou numérique ?

   

Régulateurs analogique et numérique.

Aujourd’hui, une régulation numérique s’impose, car elle permet beaucoup plus facilement une adaptation de la régulation aux besoins, une modification des paramètres, une communication des informations à distance et donc un suivi à distance. 

Concevoir

Pour plus d’informations sur la régulation d’un système de chauffage

Choisir le type d’ascenseur


Critères de choix

Des critères de choix pour équiper un immeuble d’un ou de plusieurs ascenseurs relèvent principalement d’éléments :

  • constructifs tels que la hauteur de bâtiment, l’espace disponible au niveau des étages, la possibilité de placer une salle des machines au sommet de la gaine, stabilité du terrain, …
  • organisationnels comme le type de fonction du bâtiment, son occupation et son type de fonctionnement en garantissant une performance de confort et de trafic (rapport charge/vitesse),
  • de sécurité,
  • énergétique en considérant que la consommation et les appels de puissance doivent être limités,

Hauteur des immeubles

La hauteur de l’immeuble limite radicalement le choix de la technologie des ascenseurs à placer dans le sens où avec les ascenseurs hydrauliques la course est limitée à 18 m (4 à 5 étages).

Un ascenseur à traction s’impose  !

Simplification constructive

Le placement d’équipements en hauteur pose problème, non seulement au niveau de la stabilité mais aussi au niveau accessibilité. En effet, une motorisation placée au sommet de la gaine d’ascenseur :

  • Nécessite de tenir compte du poids de la cabine, des câbles, du contre-poids (il est de l’ordre du poids de la cabine + 50 % de la charge), de la structure de la salle des machines, des équipements de la salle des machines, … Le poids total repose donc sur la structure du bâtiment (colonne ou mur de gaine porteur renforcé) et se reporte au niveau des fondations.
  • Peut imposer un volume construit inesthétique visible sur le toit.
  • Pose un problème d’accessibilité.
  • Réduit la compacité de la gaine (présence de la cabine et du contre-poids) et, par conséquent, la surface utile dans les étages du bâtiment.

   

Système à traction classique.   Système hydraulique.

Heureusement pour les ascenseurs à traction, ces dernières années, la réduction importante du volume et du poids de la motorisation (« gearless » ou sans réducteur) et de sa commande (variateur de fréquence) ont permis de réduire drastiquement le poids et le volume des équipements au point de placer plus ou moins les systèmes à traction sur le même pied que les systèmes hydrauliques.

Performance de trafic

La charge et la vitesse influencent aussi le choix du type d’ascenseur. En effet :

  • Une charge importante à déplacer orienterait plutôt le choix du type d’ascenseur vers la technologie hydraulique, bien que les ascenseurs à traction soient capables de reprendre des charges importantes dans la plupart des applications du tertiaire.
  • Une vitesse de déplacement élevée (jusqu’à 2 m/s pour des ascenseurs d’immeubles tours) imposerait la technologie des ascenseurs à traction.

Ces critères sont établis lors du dimensionnement des installations d’ascenseurs en fonction :

  • de la population susceptible d’occuper le bâtiment,
  • du type de fonction du bâtiment (bureaux, hôpital, …),
  • du type d’occupation (plusieurs services différents, horaire fixe ou flexible),

Sur base de critères de performance tels que :

  • le débit relatif (en % de la population totale de l’immeuble déplacée en 5 minutes),
  • le temps d’attente moyen maximum (en seconde).

Concevoir

Pour en savoir plus sur le dimensionnement des installations d’ascenseurs, cliquez ici !

Performance de confort

Outre le temps d’attente moyen maximum et la vitesse de déplacement de la cabine, d’autres performances de confort interviennent dans le choix d’une technologie :

  • les accélérations et décélérations,
  • les mises à niveau de précision pour rester dans les tolérances conseillées par la norme NBN EN 81 (marche de 5 mm maximum entre le palier d’ascenseur et la cabine),

Sécurité

En terme de sécurité des personnes, par rapport aux risques liés au principe même de la technologie (traction et hydraulique), il n’y a pas de grande différence. Cependant, l’utilisation d’une quantité importante d’huile pour les ascenseurs hydrauliques complique la sécurité incendie et augmente le risque de pollution des sols de la salle des machines et du cuvelage de la fosse (voir la norme NBN EN 81-2 concernant les règles de sécurité pour la construction et l’installation des ascenseurs hydrauliques).

Critère énergétique

À ce niveau, on n’a pas encore parlé de l’énergie (honte à nous !). Pourtant, s’il y a bien un critère qui devrait intervenir dans le choix du type d’ascenseur, c’est le critère énergétique.

La consommation et l’appel de puissance (courant de démarrage) influencent directement le choix d’une technologie. En effet, de par la présence d’un contre-poids dans la gaine d’ascenseur à traction (la masse du contre-poids correspond à celle de la cabine plus 50 % de la charge nominale de la cabine), les consommations et les courants de démarrages sont réduits par rapport aux ascenseurs hydrauliques (à charge et à vitesse égales, la puissance est réduite d’un facteur 3).

Évaluer

Pour en savoir plus sur l’évaluation de l’efficacité énergétique des ascenseurs, cliquez ici !

Choix des ascenseurs à traction

Configuration classique

Ascenseur à traction classique.

Les ascenseurs à traction sont de loin les systèmes les plus couramment utilisés dans les immeubles du tertiaire. On citera comme avantages principaux :

  • la limitation des consommations et des appels de puissance,
  • la réduction des coûts de dimensionnement de l’installation électrique,
  • la maîtrise des chutes de tension sur le réseau,
  • la limitation des coûts de réserve de puissance,
  • une consommation d’huile dérisoire,
  • l’absence de limite de hauteur du bâtiment,
  • la grande plage de variation de vitesse,

Beaucoup d’autres avantages sont à mettre à l’actif des ascenseurs à tractiondepuis la percée des nouvelles technologies appliquées à la motorisation propre aux ascenseurs à traction. En effet :

  • Les moteurs sont de plus en plus compacts, performants et légers (« gearless » ou sans réducteur).
  • Les commandes et régulations de vitesse associée sont, à l’heure actuelle, souples, peu énergétivores et précises (variateurs de fréquence).
  • Les câbles deviennent souples, résistants et surtout légers.

    

Câble plat et câble en fibre de carbone.

Tous ces facteurs font en sorte que le poids de l’ensemble diminue beaucoup et permet d’arriver à des concepts, avec ou sans salle des machines, s’appuyant sur des structures plus légères qu’auparavant.

Les ascenseurs à traction sans salle des machines

  

Acsenseur sans salle des machines et motorisation « gearless ».

Les nouveaux systèmes de tractions, utilisant la technologie de motorisation sans réducteur (« gearless »), permettent d’éviter la conception de salle des machines au sommet de la gaine. Ce type configuration réduit les coûts liés :

  • À l’étude et la conception de la salle des machines.
  • Au surdimensionnement de la structure (stabilité moins contraignante au niveau des colonnes ou des murs porteurs de la gaine).

La construction et le placement d’un ascenseur représentent, d’après un constructeur, 4 à 5 % du coût total de construction d’un immeuble (référence à un immeuble d’appartements de 6 à 7 niveaux). Dans le secteur tertiaire, le coût engendré par les ascenseurs risque d’être encore plus conséquent sachant que le trafic est plus intense et donc les charges des cabines. La construction d’ascenseur sans salle des machines permet de réduire l’investissement de départ de l’ordre de 25 % (chiffre annoncé par un constructeur).

Le graphique suivant traduit les avantages financiers de la conception sans salle des machines :

Concevoir

Pour en savoir plus sur le choix de la motorisation des ascenseurs à traction, cliquez ici !


Choix des ascenseurs hydrauliques

Le choix d’un ascenseur hydraulique sera retenu lorsque :

  • la hauteur de l’immeuble est limitée à approximativement 18 m (4 à 5 étages),
  • la charge admissible est importante,
  • la vitesse n’est pas un critère de performance de trafic,

Cependant, comme vu ci-dessus, la motorisation de l’ascenseur hydraulique présente quelques gros inconvénients :

  • L’absence du contre-poids impose à l’ascenseur hydraulique de supporter la charge complète de la cabine. Des systèmes avec contre-poids ont été adaptés sur des ascenseurs hydrauliques, améliorant ainsi la consommation et les appels de puissance de la motorisation. Cependant, ce système perd de son intérêt puisqu’il impose le placement d’une suspension, une gaine de section plus imposante, …
  • La nécessité d’un local technique en sous-sol.
  • Les consommations sont plus importantes (de l’ordre de 170 %).
  • Les appels de puissance du groupe moto-pompe dépassent largement celles des motorisations à traction (appel de puissance 3 fois supérieur par exemple).
  • La présence d’huile en quantité importante impose des normes constructives exigeantes (cuvelage, local des machines avec ventilation adéquate, réglementation incendie sévère, …).

Au vu des nombreux inconvénients cités ci-dessus, le choix des ascenseurs hydrauliques reste marginal.

Concevoir

Pour en savoir plus sur le choix de la motorisation des ascenseurs hydrauliques, cliquez ici !

Configurations classiques

Essentiellement, on retrouve les ascenseurs avec vérin enterré et apparent. Les différents modèles permettent de tenir compte de critères :

  • de place,
  • de hauteur d’immeuble à desservir,
  • de stabilité de sol et de sous-sol,
  • de risque de pollution par rapport au sol et plus spécifiquement aux nappes phréatiques,
  • d’esthétique,

  

Vérin enterré et vérin apparent.

Techniques

  Pour en savoir plus sur les types d’ascenseurs hydrauliques, cliquez ici !

Choisir les auxiliaires de distribution

Choisir les auxiliaires de distribution


Choix des circulateurs

Photo circulateur.

Point de fonctionnement et choix du circulateur

Le choix du circulateur est le rôle de l’auteur de projet (le bureau d’études) et fait suite au calcul des déperditions du bâtiment et des pertes de charge du réseau de distribution.

Concevoir

Pour en savoir plus sur les critères de dimensionnement du réseau de distribution et des circulateurs, cliquez ici !

Le circulateur sera choisi pour que son point de fonctionnement soit dans la zone de rendement maximal. Malheureusement, pour les petits et moyens circulateurs, les courbes de rendement ne se retrouvent pas dans la documentation des fabricants. Dès lors, il faut retenir que la zone de rendement maximal se situe généralement au milieu de la courbe caractéristique du circulateur (entre le 1er et le 2ème tiers de la courbe caractéristique).

Zone de rendement maximal d’un circulateur à 3 vitesses.

Dans le choix, il faudra tenir compte de la présence de vannes thermostatiques ou de vannes de réglage à 2 voies (par exemple sur des ventilos-convecteurs).

Courbes caractéristiques d’un circulateur et d’un circuit de distribution.
Lorsque les vannes thermostatiques se ferment le point de fonctionnement passe de A à B.
Le rendement du circulateur reste au voisinage de son maximum.

Notons que le cahier des charges type 105 de la régie des bâtiments impose aux grosses pompes un rendement minimal (par ailleurs élevé par rapport au matériel disponible sur le marché)&nbs

Puissance utile (Put) Rendement minimal
put > 7,5 kW 80 %
7,5 kW > put > 3,5 kW 75 %
3,5 kW > put > 2 kW 70 %

Evidemment, on ne trouvera jamais (à l’exception des circulateurs à débit variable) un circulateur dont la courbe caractéristique passe exactement sur les caractéristiques de pression et de débit calculées.

En pratique, le concepteur choisit souvent le circulateur dont la courbe caractéristique passe juste au-dessus du point de fonctionnement théorique.

Ce choix implique presque toujours un surdimensionnement d’environ 40 % (et une consommation électrique 3 fois trop élevée (règles de similitude)). En effet :

  • La puissance thermique à fournir qui conditionne le calcul du débit nécessaire est, au départ, toujours exagérée (imprécision dans le calcul des déperditions, marges de sécurité, …).
  • Le calcul des pertes de charge comprend des facteurs de sécurité par exemple dans le calcul des pertes de charge singulières.
  • En rénovation, lorsque l’on calcule le débit à fournir sur base d’une puissance de chauffage installée qui est le plus souvent excessive (chaudière, corps de chauffe).

Le bon sens « énergétique » veut donc que la courbe caractéristique du circulateur soit plutôt choisie juste en dessous et le plus près possible du point de fonctionnement théorique.

Exemple.

Le plus souvent, le circulateur possède plusieurs vitesses (par exemple 3).

Choix d’un circulateur à 3 vitesses.

On choisira celui pour lequel le point de fonctionnement théorique se situe juste au-dessus de la courbe correspondant à la vitesse maximale.

Il faut préférer un plus petit circulateur travaillant à sa vitesse maximale qu’un circulateur plus gros travaillant à vitesse réduite. La consommation de ce dernier sera toujours plus élevée.

Le cas échéant, cela permettra, en outre, de diminuer la vitesse de fonctionnement pour corriger un surdimensionnement lié aux imprécisions de calcul.

Si le circulateur est choisi trop petit, c’est-à-dire si la courbe caractéristique du circulateur passe loin en dessous du point de fonctionnement théorique du circuit, le débit d’eau dans les parties les plus éloignées de l’installation risque d’être insuffisant. Le risque d’inconfort est cependant très faible.

Par contre, si en revanche, le circulateur est trop gros, c’est-à-dire, si sa courbe caractéristique se trouve loin au-dessus du point de fonctionnement théorique, cela entraînera une surconsommation électrique et favorisera les problèmes de circulation et les nuisances acoustiques.

En conclusion, il ne faut jamais surdimensionner un circulateur.

Il faut bannir le principe en vigueur mais tout à fait erroné qui veut que « plus c’est gros, mieux ça vaut » : « choisissons plus grand, on ne sait jamais… ».

Concevoir

Pour vérifier le dimensionnement des circulateurs, cliquez ici !
Exemple :

Trop peu de chaleur, pompe trop petite ?

Que se passe-t-il si on installe une pompe plus petite que ce qu’indique le dimensionnement ?

Le diagramme d’émission des corps de chauffe montre qu’en réduisant de 50 % le débit d’un radiateur, la puissance émise n’est réduite que de 20 %.

Puissance émise par un radiateur dimensionné en régime 90/70 en fonction de son débit (débit nominal = 100 %).

La perte de puissance est encore plus faible si la température de l’eau varie en fonction des conditions météo. Par exemple, pour un radiateur fonctionnant avec un régime d’eau 60/50, une réduction du débit d’eau de 30 % ne diminue que de 2 % la puissance du radiateur.

Pompe plus grande, plus de chaleur !

Cette inversion de la phrase est tout aussi fausse. Un débit plus important n’apporte qu’un faible supplément de chaleur. Par contre surdimensionner le débit des pompes peut entraîner des problèmes hydrauliques, souvent source d’inconfort dans certains circuits.

Évaluer

Pour en savoir plus sur les problèmes hydrauliques liés au surdimensionnement des circulateurs, cliquez ici !

Si le choix de la pompe la plus adaptée n’est pas possible, on choisira une pompe plus puissante et on augmentera la perte de charge du circuit par l’installation d’une vanne de réglage sur la conduite.

Protection du circulateur

Cavitation

La cavitation est la formation de bulles de vapeur qui éclatent dans certaines zones de la roue d’un circulateur. Ce phénomène est source de bruit, réduit la hauteur manométrique du circulateur et endommage le circulateur.

Roue de pompe très fortement endommagée par la cavitation.

Il apparaît lorsqu’une dépression est entretenue à l’aspiration du circulateur. C’est pourquoi, une pression minimale à maintenir à cet endroit, appelée NPSH, est mentionnée par les fabricants dans leur catalogue. Cette pression est entretenue grâce au vase d’expansion.

Cette donnée n’est importante que :

  • dans une construction basse (la hauteur entre le point le plus haut et le point le plus bas de l’installation est réduite),
  • pour une chaufferie disposée en toiture,
  • lorsque la hauteur et/ou la distance entre le vase d’expansion et le circulateur et/ou la chaudière sont grandes.

Corrosion

Les circulateurs sont pour la plupart protégés contre les effets de la corrosion directe. Par contre, ils peuvent être victimes de phénomènes survenus dans le reste de l’installation. En effet, le circulateur est un organe de précision en mouvement constant qui supporte mal la présence d’impuretés, de tartre et de produits de la corrosion. Ceux-ci provoquent l’usure des paliers et s’accumulent entre le rotor et la chemise d’entrefer.

Il en résulte un accroissement du frottement pouvant aller jusqu’au blocage. L’usure de la chemise d’entrefer peut aller jusqu’à la perforation, noyant le stator et provoquant un court-circuit.

Ces phénomènes sont de plus en plus importants avec les nouveaux circulateurs noyés car les vitesses augmentent et les tailles se réduisent. Il en va de même pour les différents orifices d’écoulement de l’eau dans le moteur. Les circulateurs sont donc de plus en plus sensibles aux impuretés présentes dans l’eau.

Ainsi, il faut tout mettre en œuvre pour limiter la corrosion dans l’installation et celle-ci doit être soigneusement rincée avant la mise en route. Le placement d’un filtre, en amont du circulateur est également conseillé.

Photo de filtres.

Filtres.

Améliorer

Améliorer la maintenance et limiter les risques de corrosion.

Présence d’air

La présence d’air dans l’installation engendre, outre des problèmes de corrosion, une usure accélérée des coussinets du circulateur. Ceux-ci se grippent.

Pour éviter cela, il faut être attentif à :

  • ne pas placer un circulateur au point le plus élevé de l’installation,
  • placer des purgeurs aux points hauts.

De plus, incorporer un séparateur d’air sur le circuit constitue toujours un avantage supplémentaire. Certains circulateurs sont équipés d’origine d’une purge d’air automatique.

Isolation des circulateurs

Circulateur équipé d’origine d’une coquille isolante.

Les circulateurs, comme les vannes présentent des pertes de chaleur non négligeable. Les isoler par soi-même est peu recommandé car on risque de ne pas respecter les exigences de refroidissement des moteurs. Il est donc recommandé d’installer des circulateurs équipés d’origine d’une coquille isolante.

Régulation des circulateurs

Vitesse variable

Circulateur à vitesse variable.

Le choix de circulateurs à vitesse variable se justifie d’abord parce qu’ils permettent un réglage correct du débit lors de l’installation, évitant ainsi les « 40 % » de surdébit traditionnels avec des circulateurs à vitesse fixe.

Exemple.

Un circulateur doit fournir 8,6 m³/h pour une hauteur manométrique de 6 mCE (ou 0,6 bar ou 60 000 Pa).

Si on choisit un circulateur traditionnel à 3 vitesses, la vitesse réelle ne correspondra jamais au point de fonctionnement calculé.

Par exemple, comme on le fait encore souvent, on choisit une courbe caractéristique passant au-dessus du point de fonctionnement calculé.

Courbes caractéristiques du circulateur à 3 vitesses choisi.

Pour satisfaire les besoins, le circulateur sera réglé en vitesse 3 et absorbera une puissance électrique de l’ordre de 540 W. Son débit réel sera de 9,6 m³/h au lieu des 8,6 souhaités.

Si les radiateurs sont équipés de vannes thermostatiques, le surdébit se corrigera de lui-même. La pression dans le circuit augmentera, créant une gêne acoustique permanente et la surconsommation restera présente.

Par contre, si on choisit un circulateur à vitesse variable, la vitesse peut être réglée pour obtenir le point de fonctionnement souhaité.

Courbes caractéristiques du circulateur à vitesses variable
(remarque : on y constate la vitesse réglable en fonctionnement de nuit « min »).

La puissance absorbée par le circulateur est de l’ordre de 420 W.

Sur la saison de chauffe, le gain réalisé est de :

(540 [W] – 420 [W]) x 5 800 [h/an] = 696 [kWh/an] ou environ 45 [€/an] (à 6,5 [cents €/kWh] (heures pleines et heures creuses)).

Sans compter l’imprécision du calcul des pertes de charge qui peut être corrigé par le circulateur à vitesse variable.

Par exemple, si pour le débit de 8,6 m³/h, le bureau d’études a surestimé les pertes de charge de l’installation (8,5 mCE ou 85 kPa au lieu de 6 mCE ou 60 kPa). Le circulateur choisi est plus gros et le débit réellement fourni n’est pas de 8,6 [m³/h] mais de presque 12 [m³/h].

Points de fonctionnement de l’installation réel et calculé par le bureau d’études.
Le circulateur choisi rencontre moins de résistance que prévu. Son débit augmente donc.

La puissance absorbée par le circulateur n’est plus de 540 W mais de 960 W.

Dès lors, le gain réalisé en choisissant un circulateur à vitesse variable et en réglant correctement sa vitesse à charge nominale est de :

(960 [W] – 420 [W]) x 5 800 [h/an] = 3 132 [kWh/an] ou environ 204 [€/an] (à 6,5 [cents €/kWh] (heures pleines et heures creuses))

Pour un surcoût du circulateur à vitesse variable de l’ordre de 400 €.

Prix des circulateurs de la marque « x » (à titre indicatif).

Le deuxième intérêt est de pouvoir réguler la vitesse du circulateur et diminuer la puissance absorbée en fonction des besoins en débit de l’installation.

La régulation de base de la plupart des installations de chauffage dans le secteur tertiaire consiste en :

  • Une régulation de la température de l’eau circulant dans les corps de chauffe, au moyen de vannes mélangeuses.
  • Une régulation du débit circulant dans chaque corps de chauffe au moyen de vannes thermostatiques, de manière à ajuster le réglage dans chaque local individuellement.

C’est dans ce type d’installation que se justifie le plus les circulateurs à vitesse variable, en lieu et place de la traditionnelle soupape de pression différentielle.

Soupapes différentielles placées sur des circuits équipés de vannes thermostatiques.

Il est difficile d’estimer le gain supplémentaire que l’on peut ainsi réaliser. En effet, cela dépend de la réduction totale de débit résultant du fonctionnement des vannes thermostatiques (ou de vannes 2 voies de régulation, pour les ventilos convecteurs) et qui est fonction de la quantité d’apports gratuits dont bénéficient les différents locaux. Pour fixer les idées nous nous baserons sur l’exemple précédent :

Exemple.

Considérons un bâtiment nécessitant une puissance de chauffage de 200 kW (débit nécessaire : 8,6 m³/h pour une hauteur manométrique de 6 mCE), répartie en deux façades nord et sud. Un seul circuit dessert l’ensemble de l’immeuble et des vannes thermostatiques sont installées sur les radiateurs de la façade sud pour tenir compte de l’ensoleillement.

En première approximation, on peut se dire que durant 1 000 h/an (durée d’ensoleillement durant la saison de chauffe), les vannes thermostatiques de la façade sud peuvent se fermer, réduisant ainsi de 50 %, le débit nécessaire de l’ensemble du réseau (dans le cas d’une école, les vannes se fermeront quand une classe sera remplie …).

Si en fonction de la fermeture des vannes, le circulateur diminue sa vitesse tout en réduisant linéairement la pression du réseau, sa puissance absorbée passera de 420 [W] à environ 220 [W], ce qui permet une économie de :

(420 [W] – 220 [W]) x 1 000 [h/an] = 200 [kWh/an] ou 22 [€/an] (à 11,16 [cents €/kWh] en heures pleines)

Loi de variation de vitesse

Les circulateurs à vitesse variable peuvent être régulés soit en maintenant une pression constante aux bornes du circulateur, soit en réduisant la pression suivant une loi linéaire.

Lorsque les vannes thermostatiques se ferment, le circulateur réduit sa vitesse pour maintenir une hauteur manométrique constante (le point de fonctionnement passe de B à D) ou en réduisant la hauteur manométrique (le point de fonctionnement passe de B à E).

La pression constante sera appliquée dans les circuits avec tronçon commun (véhiculant l’entièreté du débit) à faible perte de charge (circuit commun court) et dans les installations avec chauffage par le sol régulé pièce par pièce.

La pression décroissante sera appliquée dans les autres cas, c’est-à-dire dans le cas d’un tronçon commun à forte perte de charge (circuit commun long).

Théories

Pour en savoir plus sur la régulation de vitesse des circulateurs en fonction de la fermeture des vannes thermostatiques, cliquez ici !

Arrêt des circulateurs

Si une vanne se ferme (vanne 3 voies) ou si le brûleur s’arrête, signifiant l’absence de besoin de chauffage, par exemple au moment de la coupure nocturne, il est inutile de maintenir les circulateurs en fonctionnement. Cela doit être prévu dans la régulation globale de l’installation, de même qu’une temporisation (d’environ 6 minutes) à l’arrêt pour permettre une évacuation complète de la chaleur contenue dans l’eau.

Les régulateurs permettant cette fonction comprennent généralement aussi une fonction « dégommage » des circulateurs. C’est une fonction qui remet les pompes en marche pendant 30 secondes, par exemple toutes les 24 heures. Pour éviter l’entartrage et le blocage de celles-ci. Cette fonction peut également être appliquée aux vannes motorisées.

Réduction de vitesse

En période de ralenti de chauffage, commandé par la régulation centrale, les vannes thermostatiques s’ouvrent en grand car leur consigne n’est plus satisfaite. C’est paradoxal, les besoins sont alors minimaux et le débit maximal.

Pour éviter cela, les circulateurs électroniques (ou à vitesse variable) offrent la possibilité d’un abaissement de vitesse en période de ralenti de chauffage. Cette régulation permet une diminution importante du débit et de la consommation électrique, notamment la nuit.

La contribution des circulateurs à l’intermittence du chauffage peut donc s’articuler globalement comme suit :

  • arrêt des circulateurs au moment de la coupure et de la fermeture des vannes,
  • fonctionnement en vitesse minimale, une fois la consigne de température de nuit atteinte et maintien du bâtiment à cette température,
  • relance en vitesse maximale.

Courbes caractéristiques d’un circulateur à vitesse variable.
Le passage en vitesse de nuit permet une diminution de la puissance électrique à moins de 150 W.


Cas particulier des hydro-éjecteurs

Traditionnellement, les circuits hydrauliques secondaires sont équipés de vannes mélangeuses à 3 voies et de leur propre circulateur. Il existe une alternative « énergétiquement » intéressante à ce type d’installation : les hydro-éjecteurs.

Installation avec hydro-éjecteurs.

La technique des hydro-éjecteurs s’adapte quasiment à toutes les installations de chauffage. Ils permettent de remplacer, de façon efficace et économique, les installations avec vannes 3 voies mélangeuses et circulateurs secondaires.

Circuit traditionnel, par exemple avec circuit en boucle ouverte et circulateur de by-pass pour garantir un débit minimal dans la chaudière.

Circuit avec hydro-éjecteurs.

Investissements évités pour une installation avec hydro-éjecteurs Investissements supplémentaires pour une installation avec hydro-éjecteurs
Vannes 3 voies.

Circulateurs des circuits secondaires.

Hydro-éjecteurs motorisés (10 % plus cher qu’une vanne 3 voies).
Câblage et distribution électrique nécessaires aux circulateurs des circuits secondaires. Augmentation de la taille de la pompe primaire et souvent installation d’une pompe de réserve.
Liaisons de contrôle entre la régulation et les circulateurs. Régulation de vitesse du circulateur (parfois prévue aussi sur une installation traditionnelle).

Une étude publiée dans le magazine « Chaud, Froid, plomberie » de février 98 montre les résultats obtenus en Autriche en comparant, sur divers projets, la solution conventionnelle des vannes 3 voies et la solution des hydro-éjecteurs, et ce, au niveau de la consommation électrique des auxiliaires et au niveau de l’investissement.

Les conclusions que l’on peut tirer de cet article peuvent être synthétisées comme suit :

  • La puissance totale installée de circulateurs installée (et la consommation qui y est liée) est toujours inférieure dans le cas des hydro-éjecteurs.
  • L’économie d’investissement liée à la solution des hydro-éjecteurs est de l’ordre de 4 à 7 %.

En conclusion, on peut dire que les hydro-éjecteurs constituent une solution qui va dans le sens de la diminution de consommation des auxiliaires. C’est également une solution éprouvée dans de nombreux bâtiments tertiaires publics. Les auteurs de projet semblent cependant peu enclins à l’ utiliser, peut-être parce qu’elle nécessite un calcul plus précis de l’installation.

Notons que l’on peut combiner les hydro-éjecteurs et les vannes 3 voies. Par exemple, dans le cas d’une installation avec un collecteur très étendu, il peut être intéressant d’équiper les derniers circuits de vannes 3 voies et d’un circulateur secondaire, pour ne pas obliger la pompe primaire à maintenir une pression importante en bout de collecteur pour alimenter correctement les derniers hydro-éjecteurs.


Choix du vase d’expansion

Vase d’expansion à pression variable.

Le rôle du vase d’expansion est primordial pour la survie de l’installation. C’est en effet lui qui va :

  • absorber le volume de dilatation de l’eau lorsqu’elle chauffe et éviter l’ouverture intempestive des soupapes de sécurité,
  • éviter un échappement de vapeur par les soupapes de sécurité en cas de surchauffe de courte durée,
  • maintenir une réserve d’eau pour couvrir des pertes du réseau,
  • empêcher les dépressions dans l’installation et donc les entrées d’air dans l’installation.

et limiter ainsi les risques :

  • de corrosion par entrées d’air et/ou ajout d’eau,
  • de cavitation et la détérioration de certains éléments (vannes, restrictions, … ).

Vase d’expansion à pression variable ou à pression constante

Vase d’expansion à pression variable et à pression constante.

Le vase fermé à pression variable et quantité d’air fixe s’applique aux petites installations dont le volume d’expansion est inférieur à 100 litres et où la hauteur statique de l’installation n’excède pas 25 m, pour une pression de sécurité réglée à 3 bars.

Le vase fermé à pression constante et quantité d’air variable, c’est-à-dire le vase d’expansion automatique avec compresseur, s’applique aux grandes installations.  Dans ce cas, le choix d’un vase d’expansion traditionnel sera soit impossible, soit économiquement non rentable ou bien posera des problèmes quant à l’espace disponible (le volume d’air total du vase devient trop grand par rapport au volume d’expansion).

Ci-après est repris un tableau aidant au choix du type de vase.

Choix du système d’expansion en fonction du volume d’expansion Vexp
et du facteur de pression Fp (données calculées dans le dimensionnement du vase).

Dimensionnement du vase d’expansion

Si on résume le rôle du vase d’expansion en disant qu’il doit permettre :

  • l’augmentation du volume de l’eau chauffée,
  • le maintien sous pression de l’installation même quand elle se refroidit.

On comprend aisément que celui-ci ne posera des problèmes que s’il est sous-dimensionné.

Le choix d’un vase d’expansion correctement calculé est donc primordial. Le dimensionnement ne peut se faire au « pifomètre » et contrairement aux autres équipements d’une installation de chauffage, on peut émettre le postulat qu’un vase d’expansion ne sera jamais trop grand.

L’inverse est par contre vrai et dangereux pour l’installation.

Calculs

Pour en savoir plus sur le dimensionnement d’un vase d’expansion, cliquez ici !

Ce dimensionnement consiste à calculer le volume du vase d’expansion, mais aussi sa pression de gonflage et aussi la pression de remplissage de l’installation à froid.

Emplacement du vase d’expansion

Un mauvais emplacement du vase d’expansion peut occasionner des corrosions graves et des anomalies de fonctionnement.

En effet, les positions relatives de ce dernier et de la pompe de circulation peuvent contribuer à des entrées d’air parasites par dépressions accidentelles (n’oublions pas qu’une installation est en principe étanche à l’eau, elle ne l’est pas à l’air, notamment aux joints et aux bourrages).

Situations acceptables

D’une manière générale, le vase d’expansion doit toujours être raccordé sur le retour chaudière, le plus près possible de celle-ci et en amont du circulateur (à l’aspiration du circulateur).

Circulateur sur le départ et vase d’expansion sur le retour : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm hauteur manométrique du circulateur.

L’évolution de la pression dans le circuit montre que le risque de dépression dans le circuit très faible, même lorsque la pression est peu élevée. De plus, la membrane d’expansion est à l’abri des températures trop élevées. Cette configuration convient aux grandes installations avec pertes de charge totales importantes et grandes différences de hauteur.

Circulateur sur le retour entre la chaudière et le vase d’expansion : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm hauteur manométrique du circulateur.

Cette configuration est encore meilleure pour éviter les risques de dépression. Elle convient aux installations avec faibles pertes de charge totales, avec différences de hauteur limitées et chaudière à forte perte de charge.

A proscrire absolument

Circulateur sur le départ et vase d’expansion après le circulateur : évolution de la pression dans le circuit.
1. perte de charge des conduites, 2. perte de charge de la chaudière, hm  hauteur manométrique du circulateur.

L’évolution de la pression dans le circuit montre qu’il y a en permanence des risques de dépression dans les circuits et donc des risques d’entrée d’air. De plus, la membrane du vase est soumise aux sollicitations dynamiques du circulateur et à des températures élevées.

Dans les circuits équipés dune vanne mélangeuse

Le circulateur se place juste après la vanne et le vase d’expansion se place sur le retour, le plus près possible de la chaudière.

Dans les installations importantes

Lorsque les installations sont importantes (immeubles à appartements) on peut prévoir un ou plusieurs vases intermédiaires afin que la membrane ne soit pas exposée à des températures trop élevées faute de quoi son vieillissement et la diffusion au travers de celle-ci s’accélèrent.

Vase d’expansion avec vase tampon (1) : le vase tampon est intéressant lorsque la température au droit du point de raccordement est en permanence supérieure à 60°C. Son volume doit au moins être égal à 20 % du volume d’eau net du vase d’expansion.


Quelle que soit la taille de l’installation, il est interdit de placer plusieurs vases d’expansion en divers points de l’installation. On ne peut donc installer qu’un seul vase d’expansion par installation. Si plusieurs vases sont installés, il doivent obligatoirement se trouver l’un à côté de l’autre. Ce sera le cas pour les gros vase d’expansion que l’on séparera en deux pour garantir une sécurité de fonctionnement en cas de défaillance d’un des deux.


Choix de l’appoint en eau

Beaucoup d’installations de grande taille sont équipées d’un système d’appoint en eau automatique. Ce système est intéressant pour compenser automatiquement le faible pourcentage de fuites inévitables dans de telles installations et les pertes de pression associées aux purgeurs automatiques.

Attention, cependant car on ne contrôle plus la quantité d’eau qui est rajoutée dans l’installation. Ceci risque de conduire à des corrosions internes importantes.

Il est donc impératif de combiner un système de remplissage automatique avec le placement d’un compteur d’eau qui doit être relevé régulièrement.

Ce compteur d’eau peut également être très utile dans une installation à remplissage manuel, pour se rendre compte de la quantité d’eau rajoutée annuellement.


Organes d’équilibrage

La distribution dans les installations de chauffage, malgré son apparente simplicité pour le profane reste souvent le maillon délicat entre la chaudière et les utilisateurs. Et pourtant elle conditionne l’efficacité énergétique de l’ensemble de l’installation, au même titre que la qualité des chaudières ou de la régulation.

Évaluer

Pour s’en convaincre, il suffit de voir l’ensemble des problèmes de confort et la surconsommation imputables à un défaut du réseau hydraulique. Par exemple :

  • Il est impossible de régler une courbe de chauffe si les conséquences de ce réglage sont différentes en fonction de la bonne irrigation du corps de chauffe,
  • Ou de faire fonctionner un optimiseur si la durée de remise en température varie d’une zone à l’autre en fonction de la répartition des débits,

La qualité de la distribution se joue lors des 4 étapes qui conduisent à l’exploitation de l’installation :

  • le choix du principe,
  • le dimensionnement,
  • la réalisation,
  • et la mise au point.

Cette dernière étape est importante car c’est elle qui met en état de fonctionnement une installation qui jusque-là n’était faite que d’un assemblage d’équipements. Dans la mise au point, c’est l’équilibrage qui permet d’obtenir la répartition équitable des débits d’eau chaude dans chacun des circuits de l’installation. Cette étape est indispensable car même le dimensionnement le plus précis ne permet pas d’obtenir une installation prête à fonctionner correctement, ne fut-ce que parce que les équipements sur le marché (caractéristiques des pompes, diamètres de conduites) ne permettent pas un nombre infini de choix. Il ne faut surtout pas la négliger lors de la réception de l’installation, sous prétexte qu’à ce moment, aucun problème de confort n’est apparent.

Pour équilibrer les circuits d’une nouvelle installation, il faut :

  • calculer l’installation et le débit à obtenir,
  • installer les organes d’équilibrage au niveau de chaque circuit,
  • calculer de façon théorique les réglages à effectuer,
  • vérifier la correspondance entre les débits calculés et mesurés effectivement sur les organes de réglage et corriger le réglage si nécessaire.

C’est le rôle d’un metteur au point ou de l’installateur.

Choix d’une vanne d’équilibrage

Photo vanne d'équilibrage.

Il faut donc prévoir dans toute nouvelle installation des vannes de réglage. Celles-ci ne peuvent être choisies n’importe comment. En effet, si une vanne est trop grande, non seulement elle est plus chère, mais en plus elle devra être réglée près de sa position de fermeture, ce qui lui fait perdre de la précision.

Robert Petitjean dans son ouvrage « Equilibrage hydraulique global » préconise de toujours choisir une vanne d’équilbrage dont la perte de charge en position ouverte et pour le débit voulu est supérieure à 3 kPa. En dessous de cette valeur, la précision sur la mesure de débit est, en effet, réduite. En tout cas, le diamètre de la vanne choisie ne pourra jamais être plus grand que le diamètre de la conduite.

Photo dispositif vanne d'équilibrage.

Pour permettre un réglage correct, les vannes de réglage choisies doivent de préférence être équipées d’une prise de pression permettant de calculer ou de mesurer directement (au moyen d’un appareillage spécifique) le débit de chaque circuit.

Le placement de vannes automatiques (ou régulateurs de pression différentiel) qui assurent le maintien d’une différence de pression constante au pied de chaque colonne facilite l’équilibrage car le réglage correct de la vanne n’est plus influencé par le réglage des circuits voisins, ce qui est le cas avec les vannes à réglage fixe. Le surcoût de ces vannes est ainsi compensé par la facilité de réglage. Ces vannes permettent également de maintenir un équilibrage correct, même lorsque les débits varient dans les circuits (fermeture de vannes thermostatiques). En ce sens, elles sont cependant en concurrence avec les circulateurs à vitesse variable, « énergétiquement » plus intéressants.

Equilibrage au moyen de régulateurs de pression différentielle.
Une vanne est placée sur la conduite de départ et la conduite de retour.
La vanne automatique mesure la différence de pression entre le départ et le retour de chaque colonne
et règle son ouverture pour maintenir cette dernière constante.
Ce type de vanne remplace également les soupapes de pression différentielle
couramment utilisées dans les circuits comprenant des vannes thermostatiques.

Où placer une vanne d’équilibrage ?

Théoriquement, on place une vanne d’équilibrage au niveau de chaque corps de chauffe (té de réglage ou vanne thermostatique préréglable) pour obtenir une répartition correcte des débits.

Té de réglage.

Cependant, la modification d’un réglage va perturber toute la répartition et demander des corrections fastidieuses (et donc coûteuses).

C’est pourquoi, il faut essayer de découper l’installation en plusieurs zones équilibrées entre elles. Ainsi, la perturbation due à une intervention à un endroit peut être compensée par une correction sur un nombre plus réduit de vannes de réglage.

Chaque circuit, connecté en parallèle sur une bouche de distribution constitue une zone d’équilibrage. Par exemple, si les différents corps de chauffe d’une zone sont équilibrés entre eux, une modification du réglage de la vanne de la zone modifiera dans la même proportion le débit dans chacun des corps de chauffe.

Tous les circuits (a fortiori, les corps de chauffe, dont le té de réglage n’est pas représenté ici) raccordés en parallèle sur un même collecteur (c’est-à-dire chaque branche d’un tronc commun) sont équipés dune vanne de réglage permettant de répartir le débit entre eux.

Vanne d’équilibrage sur le départ ou sur le retour ?

Cela revient au même, puisque le débit qui passe dans le retour est le même que celui qui passe par le départ. Il est recommander de placer la vanne dans le sens où le débit aura tendance à l’ouvrir car c’est dans cette position de la mesure de débit sera la plus précise et les bruits de circulation les plus faibles. Une vanne placée sur le retour a moins de pertes thermiques car la température de l’eau qui y circule est moindre.

Il faut également que la vanne soit placée dans un endroit accessible et à l’abri des turbulences :

Sections droites minimales de part et d’autre d’une vanne d’équilibrage.

Améliorer

Pour en savoir plus sur l’équilibrage d’une installation de chauffage : cliquez ici !

Limiter le nombre de vannes

Il est évident qu’isoler les vannes permet de diminuer fortement leurs pertes.

Évaluer

Pour s’en convaincre : cliquez ici !

Ce à quoi on ne pense pas toujours, c’est que l’on peut aussi limiter le nombre de vannes. Par exemple, une vanne d’équilibrage peut souvent servir de vanne d’isolement tout en conservant la mémoire de son réglage d’origine. Il est donc inutile de les doubler par une vanne d’isolement.

Dans le même ordre d’idée, les vannes taraudées présentent moins de pertes que les vannes à brides. Il faut donc les préférer lorsque cela est possible.


Purgeurs, séparateurs d’air, récupérateurs de boues

Que faut-il penser de ces éléments qui peuvent être installés dans le réseau de distribution pour faciliter son exploitation ?

Les purgeurs automatiques

Les purgeurs automatiques permettent d’évacuer l’air d’une installation sans intervention manuelle. Cela peut être intéressant dans des zones peu accessibles.

Photo purgeur automatique.Schéma principe purgeur automatique.

1. ouverture d’évacuation d’air 2. valve d’évacuation
3. mécanisme d’évacuation 4. compartiment à air
5. niveau d’eau 6. flotteur 7. raccordement d’entré

Purgeur automatique : l’air monte dans le purgeur et remplace l’eau.
Le flotteur s’abaisse et le soupape s’ouvre laissant s’échapper l’air.

Toutefois, il faut se méfier de la fiabilité des soupapes d’obturation à flotteur (il existe bien sûr des fabrications plus élaborées que d’autres au point de vue fiabilité). En effet, la moindre impureté flottant sur le plan d’eau peut s’intercaler entre le siège et la soupape de fermeture entraînant une fuite permanente du purgeur. Ce problème est souvent détecté tardivement, il correspond à des appoints d’eau supplémentaires et à une corrosion de tuyaux en raison du ruissellement sur la surface extérieure (bien souvent sous l’isolant des colonnes). La conséquence pratique est parfois une fissuration longitudinale de la tuyauterie après 10 ans de ces mauvaises conditions !

De plus, le fonctionnement d’un purgeur automatique peut s’inverser c’est-à-dire qu’en raison d’un défaut d’expansion, la contraction du volume d’eau durant l’arrêt du chauffage va provoquer une entrée d’air facilitée via le purgeur automatique, ce qui sera source de corrosion.

Le bon sens veut donc que l’on s’attaque en premier lieu à la cause du problème : si un circuit fermé contient de l’air … c’est qu’il n’est pas suffisamment étanche. Un vase d’expansion mal dimensionné ou défectueux, la présence de certains matériaux synthétiques, des remplissages fréquents, d’autres causes d’origines chimique ou technique (installation mal entretenue) peuvent être à l’origine de l’introduction d’air ou de la formation de gaz (corrosion de aluminium et formation d’hydrogène).

Donc, la première règle est de chercher les causes de la présence d’air ou de gaz et d’y remédier.

Pour ces diverses raisons, il faut considérer les purgeurs automatiques comme élément à n’utiliser que lors des remplissages généraux, et il faut absolument les faire précéder d’un robinet d’isolement qui sera rapidement fermé durant le service normal de l’installation.

Les séparateurs d’air

Le séparateur d’air est un dispositif basé sur l’un ou l’autre procédé d’obtention de coalescence des micro bulles présentes dans l’eau.

Photo séparateurs d'airPhoto séparateurs d'air

Séparateur d’air (équipé d’un purgeur automatique).

Le séparateur peut contribuer à éliminer un maximum d’air en un point accessible, contrôlable (il aura lui-même en général un purgeur automatique).

Placé sur le retour général, pour une chaufferie en point haut, il centralise parfois mieux l’air et éviter des poches dans les chaudières. Placé sur le départ en aval des chaudières, il élimine les bulles libérées lors du chauffage d’une eau neuve.

Il ne constitue pas une nécessité technique. Ces solutions sont coûteuses et ne doivent être retenues qu’en cas d’urgence ou s’il s’avère impossible de résoudre les causes originelles des problèmes.

Les récupérateurs de boues

Les pièges à boues les plus simples (et très efficaces) consistent en un cylindre vertical de 3 à 5 fois le diamètre du tuyau, ce dernier étant soudé dans le tiers supérieur (il existe bien sûr des fabrications en tout genre, mais la solution « à chicanes » ne donne pas plus de résultats en raison notamment des remous et des profils de vitesses).

Photo récupérateur de boues.

Récupérateur de boue.

Il faut considérer que la formation de résidus solides dans les installations modernes est quasi inévitable, en raison des matériaux et effets catalytiques éventuels. Pour ces raisons, le placement d’un piège à boues en partie basse du retour est à conseiller.

Il y a lieu de vider régulièrement le contenu accumulé ! en présence de quantités importantes de magnétite (Fe3O4) le piège à boues n’est pas suffisant pour une sédimentation efficace, il faut alors recourir à d’autres solutions (circuits de filtration magnétique etc).

Rappelons cependant que seul un traitement d’eau correctement adapté, après analyse préalable, constitue la manière de traiter l’installation contre la corrosion.

Choisir l’emplacement des luminaires dans les classes

   

Classes à aménagement fixe

La plupart du temps, les bancs des élèves sont alignés face au tableau, l’axe du regard étant parallèle aux fenêtres.

Les luminaires sont disposés en rampes parallèles aux fenêtres, de préférence entre les rangées de bancs, pour :

  • Éviter les risques d’éblouissement par les luminaires.
  • Profiter de l’éclairage naturel par une commande séparée des différentes rampes en fonction de l’éloignement à la fenêtre (zonage).
  • Éviter les ombres gênantes en compensant la lumière unidirectionnelle en provenance des fenêtres.
  • Assurer une bonne uniformité de l’éclairement dans le local en composant avec l’éclairage naturel.

De plus

  • Les luminaires disposés le long de la façade vitrée seront rapprochés de celle-ci. À défaut, étant donné le plus faible coefficient de réflexion des fenêtres (ou des tentures, le cas échéant), un déséquilibre lumineux en résulterait le soir.
  • Les lampes situées derrière les tables des élèves risquent de créer des ombres portées sur le plan de travail. On arrêtera les rangées de luminaires au niveau des derniers bureaux. Ceci permettra également de ne pas éclairer inutilement le fond de la classe.
  • La disposition des luminaires en lignes continues permet une meilleure répartition des ombres au niveau des plans de travail (absence d’ombres marquées), puisque la lumière éclairant chaque plan de travail provient de multiples directions.

 

  • Prévoir un allumage séparé des luminaires du tableau. De plus en plus les professeurs ont à leur disposition des écrans lumineux pour projeter les cours. Dans ces conditions, il n’est donc pas nécessaire d’allumer l’éclairage du tableau.

Remarques.
Il est conseillé de placer les luminaires le long de la façade au plus proche de celle-ci pour garantir une bonne uniformité dans la répartition lumineuse de la lumière, excepté les 50 cm qui bordent les murs comme préconisé par les normes. Mais dans la plupart des cas, une école n’est pas utilisée en soirée ou pendant la nuit. Il peut donc parfois être innovant d’imposer des critères spécifiques au CDC comme par exemple que l’étude de l’éclairage doit montrer une luminosité de 300 Lux excepté dans les 50 cm qui bordent les murs intérieurs et les 2 m qui bordent la façade fortement vitrée. De facto, les tubes seront alors décentrés pour profiter de la lumière naturelle.

De même, bien que l’on conseille de placer les luminaires entre les bancs, pour éviter les reflets sur les bureaux, en pratique, cette indication est bien souvent théorique et très contraignante. Elle ne sera respectée que dans des cas très particuliers où le confort doit être parfait.
En effet, c’est le dimensionnement qui détermine le nombre de luminaires et donc l’emplacement des luminaires par rapport aux bancs. De plus, les bancs peuvent être de largeur variable d’une classe à l’autre. Les luminaires ne peuvent pas être placés en fonction de l’aménagement probable de la classe.


Classes à aménagement variable

EcoleEmplacementLuminaire5.GIF (3916 octets)

L’élève n’a pas de position prédéfinie de travail.

La direction de l’éclairage naturel et la direction du regard des élèves varient avec la position particulière de chacun.

Dans ce cas, les luminaires n’ont pas de direction particulière d’émission. Ils seront disposés de manière à obtenir une répartition uniforme de l’éclairement.


Éclairage spécifique au tableau

Des luminaires asymétriques avec tubes fluorescents ou des spots avec lampes fluocompactes seront répartis sur toute la longueur du tableau (attention : longueur du tableau ouvert dans le cas de tableaux articulés). En outre, pour assurer une uniformité d’éclairement, les luminaires à tubes fluorescents seront toujours posés de façon jointive.

Les luminaires placés dans la zone bleutée ne donnent pas de réflexions gênantes sur le tableau. C’est dans cette zone qu’ils devront être placés.

Conserver par le froid – Objectifs

Températures de conservation

La liste des températures à garantir est donnée ci-dessous à titre indicatif. Elle nous a été fournie par un fabricant.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 20 à – 30 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Un document contenant une liste beaucoup plus complète et intitulé : HACCP pour PME et artisans – Auteurs Catherine Quittet et Helen Nelis peut être obtenu auprès – Réalise par L’Unite de Technologie des IAA a la Faculte universitaire des Sciences agronomiques de Gembloux, Le Laboratorium voor Levensmiddelentechnologie de la KU Leuven en collaboration avec l’Inspection générale des denrées alimentaires, l’Institut d’expertise vétérinaire, le service d’Inspection du Ministere de l’Agriculture Finance par le SSTC de l’Unité de Technologie des IAA de la Faculté universitaire des sciences agronomiques de Gembloux au 081/62 23 03.

Check-list d’un cahier des charges [isolation de la toiture inclinée]

Voici un résumé des points essentiels qui garantissent une toiture inclinée bien isolée.

EXIGENCES

Pour en savoir plus
Si les combles font partie du volume protégé, on isole le versant de toiture.

Si les combles ne font pas partie du volume protégé, on isole le plancher des combles.

Techniques

Techniques

1. L’isolation dans le versant de toiture
On choisit, de préférence, un modèle d’isolation par l’extérieur (Toiture « Sarking » ou Panneaux auto-portants). Dans ce cas, cependant, l’isolation doit être réalisée par des professionnels et il faut vérifier que la charpente peut porter ce type d’isolation.

Concevoir

Si l’on souhaite faire réaliser les travaux d’isolation par des non-professionnels ou/et que la charpente est encore en bon état mais qu’elle ne peut porter une isolation par l’extérieur, on choisit une isolation entre les chevrons ou fermettes.

Concevoir

Dans le cas d’une isolation entre chevrons ou fermettes, celle-ci doit être non ventilée : l’isolant est directement appliqué contre la sous-toiture.

Concevoir

Dans le cas d’une isolation entre chevrons ou fermettes, on place une sous-toiture. Celle-ci doit être étanche à l’eau, perméable à la vapeur et capillaire. Elle est, de préférence, rigide.

Concevoir

La sous-toiture doit être posée de manière continue.

La sous-toiture doit aboutir à l’extérieur du bâtiment, dans la gouttière ou la corniche par exemple.
Il faut veiller à n’avoir aucune contre-pente.

A chaque interruption de la sous-toiture (cheminée, lanterneau, lucarne, …), il faut assurer la déviation des eaux infiltrées.

Des contre-lattes doivent être placées sur la sous-toiture, sous les lattes.

Concevoir

L’épaisseur de l’isolant doit au moins permettre d’atteindre un coefficient de transmission thermique « U » respectant la réglementation.

Concevoir

On doit choisir un matériau isolant compatible avec les éléments de la toiture en contact avec lui. Par exemple, la mousse de polystyrène ne peut être choisie lorsque le bois de charpente est protégé par des produits à base huileuse, par certains bitumes, par des solvants et des huiles de goudron.

Concevoir

On ne choisit pas de mousse de polystyrène ou de polyuréthane si l’on doit atteindre de bonnes performances de sécurité au niveau incendie. En effet, ces matériaux sont inflammables et résistent mal à la chaleur.

Si ces matériaux sont choisis, on évite d’y encastrer des spots ou alors, ils doivent être protégés en interposant des boucliers thermiques efficaces.

Concevoir

L’isolant doit être posé de manière continue.

 

 

Concevoir

Techniques

Techniques

Techniques

Techniques

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait.

Concevoir

Lorsqu’on place une bonne sous-toiture, un pare-vapeur n’est pas indispensable dans les bâtiments de classes de climat intérieur I, II ou III.

Lorsqu’on utilise un isolant non étanche à l’air (laines minérales) ou des isolants étanches à l’air, sans être certain de la qualité des joints, un pare-vapeur peut être indispensable dans le cas d’une classe de climat intérieur IV.

Concevoir

Si un pare-vapeur est nécessaire, celui-ci doit être posé de manière continue.

Concevoir

Si l’on superpose deux couches d’isolant, il ne peut y avoir de pare-vapeur entre les deux couches.

Concevoir

Une finition intérieure étanche à l’air est absolument indispensable s’il n’y a pas de pare-vapeur.

Concevoir

Concevoir

Si des câbles ou des spots doivent être placés dans le plafond, il faut prévoir un espace entre l’isolant (ou le pare-vapeur) et la finition intérieure.

Concevoir

Techniques

Les ouvrages de raccord doivent assurer la continuité des fonctions des différents composants de la toiture dans sa partie courante; à savoir, les fonctions de :

  • la couverture,
  • de la sous-toiture,
  • de l’isolant,
  • du pare-vapeur éventuel et de la finition intérieure.

Concevoir

Concevoir

Concevoir

Concevoir

2. L’isolation du plancher des combles
Dans le cas d’un plancher léger, tous les modèles sont valables.
Cependant, si des appareils relativement importants doivent être encastrés dans le plafond, il faut choisir un modèle où l’isolant est placé au-dessus des gîtes. Si une aire de foulée est prévue, celle-ci doit trouver un support suffisamment résistant : avec une isolation entre gîtes, ce support est constitué des gîtes, avec une isolation au-dessus des gîtes, il faut soit prévoir des panneaux isolants rigides pouvant supporter l’aire de foulée, soit des lambourdes avec isolant souple ou semi-rigide entre elles. Enfin, l’isolation au-dessus du gîtage n’est appropriée que si la hauteur sous-toiture est suffisante.

Concevoir

Dans le cas d’un plancher lourd, on choisit un modèle où l’isolant est posé au-dessus du plancher. Si une aire de foulée est prévue, celle-ci doit trouver un support suffisamment résistant : il faut soit prévoir des panneaux isolants rigides pouvant supporter l’aire de foulée, soit des lambourdes avec isolant souple ou semi-rigide entre elles.

Concevoir

L’épaisseur de l’isolant doit au moins permettre d’atteindre un coefficient de transmission thermique « U » respectant la réglementation.

Concevoir

On ne choisit pas de mousse de polystyrène ou de polyuréthane si l’on doit atteindre de bonnes performances de sécurité au niveau incendie. En effet, ces matériaux sont inflammables et résistent mal à la chaleur.

Si ces matériaux sont choisis, on évite d’y encastrer des spots ou alors, ils doivent être protégés en interposant des boucliers thermiques efficaces.

Concevoir

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait.

Concevoir

L’isolant doit être placé de manière continue.

Concevoir

Un pare-vapeur n’est pas indispensable dans le cas d’un plancher lourd dans les bâtiments de classes de climat intérieur I, II ou III. Il peut être nécessaire dans ces mêmes bâtiments dans le cas d’un plancher léger.
Il peut l’être également dans le cas d’une classe de climat intérieur IV.

Concevoir

Si le pare-vapeur est nécessaire, celui-ci doit être posé de manière continue.

Concevoir

Si l’on superpose deux couches d’isolant, il ne peut y avoir de pare-vapeur entre les deux couches.

Concevoir

Avec un plancher léger, s’il n’y a pas de pare-vapeur continu, un plafonnage ou des plaques de carton-plâtre correctement rejointoyées sous le plancher doit assurer l’étanchéité à l’air.

Concevoir

Concevoir

Les ouvrages de raccord au plancher doivent assurer la continuité des fonctions des différents composants du plancher isolé du comble perdu dans sa partie courante; à savoir, les fonctions :

  • de l’isolant,
  • du pare-vapeur éventuel,
  • et de la finition intérieure.

Concevoir

Concevoir

Concevoir les détails: le raccord mur-toiture-plancher [isolation]

Concevoir les détails de réalisation : le raccord mur-toiture-plancher


Schéma raccord mur-toiture-plancher- 01.

  1. Mur porteur
  2. Mur de parement
  3. Isolant thermique
  4. Structure portante (gîtes)
  5. Aire de foulée
  6. Pare-vapeur
  7. Espace technique
  8. Finition intérieure
  9. Chevron
  10. Sous-toiture
  11. Contre-lattes
  12. Lattes
  13. Couverture
  14. Panne sablière

Schéma raccord mur-toiture-plancher- 02.

La continuité de l’isolation thermique est assurée par un bloc peu conducteur de la chaleur (exemple : bloc de béton cellulaire).

  1. Mur porteur
  2. Mur de parement
  3. Isolant thermique
  4. Structure portante (gîtes)
  5. Aire de foulée
  6. Pare-vapeur
  7. Espace technique
  8. Finition intérieure
  9. Chevron
  10. Sous-toiture
  11. Contre-lattes
  12. Lattes
  13. Couverture
  14. Panne sablière
  15. Poutre de ceinture
  16. Blocs peu conducteur de la chaleur

Choisir un fluide frigorigène [Concevoir – Froid alimentaire]

Il existe différents types de fluides frigorigènes sur le marché. En voici les critères de choix :

Choisir un fluide frigorigène


L’impact environnemental

Reprenons différents fluides en fonction de leur impact environnemental dans le tableau ci-dessous. Ce tableau met bien en évidence le fait que les HFC sont en sursis comme le prévoit la réglementation européenne (règlementation dite F-gaz). Celle-ci prévoit en effet une réduction d’utilisation de 79% de l’utilisation des gaz fluorés d’ici 2030 par rapport à l’utilisation faite en 2015.

Aujourd’hui les solutions de remplacement ne sont pourtant si pas évidentes. Il faudra s’orienter vers des (nouveaux ?) fluides à faible Potentiel de Réchauffement Global (PRG) ou des fluides naturels.

Cependant, pour ces derniers, il faudra faire face aux contraintes de sécurité associées au CO2 (haute pression) au propane et au butane (inflammabilité) et à l’ammoniac (toxicité).

ODP
(/R-11)
GWP
(kg éq. de CO2)
ODP
(/R-11)
GWP
(kg éq. de CO2)
CFC
(interdits)
Mélanges de HCFC
R-11 1 4 000 R-404A 0 3 260
R-12 0,8 8 500 R-407C 0 1 530
R-502 0,2 5 490 R-410A 0 1 730
HCFC Mélanges à base R-22
R-22 0,04 1 700 R-408A 0,7 2 650
HFC
(corps purs)
Autres
R-134a 0 1 300 Propane / Butane 0 20
R-125 0 2 800 Ammoniac 0 <1
R-143a 0 3 800 CO2 0 1

Remarque : certains imaginent qu’à défaut de trouver le gaz parfait, on pourrait produire le froid dans des machines frigorifiques très compactes (donc contenant peu de fluide), puis transférer le froid par des caloporteurs (eau glycolée, CO2,.). Dans ce cas, le problème du fluide ou de sa sécurité est moins crucial.


L’impact énergétique (ou qualité thermodynamique)

Par ses propriétés thermodynamiques, le fluide frigorigène influence la consommation énergétique de la machine frigorifique. Pour illustrer ce point, nous reprenons ci-dessous les résultats d’une étude comparative entre 5 fluides différents, utilisés dans une même machine, avec les mêmes conditions de fonctionnement.

Source : ADEME, « le froid efficace dans l’industrie ».

Dans chaque cas, l’objectif est de produire une puissance frigorifique de 100 kW.

NH3 R-134a R22 propane R-404A
Puissance effective sur l’arbre [kW] 30,7 30,9 32,1 33,1 35,1
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Débit volumique balayé dans le compresseur [m³/h] 239 392 224 250 217
Débit volumique de liquide frigorigène [m³/h] 0,53 1,91 1,75 2,42 2,70
Température de refoulement de la compression réelle adiabatique [°C] 156 60 87 63 59

Hypothèses de l’étude

  • Cycle à compression monoétagée;
  • Température d’évaporation : – 15°C;
  • Surchauffe à la sortie de l’évaporateur : 5 K;
  • Surchauffe à l’entrée du compresseur : 10 K;
  • Température de condensation : 30 °C;
  • Sous-refroidissement en sortie de condenseur : 5 K
  • Taux d’espace mort du compresseur : 3 %.

Analyse

Les températures de refoulement de la compression indiquée sont légèrement plus élevées qu’en réalité parce que le compresseur est placé dans une situation de non-échange avec l’extérieur (adiabatique). Par exemple, le compresseur réel à l’ammoniac qui échangerait 1/10 de sa puissance sur l’arbre aurait une température au refoulement d’environ 142°C.

On constate que le groupe au R-404A consomme 14 % de plus que le groupe à l’ammoniac. La machine équipée de propane n’est pas très performante non plus.

Le R-134a est très performant sur le plan énergétique. Par contre, le débit volumique balayé par le compresseur est nettement plus élevé, ce qui va augmenter la taille du compresseur et des conduites d’aspiration (coût d’investissement plus élevé).

L’ammoniac présente un très faible débit volumique de liquide frigorigène et donc un faible diamètre de la conduite de liquide.

Reprenons les chiffres du COP frigorifique en partant d’une référence 100 pour le R-22 :

NH3 R-134a R22 propane R-404A
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Si le R-22 est pris en référence 100 : 105 104 100 97 91

Des résultats similaires ressortent d’une autre étude relatée par l’ASHRAE, avec comme différence notable un coefficient 99 pour le R-404A. Il faut dire que ce genre d’étude est fonction des options choisies : prendre la même machine frigorifique et changer juste le fluide, ou optimiser tous les composants en fonction des caractéristiques de chaque fluide pour produire la même puissance ?

Cette deuxième étude fournit les coefficients pour d’autres fluides :
R-410A : 99
R-407C : 95

À noter que les débits demandés par le R-407C sont, à 1 % près, identiques à celui du R-22 : il a justement été conçu comme fluide de remplacement. Il est malheureusement zéotrope et présente donc un glissement de température lors du changement d’état (un « glide ») de 7,2 °C, ce qui lui fait perdre 5 % de rendement énergétique.

Conclusion

L’ammoniac et le R-134a présentent une performance énergétique meilleure, mais cet avantage n’est pas suffisant que pour conclure sur ce seul critère.


La sécurité d’usage

De nombreuses études poussées sont menées sur les aspects :

  • toxicité (par inhalation);
  • action biologique (cancers, malformations des nouveaux-nés);
  • action sur les denrées entreposées en chambre froide;
  • inflammabilité.

Certains critères sont facilement quantifiables

  • par la concentration limite d’exposition (exprimée en ppm);
  • par la limite inférieure d’inflammabilité (concentration, en volume, dans l’air sous la pression atmosphérique).

Ce qui a permis de définir un code sécurité (Standard 34 Safety Group) :

NH3 R-134a R22 propane butane R-407C R-404A R-410A
Conc. limite d’exposition (ppm) 25 1 000 1 000 2 500 800 1 000 1 000 1 000
limite inf. d’inflammabilité (%) 14,8 2,3 1,9
Code sécurité B2 A1 A1 A3 A3 A1 A1 A1

La toxicité de l’ammoniac et l’inflammabilité des hydrocarbures entraînent des mesures de sécurité toutes particulières pour leur usage.

La norme NBN EN 378-1 traitant des Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.


Les contraintes techniques

Elles sont nombreuses (niveaux de pression requis, comportement du fluide en présence d’eau, viscosité et donc tendance à fuir de l’enceinte, commodité de détection d’une fuite) et vont influencer l’efficacité et la fiabilité de l’installation.

Une des contraintes fort importantes est le couple formé par le fluide frigorigène et l’huile de lubrification.

De l’huile est nécessaire au bon fonctionnement du compresseur. Un séparateur d’huile est prévu à la sortie du compresseur, mais son efficacité n’est jamais totale. Et la petite quantité d’huile entraînée par le fluide risque de se déposer au fond de l’évaporateur (basse température et faible vitesse). L’échange thermique est diminué et, à terme, l’huile risque de manquer au compresseur. Si autrefois la miscibilité entre le fluide CFC et les huiles minérales était très bonne (le fluide « entraînait » avec lui une certaine dose d’huile assurant une lubrification permanente), il faut aujourd’hui adopter des huiles polyolesters, plus coûteuses, très sensibles à la présence d’eau, et dont on doit vérifier la compatibilité avec les différents matériaux en contact (métaux, joints élastomères, vernis moteur,.).

L’élimination des fluides frigorigènes chlorés, bonne chose pour l’ozone stratosphérique, en est une mauvaise pour la lubrification, le chlore étant bénéfique à la présence du film d’huile. L’emploi d’additifs divers dans les huiles a dû y suppléer.


Le coût

Le prix au Kg du frigorigène est très différent selon qu’il s’agisse d’un fluide simple, comme l’ammoniac, ou d’un fluide plus complexe comme un mélange de HFC.

Mais le coût du fluide frigorigène rapporté à celui de l’installation se situe entre 1 et 3 %, ce qui reste faible. Et les coûts indirects liés au choix du fluide (dispositifs de sécurité, équipements électriques anti-déflagrant, conception étanche du local technique,…) sont sans doute plus déterminants.


Les tendances futures

En HVAC, l’utilisation courante des fluides frigorigènes CFC (R11, R12 et R502) et HCFC (R22)  a été proscrite, car ils avaient le pouvoir de détruire la couche d’ozone et de renforcer l’effet de serre.

Depuis 1990 est apparue une nouvelle famille : les HFC, fluides purement fluorés, dont le R-134a est le plus connu. Malgré tout, ce genre de fluide frigorigène n’est pas idéal sur le plan de l’environnement. Dès lors, l’utilisation dégressive de ces gaz fluorés est imposée par la réglementation. On devra alors s’orienter vers des fluides à potentiel de réchauffement global faible. Cela passera très certainement par :

  • L’élargissement de l’utilisation des fluides toxiques (amoniac) et inflammables (propane, butane)
  • Le développement de nouvelles molécules et de nouveaux mélanges
  • La réduction drastique de la charge et confinement du fluide frigorigène
  • Le retour du CO2

À ce sujet, une étude a été menée en France par  Armines CES, le Cemafroid et ERéIE pour l’AFCE avec le soutien de l’ADEME et d’UNICLIMA. Ce rapport présente notamment un série d’alternatives par secteur. Vous pouvez le télécharger en  ouverture d'une nouvelle fenêtre ! cliquant ici.

Choisir les luminaires – limiter l’éblouissement

Choisir les luminaires - limiter  l’éblouissement


Locaux sans ordinateur

Dans les locaux où il n’y a pas d’écran d’ordinateur, on cherchera principalement à limiter l’éblouissement direct des occupants.

Pour les luminaires ouverts traditionnels, les risques d’éblouissement sont réduits si le luminaire dispose de ventelles empêchant la vue directe des lampes à partir d’un certain angle de vision par rapport à la verticale (angle de défilement).

Luminaire a ventelles.

Recommandations

Angle de défilement maximum

60°

Rendement minimum

70 %

La norme NBN EN 12464-1 prévoit de limiter l’éblouissement direct par des ventelles en fonction de la luminance de la lampe :

Luminance de la lampe en kCd/m2 Angle maximum de défilement
20 à < 50 75°
50 à < 500 70°
>= 500 60°

Les luminaires basse luminance ne sont pas strictement nécessaires mais apportent un confort supplémentaire aux élèves. Leur prix est cependant supérieur par rapport aux simples luminaires avec ventelles blanches (les luminaires avec ventelles blanches ont souvent un très faible rendement).


Locaux avec ordinateurs

On peut éviter les réflexions parasites sur les écrans de deux manières différentes :

Avec des luminaires basse luminance

Le choix d’un luminaire dit « basse luminance » est la meilleure solution pour l’éclairage des locaux informatisés de surface relativement importante, quel que soit le type d’écran. Celui-ci ne doit pas être incliné de plus de 20° par rapport à la verticale (position courante de travail sur PC).

Schéma sur angle d'élévation de luminaires.

Pour prévenir tout risque de reflets dans les écrans quel que soit leur type, les normes  recommandent pour un angle d’élévation de 65° des valeurs de luminance reprise dans le tableau ci-dessous et ce quel que soit le plan du luminaire considéré (C0, C30, …, C90) :

Niveau limite de luminance moyenne des luminaires (cd/m²)
État de luminance élevé de l’écran Écran à haute luminance

L > 200 cd/m²

Écran à luminance moyenne

L ≤ 200 cd/m²

Tâche de bureau classique ≤ 3 000 ≤ 1 500
Besoin de détail ≤ 1 500 ≤ 1 000
L’état de luminance élevé de l’écran (selon EN ISO 9241-302) décrit la luminance maximale de la partie blanche de l’écran, valeur fournie par le fabricant.

Cependant, la protection contre l’éblouissement se fait au détriment du rendement du luminaire (plus on dispose de ventelles devant la lampe pour limiter l’éblouissement, plus importantes seront les pertes).

Les constructeurs proposent différents types de luminaires « basse luminance » avec des angles d’élévation inférieurs à 65°. Dans ce cas, il est important de garantir le maintien d’un rendement acceptable. Pour ce faire, Laborelec (le laboratoire belge de l’industrie électrique) a établi un tableau synthétique donnant, pour différents angles d’élévation, un rendement minimum à respecter.

Type de travail
sur ordinateur
 

Recommandation
EN 12464-1

Angle d’élévation

Luminance < 200 cd/m2 pour des angles g
Recommandation
Laborelec par rapport à la DIN 5035
Angle d’élévation rendement minimum
Dans tous les plans Dans les plans longitudinaux (C90),
transversaux (C0) et diagonaux (C30 et C60)
Usage limité 65° 65°
65 %
Usage important
mais non fatigant
60°
65 %
Usage intensif
et fatigant
50° 55 %

En observant le tableau ci-dessus, on se rend compte que la DIN 5035 est plus précise et contraignante que la norme EN 12464-1. À l’heure actuelle, certains constructeurs proposent des luminaires dont les caractéristiques techniques tiennent compte des deux normes.

Exemple.

Ce luminaire basse luminance répond à la norme EN 12464-1. La luminance du luminaire est inférieure à 200 Cd/m² pour un angle de défilement > 65° et ce dans toutes les directions. Son rendement, avec 1 lampes T8 de 58 W est de 76 %. De plus, il est DIN 60.

Remarque.

Comme on l’a vu, la norme EN 12464-1 précise que pour un angle d’élévation de 65°, on considère tous les plans du luminaire; autrement dit, quel que soit la position du bureau et par conséquent l’angle de vue, les 200 Cd/m² ne peuvent pas être dépassés; ce qui n’était pas le cas dans les anciennes normes NBN L 13 – 006, IN 5035 (partie 7), CIBSE LG3 (1989) qui ne privilégiaient que certains plans. On en conclut, dans ce cas, que la EN 12464-1 est plus restrictive.

Phot tubes fluos 26 et 16 mm.

Le libre choix des luminaires équipés de lampes T5 ou T8 est laissé à l’auteur de projet. Toutefois on rappellera que pour comparer ces deux technologies il faut :

  • Vérifier que les constructeurs donnent des valeurs de rendement qui puissent être comparées (pour une même température ambiante),
  • Vérifier le prix.
  • Se rendre bien compte que les sources LED et les lampes T5 ont une luminance plus élevée que les lampes T8 donc risque d’éblouissement.

Avec des luminaires « lumière douce » ou à plexi performant

Photo écran à affichage positif.     Photo écran à affichage négatif.

Écran à affichage positif… et … Écran à affichage négatif.

Les luminaires « lumière douce » ont une luminance nettement supérieure à 200 cd/m² pour des angles d’élévation > 65°.

Ils ne peuvent donc pas être utilisés en présence d’ordinateurs, sauf dans le cas très restreint d’écrans plats à affichage positif (caractères sombres sur fond clair) et bon traitement antireflet.

En effet, la norme européenne ISO 9241 admet qu’une luminance moyenne des luminaires de 1 000 cd/m² (avec des pointes de moins de 1 500 cd/m²) ne provoquera pas de réflexion gênante sur les écrans. Ceci s’explique par la réduction du contraste entre ce type d’écran et les réflexions qui peuvent y apparaître (attention, le contraste entre le fond d’écran et le texte diminue aussi, ce qui est un inconvénient !).

Photo luminaire "lumière douce".

Les  luminaires « lumière douce » respectent ce critère soit directement, soit moyennant une adaptation qui limite leur luminance moyenne (par exemple pour les lampes fluocompactes).

L’avantage de ce type de luminaire apparaît lorsqu’on utilise des ordinateurs portables. (En effet les recommandations Laborelec s’appliquent pour des écrans inclinés de 15° à 20° par rapport à la verticale). Dans le cas d’ordinateurs portables, l’utilisateur incline plus fortement son écran. Il risque alors d’apercevoir des reflets même si les luminaires sont à basse luminance. Un luminaire « lumière douce » ayant une luminance moyenne dans toutes les directions, même verticale, peut alors se justifier. Il existe des luminaires à plexi performant avec les mêmes avantages que la « lumière douce ».


Cas particulier : les bureaux individuels

Les recommandations ci-dessus s’appliquent pour la majorité des bureaux. Cependant, dans un petit bureau (bureau individuel), on peut placer le luminaire et/ou les postes de travail de manière telle qu’il n’y ait jamais de réflexion. L’angle sous lequel l’écran voit le luminaire reste alors toujours inférieur à 50 – 60°.

Schéma luminaires de bureau.

On peut alors toujours choisir un luminaire qui n’est pas basse luminance, par exemple à ventelles planes et diffusantes ou à plexi. Ces luminaires ont un prix inférieur par rapport aux luminaires identiques équipés de ventelles paraboliques. Ces derniers apportent cependant un « plus » au standing du local et donc contribuent au confort psychologique des occupants.

Photo bureau avec luminaires sans ventelles paraboliques.     Photo bureau avec luminaires avec ventelles paraboliques.

Exemple : bureau avant et après

    

Avant : 2 vieux luminaires 2 x 36 W BM avec du bruit et éclairage trop faible.

Après : 2 luminaires 1 x 35 W T5 BE-DIM avec un niveau d’éclairement x 1,5, une économie d’énergie > 50 %, < 2,5 W/m²/100 lux et confort visuel élevé !


Cas particulier : les circulations

Les couloirs de bureaux, d’école, …

Photo luminaires dans zone de circulation. Photo luminaires dans zone de circulation. Photo luminaires dans zone de circulation.

Les circulations ne présentent aucune exigence en termes de basse luminance. Tout au plus faut-il éviter un éblouissement trop important en choisissant des luminaires comportant un système de défilement. Des luminaires ouverts à ventelles planes sont donc tout à fait indiqués (angle de défilement minimum de 75°).

Les couloirs d’hôpital, de maison de repos

Photo luminaires dans couloirs hôpital. Photo luminaires dans couloirs hôpital.

Les couloirs d’hôpitaux et des maisons de repos nécessitent une attention particulière sachant que l’éblouissement dû au luminaire peut être important pour les patients alités. C’est la raison pour laquelle les luminaires à basse luminance sont intéressants.


Flexibilité du local

Dans certains locaux, le type de travail et/ou la disposition des postes de travail peuvent varier dans le temps. Dans ce cas, l’éclairage général ne peut privilégier aucune zone ni direction dans le local. Si tel était le cas, leur adaptation à une nouvelle situation doit se faire avec un minimum de manipulations.

Voici différents types de luminaires pouvant répondre à ces exigences  :

  • des luminaires à distribution de lumière identique dans toutes les directions,
  • si des bureaux individuels risquent d’être regroupés en bureaux paysagers, il est préférable de les équiper de luminaires basse luminance.

Choisir le mode de pose de l’étanchéité

Les étanchéités bitumineuses

– Sur du béton ou du béton léger monolithe, l’étanchéité bitumineuse peut être :

– Sur des panneaux en béton cellulaire ou en fibro-ciment, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage au bitume ou soudage avec bandes libres sur tous les joints,
    • posée en adhérence totale par collage à froid avec bandes de pontage sur les joints d’about,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage, avec bandes de pontage sur les joints d’about,
    • (éventuellement) fixée mécaniquement à l’aide de vis.

– Sur des panneaux multiplex en particules de bois, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage au bitume ou soudage avec bandes de pontage sur les joints d’about,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage,
    • fixée mécaniquement à l’aide de clous ou de vis.

– Sur des panneaux en fibre de bois liées au ciment, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale  par collage à froid, collage au bitume ou soudage.

– Sur des planchers en bois, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • fixée mécaniquement à l’aide de clous ou de vis.

– Sur des panneaux isolants en mousse de polyuréthane (PUR), en mousse de polyisocyanurate (PIR) ou en mousse résolique (PF) revêtus, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid, collage au bitume ou soudage,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en mousse de polystyrène expansé (EPS) revêtus, l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid,
    • posée en semi-indépendance par collage à froid ou collage au bitume,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en laine de roche (MW) ou en perlite (EPB), l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid ou collage au bitume, lorsque les panneaux ne sont pas revêtus d’un film thermofusible,
    • posée en adhérence totale par soudage lorsque les panneaux sont soudables,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en liège (ICB), l’étanchéité bitumineuse peut être :

  • si un lestage lourd est possible,
    • posée en indépendance,
  • si un lestage lourd n’est pas possible,
    • posée en adhérence totale par collage à froid ou collage au bitume,
    • fixée mécaniquement au support, à travers l’isolant, à l’aide de clous ou de vis.

– Sur des panneaux isolants en verre cellulaire (CG), l’étanchéité bitumineuse est généralement :

  • posée en adhérence totale  par collage à froid, collage au bitume ou soudage,
  • posée en semi-indépendance par collage à froid, collage au bitume ou soudage.

– Sur une étanchéité existante qui ne pose pas de problème, mais dont la durée de vie touche à sa fin, l’étanchéité bitumineuse peut être posée en adhérence totale par collage à froid, collage au bitume ou soudage.


Les étanchéités synthétiques

(D’après le tableau 1 de la NIT 151 du CSTC).
La pose des étanchéités synthétiques varie selon le matériau et est différente de celle des étanchéités bitumineuses. Exemples:

Les élastomères

  • EPDM Copolymère d’éthylène, de propylène et de diène-monomère vulcanisé

    Il sera posé en adhérence totale, en adhérence partielle ou en pose libre lestée. L’adhérence au support se fait par collage à l’aide de colle à chaud à base de bitume et d’EPDM, à l’aide de colle de contact, ou à l’aide de bitume lorsque les feuilles sont pourvues d’une couche dorsale constituée d’un voile qui sert à réaliser l’adhérence avec le bitume.Des membranes EPDM pourvues en leur sous-face d’une couche de bitume modifié SBS existent. Elles peuvent être soudées au chalumeau.Sur des tôles profilées en acier, l’EPDM est fixé mécaniquement au niveau des joints ou avec un système de vis spéciales qui ne traversent pas la membrane.

Les plastomères

  • PVC Polymère de chlorure de polyvinyle avec plastifiantLes membranes en PVC peuvent être soit fixées mécaniquement selon différentes méthodes (lorsqu’elles sont résistantes aux UV), soit être posées librement et lestées.Elles peuvent également être collées à la colle de contact ou au bitume chaud (dans le cas d’un PVC résistant au bitume).Dans de nombreux cas, comme avec le PVC non armé, il est utile de fixer l’étanchéité le long des rives pour maîtriser le retrait.

Choisir l’ensemble chaudière-brûleur pour les installations gaz ou mazout

Choisir l'ensemble chaudière-brûleur pour les installations gaz ou mazout


Puissance à installer

Le surdimensionnement des chaudières est source de surinvestissement et de surconsommation :

  • Augmentation des pertes à l’arrêt. En effet, celles-ci sont proportionnelles à la puissance installée. Toutefois, l’augmentation du niveau d’isolation des chaudières et la présence de brûleurs avec clapet d’air se refermant à l’arrêt ont fortement diminué les pertes et donc l’influence du surdimensionnement. C’est également le cas si on divise la puissance à installer en plusieurs chaudières et que celles-ci sont régulées correctement en cascade.
  • Augmentation des cycles de marche/arrêt du brûleur. Pour les chaudières modernes, c’est principalement ici que se situe le problème. Un brûleur trop puissant a des temps de fonctionnement plus courts et démarre plus souvent. Il y a augmentation des pertes par préventilation et des imbrûlés (les premières et les dernières gouttes de combustible injectées brûlent dans des mauvaises conditions). Cela conduit donc à une diminution du rendement et à une accélération de l’encrassement.

Cycle de fonctionnement d’un brûleur en fonction de son surdimensionnement. Si le brûleur adapte en permanence sa puissance aux besoins, il fonctionnera en continu (ce serait le cas des brûleurs modulants s’ils pouvaient faire varier leur puissance de 0 à 100 %, ce qui n’est pas le cas).

La puissance utile de la nouvelle chaudière doit donc être calculée suivant la norme NBN B62-003. Attention, les installateurs choisissent souvent la puissance de la chaudière de façon approximative :

  • en sommant la puissance des radiateurs existants,
  • ou en appliquant un ratio proportionnel au volume du bâtiment, du type 60 W/m³ (dans cas, ils font une hypothèse par défaut sur les performances énergétiques de l’enveloppe du bâtiment alors que l’on sait très bien que ces performances peuvent varier largement entre bâtiments),
  • ou en reprenant la puissance des chaudières existantes (souvent fortement surdimensionnées).

Ces règles conduisent à des surdimensionnements inadmissibles pour des nouvelles installations.

Concevoir

Il faudra en outre être attentif aux paramètres utilisés pour dimensionner l’installation. Par exemple, on arrivera à des résultats tout à fait différents en fonction de la température extérieure minimum que l’on aura considérée.

Faut-il surdimensionner la chaudière pour permettre l’intermittence ? Comment vérifier que dimensionnement a été effectué correctement ?

Pour en savoir plus sur les paramètres de dimensionnement des installations de chauffage.


Réglementations, labels et rendement annoncé

L’efficacité énergétique d’un ensemble chaudière(s) – brûleur(s) s’exprime par son rendement saisonnier. Celui-ci tient compte de la qualité de la combustion et des pertes des chaudières entre les périodes de fonctionnement du brûleur.

Il n’est malheureusement pas possible de connaître le rendement saisonnier du matériel que l’on achète. Cela est impossible puisque ce rendement dépend pas uniquement de la qualité intrinsèque du matériel mais aussi de son dimensionnement, de son raccordement hydraulique (surtout pour les chaudières à condensation) et de son mode de régulation.

Il existe donc peu de moyens pour comparer précisément les performances des différentes chaudières sur le marché.

Réglementations et labels

En plus des exigences réglementaires minimales auxquelles doivent répondre toutes les nouvelles chaudières vendues en Belgique, il existe bien des labels « énergétiques » pour les chaudières gaz (« HR+ » ou « HR Top ») et les chaudières fuel (Optimaz et Optimaz-élite). Il faut cependant savoir que ces labels ne présentent pas toujours des exigences nettement plus élevées que les exigences réglementaires : en ce qui concerne le gaz, le label HR+ exige des rendements identiques à la législation tandis que pour le fioul, le label Optimaz demande des rendements un peu plus élevés que le minimum légal. Ils ne permettent pas non plus de comparer, entre elles, des chaudières possédant le même label (les performances mesurées ne sont pas affichées avec le label).

 

Labels OPTIMAZ  pour les ensembles chaudière/brûleur fuel et OPTIMAZ-Elite pour la technologie à condensation..

 

Label HR+ pour les chaudières gaz traditionnelles et HR Top pour les chaudières gaz à condensation.

Cependant, à défaut d’autres références, l’utilisation de ces labels peut être conseillée, ne fut-ce que parce qu’ils apportent la garantie que les performances minimales requises ont été vérifiées en laboratoire (pour les chaudières ne possédant pas de label, il faut souvent se fier à la bonne foi du fabricant).

Rendement annoncé

Les rendements annoncés par les fabricants dans leur documentation ne sont généralement guère comparables car mesurés dans des conditions différentes (selon une méthode propre au fabricant, selon les exigences des A.R. de 88 et de 97, …) et ne représentent jamais le véritable rendement en exploitation.

La norme allemande DIN 4702, partie 8, propose une méthode normalisée pour chiffrer le rendement saisonnier d’une chaudière dont le résultat se rapproche le plus du rendement réel (moyenne de mesures dans cinq conditions représentatives d’un moment de la saison de chauffe).

En comparant les équipements des fabricants appliquant cette méthode, on peut se faire une idée plus précise de l’économie que l’on peut faire en choisissant l’un ou l’autre matériel : elle est proportionnelle au rapport des rendements.

Exemple.

Un fabricant annonce pour sa chaudière un rendement annuel de 94 % selon la norme DIN 4702. Un autre annonce un rendement de combustion supérieur à 92 %.

La différence entre ces deux chaudières semble être de 2 %. Ce n’est pas le cas. Ces deux chiffres ne sont, en effet, pas comparables : tandis que le rendement mesuré suivant la norme DIN 4702 se rapproche grossièrement des conditions réelles d’exploitation, le rendement de combustion ne comptabilise pas toutes les pertes de la chaudière.

Ainsi pour une chaudière correctement dimensionnée ayant des pertes à l’arrêt de 0,5 %, un rendement de combustion de 92 % conduit à un rendement saisonnier de 90,9 %. C’est plus ce chiffre qu’il faudrait comparer aux 94 %.

On peut alors « imaginer » que la première chaudière consommera :

1 – 90,9 [%] / 94 [%] = 3 [%]

de moins que la seconde.

Ordre de grandeur :

Les chaudières traditionnelles (pas à condensation) actuelles les plus performantes ont un rendement annuel suivant la norme DIN 4702 de l’ordre de 94 %. Ceci équivaut pour une chaudière correctement dimensionnée à un rendement de combustion moyen théorique de l’ordre de 94,5 .. 95,3 %.

Attention, le calcul présenté ci-dessus est purement indicatif. il permet plus ou moins de classer des chaudières mais ne correspond pas forcément au rendement réel obtenu en exploitation. En effet,

  • Il ne tient pas compte de la production d’eau chaude sanitaire qui pourrait être combinée à la chaudière (dans ce cas le rendement saisonnier diminue).
  • Les régimes de fonctionnement considérés par la norme DIN 4702 ne peuvent pas, en pratique, être appliqués à toutes les chaudières. Par exemple, deux chaudières peuvent avoir le même rendement théorique suivant la norme, mais une des deux chaudières ne peut, en pratique, pas fonctionner avec un régime de température de 40°/30° (prévu pour la mesure en laboratoire). Dans ce cas cette chaudière aura un rendement, en exploitation, plus bas que l’autre.

Pertes à l’arrêt

Les fournisseurs de chaudières reprennent, en principe, dans leur documentation, la valeur des pertes à l’arrêt de leur matériel (coefficient exprimé en % de la puissance nominale de la chaudière). Attention, cependant, à la valeur du coefficient de perte à l’arrêt (ou coefficient d’entretien) mentionnée. En effet, il n’est pas mesuré de la même manière chez tous les fournisseurs. Il faut comparer les températures de chaudière considérées pour la mesure, ce qui n’est pas évident.

Extrait de catalogue : les pertes à l’arrêt mentionnées sont mesurées pour une différence de température entre l’ambiance et l’eau de 30°C et la consommation d’entretien pour une différence de température de 50°C.

Pour les chaudières à brûleur pulsé ou à prémélange modernes, il n’y a guère de différence entre les différentes marques. On retrouve une épaisseur d’isolation équivalente à 10 cm de laine minérale pour quasi tous les matériels.

Où les pertes à l’arrêt commencent à jouer un rôle important, c’est dans le choix d’une chaudière gaz atmosphérique dont le foyer reste en permanence ouvert. Néanmoins, il est très rare que l’on installe encore ce type de matériel. En effet, cette technologie est en beaucoup de points dépassée par les chaudières à prémélange avec ventilateur.

Exemple.

Ordre de grandeur :

Les chaudières actuelles les plus performantes ont des pertes à l’arrêt de l’ordre de 0,1 .. 0,3 [%] (de la puissance nominale) pour une différence de 40°C entre l’eau et l’ambiance.

Les chaudières les moins performantes dépassent 0,5 .. 0,6 % de pertes.


Chaudière « basse température » ou « très basse température » ? Un débat dépassé

Actuellement, on retrouve sur le marché des chaudières dites :

  • « Basse température », dont la température moyenne d’eau interne ne peut descendre en-dessous d’une certaine valeur, de l’ordre de 50 .. 60°C (on parle aussi dans la réglementation de chaudières « standards »). Même si cette technologie devient rare pour les nouvelles installations travaillant au gaz ou au mazout, elle est encore d’application pour les chaudières bois-énergie où la température de retour vers la chaudière est limitée à une valeur minimale (souvent autour de ~50°C).
  • « Très basse température », ne présentant aucune contrainte en ce qui concerne la température de l’eau. Cette dernière peut totalement redescendre entre les périodes de fonctionnement du brûleur. La conception de ces chaudières vise soit à éviter la condensation des fumées, même avec des températures d’eau peu élevées, soit à résister à la corrosion qui pourrait en résulter. Pour les nouvelles chaudières au gaz ou au mazout, les chaudières sont à « très basse température » lorsqu’elles ne sont pas à condensation
  • Parallèlement à ces chaudières souvent appelées « traditionnelles », on trouve également les chaudières à condensation conçues, elles, pour favoriser la condensation des fumées et fonctionnant avec les températures d’eau les plus basses. Pour les nouvelles installations, la condensation se justifie pour le gaz et mazout étant donné le gain de rendement que celle-ci permet.

Dans le contexte d’une nouvelle installation au gaz ou au mazout, la question n’est plus de faire le choix entre une « chaudière basse » ou « très basse température ». A notre sens, il s’agit d’un débat dépassé. En fait, à l’heure actuelle, il s’agit plutôt de faire le choix entre les chaudières à condensation et les chaudières « très basse température ». En effet, malgré le gain de rendement obtenu grâce à la condensation, il peut exister des situations où l’utilisation de la chaudière ne permet pas d’amortir le surinvestissement entre le « très basse température » et la condensation.

Bien que dépassée, la comparaison entre les techniques « basse » et « très basse température » reste développée ci-dessous afin d’avoir un discours complet. À noter que la question pourrait resurgir pour les chaudières au bois dans la mesure où la majorité des chaudières actuelles ont une température de retour minimale imposée (c.-à-d. chaudière « basse température »).

Avantages de la très basse température par rapport à la basse température

L’intérêt énergétique de choisir une chaudière pouvant travailler à très basse température en étant régulée en température glissante se situe au niveau de :

  • la diminution de ses pertes à l’arrêt, dont l’impact sur le rendement saisonnier dépend du type de chaudière;
  • la limitation des pertes par distribution dans le collecteur primaire, dans le cas des circuits avec distribution secondaire possédant sa propre régulation de température (vannes mélangeuses),
  • la limitation des pertes de distribution dans l’ensemble du réseau dans le cas des installations sans circuit secondaire,
  • le fonctionnement correct des vannes thermostatiques dans le cas des installations sans circuit secondaire.

Remarque : on pourrait imaginer que la diminution de la température de l’eau va améliorer l’échange entre les fumées et l’eau et donc diminuer la température moyenne de fumée. L’impact sur le rendement moyen de combustion est cependant le plus souvent négligeable étant donné la technologie appliquée dans les chaudières « très basse température » (dans lesquelles le but est de freiner l’échange entre l’eau et les fumées afin d’éviter la condensation).

Exemples.

Prenons une chaudière moderne à brûleur pulsé correctement dimensionnée de 300 kW. Son coefficient de perte à l’arrêt à température nominale (température d’eau de 70°C) est de 0,3 %. Si cette chaudière travaille en température glissante, sa température moyenne sur la saison de chauffe sera d’environ 43°C. Son coefficient de perte à l’arrêt moyen sera alors de 0,11 % :

[(43 [°C] – 20 [°C]) / (70 [°C] – 20 [°C])]1,25 x 0,3 [%] = 0,11 [%]

Par rapport au fonctionnement permanent de la chaudière à température constante de 70°C, cela permet un gain sur le rendement saisonnier (et donc sur la consommation) de seulement 0,4 %.

Prenons l’exemple d’une chaudière gaz à brûleur atmosphérique ancienne génération de 300 kW surdimensionnée de 100 %. Son coefficient de perte à l’arrêt à température d’eau de 70°C est de 1,3 %.

Si cette chaudière travaille en température glissante (température moyenne sur la saison de chauffe d’environ 43°C), le gain sur le rendement saisonnier sera cette fois de 4 %, par rapport au fonctionnement permanent de la chaudière à température constante de 70°C.

Exemple.

Une chaudière alimente un collecteur primaire DN 50 de 20 m (aller-retour), isolé par 4 cm de laine minérale.

Si le collecteur est alimenté en température glissante sans limite basse, la température moyenne du collecteur durant la saison de chauffe sera d’environ 43°C. Si la température du collecteur est limitée vers le bas, elle sera de 63°C.

Pour chacun des deux cas, la perte de distribution en chaufferie (température ambiante de 15°C) s’élève à :

Cas de la température glissante : 0,271 [W/m.°C] x 20 [m] x (43 [°C] – 15 [°C]) x 5 800 [heures/an] = 880 [kWh/an] ou 88 [litres fuel/an] ou 88 [m³ gaz/an].

Cas de la température glissante avec limite basse : 0,271 [W/m.°C] x 20 [m] x (63 [°C] – 15 [°C]) x 5 800 [heures/an] = 1 509 [kWh/an] ou 151 [litres fuel/an] ou 151 [m³ gaz/an].

Évaluer

Pour évaluer les pertes du réseau de distribution !

Les chaudières « très basse température », présentent un autre avantage qui peut justifier à lui seul leur choix (et leur surcoût) par rapport aux chaudières « basse température ». En effet, choisir une chaudière ne pouvant descendre en dessous de 50-60°C implique une conception des circuits hydrauliques plus complexes : collecteur bouclé, pompe de recyclage sur les chaudières, … . De plus, malgré une conception rigoureuse, on est rarement à l’abri, de par l’exploitation, d’un risque de condensation et donc de détérioration, par exemple lors de la relance matinale. Cela ne pose aucun problème avec les chaudières « très basse température ».

Cas imposant le fonctionnement à haute température

En outre, il existe des situations pour lesquelles la régulation des chaudières en température glissante, sans limite basse, ne convient pas à l’installation.

> Cas 1 : une installation combinée alimentant à partir du même collecteur primaire un échangeur instantané (échangeur à plaques) pour la production d’eau chaude sanitaire.

Si le volume d’eau de la chaudière et du collecteur est trop important (long collecteur), le temps de remontée en température de la chaudière risque d’être trop important et donc le temps d’attente trop long lors de chaque puisage d’eau.

Exemple.
Une chaudière de 800 kW alimente un collecteur de 20 m DN 50. La contenance en eau de la chaudière est de 1 500 litres, celle du collecteur de 173 litres.Si la température moyenne de la chaudière et du collecteur est de 43°C durant la saison de chauffe, le temps de remontée en température jusqu’à 70°C, pour produire de l’eau chaude sanitaire est de :

1,16 [kWh/m³.°C] x 1,673 [m³] x (70 [°C] – 43 [°C]) / 800 [kW] = 0,065 [h] ou 4 [min]

où 1,16 [kWh/m³.°C] = la capacité calorifique de l’eau.

Concevoir

Pour en savoir plus sur le choix du système de production d’eau chaude sanitaire.

> Cas 2 : la combinaison de plusieurs chaudières, régulées en cascade, d’une boucle primaire fermée et de circuits secondaires équipés de vannes mélangeuses.

Ces circuits présenteront des problèmes de débit d’eau chaude et d’inconfort dans certaines zones de l’installation si la température des chaudières est trop proche de la température de consigne des circuits secondaires. Les chaudières doivent donc rester à plus haute température que les utilisateurs.

Évaluer

Pour en savoir plus sur l’inconfort lié au circuit primaire.

Calculs

Simuler les problèmes d’incompatibilité hydraulique.

Concevoir

Pour en savoir plus sur le choix du type de circuit primaire.

Chaudière « basse température » ou à condensation ?

Une chaudière « très basse température » fonctionne avec des températures d’eau pouvant provoquer la condensation des fumées mais qui ne condense pas pour éviter tout risque de corrosion. En gros, on bride ses performances. Or, si les conditions sont réunies pour fonctionner en très basse température, autant opter pour une chaudière à condensation qui possède un meilleur rendement. Pour le gaz et mazout, la technologie à condensation s’impose pour la majorité des cas, même s’il existe encore certaines applications où le surinvestissement par rapport à la « très basse température » n’est amorti.

Intérêt énergétique d’une chaudière à condensation

Pour comparer le rendement des chaudières à condensation et celui des chaudières basse température, il faut comparer leur rendement global annuel ou rendement saisonnier, qui prend en compte toutes les pertes de la chaudière (par les fumées, par rayonnement et d’entretien), en fonction de la charge réelle de la chaudière durant toute la saison de chauffe et non le rendement utile maximal qui est annoncé par beaucoup de fabricants dans leur catalogue.

Ce gain réel obtenu par une chaudière à condensation est difficile à estimer d’une manière générale car il dépend de la température d’eau qui irrigue la chaudière et qui est évidemment variable (elle dépend de la courbe de chauffe choisie et donc du surdimensionnement des émetteurs).

Sur base des informations de l’ARGB et des programmes de simulation de certains fabricants, on peut dire que 6 .. 9 % d’économie sur la consommation annuelle est un ordre de grandeur réaliste (voire peut-être un peu plus pour les meilleures installations) pour les chaudières au gaz.
Ce gain doit être comparé au surcoût d’une chaudière à condensation.

Concevoir

Pour plus de détails sur :

  • Le choix du circuit relié à une chaudière à condensation, cliquez ici !

Installations propices à la condensation

Le gain dépend du taux de condensation réel, donc de la température de l’eau au retour vers la chaudière et donc de la configuration de l’installation raccordée sur la chaudière.

Toutes les installations fonctionnant à basse température sont propices à l’installation d’une chaudière à condensation, c’est d’autant plus vrai pour le mazout que pour le gaz :

  • les ventilos convecteurs dimensionnés en régime 55°/40°,
  • le chauffage par le sol dimensionné en régime 40°/30°,
  • les radiateurs dimensionnés en régime 70°/50°,
  • le chauffage de l’eau d’une piscine (eau du bassin à 26 .. 28°C),
  • la production d’eau chaude sanitaire dimensionnée en régime 70°/40°,
  • les batteries à eau chaude dimensionnées en régime 70°/40°.

Le léger surinvestissement consenti en choisissant de tels régimes de dimensionnement sera rapidement compensé par l’économie réalisée par la condensation. Une analyse de rentabilité cohérente demande de travailler sur base des performances saisonnières de l’installation. Même si cela ne fait pas office de démonstration, la figure ci-dessus illustre le gain de rendement théorique utile accessible en fonction de la température de retour (c’est-à-dire, typiquement la température des fumées – 5°C).

Evolution du rendement basé PCI en fonction de la température des fumées pour les différents combustibles (excès d’air pris à 1.2). Les échangeurs des chaudières à condensation permettent typiquement de réduire la température des fumées jusqu’à 5°C supérieurs à l’eau de retour. Par exemple, si la température de retour est de 30°C, la température des fumées devrait être proche de 35°C.

Intérêt d’installer une chaudière à condensation lors de la rénovation d’une ancienne installation de chauffage (haute température)? Oui!

Les émetteurs basse température étant propice à la condensation, Cela ne veut pas dire que dans le cas de la rénovation d’une installation équipée de radiateurs dimensionnés de façon traditionnelle (régime d’eau 90°/70°), la condensation ne peut être valorisée.

En effet, la puissance moyenne de chauffage d’un bâtiment est de moitié inférieure à sa puissance de dimensionnement (température extérieure moyenne de la saison de chauffe = 5..6°C, température extérieure de dimensionnement = – 8.. -1 0°C). Ceci signifie que, pour une installation équipée de radiateurs non surdimensionnés et calculés pour un régime d’eau de 90°/70°, la température moyenne de retour de l’eau est voisine de 43° avec une régulation en température glissante.

        

Evolution de la température de retour d’une installation dimensionnée en régime 90°/70° et régulée en température glissante en fonction de la température extérieure. Comparaison avec la température de rosée des fumées d’une chaudière gaz et mazout. On voit que la chaudière condense sur une majeure partie de l’année (voir second graphe).  En termes d’énergie, on voit que 75% de l’énergie sera fournie en condensant pour le gaz pou r40% pour le mazout.

En pratique, on peut considérer que ~75% de l’énergie délivrée par la chaudière au gaz aura lieu avec condensation pour approximativement ~40% pour le mazout. L’intérêt pour la condensation au gaz semble donc assez évident, même en régime 90°/70°. Néanmoins, il est aussi présent pour le mazout mais dans une moindre mesure. En outre, il faut savoir qu’en l’absence de condensation, les chaudières à condensation gardent un rendement supérieur aux chaudières traditionnelles parce qu’elles possèdent une surface d’échangeur supérieure.

Si les radiateurs ont été dimensionnés pour un régime de température 70°/50°, la chaudière gaz condensera durant toute la saison de chauffe. En ce qui concerne le mazout, le régime de température 70°/50°C est nettement plus favorable. A notre sens, il est préférable de travailler avec ce régime de température si on veut plus s’assurer de l’efficacité de l’installation au mazout à condensation, si l’on veut tirer le meilleur profit de cette technologie.

     

Evolution de la température de retour d’une installation dimensionnée en régime 70°/50° et régulée en température glissante en fonction de la température extérieure.

Notons que, dans la pratique, la plupart des radiateurs d’une installation existantes sont surdimensionnés et ne demandent jamais la température d’eau de 90°C (de dimensionnement). Pour s’en convaincre, il suffit d’interroger le gestionnaire de la chaufferie sur la température maximale des chaudières qu’il règle par les plus grands froids, ce, sans que les occupants ne se plaignent. Cette température est bien souvent inférieure à 90°C. De plus, souvent, l’isolation partielle du bâtiment (isolation de la toiture, placement de double vitrage) a encore renforcé le surdimensionnement. Dans ces conditions, une installation de chauffage initialement dimensionnée dans un régime 90°/70° pourrait être adaptée pour un régime de température inférieur de 70°/50° sans perte de confort et favorisant (ou consolidant) ainsi la condensation.

Cas particulier : chaudière à condensation, production d’eau chaude sanitaire et légionelles

Certains règlements sanitaires récents imposent de produire l’eau chaude sanitaire à une température de 80°C, pour éviter le développement de légionnelles. Ces règlements vont évidemment à l’encontre de l’efficacité énergétique puisqu’ils obligent le maintien des chaudières à une température permanente de 90°C.

Cette situation n’élimine cependant pas toutes les chaudières à condensation. Restent possibles les chaudières qui :

  • permettent deux retours à des températures différentes. La production d’eau chaude est raccordée sur le retour « chaud » de la chaudière et les corps de chauffe sont raccordés sur le retour « froid »;
  • et peuvent fonctionner sans débit imposé. En effet, ces chaudières, n’étant pas raccordées sur un circuit avec bouteille casse-pression, ne doivent pas suivre au plus près la température des circuits secondaires pour condenser correctement, car aucun retour d’eau à haute température vers la chaudière n’est possible même lorsque les vannes des circuits secondaires sont peu ouvertes.

Illustration d’un circuit avec deux retours à température différentes (retour « chaud » et « froid ») ainsi qu’une chaudière sans débit imposé (sans bouteille casse pression).

Exemple de circuit hydraulique raccordé à une chaudière à condensation demandant un débit minimal permanent.

Si cette chaudière doit en même temps produire de l’eau chaude sanitaire, elle sera tenue de fonctionner un certain temps, pour ne pas dire tout le temps, à haute température. Dans ce cas, les vannes des circuits secondaires devront se refermer pour obtenir la température voulue par ces derniers. Le surplus d’eau chaude alors produit par la chaudière sera directement renvoyé vers celle-ci via la bouteille casse-pression et elle ne condensera plus.

Critères de performance d’une chaudière à condensation

Toutes les chaudières à condensation n’ont pas les mêmes performances. Il faut en tenir compte lors du choix de sa chaudière :

  • la qualité de l’échangeur
  • le contrôle fin de l’excès d’air
  • la possibilité de modulation du brûleur sur la plus grande plage de puissance possible
  • un circuit hydraulique associé à la chaudière qui évite tout recyclage d’eau chaude vers la chaudière (chaudière à grand volume d’eau)

La qualité de l’échangeur

Pour un même type de combustible, toutes les chaudières à condensation ne présentent pas la même efficacité énergétique intrinsèque. Celle-ci dépend notamment de la conception de leur échangeur.

Malheureusement, même des chaudières présentant un très faible taux de condensation satisfont à certains labels (exemple, Optimaz-élite pour le fioul) et à la réglementation imposant un rendement minimum aux chaudières vendues en Belgique.

On retrouve ainsi sur le marché, des chaudières à condensation, guère plus performantes que des chaudières traditionnelles haut rendement.

En tant que maître d’ouvrage, il est cependant difficile de connaître la qualité énergétique de la chaudière à condensation que l’on achète. Il n’existe en effet pas de norme qui définit la manière dont doit être mesurée l’efficacité. Le rendement utile, calculé au départ de la fiche technique des chaudières, peut être une indication.

En cas de doute sur la qualité intrinsèque d’une chaudière, l’avis de l’ARGB  pour le gaz ou CEDICOL pour le mazout peut être pris.

Exemple : caractéristiques techniques de 2 chaudières gaz à condensation.

Chaudière de marque x : le rendement utile(sur PCI) est de 96,8 % au régime d’eau 80°/60°, de 100,2 % au régime 70°/50° et 106 % au régime 40°/30°.

Chaudière de marque y : le rendement utile(sur PCI) à pleine charge est de (300/309) = 97 % au régime d’eau 75°/60° et (323/309) = 104,5 % au régime 50°/30°.

Un autre critère peut être demandé au fabricant pour évaluer les performances de l’échangeur thermique (donnée ne se trouvant pas dans leur documentation technique) : la différence de température entre les fumées et l’eau de retour qu’ils obtiennent avec leur matériel. Une valeur inférieure ou égale à 5°C indique une bonne performance de l’échange.

Le contrôle de l’excès d’air

Rendement utile d’une chaudière gaz en fonction de la température des fumées et de l’excès d’air (n = 1,3 équivaut à un excès d’air de 30 %).

L’énergie récupérée grâce à la condensation dépend fortement de l’excès d’air lors de la combustion (la température de rosée des fumées diminue quand l’excès d’air augmente).

C’est pourquoi, les anciennes chaudières gaz atmosphériques à condensation présentaient de moins bonnes performances. En effet, elles fonctionnaient avec un excès d’air supérieur à 50%. Heureusement, ce type de chaudière n’est quasi plus commercialisé et est remplacé par des brûleurs à prémélange permettant un dosage plus juste de l’air comburant.

Les chaudières à condensation les plus sophistiquées régulent, en continu, le dosage du gaz et de l’air, au moyen d’une analyse de l’oxygène contenu dans les fumées.

La modulation de la puissance du brûleur

La diminution de la puissance du brûleur avec la charge favorise la condensation puisqu’elle entraîne la diminution de la température de fumée. On a donc intérêt à choisir une chaudière dont le brûleur est le plus modulant possible, sur la plus grande plage de puissance possible.

Par exemple, une chaudière à prémélange au gaz peut moduler de 10 à 100 % de sa puissance nominale. Cela n’est actuellement possible que dans les ensembles où le brûleur a été développé en intégration avec la chaudière (en d’autres termes, pour les chaudières dites de type « unit »). Les chaudières à condensation que l’on équipe d’un brûleur pulsé modulant traditionnel (gaz ou mazout) ne peuvent atteindre cette plage de modulation. Effectivement, elles modulent de 30 à 100 % de la puissance nominale. En outre pour les faibles puissances, les brûleurs pulsés au mazout sont seulement équipés d’une voire deux allures car la technologie du brûleur mazout doit augmenter significativement en complexité pour assurer une modulation continue, complexité qui ne se justifierait pas pour les faibles puissances.

Nous manquons malheureusement de données neutres pour juger de la différence énergétique réelle de chacune de ces solutions.

En ce qui concerne le gaz, l’ARGB semble toutefois pencher pour l’utilisation d’un brûleur modulant dans la plus grande plage de puissance possible, en maintenant le rapport air/gaz constant et l’excès d’air minimal sur toute la plage de modulation, ce parce que :

  • les principales économies apparaîtraient lorsque la modulation peut abaisser la puissance en dessous de 30 % de la puissance nominale,
  • le taux d’émission annuel de NOx serait plus faible.

La conception du circuit hydraulique

L’efficacité énergétique de la chaudière à condensation dépend fortement du circuit hydraulique. Celui-ci dépend du type de chaudière et des utilisateurs (chauffage par le sol, par radiateur, batteries à eau chaude, production d’eau chaude sanitaire).

Il faut garantir que les retours d’eau vers la chaudière soient les plus froids possibles pour permettre la condensation maximale des fumées.

Une erreur de conception de l’hydraulique de l’installation peut faire perdre tout le bénéfice escompté d’une chaudière à condensation. C’est ainsi que l’on rencontre des installations avec chaudière à condensation, dont le condenseur ne laisse échapper qu’un mince filet d’eau … voire aucune eau …

Concevoir

Pour en savoir plus sur la conception des circuits hydrauliques favorisant la condensation.

Chaudière gaz à brûleur pulsé ou à prémélange modulant ?

Lorsque l’on désire installer une chaudière gaz d’une puissance inférieure à ~1MW, on a le choix entre :

À l’heure actuelle, on n’installe plus de chaudière atmosphériques de conception ancienne. En effet, cette technologie est maintenant largement dépassée par les chaudières gaz modulantes à prémélange (avec un ventilateur et contrôle de combustion). En effet, les chaudières atmosphériques présentent des inconvénients non négligeables: un rendement utile moindre, une production importante de NOx, des pertes à l’arrêt plus importantes.

Des chaudières atmosphériques à prémélange sont encore installées. Le prémélange permet de palier à une série d’inconvénient de l’ancienne génération de chaudières atmosphériques, notamment en termes de gestion de l’excès d’air et d’une meilleure maîtrise de l’émission de NOx. Néanmoins, cette technique ne permet d’atteindre les meilleures performances.

En effet, les chaudières à prémélange avec ventilateur et contrôle de combustion permettent d’atteindre les meilleurs rendement, un large plage de modulation (de 10 à 100% de la  Pn) ainsi qu’un production maîtrisée de NOx. Ceci explique leur succès. Pour les puissances inférieures à ~1000 kW, ces chaudières gaz sont préférées aux chaudières gaz à brûleurs pulsés parce que la plage de modulation du brûleur pulsé est plus réduite (de 30 à 100% de Pn) et son coût plus important.

Pour les puissances supérieures à 1MW,  il est techniquement difficile de réaliser des brûleurs à prémélange. Pour continuer de travailler sur base de cette technologie, il sera alors nécessaire de travailler avec plusieurs chaudières en cascade, ce qui permet aussi d’améliorer la plage globale de modulation de l’ensemble de l’installation. Au delà de trois chaudières en cascade, l’installation devient difficile à réguler, à piloter, de manière optimale. Par conséquent, les technique gaz à brûleur à prémélange avec ventilateur seront raisonnablement limitées au tour de ~3MW. Entre 1MW et 3MW, les brûleurs pulsés au gaz prennent progressivement de l’intérêt pour s’imposer au delà de ~3MW (lorsque que les techniques à prémélange sont « hors-jeu »).

Évaluer

 Connaître le rendement utile d’une chaudière atmosphérique.
Exemple : comparaison des coûts d’exploitation d’une chaudière à brûleur pulsé et d’une chaudière atmosphérique.

Considérons des chaudières de 200 kW dont les caractéristiques sont les suivantes :

  • Solution 1 : Chaudière atmosphérique ancienne génération (encore vendue) avec un rendement utile de 89 % et des pertes à l’arrêt 1,3 %, production de NOx > 150 mg/kWh.
  • Solution 2 : Chaudière atmosphérique à brûleur à prémélange avec un rendement utile de 92 % et des pertes à l’arrêt 0,8 % (avec obturateur sur les fumées), production de NOx < 80 mg/kWh.
  • Solution 3 : Chaudière à brûleur pulsé modulant avec un rendement utile moyen (sur la saison de chauffe) de 94 % et des pertes à l’arrêt 0,2 %, production de NOx < 80 mg/kWh.
  • Solution 4 : Chaudière à brûleur radiant modulant avec un rendement utile moyen de 94 % et des pertes à l’arrêt 0,5 %, production de NOx < 80 mg/kWh

en considérant que les chaudières sont correctement dimensionnées, on peut estimer leur rendement saisonnier :

Choix de la chaudière

Rendement saisonnier

Surconsommation par rapport à la solution 3

Solution 1 86,4 % 8 %
Solution 2 90,3 % 3,8 %
Solution 3 93,8 % 0,1 %
Solution 4 93,9 %

Pour une consommation annuelle de l’ordre de 35 000 m³ de gaz, cela donne une surconsommation de :

Choix de la chaudière

Surconsommation par rapport à la solution 3

Solution 1 2 800 m³gaz/an
Solution 2 1 330 m³gaz/an
Solution 3
Solution 4

Technologies Low NOx

Ces dernières années, les développements des ensembles « chaudières-brûleurs » se sont concentrés sur la réduction des émissions polluantes, notamment des émissions de NOx. En parallèle, en juillet 09, est entré en application, un Arrêté Royal fixant le taux maximal d’émission des nouvelles chaudières et des nouveaux brûleurs vendus en Belgique pour les combustibles liquides et gazeux.

On a évidemment intérêt, d’un point de vue environnemental, à choisir le matériel le moins polluant possible en allant plus loin encore que les exigences légales.

Comment connaître le taux d’émission de NOx de l’ensemble chaudière-brûleur que l’on installe ?

Pour les chaudières gaz à brûleur intégré (type « unit »), les fabricants indiquent dans leur documentation le taux d’émission de leur matériel. Notons que les chaudières gaz atmosphériques sans prémélange produisent plus de NOx que les chaudières gaz à brûleur pulsé ou les chaudières à prémélange.

Pour les chaudières à brûleur pulsé, il faut se fier aux technologies appliquées (chaudières à triple parcours, brûleurs « Low NOx » fuel ou gaz).


Fonte ou acier ?

Si on considère les qualités intrinsèques de ces deux matériaux, le débat n’a guère lieu d’être en ce qui concerne les chaudières modernes.

  • En effet, les deux matériaux ont des capacités semblables de résistance à la corrosion, de longévité et de recyclage. Remarquons que, de manière générale, ni la fonte, ni l’acier ne sont capables de résister aux condensats acides.
  • Les chaudières à condensation sont en général en acier inoxydable ou en fonte d’aluminium.
  • La fonte est certes plus cassante que l’acier et supporte mal les chocs thermiques. C’est pourquoi certains constructeurs imposent le maintien d’un débit d’eau minimal constant dans la chaudière. Ceci complexifie la conception du réseau hydraulique et diminue la performance des chaudières à condensation. D’autres constructeurs ont par contre trouvé des astuces techniques pour concevoir des chaudières en fonte ne nécessitant aucune irrigation minimale et pouvant être raccordées à des circuits hydrauliques extrêmement simples (circuits primaires ouverts).
  • La fragilité de la fonte face aux tensions thermiques rend ces chaudières plus sensibles aux dépôts de boue et aux défauts d’irrigation qui en résulte. La fonte est donc à déconseiller dans les anciennes installations connaissant des problèmes d’embouage et d’entartrage. Notons à ce sujet que si l’installation contient des boues, le problème doit être réglé avant le remplacement des chaudières, sous peine de voir celles-ci se détériorer rapidement.
  • Les possibilités actuelles de formage permettent d’obtenir, avec l’un ou l’autre des matériaux, des chaudières performantes ne présentant pas de condensation même en travaillant en très basse température.
  • Les chaudières en fonte présentent un avantage pratique par rapport aux chaudières en acier : elles peuvent être acheminées en pièces détachées dans la chaufferie et montées sur place, ce qui est parfois indispensable dans les chaufferies d’accès étriqué.

   

Élements de chaudière en fonte, triple parcours, en attente de montage.

  • Pour les très petites puissances (< 50 kW), les chaudières en fonte sont moins chères que leurs cousines en acier. Pour les grosses puissances (> 300 kW), c’est l’inverse.

Grand ou faible volume d’eau ?

On rencontre sur le marché :

  • des chaudières à faible volume d’eau (0,15 .. 0,2 litre/kW) et perte de charge importante,
  • des chaudières à grand volume d’eau (plus de 1 litres/kW) et faible perte de charge.

Les fabricants de chacune de ces chaudières présentent leur technologie comme un avantage. Essayons dès lors d’y voir plus clair.

Il est vrai que chacune des techniques a ses avantages, le débat se situant principalement au niveau de l’exigence d’un débit minimum dans la chaudière pour permettre son fonctionnement et de la complexité du circuit primaire qui doit être associé à la chaudière.

Une chaudière à faible volume d’eau a très peu d’inertie, elle peut donc réagir très rapidement à toute demande de variation de puissance, par exemple dans le cas d’une demande d’eau chaude sanitaire et d’une régulation avec priorité sanitaire. Par contre, ces chaudières sont souvent soumises à des impositions de débit minimal et leur perte de charge a un rôle important sur le comportement hydraulique de l’installation. Ceci rend la conception des circuits de distribution plus complexe. En outre, les faibles sections de passage de l’eau rendent la chaudière plus sensible aux risques d’embouage. Ceci peut être un frein à son utilisation en rénovation dans des installations contenant des boues.

Exemple de circuit raccordé à des chaudières à faible volume d’eau. L’alimentation en eau des chaudières est permanente (bouteille casse-pression, circulateur de recyclage, …) même lorsque les vannes mélangeuses sont fermées. Une boucle de « Tychelman » n’est pas nécessaire puisque la perte de charge de la tuyauterie est négligeable par rapport à la perte de charge des chaudières.

Une chaudière à grand volume d’eau a une plus grande inertie thermique. Ceci augmente les temps de fonctionnement des brûleurs et donc limite le nombre de démarrages du brûleur, source d’imbrûlés. Les chaudières à grand volume d’eau peuvent fonctionner sans circulation forcée. Lors du fonctionnement du brûleur, le débit d’eau interne circulant par thermosiphon est suffisant pour éviter tout risque pour la chaudière. Cette possibilité de fonctionner sans pompe d’irrigation simplifie grandement la conception des circuits de distribution, diminue les coûts d’investissement et d’exploitation.

Exemple de circuit raccordé à des chaudières à grand volume d’eau. Il n’y a pas de pompe primaire (sauf si les collecteurs se trouvent dans une sous station éloignée de la chaufferie). L’absence de débit dans les chaudières quand les vannes mélangeuses sont fermées ne pose aucun problème. Le circuit primaire est moins coûteux en investissement et en exploitation (moins de pompes).

Notons qu’il existe des technologies qui combinent la rapidité de réaction liée à un faible volume d’eau et la possibilité de se raccorder à un circuit hydraulique extrêmement simple. C’est la régulation intégrée à la chaudière qui coupe cette dernière en cas d’arrêt de la circulation (« flow switch » qui mesure le débit de chaque chaudière ou « aquastat » qui mesure une montée en température anormale de la chaudière).


Nombre de chaudières

Lorsque la puissance utile à installer est supérieure à 200 kW, la dissociation de la production en plusieurs chaudières peut être envisagée. Dans la lecture des éléments suivants, il y a une distinction claire à faire entre les anciennes technologies de chaudières (avec des pertes à l’intérêt significatives) et les chaudières modernes (où les pertes à l’arrêt sont réduites). Comme nous sommes dans une section relative à la conception de nouvelles installations, il faut dès lors se focaliser sur ces chaudières modernes. Pour celles-ci, la division de la puissance à installer en plusieurs chaudières est essentiellement destinée à assurer la production en cas de panne d’une des chaudières (c.-à-d. la sécurité d’approvisionnement). D’un point de vue purement énergétique, la division en plusieurs chaudières peut même être légèrement défavorable avec les chaudières modernes possédant des possibilités de modulation en puissance (brûleur deux allures ou modulant). En effet, les chaudières modernes présentent des rendements de combustion supérieurs à charge partielle, c’est notamment le cas des chaudières à condensation au gaz à prémélange équipée d’un brûleur modulant (de 10 à 100% de la puissance nominale).

Intérêt de diviser la puissance à installer en plusieurs chaudières

Démultiplier le nombre de chaudières a comme intérêt de :

Assurer la continuité de la fourniture de chaleur en cas de panne d’un générateur ?

Avec les chaudières modernes, c’est le principal argument en faveur de la démultiplication des chaudières. En effet, dans certaines applications, on souhaite que l’installation de chauffage puisse fonctionner, même si une des chaudières tombe en panne. C’est par exemple le cas des hôpitaux où la sécurité d’approvisionnement est vitale.

On pourrait imaginer que pour garantir la fourniture de chaleur en cas de panne d’une chaudière, il faille dédoubler la puissance nécessaire; en d’autres termes, qu’il soit nécessaire d’installer deux chaudières de 100% de la puissance maximale des besoins. Ce n’est pas le cas. En effet, il n’est pas nécessaire que chaque chaudière puisse répondre à tous les besoins. À titre d’exemple, prenons une installation composée de deux chaudières dimensionnées à 60% de la puissance maximale des besoins (Qtot). Durant une saison de chauffe, une puissance supérieure à 60% de la puissance totale n’est nécessaire que peu de temps. Par conséquent, si une des deux chaudières tombent en panne, elle pourra réaliser la production la majeure partie du temps. Si exceptionnellement, la demande dépasse les 60%. La chaudière ne répondra pas au besoin et la température du bâtiment descendra progressivement jusqu’à ce que les déperditions soient déminuées et équilibre la production de la chaudière. La probabilité qu’une panne de chaudière crée un inconfort important est donc minime. Et le surdimensionnement généralisé des installations limite encore ce risque.

Exemple.

Monotone de chaleur basée sur le climat moyen de St Hubert : la puissance n’est supérieure à 60 % de la puissance totale que 1 280 heures sur les 6 500 heures de la saison de chauffe. L’énergie fournie par la chaudière 1 est également nettement supérieure à l’énergie fournie par la chaudière 2.

Limiter au maximum les pertes des chaudières ? Seulement pour les anciennes chaudières

C’était l’argument avancé avec les anciennes chaudières. Il n’est plus forcément d’actualité. Voyons pourquoi.

Les pertes à l’arrêt d’une chaudière sont proportionnelles à sa puissance nominale : plus la puissance nominale augmente, plus les pertes augmentent. On a donc tout intérêt, lorsque celles-ci sont importantes, à limiter la puissance de la chaudière en activité grâce à une régulation en cascade. En effet,  quand les besoins sont faible, une des deux chaudières peut rester non irriguée si bien que les pertes à l’arrêt se limite à la seule chaudière en fonctionnement (dont la puissance est inférieure à la puissance nominale totale de l’installation, et donc ses pertes).

Exemple.

Considérons un bâtiment de bureaux situé à Uccle, dont la puissance utile calculée est de 500 kW.

Deux solutions sont envisagées : une chaudière de 550  kW ou 2 chaudières 300 kW.

Solution

Combinaison

Temps de fonctionnement du brûleur durant la saison de chauffe

Temps d’arrêt de la chaudière durant la saison de chauffe

Solution 1 Chaudière
550 kW
1 844 [h] 5 800 – 1 844 = 3 956 [h]
Solution 2 Chaudière 1
300 kW
3 305 [h] 5 800 – 3 305 = 2 495 [h]
Chaudière 2
300 kW
77 [h] 5 800 – 77 = 5 723 [h]

Monotone de chaleur indiquant le temps total pendant lequel la puissance nécessaire est supérieure à un certain pourcentage de la puissance totale installée, soit dans ce cas : 2 x 300 [kW]. La 2ème chaudière devra produire 23 040 [kWh] et donc son brûleur ne fonctionnera que durant 23 040 [kWh] / 300 [kW] = 77 [h]

Si le coefficient de perte à l’arrêt des chaudières est de 1% et le rendement utile des chaudières est de 91 %, on peut estimer les pertes à l’arrêt enregistrées dans les deux solutions :

Solution

Combinaison

Puissance nominale de la chaudière

Perte à l’arrêt

Solution 1 Chaudière
550 kW
550 [kW] / 0,91 = 604 [kW] 0,01 x 604 [kW] x 3 956 [h/an] =
23 894 [kWh/an]
ou 2 389 [litres de fuel]
Solution 2 Chaudière 1
300 kW
300 [kW] / 0,91 = 330 [kW] 0,01 x 330 [kW] x 2 495 [h] =
8 233 [kWh/an]
ou 823 [litres de fuel]
Chaudière 2
300 kW
300 [kW] / 0,91 = 330 [kW] – (*)

(*) si la chaudière n’est irriguée que lorsqu’elle est en demande, on peut considérer que ses pertes à l’arrêt sont inexistantes (à nuancer en fonction de l’inertie thermique de la chaudière). On aura donc compris que dédoubler le nombre de chaudières ne permet une économie que si la chaudière non nécessaire est déconnectée hydrauliquement de l’installation (au moyen d’une vanne motorisée) et non maintenue en température. Dans le cas contraire, celle-ci présente toujours des pertes à l’arrêt.

L’intérêt énergétique de dissocier la puissance chaudière était important dans le cas des anciennes chaudières présentant des pertes à l’arrêt importantes (parfois plus de 3 ..4 %). Il l’est toujours pour les chaudières gaz atmosphériques.

Les chaudières modernes à brûleur pulsé ou à prémélange avec ventilateur ont des pertes à l’arrêt quasi négligeables (isolation importante, clapet d’air sur le brûleur éliminant les pertes par balayage). L’intérêt énergétique de démultiplier les chaudières est alors nettement moindre, voire même négatif. En effet, si la chaudière unique est équipée d’un brûleur à 2 allures ou modulant, elle travaillera durant une majorité de la saison de chauffe en petite puissance (première allure) et verra son rendement de combustion grimper. Cela compense largement la faible augmentation des pertes à l’arrêt par rapport à des chaudières multiples régulées en cascade.

On peut donc considérer qu’actuellement, exception faite du cas des chaudières gaz atmosphériques, l’intérêt d’installer plusieurs chaudières se situe presqu’exclusivement au niveau de la sécurité d’approvisionnement en cas de panne.

De plus, il faut être attentif au coefficient de perte à l’arrêt annoncé par le fabricant de chaudières, en fonction de la puissance choisie. En effet, celui-ci est généralement plus important pour les petites chaudières que pour les grosses, ce qui risque de diminuer encore quelque peu le gain énergétique éventuellement réalisable par la dissociation de la puissance à installer en plusieurs unités.

Exemple.

Voici les coefficients de perte à l’arrêt annoncés par un fabricant, en fonction de la puissance de la chaudière :

Puissance [kW]

80 130 225 345 460

Coefficient de perte à l’arrêt [%]

0,41 0,28 0,15 0,13 0,13

Augmenter le temps de fonctionnement des brûleurs ?

La dissociation de la puissance, soit au moyen de brûleurs à plusieurs allures, soit au moyen de plusieurs chaudières, a également comme avantage d’augmenter la durée de fonctionnement des brûleurs. Cela diminue le nombre de démarrages et d’arrêts du brûleur, générateurs de mauvaise combustion, de suie (source d’encrassement et de surconsommation), d’émission de polluants (NOx, CO) et de très légères pertes par préventilation.

Cet avantage réel est malheureusement difficilement chiffrable.

Chaufferies composées

On parle de « chaufferie composée » quand on associe une chaudière traditionnelle et une chaudière à condensation.

 

Chaudière à condensation associée à une chaudière traditionnelle.

Le graphe suivant montre l’intérêt de choisir une telle combinaison lorsque l’on souhaite installer plusieurs chaudières afin de garantir l’approvisionnement : lorsque l’on dissocie la puissance à installer en deux chaudières identiques dont une à condensation, celle-ci produira la plus grande partie de l’énergie nécessaire sur l’année, ce, en condensant une grande partie du temps de chauffe (dépend du régime de température). La chaudière traditionnelle ne viendra en appoint que par les plus grands froids, c’est-à-dire dans des conditions de toute façon défavorables à la condensation.

Étant donné le peu de gain supplémentaire que l’on peut espérer en combinant deux chaudières à condensation, cette solution est, elle, la plupart du temps rejetée. Cependant, les chaudières à condensation deviennent standard dans la plupart des configurations et leurs prix se démocratisent de plus en plus : on en tiendra compte !

Exemple :

Monotone représentant, pour le climat moyen de Uccle, le nombre d’heures par an pendant lesquelles une installation de chauffage non surdimensionnée, calculée pour un régime de température d’eau 90°/70° et régulée en température glissante, fonctionne avec une température d’eau de retour supérieure à une certaine valeur.
L’installation est composée de deux chaudières (une à condensation et une traditionnelle) de puissance égale à 50 % des besoins maximaux.

On constate que la chaudière à condensation pourra fournir la majorité de l’énergie nécessaire, ce dans des conditions favorables à la condensation puisque la température de retour ne dépasse 55°C (limite approximative pour que les fumées condensent) que 113 heures par an, par les plus grands froids.

Cependant, d’un point de vue énergétique, il est plus intéressant de placer une seule chaudière gaz à condensation équipée d’un brûleur modulant à grande plage de modulation (10 % .. 100 %), reprenant l’entièreté de la puissance nécessaire, plutôt qu’une chaufferie composée. En effet, ces chaudières ont un rendement maximal lorsqu’elles travaillent à faible charge (si l’excès d’air est correctement contrôlé, le rendement de combustion augmente quand la puissance du brûleur diminue). De plus, la modulation élimine quasi totalement les pertes à l’arrêt.

Dissocier la puissance à installer entraînerait donc une perte énergétique et installer deux chaudières à condensation de ce type risque d’être plus onéreux. Pour les chaudières au mazout à condensation, cela dépend des capacités de modulation en puissance de la chaudière : 1 allures, 2 allures ou modulant.


Brûleur 1, 2 allures ou modulant ?

Adapter la puissance du brûleur aux besoins réels qui sont variables, permet d’augmenter sa durée de fonctionnement et donc de limiter le nombre de démarrages et d’arrêts qui comme nous l’avons signalé plus haut sont une source d’imbrûlés et d’émissions polluantes. Diminuer la puissance du brûleur par rapport à la puissance nominale de la chaudière permet également d’augmenter le rendement de combustion (les fumées vont sortir plus froides). Le rendement de combustion augmente ainsi de 2 .. 2,5 % lorsque l’on abaisse la puissance du brûleur à 60 % de sa puissance nominale.

Exemple.

Évolution du rendement de combustion des brûleurs actuels en fonction de la modulation de sa puissance.

Pour les brûleurs pulsés modulants (fuelou gaz) (de 30 à 100 %) : dans un premier temps, lorsque la puissance du brûleur diminue (à partir de 100 % de puissance), la température des fumées diminue et le rendement augmente. À partir d’un certain moment, la diminution de la quantité de particules de combustible et leur dispersion (la pulvérisation du fuel devient difficile) imposent d’augmenter l’excès d’air pour éviter les imbrûlés. Le rendement diminue de nouveau.

Pour les nouveaux brûleurs gaz modulant avec contrôle de la combustion : le contrôle de la combustion permet de maintenir un excès d’air correct, sans production d’imbrûlé, sur toute la plage de modulation. On obtient donc une plage de modulation plus grande (10 à 100 %) avec une qualité de combustion constante et des fumées qui se refroidissent de plus en plus (pour arriver à la condensation).

Pour les brûleurs gaz atmosphérique 2 allures (sans ventilateur) (50% /100%) : l’air de combustion est amené dans la chaudière naturellement. L’excès d’air n’est donc pas contrôlé. Si la puissance du brûleur diminue de moitié, ce n’est pas le cas de la quantité d’air aspirée. L’excès d’air augmente donc et le rendement chute.

L’idéal

L’idéal serait un brûleur modulant sa puissance de 0 à 100 % en fonction des besoins, tout en gardant constante la qualité de la combustion. Dans ce cas, il démarrerait en début de saison de chauffe et fonctionnerait en continu, sauf en période de coupure (de nuit, …), avec un rendement de combustion maximal.

Ce type de brûleur n’existe malheureusement pas aujourd’hui. Néanmoins, on s’approche progressivement de cette situation.

En effet, les fabricants de chaudières ont développé des brûleurs gaz modulants spécifiques pour leur matériel (principalement les chaudières à condensation). Ces brûleurs permettent souvent une modulation de leur puissance de 10 à 100 %, certains avec un contrôle permanent de la combustion. Une des raisons pour laquelle les constructeurs ne prévoient pas de descendre sous les 10 %, est que la plage de fonctionnement du brûleur doit correspondre à la résistance foyère de la chaudière et les prescriptions relatives à la cheminée. En dessous de cette valeur de 10 %, le brûleur (entendons le ventilateur) n’est plus suffisamment puissant pour vaincre les pertes de charge du foyer et de la cheminée. Dans le cas du mazout, les premières chaudières basse puissance modulante commence à faire leur apparition.

Brûleur gaz modulant sa puissance en faisant varier la surface d’accrochage de la flamme et en adaptant les débits d’air et de gaz. On voit ici la flamme correspondant à 10, 50 et 100 % de puissance. La quantité d’air nécessaire à la combustion est réglée automatiquement par une sonde d’O2 mesurant les caractéristiques des fumées.

Choix du brûleur

Puissance nominale (Pn) Brûleur gaz atmosphérique Brûleur gaz à air pulsé Brûleur gaz à prémélange avec ventilateur Brûleur mazout à air pulsé
Pn < 100 – 150 kW Tout ou rien, voire deux allures Tout ou rien Modulant (10 – 20 à 100 %). Tout ou rien
Pn < 150 – 250 kW Deux allures Deux allures
Pn >  150 – 250 kW Modulant (30 – 100 %)
Pn > ~ 1 MW Chaudières en cascade Chaudières en cascade. Modulant (40-100%)
Pn > ~ 3 MW Techniquement trop complexe Techniquement trop complexe.

Dans cette discussion, il faut distinguer les installations au mazout et au gaz:

En ce qui concerne le gaz, les brûleurs à prémélange, avec ventilateur et contrôle de combustion permettent dès les faibles puissances d’atteindre de larges plages de modulation (typiquement, une puissance minimale de 10 à 20% de la puissance nominale). Moins cher que le brûleur pulsé gaz et possédant une plus large plage de modulation, on préfère souvent ces brûleurs à prémélange. Néanmoins, les chaudières à prémélange sont de type « unit », c’est-à-dire que chaudière et brûleur sont indissociables. Si l’on souhaite pouvoir changer de combustible pour une même chaudière, par exemple en fonction d’une situation future, il est souhaitable de travailler avec un brûleur pulsé qui, dans ce cas, est un élément distinct de la chaudière.

Pour les puissances élevées dépassant ~1MW, il est techniquement difficile de réaliser des chaudières à prémélange si bien qu’il faut associer plusieurs chaudières en cascade pour dépasser ce seuil. Néanmoins, au-delà de 3 chaudières, l’installation devient difficile à réguler/piloter. En conclusion, au-delà de 3MW, on travaille avec un ou plusieurs brûleurs pulsés au gaz. À ce niveau de puissance, les brûleurs pulsés sont de type modulant. De manière générale, entre 1MW et 3MW, les techniques à prémélange avec ventilateur et à air pulsé peuvent se justifier.

En ce qui concerne le mazout, mis à part quelques nouveaux modèles de chaudières type « prémix » modulantes à basse puissance, on travaille essentiellement sur base de brûleurs pulsés, et ce, dès les petites puissances. Avant les puissances de 100-150 kW, les brûleurs n’ont qu’une allure. Entre 150 et ~1MW, les brûleurs pulsés au gaz ont typiquement 2 allures. Ce n’est qu’à partir d’~1MW, que la complexité technique du brûleur pulsé mazout modulant se justifie économiquement.


Contrôle de la combustion

Pour les chaudières traditionnelles

Un brûleur moderne à air pulsé doit assurer en permanence une combustion complète, avec un minimum d’excès d’air. C’est la seule façon d’obtenir les meilleurs rendements de combustion et les émissions les plus faibles.

En pratique, des facteurs extérieurs tels que la pression et la température de l’air comburant, le degré d’humidité de l’air, les fluctuations du pouvoir calorifique du combustible ou encore des variations de contre-pression dans la chambre de combustion peuvent modifier la combustion.

Variation du taux d’oxygène contenu dans l’air en fonction des conditions atmosphériques extrêmes
(hiver ensoleillé – été pourri)

Hiver

Eté

Pression atmosphérique [mbar] 1 043 983
Température [°c] – 5 20
Humidité relative [%] 0 100
m³ d’O2 dans 1 m³ d’air comburant 0,2196 0,1849
Différence été/hiver 19 %

Les responsables de chaufferie ont tendance à régler les brûleurs à air pulsé avec des excès d’air plus élevés, de manière à éviter la formation d’imbrûlés quelle que soit la saison, ce, au détriment des performances de la combustion.

On aura compris qu’un réglage optimum de l’excès d’air ne peut se faire en toute saison que sous une surveillance permanente. Une sonde à oxygène (sonde O2 ou sonde lambda) mesure de façon continue la teneur en oxygène des fumées et ajuste le réglage du brûleur.

Sonde O2 au zirconium ou sonde lambda.

Étant donné le coût de ce système de réglage (de 7 500 à 10 000 € pour la transformation d’un brûleur existant; de 5 000 € à 6 250 € si l’installation de la sonde O2 s’effectue en même temps que le renouvellement du brûleur), le placement d’une sonde O2 ne peut cependant se justifier économiquement que dans les installations de grosse puissance (chaudières de plus de 1 MW). Pour fixer un ordre de grandeur, l’ARGB délivre une prime à l’installation d’une sonde O2 pour les installations consommant plus de 293 000 m³ de gaz par an (ce qui équivaut, dans le secteur, à une puissance de l’ordre de 2 MW).

L’économie réalisable dépend évidemment du réglage habituel du brûleur. Le « Recknagel » annonce qu’un réglage automatique de la combustion permet d’atteindre une augmentation du rendement annuel de production de 2 à 5 %.

Pour les chaudières à condensation

Nous avons vu que la quantité d’énergie récupérée grâce à la condensation des fumées dépend du réglage de la combustion. Cela apporte un intérêt complémentaire à la régulation permanente des paramètres de combustion.

C’est pourquoi, pour optimaliser le fonctionnement de leur chaudière à condensation, certains constructeurs ont équipé d’origine leur matériel d’une sonde O2 et d’une régulation qui corrige automatiquement la vitesse du ventilateur du brûleur en fonction de la qualité de la combustion.

Malheureusement, nous ne disposons pas actuellement de donnée neutre permettant de chiffrer le gain réel résultant de ce mode de régulation, ce par rapport aux chaudières dont le modulation se fait en maintenant constant le rapport entre le volume d’air et de gaz admis dans le brûleur.


Suivi des consommations

Compteurs d’heures sur un brûleur 2 allures.

Le suivi des consommations est une des clés de la gestion énergétique.

Gérer

Pour en savoir sur la comptabilité énergétique.

Dans le cas d’une installation fonctionnant au fuel, il est difficile d’effectuer un suivi régulier (mensuel) du fait de la complexité de la mesure de la consommation. Le placement d’un compteur de fuel sur le brûleur permet de résoudre le problème. Ce placement est parfois complexe sur un brûleur existant. C’est pourquoi il est important de le prévoir dès la commande du brûleur, les fabricants pouvant alors fournir un compteur intégré.

Notons que pour les chaudières fonctionnant au gaz, le relevé du compteur gaz permet le même suivi des consommations. Si d’autres consommations peuvent être identifiées (cuisines, stérilisateurs dans les hôpitaux, …), il faudra les dissocier des consommations des chaudières.

Une autre possibilité est l’intégration de compteurs d’heures de fonctionnement du brûleur (un compteur par allure). Il faudra alors connaître le débit de combustible pour connaître la consommation. Pour le fuel, celui-ci devra être calculé à partir des caractéristiques du gicleur reprises notamment sur l’attestation d’entretien des chaudières. La présence de compteurs d’heure de fonctionnement permet également, si on prend la discipline de les relever, de visualiser le fonctionnement de l’installation. On peut par exemple constater que dans une cascade de deux chaudières, une des deux chaudières n’a jamais tourné durant l’année. Cela indique que l’installation est surdimensionnée. Ou à l’inverse, si le nombre d’heures est identique, que la régulation en cascade est mal réglée, …. Cependant, il existe un mode de permutation sur les régulateurs de sorte à équilibrer la charge des chaudières.


En résumé, si nous devions choisir …

Nous sommes conscients qu’il est peut-être difficile de naviguer au milieu de tous les critères de choix décrits ci-dessus. C’est pourquoi nous vous faisons part des orientations que nous considérons être actuellement les plus performantes en matière de consommation énergétique et de protection de l’environnement. Ainsi, si nous devions concevoir une nouvelle installation de production de chaleur, nous choisirions,

Option 1 : Énergie fossile

Si le gaz est disponible :

  • Une chaudière gaz à condensation ou la combinaison d’une chaudière à condensation avec une chaudière traditionnelle (si on désire une assurance de fourniture de chaleur en cas de panne). Sur ce point, nous sommes un peu partagés sachant que le prix des chaudières à condensation diminue relativement vite.
  • Cette chaudière serait dimensionnée suivant la norme NBN B62-003.
  • Elle serait équipée d’un brûleur à pré-mélange modulant avec ventilateur (avec une grande plage de modulation : de 10 à 100 %) et avec un dosage entre l’air comburant et le gaz le plus précis possible sur toute la plage de modulation.
  • Elle serait raccordée à un circuit hydraulique favorisant au maximum la condensation et de préférence le plus simple possible de manière à éviter les erreurs de conception et de régulation (chaudière ne nécessitant pas de débit minimal).
  • Elle aurait les émissions de CO et NOx les plus faibles possibles.

Si le gaz n’est pas disponible :

  • Une chaudière ou plusieurs chaudières (si on désire une assurance de fourniture de chaleur en cas de panne) fuel à triple parcours. Attention que les chaudières à condensation au fuel sont de plus en plus présentes sur le marché et donnent d’excellentes performances énergétiques.
  • Si possible à condensation ou, au minimum, pouvant travailler à « très basse température ».
  • Équipée d’un brûleur « Low NOx« , à 2 allures ou d’un brûleur modulant pour les grandes puissances.
  • Équipée d’un compteur fuel pour faciliter le comptage énergétique.

Option 2 : Energie renouvelable

  • Une chaudière au bois-énergie (pellets ou plaquettes) en combinaison avec une chaudière au mazout « très basse température » (pour assurer la fourniture de chaleur en cas de panne et pour réaliser l’apport de pointe de chaleur lors des températures extérieures extrêmes, ce qui maximise le temps de fonctionnement de la chaudière au bois),
  • Alimentée en bois dans un conditionnement de qualité,
  • Équipée d’un dispositif de comptage des consommations pour faciliter le comptage énergétique (soit basé sur la quantité de bois consommé ou la régulation de la chaudière).

Et pour les chaudières de puissance importante

Chaudière à condensation avec échangeur intégré.

Au-delà d’une certaine puissance (> 1 000 à 1 500 kW), il est difficile de trouver des chaudières à condensation où l’échangeur pour la condensation est intégré à la chaudière. Les modèles proposés au-dessus de cette puissance sont en général des chaudières à haut rendement équipés d’un échangeur à condensation placé en aval (du point de vue des fumées) de la chaudière.

Intérêt des chaudières avec échangeur à condensation externe

Les chaudières HR équipées d’un échangeur à condensation externe (ou condenseur séparé) sont-elles comparables aux chaudières à condensation proprement dite ?

A priori, dans la mesure où le choix entre ces deux types de chaudières est possible, les constructeurs avancent que la chaudière à condensation dispose d’une surface d’échange plus importante que la somme des surfaces d’échange de la chaudière et de l’échangeur à condensation réunis. De plus, la température des fumées dans la chaudière HR devant rester au-dessus du point de rosée (l’échangeur de la chaudière n’est pas prévu pour condenser), les fumées entrent dans le condenseur séparé à plus haute température que dans le cas des condenseurs intégrés.

Dans une première approche, l’intérêt des condenseurs externes est mitigé. Si la possibilité existe de pouvoir choisir, dans la gamme de puissance considérée, entre une chaudière à condensation à part entière et une chaudière classique HR avec échangeur à condensation séparé, il ne faut pas hésiter un seul instant.

Choisir l’emplacement des luminaires dans les circulations

Dans les couloirs

Compromis

Le choix du nombre de luminaires, de la puissance par luminaire et de leur emplacement résultera d’un compromis entre

  • le respect d’une certaine uniformité,
  • l’investissement à consentir,
  • les facilités de câblage électrique et de réfection des plafonds.

Uniformité

Si pour des raisons d’économie d’énergie, on désire limiter l’éclairement moyen des couloirs à 200 (100 – école, halls) lux maximum, le nombre de luminaires à installer sera relativement faible par rapport à la surface à éclairer. Il en résultera un manque d’uniformité de l’éclairement et une succession dans les couloirs de zones claires et sombres. Ceci ne sera pas forcément gênant si le couloir n’est qu’un lieu de passage et non de « stationnement ». Inversement si on veut respecter une uniformité correcte (Emin / Emoy > 0,7), on augmentera le nombre de luminaires, vraisemblablement aussi la puissance installée et le niveau d’éclairement moyen puisque la gamme de puissance des lampes fluorescentes n’est pas infinie.

En fonction de la forme du couloir

  • Les couloirs étroits paraîtront plus larges et plus conviviaux si on favorise l’éclairage des murs par une composante indirecte.
  • Les couloirs longs paraîtront plus courts si on place les luminaires perpendiculairement par rapport à l’axe du regard. Comme la distribution lumineuse de la plupart des luminaires est plus large dans le sens transversal que dans le sens longitudinal, cette position permettra d’obtenir une uniformité correcte avec moins de luminaires.

Dans les escaliers

L’objectif principal (de base de l’éclairage des escaliers – halls) est d’assurer un contraste suffisant entre les marches pour éviter tout accident. Pour cela, il faut assurer l’éclairage des marches et maintenir dans l’ombre les contre-marches.

Exemple

  • La position A est correcte car elle éclaire obliquement les marches.
  • La position B est incorrecte, elle ne garantit pas un contraste suffisant entre les marches.
  • Dans les longs escaliers, la position A peut être complétée par un éclairage latéral des marches au départ d’appliques murales (position C).

Choisir la fenêtre comme capteur d’énergie solaire [Esquisse du projet]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).
Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m².

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Choisir l’accrochage de la toiture

Choix du système d’accrochage

La stabilité au vent de la toiture plate peut être assurée de différentes manières

Lestage par la couche de protection lourde.

Si la pente de la toiture est < 5 % et si la structure de la toiture est suffisamment portante, une couche de protection lourde est possible sur la membrane d’étanchéité ou sur l’isolant. Elle permet une durabilité accrue de l’étanchéité, car elle limite fortement les variations de température tant de la membrane d’étanchéité que de son support, et elle protège en même temps la membrane des rayonnements U.V. Sur une toiture inversée, c’est actuellement la seule façon d’accrocher l’isolant (XPS). Lorsque la toiture est accessible aux piétons, la protection lourde fait en même temps office d’aire de circulation.

Lorsqu’un incendie se déclare à l’extérieur d’un bâtiment, le lestage lourd assure une meilleure protection contre les débris incandescents et le rayonnement des flammes, et contre la propagation du feu.

Par contre, la présence du gravier ralentit l’évacuation de l’eau pluviale et peut devenir un foyer de micro-organismes qui favorisent le vieillissement de certains matériaux d’étanchéité (comme certains PVC).

La présence d’arbres à proximité, de sable, de poussières industrielles, … nécessitera un entretien plus important de la protection lourde. Nettoyage ou renouvellement.

Le lestage permet une pose en indépendance partielle ou totale de l’étanchéité ce qui améliore la répartition de la tension de vapeur sous l’étanchéité et diminue les risques de cloquage.

Lorsque la structure ne supporte pas la charge du lestage, la toiture sera nécessairement de type « toiture chaude« , et les différentes couches du complexe toiture devront être fixées.

Collage des couches

Chaque couche est collée à la couche sous-jacente.

Cette méthode convient lorsque le support est constitué d’un béton monolithe, de panneaux de béton cellulaire ou de fibro-ciment, de panneaux de multiplex, ou de panneaux de fibres de bois liées au ciment.

Cette méthode est également utilisée lorsque l’isolant est du verre cellulaire (CG).

La pose en adhérence totale offre une meilleure résistance au vent.

La pose en semi-indépendance permet une meilleure répartition des tensions dans la membrane, et une meilleure répartition de la tension de vapeur sous la membrane.

Les matériaux d’étanchéité et d’isolation doivent avoir une cohésion suffisante pour résister à un délaminage éventuel.

Fixation mécanique

Cette méthode convient lorsque le support est constitué d’un plancher en bois, de panneaux de multiplex, ou de tôles profilées en acier. Elle est également utilisée sur des panneaux en béton cellulaire.

La fixation mécanique dans le support se fait à travers l’isolant, sauf dans le cas du verre cellulaire qui n’autorise pas ce genre de fixation.

Cette méthode permet d’adapter le nombre de fixations suivant les zones de toiture (rives, angles, …)

La fixation à l’aide de vis est surtout utilisée sur les tôles en acier. La fixation à l’aide de clous est surtout utilisée sur les planchers en bois.

En résumé

Toiture Support Pente Isolant Environnement
(arbres/industrie/
sable)
LESTAGE COLLAGE MECANIQUE
Inversée Béton portant < 5 % XPS (non polluant) +
Chaude Béton portant < 5 % MW/EPB/PUR/
PIR/EPS/ICB
non polluant (+) (+)
Chaude Béton portant < 5 % MW/EPB/PUR/
PIR/EPS/ICB
polluant +
Chaude Béton portant ³ 5 % MW/EPB/PUR/
PIR/EPS/ICB
+
Chaude Béton portant < 5 % CG non polluant (+) +
Chaude Béton portant < 5 % CG polluant +
Chaude Béton portant ³ 5 % CG +
Chaude Béton non portant MW/EPB/PUR/PIR
/EPS/ICB/CG
+
Chaude Bois ou aggloméré MW/EPB/PUR/
PIR/EPS/ICB
(+) (vis/clous)
Chaude Bois ou aggloméré CG +
Chaude Fibre org. ciment MW/EPB/PUR/
PIR/EPS/ICB
(+) (vis)
Chaude Fibre org. Ciment CG +
Chaude Tôles profilées MW/EPB/PUR/
PIR/EPS/ICB
vis
Chaude Tôles profilées CG +

(+) (+) soit l’un, soit l’autre, éventuellement les deux
(+) + certainement un, éventuellement les deux


Dimensionnement du système d’accrochage

Protections lourdes

Lorsque la couche de protection lourde doit compenser les effets du vent sur la toiture, son poids doit atteindre au moins 1.5 fois l’action du vent.

En outre :

Le gravier

Le gravier doit avoir au moins le diamètre (en mm) défini dans le tableau ci-dessous (même s’il ne fait pas office de lestage mais uniquement de protection) (NBN B03-002 et BRE Digest 311).

Hauteur de toit en m. jusqu’à :

s
i
t
u
a
t
i
o
n
Bord de mer
Zone rurale
Zone urbanisée
Ville
11.5 24.0
4.0 9.5 18.0 27.0 47.0
10.0 19.0 32.0 46.0 74.0
18.0 32.0 50.0 66.0 99.0
z
o
n
ed
e
t
o
i
t
u
r
e
Angle de bâtiment bas
Angle de bâtiment élevé
Rive de bâtiment bas
Rive de bâtiment élevé
Partie courante de bâtiment bas
Partie courante de bâtiment élevé
40 48 56 64 72
36 45 53 59 67
16 18 20 25 30
16 18 20 25 30
12 14 16 18 20
16 18 20 25 30

Les dalles

Les dalles et panneaux doivent au moins avoir le poids (en kg/m²) défini dans le tableau ci-dessous (même s’il ne fait pas office de lestage mais uniquement de protection).

Ces valeurs sont valables sur un terrain plat sans bâtiment de double hauteur à proximité.

Hauteur de toit en m. jusqu’à :

s
i
t
u
a
t
i
o
n
Bord de mer
Zone rurale
Zone urbanisée
Ville
7.0 9.0 11.5 14.5 18.0 24.0
5.0 6.0 7.5 9.5 12.0 14.0 18.0 22.0 27.0 32.0 39.0 47.0
5.0 11.0 13.0 16.0 19.0 23.0 27.0 32.0 40.0 46.0 54.0 63.0 74.0
18.0 19.0 22.0 26.0 32.0 37.0 42.0 50.0 57.0 66.0 76.0 87.0 99.0
z
o
n
ed
e
t
o
i
t
u
r
e
Angle de bâtiment bas
Angle de bâtiment élevé
Rive de bâtiment bas
Rive de bâtiment élevé
Partie courante
54 56 59 64 68 72 76 81 85 89 93 98 102
43 45 48 51 54 58 61 65 68 71 75 78 82
43 45 48 51 54 58 61 65 68 71 75 78 82
32 33 36 38 41 43 46 48 51 54 56 59 61
22 22 24 25 27 29 31 32 34 36 37 39 41

Le collage

Pour connaître la résistance au vent des systèmes collés, on se base sur les résultats d’essais au vent réalisés sur toiture suivant les directives UEAtc.

La pose en adhérence totale offre une plus grande résistance au vent que la pose en semi indépendance.

La résistance utile dépend surtout de la colle et des panneaux isolants. Elle peut varier fortement : entre 500 Pa et 4 000 PA.

La résistance utile déduite des essais comprend un coefficient de sécurité de 1.5, qui tient compte d’un collage imparfait possible à certains endroits.

Les systèmes collés à froid à base de solvant n’atteignent leur résistance qu’après un certain délai. Elle est limitée durant les premiers jours, ou même plus longtemps, suivant les conditions climatiques. En pratique, pendant le séchage, aucune précaution n’est généralement prise, car la colle encore visqueuse assure une adhérence provisoire suffisante (sans colle, une feuille de plastic mouillée tient sur une vitre).

L’action du vent pris en considération pour la vérification de l’accrochage est celle relative à une période de retour de 200 ans et vaut 1.5 fois l’action du vent calculée pour une période de retour de 10 ans.

La fixation mécanique

Pour connaître la résistance au vent des fixations mécaniques, on se base sur les résultats d’essais au vent réalisés sur toiture suivant les directives UEAtc.

Il existe des systèmes courants ayant une résistance utile d’au moins 300N par vis.

La résistance utile déduite des essais comprend des facteurs de correction qui tiennent compte des dimensions et du nombre de fixations de l’élément testé, et comprend un coefficient de sécurité de 1.5, qui prévoit le manque éventuel d’une fixation, les fixations les plus proches devant alors reprendre une charge de 50 % supérieure.

L’action du vent pris en considération pour la vérification de l’accrochage est celle relative à une période de retour de 200 ans et vaut 1.5 fois l’action du vent calculée pour une période de retour de 10 ans.

Choisir la pente [isolation – Toiture plate]

Le type de toiture plate

Toiture chaude : pente minimale 2 % (sauf toiture jardin).
Toiture inversée : pente minimale 3 %.
Bien que certaines membranes supportent relativement bien les stagnations, il est conseillé de respecter ces pentes minimales.
La structure porteuse sera prévue en conséquence.
En cas de pente insuffisante, celle-ci sera augmentée par l’adjonction d’une couche inclinée compatible avec la force portante du support.
Grâce à une évacuation rapide de l’eau, une pente suffisante :

  • diminue la quantité d’eau infiltrée en cas de fuite au point bas d’une zone de stagnation,
  • offre une surface rapidement sèche et dépourvue de dépôts,
  • diminue l’humidité dans les protections lourdes,
  • diminue l’humidité autour de l’isolant des toitures inversées,
  • diminue les efflorescences salines à la surface des dalles posées sur chape,
  • diminue, dans le cas des protections lourdes en béton ou ciment, la production de dépôts calcaires pouvant obstruer les évacuations d’eau pluviale,
  • permet en cours de réalisation un assèchement plus facile de la surface de la surface à couvrir (préparation du support).

Le type de protection

Gravier : pente maximale 5 % afin d’empêcher que le gravier ne se déplace.
Toiture jardin : Afin de retenir les eaux de pluie et d’arrosage, on renonce à toute pente, ce qui permet d’obtenir un niveau d’eau uniforme.

Le type de fixation de la membrane

Colle bitumineuse à froid

Lorsque la membrane est fixée à l’aide de colle bitumineuse à froid, la pente maximale admissible est de 15 %, à cause de la plasticité de la colle.

Image par défaut pour la partie Concevoir

Choisir la motorisation de l’ascenseur à traction

Image par défaut pour la partie Concevoir

Choix de la motorisation avec ou sans réducteur ?

Sur le plan des performances de confort et de trafic, les différents types de motorisation conviennent dans la plupart des cas. En effet, le dimensionnement de l’installation dépendant surtout de la charge et de la vitesse à atteindre, la gamme disponible sur le marché est assez large pour satisfaire l’ensemble des performances souhaitées, quel que soit le type de motorisation.
Pour cette raison, on différentie plutôt les motorisations à traction en fonction des critères principaux suivants :

  • le rendement global,
  • la performance énergétique,
  • l’encombrement des équipements.

Les critères secondaires, mais néanmoins importants, prennent en compte le poids, la consommation d’huile, le niveau acoustique, …

Rendement global de la motorisation

Le rendement global de la motorisation influence le dimensionnement de l’installation et les consommations futures. En effet, à puissance mécanique égale (pour déplacer la charge), meilleur sera le rendement de la motorisation, moins :

  • le surdimensionnement du moteur et de l’installation électrique sera important,
  • les consommations énergétiques durant la vie de l’ascenseur seront grandes,
  • les chutes de tension en ligne perturberont le réseau électrique interne voire externe.

On adopte une règle immuable en terme de rendement :

Plus les équipements de la motorisation sont nombreux,
moins bon est le rendement !

On sait que :

Pélectrique = Pmécanique /  η global de motorisation

Où :

  • Pmécanique est la puissance mécanique à l’arbre du treuil,
  • η global de motorisation est le rendement de la motorisation.

Le rendement global de la motorisation :

η global = ηélectr_commande x ηélectr_moteur x ηmécan_réducteur x ηmécan_treuil

Le cas des moteurs à traction avec réducteur de vitesse, par rapport à la même motorisation sans réducteur, montre que les intermédiaires occasionnent des pertes et, par conséquent, réduisent la puissance mécanique disponible à la roue de traction pour une même puissance électrique absorbée.

Le tableau suivant permet de comparer les différents rendements globaux en fonction du type de motorisation et en présence ou non d’un variateur de vitesse électronique.

Performance énergétique

Indépendamment du rendement global de la motorisation, la maîtrise de la performance énergétique passe surtout par l’optimisation des courants de démarrage. En effet, le fonctionnement des ascenseurs est plus une succession de démarrages et d’arrêts, où le courant absorbé peut être très important, que de longues courses à courant nominal plus réduit. Ceci est d’autant plus vrai que le trafic est intense; ce qui est le cas des bâtiments du secteur tertiaire.

Il va de soi, qu’à l’heure actuelle, le variateur de vitesse devient un gage de performance énergétique certain et que de prévoir un nouveau projet de conception sans cet équipement :

  • priverait les utilisateurs d’un confort renforcé (démarrage progressif, mise à niveau précise, …),
  • occasionnerait des consommations inutiles et des appels de puissance pénalisants au niveau de la pointe quart-horaire.

Le marché s’oriente vers les motorisations avec ou sans réducteur (« gearless ») mais équipés d’un variateur de vitesse statique cumulant différents avantages comme :

  • le contrôle permanent du couple et de la puissance en optimisant les courants de démarrage et les consommations,
  • la possibilité de renvoyer de l’énergie sur le réseau électrique durant le freinage,

 

Commande par variation de fréquence.

Sans tenir compte du rendement de la motorisation, la performance énergétique est en fait liée principalement à la gestion des démarrages et des arrêts par le variateur de vitesse.

L’analyse effectuée par le CADDET (Centre for the Analysis and Dissémination of Demonstrated Energy Technologies) sur les consommations d’une motorisation classique par rapport à une motorisation innovante, a mis en évidence des différences énergétiques importantes :

Paramètres
Type de motorisation
Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 1 1
Charge de l’ascenseur [kg] 630 630
Puissance du moteur électrique [kW] 5,5 3,3
Calibre de la protection moteur [A] 35 16
Nombre de courses pour 3 mois 27 444
Consommation électrique pour 3 mois [kWh/3 mois] 958 447

Il est clair que l’économie est importante (53 %). Toutefois, pour être tout à fait neutre dans l’étude, la motorisation sans réducteur de vitesse et équipée d’un variateur de fréquence, devrait être comparée à une motorisation classique avec réducteur à vis sans fin, équipée aussi d’un variateur de fréquence. Les économies seraient moins importantes mais tout de même en faveur de la motorisation sans réducteur, de part le meilleur rendement.

Si on reprend le graphique des rendements et qu’à la motorisation classique on adjoint un variateur de vitesse de caractéristiques similaires (au niveau énergétique) à celles du « gearless », l’économie réalisée sur la gestion énergétique optimale du variateur de vitesse est de l’ordre de 31 %. On a donc tout intérêt à envisager une motorisation sans réducteur.

Paramètres
Type de motorisation + variateur de vitesse
Traction classique avec réducteur à vis sans fin Sans réducteur ou « Gearless »
Rendement ~ 0,55 ~ 0,77
% d’économie énergétique due au rendement  ~ 22
% d’économie due au variateur de fréquence ~ 31 %

Évaluer

 Pour en savoir plus sur l’estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’une motorisation, cliquez ici !

Encombrement

Une réduction des coûts d’investissement et un gain de place sont liés à la limitation de l’espace nécessaire à la machinerie.

Un constructeur annonce une réduction de l’ordre de 25 % de l’investissement nécessaire à la conception d’un ascenseur sachant que la salle des machines n’est plus nécessaire; ce qui rend le critère d’encombrement crédible.

Concevoir

Pour en savoir plus sur le choix du type d’ascenseur, cliquez ici !

Ici encore, la motorisation sans réducteur (« gearless ») vient révolutionner le monde des ascenseurs dans le sens où la compacité de ce système est impressionnante au point de pouvoir concevoir des projets d’ascenseurs sans salle des machines, en plaçant directement la motorisation dans la gaine et l’armoire de commande compacte à même le dernier palier de l’ascenseur par exemple.

  

Compacité de la motorisation sans réducteur « gearless ».

Critères secondaires

Les critères secondaires, mais non des moindres, permettent d’affiner le choix de la motorisation. On citera principalement :

  • le poids,
  • la consommation d’huile,
  • le niveau sonore.

La même analyse effectuée par le CADDET (Centre for the Analysis and Dissémination of Demonstrated Energy Technologies) donne des résultats concernant la comparaison des motorisations classiques (moteur à deux vitesses à réducteur à vis sans fin par rapport à une motorisation sans réducteur). Le poids de la motorisation sans réducteur permet d’envisager des projets de conception plus « léger » au niveau de la stabilité.

Type de motorisation
Paramètres Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 1 1
Charge de l’ascenseur [kg] 630 630
poids de la motorisation [kg] 430 230
Niveau acoustique [dB] 65-75 50-55
Nombre de courses pour 3 mois 27 444
Quantité d’huile nécessaire [litres] 3,5

Choix du variateur de vitesse

L’intervention du maître d’ouvrage dans le choix du variateur de vitesse se résumera à conscientiser le bureau d’étude ou le constructeur à tenir compte de différents aspects :

Rendement

Le rendement du variateur de vitesse varie en fonction de la charge et de la vitesse du moteur. En général, il se situe aux alentours de 90-95 %.

Surcouple de démarrage et choix de la puissance

Certains variateurs de vitesse sont prévus pour accepter pendant le démarrage un surcouple (160 % par exemple). Le choix de la puissance d’un variateur de vitesse doit être réalisé pour que le couple donné par le variateur de vitesse au moteur soit le plus proche possible du couple nominal de l’ascenseur; le dimensionnement en tiendra compte.

Concevoir

Pour en savoir plus sur le dimensionnement du variateur de vitesse, cliquez ici.

Le besoin de refroidissement

Les variateurs de fréquence doivent évacuer leurs pertes calorifiques. Le choix du variateur se basera sur la quantification de cette perte et la possibilité d’avoir recours uniquement à la ventilation naturelle.

La compatibilité électromagnétique

La compatibilité électromagnétique des variateurs de vitesse par rapport à leur environnement est importante pour le limiter les perturbations du réseau électrique du bâtiment. En effet, la génération d’harmoniques par le variateur peut entraîner des déclenchements intempestifs de protections, la perturbation des ordinateurs, …

Le choix du variateur tiendra compte de la directive CEM et de la marque CE des équipements.

La récupération d’énergie

Dans le choix d’un variateur de fréquence, on prendra en compte aussi la possibilité de renvoi d’énergie au réseau lors du freinage de l’ascenseur ou lors de la descente de la cabine en charge lorsque la cabine remplie dépasse le poids du contrepoids : le couple résistant peut devenir moteur.

Attention toutefois que si le choix se porte sue une motorisation à vis sans fin, la charge ne peut pas entraîner le moteur électrique car la vis sans fin est un organe mécanique irréversible; le moteur ne peut pas devenir générateur et renvoyer de l’énergie sur le réseau.

Choisir le réseau de distribution [ventilation]


Ordre de grandeur

Voici les valeurs de pertes de charge maximum recommandées par SIA (Société suisse des ingénieurs et architectes) pour l’ensemble d’un réseau de ventilation, ce qui comprend la pulsion, l’extraction et l’éventuelle récupération de chaleur :

Recommandations SIA V382/3 : pertes de charge totales du système

Pour toutes les installations 1 200 [Pa]
Pour les installations énergétiquement très performantes 900 [Pa]
À titre de comparaison, en moyenne dans les anciennes installations 1 500 à 2 000 [Pa]

Ces valeurs peuvent être comparées aux valeurs calculées par les concepteurs du nouveau réseau de ventilation.


Tracé du réseau

La règle générale est de dessiner le réseau le plus simple possible

  • Pour limiter au maximum les pertes de charge,
  • Pour faciliter l’équilibrage et la maintenance.

Tout d’abord, il faut toujours essayer d’obtenir le réseau le plus court possible.

schéma de configuration réseau.

schéma de configuration réseau.

Dans les grands réseaux, il peut être judicieux de subdiviser l’installation en plusieurs réseaux autonomes. Ceci peut permettre une gestion en fonction de zone à occupation homogène et facilite la protection au feu et les modifications ultérieures.

Ensuite, le tracé doit comporter un minimum de coudes, de dérivations, de changements de section. Le dessin de ces perturbations doit aussi faire l’objet d’une attention particulière.

Voici une série de tracés qui peuvent être considérés comme corrects et les tracés qu’il faut éviter pour limiter les pertes de charge :

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).

schéma de configuration de tracé de réseau (mauvais).schéma de configuration de tracé de réseau (bon).


Emplacement des conduits

Un réseau de conduit de ventilation peut prendre place à divers endroits dans le bâtiment. Suivant qu’il est apparent, caché ou inaccessible sont entretien et son éventuel remplacement sera plus facile ou impossible.

Les conduits apparents ont plusieurs avantages sur des conduits placés en faux plafonds (ou planchers ou encastrés dans les murs) ou noyés dans une chape : l’accessibilité est favorisée, l’inertie de la dalle n’est pas entravée et il est possible d’utiliser un conduit diffusant qui favorise une meilleure répartition de la température dans la pièce et permet de se passer de bouche de pulsion. Ce type de conduit est très efficace pour les salles hautes de grands volumes comme les salles de sports où une esthétique particulière n’est pas recherchée.

Les conduits cachés, argument esthétique par excellence, dans un faux plafond ou plancher ou encastrés dans les murs sont les solutions les plus courantes. Les conduits restent accessibles (via une trappe, trémie amovible ou armoire) pour en effectuer des contrôle et un nettoyage.

Le conduites noyés dans une chape de béton n’est pas une solution idéale dans la mesure où une fois les conduits installés et la dalle coulée, plus aucune modification ne pourra y être apporté !

Outre, l’emplacement des conduits, la position du groupe de ventilation ou du caisson de traitement d’air conditionnera aussi certains choix dont l’isolation thermique des conduits.


Forme et matériau des conduits

Il existe des conduits rectangulaires et des conduits circulaires. En regard des avantages et des inconvénients de ces deux types de conduit, il est préférable de favoriser, si l’encombrement le permet, le placement de conduits circulaires rigides avec joints (de préférence doubles) aux raccords :

  • Leur étanchéité est nettement supérieure. Étanchéifier correctement un conduit sur chantier relève de l’exploit. De plus, certains adhésifs vieillissent mal et certains mastics libèrent des solvants. Il est donc préférable de choisir des systèmes dont l’étanchéité se réalise directement et de façon durable par simple emboîtement, comme les conduits circulaires avec joints.
  • Leur placement est plus rapide, donc moins cher.
  • Pour une même section, leurs pertes de charge sont moindres, d’autant plus si les conduits sont rigides.
Exemple.

Si on passe d’une gaine circulaire à une gaine rectangulaire dont la rapport des côtés est égal à 4, la perte de charge est augmentée d’environ 30 %. Plus le rapport largeur/hauteur du conduit rectangulaire augmente, plus celui-ci sera défavorable au niveau des pertes de charge. Un rapport de plus de 5 : 1 doit absolument être évité.

Conduit circulaire avec joint aux raccords.

Conduit oblong : compromis entre la section circulaire et la section rectangulaire lorsque les faux plafonds sont peu épais.

Il faut de préférence installer des conduits galvanisés, pour leur faible rugosité et parce qu’ils ne sont pas sujets à l’arrachement de matière. Les conduits en asbeste ciment ont une rugosité 1,5 fois supérieure à ces derniers et les conduits isolés intérieurement, une rugosité 1,5 à 2 fois supérieure. Leur utilisation est interdite dans tous les bâtiments et en particulier dans les hôpitaux.

Conduits isolés (thermique et acoustique) intérieurement
au moyen de laine minérale recouverte de tissu de verre.


Section des conduits

Les pertes de charge diminuent comme le carré de la vitesse de l’air. Pour un même débit, on a donc intérêt à choisir les sections de gaines les plus grandes possible, tout en restant dans des limites admissibles.

Limite supérieure

Les grandes sections sont cependant limitées par :

  • les nécessités architecturales et l’encombrement,
  • le poids et donc le prix des conduits et de leurs supports (passer de 10 m/s à 6 m/s augmente le poids de 30 %),
  • le volume d’isolant en cas de conduits isolés thermiquement.

Limite inférieure

La vitesse de l’air dans les conduits ne peut dépasser une certaine valeur. Il en résulte une section minimum des conduits en dessous de laquelle il est déconseillé de descendre pour des raisons :

  • d’augmentation du bruit de bruissement de l’air dans les conduits droits et surtout au niveau des déviations;
  • d’augmentation des pertes de charge et de l’énergie consommée par le ventilateur. Par exemple, une diminution de moitié de la section double la vitesse de l’air, augmente les pertes de charge et la puissance absorbée par le ventilateur d’un facteur 4;
  • d’équilibre du circuit. Un circuit dont la vitesse de l’air au niveau des conduits est semblable à la vitesse de l’air au niveau des bouches est très sensible à l’ouverture et à la fermeture de celles-ci.

Vitesses maximales admissibles au niveau du bruit dans un réseau de distribution d’air [m/s]

Types de local Gaine principale Dérivation Grille, bouche Entrée d’air
Chambre (hôpital, hôtel, …) 5 2-4 0,5-2 1
Bureau 5-6 2-4 1-2 1
Atelier 8-10 6 1-5 2,5-4

Dans certains cantons suisses, la vitesse maximum de l’air dans les conduits de ventilation est imposée pour des raisons d’économie d’énergie.

Vitesse maximum de l’air autorisée dans le canton de Zurich

Débit maximum Vitesse maximum de l’air
< 1 000 [m³/h] 3 [m/s]
< 2 000 [m³/h] 4 [m/s]
< 4 000 [m³/h] 5 [m/s]
< 10 000 [m³/h] 6 [m/s]
> 10 000 [m³/h] 7 [m/s]

Exemple

Le réseau de pulsion suivant a été dimensionné pour 3 vitesses d’air différentes dans le tronçon le plus défavorisé (de la prise d’air A à la bouche a) : 4, 6 et 8 m/s :

Schéma réseau.

Vitesse de l’air [m/s]

4 6 8
Débit du ventilateur [m³/h] 12 600
Hauteur manométrique du ventilateur [Pa] 155 176 211
Durée d’utilisation [h/an] 3 000
Consommation (avec un rendement de 0,65) [kWh/an] 2 504 2 843 3 408
Facture énergétique (à 16 c€/kWh) [€/an] 400,6 454,9 545,3
Superficie totale des conduits [m²] 133 111 98
Investissement (à 1 100 €/m²) [€] 3649,2 3057,12 2704,15

L’intérêt de choisir la vitesse la plus faible possible dépend évidemment de la durée d’utilisation du groupe de pulsion.


Étanchéité

L’étanchéité des conduits de ventilation est particulièrement importante dans les zones où des risques d’aérocontamination sont présents. C’est par exemple le cas pour le réseau d’air repris et/ou recyclé. À ce titre ces derniers doivent d’ailleurs être les plus courts possible. Il faut également être attentif à l’étanchéité des trappes de nettoyage et éviter de placer des conduits dans les faux plafonds des zones à risque 3 et 4.

L’étanchéité des conduits dépend du matériel choisi et de sa mise en œuvre.

Photo étanchéité, bonne.  Photo étanchéité, mauvaise.  Photo étanchéité, mauvaise.

Même placé par un professionnel aguerri, un réseau de distribution d’air composé de conduits rectangulaires est très difficile à rendre parfaitement étanche. Pour cela, on peut utiliser aux raccords des bandes adhésives et du mastic d’étanchéité. Ceci demande cependant une main d’œuvre importante et soigneuse.
photo réseau à conduits circulaires.

Dès lors, il faut dans la mesure du possible préférer un réseau à conduits circulaires avec doubles joints au niveau des raccords. Ces conduits permettent d’atteindre une étanchéité correcte, sans précaution particulière de mise en œuvre Ceci conduit à des installations moins chères et plus étanches.

Si la taille des conduits circulaires ne leur permet pas de s’insérer dans des faux plafonds peu épais, un compromis peut être trouvé grâce à des conduits oblongs présentant les mêmes caractéristiques de mise en œuvre que les conduits circulaires.

La norme EUROVENT, reprise par les normes NBN EN 12237 et prEN 1507, fixe trois classes d’étanchéité des conduits de distribution (KA, KB, KC) par ordre croissant de qualité, la classe KA étant la plus mauvaise et la classe KC étant la meilleure. L’objectif est d’atteindre cette dernière.

Exemple.

Le bâtiment de bureaux « Probe » du CSTC à Limelette a été équipé d’un système de ventilation double flux (pulsion dans les bureaux et extraction dans les sanitaires). À l’origine, la distribution de l’air s’effectuait via des conduits rectangulaires. Malgré le soin apporté à la réalisation, cette installation présentait des débits de fuite importants. Par exemple, pour fournir 650 m³/h dans les bureaux, le ventilateur devait pulser environ 1 300 m³/h. L’étanchéification des raccords au moyen de bandes adhésives a permis d’améliorer la situation mais permis à peine d’atteindre les prescriptions de la classe KA définie par Eurovent.

   Adhésif d’étanchéité des conduits rectangulaires

Par contre, le remplacement complet des conduits rectangulaires par des conduits circulaires a permis de descendre presque jusqu’à la classe KC, sans effort de mise en œuvre particulier.

1. Situation initiale (conduits rectangulaires).
2 à 5. Étanchéifications successives par bandes adhésives.
6. Remplacement des conduits rectangulaires par des conduits circulaires à double joints au raccords.


Isolation

Tout conduit distribuant de l’air traité (chauffé ou refroidi) doit être isolé. En effet, un air traité à 16°C en centrale, risque d’arriver à 25°C dans le local à refroidir, de par son trajet dans les faux plafonds (souvent surchauffés, notamment par les luminaires). Ce qui est évidemment inadmissible.

En principe, les conduits d’extraction ne doivent, quant à eux, pas être isolés, sauf dans le cas où ils sont raccordés à un récupérateur de chaleur et que les conduits traversent des locaux non traités ou sont insérés dans une trémie en contact avec l’extérieur. Faute de quoi, tout l’intérêt du récupérateur risque d’être perdu.

Il est également indispensable d’isoler le tronçon séparant la prise d’air neuf du caisson de traitement d’air, surtout si ce tronçon est important. En effet le transport d’un air parfois très froid (- 10°C) risque de provoquer des condensations sur la face externe du conduit. Pour éviter cela, l’isolation doit être recouverte d’une protection pare-vapeur.

L’isolation doit être particulièrement soignée pour les conduits transportant de l’air froid, d’une part parce que les frigories coûtent plus cher et d’autre part à cause des risques de condensation lors de la traversée d’un local plus chaud que l’air véhiculé.

Par exemple, si un conduit nu véhicule de l’air à 16°C dans un local à 24°C, des condensations apparaîtront sur le conduit si l’humidité intérieure du local dépasse 58 %.

Dans ce cas, il faut isoler les conduits au moyen de matériaux présentant la plus faible sensibilité possible à l’humidité et en constituant une barrière « pare-vapeur » par l’application d’un film étanche sur l’isolant (tissu imprégné, film plastique ou métallique). Il existe des isolants déjà revêtus de tels films. Dans ce cas les joints doivent se refermer au moyen de ruban adhésif.

Il existe également des conduits rectangulaires directement composés de panneaux de laine minérale. Ceux-ci sont d’office enrobés d’un film pare-vapeur. Ces conduits ont par la même occasion des caractéristiques d’absorption acoustique.

Conduits composés de panneaux de laine minérale.

Isolant (épaisseur 25 mm) pour conduit
recouvert d’une feuille d’aluminium.

Plusieurs références permettent de définir la qualité thermique de l’isolant à mettre en œuvre. La réglementation thermique française impose une résistance thermique minimum du calorifuge de 0,6 m²K/W, ce qui équivaut à une épaisseur de 2,4 cm de laine minérale. Le cahier des charges 105 impose, lui, une résistance thermique de 0,65 m²K/W (2,6 cm de laine minérale) pour les conduits intérieurs, 1,5 m²K/W (6 cm de laine) pour les conduits extérieurs et 0,5 m²K/W (2 cm de laine) pour les conduits véhiculant de l’air extérieur.

Notons que pour répondre à la réglementation incendie, les matériaux constituant le conduit doivent être incombustibles (classés A0), ce qui est notamment le cas pour la laine minérale.

Pour obtenir un mise en œuvre correct de l’isolation des conduits de ventilation, il convient de faire attention à certains points :

  • Soit l’isolation fait partie de la constitution du conduit (matériau isolant non à base de fibre) soit elle est placée à l’extérieur du conduit;
  • Une membrane pare-vapeur dont les joints sont raccordés par du ruban adhésif est prévue si l’isolant ne présente pas une face externe à cellules fermées;
  • L’accessibilité est respectée pour les trappes de visite et les appareils de réglages;
  • L’isolation au droit de fixation du conduit doit être effectuée correctement et ne peut être interrompue;
  • Les joints entres éléments d’isolation doivent être traités pour ne pas déforcer celle-ci.

Acoustique

Une installation de ventilation crée de multiples ponts acoustiques dans le bâtiment

Tous les enfants ont pris un jour une feuille de papier, l’ont roulée en forme de tube, … et l’ont utilisée comme porte-voix vers l’oreille de leur malheureux voisin !

Un conduit transporte de l’air… mais véhicule en même temps des bruits

  • bruit du ventilateur de pulsion ou d’extraction,
  • bruit du local voisin,
  • ….

Production de bruit par écoulement de l’air

Par lui-même, un conduit génère du bruit, surtout si la vitesse de l’air est élevée. Le simple fait de faire circuler de l’air dans un conduit entraîne la création d’un bruit d’écoulement.

Exemple.

Une gaine rectiligne de 0,5 m² parcourue par de l’air à 12 m/s génère une puissance acoustique de 58 dB. Mais cette puissance chute à 19 dB à 2 m/s, ce qui n’est plus audible dans un bureau.

Afin de limiter le bruit généré, on sera attentif :

  • À dimensionner l’installation avec une vitesse d’air maximale de 4 à 5 m/s dans les installations « basse pression » et de 8 à 10 m/s dans les installations « haute pression ». Dans ces cas de haute vitesse, on devra prévoir des boîtes de détente insonorisées et portant la bouche de ventilation. Une étude acoustique est alors fortement recommandée.

Calculs

Pour visualiser le résultat apporté par ce type de calcul, cliquez ici !
  • À éviter toute turbulence dans la gaine. Tous les critères d’application pour limiter les pertes de charges par un tracé du réseau harmonieux sont valables pour l’acoustique, par exemple l’introduction de cônes de diffusion lors des changements de section.

Schéma, introduction de cônes de diffusion lors des changements de section.

Règle de bonne pratique.

Pour limiter la génération de bruit, vérifier que la vitesse de l’air ne dépasse pas 5 m/s dans les coudes.

Atténuation des bruits par les conduites

Mais un conduit d’air peut atténuer le bruit qu’il transporte.

Les parois intérieures d’un conduit amortissent tant bien que mal le son intérieur : il faut imaginer que l’onde sonore avance dans le conduit en se cognant en permanence aux parois.

L’effet d’absorption peut être renforcé par la mise en place de matériaux fibreux absorbants, particulièrement efficaces pour absorber les sons de hautes fréquences (le sifflement de l’air sur les pales du ventilateur, par exemple).

On choisira des matériaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène (dont l’épaisseur ne doit pas dépasser 0,1 mm sans quoi le pouvoir d’absorption est diminué), ou encore des panneaux recouverts d’une tôle métallique perforée.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Si l’absorption acoustique n’est pas recherchée, on privilégiera donc des conduits en matériau isolant thermique mais avec contact intérieur lisse.

Si l’absorption acoustique est souhaitée, on limitera si possible le placement de ces panneaux absorbants à la sortie d’un changement de direction (coude) : c’est là qu’il y a le plus de réflexions de l’onde acoustique sur les parois et que l’absorption sera donc la plus efficace.

Il est également logique de traiter uniquement le dernier tronçon puisqu’il atténue tous les bruits venant de l’amont du réseau.

De plus, les coudes renvoient le son d’où il vient !

Lorsque le son rencontre un coude à 90°, il se réfléchit en partie et revient vers la source dont il est issu !

Pour favoriser cet effet, il est préférable de ne pas mettre d’aubages directionnels à l’intérieur d’un coude. Mais alors, ce sont les pertes de charge qui sont augmentées et donc la consommation d’énergie !

Que faire ? En guise de compromis, certains préconisent de ne pas placer d’aubages dans les coudes situés dans le local technique, mais bien dans les coudes suivants. D’autres placent une courbe à 90° sans aubage, avant la première grille de pulsion ou de reprise.

Placement de silencieux

Des silencieux peuvent être installés sur le réseau.

Si les dérivations, branchements, modifications de section et bouches de sortie ne permettent pas de garantir le niveau sonore imposé dans le local, il convient de placer des silencieux dans l’installation.

Les silencieux doivent encadrer la source sonore (généralement le ventilateur), tant du côté réseau que du côté prise d’air extérieur. Afin d’éviter que le bruit du local technique ne « rentre » dans la gaine après le silencieux, celui-ci sera placé à la sortie du local.

Idéalement, on choisira un silencieux à large bande spectrale, à faible perte de charge et à production de bruit (provoqué par l’écoulement interne de l’air) aussi faible que possible.

Règle de bonne pratique.

On dimensionnera le silencieux de telle sorte que la vitesse de l’air soit limitée à 10 m/s lors du passage entre les baffles acoustiques du silencieux. Si la section d’ouverture du silencieux est de …30 %… à …50 %…, cela induit que la vitesse faciale à l’entrée du silencieux devrait être de …3 m/s… à …5 m/s… environ.

Concevoir

Pour choisir un silencieux, cliquez ici !

Remarque.

Il est très difficile de prévoir précisément le niveau sonore que fera une installation de distribution d’air. Aussi, par précaution, on est tenté de placer des silencieux exagérément dimensionnés (donc plus onéreux), qui génèrent tout au long de leur vie des pertes de charge et donc une consommation supplémentaire du ventilateur…

Si possible, il serait bénéfique de prévoir l’emplacement du silencieux mais de ne pas le placer, de faire une mise en service provisoire de l’installation avec mesure du niveau sonore, puis de dimensionner l’éventuel silencieux de façon nettement plus précise.

Dans certains cas, un caisson d’absorption peut être créé au sein du réseau, mesure simple, très efficace mais demandant de l’espace !

Schéma caisson d'absorption.

Schéma caisson d'absorption.

Transmission des bruits par les conduits

Sans précaution spécifique, on parle d’un effet « de téléphone interne ».

Transmission des bruits par les conduits

On veillera dès lors

  • À ne pas faire passer des gaines à travers des locaux à haut niveau sonore.
  • Soit à placer des silencieux au droit de la paroi de séparation si deux locaux sont ventilés par la même gaine (le silencieux devra apporter le même affaiblissement acoustique que la paroi elle-même), soit à utiliser des bouches performantes, avec anneaux acoustiques.
  • À ne pas solidariser les gaines avec les murs ou planchers traversés. Les évidements doivent être suffisamment grands pour permettre la mise en place d’une isolation après le montage de la gaine : soit des tresses de laine minérale, soit un mastic à élasticité permanente.

    Schéma isolation après le montage de la gaine.

  • À fixer les conduits avec des raccordements souples. Un tel montage ne se justifie pas systématiquement pour l’ensemble des suspensions de gaines mais des suspensions isolées (couche élastique en Néoprène, par exemple) seront requises autour du caisson de traitement et pour le conduit principal. Des suspensions normales seront généralement suffisantes pour le réseau secondaire aux étages, d’autant qu’une bande d’acier étroite n’est absolument rigide et ne dispose pas d’une section de transmission du bruit suffisante.

Schéma conduits avec des raccordements souples.

Schéma conduits avec des raccordements ressort.       Schéma conduits avec des raccordements en caoutchouc..

Schéma conduits avec des raccordements en caoutchouc..       Schéma conduits avec des raccordements en suspension.


Hygiène

Les risques d’aérocontamination présents surtout dans les hôpitaux demandent une attention particulière quant à l’hygiène des réseaux de distribution de l’air. Celle-ci repose sur différents principes :

  • Les espaces vides de la structure ne peuvent jamais servir pour pulser ou extraire de l’air. L’installation de conduits est indispensable.
  • La maintenance doit être facilitée par la présence de trappes de visite permettant l’inspection de la propreté des conduits et leur nettoyage. Le nombre de ces trappes doit cependant être limité parce qu’elles sont souvent source de fuite. Elles sont, en tout cas, indispensables dans les tronçons en aval de la filtration terminale à haute efficacité, qui nécessitent des désinfections et nettoyages réguliers.
  • Des clapets d’air étanches (débit de fuite de 10 m³/h max. sous 100 PA) doivent permettre la désinfection des conduits et des locaux en assurant la poursuite partielle des activités. Ces clapets permettent également d’isoler des zones d’exigence différentes situées sur un même réseau et évitent les mouvements d’air naturels dus au vent à l’arrêt des installations. On peut les disposer au niveau de la séparation entre les zones de différents risques, devant le filtre terminal pour faciliter sa maintenance pendant le fonctionnement de l’installation.
  • Lors de l’installation, une attention particulière doit être portée à la protection des conduits. Ceux-ci doivent être bouchonnés pour leur entreposage. La section montée doit aussi être obturée lors de l’interruption du chantier.
  • Les tronçons de conduit situés en amont du premier étage de filtration, c’est-à-dire non protégés doivent être les plus courts possibles et facilement nettoyables et désinfectés.
  • Le contrôle de la contamination en aval du filtre terminal doit être possible, de même que le contrôle de la qualité des filtres absolus et de leur montage au moyen d’aérosol injecté en amont du filtre.
  • L’air extrait des locaux où on utilise des isotopes ou des gaz anesthésiants doit être canalisé séparément.
  • La maintenance doit inclure la vérification de l’étanchéité des conduits, leur propreté et l’absence d’accumulation de poussières ou d’humidité. Le bon fonctionnement et l’étanchéité des registres doivent également faire l’objet d’un contrôle périodique, ce qui demande un accès possible et facilement repérable.

Robot de contrôle des conduits.

  • Dans les réseaux avec recyclage d’air, il est également important de contrôler le rapport air neuf/ air recyclé car il est garant du maintien du niveau de pression des locaux.

Choisir un système à Débit de Réfrigérant Variable

Choisir un système à Débit de Réfrigérant Variable

Unités extérieures d’un système à débit de réfrigérant variable.

Pour connaître les caractéristiques technologiques et le fonctionnement d’un système DRV, cliquez ici.


Quand opter pour un système à débit réfrigérant variable ?

Si le bâtiment demande une grande souplesse dans la gestion des besoins de  chaleur et de froid (basculements rapides entre des besoins de chaud et de froid d’un local particulier ou à des besoins simultanés de chaud et de froid dans des locaux proches), un système à Débit de Réfrigérant Variable offre la souplesse nécessaire pour y répondre.

En particulier, le DRV est pertinent :

Lorsque le bâtiment est bien isolé et peu inerte

Ce type de climatisation (chauffage et refroidissement) est très souple dans son fonctionnement. Il semble dès lors bien adapté pour des bâtiments neufs très bien isolés et dont le souhait de modularité a rendu les parois très légères (cloisons intérieures démontables).

En effet, la faible inertie des parois rend ces bâtiments très sensibles aux variations de charges : occupants d’une salle de réunion, rayons de soleil, équipements bureautiques, … Dans ce type de bâtiment, une relance de chauffage est parfois nécessaire au matin, alors que dès midi le refroidissement du bâtiment devra être organisé.

Or ce type d’installation de climatisation peut y répondre avec beaucoup de souplesse.

Une installation de ventilo-convecteurs à 4 tubes permet également une telle souplesse de réponse, mais en amont du ventilo, il faudra prévoir un réseau d’eau glacée et sa machine frigorifique, ainsi qu’un réseau d’eau chaude et sa chaudière. Le danger du 4 tubes est le risque de fonctionnement simultané du chaud et froid qui engendrerait une destruction d’énergie.

Voici l’extrait d’une régulation sur un local de bureau (reconstitution à partir de l’historique enregistré sur le système de régulation d’un système DRV).

Graphique extrait d'une régulation sur un local de bureau.

Lorsque l’on prévoit des demandes de chaud et de froid simultanées

La variante dite « à récupération d’énergie » est particulièrement intéressante si l’on prévoit des apports internes élevés durant l’hiver : salle informatique, locaux intérieurs, … La chaleur extraite pourra être restituée vers les locaux demandeurs en façade. Elle peut être intéressante également en mi-saison (façades d’orientation différentes).

Il faut avoir conscience que cette situation est plus rare qu’on pourrait le penser (essentiellement en mi-saison). Dans l’étude d’un bureau-type de 3 000 m², l’analyse des besoins par simulation a fait apparaître que le potentiel de récupération de chaleur sur la demande de froid avoisine les 20 % de la demande de froid annuelle. C’est un potentiel théorique. Nous ne connaissons pas actuellement le pourcentage réel d’exploitation de ce potentiel par le système. Par contre d’autres applications s’y prêtent très bien :

  • la récupération de chaleur depuis un local informatique ou d’un process industriel,
  • la production d’eau chaude sanitaire par récupération de chaleur des locaux en été,
  • l’alimentation en chaud ou en froid d’une batterie terminale d’un groupe de ventilation

Mais ce potentiel augmenterait fortement si, au lieu de prendre une structure classique rectangulaire (bureaux en façade et couloir central), une structure carrée avait été décidée, ou si des étages enterrés en sous-sol étaient programmés.

Une analyse des besoins thermiques est très utile pour aider à la décision.

Lorsque l’on prévoit de fréquentes modifications de l’organisation interne des locaux

La possibilité de passer instantanément du mode refroidissement au mode chauffage donne au système la même souplesse que celle d’une installation de ventilo-convecteurs 4 tubes.

Plan modification agencement interne des locaux.

Lorsque la rénovation du bâtiment ne permet pas de dégager des espaces techniques importants

Ce système peut s’adapter facilement en rénovation puisque aucun local technique n’est requis (pose en toiture) et que les tuyauteries ont un faible encombrement.

Si le placement d’un faux plafond n’est pas possible, un système en allège ou en plafonnier apparent sera prévu.

De plus, le fractionnement de la puissance totale de l’unité extérieure en multiples modules permet un montage plus aisé, chaque module pouvant être monté par ascenseur, par exemple.

On sera attentif au bruit de l’unité extérieure pour le voisinage, mais le fonctionnement à vitesse variable permet de limiter celui-ci à des valeurs acceptables.

Lorsque l’on a affaire à des bâtiments où l’occupation des locaux n’est pas constante (chambre d’hôtels par exemple).


Les limites des systèmes DRV

On sera attentif aux aspects suivants qui peuvent écarter ce choix :

Le prix semble être encore élevé, surtout en regard à la puissance frigorifique fournie

Comme pour tout produit nouveau sur le marché, le prix d’investissement est proportionnellement élevé. Surtout pour la solution énergétiquement la plus performante, l’installation 3 tubes. Mais il faut envisager le coût global sur 20 ans, exploitation comprise. Nous manquons de chiffres pour faire apparaître la performance à l’exploitation de ce système qui paraît importante. Mais notons que le prix d’un système DRV doit être mis en parallèle au prix d’une technologie 4 tubes (groupe de froid et chaudière). À ce moment-là, on se rend compte de cout est comparable, voir inférieur.

Le travail de conception et de dimensionnement est réduit puisque le constructeur propose son installation « clé sur porte ». Sachant qu’il est limité en puissance frigorifique et calorifique, il aura tendance à dimensionner son équipement en ne surévaluant pas les besoins, ce qui est un gage d’efficacité énergétique à l’exploitation.

Remarque
L’avenir de la tarification électrique devrait être plutôt favorable à ce système. En effet, les fournisseurs d’électricité vont favoriser les systèmes capables de délester au moment de la pointe, capables de réguler le diagramme de charge en pilotant les compresseurs à vitesse variable.

Les utilisateurs de ces systèmes pourraient alors bénéficier d’un tarif préférentiel diminuant le coût d’exploitation. Dans plusieurs pays, des primes à l’investissement sont octroyées, ce qui a permis une évolution plus rapide de ce type d’installation.

L’existence d’un réseau de fluide frigorigène dans l’ensemble du bâtiment

Placement des tuyauteries en faux plafond.

Les fabricants ont réduit la charge de fluide au maximum et les techniques d’aujourd’hui permettent a priori une installation « zéro fuite », mais un risque subsiste. Non pas pour les occupants (les fluides ne sont pas nocifs), mais vis-à-vis d’une réglementation future plus restrictive au niveau environnemental.

Il faut reconnaître qu’une fuite quelque part dans un faux plafond… n’est pas simple à détecter.

Actuellement, le Permis d’Environnement de l’IBGE n’interdit pas cette technique. Mais le Luxembourg qui a, un certain temps interdit cette technique, limite la puissance des installations à 50 kW.

La norme européenne EN 378 limite la concentration du R410A à  440 gr/m³. Elle considère que l’ensemble du gaz d’une installation peut s’échapper dans un local. Pour une quantité totale de réfrigérant de 30 kg contenue dans une installation, aucun local de moins de 68,2 m³ (+/- 27,3 m²) ne pourrait théoriquement donc être chauffé/refroidit par le système DRV sauf si la ventilation permet d’abaisser la concentration sous le seuil maximal en moins de 10 minutes.

Réglementations

Des contrôles d’étanchéités doivent être faits une ou plusieurs fois par an suivant la quantité de gaz de l’installation. Pour plus d’informations : cliquez ici.

Le chauffage en hiver par pompe à chaleur sur l’air extérieur

Il semble que les performances des pompes à chaleur soient en constante évolution (par la technique INVERTER de variation de vitesse du compresseur, par les techniques de dégivrage nettement améliorées, …), mais nous ne disposons pas de valeurs de  SPF hivernal, mesuré sur site réel, par un organisme indépendant. Quel est le COP global de la machine lorsque la température extérieure descend à – 5… – 10 °C ?

D’un point de vue énergétique :

En considérant facteur d’énergie primaire de 2,5 pour l’électricité et un rendement de chaudière de 95 % pcs. Il suffirait d’un SPF de 2,38 pour équilibrer le bilan énergétique, équipements auxiliaires (ventilateurs,…) compris.

D’un point de vue économique :

Avec un système DRV, le courant électrique utilisé est un courant de jour (environ 0,23 €/kWh, pointe comprise). Si le gaz se maintient autour des 0,09 €/kWh pcs. Avec un rendement d’une chaudière gaz condensation de 95 % pcs Il suffirait d’un COP moyen de  2,43 pour équilibrer le coût énergétique, équipements auxiliaires (ventilateurs,…) compris.

Ces valeurs de COP sont probables.

De plus, un fonctionnement au tarif avantageux de nuit est possible pour la relance du bâtiment du matin, ce qui fait l’essentiel des besoins de chauffage.
Les installations DRV sont rarement surdimensionnées, en premiers lieux à cause de la limite en puissance, mais également pour éviter faire tourner les compresseurs en régime trop faible ce qui détériore les rendements. Pour éviter des facteurs de relance trop élevés les constructeurs préconisent de maintenir la température de nuit jusqu’à 17 – 18 °C afin d’éviter des dégivrages trop fréquents en hiver. Or ce procédé augmente entre 17 et 38 % les consommations journalières en hiver.

Le refroidissement en été handicapé par le type de compresseur

Les constructeurs annoncent des EER entre 3,1 à 4,3. Ces valeurs restent dans la moyenne des machines à refroidissement/réchauffement par air, à près tout c’en est une. Malheureusement il n’existe pas de valeur d’efficacité saisonnière (ESEER), ni auprès de fabricants ni auprès d’organisme indépendant. Celle-ci aurait pu nous aider à se faire une idée réelle de l’efficacité.

Ce qui est sûre, c’est qu’énergétiquement parlant, si la récupération d’énergie (chaleur provenant d’un local informatique, transfert de chaleur entre locaux dont les besoins sont forts différents, process industriel nécessitant la production d’eau glacée,…) est impossible ou faible, il faudrait mieux vous tourner vers une autre technologie.

Conclusion

On ne peut aujourd’hui que tirer une conclusion provisoire, en disant que le système DRV présente des avantages indéniables, qu’il semble d’une bonne performance énergétique grâce à une électronique intelligente et qu’il s’adapte tout particulièrement aux petites et moyennes surfaces à traiter.


Choisir le type de système DRV

En dehors des spécificités technologiques des différentes marques, les choix principaux sont :

Le choix de l’existence d’une récupération entre locaux

L’installation peut être du type « froid seul » : c’est le choix qui sera fait lorsque l’installation vient en complément d’une installation de chauffage existante (rénovation d’un ancien bâtiment). A éviter sous peine de risque de destruction d’énergie.

L’installation peut être du type « froid seul » ou « chaud seul » : les unités intérieures produisent alors toutes en même temps, soit du froid, soit du chaud. Ce système demande que les besoins du bâtiment soient assez homogènes et qu’une plage neutre (plage où la température fluctue sans intervention) de 21 à 25 °C par exemple, soit acceptée par chacun. Ce ne sera donc pas un système adéquat pour un immeuble comportant des zones intérieures (à refroidir toute l’année) ou des façades fortement vitrées, orientées Est-Ouest. Sauf si la zone intérieure du bâtiment est importante, au point qu’un circuit indépendant (avec sa propre unité extérieure) se justifie rien que pour cette zone centrale.

L’installation peut travailler en mode « froid » et en mode « chaud », simultanément : les unités intérieures peuvent assurer du chauffage dans certains locaux et du refroidissement dans d’autres. Le confort est donc nettement amélioré puisque l’on peut répondre à des besoins différents dans chaque local.
De plus, ce système permet la récupération d’énergie dans la mesure où il est capable de transférer la chaleur puisée dans les locaux à refroidir vers les locaux à réchauffer. C’est l’existence d’un réseau de fluide frigorigène, la performance des nouveaux compresseurs à vitesse variable et une électronique sophistiquée qui permet cet avantage appréciable. C’est le système à choisir lorsque l’analyse des besoins prévoit des superpositions importantes de demandes de chaleur et de froid simultanées.

Mais un supplément de prix de l’ordre de 30 à 50 % sera demandé par rapport au mode « froid ou chaud ».

 Études de cas

Les bureaux de Franki Geotechnics.


Les paramètres de prédimensionnement

Pour réaliser un appel d’offres permettant de comparer les solutions entre elles, certains éléments doivent être précisés dans le dossier.

Un découpage des zones lié au choix du système 2 tubes ou 3 tubes

En 2 tubes :

Si les locaux sont répartis sur des façades différentes, où si certaines pièces ont des besoins forts différents des autres, il est à première vue adéquat de diviser le bâtiment en plusieurs zones, une pour chaque façade par exemple. On peut dire que 2 installations de climatisation sont alors installées dans le bâtiment, puisque les 2 unités travailleront en parallèle.

Illustration division du bâtiment en plusieurs zones.

En 3 tubes :

Pour optimiser la récupération de chaleur, il faut privilégier une seule installation pour l’ensemble du bâtiment. Si cela n’est pas possible, à cause de la limite de puissance par exemple, il peut être utile de découper le bâtiment horizontalement. Si on intègre dans la même zone des locaux de façades différentes, un transfert d’énergie peut avoir lieu à l’intérieur du bâtiment, en mi-saison.

Il est donc indispensable d’évaluer si des demandes de chaud sont prévues simultanément à des demandes de froid. Tout particulièrement, si un local informatique est présent, il est opportun de l’intégrer dans une zone où les autres locaux sont majoritairement en demande de chauffage.

Illustration division du bâtiment en plusieurs zones.

Une évaluation réaliste des besoins de refroidissement

Un dimensionnement très soigné doit avoir lieu. En effet, ce type d’installation travaille avec un mauvais rendement à bas régime.

Le compresseur tourne à vitesse variable en fonction de la demande. Mais une limite inférieure de 20 Hz ne peut pas être franchie. À ce moment, le compresseur développe 17 % de sa puissance nominale. Pour toute puissance inférieure, il risque d’adopter un régime de fonctionnement entrainant la destruction d’énergie. Le rendement en sera fortement dégradé.

Il faut donc éviter que l’installation soit sur-dimensionnée, c’est-à-dire, dimensionnée pour répondre à des conditions de canicule ou de froid extrême, avec des coefficients de sécurité supplémentaires, … entraînant de facto un fonctionnement fréquent à bas régime.

Plus positivement, on adoptera un facteur de foisonnement réaliste sur l’utilisation simultanée des équipements.

En quelque sorte, l’installation  n’a pas la possibilité de profiter de l’inertie d’un ballon tampon…

Une analyse de la technologie la plus adéquate

Sans entrer dans trop de détails techniques, les systèmes mis sur le marché varient d’un fabricant à l’autre. Tout particulièrement, le réseau de distribution des fluides qui est plus en « râteau » chez l’un et en « botte » chez l’autre. Certains systèmes seront plus vite limités en longueur de tuyauteries après le boîtier de répartition.

Ces nuances peuvent générer des coûts très différents lors de la mise en œuvre (nombre de boîtiers de distribution, facilité de passage de tubes au niveau des poutres, …).

Il sera donc utile de préciser la disposition des locaux, leur usage, … et l’accès prévu pour les techniques (gaines techniques, trémies, réservation dans les poutres…). Si un seul réseau peut être prévu en faux plafond pour alimenter des cassettes en dessous et des unités intérieures en allège pour l’étage du dessus, le coût d’installation peut être réduit.

À la limite, surtout en 2 tubes, il faudra écarter l’un ou l’autre local de l’ensemble parce qu’il a un comportement trop différent du restant des locaux à traiter.

Comparer ce qui est comparable

Comparer deux systèmes de climatisation n’est pas toujours aisé. Un système DRV chauffe et refroidit, il est installé avec sa propre régulation, il ne demande ni chaufferie ni cheminée…

Exemples :

  • Un local de réunion peut être traité spécifiquement avec un système d’apport d’air neuf autonome (fonctionnement en free cooling).
  • La partie self 24h/24 d’une agence bancaire sera traitée distinctement des bureaux.

Qu’en est-il de la garantie ? Certains constructeurs proposent 5 ans de garantie omnium sur l’ensemble de la solution.

L’installateur est-il agréé par le constructeur ?

La location d’une grue pour poser les équipements frigorifiques en toiture est-elle présente dans l’offre ?

Dans l’appel d’offres, il faudra en tenir compte pour pouvoir ensuite comparer plus facilement des solutions différentes.


Check-list qualité

Voici quelques critères de qualité à vérifier au niveau du cahier des charges :

  • L’étanchéité du réseau est déterminante et l’objectif « zéro fuite » doit être poursuivi. Les soudures seront réalisées sous atmosphère d’azote (permet d’éviter la formation de calamine) lors du brasage  Lors de la réception, l’installation sera testée sous minimum 30 bars d’azote durant 48 heures minimum, afin de détecter les fuites possibles du réseau.
  • Le cuivre doit être de qualité, de type frigorifique.
  • Une distribution d’air et de chaleur de qualité dans les locaux suppose un nombre suffisant de bouches ou de cassettes. Or l’installateur voudra réduire son prix en limitant le nombre de points de distribution dans les locaux. Pour que le client ne se retrouve pas avec une seule cassette très puissante au centre de son bureau paysager, le cahier des charges devra préciser le niveau de qualité à atteindre en matière de vitesse résiduelle d’air à la limite de la zone d’occupation, ou directement en matière de nombre d’appareils à prévoir.
    En termes de prix,  placer une cassette de 5 kW à la place d’une de 2 kW dans un bureau paysager entraine un supplément de  quelques centaines d’euros. Ajouter une cassette supplémentaire dans un local génère un coût de  plusieurs milliers d’euros… environ. Mettons-nous à la place de celui qui veut obtenir le marché…!
    Il ne faut ni air stagnant dans un coin du local, ni turbulence à la jonction de 2 flux d’air venant d’appareils différents. Pour s’assurer du bon brassage de l’air, on demandera un spectre de distribution de l’air garanti.
    La distribution prévue permet-elle une modification ultérieure éventuelle des cloisons ? (flexibilité).
  • Il faut vérifier la solution proposée pour que de l’air froid ne soit pas pulsé sur les occupants lors de la période de dégivrage de la pompe à chaleur. Tout particulièrement lorsqu’une arrivée d’air neuf est intégrée à l’entrée des unités intérieures…
  • C’est souvent l’intersaison qui pose problème… Lorsqu’une solution « froid ou chaud » est prévue, le « change over » (passage d’un mode à l’autre) devra être organisé. Si le bâtiment est assez inerte et homogène, un passage « été – hiver » manuel suffira. Dans le cas contraire, il est possible qu’il faille majoritairement chauffer au matin et refroidir l’après-midi. Et un change over automatique, décidé par le système en fonction de la demande majoritaire, est utile. Tous les systèmes ne le proposent pas. À noter que certains systèmes en mode « froid ou chaud » peuvent travailler alternativement en froid et puis en chaud, afin de satisfaire une fois l’un, une fois l’autre !
  • Les cassettes à intégrer dans le faux plafond sont-elles équipées d’origine de pompes pour remonter les condensats (les pompes ajoutées par après sont souvent beaucoup plus bruyantes) ?
  • Une possibilité de variante URE est-elle intégrée au cahier des charges ?
  • Le fluide frigorigène prévoit-il les exigences réglementaires futures ?
  • En cas d’appareil en allège, un manchon de raccord entre l’unité intérieure et la grille de l’habillage est-il prévu (pour éviter le court-circuitage partiel de l’air pulsé) ?

La hauteur de l’unité intérieure ne correspond pas toujours à la hauteur prévue pour l’habillage.

Choisir les ordinateurs

Choisir les ordinateurs


Les écrans

La taille de l’écran sera choisie pour son ergonomie. Cependant, il ne faut pas perdre de vue lors du choix que la consommation de l’écran augmente avec sa taille. Il s’agit donc de bien définir ses besoins.

Les écrans énergétiquement performants doivent répondre au label « Energy Star » mais aussi aux recommandations suédoises  « NUTEK-TCO » plus sévères encore et qui imposent aussi des temps de redémarrage après mise en veille :

  • En activité
    La puissance doit rester inférieure à une valeur donnée dans la formule suivante : Y = 23 W (si le nombre de pixels X est inférieur à 1 Méga pixel) et Y = 28X (si le nombre de pixels X est supérieur à 1 Méga pixel).
  • En veille
    Consommation < 2  W (2006).
    Après une période d’inactivité comprise entre 1 et 30 minutes.
    Temps de reprise pour les tubes CRT de l’ordre de 2 à 10 secondes; pour les écrans TFT, il est quasi immédiat.
    Clignotement orange/vert du témoin du moniteur.
  • Désactivé
    Consommation < 1 W (2006); seul le processeur est encore alimenté.
    Après une période d’inactivité comprise entre 1 et 30 minutes.
    Temps de reprise : identique à un démarrage à froid : 15 à 25 secondes suivant la qualité des écrans (la différence entre le mode veille et le mode désactivé est dans la gestion du circuit THT (Très Haute Tension) du tube. Dans le premier mode le chauffage du tube (du canon à électron) n’est pas totalement stoppé. Dans le 2ème cas le tube est arrêté, seules les configurations sont mémorisées. Il faut donc à nouveau préchauffer le tube).
    Témoin orange du moniteur.
Exemple.

L’exemple suivant est significatif de ce que peut rapporter la mise en veille d’un écran de 21 pouces. Il représente des mesures effectuées dans un immeuble de bureaux durant une semaine de travail, pour un écran ne possédant pas de mode veille et pour un écran en possédant un.

   

On peut estimer à 500 kWh l’économie annuelle réalisée grâce à la mise en veille de l’écran.

Pour accéder à ces caractéristiques, il faut :

  • Un écran compatible,
  • une carte graphique compatible,
  • un logiciel de commande (compris d’office dans Windows 2000, XP et versions futures).

Ces éléments sont repris sous la dénomination « VESA-DPMS », qui est le standard de gestion du mode veille des écrans.

Attention ! Il ne faut pas confondre l’économiseur d’énergie
avec l’économiseur d’écran !

Il est aussi possible d’éteindre son écran lorsqu’on ne l’utilise pas pendant un moment. Remarquons que dans ce cas la puissance absorbée de l’écran est très faible mais différente de 0 W. Une solution pour supprimer cette consommation résiduelle est de déconnecter l’écran du réseau électrique en débranchant physiquement la prise.

Un label, oui, mais ….

Le label « Energy Star » ne garantit pas d’office le comportement économe d’un ordinateur.

En effet, son application implique une configuration de la machine via le menu de Windows, configuration qui est souvent négligée par l’utilisateur, ou carrément mise hors service.

Dans ce cas, une machine possédant un label « Energy Star » ne consommera pas moins qu’un matériel équivalent sans label.

Activer la mise en veille de l’écran dans Windows 2000 ou XP

Les descriptifs présentés ci-après peuvent varier en fonction du type d’ordinateur ou de la version de Windows que l’on possède. La philosophie générale reste cependant la même.

Dans Windows 2000 ou XP (successeur de windows NT), le menu de mise en veille de l’écran est accessible via l’icône « Poste de travail », puis « Panneau de configuration », puis « Affichage », puis « Ecran de veille », puis « Gestion de l’alimentation ».

Il faut essayer plusieurs valeurs pour trouver celles qui conviennent à chaque utilisateur. Il est déconseillé d’activer un écran de veille (économiseur d’écran) lorsque l’on utilise les fonctions « Energy star » car cette fonction risque de perturber le sommeil de l’écran en le réveillant prématurément.

Influence de la mise en veille sur la durée de vie des équipements

Deux phénomènes vont influencer la durée de vie des écrans :

  • Plus les éléments (mécaniques, tube cathodique) sont utilisés, plus ils chauffent et plus leur durée de vie est courte. On a donc tout intérêt à mettre les écrans en veille le plus souvent possible.
  • La durée de vie des écrans est surtout fonction de la durée de vie de leur tube cathodique. Cette dernière dépend du nombre d’allumages. En mode « veille », le tube cathodique reste sous tension. Il n’est donc pas éteint et sa durée de vie n’en est pas affectée. Par contre, en mode « désactivé », le tube cathodique est déconnecté, ce qui correspond à un cycle d’allumage.
    Cependant, ce point a surtout été soulevé suite aux conditions anciennes de fabrication des filaments du tube cathodique dont la relative fragilité en a longtemps fait un point faible.

En outre, les contacts établis avec les constructeurs démontrèrent que, suite à l’évolution technologique des équipements, y compris dans le cas des moniteurs, on constate un accroissement très important et continu du MTBF (« Mean Time Between Failure »). Et à l’heure actuelle, la durée de vie réellement « utile » est largement inférieure au MTBF.
On peut donc conclure qu’il n’y a pas d’influence négative de la mise en veille sur la durée de vie « utile ».
On peut recommander les temps d’attente suivant :

  • Mise en veille : entre 2 et 5 minutes.
  • Désactivation : entre 30 minutes et 1 heure.

Les écrans à cristaux liquides


La consommation et la taille des écrans est principalement due à la technologie du tube cathodique. Les ordinateurs portables sont, quant à eux, équipés d’écran à cristaux liquides. Ceux-ci sont caractérisés par un encombrement minimum (épaisseur de l’ordre de 1 cm) et une consommation minime. A moyen terme (certains inconvénients étant corrigés : prix élevé, …), ce type d’écran devrait équiper tous les PC’s, diminuant ainsi drastiquement leur consommation.

La comparaison entre un écran CRT et un écran TFT est sans équivoque.

(LCD : Liquid Cristal Device (cristaux liquides); CRT : Cathode Ray Tube (tube cathodique)).

Ces dernières années l’écran à cristaux liquides est devenu de plus en plus compétitif. La vision latérale est maintenant excellente. Différentes tailles d’écran sont disponibles. Le prix reste élevé (de l’ordre du double du prix d’un CRT en 2005). Les bénéfices conjugués en termes d’ergonomie, de confort, de diminution de consommations, de diminution des rejets thermiques en mode « use » le rende particulièrement attractif.

En terme de prix, pour un écran 17″ par exemple, on avoisine :

  • Les 100 € en moyenne pour un écran CRT (Cathodic Ray Tub).
  • Les 260 € en moyenne pour un écran LCD (Liquid Crystal Display).

 Évaluer

Pour plus de détail sur les puissances mises en jeu au niveau des écrans, cliquez ici !

Les « micro » ordinateurs classiques proprement dits

Mode « veille » (Standby)

La mise en veille des ordinateurs est plus délicate.
Il faut veiller à ce que la trilogie ci-dessous soit certifiée ACPI (Advanced Configuration and Power Management), et donc, entre autres, compatible avec une gestion des consommations des ordinateurs.

  • Bios (set-up) qui apporte la possibilité de mise en veille.
  • Système d’exploitation (Windows, …) qui arbitre les besoins entre les applications et les économies d’énergie : il doit veiller aux appels du Bios pour une modification d’état, mais aussi vérifier que toute action d’économie d’énergie ne perturbe pas les programmes en cours.
  • Applications (logiciels et pilotes de périphérique) qui fournissent les informations pertinentes concernant leurs besoins et les activités en cours.

Ce standard de gestion énergétique est supporté par Windows (2000, XP, …). Celui-ci intègre la gestion du hardware, des applications et des périphériques tels que lecteurs CD-roms, cartes réseau, disques durs, imprimantes, modem, … Inversement, une action sur certains de ces périphériques (carte réseaux, modem et aussi clavier) peut activer automatiquement les PC’s.
Il existe plusieurs niveaux de mise en veille de l’ordinateur correspondant à plusieurs consommations « résiduelles ». En mode « veille prolongée » (consommation « résiduelle » la plus faible), l’ensemble d’un PC ne consomme plus que quelques W.

Le temps de réactivation est instantané. Le retour au fonctionnement normal dépend des caractéristiques propres du disque dur. Cela peut aller de 3 à 10 secondes (sauf pour le mode « veille prolongée »). Pendant le temps de relance complète du disque, il est généralement possible de continuer à taper du texte.

Néanmoins, la mise en veille peut ralentir et perturber le bon déroulement de certaines opérations (Back up, grosses impressions, …). L’utilisateur doit penser à désactiver la mise en veille lorsque ces opérations sont exécutées mais qu’il n’y a personne à l’ordinateur (pas d’utilsation de souris, clavier, etc.)

Il semble également que la compatibilité software-hardware ne soit pas encore tout à fait parfaite.

Ceci étant nous suggérons cependant de procéder à l’activation du mode « ENERGY STAR » (ou de vérifier que ce mode y est effectivement activé) de tout micro-ordinateur ou périphérique ainsi que des équipements partagés (copieur, imprimante, télécopieur,. ) et, en cas de nouvel achat, d’insister auprès des vendeurs pour qu’ils vous en fassent la démonstration.

En outre, il convient d’être prudent en ce qui concerne les UC ou stations en réseau dès lors qu’elles font appel à des ressources partagées (serveur, disque dur partagé, …) et de n’agir qu’en conformité avec les exigences de l’Ingénieur Système.

Évaluer

Pour plus de détail sur les puissances mises en jeu au niveau des ordinateurs, cliquez ici !

Activer la mise en veille de l’ordinateur

Dans windows 2000, la mise en veille des unités centrales est accessible de la même façon que celle des écrans.

Le mode « mise en veille prolongée  » est accessible à partir du menu « propriétés d’option d’alimentation ».

Les nouveaux processeurs

Les processeurs étant de plus en plus puissants et rapides, il en va de même de leur consommation. La fréquence est telle qu’il devient difficile de dissiper la chaleur; ce qui amènera les fabricants à adopter la technologie « double-cœurs » (dual-core) qui va permettre, sans augmenter la puissance mais avec des processeurs distincts, d’améliorer sensiblement les performances des ordinateurs.


Et les portables

Les ordinateurs portables sont de plus en plus utilisés dans les institutions, leur prix ayant fortement diminué ces dernières années. Bien que toujours moins puissants à prix égal que les pc « classiques », ils constituent néanmoins une bonne alternative pour un travail de bureau traditionnel. (Ils ne sont en effet pas aussi confortables à utiliser pour des travaux spécifiques de type graphiques que les pc traditionnels, ceci étant dû à leur petits écrans LCD (15’’ à 17’’)). Un autre intérêt est la possibilité de déplacement offerte aux utilisateurs de portables, et ce grâce aux réseaux internes d’entreprise sans-fil (Wireless-Lan), de plus en plus utilisés à l’heure actuelle.

Leur consommation est également nettement inférieure, comme le montre l’exemple ci-après avec un pc récent économe en énergie (Intel Centrino) :

État du portable

  Puissance [W]

Éteint

5,7

En veille

5,7

En marche

23

En mode « éteint »

Il est intéressant de constater la puissance dissipée de 5,7W du portable complètement éteint. Celle-ci est dissipée par le transformateur attaché au portable (1.2W), mais surtout par la batterie, même complètement chargée ! (4.5 W). D’où l’intérêt de complètement débrancher la prise du mur lorsqu’on n’utilise plus le portable.

Faut-il laisser la batterie dans le portable si on utilise le secteur ?

En effet, cela permettrait de gagner + 5 W. De plus, cela ne comporte aucun risque quand à l’usure éventuelle de la batterie. En effet, les batteries modernes (Li-Ion), doivent toujours garder 5 % d’énergie pour garder une bonne durée de vie. Il suffit donc de les enlever partiellement chargées lorsqu’on ne les utilise pas, de les stocker et de les recharger environ une fois par mois si on ne les a plus utilisés pendant cette période (car elles se déchargent alors automatiquement).

Rajoutons que ces batteries ne subissent pas le célèbre « effet mémoire » qu’on trouvait sur les anciennes batteries Ni-Cd, et qu’elles ont une durée de vie de + 3 ans dans des conditions normales d’utilisation.

En mode « marche »

Les valeurs de la puissance dissipée varient lorsque le portable est utilisé avec une ou plusieurs applications basiques du type traitement de texte (bureautiques) à la puissance maximale consommée lors de l’exécution d’une application très gourmande en ressources (logiciel de compression de fichiers + lecture DVD). Rajoutons qu’un « micro » ordinateur est utilisé à 99 % du temps pour des applications peu gourmandes en énergie.

Ci-dessous un graphe montrant les répartitions de consommation au sein d’un pc portable moderne. On remarque que la partie la plus gourmande en énergie est l’unité centrale (processeur+chipset) sur la carte mère, suivie de l’écran.

Avoir beaucoup de mémoire RAM (min.512 MB) permet de limiter les accès disques et donc de limiter la consommation électrique. (l’utilisation de la RAM consomme près de 10 fois moins que des accès au disque dur).

Les portables bénéficient de la plus grande attention au niveau énergétique de la part des constructeurs, et cela de par le fait qu’ils essaient de donner la plus grande autonomie à ces machines. Les batteries toujours plus efficaces, et surtout les composants informatiques économes en énergie (les futurs processeurs tourneront à du 1V contre 3.3V actuellement,…).

Évaluer

Pour plus de détail sur les puissances mises en jeu au niveau des portables, cliquez ici !

Choisir la couleur des parois et des plans de travail

Coefficients de réflexion recommandés

 

Que ce soit en éclairage direct ou indirect, il est toujours préférable de favoriser les parois de couleur claire.

Par défaut, on choisira les coefficients suivants :

Coefficients de réflexion par défaut
Plafond 0.7
Mur 0.5
Sols 0.3

Données

Pour connaitre les différents coefficients de réflexion en fonction du matériau ou de la couleur.

Influence de la couleur des différentes parois

Plafond

La couleur du plafond joue un rôle peu important sur l’éclairage artificiel direct. Son rôle devient primordial lorsqu’il s’agit de distribuer la lumière naturelle en profondeur dans le local. La valorisation maximum de cet éclairage naturel permet ainsi une diminution des consommations électriques.

En éclairage indirect, le plafond sert de diffuseur de la lumière. Il doit toujours avoir le coefficient de réflexion le plus élevé.

Dans tous les cas, un facteur de réflexion trop faible peut provoquer un trop grand contraste entre le plafond et les luminaires, d’où risque d’éblouissement.
Dans les bâtiments de soin, il doit de plus être mat pour éviter les taches lumineuses trop intenses qui risquent d’éblouir le patient couché.

Plafond très foncé.

Murs

La couleur des murs aura un rôle, au niveau de l’éclairement, d’autant plus important que les luminaires utilisés ont une distribution extensive.

Sol

Le plancher est rarement complètement libre et dégagé. Le mobilier représente souvent une surface importante. La couleur du sol aura donc peu d’influence sur la qualité de l’éclairage artificiel.


Couleur du plan de travail

La clarté des tables de travail constitue un élément favorable au confort visuel. La réduction du contraste entre le support papier et la table diminue les efforts d’accommodation de l’œil à chacun de ses déplacements.

De plus, il est conseillé d’utiliser des revêtements mats pour les parois du local et surtout pour les tables de travail pour limiter les luminances excessives et les risques d’éblouissement.


« Autour des baies vitrées »

Pour éviter l’éblouissement, il est souvent nécessaire de réduire la luminance des baies vitrées, excessive par rapport à celle de la tâche visuelle, en adoptant des systèmes appropriés.

Il existe plusieurs moyens pour diminuer cet éblouissement

  • préférer une grande fenêtre, moins éblouissante que plusieurs petites,
  • diminuer le contraste mur-huisserie grâce à un cadre clair,
  • voiler le ciel par une protection solaire ou un rideau,
  • diminuer le contraste mur-fenêtre en éclairant le mur contenant la fenêtre,
  • diminuer le contraste mur-fenêtre en augmentant la part indirecte de l’éclairage naturel (local très clair),
  • voiler en partie le ciel en assombrissant la fenêtre par un élément déflecteur,
  • voiler en partie le ciel en disposant à l’extérieur des éléments moins lumineux que le ciel (atrium, cour intérieure).

Choisir l’enveloppe de la chambre froide [Concevoir – Froid alimentaire]

Choix constructif

Pour la construction de la chambre, on a intérêt à utiliser les éléments de raccords préfabriqués prévus par les fabricants des panneaux isolants (par exemple les éléments d’angles) en s’assurant qu’ils suppriment tous ponts thermiques.

En effet, si on n’utilise pas ces raccords, on risque de créer des ponts thermiques tels que ceux représentés ci-dessous.

     

On peut également supprimer ces ponts thermiques sur site lors de la construction en procédant à quelques adaptations qui consistent à couper la tôle ou à injecter des produits isolants.

Cette opération est néanmoins plus délicate et plus difficile à contrôler.

      

D’autre part, il vaut mieux aussi travailler avec la modulation des panneaux par rapport à l’espace disponible. Car il est préférable d’avoir une chambre un peu plus petite mais réalisée soigneusement avec des pièces d’origine, que d’avoir une chambre (un peu) plus grande, mais bricolée en adaptant mal les raccords entre éléments préfabriqués qui auraient été découpés sur place avec le peu de précision que l’on devine.


Choix du coefficient de transmission thermique des parois

Importance relative de l’isolation des parois

Les apports par les parois ne constituent qu’une petite part dans les apports globaux d’une chambre froide. Cette part est plus ou moins importante selon le type et l’utilisation de la chambre froide.

Si le bilan frigorifique de la chambre ou de la cellule de congélation montre que, dans la puissance frigorifique totale, il y a une part importante d’apports thermiques par les parois, il faut s’intéresser d’autant plus près à l’isolation thermique et faire attention au vieillissement de l’isolant (les isolants perdent leurs qualités au cours du temps).

C’est par exemple le cas d’une chambre de conservation de longue durée, à température constante, dans laquelle les denrées sont introduites à la bonne température.

Choix de la valeur du coefficient de transmission thermique des parois

De manière générale, la valeur à atteindre pour le coefficient de transmission thermique (k) des parois des enceintes de conservation dépend de l’écart de température à maintenir entre la température intérieure de la chambre et la température extérieure.
Elle est de l’ordre de :

  • 0,350 à 0,263 W/m²K en stockage réfrigéré,
  • 0,263 à 0,162 W/m²K en stockage surgelé.

Avec des parois en polyuréthane (les plus courants pour les chambres froides démontables modulables) d’une masse volumique de 30 kg/m³ et d’un coefficient de conductivité thermique (λ) de 0,028 W/mK. Cela correspond à des épaisseurs de panneaux de :

  • 7 à 10 cm en stockage réfrigéré,
  • 10 à 17 cm en stockage surgelé.

 k [W/m2K] = 1/R; R = 1/αint + e/λ +1/αext

Où :

  • les coefficients d’échange superficiel αint = α ext = 8 [W/m2xK], e = l’épaisseur de l’isolant [m]

De manière plus précise, le coefficient de de transmission thermique doit permettre :

  • d’éviter les condensations superficielles
  • d’assurer un bon rapport coûts d’exploitation/investissement

Les condensations superficielles

Pour des raisons sanitaires (crasses, moisissures), et aussi pour éviter les corrosions des parties métalliques des chambres froides et des tuyauteries, il faut éviter les condensations.

La résistance thermique doit conduire à des températures de surface extérieure qui empêchent cette condensation dans une ambiance humide.

Calculs

Si vous voulez calculer l’épaisseur nécessaire des parois pour éviter les condensations superficielles, et ce en fonction de l’orientation de la paroi, de la température extérieure, de l’humidité relative extérieure, de la température intérieure et de la valeur lambda de l’isolant.

Remarque : en général, l’épaisseur ainsi calculée sera plus faible que les épaisseurs recommandées ci-dessus. Mais cette épaisseur est calculée avec un isolant de bonne qualité et en début de vie.

Les gains annuels suite à une meilleure isolation

Les apports thermiques par les parois vont dépendre du coefficient de transmission thermique de l’isolant, de son épaisseur, de la surface extérieure (en m²) et de la différence de température entre l’intérieur et l’extérieur.

Si pour une chambre donnée, on augmente l’épaisseur de l’isolant, cela a donc pour conséquence une diminution des déperditions.

Ce qui a un triple effet sur les coûts :

  • les coûts des consommations électriques diminuent,
  • le coût d’investissement de l’enceinte augmente,
  • le coût d’investissement de la machine frigorifique diminue.

La fonction qui cumule ces trois variables, en fonction de l’épaisseur de l’isolant, possède en principe une courbe « creuse » au plus bas de laquelle on trouve l’optimum d’isolation thermique.

Pour trouver cet optimum, il faudrait connaître la variation de ces différents coûts par rapport à l’épaisseur de l’isolant. Il faudrait également faire intervenir des facteurs comme l’évolution du prix de l’énergie, les taux d’intérêts, les taux d’inflation et la durée de l’amortissement.

Ce calcul est complexe et nous ne l’abordons pas ici.

Néanmoins, on peut calculer la diminution de pertes par les parois due à une augmentation de l’épaisseur de l’isolant et l’économie d’énergie approximative que cela engendre au niveau des consommations. Cette économie est à mettre en rapport avec le surcoût dû à l’augmentation de l’épaisseur de l’isolant (à demander à l’entrepreneur).

Calculs

Si vous voulez faire ce calcul.
Remarque.

Le vieillissement des isolants est inéluctable, bien que ce chapitre ne soit pas abordé en toute franchise par les fabricants. On voit parfois apparaître des condensations sur des parois sandwiches en PUR après une dizaine d’années d’utilisation des chambres froides.
En tout état de cause, vu les nombreux phénomènes en cause dans la dégradation des isolations thermiques au cours du temps (et notamment les nombreux percements, la détérioration des joints et les dégâts faits aux parois par les utilisateurs eux-mêmes), il est prudent de tabler sur un accroissement de la valeur lambda de 20 à 30 % sur 10 ans.

Pour compenser cet effet, on peut augmenter l’épaisseur de l’isolant pour que l’isolation reste suffisante à la fin de la durée d’amortissement des installations.

Sans cette précaution, et si les apports par les parois forment l’essentiel de la puissance frigorifique, la machine risque d’être de plus en plus sollicitée au cours du temps, ce qui raccourcit sa durée de vie, et elle aura de plus en plus de difficultés à maintenir les consignes de température intérieures.


Faut-il isoler la dalle du sol ?

La chambre froide négative avec pièce habitée en-dessous

Le sol des chambres froides négatives est en général isolé pour les chambres vendues toutes faites. Pour les autres, le sol doit être isolé sur chantier.

En effet sans cela il y a un risque certain de condensation sur le plafond de la pièce du dessous. L’épaisseur d’isolation thermique doit donc être calculée pour éviter la condensation sur cette surface.

Calculs

Si vous voulez calculer de manière simplifiée l’épaisseur d’isolant minimale nécessaire pour le sol de votre chambre froide négative afin d’éviter la condensation sur le plafond de la pièce située sous celle-ci.

Il est également impératif d’isoler le sol au niveau efficacité énergétique. En effet, les apports thermiques par cette paroi et les consommations qui en découlent vont être importantes s’il ne l’est pas, vu qu’il y a une grande différence de température entre l’extérieur et l’intérieur.

La chambre froide négative sur terre-plein

Le sol des chambres froides négatives est en général isolé pour les chambres vendues toutes faites.

Pour les autres, il est impératif, pour des raisons d’économies d’énergie, d’isoler le sol sur chantier car les apports thermiques par cette paroi et les consommations qui en découlent vont être importantes s’il ne l’est pas, vu qu’il y a une grande différence de température entre l’extérieur et l’intérieur.

Exemple.

Soit une chambre froide négative (-18°C) sur terre-plein, de dimensions (largeur x profondeur x hauteur) = (2.7 x 2.4 x 2.4) m³. Le sol sous la chambre est humide à 1 m de profondeur.

Sans isolation au niveau de la dalle, les déperditions par cette surface sont de 58 W. Avec 15 cm de polyuréthane (0.028 W/mK), les déperditions par cette paroi ne sont plus que de 19 W.

D’autre part, sans isolation de sol, il existe un danger de gel du sol s’il y a présence d’eau à faible profondeur. Si le sol commence à geler, les nodules de gel vont augmenter en épaisseur et finalement soulever et déformer le sol de la chambre. Il peut également y avoir un danger de condensation ou de givrage sur le sol extérieur autour de la chambre froide et le long des parois de la chambre froide. Ce mouillage du sol peut engendrer un risque de glissement pour le personnel de manutention.

Une bonne isolation du sol évite ces problèmes.

Il est à noter que les mesures décrites ci-dessous permettent également d’écarter ces risques mais utilisées seules, ces mesures ne sont pas satisfaisantes au niveau efficacité énergétique.

Ces mesures sont :

  • Le drainage du sol.

 

  • Un vide sanitaire bien ventilé par de l’air à température positive et le plus sec possible. Le cas du vide sanitaire doit être étudié pour que de la condensation n’apparaisse pas au plafond du vide, ce qui serait un risque pour les armatures de la dalle qui supporte la chambre froide.

 

  • Un chauffage sous le sol (câbles électriques ou tuyaux de circulation d’eau, éventuellement connectés par un échangeur au condenseur de la machine). Dans ce cas, la puissance du chauffage doit être ajoutée aux apports par le sol.

Gonflement du sol sous une chambre froide.

Système de chauffage pour éviter le gel du sol.

Source : Défauts de la construction, Kluwer Editorial, n°B1110 – 15 et 16.

Calculs

Si vous voulez estimer la puissance chauffante à installer sous le sol d’une chambre froide négative pour éviter le gel. 

Mais attention, ce tableau est à manipuler avec la plus grande prudence. En effet :

  1. Les valeurs du lambda des sols secs et humides sont des hypothèses qui sont issues de la littérature pour des sols moyens. L’idéal serait de les vérifier pour le cas d’espèce.
  2. Certaines données à introduire ne sont pas indépendantes : la température en profondeur dépend évidemment de la température de la chambre froide, de l’importance de l’isolation thermique du plancher et de la profondeur de l’humidification du sol du terre-plein.
  3. Cette température en profondeur est variable au cours du temps, avant de se stabiliser quand l’ensemble de la masse est mis en régime.
  4. Cette température en profondeur peut varier entre l’hiver et l’été, surtout dans des zones situées au bord des entrepôts.
  5. L’humidification des sols peut aussi varier au cours du temps (selon l’efficacité du drainage).
  6. Si on ne chauffe pas la dalle, le gel pourrait se produire dans le sol, même si l’humidification du terre-plein ne monte pas jusque sous le béton du plancher.

Toutes ces raisons justifient pourquoi on doit utiliser le tableau en faisant une série de simulations raisonnables avec des données variables, pour aboutir à des valeurs maximalistes en isolation ou en chauffage.

La chambre froide positive

L’isolation des chambres froides positives est en option pour les chambres vendues toutes faites.
Pour les autres ce même choix est à faire.
Dans les 3 cas suivants, on choisit d’isoler le sol :

  1. Si on utilise la chambre avec des mises en régime fréquentes. L’isolation du sol permet d’avoir une constante de temps de l’air de l’ambiance beaucoup plus courte et la mise en régime en sera d’autant plus rapide, avec beaucoup moins d’énergie nécessaire.
  2. Si on veut une homogénéité de la température aux environs du sol qui est souvent encombré par des dépôts de marchandises, ce qui conduit à des panaches de chaleur localisés.
  3. Si le sol est en contact avec une source chaude importante (comme un four posé sur le sol près de la chambre) qui transmet de la chaleur par conduction du sol par-dessous les parois verticales de la chambre. Bien sûr, cette situation est à éviter absolument pour des raisons énergétiques.

Dans les autres cas, le choix entre un sol isolé ou non se fait en fonction :

  • Du danger de provoquer de la condensation sur le plafond de la pièce du dessous lorsqu’il y en a une.
    Ce risque est moins important qu’avec une chambre froide négative.

Calculs

Si vous voulez calculer de manière simplifiée si un isolant de sol est nécessaire dans votre chambre froide pour éviter la condensation sur le plafond de la pièce située sous celle-ci, et dans ce cas, quelle doit être l’épaisseur de celui-ci.
  • De l’augmentation des consommations électriques par rapport à celles de la même chambre dont le sol est isolé.

Aspects constructifs d’un plancher isolé

L’isolation de sol génère une marche à l’entrée de la chambre. Si la chambre est petite, on peut s’en accommoder. Les chariots restent à l’extérieur de la chambre et la manutention ne nécessite que quelques pas.

Dans le cas contraire, il y a trois possibilités :

  • la chape isolée qui évite la différence de niveau,
  • le décaissé dans la dalle,
  • une pente devant la porte.

La chape isolée

Pour des raisons évidentes de facilité de construction et de rapidité d’utilisation après construction, il vaut mieux utiliser des panneaux isolants dont la surface supérieure est un platelage en multiplex bakélisé ou une plaque métallique antidérapante.

Les constructeurs de ces panneaux en donnent les valeurs des résistances à la compression et au poinçonnement sous charge ponctuelle.

Si ces valeurs sont dépassées par les charges que l’on veut mettre en ouvre dans la chambre en projet, il faut alors passer à la réalisation d’une dalle flottante sur l’isolation thermique.

Dans ce type de conception, il y a 3 points à respecter :

  1. Il faut que l’isolant qui supporte le sol, soit suffisamment résistant pour porter le poids de la dalle augmenté des charges d’entreposage et de manutention.
  2. Il faut que la compressibilité de l’isolant sous cette charge soit inférieure à une certaine valeur. Le C.S.T.C. (dans sa revue trimestrielle n°1/2, 1988, pg. 50) propose (dL – dB) inférieur ou égal à 3 mm, avec :
    • dL : épaisseur de livraison sous charge de 25 kg/m²,
    • dB : épaisseur sous charge de 200 kg/m² après une sollicitation temporaire d’environ 2 minutes sous 5 000 kg/m². Bien entendu, ces dispositions sont valables pour des charges réparties de l’ordre de 300kg/m². Elles sont donc à adapter aux vraies charges de la chambre projetée. Mais elles ne devraient de toute façon pas être diminuées.

    Il est évident que la compressibilité de l’isolant dépend de sa masse volumique. Le C.S.T.C. préconise dans le cas du polyuréthane (PUR), une masse volumique minimale de 30 kg/m³.
    Remarquons que la masse volumique influence la valeur lambda de l’isolant : masse volumique plus élevée => lambda plus élevé, donc moindre qualité isolante.

    Sans les précautions ci-dessus, l’affaissement de l’isolation sous la charge de la dalle de sol, se traduirait par des problèmes périphériques de joints avec les parois verticales, et aussi par des différences de niveau aux endroits de passage vers l’extérieur.

  1. La dalle de sol doit être armée, l’armature calculée selon les charges.Le béton doit être le plus sec possible au moment de sa mise en œuvre, pour éviter l’éclatement du béton en cas de mise en régime trop rapide. L’idéal est d’attendre 3 semaines avant d’entamer le refroidissement.
Exemple de plancher isolé d’une chambre froide négative.


Le décaissé dans la dalle

Le décaissé est délicat à réaliser. Il demande une bonne préparation au niveau de la conception et une bonne coordination de l’exécution, si plusieurs entreprises successives doivent intervenir.

On prendra grand soin à réaliser l’obturation des joints à l’extérieur, au pied des parois, pour éviter que de l’eau n’aille se faire piéger dans la fosse, sous l’isolant.

C’est notamment pour cette raison que cette fosse doit être raccordée à l’égout.


L’étanchéité des parois

Pourquoi la chambre doit-elle être étanche à l’air et à la diffusion de vapeur ?

L’étanchéité à l’air et à la diffusion de vapeur va permettre de limiter :

  • Les apports thermiques.
  • Les entrées d’air humide et de vapeur. Ces entrées sont provoquées par la différence de pression (on ne peut pas facilement rouvrir la porte d’un congélateur ménager qu’on vient de fermer) et de température entre l’extérieur et l’intérieur.
    L’humidité va se condenser dans les chambres froides positives, ou va se congeler dans les chambres froides négatives.
    Dans les deux cas, cela entraîne des ennuis à plus ou moins court terme :

    1. Mouillage de l’isolation thermique qui perd ses qualités isolantes.
    2. Apparition de glace en expansion avec danger de déformation des panneaux, pour les chambres froides négatives.

Cela entraîne la dégradation des propriétés de la chambre à terme et donc un vieillissement accéléré.

Comment rendre la chambre étanche

  • La réalisation des joints doit être soignée.

 

  • Un pare-vapeur qui doit être placé du côté où la pression de vapeur est la plus élevée, c’est-à-dire ordinairement du côté le plus chaud. En principe, c’est la feuille métallique du panneau isolant préfabriqué, qui joue le rôle de pare-vapeur.
    Mais ce pare-vapeur doit être placé d’une manière continue et sans percements. Quelques trous dans le pare-vapeur réduisent son efficacité d’une manière dramatique.

 

  • Tout percement des parois dans les chambres doit être rebouché soigneusement par une matière imperméable à la vapeur (mousse à cellules fermées).

 

  • Les portes doivent posséder des joints souples qui doivent obturer très correctement les espaces entre la porte et son encadrement dormant. Un défaut de ces joints, ou une déformation de la porte, entraîne, surtout dans le cas des chambres négatives, l’apparition de glace sur les bords du cadre dormant. Cette glace empêche les joints de bien jouer leur rôle et, en plus, elle peut arriver à provoquer la déformation de la porte qu’on force en fermant. C’est le cercle vicieux.

Mesures supplémentaires à prendre avec une bonne étanchéité

La bonne étanchéité des chambres et des portes, entraîne des conséquences importantes :

  • Les entrées d’air ne se font plus que par les ouvertures de portes et il peut être nécessaire de contrôler la qualité de l’air pour les travailleurs qui sont enfermés dans les chambres (certaines denrées « respirantes »,de même que les travailleurs dégagent du CO2). Il faudrait donc, dans ce cas, assurer le renouvellement de l’air par un système de ventilation mécanique contrôlée.

 

  • Pour les grandes chambres froides négatives, la dépression causée par le refroidissement rapide de l’air introduit par une ouverture de porte, provoque une poussée de l’air extérieur sur toutes les parois de la chambre; ce qui peut créer des déformations dans les panneaux verticaux et le plafond voire leur effondrement, surtout pour des plafonds dont les panneaux ont des portées très grandes sans être efficacement supportés par une structure.
    C’est pourquoi il faut prévoir des soupapes de décompression qui permettent des passages d’air pour équilibrer les pressions à tout moment. Cela permet d’ouvrir les portes sans problème (voir l’exemple de la porte du congélateur ménager ci-dessus).
    Bien entendu, si de l’air extérieur chaud et humide passe à travers les soupapes vers l’intérieur de la chambre, on devra éviter le gel des soupapes (froides), en les chauffant par une résistance électrique. Il faut donc prévoir une arrivée de courant pour brancher ces soupapes.
    Mais il peut aussi se produire des surpressions dans les chambres froides négatives.
    Là encore, les soupapes de décompression vont jouer leur rôle en laissant sortir l’air intérieur pour éviter de mettre la chambre en surpression par rapport à l’extérieur, ce qui occasionnerait des déformations des parois vers l’extérieur.
    Il est essentiel que les clapets de ces soupapes soient toujours bien libres pour tout mouvement de l’air, soit vers l’extérieur, soit vers l’intérieur.

La porte et « ses accessoires »

La porte de par ces ouvertures apporte des quantités importantes de chaleur et constitue donc un poste important dans le bilan thermique d’une chambre.

De même, elle est à l’origine de quantités considérables de vapeur d’eau.

Dans les chambres positives, une partie de cette vapeur, entraînée par l’air chaud qui monte, se condense en eau sur les parties froides intérieures des parois au-dessus des portes, ce qui peut créer des égouttements gênants.

Dans les chambres froides négatives, une partie de cette vapeur d’eau se fait piéger sous forme de givre au-dessus des portes. Au départ, ce givre a une masse volumique assez faible (+ 200 kg/m³) et prend beaucoup de volume en s’accumulant à chaque ouverture. Au cours du temps, ce givre va se densifier en glace et prendre de plus en plus de poids, ce qui conduit à des masses importantes, collées à la structure au-dessus des portes. A la longue, cela peut entraîner des déformations, si la structure n’est pas assez forte pour supporter ces masses de glace.

Il faut donc régulièrement aller briser la glace si la chambre travaille en continu. Si la chambre froide est arrêtée de temps en temps pour nettoyage, la fonte de cette accumulation de glace, produira beaucoup d’eau et prendra du temps.

Ainsi, les temps d’ouverture doivent être réduits autant que possible. Quand on travaille à l’intérieur de la chambre ou quand on y fait des allées et venues, il est recommandé de refermer la porte contre son ébrasement, même sans l’encliqueter.

Des accessoires peuvent aider à limiter les effets négatifs des ouvertures de portes :

  • Un système de fermeture automatique.

 

  • Des lamelles plastiques d’obturation des baies.

 

  • Des portes vitrées isolées permettent de trouver les aliments avant d’entrer et de ne pas perdre de temps à chercher dans la chambre froide, portes ouvertes. Ce qui représente une économie d’énergie mais également une amélioration du confort pour les travailleurs.
    Les vitrages doivent être en plexy pour éviter les bris de vitre.Le coefficient d’isolation thermique est inférieur à celui du reste de la porte mais il doit être suffisant pour éviter l’apparition de condensation.
    En ce qui concerne les surconsommations énergétiques, les surfaces de ces vitrages sont souvent petites et sont donc négligeables dans l’ensemble.

 

  • Il existe des alarmes qui sonnent tant que la porte est ouverte, ce qui pousse la personne à sortir au plus vite (bien que le froid devrait suffire…!!)

Dans le même ordre d’idée, une chambre froide positive peut avantageusement servir d’espace tampon entre la chambre froide négative et l’extérieur.


La capacité thermique de la chambre

Associée à l’isolation thermique, la capacité thermique de la chambre froide détermine sa constante de temps.

La constante de temps de la chambre frigorifique permet d’estimer, en première approximation, la façon dont elle va se comporter en régime transitoire (c’est-à-dire entre deux paliers de température).

Une constante de temps courte indique que l’on aura des variations rapides de température, et une constante de temps longue, indique l’inverse.

Le choix entre une constante de temps longue (ou une inertie thermique importante pour une isolation déjà choisie) et une constante de temps courte (ou une inertie thermique faible pour une isolation thermique déjà choisie) se fait en fonction de :

  • la volonté de maintenir les marchandises à bonne température
  • la fréquence des mises en régime de la chambre froide

La volonté de maintenir les marchandises à bonne température

Les responsables des cuisines collectives vivent avec l’inquiétude de pannes des installations frigorifiques qui peuvent avoir des conséquences importantes sur l’utilisation des denrées stockées, dans le souci de respecter l’arrêté royal du 13 juillet 2014 relatif à l’hygiène des denrées alimentaires.

Bien que les contrats de maintenance puissent prévoir des délais d’intervention très courts, il n’empêche qu’en cas de panne de l’installation, le maintien des aliments stockés le plus longtemps possible, aussi près que possible de la température de stockage, doit être un critère supplémentaire pour le choix de l’inertie thermique de la chambre (et de l’épaisseur d’isolant).

Le stockage d’énergie frigorifique dans une chape de sol refroidie peut ralentir la montée en température de la chambre parce que sa constante de temps est très longue (24 heures et plus) et que sa capacité thermique est importante. De plus, vu que le coefficient de conductivité thermique d’une chape est élevé, la prise d’énergie frigorifique dans la chape n’en sera que meilleure, ce qui tendra à stabiliser la température. Ceci plaide en faveur de la présence d’une chape placée par-dessus l’isolation des chambres froides, même pour les chambres froides positives.

Evidemment, la présence d’une quantité importante de denrées stockées refroidies jouera le même rôle, mais au détriment de leur qualité, car c’est leur surface extérieure qui va d’abord se réchauffer. Et surtout s’ils sont les seuls à jouer le rôle de capacité thermique.

La fréquence des mises en régime de la chambre froide

Avec une chambre à grande inertie thermique dans la chape, il faut éviter de les laisser remonter trop souvent à la température ambiante extérieure. Sinon, une partie importante de la puissance de l’évaporateur va être « détournée » pendant un temps très long par la chaleur qui s’évacue de la dalle de sol, au détriment de la chaleur à évacuer des denrées, si ce travail est à faire en même temps.

Choisir un chauffage électrique : généralités

Choisir un chauffage électrique : généralités


Choix du principe de fonctionnement

Un chauffage électrique pour quel usage ?

A priori, suite à son bilan écologique défavorable, l’électricité ne devrait pas être utilisée pour le chauffage des locaux. Dans le meilleur des cas, une centrale électrique TGV (turbine-gaz-vapeur) produit de l’électricité avec un rendement de 55 %. Alors que les rendements de production des chaudières au gaz sont de 92 %, voir nettement plus s’il s’agit d’une chaudière à condensation.

Et le coût du kWh électrique de jour (pointe de puissance comprise), est environ le double de celui du kWh thermique gaz ou fuel, ce qui est également dissuasif.

Seule l’utilisation d’une pompe à chaleur peut dans certains cas valoriser utilement l’énergie électrique et rattraper le mauvais rendement des centrales.

Toutefois, la force de l’énergie électrique est de pouvoir fournir un complément ponctuel, sans pertes.

Par exemple :

  • Chauffer à l’électricité un local de garde durant la nuit, afin de pouvoir stopper l’installation de chauffage principale.
  • Équiper un local d’accueil de vitres chauffantes, afin de donner aux personnes une chaleur par rayonnement, et d’éviter de chauffer l’entièreté du hall.
  • Donner un appoint ponctuel rapide dans un lieu à occupation temporaire, pour augmenter la température de confort (salles de bains d’un lieu d’hébergement, par exemple).

Incompatibilités

Le chauffage électrique ne convient pas aux locaux présentant une atmosphère explosive ou inflammable. Ceux-ci doivent être équipés d’un appareillage spécial.

Les systèmes à accumulation dynamique, qui font circuler l’air du local sur le noyau porté à haute température, ne conviennent pas aux applications où l’air ambiant contient régulièrement des solvants comme les salons de coiffure, cordonneries, garages, laboratoires, et bureaux en communication avec de tels locaux. En effet ces solvants se décomposent à haute température, ce qui peut provoquer, en fonction de leur nature, des émissions d’odeur, des cendres, ou une corrosion extrêmement rapide des composants métalliques.

Un phénomène analogue, mais sans conséquence, se produit lorsque des travaux de peinture, encollage de revêtement de sol, cirage de meubles sont effectués dans un local chauffé par accumulateurs dynamiques. La décomposition des solvants provoque l’émission d’une odeur « de mazout ». Ce phénomène transitoire s’élimine aisément par une aération du local (couper le thermostat).

Direct ou accumulation ?

Dans le cas du chauffage direct, la production et l’émission de chaleur se font à l’endroit même et au moment même de la demande.

Les appareils les plus répandus sont les convecteurs, et en moindre mesure, on rencontre aussi les panneaux radiants. Les systèmes de chauffage par plafonds et sols sont également des techniques courantes.

convecteurs   panneaux radiants

chauffage par plafonds et sols

chauffage par plafonds et sols

Schéma chauffage par plafonds
  1. Recouvrement du plafond.
  2. Élément chauffant.
  3. Élément constitutif du plafond.
  4. Isolation thermique.
  5. Voliges.

Le chauffage direct présente plusieurs avantages :

  • un rendement élevé (absence de pertes de distribution),
  • une grande précision du réglage de température,
  • un faible investissement.

Mais son coût est très élevé puisque la consommation est essentiellement facturée au prix de jour du kWh et pour une faible part seulement au prix de nuit. De plus, l’appareil risque fort d’être enclenché au moment de la pointe de puissance du bâtiment (pointe quart-horaire). Or chaque kiloWatt enclenché à ce moment va générer un supplément de 10 Euros environ à la facture mensuelle. C’est le problème des chaufferettes installées dans les locaux où il y a insuffisance de chaleur.

C’est typiquement un usage d’appoint qui doit lui être réservé, dans des locaux à usage intermittent.

Le chauffage à accumulation, lui, repose sur le fait que le producteur/distributeur, disposant de périodes où la demande est moindre, peut offrir un prix de kWh nettement plus avantageux. Le courant prélevé dans les heures creuses est utilisé pour produire de la chaleur qui sera momentanément stockée dans un accumulateur. La chaleur accumulée est ensuite restituée au moment de la demande de chaleur. Pour le chauffage des bâtiments, on rencontre essentiellement les radiateurs à accumulation et le chauffage à accumulation par le sol .

Photo radiateurs à accumulation.

Photo chauffage à accumulation par le sol.

Si le prix est plus avantageux, le chauffage à accumulation présente des inconvénients :

  • de par son inertie, la régulation (et donc le rendement) se dégrade fortement,
  • l’investissement est nettement plus élevé que le chauffage direct.

Évaluer

Pour évaluer l’efficacité énergétique d’un chauffage électrique à accumulation : cliquez ici !

C’est un système qu’il ne faut pas installer si le bâtiment présente une occupation variable et des apports solaires importants (grandes baies vitrées).

Il faut vérifier si le poids des accumulateurs de grosse puissance est compatible avec la charge au sol admissible. La pression sous les pieds de certains accumulateurs peut, en effet, s’avérer incompatible avec la tenue d’un plancher.


Choix d’un appareil direct

Le critère de choix essentiel est de déterminer le mode de transmission de la chaleur.
On peut avoir :

  • un émetteur fortement convectif (c’est l’air qui est chauffé et qui communique sa chaleur à l’ambiance),
  • fortement radiatif (c’est une onde qui chauffe tous les matériaux autour le lui),
  • ou mixte (la carcasse émet une onde mais un effet convectif est donné par effet cheminée ou par un ventilateur).

Photo radiateur électrique

Schéma principe radiateur électrique

Émetteur radiatif et convectif .

D’une manière générale, si le local à équiper est bien isolé, ce choix sera de peu d’importance. Par contre, si les déperditions sont élevées, il faut bien étudier la question car la puissance à apporter étant élevée, soit le débit d’air chaud sera élevé, soit la température de rayonnement sera forte. Deux situations inconfortables.

A priori, c’est le chauffage par rayonnement (à la plus basse température possible) qui sera le plus confortable.

Par contre, l’air chauffé est ressenti comme sec et porteur d’une odeur, surtout au démarrage de l’appareil (brûlure des poussières).

Il est surtout à éviter si le local est de grande hauteur : une stratification des températures aura lieu, l’air chaud restant coincé au plafond.

Le chauffage par rayonnement de plafond est par contre à éviter car pour son confort thermique, l’homme aime d’avoir « chaud aux pieds et frais à la tête ». Tout le contraire, donc… Une puissance maximale de 100 W/m² sera installée, avec une température de surface de 30 à 35°C. C’est faible et cela limite donc l’application à un local récent et isolé. Il ne se justifie que dans un atelier industriel où, le chauffage de l’air étant impossible, un chauffage par rayonnement à haute température peut se faire.

        

Un chauffage par l’air entraîne de fortes déperditions par les toitures.

Un chauffage par rayonnement permet un apport localisé.


Choix d’un appareil à accumulation

  

Qui peut prédire le temps qu’il fera demain ? Dans nos contrées, il faut avouer qu’il n’est pas évident de savoir s’il fera ensoleillé ou non le lendemain…

Or, dans un bâtiment d’aujourd’hui, bien isolé, le chauffage n’est plus nécessaire lorsque le soleil est présent. Il doit s’arrêter.

Que faire alors de la chaleur accumulée durant la nuit ? Elle s’écoulera malgré tout en bonne partie provoquant de la surchauffe et des pertes énergétiques.

Accumulation dans le sol

L’accumulation dans le sol est un système de chauffage statique. Il en porte donc tous les défauts (impossibilité de gérer la décharge en fonction des besoins réels de la pièce).

En reprenant ici l’analyse générale du choix de l’émetteur de chauffage, il ne convient absolument pas pour une école dont le temps d’inoccupation et les apports de chaleur gratuits (élèves, ensoleillement) sont importants. Pas plus pour un restaurant. Il ne convient pas non plus pour tout local fortement ensoleillé.

Exemple

Vu l’inertie de ce système (temps de réponse de plusieurs heures), et pour profiter du courant de nuit, il sera nécessaire d’enclencher le chauffage dès 2 heures du matin. Cette heure n’aura pu être sélectionnée que sur base de la température de nuit, en supposant que « plus il fait froid la nuit, plus les besoins de chauffage le jour seront importants ».

A 7 heures, le sol est chargé.

Si le soleil apparaît à 9 heures, il sera impossible de stopper la fourniture de chaleur. Les apports solaires entraîneront de la surchauffe dans les locaux. En architecture solaire passive, le sol constitue le premier lieu de stockage de l’énergie solaire. Toute l’énergie solaire accumulée en journée étant restituée en soirée. Avec un chauffage par le sol, le réservoir déborde déjà avant l’arrivée du soleil.

Par opposition, dans un système de chauffage par radiateurs, la vanne thermostatique fermera l’alimentation en eau chaude des radiateurs.

Par contre, il convient dans les locaux de grande hauteur (atrium, local avec mezzanine, …) pour lesquels la stratification des températures devient importante dans le cas d’un chauffage par convection. Par exemple pour assurer une température minimum de base, laissant à des convecteurs directs le rôle de l’appoint. Mais si la surface de chauffe est importante, va-t-on choisir un système dont le coût d’exploitation est si élevé ?

Quelques critères de qualité :

  • Les écarts de température à la surface du sol, même lors de l’emploi d’un recouvrement céramique, doivent rester en dessous de la valeur normalisée de 1,5 K.
  • La température de contact au sol devrait être limitée à 26,5°C. Le sol est ainsi en mesure de dissiper 70 W au m², ce qui est peu.
  • Si la puissance requise n’est pas disponible par le sol, le complément sera obtenu par un chauffage additionnel (convecteurs ou chauffage d’appoint dans le sol le long des murs). Le cas échéant, lors de l’emploi de chauffage additionnel dans le sol, limité aux zones périphériques de la pièce, la température de contact au sol pourra atteindre 34°C, permettant ainsi de dissiper une puissance de 150 W au m².
  • Une isolation correctement dimensionnée sera prévue sous la dalle. La CEG (Communauté de l’Electricité) recommande un minimum de 4 cm si le local inférieur est chauffé à la même température, 6 cm si le local du dessous n’est pas chauffé, 8 cm si c’est de l’air libre ou le sol. Dans le cas de l’air libre (vide ventilé, par exemple), il nous semble qu’un minimum de 12 cm serait préférable.

Calculs

Pour estimer la perte d’un chauffage par le sol situé au dessus dune cave, en fonction du degré d’isolation : cliquez ici !

Chauffage par accumulateurs

Les différents types d’accumulateurs se distinguent essentiellement par le mode de restitution de la chaleur,

  • depuis l’accumulateur statique, très peu isolé, qui va se refroidir naturellement tout au long de la journée,
  • jusqu’à l’accumulateur dynamique qui va tenter de retenir, grâce à son isolation, la chaleur accumulée. Lorsque la sonde d’ambiance est inférieure à la consigne et que la programmation le permet, il enclenche un petit ventilateur interne pour évacuer par convection la chaleur du noyau.

Sans hésiter, le choix du deuxième type d’accumulateur doit être fait. Idéalement, l’accumulateur ne devrait « s’user que si l’on sen sert » : il ne devrait perdre de la chaleur que lorsqu’il y a une demande.

La réalité, même avec l’accumulateur dynamique, est malheureusement toute autre. Dans nos simulations informatiques, nous avons constaté que lorsque la demande a été nulle en journée (soleil, réunion de travail, …), à 22h00 l’accumulateur dynamique a perdu près de 50 % de son énergie (par décharge statique au travers l’enveloppe isolante) ! Le rendement moyen saisonnier peut descendre jusqu’à 70 % si la charge n’est pas bien gérée et que des apports gratuits (internes et externes) sont présents dans le local.

D’ailleurs, il suffit de mettre sa main sur la paroi pour constater qu’il s’agit d’un véritable radiateur (le noyau peut être chauffé jusqu’à 800°C).

Lors de la sélection, il est très important de privilégier l’épaisseur de l’isolant, … et tant pis pour l’encombrement !

L’emplacement des appareils sera choisi de manière à assurer un rayonnement calorifique et un brassage d’air optimal dans le local, de préférence sous une fenêtre pour en compenser le rayonnement froid. Deux ou plusieurs appareils seront préférés à un seul plus puissant en raison de la meilleure répartition de chaleur qu’ils assurent.

Choix de la régulation

La régulation est le cerveau de l’appareil et donc la source des gaspillages éventuels. On ne saurait trop recommander une régulation automatique de la charge en fonction de la température extérieure.

Et pourtant, on rencontre couramment des accumulateurs avec réglage manuel à 3 positions. Par simplification, ils sont souvent réglés sur la position la plus élevée, afin de prévenir toute période froide éventuelle du lendemain. En pratique, ils entraînent une décharge statique plus élevée que nécessaire et donc une perte de rendement.

Un dispositif automatique de régulation de charge est de toute façon obligatoire dans les cas suivants :

  • en tarif exclusif nuit lorsque la puissance totale installée en accumulation est supérieure ou égale à 12 kW;
  • dans tous les cas d’application d’accumulation en tarif trihoraire ou hors-pointes, indépendamment de la puissance installée;
  • l’accumulation par le sol.

D’expérience, les installateurs règlent les appareils de telle sorte que jamais leur client ne puissent se plaindre d’avoir froid. Autrement dit, ils favorisent une charge élevée. Tout particulièrement si le bâtiment n’est plus occupé en fin de journée, il sera utile de revoir les paramètres de cette régulation de telle sorte que « l’appareil soit froid en fin de journée ». Quitte à jouer de temps à autre avec la résistance directe d’appoint, si une réunion est programmée un soir…

Pour plus de détails sur la régulation des appareils, cliquez ici !

Améliorer

Pour plus de détails sur l’adaptation des paramètres de réglage, cliquez ici !

Choix du tarif

Il nous est très difficile de discuter du meilleur tarif applicable au secteur tertiaire. Et donc d’optimaliser le choix des accumulateurs en fonction du tarif.

En effet, nous avons peu d’expérience d’audit de bâtiments tertiaires chauffés à l’électricité. Et les informations disponibles sont souvent orientées pour le domestique.

La philosophie de base est bien sûr la suivante :

  • Si le stockage a lieu à 100 % la nuit (durée de charge de 9 heures), le tarif (dit « exclusif nuit ») sera le moins cher mais l’investissement dans les appareils aussi. Ceux-ci seront également très encombrants.
  • Si une relance est possible en journée (tarif à Effacement en Heures de Pointe, tarif Trihoraire), le prix sera un peu plus élevé mais l’accumulation sera plus réduite dans les appareils, plus petits, moins coûteux à l’achat.

Il faudra juger au cas par cas, en simulant le fonctionnement le plus probable des appareils. Assurément, il est utile d’en discuter avec un représentant du distributeur avant un investissement dans des accumulateurs.

Consommation 

Pour plus de détails sur la logique des tarifs optionnels à horaires restreints en Basse Tension, cliquez ici !
On y apprendra que ne peuvent en bénéficier que les appareils raccordés de manière permanente sur un circuit séparé, avec un comptage distinct (appareils de chauffage électrique à accumulation).

Il y aura donc un autre compteur, pour les autres équipements, en fonctionnement permanent, avec une tarification de base ou bihoraire.

Le Tarif Exclusif de Nuit est applicable durant 9 heures de nuit (fixées par le distributeur) + toute la journée le dimanche avec une faculté pour le distributeur de couper durant les heures les plus chargées.

Avec le Tarif à Effacement en Heures de Pointe, les appareils raccordés sur ce compteur peuvent consommer toute la journée, mais… l’alimentation des appareils peut être interrompue par le distributeur, sans préavis, par commande à distance. La durée des interruptions journalières est au maximum de 15 heures. Elles se situent normalement au cours des mois de novembre à février. La durée totale des interruptions ne dépassera pas 500 heures par an.

Consommation 

Pour plus de détails sur la logique du tarif exclusif nuit en Haute Tension, cliquez ici !
On y apprendra que le tarif « exclusif nuit » peut être demandé en Haute Tension également. Il est destiné aux applications utilisant, entre autres, le principe de l’accumulation et dont les prélèvements d’énergie, enregistrés séparément, se font exclusivement durant les heures de nuit (soit 9 heures chaque jour, fixées par le distributeur).

À noter que ce tarif exclusif de nuit peut, à la demande du client, être étendu aux samedis, dimanches et jours fériés légaux nationaux.

Consommation 

Pour plus de détails sur les montants des différents tarifs, cliquez ici !

Qualité de la mise en œuvre

Lors de la mise en œuvre d’un système de chauffage électrique, certains points nécessitent une attention toute particulière.
(Source : d’après Le code de bonne pratique pour la réalisation des installations de chauffage électrique – Communauté de l’Electricité – CEG).

  1. Le chauffage électrique met en œuvre des puissances électriques importantes dont les durées d’enclenchement atteignent plusieurs heures. Un soin tout particulier doit donc être apporté au serrage des connexions et à la qualité des composants de commutation vu leur plus grande sollicitation. Il ne faut en effet pas perdre de vue que l’échauffement des contacts est proportionnel au carré de l’intensité.En pratique, on veillera :
    • à dimensionner suffisamment les coffrets électriques de façon à éviter des échauffements internes importants,
    • à installer des borniers correctement dimensionnés et dont le système de serrage reste fiable dans le temps (les barrettes de raccordement de type « éclairage » sont interdites).
  2. Au niveau du tableau de répartition, calculer les puissances par phase afin d’équilibrer au mieux l’installation.
  3. La plupart des appareils de chauffage appartiennent à la classe 1. Les conducteurs de terre doivent donc y être raccordés.
    Respecter scrupuleusement les sections minimales de ce conducteur et sa couleur jaune-vert.
    Respecter le bleu pour tous les conducteurs neutres.
    Conserver les mêmes couleurs pour tous les circuits de même nature (ex. : brun = élément d’appoint, gris = ventilateur, etc.).
  4. Lorsque différents circuits d’alimentation concernent le même appareil (ex. : puissance sur exclusif nuit, ventilateur sur tarif jour, régulation) :
    • Éviter de placer dans une même canalisation des circuits alimentés par des différentiels différents (inductions transitoires possibles entre circuits).
    • Ne pas mélanger les neutres.
    • Éviter la juxtaposition de câbles de sondes à d’autres circuits.
  5. Pour les appareils installés dans des locaux humides prévoir une coupure multipolaire et un différentiel 30 mA. Respecter le degré d’étanchéité IPX1 et l’installation hors volume de protection (voir RGIE).
  6. Préférer un récepteur de télécommande à une horloge de commutation (qui, à terme, présente un risque de dérèglement).
    Faire constater son basculement effectif pendant la période prévue et la commutation des circuits qui en dépendent.
  7. Prévoir suffisamment de jeu dans les câbles de raccordement d’appareils de chauffage fixes pour permettre leur déplacement nécessaire en cas de remplacement éventuel de pièces et d’intervention de maintenance.
  8. Des modifications réalisées dans une installation existante et des renforcements de puissance nécessitent un contrôle par un organisme agréé avec remise en conformité de l’ensemble de l’installation (suivant les modalités définies dans le R.G.I.E).
  9. Avant la mise sous tension de l’installation, procéder aux tests d’isolement des différents circuits.
    Après la mise sous tension, réaliser les tests fonctionnels des composants, vérifier la tension des circuits (principalement tri – et tétraphasés) et contrôler, à la pince ampèremétrique, l’intensité de courant des circuits par les circuits de puissance.
  10. Lors de l’installation d’accumulateurs de grosse puissance, on veillera à la compatibilité de leur poids avec la charge au sol admissible. La pression sous les pieds de certains accumulateurs peut, en effet, s’avérer incompatible avec la tenue d’un plancher. De plus, ces accumulateurs doivent éventuellement être fixés à la paroi selon les indications du constructeur.
  11. Cas particulier du chauffage par le sol :
    • Les câbles doivent être placés dans du béton ou une masse conductrice.
    • La composition du béton à utiliser est également importante pour la dissipation thermique et la capacité d’accumulation de la dalle.
    • Dans tous les cas, il convient d’informer le professionnel en revêtements de sol pour qu’il tienne compte du type de chauffage dans le choix de ses matériaux.
    • Une surveillance lors de la pose de la dalle est indispensable pour s’assurer que les câbles ne soient pas endommagés pendant l’opération (coup de pelle, brouette, pompe à béton, etc…)
    • Des tests d’isolement doivent être réalisés entre l’âme du câble et son blindage et/ou la terre, avant et juste après la pose de la dalle, pour pouvoir intervenir immédiatement en cas de défaut. La tension arrivant sur le câble doit être contrôlée au voltmètre (une erreur de raccordement pourrait amener 400 V sur le câble et entraîner sa destruction rapide).
      La mise à température de la dalle ne peut se faire que progressivement (par pas de 5 degrés par jour) et après le temps de séchage du béton (généralement 21 jours).
  12. Consigner par écrit les réglages initiaux et prévoir la place nécessaire pour les modifications ultérieures et les dates auxquelles elles seront éventuellement effectuées.
  13. Être présent lors de la mise en service par l’installateur et exiger un mode d’emploi clair et précis.

Et dans les bâtiments à basse énergie voire passifs ?

Éthique énergétique

On pourrait penser que le fait de diminuer les besoins de chaleur par 5 voire par 10 dans les bâtiments à basse énergie ou passifs justifierait l’usage de l’électricité comme système de chauffage. Il n’en est rien, au niveau belge en tout cas ! En effet, ce facteur de conversion de l’énergie finale (sur la facture électrique) en énergie primaire est de 2.5. La facture illustre notamment le mauvais rendement des centrales comme déjà décrit plus haut.

En supposant qu’un bâtiment passif soit équipé d’un système de chauffage électrique, le critère des besoins net en énergie de chauffage est de 15 kWh.m-2.an-1. Ce bâtiment équipé :

  • d’une chaudière gaz à condensation pourrait consommer, pour un rendement saisonnier de 102 %, de l’ordre de 14.7 kWh.m-2.an-1 en énergie primaire ;
  • d’un chauffage électrique consommerait 37.5 kWh.m-2.an-1 à la centrale électrique.

Si on considère que les consommations de chauffage sont grosso modo proportionnelles au niveau d’isolation du bâtiment, pour arriver au passif, on peut concevoir que 20 cm d’isolant dans les murs sont nécessaires (c’est un ordre de grandeur, mais cela reste du cas par cas !). Si ce bâtiment est chauffé avec des radiateurs électriques, cela équivaudrait  à concevoir un bâtiment avec 8 cm d’isolant dans les murs et équipé d’une chaudière à condensation.

Chauffage électrique
dans un bâtiment passif.

Chaudière à condensation
dans un bâtiment PEB par exemple.

Chauffage direct ou à accumulation ?

Pour les inconditionnels du chauffage électrique non convaincus par le développement réalisé ci-avant, autant choisir la moins mauvaise des solutions.

Pour des bâtiments à basse énergie et passifs, le choix d’un système de chauffage électrique direct prend toute son importance. En effet, le chauffage électrique direct étant très réactif par rapport au chauffage à accumulation, en mi-saison le chauffage direct permettra d’éviter la surchauffe et les surconsommations liées à cette surchauffe.

Zones à risque de contamination élevé de l’hôpital

Zones à risque de contamination élevé de l'hôpital


Niveau de propreté particulaire et bactérienne de l’air

En fonction de la zone, le traitement d’air doit répondre en tout ou en partie aux objectifs suivants :

  • limiter la concentration dans l’air des particules, des virus et des bactéries,
  • éliminer les gaz dangereux (gaz anesthésique, …) et explosifs,
  • éviter les contaminations entre différentes zones (contaminations croisées).

Le maintien de la qualité de l’air ne se résume donc pas à l’apport d’air neuf hygiénique. Il faut en outre supprimer tout risque d’aérobiocontamination soit au départ de certains locaux du bâtiment (zones septiques), soit venant de l’extérieur.

La pression relative entre les locaux, la filtration, le recyclage de l’air et la désinfection des équipements jouent donc un rôle tout aussi important que l’apport d’air neuf.

L’importance de chacune de ces « missions » varie en fonction du risque de contamination que l’on rencontre dans les différentes zones du bâtiment. On parle de zones à risque classées de 2 à 4 en fonction du risque de aérobiocontamination encouru, tant pour les patients que pour la communauté hospitalière (norme EN ISO 14644 et EN ISO 14698). La norme NF S90-351 s’inspire de ces deux normes européennes pour donner des recommandations en termes de conception, d’exploitation, de maintenance et d’utilisation des installations de traitement d’air pour les établissements de santé.

Évaluer

Afin d’évaluer le risque de contamination de la zone considérée en fonction de l’activité, les taux de renouvellement d’air et les pressions différentielles qui en découlent.

Confort des occupants

Le niveau du confort d’une zone à risque contrôlé passe aussi par l’évaluation du confort des malades, du personnel soignant et des visiteurs. Les consignes de température, du taux d’humidité, de la vitesse de déplacement d’air, fonction du type d’intervention réalisée, sont à respecter et à contrôler en période d’occupation de la zone, surtout en présence d’apports calorifiques importants.

Tout spécialement, un taux minimum d’humidité relative doit être maintenu pour éviter les risques d’explosion des gaz anesthésiants.

Théories

Afin d’évaluer le niveau de confort à atteindre dans les locaux.

« Tout air neuf » ou « recyclage » ?

Comme dans toute autre zone, il est nécessaire d’assurer le confort respiratoire des occupants. De plus, les filtres de la chaine de traitement de l’air ne peuvent pas arrêter les polluants chimiques tels que les gaz anesthésiants. C’est pour cette raison, en plus de l’élimination des polluants dus à la présence humaine, qu’il est nécessaire d’effectuer un apport d’air neuf. Les taux de brassage importants servent en grande partie à atteindre le niveau de propreté souhaité au niveau particulaire et bactérien.

La conception moderne des « zones à risque » a fortement évolué malgré l’imprécision qui règne au niveau des réglementations. C’est aux salles blanches industrielles que l’on doit cette avancée majeure. Ce n’est que suite au développement catastrophique des infections nosocomiales qu’on s’est intéressé de près aux systèmes de ventilation et climatisation dans les hôpitaux et à leur normalisation.

La phobie du recyclage est encore bien présente dans les mentalités mais tend à laisser la place à une intégration certaine de ce principe dans les nouveaux projets de conception; ce qui est favorable du point de vue de l’énergie, de l’environnement et du portefeuille du maître d’ouvrage.

Dans la conception des zones à risque ci-dessous, nous avons pris l’option de ne considérer que le système à recyclage.

À noter également que le système d’humidification n’est pas repris dans les schémas. Un humidificateur à vapeur en sortie de caisson est recommandé pour les qualités hygiéniques de ce système.


Zones à risque contrôlé

1. Introduction

Source d’informations

Les recommandations reprises ci-après sont principalement issues du guide « Traitement de l’air en milieu hospitalier » élaboré par des médecins et des spécialistes du traitement de l’air, à l’initiative d' »UNICLIMA » (Union intersyndicale française des constructeurs de matériel aéraulique, thermique, thermodynamique et frigorifique).

Les configurations de climatisation des salles d’opération montrées ci-dessous sont parfois extrêmes mais montrent le souci de contrôler au maximum le risque de contamination. Dans la pratique, en Belgique, les configurations sur le terrain sont en général plus simples sauf demande expresse du maître d’ouvrage.

2. Zones à risque modéré de biocontamination

(zones à risque 2)

Zones à risque 2 

Zones pour patients à risque infectieux modéré : médecine interne ou spécialisée, rééducation fonctionnelle, maternité, pédiatrie, long et moyen séjour, psychiatrie, consultations externes, hôpitaux de jour à orientation infectieuse.

Objectif d’épuration : classe ISO 8 (moins de 3 500 000 particules > 0,5 μ m par m³ d’air).

L’air est pulsé mécaniquement dans chaque local au moyen de diffuseurs classiques et en partie repris par un recycleur propre au local ou au groupe de locaux concernés. Le dernier étage de filtration est d’efficacité minimum EU10 (95 % DOP ou H11) avec un préfiltre EU7 (85 % OPA ou F7). Une surpression des salles est assurée par un débit d’air neuf introduit plus élevé que celui extrait.

Ventilation des zones à risques 2 :
1/3 de l’air est extrait en partie haute pour éliminer les gaz anesthésiques plus légers que l’air.

3. Zones à haut risque de biocontamination

(zone à risques 3)

Zones à risques 3

Zones pour patients à haut risque infectieux : réanimation, soins intensifs, explorations fonctionnelles vasculaires, néonatalogie, hémodialyse, hématologie, chimiothérapie, chirurgie, blocs opératoires conventionnels (chirurgie digestive propre ou contaminée, chirurgie gynécologique, obstétricale, urologique, ORL).

Objectif d’épuration : classe ISO 7 (moins de 350 000 particules > 0,5 μ m par m³ d’air).

Il est reconnu que la principale source de contamination bactérienne est l’équipe chirurgicale elle-même. C’est donc dans les environs du champ opératoire que l’on retrouve la plus grande concentration de micro-organismes.

Utiliser une ventilation en flux turbulent, c’est-à-dire avec des diffuseurs traditionnels semblables à ceux utilisés dans les zones à risques 2 a pour conséquence de diluer rapidement la charge contaminante au travers de la pièce entière et rend donc le contrôle des risques plus difficile. La solution préconisée pour les zones à risques 2, solution par ailleurs bon marché, est donc à prendre avec précaution dans ce cas.

On lui préférera la solution du plafond soufflant à basse vitesse : l’air neuf est pulsé par un plafond soufflant à déplacement d’air à basse vitesse et couvrant la zone de plus haut risque. Il est repris en partie vers un recycleur spécifique au local ou à un groupe de salles semblables. Ce mode de pulsion entraîne un écoulement dirigé d’une vitesse inférieure à 0,25 m/s. Le mouvement transversal turbulent est très faible, de même que le mélange avec l’air ambiant. L’entraînement par déplacement d’air crée alors une véritable barrière dynamique autour de la zone de « plus haut risque ».

Le dernier étage de filtration est d’efficacité minimum EU13 (99,99 % OP ou H14). Ce filtre est placé le plus près possible du plafond diffusant (éventuellement à l’intérieur de ce dernier) avec un préfiltre EU8 (95 % OPA ou F8).

La plupart des normes internationales recommandent d’assurer une surpression dans les salles d’opération. Celle-ci est obtenue par un débit d’air neuf introduit supérieur à celui extrait. La norme allemande DIN 1946 prévoit, elle, la possibilité d’inverser cette pression relative dans le cas d’opérations septiques. Dans ce cas, l’air extrait doit aussi être filtré par un filtre absolu.

Le maintien des débits et des pressions dans le temps est important dans ce type de local, et ce malgré  l’encrassement des filtres. Ceci peut se faire en équipant le ventilateur dune variation de vitesse du ventilateur.

Un taux d’air neuf de 5 vol/h est souvent considéré comme suffisant pour la dilution des gaz anesthésiques.

Parmi les différents types de plafond soufflant existants, les critères de choix sont

  • la protection du patient,
  • le confort des occupants (vitesse d’air dans la zone occupée et niveau sonore),
  • l’absence de turbulence,
  • la facilité de maintenance,
  • le coût.

Ventilation des zones à risques 3 :
1/3 de l’air est extrait en partie haute pour éliminer les gaz anesthésiques plus légers que l’air.

Plafond soufflant en inox à une vitesse de 0,2 m/s, équipé d’un filtre H13 ou H14 et d’une dalle aveugle étanche pour le passage du scyalitique

   Photo bouche de pulsion à jet.

Lorsque la conception architecturale de la salle d’opération ne permet pas le placement d’un plafond soufflant, on peut disposer les bouches de pulsion à jet dirigé de très faible vitesse sur le mur perpendiculaire à la table d’opération, dans le coin supérieur de la salle.

 4. Zones à très haut risque de biocontamination

(zone à risques 4)

Zones à risques 4

Zones pour patients à très haut risque infectieux : cancérologie, onco-hématologie, greffés, prématurés, brûlés, blocs opératoires aseptiques (orthopédie, cardio-vasculaire, neurochirurgie, ophtalmologie).

Objectif d’épuration : classe ISO 5 (moins de 3 500 particules > 0,5 μ m par m³ d’air).
Le flux laminaire ou flux unidirectionnel est le système actuellement le plus efficace pour fournir de l’air stérile autour d’un malade à protéger ou de la plaie chirurgicale. Il assure en parallèle une liberté de mouvement suffisante au corps médical.

Pour garantir une efficacité optimale, il faut

  • le moins de turbulence possible,
  • une vitesse d’air comprise entre 0,3 et 0,6 m/s pour garantir la stabilité du flux,
  • un espace réduit entre le soufflage et la zone à protéger,
  • tenir compte des perturbations possibles (luminaires, …) et des mouvements de l’équipe chirurgicale.

Le degré de filtration recommandé est semblable à celui des zones à risques 3. Ici aussi, une surpression des salles est assurée par un débit d’air neuf introduit et non extrait.

Étant donné les importants taux de renouvellement d’air recommandés (200 à 600 vol/h), il est évidemment recommandé de circonscrire le plus exactement possible la zone à protéger, le reste de la salle ne subissant pas de traitement particulier.

On peut ainsi concevoir des flux verticaux ou horizontaux, totaux ou partiels. Dans tous les cas, une partie de l’air devra être extraite pour éliminer les gaz dangereux (gaz anesthésiques).

Salles d’opération à flux laminaire horizontal

 

Flux total : tout le local est balayé par le flux d’air repris sur la paroi opposée.
Remarque : sur le schéma, le chirurgien est mal situé par rapport au flux d’air qu’il risque de contaminer…

Flux partiel :
les filets d’air sont guidés par des parois verticales parallèles et la reprise se fait du côté du panneau filtrant.

L’avantage d’un tel système est la possibilité pour l’équipe chirurgicale de ne pas porter de heaume.

L’inconvénient réside dans la disposition obligatoire du personnel et des équipements en aval de la plaie par rapport au sens du flux.

Salles d’opération à flux laminaire vertical

Photo salle d'opération à flux laminaire vertical.

Le flux laminaire total avec plancher entièrement perforé n’est pas utilisable dans les hôpitaux à cause des exigences de désinfection. On utilise donc un flux partiel couvrant la zone de plus haut risque. La zone couverte est de l’ordre de 3 m sur 3 m. Cette dimension permet aux parois verticales (descendant jusqu’à 1,6 m du sol, avec éventuellement rideaux souples en PVC) guidant le flux de ne pas gêner l’équipe chirurgicale. La reprise se fait en périphérie du flux laminaire.

Flux vertical alimenté par une centrale de traitement d’air.

Flux vertical autonome avec ventilateurs incorporés.

Les avantages d’un tel système sont d’une part la liberté de mouvement de l’équipe chirurgicale et les débits d’air à traiter moindre que dans le cas d’un flux horizontal (zone à traiter moindre).

L’inconvénient est le port du heaume conseillé pour garantir la qualité de l’air.

Chambres stériles

Photo chambres stériles.

Les chambres stériles peuvent être ventilées soit par un flux laminaire horizontal, soit vertical, suivant les typologies recommandées pour les salles d’opération. La zone à protéger sera restreinte au lit du patient, éventuellement à la zone destinée à recevoir le personnel soignant.

5. Zones à risque pour la collectivité hospitalière

Zones à risques

Zones où il faut protéger la collectivité hospitalière des risques infectieux : chirurgie septique (urologie voie basse, gynécologie, endoscopie), chirurgie très septique (proctologie, abcès, préparation opératoire, zone d’urgence, soins intensifs avec malades infectieux, traitement du matériel côté sale, laboratoire de manipulation de prélèvements biologiques ou germes).

Objectif : Protection de l’environnement hospitalier par confinement, maîtrise des flux d’air et filtration.

Les prescriptions relatives aux zones à risques pour le patient doivent être complétées en tenant compte des risques pour la collectivité hospitalière. En fonction du degré de risque pour celle-ci, la protection doit comprendre

  • Un confinement, c’est-à-dire un isolement du patient et de l’équipe de soins de l’environnement extérieur par des cloisons et des portes fermées, et l’isolation du patient de l’équipe de soins par des cloisons (cabines stériles) et des vêtements spéciaux (scaphandres).
  • Une mise en dépression de la zone contaminée complétant le confinement. Selon les risques, un sas en surpression est souvent nécessaire. Dans le cas de très haut risque, le ventilateur d’extraction doit être doublé pour prévenir tout risque de panne et donc d’arrêt de l’installation. Dans tous les cas, le fonctionnement du ventilateur d’extraction doit être asservi au fonctionnement du ventilateur de pulsion.
  • Une maîtrise des flux d’air évitant les zones inertes et entraînant le plus rapidement les particules contaminées vers le réseau d’extraction. La disposition des locaux est en ce sens importante.
  • Un réseau d’extraction complètement indépendant de ceux des autres locaux.
  • Une filtration de l’air extrait au moyen d’un filtre absolu. Ce filtre doit être doublé en cas de très haut risque pour prévenir toute défaillance d’un des filtres.

Principe aéraulique du traitement d’air dans une zone à très haut risque pour le patient (flux laminaire vertical) et pour la collectivité hospitalière (sas, double filtration, double ventilateur).

Lorsque le risque de contamination pour la collectivité hospitalière est modéré, il n’est pas nécessaire de maintenir les locaux d’hébergement ou de traitement en dépression. Il s’agit d’une simple mise en quarantaine. Il faut simplement, dans ce cas, rester vigilant quant à la circulation des personnes, du matériel et à la séparation des zones. Le réseau de ventilation recyclage et extraction doit cependant être indépendant pour la zone où on identifie ce risque.


Récupération de chaleur sur l’air extrait

On l’a vu ci-dessus, la plus grosse récupération de chaleur se fait par un taux de recyclage important pouvant dépasser 70 % de flux total d’air pulsé. Les conditions pour pouvoir effectuer ce recyclage sont que l’air recyclé provienne de la même salle que celle dans laquelle il est injecté et que l’air recyclé soit filtré avec la même efficacité que l’air neuf.

On considère souvent que la récupération de chaleur sur l’air extrait n’est financièrement intéressante que lorsque l’on travaille en « tout air neuf », ce qui n’est jamais le cas dans les solutions techniques présentées ci-dessus. On peut cependant envisager une récupération de chaleur sur l’air extrait lorsque les débits d’air neuf sont importants (jusqu’à 15 vol/h).

Concevoir

Choix d’un récupérateur de chaleur.

Il est déconseillé d’utiliser des échangeurs à plaques. En effet, ils sont difficiles à désinfecter, l’agent désinfectant pénétrant mal entre les interstices de faible dimension. L’aluminium est en outre fragile vis-à-vis de ces produits, ce qui risque de provoquer des fuites, donc des contaminations qui ne seront jamais détectées. Si de tels échangeurs sont utilisés, il faut respecter une hiérarchie correcte des pressions entre le conduit d’air neuf et le conduit d’air extrait. Cette pression relative doit être contrôlée régulièrement (un pressostat d’alarme peut signaler toute modification), de même que la concentration de contaminant dans l’air neuf.

Les échangeurs avec fluide calorifique intermédiaire (eau glycolée) ont des rendements de récupération moindre par rapport aux autres systèmes. Cependant, puisqu’il n’y a pas de contact direct entre l’air vicié et l’air neuf, les risques de contamination croisée sont éliminés.

Les échangeurs du récupérateur doivent être disposés au niveau de la pulsion entre les deux premiers étages de filtration, pour qu’ils soient protégés de l’encrassement et pour ne contaminent pas l’air distribué. Les échangeurs sur l’air extrait peuvent aussi être protégés par un filtre pour éviter un encrassement trop rapide.


Autres prescriptions de la norme DIN 1946 pour les salles d’opération

Voici d’autres recommandations, notamment issues de la norme DIN 1946

  • Les unités de traitement d’air devraient être composés de panneaux en acier galvanisé double paroi et avec des composants facilement démontables pour être stérilisés.
  • Les batteries froides devraient être en acier inoxydable avec des ailettes en aluminium, protégées par une peinture epoxy.
  • Les unités de traitement d’air devraient être capables de fonctionner à débit réduit lorsque les salles sont inoccupées, assurant en permanence une pressurisation suffisante. En mode veille, seule la pression de la salle est surveillée. On travaille alors en tout air neuf, sans contrôle de température ni d’humidité. Elles doivent pour cela être équipées de moteurs à vitesse variable.
  • Les unités de traitement d’air devraient pouvoir assurer une surpression et une dépression dans les salles d’opération en fonction du type d’intervention (aseptique ou septique) et pouvoir facilement passer dune situation à une autre. Ceci est possible en utilisant des ventilateurs à vitesse variable.
  • Les systèmes centralisés et décentralisés (unités montées et réglées en usine) peuvent être utilisés pour traiter l’air des salles d’opération. Cette seconde solution permet une meilleure flexibilité de chaque salle (fonction du type d’intervention et des exigences de chaque chirurgien) et une meilleure fiabilité. Le système de contrôle et la programmation de ces systèmes est réalisé en usine, ce qui limite les risques liés à l’installation et au réglage.

Armoire de climatisation de haute précision.

Image par défaut pour la partie Concevoir

Zones intérieures (local aveugle, salle de réunion)

Zones intérieures (local aveugle, salle de réunion)


Principe

Les particularités des locaux intérieurs sont

  • de ne pas avoir de parois en contact avec l’extérieur et donc pas de déperditions en hiver, pas plus que d’apports solaires en été,
  • d’être en permanence en demande de refroidissement puisque les occupants et les équipements internes (dont l’éclairage) génèrent une chaleur qui ne peut s’échapper naturellement : sans intervention, la température ne ferait qu’augmenter …
  • d’être, dans le cas d’un local de réunion, en demande d’un traitement thermique uniquement lorsqu’il y a présence des occupants (90 % de la demande est créée par les occupants et l’éclairage).

La solution traditionnelle, souvent appliquée lorsqu’il s’agit d’un local isolé, consiste à placer un climatiseur dans le local. Mais cette solution ne peut être généralisée pour un ensemble de locaux « aveugles » puisqu’il n’y a pas un accès facile vers l’extérieur pour l’évacuation de la charge thermique (difficile de placer les condenseurs en façade).

Une solution plus centralisée est nécessaire.

On pense alors au placement de ventilo-convecteurs sur une boucle d’eau glacée, avec production de froid et condenseur en toiture. Mais deux aberrations énergétiques sont présentes :

  1. Durant tout l’hiver, on va refroidir artificiellement le cœur du bâtiment, sans profiter de l’air froid extérieur.
  2. On va évacuer la chaleur à l’extérieur alors que les locaux en façade ont besoin de chauffage …

Deux solutions apparaissent alors

  1. La solution « tout air » qui se fonde principalement sur l’idée que l’air extérieur froid peut répondre aux besoins de refroidissement une grande majorité du temps.
  2. La solution « fluide réfrigérant variable » qui se base sur l’idée que la chaleur extraite des locaux centraux peut être récupérée dans les locaux périphériques.

La solution « tout air »

Partons de plusieurs constats pour élaborer une réponse adaptée :

Un réseau d’air hygiénique est nécessaire pour apporter de l’air neuf aux occupants :

Un apport de 30 m³/h par personne est requis. Si une personne occupe 10 m², elle vit dans 30 m³ d’air (hauteur sous plafond de 3 m). Lui apporter de l’air hygiénique entraîne donc un renouvellement d’air du local de 1 volume par heure. Autrement dit, si les locaux font X m³, le débit d’air neuf nécessaire sera de X m³/h.

La solution la plus simple consisterait à placer un réseau d’extraction mécanique dans les locaux, laissant l’air entrer naturellement sous les portes (ou par des grilles dans les portes), via les couloirs. C’est économique à l’investissement, mais peu efficace en pratique, car le débit réel sera fonction de l’étanchéité globale du bâtiment…

Un réseau d’air pulsé paraît impératif pour atteindre une bonne qualité d’air intérieur.

Refroidir les locaux par de l’air froid suppose un débit d’air nettement plus élevé que celui de l’air hygiénique.

En effet, l’air ne peut être soufflé avec un écart de température par rapport à l’ambiance supérieur à 10°C (si l’ambiance est de 24°C, la pulsion sera de 14°C minimum).

Dans ces conditions chaque m³ d’air apporte 3,4 W de refroidissement. Or une personne et son éclairage génèrent 20 W/m² de chaleur, soit 6,7 W/m³ (si hauteur sous plafond de 3 m). Il faudra donc :

6,7 [W/m³local] / 3,4 [W/m³air] = 2 [m³air/m³local],

soit un renouvellement horaire minimal de 2 volumes par heure.

Et bien souvent, de nombreux équipements bureautiques dégagent une chaleur nettement plus importante encore. Si bien que le taux de brassage de l’ambiance par de l’air froid est en général situé entre 4 et 6. Autrement dit, si les locaux font X m³, le débit d’air froid nécessaire sera de 4X … à … 6X m³/h.

En Belgique, la température extérieure est 98 % du temps inférieure à 24°C.

Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport. Logiquement, on pense dès lors à mettre en œuvre un système « tout air », c’est-à-dire une installation où le rafraîchissement est transporté par l’air, installation qui serait apte à transporter cet air froid « gratuit ».

Le free cooling de nuit peut décharger les parois de la chaleur accumulée en journée.

L’air extérieur de nuit est, lui, toujours rafraîchissant, en été comme en hiver (même en période de canicule, la température de nuit avoisine les 15°C). Mais cet air n’est efficace que pour autant que son débit soit suffisamment élevé : un taux de renouvellement d’air minimum de 4 volumes/heure est nécessaire. Ici encore, l’intérêt de mettre en place une installation « tout air » est manifeste.

Seul bémol à cette proposition, le free-cooling nocturne utilise l’inertie du bâtiment comme « réservoir tampon » : en fin de nuit d’été, le bâtiment est déchargé de sa chaleur en l’amenant à une température de 22°C, et en fin de journée on laisse flotter la température jusqu’à 26°C, par exemple. Dans ce cas, le free-cooling peut effectivement procurer des économies au système de climatisation. Ceci entraîne une fluctuation des températures intérieures qu’il faut être prêt à accepter.

En Belgique, la température extérieure est 65 % du temps inférieure à 14°C, soit inférieure à la température de pulsion.

On souhaite profiter du froid extérieur, mais il est impossible d’injecter de l’air à 0°C dans les locaux ! Il y a nécessité de préchauffer l’air pulsé. Or on travaille avec des débits d’air élevés (4 à 6 renouvellements horaires). Le coût du pré-chauffage de l’air risque d’anéantir les économies réalisées sur le refroidissement !

Deux solutions se présentent alors

  • Soit on recycle partiellement l’air extrait : c’est la chaleur des locaux eux-mêmes qui préchauffent « gratuitement » l’air neuf, par mélange. Par exemple, les 4 renouvellements horaires sont constitués de 3/4 d’air recyclé et de 1/4 d’air neuf.
    Inconvénient : l’air de tous les locaux est repris, mélangé et redistribué dans les différents locaux, ce qui peut poser problème…
  • Soit on place un échangeur de chaleur sur l’air extrait : puisqu’il s’agit seulement d’un préchauffage de l’air, un échangeur à plaques ou un double échangeur à eau glycolée peut transférer la chaleur de l’extraction vers la pulsion, sans mélange entre l’air neuf et l’air vicié, en atteignant les puissances requises.

Chaque local nécessite une régulation spécifique

L’enclenchement d’un photocopieur, la tenue d’une réunion, … crée des besoins variables entre les différents locaux. Une régulation individualisée doit être proposée.

De plus, le coût du transport de l’air n’est pas négligeable dans une installation « tout air ». Il est donc intéressant de ne pulser que les débits nécessaires : pulser la moitié du débit nominal génère le huitième de la consommation électrique du ventilateur.

Ces deux constats étant faits, le conditionnement d’air à Volume d’Air Variable (VAV) apparaît comme la solution la plus adéquate. Le thermostat de chaque local agit sur le clapet modulant l’arrivée d’air. Une sonde de pression placée dans la gaine commande la vitesse des ventilateurs de pulsion et d’extraction.

Le cas particulier des bureaux paysagers

La particularité des grandes plates-formes de bureaux paysagers, c’est d’avoir dans le même local à la fois une zone centrale (où la chaleur est excédentaire) et des zones en façades (où les parois froides génèrent de l’inconfort). Dans ce cas, on prévoit simultanément la pulsion d’air frais en zone centrale et l’apport de chaleur par des radiateurs en allège des fenêtres. La régulation de ces deux flux contradictoires doit être soignée afin qu’il n’y ait pas destruction d’énergie : une plage neutre doit être réservée entre chauffage et refroidissement (par exemple, les vannes thermostatiques de radiateurs sont réglées sur 21°C et l’ouverture du débit d’air froid ne commence qu’à 23°C). Entre 21 et 23°C, le corps humain est situé dans sa plage de confort optimale.

Les inconvénients d’une telle solution

L’investissement à consentir au départ est loin d’être négligeable :

  • les conduits sont volumineux et encombrants, donc coûteux en argent et en espace,
  • la régulation est plus élaborée, et donc coûteuse et pas toujours facile à la mise au point et à la maintenance.

Il sera donc utile de chiffrer le budget énergétique d’une telle solution et de parler en terme de coût global sur 15 ans. Notamment pour comparer cette solution à la traditionnelle boucle d’eau glacée sur laquelle sont greffés les ventilo-convecteurs.

C’est le rôle du bureau d’études, car la situation est spécifique à chaque projet.

Études de cas 

Un exemple d’une telle démarche a été réalisé pour le cas de 4 locaux de consultation à l’hôpital de Chimay.

La solution « fluide réfrigérant variable »

L’approche se construit sur les éléments suivants :

1.  Nouvelles possibilités technologiques des compresseurs

On connaît le fabuleux « rendement » thermodynamique d’une machine frigorifique récente : pour faire 3 kWh de froid, il suffit de 1 kWh électrique au compresseur. Il en résulte alors 4 kWh de chaleur rejetés au condenseur. Si ces 4 kWh sont récupérés dans des locaux demandeurs de chaleur, le bilan théorique s’impose de lui-même : avec 1 kWh au compresseur, on réalise 7 kWh utiles : 3 de refroidissement et 4 de chauffage !

Si dans le bâtiment, en parallèle avec la demande de refroidissement du cœur du bâtiment, il y a une demande de chauffage des locaux périphériques, la solution thermodynamique est alléchante !

Mais la difficulté, c’est qu’en été tous les locaux sont demandeurs de froid. L’échangeur du local en façade doit alors passer du mode « condenseur » à un fonctionnement en « évaporateur ».

On a bien essayé la solution de placer des pompes à chaleur réversibles sur une boucle d’eau commune à tous les locaux, mais sans trouver la souplesse de la solution actuelle de la climatisation à « fluide réfrigérant variable » qui supprime tout vecteur intermédiaire.

Ici, dans le cas idéal où il y aurait égalité entre la demande de froid et la demande de chaud, toute la chaleur évacuée dans les locaux à refroidir est transférée vers les locaux à chauffer :

Installation en équilibre.

2.  Séparation des fonctions

À l’usage, la séparation des fonctions « apport d’air neuf » et « apport de chaud ou de froid » présente des avantages de facilité de régulation et de qualité hygiénique.

3.  Pas de fluide intermédiaire

C’est le fluide frigorifique qui circule entre les échangeurs et le compresseur. En quelque sorte, c’est l’ensemble du bâtiment qui travaille « en détente directe et en condensation directe ».

4.  Une régulation très fine en fonction de la demande

Rien n’est plus souple que du fluide frigorigène pour s’adapter aux besoins. Chaque échangeur est autonome dans la régulation de son local.

De plus, la régulation en place est étudiée pour limiter au maximum toute consommation d’énergie excessive.

Par exemple : une boucle d’eau glacée au régime 7°-12° va condenser inutilement la vapeur d’eau présente dans le local. Avec un système « fluide réfrigérant variable », l’humidité du local est mesurée en permanence et la température de l’évaporateur sera réglée « au plus haut » en fonction des besoins de froid du local, évitant ainsi toute condensation inutile.

5. Inconvénients

  • L’apport d’air neuf hygiénique n’est pas résolu. De plus, il n’existe pas de production d’eau chaude par une chaudière pour alimenter les batteries de chauffe d’un éventuel groupe central de traitement de l’air hygiénique. L’apport d’air neuf va demander une installation spécifique dont on devra soigneusement étudier la régulation pour que de l’énergie ne soit pas « cassée » : il ne faudrait pas simultanément préchauffer l’air neuf à 20°C et refroidir le local !
  • La technique est encore relativement neuve dans nos régions (malgré une large expérience au Japon)…
  • Il faut franchir le problème lié à la circulation du fluide frigorigène dans les locaux, malgré l’étanchéité des installations actuelles et la non-toxicité des fluides utilisés. Comment retrouver une fuite si les conduits circulent dans tous les faux plafonds ? L’évolution va dans le sens d’un confinement des équipements utilisant le fluide frigorigène et d’un transport du froid par de l’eau ou de l’air dans le bâtiment. Il semble que la technique du DRV soit d’ailleurs interdite au Luxembourg, pour des raisons environnementales.
  • La technologie est assez sophistiquée, bourrée d’électronique, et seul le fabricant peut réellement intervenir sur l’installation… Certains craindront alors le coût des contrats de maintenance, d’autres diront que nos voitures ont suivi la même évolution… sans que cela nous pose trop de problèmes. Des logiciels d’auto-diagnostic permettent la gestion automatique.
  • Si l’ensemble de l’installation travaille en mode « froid », le rendement du compresseur n’atteint pas celui d’une grosse machine frigorifique à vis, par exemple…

A nouveau, un bilan énergétique détaillé et annuel est nécessaire, mais il faut avouer que dans cette technique nouvelle, les bureaux d’études sont relativement dépourvus d’outils fiables d’évaluation… et les fabricants ne nous proposent aucun rapport d’évaluation neutre.

Au minimum, on essayera d’établir un planning des périodes de chauffe et de refroidissement des différents locaux pour visualiser les recouvrements. Si une récupération de la chaleur des locaux intérieurs est prévisible une bonne partie de l’année (salle informatique au centre du bâtiment, par exemple), le DRV se justifie.


Conclusions

Un local « intérieur » est en permanence demandeur de rafraîchissement.

Une simple ventilation ne suffit pas.

La solution traditionnelle par ventilos-convecteurs sur boucle d’eau glacée ne permet pas d’utiliser l’air frais extérieur présent les 3/4 du temps dans nos régions. Si elle est cependant adoptée, on sera attentif à prévoir une possibilité de refroidissement direct de l’eau glacée par free-chilling.

Deux solutions sont possibles :

1° Une installation « tout air » à débit variable (VAV)

  • elle permet d’utiliser l’air neuf extérieur, de jour comme de nuit,
  • elle va limiter le défaut des installations « tout air » : la forte consommation des ventilateurs,

mais,

  • elle demande de préchauffer l’air extérieur en hiver, soit via un recyclage partiel de l’air repris (d’où problème de mélange de l’air des différents locaux), soit via un récupérateur de chaleur sur l’air extrait.

Concevoir

Pour aller plus loin dans la conception d’une installation VAV.

2° Une installation à « fluide réfrigérant variable » avec récupération de chaleur

  • en hiver, elle permet de récupérer la chaleur extraite des locaux à refroidir pour les donner aux locaux en demande de chaleur,
  • elle garantit la performance énergétique d’une technologie de pointe (compresseur, régulation, …),

mais,

  • la technique sous-entend la présence d’un réseau de fluide dans les locaux.

Concevoir 

Pour aller plus loin dans la conception d’une installation DRV.

Un bilan énergétique annuel devrait départager ces solutions. Il doit être établi au cas par cas par un bureau d’études mais celui-ci va manquer de données fiables sur la performance moyenne annuelle des équipements.

21-08-2008 : comparaison du contenu ok ! [sylvie]

Valoriser la fraîcheur de l’environnement [Climatisation]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.

L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !

Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.
Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Choisir un préparateur instantané à plaques

Choisir un préparateur instantané à plaques


Choix de la source de chaleur

Le préparateur instantané a pour qualité essentielle d’assurer de l’eau chaude sanitaire en quantité voulue à n’importe quel moment de la journée.

Source de la chaleur

Un préparateur électrique est très difficilement réalisable, vu l’importance de la puissance nécessaire (un préparateur 12 litres/minute requiert une puissance de 24 kW, soit une ligne de 100 A environ !). Pour s’en convaincre, il suffit de penser au percolateur à café. Avec 1 kW de puissance, il arrive tout juste à réaliser un fin filet d’eau bouillante… C’est parfait pour conserver l’arôme du café… mais c’est inimaginable pour assurer les douches en parallèle après le match de foot ! Et puis, ce serait en courant de jour…

Clairement, l’échangeur instantané s’associe à une chaudière à fuel ou gaz.


Préparateur instantané « pur »

Le chauffage de l’eau se fait dans un échangeur à plaques très compact. Une boucle d’eau chaude sanitaire sera presque automatiquement associée au projet pour lisser les variations de la température de l’eau.

La régulation de cette température se fait via le réglage d’une vanne trois voies au primaire. Cette vanne doit être très « nerveuse » pour réagir rapidement à des variations de la demande. Une régulation PID est nécessaire.

Schéma principe de l'échangeur à plaques.

Ce type de préparation génère un faible encombrement et une faible charge au sol.

Par contre, elle oblige à un maintien en température de la chaudière à haute température. Ce n’est pas heureux en été et cela va à l’encontre de l’évolution actuelle vers une régulation à température glissante (une chaudière « à la température juste nécessaire »). À ce titre, un ballon accumulateur est quand à lui chauffé une ou deux fois dans la journée et la température de la chaudière redescend le reste du temps.

Pour plus de détails, voir dans les critères de choix du mode de préparation d’eau chaude.

On voit donc qu’un préparateur instantané pur ne se justifie que pour rencontrer des besoins importants et assez continus (piscine par exemple).

Puissance

La production instantanée demande généralement une puissance de générateur très importante. Pour dimensionner cette installation, cliquez ici !

Dans le cas d’une production d’ECS combinée au chauffage, il sera peut être nécessaire de surdimensionner la chaudière uniquement pour l’ECS. Ce qui serait une mauvaise utilisation de l’investissement consenti. On préférera compléter l’installation par un ballon d’appoint : c’est le semi-instantané.

Rendement de distribution

Lors du calcul de la puissance d’installation, on admet que, pendant la durée du prélèvement maximal, le rendement de distribution est égal à 1 (pas de mise en température du volume mort, les déperditions étant faibles par rapport à l’énergie fournie).


Préparateur semi-instantané

Photo préparateur semi-instantané.

Pour améliorer la stabilité de la température d’eau chaude, il est possible d’augmenter le volant tampon de la boucle en mettant un réel ballon en série. Deux schémas sont possibles :

  • Soit l’échangeur est inclus dans le ballon :

Schéma préparateur semi-instantané avec échangeur est inclus dans le ballon.

  • Soit le ballon est placé en appoint et se met en service dès que la température de 60 °C par exemple n’est plus atteinte au départ de la boucle. La vanne s’ouvre et le circulateur se met en fonction. Son débit horaire est égal à 4 fois la capacité du ballon.

Cette capacité permet, en cas de soutirage important, d’assister le préparateur instantané par le préchauffage « préventif » d’une réserve.
Dans le même esprit, le schéma ci-dessous nous paraît plus simple et donc probablement meilleur :

Ce type d’installation est capable d’assurer avec souplesse la fourniture de besoins assez variables.

Plus le réservoir sera important, plus la puissance de chauffe pourra être réduite. Une régle de bonne pratique montre qu’avec une capacité tampon (en litres) de 5 x Puissance exprimée en kW, on peut diminuer de moitié la puissance par rapport à la puissance instantanée.

Exemple. En logement collectif, le débit de pointe de soutirage d’eau chaude est pris à 50 litres pour 10 minutes par appartement. Un coefficient de simultanéité prend en compte le fait que tous les appartements ne sont pas en demande en même temps :

Nbre de logements

10 20 39 50 75 100 200

Coeff simultanéité

0,50 0,40 0,36 0,31 0,29 0,27 0,24

Pour un parc de 50 logements, en production instantanée, on installera : 50 logements x 50 litres x 1,16 Wh/l.K x (60 – 10) K x 0,31 / [(1/6) h x 1 000] = 270 kW. Mais si un ballon de 600 litres est associé, la puissance installée sera réduite à 135 KW.

D’une manière générale, il existe une infinité de combinaisons « puissance de chauffe – volume de stockage », répartie sur une courbe d’égale satisfaction des besoins.

Calculs

Pour déterminer la courbe « puissance-volume » qui répond à un profil de besoin d’eau chaude particulier, cliquez ici !

Détails d’installation

La gestion des fluctuations de température

C’est un des inconvénients de ce type de système : il faut une réponse immédiate et à juste température. Un temps de réponse de l’ordre d’une dizaine de secondes est parfois requis.

Un régulateur progressif est nécessaire : le mode PI est nécessaire pour les échangeurs de faible capacité, comme les échangeurs à plaques. Une régulation fine (PID) est parfois à prévoir pour le réglage de la vanne 3 voies. La constante de temps de la sonde doit être réduite et la vitesse du moteur élevée. Les constructeurs de ces échangeurs spécifient les caractéristiques que doivent présenter les régulateurs.

Et malgré tout, on reste limité par le temps de réponse des éléments mécaniques de l’installation qui rend les fluctuations inévitables. Il est déconseillé d’utiliser ce type de système dans un bâtiment ayant un profil de puisage discontinu.

La sonde de température sera dédoublée par une sonde de sécurité qui interrompt impérativement l’alimentation du primaire en cas de dépassement d’un seuil de température.

Le raccordement sur une chaudière à condensation

On sera attentif à sélectionner un modèle sur base d’un retour à la plus basse température possible, par exemple au régime (donc surdimensionner un peu la surface de l’échangeur).

Mais il semble qu’avec un préparateur instantané, la condensation reste difficile. La production d’eau chaude sanitaire, surtout depuis les mesures anti-légionelles, semble un frein aux techniques de chauffage basse température d’aujourd’hui. Ne faudrait-il pas de plus en plus privilégier des productions indépendantes ? Dans ce cas, le chauffage instantané est mal placé suite à la puissance qu’il demande…

La résistance à la corrosion

La température élevée au niveau des surfaces d’échange conduit à la formation rapide de tartre.

Lorsque l’on sait que le dépôt calcaire est exponentiellement lié à la température de chauffage de l’eau, cet inconvénient limité par l’action de la vanne trois voies qui évite que la température au primaire de l’échangeur soit en permanence à la valeur maximale.

Ce système est cependant mal adapté à un réseau d’eau dure. Il est alors recommandé d’effectuer un traitement anti-tartre par injection de phosphates ou adoucisseur d’eau.

Choisir le combustible : bois, gaz et fuel

Lors de la conception une nouvelle installation où du remplacement de chaudières, trois combustibles sont généralement mis en balance : le bois, le fuel et le gaz naturel. Différents arguments peuvent faire pencher le décideur vers l’une ou l’autre de ces solutions. En voici la synthèse :

L’efficacité énergétique

Si l’on devait classer les chaudières en fonction de leur efficacité énergétique, on obtiendrait le résultat suivant :

  1. les chaudières à condensation au gaz ou au fioul,
  2. les chaudières traditionnelles gaz ou fuel à brûleur pulsé, chaudières gaz à brûleur à prémélange modulant et les chaudières bois-énergie,
  3. les chaudières gaz atmosphériques.

Les technologies des chaudières gaz à condensation permettent d’atteindre des rendements normalisés de 110 % du PCI. Les chaudières au mazout à condensation permettent d’atteindre un rendement de 106 % du PCI. Ces deux valeurs correspondent à 99 % du PCSet sont donc équivalentes. Si l’on considère que le rendement actuel normalisé des chaudières basse température oscille entre 93 et 96 %, qu’il s’agisse de fuel, de gaz ou de bois. Le gain réalisé en optant pour le gaz à condensation tourne autour des 15 %, une économie non négligeable.

Concevoir

Pour en savoir plus sur le choix d’une chaudière, cliquez ici !

L’impact environnemental

Chez l’utilisateur final et à technologie égale, la combustion du gaz produit 25 % de CO2 en moins que la combustion du fuel (pour une consommation énergétique équivalente). A lui seul, cet argument permet de recommander le gaz par rapport au mazout dans le cadre d’une politique de réduction de l’émission des gaz à effet de serre.

En ce qui concerne la biomasse, sa combustion a un impact neutre sur l’émission de CO2. On peut s’en rendre compte en considérant le cycle de carbone. Néanmoins, cet argument n’est vrai que si le bois est issu d’une forêt gérée de manière durable ou si la biomasse est de type « agrocombustible » (pour en savoir plus, consultez notre page « bois-énergie »). Dans l’affirmative, on voit l’énorme potentiel que représente la biomasse pour réduire les émissions de CO2. Même en considérant le cycle complet du bois, c’est-à-dire l’extraction, le conditionnement ainsi que le transport en plus de la combustion, on voit que l’émission de CO2 pour une même production d’énergie est nettement inférieure aux autres vecteurs énergétiques.

Mais le CO2 n’est pas le seul impact à considérer. Si l’on regarde d’autres émissions, on constate que le gaz est le combustible le moins polluant chez l’utilisateur : émission de CO2, de SO2, de suies et de NOx moins élevée. Suivant le type d’émission auquel on s’intéresse, le mazout et le bois sont plus ou moins polluants. En termes d’émission de NOx, les deux vecteurs énergétiques se valent. En fait, le bois émet moins de SO2 mais plus de particules fines (poussières).

Globalement, il faut noter une tendance progressive à exclure les combustions fossiles dans certains territoires. Pointons quelques exemples : l’Energieagenda des Pays-bas prévoit la déconnexion du réseau gaz de 170 000 maisons par an à partir de 2017, pour une disparition totale du chauffage gaz en 2050 ; le Pacte énergétique belge approuvé par le Fédéral et les trois Régions stipule l’interdiction de vente de chaudières mazout à partir de 2035 ; enfin, la Norvège interdit l’utilisation du fuel pour le chauffage dès 2020, pour tous les bâtiments.

L’investissement

On peut comparer les différents postes à financer pour les trois combustibles :

 

Poste de raccordement au gaz, citernes à mazout, … au-delà du prix existe la question d’encombrement.

Gaz Fuel Bois
Chaudière et brûleur.
Raccordement à la cheminée.

Tuyauterie d’alimentation du brûleur, filtre à gaz, robinet d’isolement.

Tuyauterie d’alimentation du brûleur, filtre à fuel, pompe à fuel.

Système de transport vers la chaudière.

Raccordement au réseau gaz (dont le coût est négociable).

Cuve à fuel (enterrée, en cave ou extérieure).

Pièce de stockage et système d’extraction.

Équipements de protection : détection des fuites de gaz, vannes électromagnétiques.

Clapet coupe-feu pour isoler la chaudière.

Si chaudière à condensation, évacuation des condensats.

Si chaudière à condensation, évacuation des condensats.

Décendrage et si chaudière à condensation, évacuation des condensats.

Le coût des chaudières gaz et mazout est semblable, quel que soit le système choisi. La différence de coût est en tout cas minime par rapport au coût global de l’installation. Les technologies à condensation sont plus chères que les chaudières traditionnelles, mais leur surcoût est rentabilisé par les économies d’énergie réalisées.
Les installations au bois sont significativement plus chères que leurs homologues gaz et fuel. Cette différence est essentiellement due au prix de la chaudière, d’une part, et au coût de l’installation de stockage et de transport (du stockage vers la chaudière). Dans certains cas, il faut même construire un nouveau bâtiment pour pouvoir réaliser ce stockage de combustible. En conclusion, l’investissement pour une installation au bois dépend fortement du contexte, mais de manière générale, on peut dire que l’on est dans un ordre de grandeur supérieur par rapport au gaz et au mazout.

 

Le volume de stockage

Le pouvoir calorifique des combustibles par unité de volume est fort différent. Pour obtenir le même contenu énergétique, le volume de combustible correspondant sera aussi différent. Par conséquent, cela aura une influence sur le volume de stockage et sur la fréquence d’approvisionnement. On peut retenir les ordres de grandeur suivants pour obtenir un contenu énergétique :

Un mètre cube de mazout équivaut approximativement à 3 *map de pellets, à 6 stères de bois et 12 map de plaquettes.

*map : Mètre cube Apparent de Plaquettes.

En conclusion, la viabilité d’un projet basé sur le bois-énergie dépend aussi du potentiel du site pour réaliser une installation de stockage : si la place est disponible ou si une pièce peut être réaménagée en zone de stockage. On voit que l’approche avec des plaquettes demande le plus de place.

Le coût du combustible

Les coûts de fourniture en combustible sont variables sur base saisonnière (augmentation de la demande en hiver) et en fonction de phénomènes globaux (géopolitiques notamment, qui influent sur le cours du pétrole). Sur le long terme, l’Observatoire des prix de l’APERE (http://www.apere.org/fr/observatoire-prix) permet d’identifier deux tendances :
  1. Le fuel et le gaz ont des évolutions parallèles, mais décalées dans le temps. Le prix du mazout est plus volatil et son évolution précède celle du gaz : lorsque le mazout est plus cher, le prix du gaz a tendance à monter, et vice-versa. Ces dernières années, l’écart ne dépasse pas 1.5c€ par kWh (tarif particulier).
  2. Le prix du bois est moins élevé que celui du fuel et de gaz, mais très sensible à sa forme : le prix des pellets est proche de celui des énergies fossiles, tandis que les plaquettes sont sensiblement moins chères (de l’ordre de 3 c€/kWh), soit presque moitié moins.

 

L’approvisionnement et le suivi des consommations

Le fuel ainsi que le bois sont disponibles sur tout le territoire, ce qui n’est actuellement pas le cas pour le gaz naturel.

Réseau de distribution du gaz naturel en Belgique (source : Tractebel).

Le gaz permet de ne pas se soucier de l’approvisionnement. De plus, par sa facturation mensuelle, en fonction d’un compteur volumétrique, le suivi régulier des consommations et la détection d’une dérive éventuelle sont nettement plus faciles avec le gaz.
Avec le fuel, il est pratiquement impossible de réaliser une comptabilité  énergétique régulière si on ne prévoit pas un ou des compteurs fuel sur les brûleurs. Le suivi, par exemple mensuel, demande cependant le relevé des compteurs. Sans cela, seul un suivi annuel est possible, et encore faut-il une mesure précise des stocks en cuve au moment des livraisons.
Avec le bois, les grandes chaudières peuvent être équipées d’un système de comptage de la consommation. En outre, les silos textiles peuvent être équipés d’un système de pesage.

Consommation 

Pour en savoir plus sur la comptabilité énergétique : cliquez ici !

Le contrôle

Réglementairement, les chaudières sont soumises à une obligation de contrôle. Les dispositions légales sont décrites dans l’Arrêté Royal du 29 janvier 2009 ainsi que sa modification du 18 juin 2009.
La fréquence minimale de ces entretiens dépend du type de combustible. On est sur une base annuelle pour les combustibles solides (bois) et liquides (fuel), pour une base trisannuelle pour les chaudières au gaz. Celles-ci sont en effet moins sujettes à l’encrassement.

Autres utilisations

Le gaz naturel peut avantageusement être utilisé pour d’autres usages comme les cuisines collectives, en remplacement de l’électricité ou du propane.

Cuisines collectives 

Pour en savoir plus sur le choix du vecteur énergétique en cuisine collective : cliquez ici !

Synthèse des avantages et inconvénients

Critère Pour le gaz Pour le fuel Pour le bois
Rendement Élevé avec condensation Élevé avec condensation
Approvisionnement Réseau Partout Partout
Investissement Plus élevé
Volume de stockage Connexion au réseau + si pellets à +++ si plaquettes
Prix du combustible Moins cher
Émission de CO2 Inférieur de 25 % par rapport au mazout Combustion neutre à certaines conditions
Émission de NOx + +
Émission de SO2 + +
Émission de particules fines + ++
Suivi des consommations Facile Par dispositif adhoc Par dispositif adhoc

Le choix final dépend, pour chaque projet, du poids que le décideur donne à l’un ou l’autre des critères cités ici.

  Exemple chiffré

Exemple :

Pour une question de facilité, on considère un bâtiment de type domestique. On suppose qu’il consomme actuellement 200 [GJ/an] ou 55 555 [kWh/an].

Les responsables de ce bâtiment désirent installer une nouvelle chaufferie. Se pose donc la question : « quel type de vecteur énergétique » ? Il est difficile d’évaluer les prix futurs de l’énergie. Suivant l’hypothèse que l’on choisit, les résultats sont significativement différents. Le lecteur est donc invité à réaliser l’exercice par lui-même sur base des prix qui lui sont applicables. À titre d’exemple, on utilisera ici une moyenne sur les cinq dernières années espérant conserver ainsi la tendance relative entre les différents vecteurs énergétiques.

Type de chaudière

Consommation future estimée

Gain par rapport au moins avantageux

Chaudière gaz à condensation
(rendement saisonnier de 101 %).
55 555 [kWh/an] / 1,01 = 55 005 [kWh/an]

9 [%]

Chaudière gaz haut rendement
(rendement saisonnier de 92 %).
55 555 [kWh/an] / 0,92 = 60 386 [kWh/an]

0 [%]

Chaudière fuel à condensation (rendement saisonnier de 97 %). 55 555 [kWh/an] / 0,97 = 57 273 [kWh/an]

5 [%]

Chaudière fuel haut rendement
(rendement saisonnier de 92 %).
55 555 [kWh/an] / 0,92 = 60 386 [kWh/an]

0 [%]

Chaudière au bois haut rendement (rendement saisonnier de 92 %). 55 555 [kWh/an]/0,92 = 60 386 [kWh/an]

0 [%]

 

Type de chaudière

Facture future estimée (prix indicatif particulier 2018 (HTVA))

Gain par rapport au moins avantageux

Chaudière gaz à condensation. 55 005 [kWh/an] x 7 [cents €/kWh] =
3 850 [€/an]

9 [%]

Chaudière gaz haut rendement. 60 386 [kWh/an] x 7 [cents €/kWh] =
4 227 [€/an]

0 [%]

Chaudière fuel à condensation. 57 273 [kWh/an] x 7 [cents €/kWh] =
4 009 [€/an]

9 [%]

Chaudière fuel haut rendement. 60 386 [kWh/an] x 7 [cents €/kWh] =
4 227 [€/an]

0 [%]

Chaudière au bois haut rendement : pellets. 60 386 [kWh/an] x 5 [cents €/kWh] =
3 019 [€/an]

29 [%]

Chaudière au bois haut rendement : plaquettes. 60 386 [kWh/an] x 3 [cents €/kWh] =
1 812 [€/an]

57 [%]

Type de chaudière

Émission de CO2 future estimée : basé uniquement sur la combustion

Gain par rapport au moins avantageux

Chaudière gaz à condensation. 55 005 [kWh/an] x 0,202 [kg CO2/kWh] = 11 [tonnes CO2/an]

31 [%]

Chaudière gaz haut rendement. 60 386 [kWh/an] x 0,202 [kg CO2/kWh] = 12.2 [tonnes CO2/an]

23,2 [%]

Chaudière fuel à condensation. 57 273 [kWh/an] x 0,263 [kg CO2/kWh] = 15 [tonnes CO2/an]

5,5 [%]

Chaudière fuel haut rendement. 60 386 [kWh/an] x 0,263 [kg CO2/kWh] = 15.9 [tonnes CO2/an]

0 [%]

Chaudière au bois haut rendement : pellets. 60 386 [kWh/an] x 0 [kg CO2/kWh] = 0 [tonnes CO2/an]

100 [%]

Chaudière au bois haut rendement : plaquettes. 60 386 [kWh/an] x 0 [kg CO2/kWh] = 0 [tonnes CO2/an]

100 [%]

Type de chaudière

Émission de CO2 future estimée : basé sur le cycle complet du combustible

Gain par rapport au moins avantageux

Chaudière gaz à condensation. 55 005 [kWh/an] x 0,235 [kg CO2/kWh] = 12.9 [tonnes CO2/an]

34,5 [%]

Chaudière gaz haut rendement. 60 386 [kWh/an] x 0,235 [kg CO2/kWh] = 14.2 [tonnes CO2/an]

27,9 [%]

Chaudière fuel à condensation. 57 273 [kWh/an] x 0,327 [kg CO2/kWh] = 18.7 [tonnes CO2/an]

5,1 [%]

Chaudière fuel haut rendement. 60 386 [kWh/an] x 0,327 [kg CO2/kWh] = 19.7 [tonnes CO2/an]

0 [%]

Chaudière au bois haut rendement : pellets. 60 386 [kWh/an] x 0.047 [kg CO2/kWh] = 2.8 [tonnes CO2/an]

85,7 [%]

Chaudière au bois haut rendement : plaquettes. 60 386 [kWh/an] x 0.022 [kg CO2/kWh] = 1.3 [tonnes CO2/an]

93,4 [%]

 

Cahier des charges 

Vecteur énergétique.

Choisir les bouches de pulsion et d’extraction

Choisir les bouches de pulsion et d'extraction

Bouches de ventilation (de gauche à droite) :
diffuseur plafonnier multicône circulaire et carré, diffuseur plafonnier à jet hélicoïdal,
plafonnier perforé, diffuseur linéaire, grille murale à double déflecteur.


Grandeurs caractéristiques conditionnant le confort

On peut résumer la qualité d’une installation de diffusion d’air en 3 phrases :

  • on se sent bien (qualité d’air et confort thermique),
  • on n’entend rien (confort acoustique),
  • on ne voit rien (intégration architecturale).

Cela se traduit par une série de critères à respecter tant pour diffusion d’air traité (systèmes de climatisation tout air) que pour la diffusion d’air hygiénique.

Bouches de pulsion

Le choix des bouches de pulsion et de leur position va fortement conditionner le confort dans le local. Il est donc important de ne pas choisir au hasard (comme prendre une bouche de telle taille parce que celle-ci correspond à l’ouverture existante dans le faux plafond…). La diffusion de l’air est complexe. L’idéal est donc de se référer aux spécialistes en la matière (bureau d’études, fabricant,…).

Exemples.

Alors que la vitesse résiduelle de l’air (vitesse au point 1) augmente lorsque la distance entre deux diffuseurs plafonniers à distribution radiale diminue, c’est parfois l’inverse avec des diffuseurs hélicoïdaux.

Un jet d’air horizontal est dévié vers le haut s’il est chaud et vers le bas s’il est froid. De même, un jet vertical vers le bas est freiné s’il est chaud …

Ceci montre la difficulté de choisir une bouche qui doit fonctionner aussi bien en chaud qu’en froid : la direction du jet ou la vitesse de l’air doit pouvoir être modifiée en fonction de la saison, vers le bas en hiver, vers le haut en été.

  

La vitesse de l’air à la sortie des diffuseurs plafonniers, liée à leur taille doit avoir une valeur minimum d’environ 2 m/s. Si ce n’est pas le cas, l’air froid ne profitera pas de l’effet Coanda et chutera verticalement, provoquant un courant d’air.

Schéma principe de l'effet Coanda.

Grandeurs caractéristiques

Quatre grandeurs vont ensuite guider le choix d’une bouche de pulsion : le débit, le bruit, la vitesse et la température. Les valeurs citées ci-après sont issues, soit de la pratique, soit de la norme DIN 1946 (vitesse dans la zone d’occupation).

Le débit demandé

En fonction de la pression dont on dispose en amont du diffuseur, on peut estimer le débit fourni par la bouche à partir des abaques des fabricants.

La production acoustique

Les grilles de distribution génèrent des bruits de sifflement provenant essentiellement de la vitesse d’air au travers de celles-ci. Ce bruit dépend de 4 paramètres :

  • le débit d’air aspiré ou rejeté,
  • la section efficace de passage de l’air,
  • la géométrie de la grille, et son type,
  • la présence éventuelle d’un registre de réglage de débit.

A priori, on choisira la bouche qui présente la puissance acoustique la plus faible pour le débit désiré, sachant cependant que la qualité acoustique de la bouche (annoncée par le constructeur) ne garantit pas le niveau sonore à lui seul. En effet, c’est parfois le bruit du ventilateur et des turbulences liées aux coudes du réseau que l’on entend au travers de la bouche. Un calcul complet de l’acoustique de l’installation doit alors être fait pour s’assurer qu’un silencieux ne doit pas être inséré. Notons également que les grilles peuvent aussi jouer le rôle d’atténuateur du niveau sonore (principalement des basses fréquences) provenant des gaines, lorsqu’elles sont correctement dimensionnées. Il y a réflexion des ondes sur les ailettes.

Calculs

Pour visualiser un exemple de ce type de calcul, cliquez ici !

Pour vérifier la qualité acoustique de la bouche choisie, on peut se référer au niveau de confort acoustique « NR » recommandé dans le local considéré. Dans un bureau, on recommande, dans la zone de travail, un niveau NR 35 ou NR 40. Ceci signifie en première approximation que la puissance acoustique émise par la bouche ne doit pas dépasser 40 à 45 dB(A).

Attention, cette valeur est issue de la pratique et n’a rien de scientifique. Elle est cependant proche de la réalité. Elle se base sur les hypothèses suivantes :

  • le niveau NR est voisin de dB(A) – 5, pour les types de bruit couramment rencontrés en ventilation,
  • dans la plupart des locaux, les bruits provenant du réseau de distribution compensent l’atténuation du bruit dans le local (absorption par les matériaux, atténuation avec la distance), ce qui signifie que la puissance émise par la bouche correspond plus ou moins au niveau sonore dans le local,
  • lorsque l’on se trouve sous une bouche, l’influence acoustique des bouches voisines est souvent négligeable, étant donné l’atténuation en fonction de la distance.

Remarque : parfois, le niveau NR ou NC (NR = NC + 2) est directement repris sur les abaques des fabricants de bouches.

La vitesse résiduelle en zone d’occupation

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, ce sur une hauteur de 1,8 m. Cette hauteur peut être plus faible si de toute façon les occupants sont toujours assis (dans un auditoire, …).

Dans cette zone, la vitesse de l’air ne peut dépasser 0,2 m/s (0,28 dans les locaux de passage) et le long des murs, à 1,8 m, elle ne peut dépasser 0,4 m/s :

Schéma sur la vitesse résiduelle en zone d'occupation.

Lorsque le taux de renouvellement d’air nécessaire dans un local est important ou lorsque la hauteur sous plafond est faible (< 2,5 m), il n’est plus possible de trouver des diffuseurs plafonniers à distribution radiale dont la vitesse d’air dans la zone d’occupation soit inférieure à 0,2 m/s. Dans ce cas, il faudra se tourner vers des diffuseurs à jet hélicoïdal qui favorisent pour un même débit, un brassage plus rapide entre l’air ambiant et l’air pulsé.

Diffuseurs à jet hélicoïdal. Diffuseurs à jet hélicoïdal.

Notons que le cahier des charges type 105 pour les bâtiments de l’état définit des valeurs de vitesse d’air nettement plus sévères (vitesse d’air à 19°C maximum de 0,1 m/s dans une zone d’occupation de 2 m de haut) qui s’avèrent souvent difficiles à réaliser.

La portée

La portée est la longueur du jet pour laquelle on obtient une vitesse résiduelle donnée (généralement de l’ordre de 0,2 à 0,25 m/s).

Lorsque l’on pulse de l’air froid le long du plafond au moyen de grilles murales ou de diffuseurs plafonniers, il faut que la portée couvre au moins 80 % de la zone à traiter tout en ne dépassant pas cette dernière.

Schéma sur la portée du jet.

Portée inférieure à 80 % de la zone à traiter : la surchauffe persiste en bout de zone.

Schéma sur la portée du jet.

Portée supérieure à 80 % de la zone à traiter : toute la zone est refroidie.

Schéma sur la portée du jet.

Portée supérieure à la zone à traiter : le jet froid risque de gêner les occupants avant son mélange à l’air ambiant.

Attention, avec un système VAV, il faut vérifier qu’au débit minimum, la portée ne descende pas en dessous de 50 à 70 % de la zone à traiter.

Lorsque l’on pulse de l’air chaud sous le plafond, celui-ci aura tendance à stagner en partie supérieure du local, créant une stratification des températures et un manque de chaleur en zone d’occupation. Au-delà d’une hauteur sous plafond de 3 m, il faut dès lors utiliser des diffuseurs détruisant cette stratification : soufflage vertical, à forte induction, diffuseurs hélicoïdaux. Ceci montre la difficulté de choisir une bouche fonctionnant soit en refroidissement, soit en chauffage :

Soufflage chaud provoquant une stratification en partie haute.

Soufflage chaud vertical détruisant la stratification.

La différence de température dans la zone d’occupation

Lorsque l’air pulsé rentre dans la zone d’occupation, la différence de température entre le jet d’air pulsé et l’air ambiant ne peut être trop importante, sous peine de ressentir des variations d’ambiance thermique dans le local.

Dans la zone d’occupation, la différence de température entre l’air pulsé et l’air ambiant ne peut dépasser :

  • 1,5°C avec de l’air pulsé chaud
  • 1°C avec de l’air froid

Turbulence

Une autre grandeur caractérise le confort d’un occupant par rapport aux mouvements d’air, c’est la variation de la vitesse de l’air en un point donné ou la turbulence de l’air.

Cette donnée n’intervient cependant pas dans le choix des bouches car elle dépend de l’aménagement intérieur du local. L’inconfort, s’il y en a un, ne peut donc être constaté qu’a posteriori.

En résumé

En résumé

Grandeurs à respecter Où ? Combien ?
Débit zone d’occupation selon les besoins
Puissance acoustique au niveau la bouche max : 45 dB(A)
Vitesse de l’air zone d’occupation
(à 1,8 m de haut)
max : 0,2 m/s
le long des murs
(à 1,8 m de haut)
max : 0,4 m/s
Écart de température dans l’air ambiant zone d’occupation max : + 1,5°C (chauffage)
zone d’occupation max : – 1°C (en refroidissement)

Exemple

Diffuseur de taille 600.

La combinaison de ces quatre grandeurs peut être vérifiée dans des abaques parfois repris dans les catalogues des fabricants.

Exemple : pour un diffuseur de la marque x de taille 600.

Données de départ
  • Débit d’air à pulser par bouche, q = 1 080 [m³/h]
  • Différence de température entre l’air pulsé et l’ambiance, ΔTz = – 6 [°C]
  • Écart entre 2 diffuseurs, A = 6,5 [m]
  • Écart entre plafond (3 m de haut) et zone d’occupation (1,8 m de haut), H1 = 1,2 [m]
  • Écart entre diffuseur et mur, X = 4 [m]

Abaque 1 : Calcul de la puissance acoustique au droit de la bouche et de la différence de pression nécessaire à l’obtention du débit désiré

  • Puissance acoustique émise par la bouche, LWA = 39 [dB(A)]
  • La différence de pression nécessaire au niveau de la bouche pour obtenir un débit de 1 080 m³/h, Δpt = 20 [Pa]

Abaque 2 : Calcul de l’écart de température entre l’air pulsé et l’air ambiant à l’entrée dans la zone d’occupation, ΔTL

  • Distance horizontale et verticale pour soufflage entre 2 diffuseurs, L = A/2 + H1 = 4,45 [m]
  • Pour une bouche de taille 600, ΔTL/ΔTz = 0,15
  • ΔTL = – 6° x 0,15 = – 0,9 [°C] (valeur recommandée : ΔTL < – 1 [°C])

Abaque 3 : Calcul des vitesses de l’air au droit de la zone d’occupation

  • Écart entre 2 diffuseurs, A = 6,5 [m]
  • Écart entre plafond et zone de séjour, H1 = 1,2 [m]
  • Vitesse de l’air dans la zone de séjour, VH1 = 0,12 [m/s] (valeur recommandée : VH1 < 0,2 [m/s])
  • Distance horizontale et verticale pour le soufflage le long du mur, L = X + H1 = 5,2 [m]
  • Vitesse de l’air le long du mur, VL = 0,22 [m/s] (valeur recommandée : VL < 0,4 [m/s])

Bouches d’extraction

Une bouche d’extraction est choisie en fonction de son débit et de sa production acoustique, suivant des abaques semblables à celles des bouches de pulsion.

En extraction la vitesse de l’air dans le local n’est pas un critère important. En effet, la vitesse décroît très vite dès que l’on s’éloigne de la bouche.

Schéma sur bouches d'extraction en soufflage.      Schéma sur bouches d'extraction en aspiration.

La configuration de la bouche d’extraction a donc peu d’influence sur la distribution de l’air dans le local, pour peu que le local ne se trouve pas en dépression (il faut que le débit pulsé soit légèrement supérieur au débit repris). Si c’est le cas, la bouche d’extraction risque d’ « aspirer » directement l’air pulsé avant qu’il n’ait balayé le local.

Problème d’efficacité de la pulsion dans un local en dépression : la bouche d’extraction « aspire » directement l’air pulsé.

Répartition du flux d’air dans un local en surpression : bon balayage du local.


Température de pulsion

Idéalement, pour ne pas créer d’inconfort, l’air neuf de ventilation doit être pulsé à une température neutre. Par exemple : 20°C. Il doit donc être préchauffé durant une bonne partie de l’année.

Cependant, les besoins en refroidissement des locaux apparaissent bien avant que la température extérieure n’atteigne les 20°C. Dans les bâtiments modernes, le point d’équilibre entre les besoins en chauffage et en refroidissement se situe bien souvent aux environs des 12°C.

Dans ce cas, dans un local refroidi avec un système indépendant du système de ventilation (ventilo-convecteurs, plafonds froids, …), il y a de fortes chances, en mi-saison, que l’on détruise de l’énergie : en chauffant l’air neuf jusqu’à 20°C et ensuite en refroidissant l’ambiance avec l’unité terminale de climatisation.

Pour éviter ce gaspillage, il faut pouvoir pulser l’air neuf, en mi-saison, à la température la plus fraîche possible, sans créer d’inconfort. Une température de pulsion inférieure à 16°C semble être un seuil à ne pas dépasser dans ce type de local.

Dans ce cas, des bouches de pulsion à haut taux d’induction peuvent devenir nécessaires (bouches à jet hélicoïdal).

Concevoir

La simulation du traitement d’un local de bureau type a montré que la consommation globale du local chutait de 10% lorsque la consigne de pulsion de l’air neuf était fixée à 16°C en période de refroidissement, au lieu de 21°C.

Pour en savoir plus, cliquez ici !

Concevoir

La simulation du traitement d’un local de bureau type a montré que la consommation globale du local chutait de 10% lorsque la consigne de pulsion de l’air neuf était fixée à 16°C en période de refroidissement, au lieu de 21°C.

Pour en savoir plus sur le traitement de l’air neuf en association avec :


Implantation des bouches de pulsion et d’extraction

Diffuseur ou grille ?

La première question que l’on se pose est : existe-t-il un faux plafond ou un faux plancher dans le local et/ou dans les couloirs ?

S’il y a un faux plafond dans le local, on choisira souvent comme bouches, des diffuseurs plafonniers. Ceux-ci permettront une meilleure répartition de la distribution d’air dans les locaux. Si on dispose uniquement d’une gaine technique dans les couloirs, on placera des grilles dans les retombées des faux plafonds, aucun gainage ne parcourant les locaux.

Schéma sur le principe des diffuseurs plafonniers.

Deux possibilités de positionnement des bouches dans un local : en faux plafond (étage supérieur), dans les retombées des faux plafonds (étage inférieur).

Effet Coanda

Lorsque l’on pulse de l’air parallèlement au plafond, le jet d’air à tendance, sous certaines conditions, à « se coller » à ce dernier. C’est ce qu’on appelle l’effet Coanda.

Schéma sur l'effet Coanda.

Lorsque l’on pulse de l’air froid, ce phénomène doit être pris en compte lors du choix des bouches car :

  • Il modifie la portée des bouches par rapport à un jet totalement libre.
  • Il permet d’éviter qu’un jet d’air froid ne « tombe » sur les occupants. Pour que cela fonctionne correctement, il faut une vitesse de sortie d’air suffisante (minimum : 2 m/s) et il faut tenir compte des obstacles éventuels (luminaires, poutres, meubles, …) pouvant rabattre le jet d’air sur les occupants.

Position et portée par rapport aux fenêtres

Schéma sur la position et portée par rapport aux fenêtres.    Schéma sur la position et portée par rapport aux fenêtres.

Schéma sur la position et portée par rapport aux fenêtres.

Lorsque l’on pulse de l’air froid en direction d’une baie ensoleillée, la portée du jet sera réduite. À l’inverse, si la pulsion se fait dans l’autre sens, la direction du jet sera allongée. Ces deux situations poseront des problèmes d’inconfort.

Il est donc conseillé, soit de décentrer les diffuseurs symétriques, soit de sélectionner un diffuseur orienté vers la fenêtre ayant une portée supérieure.

Combinaison entrée et sortie d’air

L’emplacement des bouches de pulsion et d’extraction joue un rôle important sur la qualité du brassage de l’air d’un local. Il faut éviter :

  • que l’air pulsé soit directement aspiré par la reprise avant d’avoir pu céder ces calories ou frigories;
  • que des zones mortes occupées ne soit pas traitées.

À titre indicatif, voici une série de configurations et les résultats auxquels elles conduisent a priori. Attention, les mouvements d’air décrits ne sont qu’illustratifs. Les conditions de diffusion peuvent varier en fonction de la vitesse et de la portée de l’air pulsé et du degré de surpression dans le local. Rappelons cependant que si le local est en dépression (débit extrait supérieur au débit pulsé), il y a de fortes chances pour que l’air pulsé soit court-circuité par la bouche d’extraction, créant des zones mortes importantes.

Légende
Pulsion Extraction
Grande vitesse
Petite vitesse

Soufflage en partie haute

Bonne diffusion de l’air

Diffusion de l’air médiocre

Bon :
soufflage horizontal en haut à grande vitesse, reprise en bas sur le même mur .

Médiocre :
soufflage horizontal en haut à faible vitesse et faible portée, reprise en bas sur le même mur (création d’une zone morte).

Bon :
soufflage horizontal en haut à grande vitesse, reprise en haut sur le même mur.

Médiocre :
soufflage horizontal en haut à grande vitesse, reprise en haut sur le mur opposé (by-pass d’une partie du débit).

Bon : 
soufflage horizontal en haut à faible vitesse, reprise en bas sur le mur opposé.

Médiocre :
soufflage horizontal en haut à grande vitesse, reprise en bas sur le mur opposé (création d’une zone morte).

Bon :
soufflage sous plafond sous angle moyen, reprises hautes symétriques.

Médiocre :
soufflage sous plafond sous angle moyen, reprises basses symétriques (création de zones mortes au plafond).

Bon :
soufflage sous plafond sous 180°, reprises basses symétriques.

Médiocre :
soufflage sous plafond sous 180°, reprises hautes symétriques (by-pass d’une partie du débit). Si la bouche de pulsion a une portée importante, le problème diminue.

Bon :
soufflage sous plafond sous 180°, reprise concentrique.

Médiocre :
soufflage sous plafond sous 180° à faible débit, reprises hautes symétriques (by-pass d’une partie du débit).

Soufflage en partie basse

Bonne diffusion de l’air

Diffusion de l’air médiocre

Bon :
soufflage vertical grande vitesse en bas de mur, reprise au sol à l’opposé.

Médiocre :
soufflage vertical à grande vitesse, reprise en haut du même côté (by-pass d’une partie du débit et création d’une zone morte).

Très bon :
soufflage au sol à grande vitesse, reprise au sol du même côté.

Médiocre :
soufflage vertical à grande vitesse, reprise en haut du mur opposé (création d’une zone morte au centre).

Bon : 
soufflage horizontal en bas de mur à vitesse moyenne, reprise en haut sur le mur opposé (petit risque de zone morte).

Médiocre :
deux soufflages verticaux à grande vitesse, reprise au centre du plafond (balayage latéral correct mais création de deux zones mortes au centre).

Bon :
soufflage horizontal en bas de mur à faible vitesse, reprise en haut sur le mur opposé par lent déplacement d’air.

Médiocre :
soufflage vertical à vitesse moyenne, reprise en haut du mur opposé (création de zone morte).

Bon : 
soufflage horizontal en bas de mur à faible vitesse, reprise au bas du mur opposé par lent déplacement d’air (flux laminaire dans les salles blanches).

Médiocre :
soufflage vertical à vitesse moyenne, reprise au sol du côté opposé (risque de création de deux zones mortes).

Bon : 
soufflage au bas d’un mur ou près de la zone de travail à très faible vitesse, reprise en haut par tirage thermique (principe du « déplacement »).


Acoustique

La configuration du réseau de distribution en amont de la bouche joue aussi un rôle sur le bruit émis par une bouche.

En présence d’un clapet de réglage

Si un registre de réglage de débit d’air est nécessaire, il doit se situer à une distance d’au moins trois fois le diamètre du conduit d’air par rapport à l’orifice de soufflage. Le bruit du registre n’est pas réduit mais bien les turbulences à l’entrée de la bouche et donc le bruit engendré par celle-ci.

Schéma sur le principe du clapet de réglage. Schéma sur le principe du clapet de réglage.

Les clapets de réglage doivent se trouver à plus de 3 diamètres de conduit par rapport à la bouche de pulsion.

Règle de bonne pratique.
En général, si l’on maintient une différence de pression maximale de 100 PA (100 PA = 10 mm de Colonne d’Eau) aux bornes d’un clapet, le bruit généré reste très faible.

En présence d’un coude

Un conduit d’air relié à une bouche de soufflage doit être rectiligne sur une longueur d’au moins trois diamètres. Un conduit coudé provoque un flux d’air inégal à sa sortie et par conséquent du bruit car la vitesse devient très élevée à certains endroits de la bouche.

Une bouche de pulsion doit se trouver à plus de 3 diamètres de conduit par rapport à un coude.


Réglage

Certaines bouches possèdent un organe de réglage permettant d’ajuster leur débit à la juste valeur.

Si le réglage est accessible facilement (ou pas trop difficilement) aux utilisateurs, celui-ci risque d’être manipulé (principalement si le personnel ressent un inconfort). Des déséquilibres en découleront et ainsi, probablement, qu’un inconfort pour certains bureaux.

Pour éviter cet inconvénient, il faut soit que les bouches ne soient pas déréglables, soit disposer au droit des bouches un élément autoréglable maintenant le débit plus ou moins constant quelque que soit la pression du réseau. Ceci permet maintenir un débit correct dans les locaux, même si un occupant a décidé de boucher sa grille de ventilation.

Photo sur élément autoréglable d'une bouche.

Élément autoréglable maintenant un débit constant malgré la fermeture d’autres bouches.

Ces éléments ont en outre l’avantage de faciliter la mise au point du réseau. Le gain ainsi réalisé en main-d’œuvre compense largement l’investissement.


Propreté des diffuseurs

Malgré les précautions prises pour la filtration de l’air, au bout de plusieurs mois de fonctionnement, il peut se former des traces noires que l’on doit pouvoir nettoyer facilement. De plus, le fonctionnement ne doit pas être compromis si de la poussière se glisse entre les parties mobiles et les parties fixes de l’appareil.

La propreté des diffuseurs est particulièrement importante dans les locaux de soins. Ils doivent donc être de forme aérodynamique pour ne pas présenter d’obstacle pouvant retenir et accumuler les poussières. Leur conception devra aussi faciliter les opérations régulières de nettoyage.

Remarque.

Les plenums de soufflage sont aussi déconseillés car ils rendent le réglage des débits et des pressions plus difficile et peuvent provoquer des refoulements d’air.

Choisir la régulation du chauffage électrique

Radiateur électrique.

Il est possible de modifier et d’optimiser
les paramètres de régulation d’un accumulateur électrique.


La régulation de température ambiante

Chaque local chauffé est pourvu d’un thermostat d’ambiance qui enclenche et déclenche la restitution de chaleur et ce en fonction de la température ambiante.

Un faible différentiel

Un thermostat d’ambiance est caractérisé par son différentiel statique (différence en K ou en °C) entre le point d’enclenchement et le point de déclenchement.
Afin de tendre vers un confort optimal, le choix se portera de préférence sur un thermostat d’ambiance dont le différentiel statique ne dépassera pas :

  • 0,3 K pour un thermostat mural,
  • 0,8 K pour un thermostat incorporé à l’appareil.

Cela entraîne une variation de température dans le local au point le plus défavorable (différentiel dynamique) de 2 K maximum.

Un thermostat à restitution progressive

On discerne deux types de thermostats :

  • les thermostats électromécaniques, à commande « tout ou rien »,
  • les thermostats électroniques, à commande « tout ou rien » ou à commande de restitution progressive, proportionnelle à la différence entre la consigne affichée et la température ambiante mesurée.

Cette dernière solution (qui correspond à une régulation proportionnelle) est à privilégier, toujours pour diminuer la fluctuation de la température intérieure.

Emplacement du thermostat

Dans le cas d’un thermostat d’ambiance incorporé à l’appareil, l’emplacement du thermostat est automatiquement lié à l’emplacement de l’appareil de production de chaleur.

Il y a lieu de noter que dans le cas où la production de chaleur pour un même local se répartit entre plusieurs appareils, les thermostats incorporés seront mis au maximum, et la température ambiante sera gérée par un seul thermostat d’ambiance mural qui commande tous les appareils simultanément ou par le thermostat d’ambiance d’un des appareils dès lors que la commande des autres appareils en est rendue tributaire (maître/esclave).

Dans le cas d’un thermostat d’ambiance mural, il trouvera son emplacement en suivant les règles ci-après :

  • sur un mur intérieur,
  • à une hauteur située entre 1 m 40 et 1 m 50 au-dessus du sol,
  • éloigné de toute source de chaleur et/ou de froid,
  • jamais dans un coin du local afin d’éviter de se retrouver dans une couche d’air statique,
  • hors de la portée des rayons solaires.

A éviter :

Mauvais emplacement du thermostat- 1  Mauvais emplacement du thermostat- 2

  • La sonde ne peut être soumise à l’ensoleillement.
  • La sonde ne peut être influencée par une source de chaleur interne (éclairage, …)

Mauvais emplacement du thermostat- 3Mauvais emplacement du thermostat- 4

  • La sonde ne peut pas être placée sur un mur extérieur.
  • La sonde ne peut être placée contre une cheminée.

Mauvais emplacement du thermostat- 5Mauvais emplacement du thermostat- 6

La sonde ne peut être placée dans un endroit clos, peu influencé par l’air ambiant (dans une niche, derrière une tenture, …)

Raccordement du thermostat

Il y a lieu de suivre pour le raccordement les indications données par le constructeur, tout en observant les recommandations suivantes :

  • Un thermostat mural, dont le câblage est amené au travers d’un tube encastré, peut voir son fonctionnement perturbé par l’effet cheminée qui pourrait se créer dans ce tube. Il est donc recommandé d’obturer l’extrémité du tube (silicone, mastique ou autre).
  • La puissance de coupure d’un thermostat d’ambiance est souvent limitée, afin d’éviter l’auto-échauffement et la perte de précision. Il faut dès lors vérifier les caractéristiques du thermostat vis-à-vis de la puissance à commander. Le cas échéant, la puissance sera commandée au travers d’un relais de puissance qui, lui, est commandé par le thermostat.
  • L’alimentation du thermostat doit être conforme aux prescriptions du constructeur. Certains thermostats nécessitent un raccordement phase et neutre ou deux phases, afin de garantir leur précision.

Choix de la consigne

Afin d’assurer une consommation d’énergie minimale tout en conservant un confort optimal, la consigne du thermostat d’ambiance sera abaissée de 5 K lors d’une non-occupation prolongée du local (pendant plusieurs heures par jour).

Si la non-occupation du local se prolonge pendant plusieurs jours, la consigne du thermostat sera placée sur une valeur entre 10 et 12°C afin d’assurer une protection antigel et d’éviter les phénomènes de condensation.
Cette fonction d’abaissement de température peut être réalisée

  • en manuel : les abaissements de température sont réalisés par l’utilisateur en modifiant la consigne au thermostat.
  • en automatique :
    • au moyen d’horloges (incorporées dans le thermostat ou centralisées dans le coffret de distribution), à programme journalier ou hebdomadaire,
    • au moyen d’éléments de programmation spécifiques,
    • ou au travers de systèmes intelligents émanant de la domotique.

Dans tous les cas, un mode d’emploi complet doit être exigé de l’installateur.

Régulation de la résistance d’appoint

Dans le cas de l’accumulation dynamique, le thermostat d’ambiance commande le ventilateur incorporé dans l’accumulateur.

Si l’accumulateur est équipé d’une résistance d’appoint, celle-ci ne pourra fonctionner qu’avec le ventilateur et pour autant que la charge résiduelle dans le noyau accumulateur soit inférieure à 20 à 30 % (protection incorporée dans l’accumulateur en série avec la résistance d’appoint).

Pour rappel : l’enclenchement de la résistance d’appoint est tributaire d’un interrupteur incorporé au thermostat et est visualisé au moyen d’un témoin.

En application trihoraire, les résistances d’appoint sont interdites.


La régulation de charge

Régulation manuelle ou automatique ?

On ne saurait trop recommander une régulation automatique de la charge en fonction de la température extérieure. Et pourtant, on rencontre couramment des accumulateurs avec réglage manuel à 3 positions. Par simplification, ils sont souvent réglés sur la position la plus élevée, afin de prévenir toute période froide éventuelle du lendemain. En pratique, ils entraînent une décharge statique plus élevée que nécessaire et donc une perte de rendement.

Un dispositif automatique de régulation de charge est obligatoire dans les cas suivants :

  • en tarif exclusif nuit lorsque la puissance totale installée en accumulation est supérieure ou égale à 12 kW,
  • dans tous les cas d’application d’accumulation en tarif trihoraire ou hors-pointes, indépendamment de la puissance installée,
  • dans le cas de l’accumulation par le sol.

Le dispositif automatique de régulation de charge tiendra nécessairement compte :

  • de la température extérieure,
  • du niveau de charge résiduelle dans le noyau accumulateur,
  • du régime horaire et du report de charge vers la fin de la période principale de charge (nuit).

Lorsque la puissance totale est inférieure à 12 kW, le thermostat de charge incorporé à l’accumulateur sera opérationnel en fonction manuelle. Il sera toutefois donné préférence à un dispositif automatique simplifié qui tient compte de la température extérieure et du niveau de charge résiduelle dans le noyau accumulateur.

Eléments constitutifs d’une régulation automatique de charge

En général, une régulation automatique de charge se compose des éléments suivants :

  • une sonde de mesure de la température extérieure,
  • un régulateur central,
  • un interface d’acquisition d’informations de la situation tarifaire,
  • des éléments de commande d’enclenchement de la puissance en fonction de la charge résiduelle du noyau et du niveau autorisé par le régulateur central (thermostat de charge).

Il est à noter que les thermostats de charge sont incorporés aux accumulateurs. S’il s’agit de chauffage par le sol, ils sont localisés dans le coffret de distribution mais disposent d’une sonde de mesure de charge résiduelle incorporée dans la masse accumulatrice.

Emplacement de la sonde extérieure

Emplacement de la sonde extérieure - 1Emplacement de la sonde extérieure - 2

  • S’il n’y a qu’une sonde pour le bâtiment, on la posera sur une façade nord-ouest ou nord-est.
  • Elle sera placée à une hauteur de 2 m à 2 m  0 au-dessus du niveau du sol ou accessible à partir d’une fenêtre.

A éviter :

Mauvais emplacement de la sonde extérieure - 1Mauvais emplacement de la sonde extérieure - 2

  • La sonde ne peut être soumise à l’ensoleillement direct.
  • La sonde ne peut être placée contre une cheminée..

Mauvais emplacement de la sonde extérieure - 3Mauvais emplacement de la sonde extérieure - 4

  • La sonde ne peut être placée au dessus d’une fenêtre.
  • La sonde ne peut être placée au dessus d’une sortie de ventilation.

Remarques.

  • Les caractéristiques de la sonde extérieure doivent être adaptées à celles du régulateur central.
  • Le percement du mur extérieur pour le passage du câblage de la sonde sera rendu étanche.

Le régulateur central

Le régulateur central peut être composé d’un ou de plusieurs modules et est généralement incorporé dans le coffret de distribution. Il y a lieu de se conformer aux prescriptions du constructeur en ce qui concerne le câblage et l’emplacement.

Les courbes caractéristiques de fonctionnement sont déterminées comme suit avec les définitions suivantes :

θext

Température extérieure.

θ1

Température de la zone climatique pour laquelle l’installation est dimensionnée.

θc

Température de confort de la pièce principale.

E1

Pour 100 % de charge requise (- 20°C à + 5°C).

E2

Pour 0 % de charge requise (+ 12°C à + 20°C).

E3

Durée après laquelle la charge optimale devrait être réalisée (4 … 9 h).
SEH Temps d’auto-maintien (= E3 – 1 h).

tF

Durée de la période principale de charge.

tF

E3

SEH

régime excl. nuit

8 h de charge 8 h 7 h 6 h
8 h + 1 h de charge 8 h 7 h 6 h
9 h de charge 9 h 8 h 7 h

régime trihoraire

7 h + 9 h de charge 7 h 6 h 5 h

Remarque.
Si pendant la période délimitée par SEH une interruption de la charge se produit, le régulateur se maintient à la consigne atteinte au début de l’interruption, arrête son cycle de temps, et redémarre dès retour du courant de charge en reprenant au niveau atteint au début de l’interruption.

TU

Durée après laquelle le régulateur passe de la caractéristique nocturne à la caractéristique diurne :

TU = E3 + 2 h en exclusif nuit
TU = E3 + 1 h en hors-pointes

E22 ou E10

Niveau de départ de la caractéristique diurne (0 – 100 %).
Depuis 1995, ce paramètre s’appelle E10.

UMD

Durée du cycle interne du régulateur (normalement 22 h en exclusif nuit et 21 h en hors-pointes).

E4

Temps après lequel la consigne tend vers 0 % de charge.
Depuis 1995, E4 indique le niveau de charge au moment UMD (0 – 100 %), par exemple E4 = 20 %.

E1 S

Choix de la caractéristique diurne :

E1 S = 0 : la charge diurne est autorisée.
E1 S = 1 : la charge diurne est interrompue si la ηext > E1 (par exemple : + 5°C en hors-pointes).

A. Courbe caractéristique en fonctionnement exclusif de nuit (9 h de charge)
Réglages types.

E1

= η1

E2

= C – 2°C

E3

= tF – 1 h = 8 h

SEH

= E3 – 1 h = 7 h (sur certains régulateurs, limité à 6 h)

E4

= 26 h (ou 20 %)

E1 S

= 0

TU

= E3 + 2 h = 10 h

UMD

= 22 h

E22

= E10 = 85 %

Niveau de charge souhaité du noyau - 1

Niveau de charge souhaité du noyau.

Remarque.
Dans le cas où le temps de charge est limité à 8 h, il y a lieu d’adapter certains réglages : E3 = 7 h, SEH = 6 h, TU = 9 h; les autres réglages restant identiques.

B. Courbe caractéristique en fonctionnement trihoraire (7 h + 9 h de charge)

Réglages types :

E1

= C – (ηC – η1) / 2

E2

= C – 2°C

E3

= tF – 1 h = 6 h

SEH

= E3 – 1 h = 5 h

E4

= 30 h (ou 40 %)

E1 S

= 1

TU

= E3 + 1 h = 7 h

UMD

= 21 h

E22

= E10 = 100 %

Situation 1 : ηext > 5°C (les charges de jour sont interdites).

Niveau de charge souhaité du noyau - 2

Niveau de charge souhaité du noyau.

Situation 2 : ηext < 5°C

Niveau de charge souhaité du noyau - 3

Niveau de charge souhaité du noyau.


Information concernant les périodes tarifaires

Le distributeur d’énergie met les contacts nécessaires, libres de potentiel, à disposition :

  • un contact signale la période principale de charge,
  • l’autre sert à l’indication des périodes de pointes.

Il y a lieu de se conformer aux prescriptions du constructeur.


Thermostat de charge

Thermostat de charge thermomécanique

Principe de fonctionnement du thermostat de charge thermomécanique.

Principe de fonctionnement du thermostat de charge thermomécanique.

Le thermostat de charge est incorporé dans chaque accumulateur et veille à ce que le noyau se charge jusqu’à une certaine température. La contenance calorifique du noyau est proportionnelle à la température de celui-ci.

La majorité des thermostats de charge actuellement mis en œuvre sont du type thermomécanique (cf. la représentation ci-dessus). Ils sont actionnés par un signal résultant de la somme des températures du noyau et d’une sonde pilote (charge simulée).

L’élément actif d’un thermostat de charge est un soufflet (5) sensible à la somme des pressions provenant des deux sondes de température et qui enclenche ou déclenche l’alimentation électrique (7) des résistances du noyau (8). La sonde qui représente la charge du noyau (1) est incorporée dans l’isolation du noyau. La sonde pilote (2) est entourée d’une résistance pilote chauffante (3) qui est alimentée par le signal du régulateur de charge.

Le bouton de réglage manuel (6) permet de régler manuellement la charge entre 0 et 100 % dans le cas où l’accumulateur n’est pas piloté par un régulateur de charge. Si l’accumulateur est piloté par un régulateur de charge, le bouton de réglage (6) doit être positionné sur 100 %. Toute modification de cette indexation aura une influence négative sur le niveau de charge demandé par le régulateur.

En présence d’un signal de commande, le thermostat de charge déclenchera à un niveau déterminé de température du noyau. Pour un signal maximal sur la résistance pilote correspond une charge autorisée dans le noyau de 0 %; pour un signal minimal sur la résistance pilote correspond une charge autorisée dans le noyau de 100 %. Tout signal intermédiaire autorise un niveau de charge intermédiaire et proportionnel.

L’accumulateur contient, outre le thermostat de charge, également un thermostat de sécurité (9), afin de limiter la température du noyau à une valeur maximale en cas de défaillance du thermostat de charge.

Le signal pilote provenant du régulateur de charge est habituellement géré dans un mode 80 % ED (signal à modulation par Durée d’Enclenchement (ED)).
Exemple ED = 20 %

Un signal de 2,0 sec (20 % ED) autorise une charge de noyau de 75 %.

Le signal appliqué est basé sur une tension 230 V – 50 Hz. Le signal au sein d’une période de 10 sec est actif pendant maximum 8 s, soit 80 % de la période.
Un signal d’une durée d’enclenchement de 8 sec (80 % ED) simule au niveau de la sonde pilote une charge de 100 % et autorise dès lors une charge de 0 % dans le noyau.
Un signal d’une durée d’enclenchement de 0 sec (0 % ED) simule au niveau de la sonde pilote une charge de 0 % et autorise une charge du noyau de 100 %.

Thermostat de charge électronique

Le principe de fonctionnement est similaire lorsque le thermostat de charge est électronique.
Dans ce cas, la sonde de mesure de la charge du noyau peut être en contact direct avec le noyau (par ex. sonde Pt 100). La sonde pilote disparaît et le signal pilote est pris en compte directement par le comparateur électronique. Ce dispositif électronique permet d’inclure une vérification automatique du bon fonctionnement du régulateur de charge en incluant un signal pilote minimal de 2 %, 0 % ED est signe de défaillance de la régulation de charge. Le comparateur du thermostat de charge pourra dans ce cas avoir un comportement positif c-à-d. absence de signal (0 % ED) provoquant 100 % de charge ou un comportement négatif c-à-d. absence de signal (0 % ED) provoquant le blocage de charge.
Cette dernière solution, la plus récente sur le marché va dans le sens de l’URE et attire immédiatement l’attention de l’utilisateur sur une défaillance du système de régulation.

Régulation de charge pour le chauffage par le sol

Le principe de la régulation pour le chauffage par accumulation par le sol est comparable à la régulation pour les accumulateurs.

Au lieu d’un thermostat de charge incorporé à l’accumulateur, la régulation se compose d’une sonde de chaleur résiduelle incorporée dans la dalle accumulatrice et d’un thermostat ou régulateur de zone connecté directement au régulateur de charge central.

On disposera d’autant d’unités sonde + thermostat correspondant que de zones de température à régler.
Au niveau du régulateur de zone, il est possible d’ajuster la température de la dalle correspondant à 100 % de charge. En général, la température maximum de la dalle sera réglée de 55 à 60°C.

Le régulateur central sera soit un module spécifique pour régulation sol dont le signal de sortie sera en courant continu, soit un régulateur classique pour accumulation combiné à un convertisseur transformant le signal ED en signal DC proportionnel. Afin d’éviter tout dysfonctionnement, on placera dans la zone principale un thermostat de sécurité qui coupera la charge de toutes les zones si la température correspondant à la charge maximale est dépassée.

Les circuits de puissance sont enclenchés/déclenchés par des contacteurs ou relais adéquats qui sont pilotés par les régulateurs de zone.

Ampli de groupe

L’ampli de groupe amplifie le signal ED afin de pouvoir piloter un nombre d’accumulateurs supérieur à celui normalement admis par le régulateur central (voir les spécifications du constructeur).

Il permet aussi d’adapter le signal ED dans une fourchette de – 30 à + 10 %. Cette faculté permet dans le cadre de grands ensembles ou d’immeubles à appartements de corriger le niveau de charge autorisé par le régulateur central pour un groupe d’accumulateurs. On pourra ainsi en installant un ampli de groupe par appartement, corriger le niveau de charge appartement par appartement, afin d’ajuster la régulation à la demande individuelle. Ceci permet de gérer le confort individuel dans chacun des appartements avec un seul régulateur central.

(Source : d’après « Le code de bonne pratique pour la réalisation des installations de chauffage électrique » – Communauté de l’Electricité – CEG).

Chambres d’hospitalisation

Chambres d'hospitalisation


Zones à risque de contamination faible

Dans les zones à risques 1 (voir norme NF S90-351) , c’est-à-dire concrètement sans risque d’aérobiocontamination (chambre sans risque d’infection, certaines consultations, radiologie, hémodyalise, ergothérapie, locaux administratifs, pharmacie, …), la ventilation se traite sans exigence particulière en terme de filtration et de pression.

Dans ces zones on fait en général appel uniquement à un apport d’air neuf hygiénique. Si après avoir étudié la possibilité de réduire les apports internes et externes la climatisation s’avère vraiment nécessaire, on fera appel à d’autres systèmes de climatisation que la climatisation « tout air ».

Cependant, une restriction par rapport à la climatisation des zones hospitalières dites classiques est à souligner : au coup par coup l’aspect hygiène par rapport au patient sera pris en compte.

La bonne question à se poser est la suivante :

« N’est-il pas prévu, maintenant ou à terme, d’avoir dans cette zone des patients à risque ? »


Analyse de la demande

La spécificité des chambres d’hôpital apparaît comme suit :

  • un découpage en nombreux locaux indépendants mais au profil d’occupation assez constant,
  • une demande très variable entre les locaux, suite à une localisation sur des façades différentes,
  • le souhait de l’occupant de pouvoir intervenir sur la consigne intérieure,
  • le souci de limiter la consommation d’une chambre non occupée.

Et les exigences acoustiques sont particulièrement sévères. La norme européenne EN 13779: 2004 propose trois niveaux de confort acoustique à respecter dans les locaux (minimum – par défaut- minimum) :

Type de bâtiment

Type de local

dB(A)
 

 

Hôpitaux couloir 35/40/45
 

 

salle d’opération 35/40/48
 

 

salle commune 25/30/35
 

 

chambre d’hôtel (nuit) 20/30/35
 

 

chambre d’hôtel (jour) 25/35/40

Évaluer

Pour en savoir plus sur l’ évaluation du niveau de bruit, cliquez ici !


Choix du système de conditionnement d’air

Remarque préliminaire
Il serait prétentieux de prétendre énoncer en quelques lignes tous les critères constituant la démarche conceptuelle qui conduit au choix d’un système de climatisation dans les zones à risque de contamination faible.

La solution résulte en effet de la concertation étroite entre le Maître de l’Ouvrage (décideur, techniciens, hygiéniste, …), l’Architecte, l’Ingénieur de bureau d’études et tous les partenaires qui forment l’équipe de projet. Cette concertation se situe à la fin de la phase d’avant-projet de l’étude du bâtiment et résulte du meilleur compromis entre critères parfois contradictoires :

  • hygiène hospitalière,
  • coût d’investissement et d’exploitation,
  • optimalisation de l’usage des surfaces,
  • mobilité aux variations de programme,
  • esthétique externe et interne (le bâtiment doit être beau à voir et à vivre !),
  • confort au sens large (climatique, acoustique, visuel,…),
  • etc…

À noter qu’au plus tôt se constitue cette équipe de projet, plus l’ensemble des contraintes sera pris en considération à temps.

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux habituels et l’ébauche de solutions classiques mais nullement « passe-partout ».

1° Choix d’un système « tout air »

Un système « tout air » paraît exclu :

  • peu de souplesse d’exploitation s’il est à débit constant,
  • consommation élevée du transport de l’air,
  • impossibilité de recycler l’air venant des chambres, et donc consommation élevée du fonctionnement en tout air neuf,

En fait, le besoin en air neuf des chambres est faible si on le rapporte aux m² utilisés. Un système où l’air serait le vecteur des apports de chaleur et de froid ne semble donc pas se justifier ici.

Si ce système est malgré tout retenu (avec une batterie terminale de réchauffage pour chaque chambre), il est essentiel de prévoir une batterie de récupération de chaleur entre l’air extrait et l’air pulsé, au risque d’alourdir encore le coût d’investissement puisque les conduits d’extraction devront au minimum être raccordés entre eux pour placer le récupérateur dans le tronçon commun.

2° choix d’une solution par ventilo-convecteurs

Photo ventilo-convecteur. Les avis sont très partagés quant à l’utilisation de ventilo-convecteur. En effet, les hygiénistes demeurent très prudents par rapport à la formation de légionelles au niveau de la batterie froide et d’algues au niveau du bac de récupération des condensats.

La solution classiquement adoptée est d’installer deux boucles d’eau (eau chaude et eau glacée) entre tous les locaux, avec comme unité terminale un ventilo-convecteur dans chaque chambre.

On rencontre le ventilo soit monté en allège de fenêtre, soit placé en soffite (généralement au-dessus du petit couloir qui longe la salle de bain : l’air est repris dans le ventilo qui le souffle dans la chambre).

Schéma principe ventilo-convection.

Les avantages du ventilo-convecteur sont nombreux :

  • Une autonomie de fonctionnement local par local, tant en ce qui concerne la mise en service que le réglage individuel de la température.
  • Une rapidité de remise en température du local grâce au transfert thermique par convection.
  • Un fonctionnement thermique en recyclage local, qui permet d’éviter la pollution (la contamination dans le cas d’un hôpital) d’une chambre à l’autre.
  • La liberté pour chaque occupant de démarrer ou d’arrêter l’unité de sa chambre à sa guise et de choisir la vitesse du ventilateur qui lui convient.
  • Un prix d’investissement limité grâce à un équipement fabriqué en grande série.
  • A taux d’occupation réduit, la gérance de l’hôpital a la possibilité d’arrêter les unités correspondant aux chambres non occupées, moyennant le report des commandes à la réception (GTC). Elle peut décider de préchauffer ou de prérefroidir la chambre avant l’arrivée de l’occupant sur base d’un lien automatique avec le fichier de réservation (mais c’est futuriste).

Comme inconvénient au système, on peut noter la nécessité de maintenir une bonne partie de l’année les deux boucles de distribution d’eau chaude et froide en circulation dans le bâtiment. Il ne faut absolument pas négliger l’importance des pertes permanentes liées à ces deux réseaux et soigner tout spécialement à l’isolation efficace des tuyauteries.

Egalement, la solution par ventilo-convecteur ne permet pas de traiter l’humidité de l’air qui peut devenir fort sec en hiver. Il est possible d’insérer des petits atomiseurs d’eau à ultrasons dans les ventilos, mais cette solution est relativement coûteuse. On peut également apporter l’humidité nécessaire par un humidificateur inséré dans le réseau d’air de ventilation, pour autant que celui-ci soit préchauffé.

 3° Choix d’un système à plafond rafraîchissant

Photo panneaux rayonnants froids. La climatisation par panneaux rayonnants froids ne paraît pas opportune dans le conditionnement d’air des chambres. En effet, la présence d’humidité suite à la salle de bain attenante risque d’entraîner de la condensation sur le plafond, même si le système est régulé pour stopper la circulation d’eau froide à ce moment.

De plus, ce système n’apporte qu’une solution pour le refroidissement et devrait être complété par un réseau de radiateur pour apporter la chaleur en hiver. Le placement d’un faux plafond n’est pas justifié pour un autre usage (éclairage, câblage,…).

Même en rénovation, il semble coûteux de placer un tel réseau alors que seuls les apports solaires sont à vaincre de façon épisodique.

Les poutres froides ne sont pas non plus adéquates car elles entraîneraient un grand inconfort dans des locaux de faible hauteur. De plus, elles suscitent une interrogation par rapport à l’hygiène des ailettes.

4° Choix d’un système à débit de fluide réfrigérant variable

Une installation à fluide réfrigérant variable (VRV, VRF, … selon les marques) peut également être d’application pour une structure hospitalière. Elle dispose des mêmes avantages que la solution par ventilo-convecteur : souplesse nécessaire, possibilité de gestion centralisée tout en fournissant à chaque occupant une télécommande pour actionner la cassette, …

Deux avantages spécifiques apparaissent par rapport à la solution classique des ventilos :

  • L’absence de boucles d’eau chaude et froide parcourant tout le bâtiment.
  • La possibilité en mi-saison de récupérer la chaleur excédentaire d’une façade (par exemple à l’Est) pour réchauffer la façade encore en demande (par exemple à l’Ouest) ou de récupérer la chaleur extraite de locaux techniques intérieurs pour réchauffer les chambres périphériques en demande.

Si le bâtiment présente simultanément des besoins de chaleur et des besoins de refroidissement durant une bonne partie de l’année, ce système paraît le plus avantageux. Mais encore faut-il s’assurer qu’au sein d’une même zone gérée par le même réseau, de l’énergie soit transférable. Ainsi, il semble difficile d’alimenter les chambres du 4ème étage par la chaleur dégagée par les locaux de réunion du rez-de-chaussée. Il faudrait que les réseaux soient dans ce cas verticaux, ce qui doit poser de nombreux problèmes pratiques.

Un point faible réside probablement dans le chauffage « par pompe à chaleur » en plein hiver. Quel est à ce moment le COP de l’installation ? Le compresseur fonctionnant de jour, le prix de revient du kWh électrique est environ 3 x plus élevé que le kWh issu d’une chaudière au gaz traditionnelle, par exemple. Il faut donc que le COP global dépasse 3 pour y trouver avantage.

Le taux d’humidité en hiver n’est pas non plus contrôlé avec ce système.

Nous n’avons pas pu, jusqu’ici, obtenir de données permettant d’évaluer la performance effective de l’échange entre locaux et le COP moyen annuel d’un tel système, ni le lire dans un rapport d’un organisme indépendant.


Quelques critères en détail

Voici les principaux critères à prendre en compte :

Le coût d’investissement

Si le prix moyen d’une installation avoisine les 125 €/m² (contre 40 €/m² pour une simple installation de chauffage), l’échelle des prix en fonction du type d’équipement et du niveau de régulation qui lui est associé peut être évalué comme suit :

Installations  « détente directe »

Investissement
€/m²

Window 75 – 95
Split system 100 – 200
Débit réfrigérant variable* 150 – 300

Installations « sur boucle d’eau »

Investissement
€/m²

Ventilo – 2 tubes 110 – 140
Ventilo – 2 tubes/2 fils 115 – 155
Ventilo – 4 tubes 125 – 190
Pompe à chaleur sur boucle 100 – 215

Le coût d’exploitation énergétique

Le coût d’exploitation est directement fonction des charges à vaincre : un immeuble fort vitré et avec des apports internes élevés (ce qui est le cas des hôpitaux) consommera beaucoup plus que son équivalent équipé de protections solaires extérieures, par exemple … C’est donc d’abord le bâtiment qui crée la consommation !

On peut cependant établir une échelle entre les systèmes suivant leur performance énergétique :

Installations  « détente directe »

Coût énergie

Window

élevé

Split system moyen
Débit réfrigérant variable faible

Installations « sur boucle d’eau »

 

 

Coût énergie

Ventilo – 2 tubes moyen
Ventilo – 2 tubes/2 fils moyen à élevé
Ventilo – 4 tubes moyen
Pompe à chaleur sur boucle faible à élevé

Quels sont les critères qui permettent de distinguer une installation à faible consommation énergétique ?

  • Une installation ne devrait jamais consommer du chaud et du froid simultanément, pour éviter de détruire l’énergie; en aucun cas, on ne doit pas concevoir une installation dont la régulation fonctionnerait par mélange.
  • Lorsque le bâtiment requiert du chaud et du froid simultanément (un grand local informatique refroidi en hiver, des plateaux très étendus et fort équipés dont il faut en permanence refroidir la partie centrale, …), on aura intérêt à concevoir une installation qui peut récupérer la chaleur extraite de ces locaux pour la restituer dans les locaux en demande de chaleur (chambres en périphérie). Les installations à débit de réfrigérant variable et les pompes à chaleur sur boucle d’eau sont performantes à ce niveau. Dans les installations plus classiques (ventilos), une récupération de chaleur au condenseur des groupes frigorifiques est également possible et moins contraignante.
  • Les résistances chauffantes électriques prévues dans les installations peuvent entraîner des dépenses importantes vu le coût du kWh électrique par rapport au kWh thermique. On sera attentif à ne sélectionner une installation de ventilos 2 tubes/2 fils que dans un bâtiment très isolé (besoins de chaleur très limités suite aux apports gratuits).

Calculs

Un petit outil de simulation permet de visualiser globalement l’impact du choix du vecteur énergétique de chauffage sur un local type (même si les hypothèses sont celles d’un bureau, avec des apports internes élevés).
  • Enfin, quelle que soit l’installation, la qualité de la régulation est déterminante : c’est un budget à ne pas raboter ! on pense tout particulièrement au ventilo-convecteur qui est le pire ou le meilleur des équipements, … selon la régulation qui lui est associée !

Le coût de maintenance

Les prix donnés à titre indicatif ci-dessous correspondent à un contrat annuel de maintenance sur devis (les prix les plus bas correspondent aux surfaces traitées les plus grandes). Normalement, il faudrait leur ajouter le prix du renouvellement périodique des équipements défectueux. Ainsi, les installations en « détente directe » sont généralement plus fragiles, ce qui implique un remplacement plus fréquent des composants.

Installations « détente directe »

€/m²
Window très faible
Split system 3 – 7,5
Débit réfrigérant variable

Installations « sur boucle d’eau »

€/m²

Ventilo – 2 tubes 3 – 5
Ventilo – 2 tubes/2 fils 3 – 5
Ventilo – 4 tubes 3 – 5
Pompe à chaleur sur boucle 4,75 – 6,25

Le confort thermique

Installations  « détente directe »

Confort thermique
Window faible
Split system faible
Débit réfrigérant variable bon

Installations « sur boucle d’eau »

Confort thermique
Ventilo – 2 tubes moyen
Ventilo – 2 tubes/2 fils moyen
Ventilo – 4 tubes bon
Pompe à chaleur sur boucle moyen

Le confort acoustique

Quel que soit le système de climatisation choisi, le critère de performance acoustique sera déterminant, et cela tant à l’intérieur qu’à l’extérieur :

  • Les ventilos ou cassettes seront choisis en fonction de leur qualité acoustique et de manière à pouvoir dissiper la puissance requise à moyenne vitesse. Idéalement, pour réduire encore le niveau sonore, on installera le module de traitement d’air en dehors du local (dans un faux plafond, dans un placard technique, …) et l’air traité sera conduit vers le local par une gaine, ce qui permet un affaiblissement acoustique optimal.
  • Le placement des unités extérieures sera bien étudié pour éviter la propagation du bruit vers les chambres (placement en toiture ? placement à l’écart du bâtiment ? …).

Remarque : on rencontre parfois le placement du groupe frigorifique en sous-sol, dans un local technique insonorisé. L’objectif de réduction du niveau acoustique est atteint. Mais la consommation du compresseur risque d’augmenter si le condenseur n’est pas correctement refroidi…! De toute façon, c’est l’air extérieur qui est le refroidisseur final. Aussi, le traitement en sous-sol va entraîner un refroidissement par de l’eau (sélection d’une machine frigorifique équipée d’un condenseur à eau), cette eau étant elle-même refroidie ultérieurement dans une tour de refroidissement en toiture.

Installations  « détente directe »

Confort acoustique
Window faible
Split system bon
Débit réfrigérant variable bon

Installations « sur boucle d’eau »

Confort acoustique
Ventilo – 2 tubes bon
Ventilo – 2 tubes/2 fils bon
Ventilo –  4 tubes bon
Pompe à chaleur sur boucle faible

La centralisation des équipements

Si la surface des locaux à climatiser est limitée (rénovation de quelques locaux,par exemple), un système à « détente directe » (voire plusieurs équipements décentralisés) sera suffisant et nettement moins coûteux.

Si une installation centralisée bénéficie de l’effet de taille en terme de prix d’investissement, il n’y a peu d’effet majeur à l’exploitation (efficacité frigorifique meilleure pour les grosses puissances mais pertes en ligne et pertes en régulation plus élevées…).

L’encombrement

Les ventilo-convecteurs seront souvent insérés dans le faux plafond face à la salle de bain, afin de ne pas occuper de place au sol.


Choix de la ventilation associée

Que l’on choisisse une solution décentralisée ou que l’on choisisse des ventilo-convecteurs, un apport d’air neuf doit être envisagé.

Ce dernier, imposé par la réglementation wallonne pour garantir une qualité de l’air suffisante, est dès lors fourni par une installation en simple ou double flux.

Ventilation 

Pour définir la configuration à adopter le choix du système d’apport d’air neuf.

Ventilation 

Pour choisir le mode de gestion (régulation du système).

Remarquons que dans les immeubles nouveaux (et donc isolés), l’apport d’air neuf devient une part essentielle dans la consommation énergétique (tant en chaud qu’en froid) en regard des déperditions.

Puisque de toute façon une extraction doit être prévue dans les sanitaires, la question devient : apport d’air par des grilles de ventilation dans les châssis, ou apport par une gaine de distribution d’air (qui permet le préchauffage de l’air) ?

La ventilation double flux est le seul moyen de contrôler au plus juste les apports d’air et donc de contrôler cette consommation.

La ventilation simple flux, quant à elle, reste en partie influencée par les conditions atmosphériques.

En quelque sorte, c’est le standing souhaité qui tranchera.


Choix du mode de régulation

La régulation locale

Il est très difficile de contenter tous les patients sachant qu’en terme de confort chacun est un cas particulier. La configuration locale est donc conseillée d’autant plus que l’on pourra par détection de présence gérer le profil d’occupation de chaque local et, par conséquent, réduire les consommations.

Schéma principe de régulation locale.

Exemple de régulation de plafond froid.

Les avancées technologiques actuelles permettent de disposer d’automates adaptés à la régulation HVAC avec une modularité, une puissance et intégration en « mode bus » impressionnante. Pour cette raison, les sondes peuvent être locales et reliées, via un bus à un automate de zone assurant les commandes et les régulations individuelles.

Photo automate.

La régulation et supervision centrale

Vu les possibilités actuelles de programmation du traitement des chambres en fonction de la réservation, la mise en place d’une GTC, Gestion Technique Centralisée, semble aujourd’hui requise pour un bâtiment hospitalier.

Concevoir la fenêtre dans le versant isolé

Concevoir la fenêtre dans le versant isolé


Exemples

Fenêtre dans toiture isolée entre chevrons ou fermettes

Schéma fenêtre dans toiture isolée entre chevrons ou fermettes.   Schéma fenêtre dans toiture isolée entre chevrons ou fermettes.

  1. Contre latte.
  2. latte.
  3. Tuiles.
  4. Solin au-dessus des tuiles à la base du châssis.
  5. Raccord de la sous-toiture au châssis.
  6. Partie mobile de la fenêtre.
  7. Vitrage isolant.
  8. Étanchéité en plomb ou chéneau encastré.
  9. Raccord sous-toiture châssis.
  10. Chéneau en amont de la fenêtre.
  11. Isolation thermique.
  12. Etanchéité à l’air et à la vapeur.
  13. Volige de pied.
  14. Partie fixe de la fenêtre.
  15. Sous-toiture.
  16. Chevron.
  17. Finition intérieure devant espace technique.
  18. Cadre isolant.

Fenêtre dans toiture« Sarking »

Schéma fenêtre dans toiture"Sarking". 

  1. Chevron ou fermette.
  2. Panneau isolant.
  3. Isolation entre chevrons.
  4. Raccord de la sous-toiture au châssis.
  5. Contre latte.
  6. Latte.
  7. Latte d’arrêt.
  8. Joint de mastic souple.
  9. Volige de pied.
  10. Couverture.
  11. Support de finition.
  12. Isolation de remplissage.
  13. Ouvrant.
  14. Dormant.
  15. Bavette.
  16. Chéneau en amont de la fenêtre.
  17. Couloir métallique d’étanchéité.
  18. Finition intérieure.
  19. Cadre isolant.

Continuité de la fonction « couverture »

Raccord amont

Le raccord entre le châssis et la toiture est réalisé par une tôle pliée formant chéneau. Celle-ci est fournie avec le châssis. La tôle est supportée, par une volige de l’épaisseur des lattes, d’une part; elle est fixée au châssis d’autre part.
L’étanchéité entre la tôle et la toiture est assurée par la pente, celle entre la tôle et le châssis, par un raccord avec le capot de recouvrement de la traverse supérieure du dormant de la fenêtre. La tôle est parfois munie d’un joint souple d’étanchéité qui sera comprimé par les éléments de couverture.

Les eaux récupérées par le chéneau sont renvoyées latéralement vers les côtés du châssis.

Raccords latéraux

Ces raccords se font également par des tôles pliées, soit continues sur toute la hauteur du châssis, soit en plusieurs pièces. Elles sont supportées d’une part par les lattes, d’autre part par le châssis. La tôle est parfois munie d’un joint souple d’étanchéité qui sera comprimé par les éléments de couverture. L’étanchéité entre la tôle et le châssis est assurée par le capot de recouvrement des montants latéraux du dormant de la fenêtre.

Raccord aval

Le raccord se fait au moyen d’une tôle pliée (éléments de couverture plats) ou d’une bavette en plomb éléments de couverture ondulés) posées sur les éléments de couverture et épousant parfaitement leur forme. L’étanchéité entre la tôle ou la bavette et le châssis est assurée par le capot de recouvrement de la traverse inférieure du dormant de la fenêtre.


Continuité de la fonction « sous-toiture »

Cas d’une toiture avec sous-toiture

Une toiture isolée entre les chevrons ou fermettes est par exemple une toiture avec sous-toiture.

En partie supérieure, l’étanchéité entre la sous-toiture et le châssis est réalisée par une tôle pliée ou une membrane souple. Elle est placée sous la sous-toiture au-dessus du chevron, d’une part et contre le châssis (sous le raccord assurant la continuité de la fonction « couverture ») d’autre part.

Sur les côtés du châssis, le même principe est appliqué à la différence que la pièce de raccord est posée au-dessus de la sous-toiture.

A la base du châssis, aucun raccord n’est nécessaire sauf en cas de faible pente.

Cas d’une toiture sans sous-toiture

Une toiture « Sarking » est par exemple une toiture sans sous-toiture.

Une membrane souple est posée :

  • d’une part, sur le panneau isolant,
  • et d’autre part, sur tout le pourtour du dormant (sous le raccord assurant la continuité de la fonction « couverture »)

Cette membrane assure également l’étanchéité à l’air.

Au raccord amont, l’étanchéité est renforcée par une latte d’arrêt avec joint en mastic souple, fixée sur le panneau isolant. La latte légèrement en pente doit déborder latéralement du châssis pour évacuer les eaux de ruissellement.


Continuité de la fonction « isolation »

L’isolation doit être posée correctement jusque contre le châssis. Il ne peut pas y avoir de vide entre le châssis en bois et le matériau d’isolation. Pour y arriver, une isolation de remplissage est parfois nécessaire.


Continuité de la fonction « pare-vapeur » et « finition intérieure »

Le pare-vapeur éventuel doit être raccordé de manière étanche contre le châssis. Il en va de même de la finition intérieure de manière à supprimer tout risque de courant d’air à travers la toiture.

Choisir la gestion de l’humidité

Choix du contrôle de l’humidité

1. Critère de choix

L’impacte de la consigne d’humidité sur la consommation des équipements de climatisation n’est pas négligeable. Le choix de fixer cette consigne est lié essentiellement au type d’activité prévu dans la zone considérée. Certaines activités, notamment en chirurgie, nécessitent de travailler à humidité constante.

Si les utilisateurs ne précisent pas la consigne d’humidité à appliquer, il est intéressant de laisser varier cette valeur dans une plage donnée. La norme NF S90-351 recommande une plage de variation de l’humidité entre 45 et 65 %. Énergétiquement parlant, on peut entrevoir la possibilité de réaliser des économies sur l’humidification et la déshumidification d’une part, le chauffage et le refroidissement d’autre part.

Le choix de la plage de 45-65 % n’est pas un hasard :

  • 45 % constitue la limite basse d’humidité relative où il est nécessaire d’humidifier la zone afin de réduire le risque d’explosion lié à la libération éventuelle de gaz lors de l’utilisation du bistouri en chirurgie abdominale par exemple;

 

  • 65 % constitue la limite haute d’humidité relative où il est nécessaire de déshumidifier la zone afin de réduire le risque de développement de germes pathogènes.

Évaluer

Pour en savoir plus sur l’évaluation des paramètres de confort.

2. Orientations

La consigne d’humidité ambiante est fixe

Vu les débits mis en jeu, ce choix conduit à une débauche de consommation des équipements de traitement de l’air :

  • En période chaude, il est nécessaire de refroidir et déshumidifier plus que nécessaire avec dans la plupart des cas le besoin de post-chauffer; Il y a donc destruction de l’énergie.

 

  • En période froide, il est nécessaire d’humidifier plus.

Le diagramme de l’air humide suivant met en évidence la classification des points-heures représentatifs d’une année climatique type. En d’autres termes chaque point (en moyenne 8 760 points sur un an) représente une heure pendant laquelle la température et l’humidité sont relevées et figées.

Points-heures d’une année climatique type à Uccle..

La densité et la surface qu’occupent les nuages de points de couleurs différentes traduisent l’importance des périodes pendant lesquelles il est nécessaire de traiter l’air extérieur pour l’amener aux conditions d’ambiance de la zone à risque de contamination élevé.

On voit tout de suite qu’il y a beaucoup de périodes où :

  • il faut chauffer et humidifier,
  • il faut déshumidifier et post-chauffer.

Évaluer

Pour en savoir plus sur le contrôle théorique de l’humidité d’une salle d’opération en « tout air neuf ».

La consigne d’humidité est variable dans une fourchette prédéfinie

Points-heures d’une année climatique type à Uccle.

Dans le graphe ci-dessus, on voit tout de suite que les périodes où il faut :

  • chauffer et humidifier sont réduites,
  • déshumidifier et post-chauffer sont moins importantes.

Évaluer

Pour en savoir plus sur le contrôle théorique de l’humidité d’une salle d’opération en « tout air neuf ».

3. Choix

Le choix énergétique s’orientera naturellement vers la solution où l’on peut éviter au maximum le contrôle de l’humidité autour d’une valeur fixe. Les résultats suivants en attestent.

Les graphiques ci-dessous représentent la consommation théorique des équipements de l’installation de climatisation d’une salle d’opération classique au cours d’une année type et en période d’occupation.

Consommation des équipements de l’installation de climatisation.

Consommation de l’installation de climatisation par type d’énergie.

Sur base du bilan présenté à travers les graphiques ci-dessus, on constate que le choix de la gestion de l’humidité ambiante variable dans une plage admissible par les occupants, et en accord avec les normes de confort et d’hygiène, s’impose (économie de 30 à 40 % en tout air neuf).

L’exercice est le même pour les zones à risque contrôlé élevé à recyclage.

Ici le bilan peut être encore plus probant: pour les mêmes conditions, c’est-à-dire passer d’une consigne fixe à 50 % d’humidité relative ambiante à une fourchette de variation de 40 à 70 % (selon le RGPT), entraîne une diminution de la consommation de l’ordre de 60 % sachant cependant, que dans l’absolu, les quantités d’énergie mises en jeu sont beaucoup plus faibles.

Dans une configuration de terrain, il est nécessaire de laisser le choix au chirurgien de pouvoir programmer sa consigne d’humidité fixe si cela s’impose mais avec l’option par défaut de la création prédéfinie d’une plage de variation admissible de l’humidité.


Choix de la régulation associée

On peut sans grand problème réguler l’humidité ambiante par un jeu de sondes d’humidité :

  • à la sortie de la centrale de climatisation,
  • et dans la reprise.

En humidification

En fonction de l’écart entre l’humidité relative mesurée sur l’air extrait et la valeur de consigne réglable sur le régulateur, il y a action sur l’humidificateur. Un limiteur maximal d’humidité relative de l’air soufflé limite, par exemple, le débit de vapeur pulvérisé. Une sonde de sécurité (en option) commande directement l’arrêt de l’humidificateur.

D’autres types de régulation moins onéreuse au niveau de l’investissement existent. Néanmoins, si elles sont mal réglées, elles génèrent une surconsommation non négligeable :

Techniques

Pour en savoir plus sur la régulation d’un humidificateur par point de rosée.

En déshumidification

C’est le même régulateur qui agit en cascade sur la batterie froide, pour la déshumidification.

Les régulateurs sont actuellement :

  • soit des régulateurs classiques préprogrammés,

 

  • soit des automates programmables adaptés à la gestion HVAC des bâtiments. On les choisira en s’assurant de la possibilité de programmer des plages d’humidité d’ambiance, sachant qu’en général les régulateurs classiques n’intègrent qu’une consigne fixe de 50 % HR avec une précision de + ou moins x % par exemple.
Exemple.

 Soit une consigne d’humidification fixe de HR 50 % à + 10 % :

  • La limite haute à laquelle le régulateur réagit pour donner l’ordre de déshumidifier est de HR = 60 %. À partir de ce moment, la batterie froide fonctionne jusqu’au moment où l’humidité ambiante est revenue à une valeur de 50 %,

 

  • la limite basse est de 40 %. C’est à ce moment que le régulateur commande l’humidificateur pour ramener la valeur de l’humidité ambiante à 50 %.

On se rend compte que l’énergie mise en jeu est importante pour ramener l’humidité ambiante à sa valeur de consigne.

>  Soit une consigne d’humidification variable entre 40 % et 60 %

Ce mode de régulation est énergétiquement intéressant !

Le régulateur peut être :

  • Centralisé dans le local technique à côté de la centrale de climatisation. Il peut aussi être programmé en local ou à distance, via un bus de communication, à partir d’une GTC (gestion technique centralisée). La commande à distance à partir de la zone à climatiser est souvent une option.

 

  • Local avec intégration de la sonde d’humidité. Cette configuration peut permettre aux utilisateurs de la commande de la consigne d’humidité.

Techniques

Pour en savoir plus sur la régulation de la déshumidification.

La limite haute de l’humidité

Dans le cas d’un humidificateur à vapeur, il y a toujours un risque de souffler du brouillard : saturation de l’air en eau. Une détérioration rapide des conduites s’en suivrait. Il est donc impératif de placer une limite haute d’humidité dans le conduit de pulsion.


Choix des composants associés

1. L’humidificateur

Le choix de l’humidificateur en zone à risque de contamination élevé est délicat. En général, les concepteurs préfèrent jouer la carte de la sécurité, à savoir l’humidificateur à vapeur. Ce choix, en effet, est prudent puisqu’il élimine pratiquement tous les problèmes de contamination.

Mis à part le critère d’hygiène, en conception énergétique plus la plage de régulation de l’humidité est grande, plus le dimensionnement de l’humidificateur sera faible !

Il est important quand même de mentionner les autres types d’humidificateur età chacun de se faire sa propre opinion.

Techniques

Pour en savoir plus sur :

2. La batterie de déshumidification

La batterie froide remplit les deux fonctions, à savoir :

  • le refroidissement de l’air,
  • et sa déshumidification.

En conception énergétique, le choix de la batterie de déshumidification sera influencé entre autres par la nécessité de déshumidifier jusqu’à une valeur d’humidité de consigne fixe.

3. Les sondes d’humidité

Dans la conception moderne des zones à risque de contamination élevé, le contrôle de l’humidité pose moins de problèmes qu’auparavant. En effet, les sondes d’humidité ou hygromètres actuels sont devenus fiables et permettent, associées à des automates, de réguler de manière optimum l’humidité de l’ambiance.

Dans la conception énergétique, il est intéressant soit de combiner dans l’algorithme de régulation les données enregistrées par des sondes d’humidité et de température ou soit de carrément considérer les sondes enthalpiques.

4. Les régulateurs

Dans les projets modernes, les régulateurs sont des automates programmables reliés entre eux et, éventuellement, à un superviseur (GTC) par un bus de communication. À l’heure actuelle, il est rare de voir des conceptions où les régulateurs sont pneumatiques. En effet, les coûts d’investissement (centrale de production d’air comprimé), d’exploitation (système de régulation à fuite contrôlée) sont importants et la précision ne vaut pas celle d’une installation électronique.

Choisir le préchauffage de l’air neuf


Batterie à eau chaude ou résistance électrique ?

Une batterie à eau chaude est constituée d’un échangeur alimenté en eau chaude au départ d’une chaudière. La régulation se fait en agissant soit sur le débit d’eau (vanne deux voies, vanne trois voies en division), soit sur la température de l’eau (vanne trois voies en mélange) au départ d’une sonde placée dans la gaine de soufflage. La deuxième solution demande une pompe supplémentaire mais rend le réglage plus facile car la variation de puissance de la batterie est pratiquement proportionnelle à la température, tandis que dans le premier cas, la puissance échangée varie peu avec le débit lorsque celui-ci est proche du débit nominal et varie rapidement pour les faibles débits. Il faut en outre prévoir une sécurité antigel de la batterie forçant l’ouverture de la vanne, arrêtant la ventilation, fermant le clapet d’air neuf et enclenchant une alarme en fonction d’un thermostat situé après la batterie (alarme si la température de l’air pulsé chute sous 5°C).

Trois modes de régulation d’une batterie de préchauffe à eau chaude.

La solution de la résistance électrique est la plus simple, donc la moins chère à l’investissement. Par contre, elle conduit à un surcoût parfois important à l’exploitation.

Batteries électriques terminales.

Comparons le coût du préchauffage de l’air neuf avec une batterie à eau chaude et une résistance électrique pour un immeuble de bureaux de 50 personnes :

Type de préchauffage Batterie à eau chaude Résistance électrique
Débit d’air neuf. 1 500 [m³/h]
Durée de fonctionnement annuelle. 2 600 [h/an]
Température de soufflage. 16 [°C]
Consommation pour le préchauffage de l’air. 9 460 [kWh/an]
(rendement du système : 70 %).
6 620 [kWh/an]
(rendement du système : 100 %).
Coût du préchauffage. 588,4 [€/an]
(à 0,622 €/litre de fuel).
1059,2 [€/an]
(à 0,16 €/kWh).

Avec un gain de 500 €/an, le surcoût de la batterie à eau chaude raccordée à la chaudière existante peut rapidement être rentabilisé.

Calculs

Pour adapter ces valeurs à votre propre situation, cliquez ici !
Remarque : utilisation d’une pompe à chaleur réversible ?

Une alternative à l’utilisation d’une batterie électrique consiste à placer un échangeur en détente directe : pompe à chaleur en hiver et machine frigorifique en été. Le fonctionnement d’une pompe à chaleur est certainement plus performant que celui d’une résistance directe. Et en période de forte chaleur, un air prérefroidi peut être distribué dans les locaux. Mais :

  • Un tel système ne se conçoit qu’au sein d’un caisson de préparation d’air centralisé,
  • une température de pulsion commune à l’ensemble des locaux devra être trouvée,
  • le risque est alors grand de « casser » de l’énergie (en mi-saison, réchauffer l’air neuf à 22°C et … refroidir le local où cet air est pulsé !),
  • idéalement, il faudrait pulser de l’air à 16°C en hiver et refroidir l’air uniquement lorsque la température extérieure dépasse 24°C. Ce n’est que dans ce cas que l’air frais extérieur pourra être valorisé (free cooling).

Ce qu’il ne faut jamais faire : régler la température de l’air pulsé à une température « neutre » de 20°C …


Récupération passive de la chaleur

Il est possible de préchauffer l’air neuf hygiénique par récupération de chaleur :

  • Sur une zone tampon du bâtiment. Par exemple, une prise d’air placée dans un atrium captera de l’air déjà préchauffé par le bâtiment et/ou le soleil.
  • Sur un puits canadien dans le sol pour capter l’énergie géothermique. Un chauffage de 5 à 10 degrés est possible en hiver, mais également, un refroidissement de 5 à 10 degrés est possible en été !

Récupérateur de chaleur

Une partie du préchauffage de l’air extérieur peut être repris par un récupérateur de chaleur entre l’air extrait et l’air pulsé (échangeur à plaques, rotatif, à eau glycolée, …). Par exemple, si la température intérieure est de 20°C et que la température extérieure est de 0°C, un récupérateur de chaleur peut amener la température de l’air neuf aux environs des 10°C.

En milieu hospitalier, pour une question d’hygiène et de contamination croisée, on évitera l’échangeur de chaleur où les airs extraits et d’admission empruntent le même gainage (échangeur à accumulation croisée par exemple).

La récupération de chaleur sur l’air extrait est une solution énergétiquement très intéressante. Elle permet de récupérer de 50 à 95 % (en fonction du type du récupérateur choisi) de l’énergie rejetée par l’extraction d’air.

Dans une installation existante, étant donné les coûts élevés d’achat et de placement d’un récupérateur, l’augmentation de la consommation des ventilateurs avec les pertes de charge supplémentaires, la rentabilité à court terme du placement d’un récupérateur peut être difficile, sauf

  • pour des débits élevés (plus de 10 000 m³/h),
  • avec un usage permanent de l’installation.

Dans une nouvelle installation, dans la mesure où la récupération de chaleur fait partie de la conception initiale, la puissance de chauffage pourra être réduite et le surcoût initial sera rapidement amorti.

Concevoir

Pour choisir un récupérateur de chaleur, cliquez ici !

Calculs

Pour estimer le gain réalisable par le placement d’un récupérateur de chaleur, cliquez ici !

Il faut également tenir compte du fait que le récupérateur ne peut à lui tout seul reprendre l’entièreté des besoins en préchauffage :

  • Premièrement, parce qu’en plein hiver, la température de l’air neuf atteinte risque d’être insuffisante. Si on récupère 50 % de l’énergie rejetée, la température atteinte, par – 10°C extérieur, ne sera que de 5°C (pour une température de l’air rejeté de 20°C).
  • Ensuite parce que par grand froid, l’air rejeté, en cédant sa chaleur, risque de descendre en dessous de 0°C, entraînant des risques de givre sur la batterie d’échange. Pour éviter cela, une régulation du récupérateur (exemple : cas d’un échangeur à eau glycolée) est nécessaire, ralentissant l’échange lorsque la température de l’air rejeté descend trop, c’est-à-dire par grand froid et donc lorsque les besoins en préchauffage sont les plus importants.

Il est donc, la plupart du temps, nécessaire de doubler le récupérateur par une batterie de préchauffage traditionnelle.

Schéma sur récupérateur et une batterie de préchauffage traditionnelle.

Pour éviter la formation de glace sur l’échangeur du conduit d’air rejeté, un by-pass avec vanne trois voies limite le transfert de chaleur lorsque l’air rejeté se refroidit trop.


Récupération de chaleur sur le condenseur d’une machine frigorifique

Lorsque le bâtiment traité possède une installation frigorifique devant fonctionner même en hiver, on pourrait imaginer de récupérer la chaleur évacuée au niveau du condenseur pour préchauffer l’air neuf de ventilation.

Cette idée paraît intéressante, puisqu’il s’agirait en fait d’un transfert de chaleur des zones à refroidir vers les zones à chauffer.

Dans la pratique, cependant, cette récupération de chaleur ne semble pas forcément engendrer des économies d’énergie. En effet :

  • La température de condensation de la machine frigorifique ne permet pas de produire de l’eau à très haute température (aux environs de 40°C). Une batterie de préchauffage travaillant à cette température devra être surdimensionnée et présentera donc des pertes de charge supérieures, synonymes de consommations électriques supplémentaires. Augmenter la température de condensation de la machine frigorifique aurait également une conséquence néfaste car cela détériorerait l’efficacité frigorifique.
  • Souvent, en plein hiver, le fonctionnement de la machine frigorifique sera réduit, voire nul, alors que les besoins de préchauffage augmentent. Une batterie traditionnelle complémentaire sera donc nécessaire pour assurer un préchauffage correct à l’arrêt du condenseur. On se retrouve donc avec 2 batteries provoquant des pertes de charge importantes et permanentes.

Concevoir

Pour plus de détails sur la récupération de chaleur au condenseur d’une machine frigorifique, cliquez ici !

Sélection d’une batterie

Lors de la sélection d’une batterie à eau chaude, l’objectif « URE » est de minimiser sa perte de charge côté « air » et par là, la consommation du ventilateur.

Une batterie chaude est d’abord sélectionnée pour fournir la puissance désirée en fonction du régime de température d’eau souhaité.

Batteries à eau chaude.

Pour une même puissance fournie, plus le régime de température choisi pour le dimensionnement est bas, plus la batterie possédera un nombre de rangs important et donc plus sa perte de charge sera importante. Il est donc conseillé de dimensionner les batteries chaudes pour un régime de température de 90°/70° de manière à limiter au maximum ces pertes de charge. Une régulation de la température d’eau en fonction des conditions climatiques permet en outre de limiter les pertes de distribution (et de production) de l’eau chaude.

De même, il faut être conscient qu’un installateur essayera souvent de diminuer le coût de la batterie sans se soucier de la conséquence sur la consommation du ventilateur. Il faut donc être attentif à lui imposer de minimiser les pertes de charge côté air lors de la sélection.

Connaître les paramètres pour le dimensionnement de l’éclairage

Connaître les paramètres pour le dimensionnement de l'éclairage


La zone de calcul

Schéma zone de calcul.

Selon la norme NBN EN 12464-1, trois zones sont définies :

  • la zone de travail où la tâche visuelle est réalisée (le bureau : zone à 500 lux dans l’exemple),
  • la zone environnante immédiate à la zone de travail (zone à 300 lux dans l’exemple).
  • la zone de fond qui représente le reste de la surface du local.

Attention : pour le calcul de la puissance spécifique  en W/m²/100 lux il faut considérer toute la surface du local (aussi bien pour le calcul de la puissance totale de tous les luminaires que pour le niveau d’éclairement moyen à hauteur du plan de travail.)

La zone de travail

Dans la zone de travail, l’éclairement moyen recommandé est à maintenir sur la surface de référence ou plan utile pendant toute la durée de vie de l’installation d’éclairage.  Cette surface est celle où la tâche visuelle s’exécute comme par exemple :

  • la table à dessin,
  • le bureau,
  • le desk de réception,
  • le banc d’écolier,
  • le tableau,
  • l’établi,

On définit dans la zone de travail un niveau d’éclairement en fonction de la tâche effectuée.

Ces différentes valeurs sont données dans les normes.

Données

Pour connaitre les valeurs d’éclairement recommandé en fonction de l’usage, cliquez ici.

Où 20 lux représentent le seuil de perception; les autres valeurs étant séparées par un facteur approximatif de 1.5 et représentant la plus petite différence significative entre deux niveaux d’éclairement.

20 30 50 75 100 150 200 300 500 750 1 000 1 500 2 000 3 000 5 000

La zone environnante immédiate

Dans la zone environnante immédiate (bande de 0.5 m autour de la zone de travail), l’éclairement recommandé et l’uniformité doivent être en relation avec ceux de la zone de travail selon le tableau ci-dessous :

Éclairement de la tâche
en lux
Éclairement des zones environnantes immédiates
en lux
>= 750
500
300
200
150
100
<= 50
500
300
200
150
E tâche
E tâche
E tâche
Uniformité : > = 0.4 à 0.6 Uniformité : > = 0.4

On retiendra donc que dans cette zone, les niveaux d’éclairement peuvent être diminués d’un facteur de l’ordre de 1.5 à 1,666 avec une uniformité de 0.4.

La zone de fond

On pourrait définir la zone de fond comme l’espace couvrant le local, diminué des zones de travail et environnantes immédiate. Dans cette zone, le niveau d’éclairement doit être au moins égal au tiers de celui de la zone environnante immédiate avec une uniformité moyenne de 0.1.

Quelques exemples selon l’usage

Une caisse de grande surface

Schéma éclairage caisse de grande surface.

Un couloir

Schéma éclairage couloir.

Une chambre d’hospitalisation

 


Le plan de référence

La surface de référence est constituée par le plan sur lequel s’effectue normalement le travail.

La hauteur du plan de référence est donc à définir en fonction de l’ergonomie et de l’activité menée de manière courante au niveau de la zone de travail considérée :

Surface de référence par rapport au sol Tâche effectuée
Debout Assis Couché
Horizontale Lecture, écriture sur un guéridon dans un couloir d’hospitalisation (h = 1 m).
Marche dans un couloir (h = 0,10 m).
Écriture, lecture sur un bureau (h = 0.7 m sur un bureau standard et h = 0.85 m sur un plan de travail de laboratoire). Examen médical sur une table d’examen (h = 0.85 m).
Verticale Écriture au tableau. Lecture au tableau.
Inclinée Lecture d’un livre par un patient dans un hôpital en position couchée (h = 1 m avec une inclinaison de 75°).

Quelques exemples selon l’usage

Bureau

Il peut être à une hauteur de 0.75 m pour un plan de travail normal.

Schéma éclairage exemples selon l’usage, bureau.

Caisse de grande surface

Le plan sera horizontal et situé à la même hauteur que la caisse.

Schéma éclairage exemples selon l’usage, caisse de grande surface.

Chambre d’hospitalisation

Schéma éclairage exemples selon l’usage, chambre d’hospitalisation.


L’éclairement moyen minimum

On trouve dans les normes des valeurs de niveaux d’éclairement en fonction de la tâche exécutée.

Pour connaitre  les valeurs d’éclairements moyens recommandés suivant l’activité du local : cliquez ici !

Les valeurs Em calculées dans les zones de travail, environnantes immédiates et de fond seront fournies par l’auteur du projet et, dans la mesure du possible, se rapprocheront de la valeur d’éclairement recommandé.
En début d’installation (dépréciation nulle), on limitera le surdimensionnement de l’installation (les cahiers des charges énergétiques préconisent de ne pas dépasser 20 % de surdimensionnement) afin de préserver l’efficacité énergétique de l’installation d’éclairage.

Exemple d’éclairement recommandé : 500 lux

+

500 lux

600 lux (+ 20 %)

> 600 lux


L’uniformité

Zone de travail

L’uniformité de l’éclairement recommandée dans la zone est précisée dans les normes.

Données

Pour connaitre les valeurs d’uniformité recommandées, cliquez-ici.

Zone environnante immédiate et de fond

Dans ces zones, l’uniformité est respectivement de 0,4 et 0,1.


Le coefficient de réflexion des parois

Si les couleurs des parois sont définies une fois pour toutes, et particulièrement si les parois sont de couleur foncée, les coefficients de réflexion choisis pour le dimensionnement devront correspondre à ces couleurs. Mais en général les couleurs ne sont pas fixes, et pour autant que les couleurs soient relativement claires, il vaut mieux faire les calculs avec des valeurs par défaut.

Données

Pour connaître les coefficients de réflexion par défaut ou correspondants  à la couleur et à la matière de vos parois, cliquez ici !

Concevoir

Pour savoir comment choisir la couleur des parois

Le facteur de maintenance

L’installation doit fournir les niveaux d’éclairement requis durant toute sa durée de vie. Pour tenir compte de la diminution du flux lumineux avec l’âge (diminution du flux des lampes, encrassement des lampes et luminaires), le dimensionnement de l’installation doit intégrer la notion de facteur de maintenance « FM » (facteur de maintenance = 1 – facteur de dépréciation) qui surdimensionne l’installation d’origine.

On remarque cependant que ces facteurs ne couvrent pas la perte de flux en fin de vie utile. Or les lampes sont censées être remplacées après cette période. En pratique, l’éclairement, en fin de vie, sera donc inférieur aux valeurs recommandées.

Ces facteurs permettent néanmoins d’éviter un surdimensionnement trop important de l’installation neuve (et donc une surconsommation, voire parfois un inconfort).


La grille de calcul

Dans la zone de travail, les niveaux d’éclairement moyen  sont calculés suivant un quadrillage au moins aussi fin que les recommandations des normes.

Exemple pour les halls omnisports

Les mesures doivent se faire selon un maillage spécifique généralement rectangulaire et recouvrant toute l’aire de référence au niveau du sol. Les éclairements sont calculés et mesurés au centre des mailles. Le pas maximum est déterminé en pratique par la formule suivante :

p = 0,2 . 5 EXP (log d)

où :

  • EXP = exposant,
  • d est la plus grande dimension de l’aire de référence,
  • p est le pas maximum du maillage.
    Dans le cas de l’exemple (d = 28 m), on trouve p = 2 m.

Le nombre de points sur la longueur est donné par le nombre entier impair le plus proche du rapport d/p; soit 28/2 = 14. On peut choisir 13 ou 15; la norme donnera 13. Dans l’exemple, on a choisi 15 pour tenir compte d’une zone de sécurité débordante de 1 m.

Dans la mesure du possible, on essaye de prendre une maille carrée.

Dans la pratique, pour éviter un maillage excessif, on définit un maillage réduit de commun accord entre l’auteur de projet et le maître d’ouvrage. Cela peut être, par exemple, un maillage de « un point sur deux ». On peut s’aider aussi des valeurs reprises dans les tableaux de la norme EN 12193.


En pratique ?

De nombreux outils sont disponibles. Après avoir déterminé le type de type de lampe, de ballast et de luminaire à utiliser, les outils suivants permettent par exemple de dimensionner l’installation (nombre et position des appareils) :

DIALux et RELUX

Ces logiciels de calcul sont gratuits. Ils sont neutres et indépendants vis-à-vis des fabricants et permettent de simuler un système d’éclairage en tenant compte des caractéristiques réelles de la plupart des produits disponibles sur le marché.

Ces logiciels permettent de vérifier que le système d’éclairage répondra bien aux exigences de confort visuel. Il permet ainsi de calculer les niveaux d’éclairement, l’uniformité et l’UGR.

 DIALux

Pour accéder au site de DIALux, ouverture d'une nouvelle fenêtre ! cliquez ici !

RELUX,

Pour accéder au site de RELUX, ouverture d'une nouvelle fenêtre ! cliquez ici !

Les outils proposés par les fabricants de luminaires

L’étape intermédiaire entre l’utilisation des fichiers Excel et celui des logiciels DIALux et RELUX, est le recours aux logiciels proposés sur le site des constructeurs de luminaires. Ceux-ci permettent d’utiliser les caractéristiques réelles des appareils. Les résultats se limitent souvent à la valeur de l’éclairement moyen réalisé.

Le recours à un professionnel de l’éclairage

L’utilisation des logiciels plus poussés (Dialux et RELUX) nécessite une certaine expérience. Les professionnels de l’éclairage seront sûrement d’une aide utile lors de cette phase de dimensionnement.

Analyser les besoins thermiques : un immeuble de bureaux

Objectif de l’analyse

Aujourd’hui, suite à l’isolation des parois et au placement de vitrages performants, le profil de la demande des bâtiments tertiaires a totalement évolué.

  1. Les besoins de chauffage sont devenus très faibles, et plus de la moitié de ces besoins est générée par le chauffage de l’air neuf hygiénique. Une régulation des débits d’air permet donc encore des économies : par exemple, des détecteurs de présence n’enclencheront la ventilation de la salle de réunion que lors de l’entrée des occupants.
  2. Le point d’équilibre s’est déplacé de 15 à 10°C, c’est-à-dire que l’on refroidit le bâtiment dès que la température extérieure dépasse 10°C.
  3. Les besoins de froid ont fortement augmenté, mais contrairement à ce que l’on pourrait penser, cette augmentation s’est faite essentiellement pour des températures extérieures comprises entre 10 et 22°C. Or, à ces températures, nous pouvons valoriser l’air extérieur frais : pour ventiler directement le bâtiment (free cooling) ou pour refroidir l’eau froide qui elle-même circulera dans les faux plafonds des locaux.
  4. Des besoins simultanés de chaud et de froid apparaissent : le cœur du bâtiment doit être refroidi en permanence alors que les locaux en façade sont à réchauffer, un local informatique demande du froid en hiver et en mi-saison alors que la préparation de l’air hygiénique demande de la chaleur,…D’accord, c’est le boulot du bureau d’études : à lui de mettre en place le système de climatisation qui valorisera ces énergies positives et négatives, qui exploitera l’air neuf extérieur disponible.Mais c’est aussi le boulot de l’architecte de créer un bâtiment qui favorise la ventilation naturelle des locaux, qui exploite la lumière naturelle tout en créant des masques solaires pour limiter la surchauffe, qui diminue tous les besoins thermiques … au point que des plafonds froids irrigués par de l’eau à 18°C suffisent pour rafraîchir les espaces, facilitant ainsi le travail de l’ingénieur !Aujourd’hui, dès la conception, une analyse des besoins du bâtiment devrait permettre de visualiser l’impact des mesures URE et d’établir une stratégie. En voici un exemple.

Qu’entend-on par analyse des besoins thermiques ?

Chaque local reçoit des apports (internes ou externes) et a besoin de chaleur ou de froid pour maintenir le confort intérieur.

Ainsi, pour un bureau, on distingue :

  • des apports :
    • solaires,
    • internes (luminaires, bureautique, occupation, etc.),
    • des parois (positifs ou négatifs selon la saison),
    • de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance).
  • des demandes :
    • de chauffage ou de refroidissement du local,
    • de préparation de l’air de ventilation (chaud ou froid, humidification ou déshumidification) lorsque l’air pulsé est traité.

La demande thermique d’un local est donné par la relation :

Demande thermique = Puissance des équipements x Temps

La demande thermique du bâtiment regroupe ainsi les besoins thermiques des locaux, et les besoins thermiques liés à la préparation de l’air neuf pulsé.

On peut établir la puissance demandée par les équipements chaque heure de l’année et la représenter en fonction de la température extérieure qu’il fait à ce moment.

Par exemple, si l’on regarde la demande des parois, la puissance de chauffe est d’autant plus grande que la température extérieure est basse; la puissance de refroidissement est d’autant plus forte que la température extérieure est élevée. Entre les deux, il existe une zone neutre où la température ambiante évolue entre 21 et 24°C. Par exemple, pour un bureau type on aurait :

Les 8 760 heures de l’année se répartissent en fonction de la température extérieure comme suit (année type moyenne) :

En multipliant la puissance par le temps, on obtient donc un graphique du type :

La demande de chaleur est représentée en rouge sous l’axe des x, la demande de froid est représentée en bleu au dessus de l’axe des x, tout au long d’une année type moyenne.

On constate dès lors que si la puissance de refroidissement est forte pour des températures élevées, l’énergie correspondante est très faible puisque cela n’arrive (hélas !) que quelques heures par an.


Les caractéristiques du bâtiment étudié

Le bâtiment-type étudié est prévu pour 380 personnes, et a une surface de 3 000 m² répartie entre

  • bureaux (50 %),
  • salle de conférences (10 %),
  • couloirs (20 %),
  • réserves et sanitaires (12 %),
  • salle de réunions, salle informatique et cafétéria (8 %).

Les locaux sont occupés de 8h à 18h sauf pour la salle de réunions (2 X 2 heures par jour) et la salle de conférences (2 heures par jour).

Pour plus de détails sur le bâtiment étudié, consultez l’ (sous format Word).


Comparaison d’une version « années 60 » avec une version « années 2000 »

Comparons les bilans énergétiques entre une construction ancienne (simple vitrage, murs non isolés, …) avec une version plus récente (double vitrage, murs isolés, …)

Voici les bilans obtenus par simulation informatique des 2 bâtiments :

On constate logiquement que le bâtiment récent demande nettement moins de chauffage, mais plus de refroidissement. Si autrefois le bâtiment était chauffé jusque 15°C, la température d’équilibre s’établit aujourd’hui vers 12°C.

À noter que simultanément certains locaux demandent d’être refroidis (au Sud, à l’Ouest) alors que des locaux au Nord demandent encore de la chaleur.

Curieusement, l’accroissement de la demande de climatisation se fait surtout pour une température extérieure comprise entre 14 et 24°C, c’est-à-dire à un moment où de l’air frais extérieur peut être utilisé pour refroidir naturellement le bâtiment.

Alors, faut-il faire marche arrière et ne pas isoler nos bâtiments ?

Non ! La consommation totale est nettement plus faible qu’avant, surtout si le système de climatisation valorise intelligemment l’air frais extérieur !

Il restera sans doute une période où la machine frigorifique est nécessaire, mais elle ne représente proportionnellement qu’une très faible consommation : alors pourquoi se priver de ce confort ?


Profil de consommation standard aujourd’hui

Partons du bâtiment « récent » et décomposons les courbes de chauffage et de refroidissement :

Remarque : les paramètres d’exploitation ont été légèrement modifiés, aussi les demandes totales sont légèrement différentes.
Les besoins de chauffage (ancienne courbe rouge) se décomposent en 3 postes :

  • le chauffage apporté dans les locaux (rouge),
  • le chauffage de l’air neuf hygiénique (bleu clair),
  • l’humidification de l’air (mauve).

La demande de refroidissement est composée :

  • du refroidissement apporté dans les locaux (par les ventilos-convecteurs, par exemple)
  • et un peu du refroidissement de l’air neuf extérieur (lorsque le local est refroidi, l’air neuf est pulsé à 16°C).

Quelques réactions « URE » immédiates !

Le premier réflexe est de se dire que l’on a tout intérêt à maîtriser le débit d’air neuf en période de chauffage ! Par exemple, un détecteur de présence peut activer l’apport d’air neuf dans les salles de réunions uniquement lors de la présence effective des occupants, ou dans la salle de conférences, le débit d’air neuf peut être régulé en fonction de l’indication d’une sonde CO2.

Deuxième réflexion : l’humidification de l’air n’est nécessaire que par température extérieure très froide. On pourrait la supprimer au-dessus de 8°C, par exemple.

Enfin, des besoins simultanés de chaud et de froid existent. Or une machine frigorifique qui extrait du froid, libère de la chaleur à son condenseur : on pourrait donc transférer de la chaleur d’un local vers l’autre ou préchauffer l’air neuf qui entre.

Mieux : imaginons que le refroidissement se fasse par des plafonds froids. L’eau entre à 15°C et sort à 17°C. Cette eau à 17°C peut préchauffer l’air neuf directement pour éviter le fonctionnement du groupe frigorifique. L’eau se refroidit et l’air se réchauffe : le bilan énergétique est nul !

Question : n’est-ce pas curieux de refroidir le local et de simultanément réchauffer l’air neuf de ce local ? Oui, mais le problème est que l’on ne peut pulser de l’air à 10°C dans un local sans créer un désagréable courant d’air.

Il n’empêche que l’on va privilégier les bouches hélicoïdales ou à jets toriques (qui réalisent un bon brassage de l’air) afin de pouvoir pulser de l’air dans les locaux à basse température, sans devoir le réchauffer de trop préalablement.

  

Les consommations énergétiques, rendement des équipements compris

Jusqu’à présent nous n’avons regardé que les demandes de chaud et de froid. Analysons à présent les consommations réelles en tenant compte des rendements de la chaudière et de la machine frigorifique et en intégrant les consommations des équipements (éclairage, bureautique, .)

Toujours pour cet immeuble de bureaux-type, voici des ordres de grandeur

  • de la consommation du bâtiment,
  • de sa consommation en énergie primaire (en tenant compte du rendement des centrales électriques),
  • du coût des consommations.

(Pour connaître les valeurs de rendement et de coût de l’énergie, consultez l’).

Représentation graphique du bilan énergétique du bâtiment

Consom. du bât.

[kWh/m²]

Cons. nrj primaire

[kWh/m²]

Coût de la consom.

[€]

Consom. relative du bât.

Consom. Relative nrj primaire

Coût relatif de la consom.

Traitement des locaux

    – apports de chaleur

30,6 30,6 0,765 17,2 % 7,9 % 6,0 %

    – apports de froid

10,9 31,1 1,088 6,1 % 8,1 % 8,5 %

Préparation de l’air

    – énergie sensible

37 39,6 1,03 20,8 % 10,3 % 8,0 %

    – énergie latente

14,6 41,7 1,46 8,2 % 10,8 % 11,4 %

Pulsion de l’air

7,8 22,4 0,78 4,4% 5,8 % 6,1 %

Ventilo-convecteurs des locaux

6,7 19 0,66 3,8 % 4,9 % 5,2 %

Charges internes électriques

   – éclairage

27,8 79,4 2,78 15,6 % 20,6 % 21,7 %

   – équipements

42,6 121,7 4,26 23,9 % 31,6 % 33,2 %

TOTAL

178 385,5 12,83

Bilan énergétique du bâtiment initial : consommation du bâtiment,  consommation d’énergie primaire et du coût de la consommation.

À l’analyse de ce bilan énergétique, on constate que :

  • L’éclairage et l’équipement bureautique sont les postes les plus importants dans la consommation d’énergie primaire (21 et 32 % respectivement) et dans le coût de la consommation (22 et 33 % respectivement).

 

  • La préparation et la pulsion de l’air pulsé constituent le poste le plus important du conditionnement d’air (33 % de la consommation d’énergie primaire totale et 25 % du coût de la consommation).

 

  • La consommation du traitement des locaux est finalement relativement faible (8 % de l’énergie primaire et du coût pour le refroidissement; 8 % de l’énergie primaire et 6 % du coût pour le chauffage).

L’impact de différentes améliorations énergétiques

Au regard du bilan énergétique global du bâtiment, c’est dans la consommation électrique des équipements que l’on peut faire le maximum d’économies : gestion automatisée de l’éclairage, mise en veille des équipements bureautiques.

Mais au niveau des besoins de chaud et de froid du bâtiment lui-même, profitons de notre bâtiment simulé pour lui injecter quelques rénovations URE et analysons l’impact de chacune de ces mesures.

Stopper l’humidification lorsque la température extérieure dépasse 8°C > – 14 %
Placer un double vitrage à basse émissivité et avec un facteur solaire de 0,4 > – 13 %
Placer des stores extérieurs mobiles (facteur solaire de 0,2) > – 12 %
Organiser une ventilation nocturne naturelle de 4 renouvellements/heure, tout en augmentant l’inertie du bâtiment pour valoriser ce free cooling (si la ventilation était mécanique il faudrait ajouter la consommation des ventilateurs) > – 11 %
Pulser l’air neuf à 16°C dès que le local est en mode refroidissement (au lieu de 21°C) > – 10 %
Passer de 60 % de surfaces vitrées en façade à 40 % > – 8 %
Adopter une consigne de climatisation en été à 25°C au lieu de 24°C (surtout si plafonds froids rayonnants) > – 7 %
Améliorer l’étanchéité de la façade (taux d’infiltration passant de 0,3 à 0,1 vol/h) > – 2 %

Les différentes modifications ont été comparées indépendamment les unes des autres, toutes autres choses restant identiques.

Lorsqu’on cumule ces interventions, elles s’influencent l’une l’autre. Si bien que, si l’ensemble des améliorations est réalisé, la consommation thermique totale diminue de 42 % en énergie primaire, et de 44 % en coût, mais il est alors difficile de déterminer la part de chaque intervention sur la réduction totale.

Au niveau de la consommation globale du bâtiment, on constate une diminution de 26 % de la consommation en énergie primaire, et une diminution de 26 % du coût de l’énergie consommée (les consommations électriques pour la bureautique restant les mêmes).

Le cumul des interventions permet donc de diminuer de façon importante la consommation totale du bâtiment.

Demande thermique [kW/m²]

 

Consom. totale [kW/m²]

 

Énergie primaire [kW/m2]

 

Emission de CO2 [kg de CO2/m² x 10]

 

Coût de l’énergie [€]

 

Différence par rapport au bât. initial

 

Traitement des locaux

    – demande de chaud

19,8 24,8 24,8 65,3 0,62 – 19,2 %

    – demande de froid

4,6 1,8 5,3 6,2 0,185 – 83,1 %

Préparation de l’air

    – nrj sensible

21,0 23,3 25,9 62,5 0,687 – 37,1 %

    – nrj latente

9,4 9,4 26,9 90,5 0,94 – 35,6 %

Pulsion de l’air

7,8 22,4 26,4 0,78

Ventilo-convecteurs des locaux

6,7 19,0 22,4 0,66

Charges internes électriques

    – éclairage

14,1 40,3 47,5 1,41 – 49,3 %

    – équipements

42,6 121,7 143,6 4,26

TOTAL thermique

54,8 59,3 82,7 224,5 2,43

Par rapport au bâtiment initial

– 44,3 % – 36,4 % – 42,2 % – 37,1 % – 44,1 %

TOTAL global

130,4 286,1 464,4 9,54

Par rapport au bâtiment initial

– 26,7 % – 25,8 % – 27,8 % – 25,6 %

Une stratégie URE ?

> Il n’existe pas de « mesures miracles » pour faire chuter la consommation des bâtiments.
> C’est un ensemble de mesures qui permet d’améliorer progressivement le bilan final.
> Certaines de ces mesures sont du ressort de la créativité de l’architecte dès le stade de la conception (le traitement des apports solaires par exemple, ou le refroidissement naturel du bâtiment par une ventilation transversale des locaux).
> D’autres sont apportées par l’ingénieur de bureau d’études dans la gestion des équipements (la régulation de l’humidification en fonction de la température extérieure, par exemple).
> Mais lorsqu’architecte et ingénieur travaillent de concert, on peut atteindre des bâtiments de confort avec des solutions très économes.

Par exemple :

  • Si les apports solaires sont bien maîtrisés par la conception de la façade, une climatisation de 60 Watts/m² peut suffire. Des plafonds froids peuvent être prévus et alimentés au régime entrée-sortie de 17° – 19°. L’eau à 19° peut être alors récupérée pour préchauffer l’air neuf hygiénique. Et de l’eau à 17° diminue le risque de condensation sur le plafond et donc le besoin de déshumidifier l’air. Au plus fort de l’été, le régime de refroidissement 15° – 17° pourra être temporairement établi.
  • Si différentes salles de réunion sont prévues, l’architecte les disposera de telle façon qu’elles soient alimentées sur un même réseau de préparation d’air (par exemple une par étage, raccordée par une trémie commune). L’ingénieur prévoira une climatisation à débit d’air variable (VAV), avec dans chaque local une bouche de pulsion commandée par détecteur de présence. Le ventilateur travaillera à vitesse variable en fonction de la demande réelle. Le groupe de préparation sera dimensionné avec un facteur de simultanéité (défini de commun accord avec le Maître d’Ouvrage) pour tenir compte du fait que toutes les salles ne seront pas occupées en même temps.

 

  • Si un local informatique est prévu, il sera heureux de l’associer avec des locaux demandeurs de chaleur (au Nord, par exemple). Par exemple, un réseau de climatisation à débit de réfrigérant variable permettrait d’assurer le transfert entre le local donneur et les locaux demandeurs de chaleur.

Choisir un ballon de stockage

Choisir un ballon de stockage


Critères de choix communs

Épaisseur d’isolation des parois

Les constructeurs proposent généralement des épaisseurs de 5, 8 ou 10 cm. Lors de l’acquisition d’un nouveau ballon, nous recommandons sans hésiter une isolation de 10 cm.

Passer de 5 à 10 cm est amorti généralement en 3 ans. L’investisseur est donc récompensé dès la 4ème année. Pouquoi s’en priver : c’est un placement plus sûr qu’à la bourse de New York !

Si vous n’êtes pas convaincu, utilisez le petit programme ci-après et testez deux épaisseurs différentes : le gain financier apparaîtra sur les 30 ans de durée de vie du ballon.

Calculs

Pour évaluer la rentabilité de la pose d’un isolant, cliquez ici !

Cette très bonne rentabilité de l’isolant est liée au fait que l’eau chaude est maintenue en permanence à haute température par rapport à l’ambiance (Delta T° élevé).

Voici les recommandations du programme suisse « Ravel » pour les accumulateurs calorifugés sur place

Contenance en litres

Épaisseur minimale
de laine minérale en cm

< 400

10

de 400 à 2 000

12

> 2 000

14

La lutte contre le développement de la légionelle ne fait que renforcer la nécessité d’une forte isolation puisque la température de maintien dans le ballon doit atteindre un minimum de 60°C.

Choix de l’isolant

On rencontre différentes techniques :

  • L’isolation en mousse de polyuréthane (PUR), aujourd’hui sans CFC.
  • Les matelas de laine minérale, ceinturés par une feuille d’aluminium et recouverts d’un manteau en aluman.
  • Les coquilles en polystyrène, recouvertes d’un manteau de tôle laquée, amovible (mais parfois limité à certaines températures).
  • La résine de mélamine, nouveau matériau très résistant à la haute température et facilement dissociable du manteau extérieur.

Parmi ceux-ci, surtout si le montage a lieu sur chantier, on sera attentif à deux critères :

  • L’isolation ne peut générer de pertes par convection (circulation d’air entre la cuve et le manteau isolant). Lors de certains audits, il a déjà été constaté des « effets de cheminée » très importants à ce niveau !
  • L’élimination ultérieure des déchets doit être simple (il n’est pas impossible que ceci soit taxé un jour…), ce qui privilégie le choix de matériaux dissociables de la cuve et si possible recyclables.

Encombrement

C’est le défaut des accumulateurs : ils prennent beaucoup de place.

Accumulateurs d’eau chaude en milieu hospitalier.

Si nécessaire, il est possible de limiter le volume de stockage en augmentant la consigne de stockage au delà de 60°C. Mais il est alors nécessaire de placer un mitigeur thermostatique pour diminuer la température de distribution.
En voici le schéma pour une installation électrique :

schéma pour une installation électrique

Mesure anti-légionelle

Pour éviter le développement de la légionelle, il faut éliminer les zones tièdes dans les ballons de stockage. On sera donc attentif à la conception du ballon et à une éventuelle poche d’eau tiède qui se formerait en dessous de l’élément chauffant (la face inférieure du ballon est-elle isolée ?). L’existence d’un robinet de purge en partie inférieure est également un facteur favorable pour la maintenance.

Il faut savoir que les installations d’eau chaude sanitaire sont tapissées d’un dépôt visqueux (le biofilm) composé de micro-organismes, dont des amibes… Or les légioelles créent des colonies dans les amibes. Et une fois logées dans celles-ci, elles peuvent exceptionnellement résister jusqu’à 80°C car les amibes sont plus résistantes à la chaleur !

« Les installations doivent être entretenues régulièrement; à cet effet, les appareils de production d’eau chaude seront dotés des ouvertures nécessaires » (source CSTC).

Stratification des températures

Si un ballon de 1 000 litres à 50°C est vidé pour moitié, il faut y trouver 500 litres d’eau à 50°C (encore exploitables) et 500 litres à 10°C. Et non 1 000 litres à 30°C, inutilisables…

La stratification des températures, assure la valorisation du volume utile et donc supprime tout besoin de surdimensionnement du stockage, générateur de pertes par l’enveloppe.

Pour réaliser cette stratification correcte, on adoptera :

  • un casse-vitesse sur l’arrivée de l’eau froide au bas du ballon,
  • une isolation renforcée pour limiter la circulation interne,
  • une isolation de la boucle de distribution pour éviter le retour d’eau trop froide qui « tombe » dans le réservoir et crée des turbulences,
  • une isolation soignée de la tubulure de sortie de l’accumulateur,
  • un retour vers le ballon de la tuyauterie de circulation le plus haut possible,
  • le choix de la position verticale (il faut absolument éviter de coucher les accumulateurs qui perdent ainsi une bonne partie de leur volume utile),
  • le raccordement des ballons multiples en série plutôt qu’en parallèle.

Exemple d’isolation de la tuyauterie de départ.

Pour limiter la consommation d’énergie, il est souvent judicieux d’arrêter la boucle de circulation durant la nuit. Mais cette mesure entraîne une perturbation de la stratification lors du réenclenchement de la circulation. Il est alors utile de programmer cet enclenchement à la fin de la période de chauffage de nuit, pour bénéficier encore du tarif avantageux.

Dans les calculs de dimensionnement, pour tenir compte du degré de stratification des ballons, on considérera une température minimum possible du stock de 10° et on y associera un coefficient d’efficacité ‘a’. Dans la plupart des cas courants, celui-ci prendra une valeur de 0,8 à 0,95 (bonne stratification), ce qui signifie que 80 à 95 % du volume réel du ballon est utilisable pour la température voulue. Si on se trouve dans le cas d’un ballon avec mélange important, ‘a’ peut descendre jusqu’à 0.45.

Dimensionnement

Combien de ballons ne sont-ils pas surdimensionnés !!!
Ils génèrent des pertes de chaleur permanentes par leurs parois…

Calculs

Pour calculer le volume de stockage nécessaire, cliquez ici !

Protection contre la corrosion

parmi les différentes matières de cuve, pour lutter contre la corrosion de l’eau, on prévoit (source RAVEL-Suisse, que nous n’avons pas vérifiée) :

  • L’abandon de la technique de l’acier St 37 galvanisé au bain.
  • Le recours éventuel au cuivre et aux alliages de cuivre, pour lequel nous manquons d’expérience mais qui est couramment utilisé dans les pays scandinaves et en Angleterre. Cette solution est nettement plus coûteuse.
  • L’acier inoxydable (acier CrNiMo), qui doit être suffisamment allié. On utilise généralement les nuances DIN 1.4435 ou 1.4571, soit des aciers à faible taux de carbone avec adjonction de molybdène. Pour les gaines de corps de chauffe (résistances électriques), plus fortement sollicitées, on adoptera des alliages plus performants à teneur élevée de nickel, tels que le IN 1.4539, l’Inconel, etc… La qualité de l’équipement est souvent liée à la réalisation des soudures et au décapage intérieur des cuves.
  • L’acier St 37 avec revêtement organique ou synthétique, mais d’usage limité puisqu’il requiert de ne pas dépasser la température prescrite par le fournisseur (généralement 60°C), ce qui n’est plus compatible avec les critères de gestion anti-légionnelle.
  • Enfin l’acier St 37 émaillé, émaillage réalisé généralement par deux couches successives cuites au four à 890°C.

Les cuves émaillées seront en plus munies d’une protection cathodique : le principe est de protéger l’acier par un métal moins noble que lui. Aussi, les constructeurs incorporent généralement une anode sacrificielle (une barre de magnésium) qui, sacrifiée, se dissout… laissant l’acier intact.

Régulation de température par mitigeage

Une régulation de température par mélange avec l’eau froide de distribution procure divers avantages :

  • Meilleure stabilité de température de l’eau distribuée.
  • Élévation possible de la température du ballon (donc augmentation de la capacité de stockage de nuit… au détriment de l’augmentation des pertes par les parois).
  • Possibilité de sélectionner un différentiel plus élevé (par exemple 10 K). Ceci réduit le nombre des appels de chaleur de la chaudière et les pertes occasionnées par les cycles de marche-arrêt.
  • Possibilité de créer une pointe de température périodique à plus de 70°C pour lutter contre la légionellose.

Mieux : il est judicieux de placer des mitigeurs thermostatiques séparés pour les différents usages de l’ECS dans un bâtiment. La température de l’eau sera adaptée aux différents usages (cuisine et buanderie, chambres, …).

Le risque de brûlure est limité et les pertes des conduites sont diminuées. Les vannes trois vannes seront équipées d’un moteur rapide. La sonde de température aura une très faible constante de temps et sera placée à moins de 50 cm après le mélange.

Dans le cas où les douches n’ont pas leur propre régulateur thermostatique, la régulation de la température de départ peut être améliorée en plaçant un petit ballon entre la vanne et la sonde de température (source : Costic). Un dispositif de sécurité anti-brûlure fermera la vanne en cas de dépassement de la température maximale.

S’il existe une boucle de distribution, le retour de boucle doit être repiqué sur l’entrée « Eau Froide » de la vanne mélangeuse (voir schéma similaire pour la préparation instantanée gaz).

Mais question ?

Peut-on conserver une boucle à température mitigée… sans risque de développement de la légionelle ?
Deux réponses semblent possibles :

  • Soit l’usage de chaque branche de l’installation est permanent, le réseau est constamment renouvelé : le risque est pratiquement nul (on suppose que toutes les bactéries ont été tuées lors de la phase de production de l’eau chaude à haute température et qu’elles ne peuvent pas se développer si vite dans le réseau).
  • Soit certaines branches restent inopérantes plusieurs semaines et le réseau lui-même est peu renouvelé : on pourra craindre un développement de la bactérie. Dans ce cas, le mitigeage doit être assuré au puisage de l’eau.

Il semble que la réponse actuelle soit de placer toute dérivation de plus de 5 m ou de plus de 3 litres sur une boucle (maintenue à un départ de 60 et un retour de 55°C min.), ou d’y organiser un rinçage automatique par semaine.

Études de cas

Comparaison de différents systèmes de production avec accumulateur.

Choix d’un ballon de stockage sans production de chaleur interne

Photo ballon de stockage sans production de chaleur interne

Le ballon de stockage est chauffé par un serpentin d’eau chaude. Le chauffage de l’eau du serpentin est réalisé grâce à une chaudière (gaz, fuel, …) qui assure également le chauffage du bâtiment.

Pour les petites puissances, il est possible que le ballon soit intégré dans la même jaquette que la chaudière. Cette solution a l’avantage de présenter moins de pertes vers l’ambiance, en raison

  • de l’absence de tuyauterie externe entre le ballon et la chaudière,
  • d’une surface déperditive totale moindre.

On peut parler ici de semi-accumulation puisque le stockage permet de subvenir aux besoins de pointe et la chaudière reconstitue ensuite rapidement le stock d’eau chaude.

L’avantage de ce système est de permettre un approvisionnement important, sans risque de « pénurie » en fin de journée (contrairement au système à accumulation électrique), et avec un confort d’approvisionnement optimum (contrairement au système instantané gaz).

Un réseau hydraulique qui permet un fonctionnement « indépendant »

Pour limiter les pertes de distribution au niveau du collecteur primaire, il est conseillé de raccorder la production d’eau chaude directement sur la chaudière, ce qui permet de fonctionner en température glissante au niveau du collecteur primaire (diminution des pertes), tout en pratiquant une priorité sanitaire.

De même, en été, cela permet de ne pas maintenir en température tout un collecteur uniquement pour produire de l’eau chaude.

Lorsque l’installation de chauffage est composée de chaudières en cascade de puissances différentes, il est évident qu’en été, c’est la chaudière dont la puissance est la plus proche des besoins de la production d’ECS qui doit être utilisée, de manière à limiter les pertes à l’arrêt de la chaudière et à optimaliser les temps de fonctionnement du brûleur.

Choix d’une chaudière « basse température »

Autrefois le risque de corrosion (lié à la condensation de la vapeur d’eau des fumées) entraînait le maintien en température de la chaudière fuel toute l’année, y compris l’été. On parlait d’un maintien « sur aquastat » à 65°C, par exemple.

Mais aujourd’hui, il est possible de sélectionner une chaudière régulée à température glissante, c’est à dire dont l’aquastat descend lorsque la température extérieure remonte. Le rendement de combustion en est amélioré.

La présence d’un ballon d’eau chaude perturbe cette volonté de travail à basse température. Pour réchauffer l’eau chaude sanitaire, une température minimale de 70°C environ est en effet nécessaire. Temporairement, par mesure de précaution anti-légionelle, une montée de l’eau de stockage à 70°C est même parfois organisée.

Pour résoudre ce problème, il est possible de mettre en place une régulation avec telle que la chaudière ne monte en température qu’au moment du réchauffage du ballon. Le ou les vannes mélangeuses des circuits de chauffage se ferment alors légèrement.

Pour plus d’infos sur la régulation en présence d’une production combinée, cliquez ici !

Des relances intempestives du chauffage de l’eau sanitaire limitées par une horloge

Si l’on prévoit que la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, il sera utile de greffer une horloge sur la régulation pour imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin (juste avant la relance, ainsi on peut profiter de la haute température de l’eau) et de 16 à 18 heures en fin de journée. On évitera dès lors de remettre la chaudière en route pour un puisage d’un seau d’eau ! c’est surtout avantageux en été, bien sûr, mais ce l’est également en hiver puisque la température moyenne saisonnière de l’eau d’une chaudière régulée en fonction de la température extérieure est de 43°C.

Cette technique a fait l’objet d’une simulation sur une installation ECS domestique (consommation de 45 m³ à 55°C). Voici les rendements obtenus (source « Chauffage et production d’ECS » – M. Rizzo – Éditions Parisiennes) :

Chauffage de l’ECS constant

Chauffage de l’ECS programmé

Été

44 % 66 %

Hiver

69 % 80 %

Année

59 % 75 %

Soit un gain moyen annuel de 16 % sur la production d’eau chaude.

Alternative : s’il est difficile de planifier les périodes de chauffage de l’eau chaude, il est possible d’obtenir un effet similaire en régulant le ballon au moyen d’un thermostat à fort différentiel situé en partie haute (au moins au 2/3 de la hauteur). Ce thermostat arrête la pompe de circulation du réchauffeur quand on atteint la température de ballon désirée, généralement 60 à 65°C, et remet le chauffage en service quand la température d’eau tombe à 40/45°C.

Un réseau hydraulique qui valorise le choix d’une chaudière à condensation

Nous sommes en présence d’un paradoxe :

  • L’eau sanitaire est très froide (10°C) à son arrivée. Elle devrait dès lors permettre de valoriser l’efficacité énergétique d’une chaudière à condensation.
  • L’eau chaude sanitaire doit être portée à haute température (généralement 60°C, voire plus pour gérer le problème de la légionellose). Le circuit de chauffage monte donc à 75°C, et génère des retours à 65°C en fin de période de chauffage du ballon ! Par rapport aux circuits « basse température » dont nous sommes aujourd’hui coutumiers en chauffage, c’est donc un régime « haute température »… et cela supprime toute possibilité de condensation.

Deux solutions apparaissent :
> Il existe deux raccordements de retour à la chaudière à condensation. Le retour de l’eau chaude sanitaire est raccordé à l’entrée « haute température ». On a abandonné tout espoir de condenser avec le réseau d’eau chaude sanitaire.

> On décide au contraire de valoriser au maximum la condensation. Sachant que la température de retour doit être inférieure à 53°C, on décide de travailler avec un circuit d’eau de chauffage du ballon à la plus basse température de retour possible. Lors du dimensionnement de la puissance de l’échangeur de production d’eau chaude, un retour à 40 .. 45°C est choisi, par exemple via un régime 70° – 40° ou 90° – 45° au lieu d’un traditionnel régime 90° – 60°.

Techniques

Pour plus d’informations sur les circuits hydrauliques favorables à la condensation, cliquez ici !

Choix d’une résistance complémentaire d’appoint

Le placement d’une résistance électrique complémentaire permet de désolidariser la production de chaleur en été et d’arrêter la chaudière. On parle d’un accumulateur mixte.

Schéma ballon d'eau chaude avec résistance complémentaire d'appoint

  1. Thermomètre.
  2. Tube plongeur pour sonde de thermostat.
  3. Anode en magnésium.
  4. Tube de retour de circulation.
  5. Cuve (acier galvanisé, cuivre ou acier).
  6. Thermovitrification / émail / plastique.
  7. Capot de recouvrement.
  8. Thermostat de réglage et de sécurité.
  9. Corps de chauffe.
  10. Prise d’eau froide.
  11. Brise-jet.
  12. Tube plongeur pour sonde de thermostat.
  13. Pieds réglables.
  14. Calorifuge (laine minérale, polyuréthane sans CFC).
  15. Retour chauffage.
  16. Serpentin.
  17. Aller chauffage.
  18. Prise d’eau chaude.

Un tel équipement est également perçu comme un moyen d’assurer un complément de chaleur à un système de production de chaleur par énergie solaire ou par pompe à chaleur, par exemple. Mais la position de l’échangeur électrique est alors toute autre ! Il va se placer en position médiane, créant 2 ballons : un demi-ballon inférieur pour le préchauffage solaire et un demi-ballon supérieur pour l’appoint électrique.


Choix d’un préparateur électrique à accumulation

Schéma ballon d'eau chaude avec préparateur électrique à accumulation

  1. Carrosserie.
  2. Calorifuge (laine minérale, polyuréthane sans CFC).
  3. Cuve (acier galvanisé, cuivre ou acier).
  4. Thermovitrification / émail / plastique.
  5. Prise d’eau froide.
  6. Brise-jet.
  7. Fond.
  8. Tube plongeur pour sonde de thermostat.
  9. Corps de chauffe.
  10. Pieds réglables.
  11. Capot de recouvrement.
  12. Raccordement électrique.
  13. Thermostat de réglage et de sécurité.
  14. Flasque.
  15. Anode en magnésium.
  16. Thermomètre.
  17. Prise d’eau chaude.
  18. Groupe de sécurité (là, il faut le deviner !).
  19. Vidange à l’égout.

Choix de la résistance chauffante

Parmi les différentes techniques de chauffe, les résistances tubulaires blindées (thermoplongeurs) présentent de nombreux avantages sur leurs concurrents en céramique, dont notamment :

  • Moins de dépôt calcaire en raison des dilatations et retraits successifs de la barre.
  • Bonne capacité de flexion à froid leur permettant d’adapter leur forme à celle du fond du chauffe-eau pour réduire la zone d’eau froide (mesure anti-légionelle).

résistance chauffante

Le thermoplongeur est en contact direct avec l’eau du boiler et est donc susceptible de s’entartrer. Pour le remplacer, il faut vider complètement le réservoir. Ce n’est pas le cas pour les résistances logées dans un fourreau que l’on peut remplacer facilement.

Point de consigne

Les thermostats installés sur les chauffe-eau sont préréglés (60 à 65°C) mais il est important de choisir un appareil dont le point de consigne peut être modifié si nécessaire.

Groupe de sécurité

Pour permettre la dilatation de l’eau lors du chauffage, on trouvera en amont du chauffe-eau un groupe de sécurité (un par appareil), comportant un robinet d’arrêt, un clapet de retenue, une soupape de sûreté et un dispositif de vidange.

Photo Groupe de sécurité

Schéma groupe de sécurité

Il doit porter l’agréation ANS-NAV (reconnaissable aux initiales NA devant le numéro de référence).

Plusieurs appareils en série

Il est possible de greffer plusieurs accumulateurs électriques de forte capacité. Leur dimensionnement correct est très important puisque :

  • Ils doivent stocker la quantité d’eau chaude nécessaire à la totalité des besoins journaliers, afin de bénéficier des prix de nuit.
  • Ils ne doivent pas stocker plus que les besoins journaliers pour ne pas générer des pertes thermiques de stockage inutiles.

Si une relance est nécessaire en journée, une bonne gestion de cette relance doit être réalisée :

  • Seul le dernier ballon devra être réchauffé.
  • L’enclenchement sera asservi à un seuil de température.
  • Un délesteur pourra interrompre la charge durant les heures de pointe (limiter la pointe de puissance du bâtiment).

Hydrauliquement, ces appareils seront montés en série, avec un by-pass permettant d’isoler chaque ballon le cas échéant.

La distribution doit être indépendante du stockage. Il faut proscrire les montages « ballons en parallèle » et « bouclage par stock complet » qui amènent à des relances diurnes coûteuses puisque l’eau de recirculation détruit toute la stratification.

Un bouclage par le dernier ballon est à la limite possible si le volume du stock est approprié : 250 litres à 65°C sont nécessaires pour 100 mètres de tuyauterie de distribution à 50°C, bien isolée.

Pour limiter les pertes de stockage, préférer 2 ou 3 grands ballons plutôt que de nombreux petits ballons.

Stratification

La première mesure pour améliorer la stratification consiste à installer des ballons verticaux et bien calorifugés.

La qualité de la stratification des températures dans le ballon est d’autant plus cruciale que l’on souhaite valoriser l’énergie électrique de nuit. Pour gérer l’effet de déstratification lié au retour de l’eau « froide » de circulation, deux techniques sont possibles :

  • soit éviter la boucle de circulation en la remplaçant par un ruban chauffant électrique,
  • soit prévoir un réchauffage d’appoint de boucle, greffé sur le retour de circulation.

Schéma stratification

Mais il nous semble que dans les deux cas le bilan financier risque d’être lourd, puisque l’on réchauffe l’eau par de l’électricité de jour.

Les techniques de stratification exprimées ci-dessus seront préférées (et tout particulièrement l’isolation renforcée de la boucle de circulation), complétées par une légère augmentation de la température du ballon : en misant sur la faiblesse de la chute de température dans la boucle, on pourrait se passer de réchauffeur.

Si la boucle est fort longue, un réchauffeur semble inévitable. Rappelons qu’une tuyauterie bien isolée perd 7 W/m. Si le circuit totalise 150 m de longueur, c’est une puissance d’1 kW qui est émise. La chaleur perdue en 24 heures correspond au chauffage de 430 litres à 60°C… Et le coût en chauffage électrique avoisine les 750 € par an.

Autre solution : abaisser la consigne du réchauffeur de boucle afin de juste maintenir la température minimale souhaitée.

Dimensionnement

Un des désavantages de cette technique est le risque de tomber à court d’eau chaude en fin de journée, en cas de puisages très importants. Pour éviter cela, il faut :

  • Soit surdimensionner le ballon de stockage (ce qui implique des pertes permanentes supplémentaires).
  • Soit prévoir la possibilité de faire une relance durant la journée, mais au prix du courant de jour !

Dans ce dernier cas, on adoptera un appareil équipé de 2 résistances :
l’élément chauffant inférieur assure la charge nocturne à bas tarif, alors que l’élément chauffant supérieur couvre les demandes de pointe en eau chaude durant la journée, soit environ le 1/3 supérieur du ballon. L’enclenchement simultané des deux résistances n’est généralement pas autorisé en raison de la puissance cumulée.

La température de stockage est généralement comprise entre 50 et 60°C.

Si la longueur des circuits entre ballon et point de puisage dépasse 5 à 6 mètres, on n’hésitera pas à dédoubler le ballon électrique.

Régulation

Les thermostats des batteries électriques doivent être équipés d’une double sécurité contre la surchauffe, cette deuxième sécurité devant être active sur toutes les phases.

Étant donné le coût de l’électricité, une horloge ou une télécommande sur le réseau du distributeur commanderont la charge durant les heures creuses (la nuit ou le WE).


Choix d’un préparateur gaz à accumulation

Une très grande souplesse

L’avantage de ce type d’équipement (par rapport à la solution électrique), c’est que le fonctionnement n’est pas réservé à la nuit. À tout moment le stock d’eau chaude peut se reconstituer, ce qui permet de mieux gérer des puisages importants et exceptionnels. En fait, on peut parler ici de système semi-instantané ou semi-accumulation.

Attention aux brûleurs gaz atmosphériques

Mais malheureusement, ces accumulateurs gaz sont généralement équipés d’un brûleur atmosphérique restant ouvert en permanence vers la cheminée. De l’air à température ambiante entre dans l’appareil et sort par effet de cheminée, évacuant ainsi une part de la chaleur stockée…

Il en résulte des pertes à l’arrêt plus importantes que pour un ballon totalement fermé (ballon électrique ou ballon avec serpentin d’eau chaude) et le rendement saisonnier diminue.

Il sera donc très utile de demander au fournisseur la consommation de maintien annoncée (ou cachée…) de son appareil pendant 24 heures sans puisage (c.-à-d. la consommation pour simplement assurer le maintien de l’eau à 60°C durant 24 h).

Les appareils à ventouse sont probablement meilleurs à ce niveau (dépression moins forte de la cheminée). Idéalement, il faut choisir un appareil à air pulsé (ou aspiré) : lorsque la flamme s’arrête, la ventilation est stoppée elle aussi.

Accumulateur gaz à ventouse.

  1. Sortie ventouse en façade.
  2. Conduit de fumées.
  3. Coupe-tirage.
  4. Arrivée d’eau froide (tube plongeur).
  5. Départ d’eau chaude.
  6. Habillage à haute isolation.
  7. Anode magnésium (protection corrosion).
  8. Réservoir.
  9. Corps de chauffe.
  10. Mystère…
  11. Foyer.
  12. Socle thermo-isolant.
  13. Brûleur atmosphérique à rampes inox et régulation pneumatique avec thermostat incorporé.

Privilégier les brûleurs à air pulsé

Cette fois, le foyer restera clos lors de l’arrêt du brûleur.

Cas particuliers : les accumulateurs gaz à chauffe rapide

Un compromis entre préparateur instantané gaz et accumulateur gaz peut être trouvé dans les appareils dits « accumulateur à gaz à chauffe rapide ».

Ils peuvent travailler en toute autonomie, ce qui permet de séparer les fonctions chauffage et production ECS.

Leur foyer est ouvert, donc de l’air ambiant, attiré par la dépression de la cheminée, va balayer l’appareil et refroidir l’eau stockée en permanence. La flamme s’allumera régulièrement,… rien que pour maintenir l’eau en température.

Exemple.

Voici la fiche catalogue de l’appareil ci-dessous :

Capacité : 185 l
Quantité d’eau disponible en 1 heure : 385 l avec Delta T° = 35 K

Puissance utile : 9,18 kW
Puissance enfournée : 10,2 kW

Consommation d’entretien : 5,04 kWh/24 h
Température des fumées : 171°C

Sur base des données catalogue, on obtient un assez bon rendement instantané de combustion :

9,18/10.2 = 90 %

Mais par contre on annonce une consommation d’entretien de 5,04 kWh/24 h.

Imaginons que seulement 150 litres d’eau à 45°C soient utilisés. Cela représente une énergie utile de :

0,150 m³ x 1,163 kWh/m³.K x (45 – 10) K = 6,1 kWh

Le rendement de stockage devient

6,1 / (6,1 + 5,04) = 55 %

Soit un rendement global de

55 % x 90 % = 49,5 % !!!

Bien sûr, on a utilisé l’appareil en mode accumulation pure… Si, par contre, on lui fait tirer 2 000 litres d’eau chaude sur la journée, le rendement se rapproche des 90 % annoncés.

Préférer les appareils à condensation

Condenser la vapeur contenue dans les fumées de l’appareil au gaz ? Bien sûr, puisque l’eau arrive à 10°C dans le bâtiment ! Du moins, à première vue car le ballon est globalement maintenu à une consigne de 60°C …

Les constructeurs ont donc logiquement utilisé la stratification régnant le réservoir : les fumées sont refroidies jusqu’à condenser dans un échangeur qui se termine dans la partie froide du ballon.

En soutirage continu, le fabricant annonce un rendement de combustion de 105 % sur PCI.

À noter que l’utilisation d’un ventilateur (obligatoire puisque les fumées froides ne montent plus toutes seules…) garantit de très faibles pertes par balayage à l’arrêt du brûleur.

Calorifuge soigné, rendement de combustion élevé, pertes à l’arrêt maîtrisée,… le parent pauvre de l’HVAC a enfin ses lettres de noblesse !


Choix d’un préparateur avec pompe à chaleur

Il existe différentes technologies de pompe à chaleur (PAC) pour la préparation de l’eau chaude sanitaire.

Emplacement de la prise de chaleur (= la « source froide »)

Il est important de placer l’évaporateur de la pompe à chaleur (PAC) dans un milieu chargé de chaleur « gratuite » ! Il n’y a pas de sens à le placer dans un local qui doit être chauffé…

Le placement dans une cave est toujours sujet à réflexions. Faut-il récupérer les pertes de l’installation de chauffage, pertes par des tuyauteries mal isolées par exemple ? La réponse nous semble non. Le refroidissement de la cave par la PAC ne ferait qu’augmenter les pertes du réseau… Si une PAC est placée dans une vieille chaufferie, et qu’une rénovation ultérieure supprime ces pertes, c’est l’investissement dans la pompe à chaleur qui s’en trouve pénalisé…

Le bon réflexe consiste d’abord à limiter les pertes. Et à chercher une véritable source de chaleur « gratuite »

  • l’air extrait du bâtiment,
  • l’eau du circuit des tours de refroidissement d’une installation de conditionnement d’air,
  • l’air rejeté par un process quelconque,
  • l’air humide d’une buanderie, d’une piscine,
  • l’air d’un local où rayonne un condenseur de machine frigorifique (ici aussi, c’est discutable puisque le condenseur devrait d’abord être déplacé, mais un manque de place ou une nuisance acoustique peuvent justifier ce choix).

On cite un volume de local de 25 m³ au minimum par kW de puissance compresseur installée, mais nous préférons analyser la puissance de la source de chaleur.

Cet emplacement doit être compatible avec le souhait de ne pas s’éloigner des points de soutirages d’eau chaude (cuisines, sanitaires, …). À défaut, il faudra soit utiliser un système « split », soit un appareil muni d’un raccord pour gaine de ventilation.

La réflexion doit inclure l’hiver et l’été, et donc éventuellement prévoir un orifice donnant sur l’extérieur pour la période estivale. Si l’appareil n’est pas en service pendant la période de chauffage, les critères ci-dessous doivent être adaptés.

On évitera les locaux :

  • D’entreposage de vivres : la température de surface de l’évaporateur se trouvant généralement au-dessous de la température de rosée de l’air ambiant, celui-ci sera déshumidifié, ce qui peut altérer la conservation des légumes, des fruits, et des bouchons des bouteilles de vin !
  • Très poussiéreux qui pourraient provoquer le colmatage rapide de l’évaporateur, par collage sur les lamelles humides.
  • D’entreposage des solvants, car le ventilateur peut les diffuser et accroître le risque d’explosion.
  • Exposés à un risque de gel, car les conduites pourraient geler en période d’arrêt (dans ce dernier cas, on privilégiera les PAC de type split, avec échangeur statique par exemple, où le transport de chaleur est assuré par le fluide frigorigène lui-même).

Emplacement du condenseur de la PAC

La chaleur de la PAC est fournie au condenseur de la machine. Pour les appareils avec intégration du condenseur dans le ballon d’eau chaude, les exigences suivantes sont requises :

  • Aucune addition d’adjuvants quelconques au frigorigène.
  • Utilisation de lubrifiants ne présentant aucun danger pour le consommateur d’eau potable.
  • Aucun point ou joint soudés, assemblage vissé, … au niveau de l’échangeur entre le fluide frigorigène et l’eau potable.
  • Une sécurité élevée contre les dommages par la corrosion.
  • Un dispositif automatique de dégazage qui empêchera un dégagement de frigorigène sous forme gazeuse dans les locaux par la conduite d’eau potable.

Il nous semble que le système où le transfert de chaleur est réalisé par un condenseur extérieur disposé tout autour de l’accumulateur d’eau chaude est plus adéquat, toute infiltration du frigorigène étant alors impossible. De plus, suite à la surface importante de l’échangeur, le dépôt de tartre est exclu.

Il existe également des pompes à chaleur pour l’eau chaude sanitaire placée sur le retour de la boucle de circulation. Ce choix permet :

  • De sous-dimensionner l’accumulateur (ou tout au moins de ne pas adopter des suppléments de sécurité) puisque la PAC est en réserve.
  • De préchauffer le ballon durant la nuit à une température minimale.
  • D’arrêter la chaudière en été et de fournir l’eau chaude sanitaire par la seule PAC.

Fonctionnement de jour

Réchauffage de la boucle par la PAC.

  1. Circulateur de boucle.
  2. Circulateur de nuit.
  3. et 4  Clapets anti-retour.

Fonctionnement de nuit

Chauffage du ballon par la PAC.

Utilisation d’eau chaude.

L’ensemble de ces arguments intéressants permettent-ils d’amortir le coût de l’investissement dans un double équipement de production de chaleur ? C’est le calcul à faire !

Appoint ?

Pour diminuer la température de condensation de la PAC (et donc augmenter sa performance), il faut concevoir la PAC comme une source de chaleur de préchauffage jusque 35°C ou 45°C, par exemple. L’appoint serait donné par une deuxième source de chaleur, dans un deuxième ballon en série. Ce n’est pas forcément une résistance électrique pour ne pas diminuer la performance énergétique globale du projet…

Bien souvent on se contente d’un système d’accumulateur mixte, mais la stratification des températures n’est pas parfaite (la résistance chauffera une certaine part du ballon, s’il n’y a pas de grilles de stratification dans le ballon). Plus important, il faut se rendre compte que le ballon de préchauffage est à une température idéale de prolifération de la légionelle. Ce n’est pas grave pour autant qu’il soit suivi d’une réserve à haute température dans laquelle l’eau reste durant un temps suffisamment long (3 heures à 60°C, par exemple, ou 1 heure à 70°).

ll faut donc s’assurer que le débit d’eau de pointe ne génère passage trop rapide dans le 2ème ballon, sans assurer le temps de destruction des bactéries.

Dimensionnement

Le dimensionnement d’un préparateur d’eau chaude sanitaire avec pompe à chaleur est sensiblement identique au dimensionnement d’un chauffe-eau électrique traditionnel.

Pour favoriser le fonctionnement de nuit de la PAC (bas tarif), une majoration du volume de stockage est préconisée. Mais s’il s’agit d’une PAC sur l’air extérieur, cette technique de chauffage de nuit doit être étudiée de plus près car la température de nuit étant plus faible, c’est le COP, coefficient de performance de la pompe à chaleur, qui diminue. Il faut donc comparer (sur base de la documentation du constructeur) la baisse du COP et la baisse du tarif électrique.

Ce raisonnement est aussi fonction du type de source froide : une récupération de chaleur sur l’air extrait se fera essentiellement en journée, par exemple.

Consommation

Le bilan énergétique est directement fonction du COP, coefficient de performance de la pompe à chaleur.

Un COP de 3 signifie que pour 1 kWh électrique consommé au compresseur, on obtiendra 3 kWh au condenseur, c.-à-d. dans le ballon d’eau.

Il est difficile d’obtenir des informations neutres à ce sujet. De nombreux paramètres influencent le bilan final : la température de l’eau sanitaire, la température de la source, le fluide de transfert,… La température de l’eau chaude sanitaire est un facteur prépondérant : comment l’appoint est-il fourni ? comment la gestion de la légionelle va-t-elle influencer ce bilan ?

Ci-dessous, voici l’évolution du coefficient de performance telle que présentée dans une étude suisse réalisée en 1994 pour le compte de l’Office fédéral des questions conjoncturelles (programme RAVEL).

Rappelons que le facteur numéro 1 de consommation restera la quantité d’eau chaude consommée !

Et les légionelles?

À l’heure actuelle, le choix d’une pompe à chaleur comme préparateur d’eau chaude sanitaire devient délicat vu sa difficulté à atteindre des températures de l’ordre de 55  °C minimum nécessaires à la lutte contre la prolifération des légionelles.

Choisir un transformateur

Transformateur à huile.


Pertes du transformateur

Un transformateur présente des pertes à vide (ou pertes « fer ») constantes quelle que soit la puissance appelée, et des pertes en charge variables. Il est important de tenir compte de ces pertes dans le choix d’un transformateur, car celles-ci vont se répercuter tout au long de sa vie.

En fonction de leurs aspects constructifs, tous les transformateurs ne présentent pas les mêmes pertes. La réduction des pertes se réalisant par l’augmentation des quantités de matériaux du transformateur, cela s’accompagne d’une augmentation du coût.

Dans un souci d’utilisation rationnelle de l’énergie, la FPE (Fédération Professionnelle des Producteurs et Distributeurs d’Electricité de Belgique) impose, dans ses prescriptions techniques (« Prescriptions techniques – cabines HT (<15 kV) ») le respect des valeurs de pertes reprises dans les normes NBN HD428.1 S1 (tableaux II et III) (transformateurs immergés) et NBN HD 538.1 S1 (transformateurs secs) suivantes:

Transformateurs immergés (NBN HD428.1 S1)

Puissance assignée
[kVA]

Pertes en charge
[W]

Pertes à vide
[W]

50 875 125
100 1 475 210
160 2 000 300
250 2 750 425
400 3 850 610
630 5 400 860
630 5 600 800
1 000 9 500 1 100
1 600 14 000 1 700
2 500 22 000 2 500

Transformateurs secs (NBN HD538.1 S1)
(correspond aux transformateurs « faibles pertes »)

Puissance assignée
[kVA]

Pertes en charge
[W]

Pertes à vide
[W]

100 1 750 360
160 2 500 490
250 3 450 660
400 4 900 970
630 6 900 1 270
800 9 400 1 400
1000 11 000 1 650
Exemple.

Comparaison des pertes des transformateurs (12 kV/400 V) de la marque « x ».

Puissance nominale
[kVA]
Type de transfo Pertes à vide
[W]
Pertes en charge (nominales)
[W]
Prix
[€]
400 Transfo sec – pertes réduites 970 4 900 84 916
Transfo huile minérale 610 34 850 64 350
630 Transfo sec – pertes réduites 14 270 64 900 104 730
Transfo huile minérale 860 54 400 84 347
800 Transfo sec – pertes réduites 14 400 94 400 114 966
Transfo huile minérale 950 74 350 94 329

 

 

Type de transfo Puissance nominale
[kVA]
Pertes à vide
[kWh/an]
Pertes en charge
[kWh/an]
Pertes totales [kWh/an]
Hypothèses : fonctionnement = 8 760 h/an, charge moyenne du transfo sur l’année = 37 %
400 Transfo sec – pertes réduites 98 497 5 888 14 373
Transfo huile minérale 5 344 4 626 9 970
630 Transfo sec – pertes réduites 11 125 8 291 19 417
Transfo huile minérale 7 534 6 489 14 022
800 Transfo sec – pertes réduites 12 264 11 295 23 559
Transfo huile minérale 8 322 78 832 17 154

*14 373 [kWh/an] = (970 [W] + 4 900 [W] x 0,37²) x 8760 [h] / 1 000

 

Type de transfo Puissance nominale
[kVA]
Coût des pertes à vide [€/an] Coût des pertes en charge [€/an] Coût des pertes totales [€/an]
Hypothèses : fonctionnement = 8 760 h/an, charge moyenne du transfo sur l’année = 37 %, prix du kWh =6,5 c€
400 Transfo sec – pertes réduites 552 383 934
Transfo huile minérale 347 301 648
630 Transfo sec – pertes réduites 723 539 1 262
Transfo huile minérale 490 422 1 586
800 Transfo sec – pertes réduites 797 734 1 531
Transfo huile minérale 541 574 1 115

*934,25 [€/an] = 14 373 [kWh/an] x6.5 [c€/kWh]

On remarque que les transformateurs (transformateurs à huile minérale) présentant le moins de pertes sont aussi les moins onéreux. Au niveau de l’efficacité énergétique, on a donc tout intérêt à choisir ces derniers. Par exemple, pour le transformateur de 400 kVA chargé à 37 %, on réalise une économie de 4 415 kWh/an sans encore avoir touché aux consommateurs internes du bâtiment.

Cependant, les transformateurs secs sont de plus en plus préconisés par les bureaux d’études qui négligent les économies d’énergie en mettant en évidence les inconvénients des transformateurs à huile (risques de pollution, nécessité de prévoir un système de rétention de l’huile, risques d’incendie, …).

Pour diminuer les pertes de fonctionnement, il faut acheter un transformateur adapté à la charge appliquée :

  • si le transformateur est faiblement chargé (moins de 30 %), les pertes à vide (Wfe) devront être les plus faibles possibles et les pertes en charge (à charge nominale) (Wcu) pourront être plus importantes;
  • par contre, si le transformateur est très chargé (plus de 40 %), les pertes en charge devront être les plus faibles possibles et les pertes à vide peuvent être plus grandes.

Il est cependant important lors de tout achat de transformateurs de bien analyser la courbe de charge du réseau alimenté par le futur transformateur et lors de la demande d’offre aux constructeurs, il faudra spécifier le rapport Wfe/Wcu désiré. Les fabricants sont à même de construire les transformateurs selon les pertes désirées. Pour diminuer les pertes à vide, ils doivent optimaliser le circuit magnétique et pour diminuer les pertes en charge, ils doivent augmenter les sections des conducteurs. Toutefois chaque diminution des pertes à vide se fait au détriment des pertes en charge et vice-versa, ceci afin de ne pas construire des transformateurs démesurés et pour maintenir des prix acceptables.


Facteur de puissance

Un transformateur ne fournit pas que de l’énergie réactive dont ont besoin les récepteurs qui sont raccordés à son secondaire.

Il en absorbe lui-même pour assurer son fonctionnement. On pourra, en fonction des pertes magnétiques du transformateur en charge et de la consommation d’énergie réactive des récepteurs, installer une batterie de condensateurs de type fixe aux bornes du TGBT.
Il sera nécessaire de s’assurer que la puissance de celle-ci en kVAr, n’excède pas 10 à 15 % de la puissance nominale du poste en kVA.

Calculs

Exemple de calcul du condensateur associé à un transformateur.

Réseau électrique 

 Pour en savoir plus sur la compensation de la consommation réactive

Dimensionnement

Les transformateurs présentent des pertes à vide proportionnelles à leur puissance et constantes quelle que soit leur charge.
C’est pourquoi, il est important de ne pas trop les surdimensionner.
D’autre part, le sous-dimensionnement est également préjudiciable :

  • Les transformateurs n’ont pas leur rendement maximum à pleine charge mais bien aux environs de 50 % de charge.
  • Des échauffements anormaux des enroulements apparaissent avec ouverture des protections, arrêt de l’installation et vieillissement prématuré.

Pour les bâtiments existants

En rénovation, la tâche est plus aisée qu’en construction neuve. En effet, on peut se fier aux factures électriques des années antérieures. On peut reprendre les factures des 3 dernières années et y relever la pointe 1/4 horaire maximum, ainsi que le cos φ minimum enregistrés :

Puissance du nouveau transformateur = (Pointe 1/4 horaire max / cos φ) + 20 .. 30 % de réserve

La réserve de 20 ..30 % sera précisée en fonction du profil de consommation escompté pour les années à venir.

On remarquera souvent que le résultat de cette formule conduit à une nouvelle puissance nettement inférieure au transformateur existant.

On constate également que, dans cette formule, la puissance du transformateur nécessaire augmente (donc ses pertes aussi) si le cos φ de l’ensemble de l’installation électrique est mauvais. Il est donc important de corriger ce dernier pour qu’il soit le plus proche de 1.

Réseau électrique 

Pour en savoir plus sur la compensation de la consommation réactive

Comme vu ci-dessus, il faudra choisir le meilleur rapport (Pertes à vide / Pertes en charge), pour minimiser les pertes sur toute la durée de vie du transformateur.

Exemple.

Voici le diagramme de charge d’un home de 100 lits, pour un jour type. La pointe 1/4 horaire maximum de l’institution a été enregistrée en décembre, avec une valeur de 68 kW.

La puissance du nouveau transformateur est estimée à (avec un cosφ de 0,9) :

68 [kW] / 0,9 x 1,2 = 90 [kVA]

Le choix s’est porté sur un transformateur de 100 [kVA].

La puissance moyenne appelée sur l’année par l’institution est de 26 kW (somme des kWh consommés sur l’année (heures pleines + heures creuses) divisée par 8 760 heures/an).

La charge du futur transformateur sera donc de :

26 [kW] / 0,9 / 100 [kVA] = 32 %

Avec une telle charge présumée, la tendance est de choisir les pertes à vide minimales au détriment des pertes en charge.

Pour les bâtiments neufs

Dans le cas d’un bâtiment neuf, le dimensionnement est évidemment plus ardu puisqu’on ne connaît pas le profil de consommation futur du bâtiment.

Ordre de grandeur

Un ratio raisonnable de dimensionnement du transformateur pour un immeuble de bureaux est :

25 W/m² de surface totale utilisée

La surface totale utilisée comprend les locaux de travail, mais aussi les garages, les sanitaires, les circulations, …

À titre de comparaison, voici le relevé des puissances électriques maximales enregistrées dans les différents immeubles de bureaux de l’administration régionale wallonne :

Pointe 1/4 horaire maximum enregistrée dans les bâtiments de l’admiministration régionale wallonne :

  1. DGTRE (9 265 m²)
  2. DGRNE (10 100 m²)
  3. DGTALP (14 330 m²)
  4. Ministre Président (4 689 m²)
  5. Ministre Act.Soc. Logt. (3 205 m²)
  6. Sécretariat général et DGEE  (22 000 m²)
  7. DGASS (8 673 m²)

Par rapport à ces chiffres, le dimensionnement réalisé par les bureaux d’études est bien souvent supérieur. Cela s’explique par le fait que, par raison de sécurité, ces derniers prévoient une puissance maximum sur chacun des points de raccordement. Or, on peut raisonnablement estimer qu’une chaufferette ne sera pas installée sur chaque prise.

L’estimation des équipements les plus probables (par exemple : 1 ordinateur et 1 imprimante par personne, …), de leur puissance et de coefficients de simultanéité raisonnables conduit à un dimensionnement plus proche de la réalité.

Calculs

 En première approximation, pour estimer la pointe 1/4 horaire d’un bâtiment futur en fonction des équipements qui y seront installés

Remarque : les transformateurs en dessous de 630 kVA ne nécessitent pas de sectionneurs avec protections, tandis que les transformateurs 630 kVA et plus, bien. L’investissement supplémentaire n’est pas négligeable. Ainsi, pour éviter ce surcoût, lorsque la puissance calculée est légèrement supérieure à 630 kVA, on pourra éventuellement prendre des mesures de gestion de charge et essayer de diminuer la consommation de puissance réactive ou se satisfaire d’une marge de sécurité inférieure.
Pour en savoir plus sur :

Réseau électrique 

L’écrêtage de la pointe 1/4 horaire

Réseau électrique

 La compensation de la consommation réactive

Découvrez cet exemple de redimensionnement d’un transformateur au Centre Administratif de Sambreville.

Choisir les appareils tout en un

Nous avons vu que fax, imprimante et photocopieur sont basés sur une technologie commune :

Un scanner traduit les informations visuelles en données numériques, les informations numériques sont transférées sur papier grâce au toner qui se fixe par chauffage.

Il est donc logique que les fabricants aient lancé sur le marché des appareils appelés « multifonctions » qui combinent les fonctions de fax, d’imprimante, de photocopieur et de scanner.

Ils sont généralement proposés sous forme d’option. C’est-à-dire qu’il est possible d’implémenter l’appareil pour qu’il devienne l’équipement « à tout faire ». Ils peuvent être dotés des fonctions R/V (recto-verso) et travaillent en réseau.


Avantages

Énergétiquement, ce type d’appareil semble intéressant. En effet, par rapport à un nombre de fonctions identique, la consommation est divisée par trois, la production de chaleur également.

Cependant, on peut imaginer qu’il ne soit pas heureux de combiner un fax avec d’autres fonctions. En effet, ce dernier doit généralement rester 24 heures sur 24 en attente de messages, tandis qu’une imprimante et un copieur peuvent au minimum être mise hors tension en dehors des heures de travail (durant 16 h par jour). La combinaison fax-imprimante peut s’envisager si :

  • Les moments de fonctionnement sont semblables.
  • Le système est équipé d’un mode veille performant, c’est-à-dire avec une consommation minime et une relance immédiate.

Dans le cas contraire, il est préférable d’utiliser un fax indépendant ayant une faible puissance de maintien en stand-by.

Notons qu’il est possible de combiner un PC et un fax. L’utilisation du fax ne se fera alors que dans le sens de l’envoi de messages. Le gain réalisé se situe principalement au niveau du temps et du papier puisque les messages sont directement transférés du PC au fax récepteur.

Au delà de l’aspect purement énergétique, les appareils « multifonctions » améliorent également le confort de travail par une diminution importante du bruit et de l’encombrement.

Leur prix est en chute libre. A caractéristiques identiques, ils deviennent moins chers que la somme des équipements individuels équivalents. Ils bénéficient en plus d’une maintenance plus facile à gérer car le nombre d’équipements diminue.


Inconvénients

Les appareils « multifonctions » ne peuvent assurer qu’un service à la fois. Par exemple, une grosse impression rendra les autres fonctions inopérantes pendant un temps assez long.

La panne d’un élément rend les 4 fonctions inopérantes.

Eclairage artificiel

Eclairage artificiel

S’il fallait en quelques lignes préciser une installation performante d’aujourd’hui, on pourrait la décrire comme suit :

photo bureau éclairé.

Il s’agit une installation qui ne dépasse pas une puissance installée de 1,3 W/m²/100 lux, soit pour une situation classique de bureaux (où 500 lux sont requis sur la table de travail) 6,5 W/m².

Pour ce faire, l’éclairage direct est privilégié (avec éventuellement une petite composante indirect) tout comme l’usage de luminaires à bon rendement.

L’installation visera à apporter un niveau d’éclairement suffisant mais pas plus important que nécessaire.

Concevoir

Pour en savoir plus sur la conception d’une installation d’éclairage efficace.
  • L’éclairage de décoration est limité aux halls d’accueil et salles d’exposition. La lampe à vapeur d’halogénure métallique de faible puissance (35 à 150 W) est choisie. Sa lumière se laisse facilement focaliser. Si un flux lumineux élevé par unité est requis, elle permet une économie d’énergie de 70 % par rapport aux lampes halogènes.
  • Les tubes fluorescents sont équipés de ballasts électroniques dimmables, afin de pouvoir moduler l’intensité lumineuse des lampes en fonction des besoins. Une des techniques consiste à intégrer une petite cellule sensible sur le luminaire, cellule qui vérifie que les 500 lux ne sont pas dépassés en dessous de lui. Si le soleil brille, la lampe réduit son intensité lumineuse et donc sa consommation !
  • Une gestion d’ensemble est prévue, de telle sorte que les lampes ne s’allument qu’en cas de besoin : détecteur de présence dans un couloir ou dans une salle de réunion, sonde de luminosité en façade qui éteint tous les luminaires en façade si l’intensité dépasse un certain seuil, minuteur dans les sanitaires, etc …

Concevoir

Choix d’un mode de gestion de l’éclairage.

Découvrez cet exemple de limitation de la consommation d’éclairage réalisée à l’université de Montfort.

Choisir l’autoclave

   

Forme de la cuve

Energétiquement parlant, la forme extérieure de la cuve est un élément intéressant à développer. A première vue, la question suivante paraît stupide :

« Pour un volume de chambre de stérilisation et de double enveloppe donné, quelle est la forme extérieure la plus déperditive : le cylindre ou le parallélépipède rectangle ? »

Faisons rapidement le calcul.

On a :

  • le volume utile de chambre Vutch = (1 x 1 x 1) [m³] (H x L x P);
  • le côté de la chambre Cch = 1 [m]
  • le volume de double enveloppe Vde = 0.05 [m³];

Hypothèses :

  • on ne tient pas compte des épaisseurs de paroi.

On cherche à savoir quelles sont les surfaces de déperdition de la double enveloppe dans chacun des cas :

> pour le parallélépipède

  • le côté Cde est déterminé par la relation suivante: Cde2 x P –  Vde = Vutch

Cde x 1 = (Vde+ Vch)1/2 = (1 + 0.05)1/2 = 1,025 [m]

  • la surface déperditive est donnée par la relation suivante: Sde = 4 x Cde x 1

Sde = 4 x 1,025 = 4,1 [m²]

> pour le cylindre

  • le côté Cde est déterminé par la relation suivante :π x Dde2 / 4 x 1 –  Vde = Vch
  • le volume de la chambre, compte tenu de la perte de volume due à la forme cylindrique de la paroi interne par rapport au volume parallélépipédique :

 Vch  = π x Dch² / 4 x P = π x 2 / 4 = 1,57 [m]

avec Dch = Cch x 21/2 = 21/2

  • le diamètre de la double enveloppe :

Dde = ((Vde+ Vch) x 4 / π)1/2 = ((1,57 + 0.05) x 4 / π)1/2 = 1,44 [m]

  • la surface déperditive est donnée par la relation suivante : Sde = π x Dde x P

Sde = 3,14 x 1,44 = 4,5 [m²]

Pour une même déperdition, le rapport entre les deux surfaces déperditives est de 4,1 / 4,5 = 0,9.

Configuration cylindrique

(+)

  • l’enveloppe cylindrique supporte mieux la mise sous pression des parois;
  • si la paroi interne cylindrique de la cuve n’influence que très peu le volume utile de la charge à stériliser, l’enveloppe extérieure cylindrique offre moins de surface déperditive que la parallélépipédique (réduction de 11 % des pertes calorifiques);

(-)

  • si la paroi interne cylindrique de la cuve influence le volume utile de la charge (chargement horizontal dans des paniers DIN parallélépipédiques), l’enveloppe cylindrique offre plus de surface déperditive que la parallélépipédique (9 %);
  • mise en œuvre plus compliquée;

Configuration parallélipipédique

(+)

  • Pour une même capacité utile de stérilisation, le simple choix d’une double enveloppe parallélépipédique plutôt que cylindrique réduira les déperditions calorifiques de 9 %.
  • mise en œuvre technique plus simple;

(-)

  • la tenue à la pression interne des enveloppes parallélépipédiques est moins bonne que des cylindriques et nécessite de placer des raidisseurs;
  • de part la présence de renforts sur la paroi extérieure, l’enveloppe est plus difficile à isoler thermiquement;

Isolation de la cuve

Au niveau du constructeur, l’isolation des parois de la double enveloppe est conditionnée par le risque de brûlure au contact des parois chaudes. On parle régulièrement de températures de paroi de 45 à 50 °C. Cette valeur de température permet au constructeur de calculer l’épaisseur d’isolant à placer sur l’enveloppe extérieure.

Exemple.

Soit un stérilisateur effectuant un cycle à 134 °C. On peut considérer que le métal conduit très rapidement la chaleur et établisse une température de paroi extérieure de l’ordre de 134°C.

Calculs

Pour en savoir plus sur le calcul de la température de paroi.

Si dans le module de calcul on introduit une épaisseur d’isolant de 2 cm de laine minérale, la température de paroi est de l’ordre de 44 °C.

Dans la pratique, le constructeur isolera les parois extérieures au minimum, juste pour éviter les risques de brûlure. Sur le plan énergétique, il pourrait faire mieux en augmentant l’épaisseur d’isolant afin de réduire les déperditions qui risquent d’être importantes au vu de l’exemple suivant.

Exemple.

Un constructeur annonce des déperditions en régime stable pour un stérilisateur de 8 STE (8 paniers stériles de 600x300x300 mm), effectuant un cycle normalisé selon la norme EN 285; soit 6 kg d’ustensiles par panier et 134 °C – 4 minutes lors de la phase plateau de stérilisation, de l’ordre de :

  • 2100 W de la ligne de distribution de vapeur, de la double enveloppe, …
  • 500 W au niveau des portes fermées et 1 400 W portes ouvertes.
  • 800 W au niveau du générateur de vapeur.

Les déperditions annoncées sont importantes sachant que ce même constructeur annonce une épaisseur d’isolant de laine minérale comprise entre 3 et 8 cm.

En introduisant différentes valeurs d’épaisseur d’isolant dans le module de calcul des déperditions d’un volume simplifié cylindrique ou parallélépipédique avec les données suivantes :

  • Un volume de 6,2 m³ (valeur approchée du volume de la chambre de stérilisation dans l’ambiance technique sans compter les portes qui donnent dans l’ambiance de travail).
  • La paroi interne est portée à une température de 134 [°C].
  • L’ambiance autour du cylindre doit rester à 28 [°C].
  • Le coefficient d’échange superficiel a été pris égal à 10 [W/K.m²] (source AICVF).

On en retire sur le graphique suivant les valeurs des températures des parois et les déperditions :

Calculs 

Pour en savoir plus sur le calcul de la température de paroi,

On en déduit que pour une épaisseur de 2 cm de laine minérale les déperditions sont de l’ordre de 1 213 [W] pour une température de paroi externe de 44 [°C].

Le constructeur annonçant des épaisseurs d’isolant (3-8 cm) et des déperditions (2 100 W) plus importantes que celles déterminées par le module de calcul, il est nécessaire d’être prudent dans le choix des paramètres :

  • De la surface de déperdition (une enveloppe parallélépipédique est renforcée par des raidisseurs qui agissent comme autant d’ailettes de déperdition et empêchent une isolation correcte de l’ensemble de la surface).
  • Du coefficient d’échange superficiel qui varie beaucoup selon que l’ambiance de l’espace technique est ventilée de manière forcée ou pas.

De plus, beaucoup de tuyauteries et de vannes sont connectées à la cuve de stérilisation et augmentent artificiellement la valeur de la surface déperditive. Ces équipements techniques, dans la pratique étant difficiles à isoler, il ne faut pas s’étonner d’arriver à des puissances de déperdition de l’ordre de 2 100 [W].

      

L’impact de l’épaisseur de l’isolant est important et influencera le choix de la ventilation de l’espace technique. En général, ce sont des espaces surchauffés, mal ventilés, jouant à terme des tours à l’électronique de régulation des stérilisateurs. Pour cette raison, la réaction habituelle est de prévoir une extraction vers l’extérieur.

Pensez d’abord à prévoir une isolation correcte des équipements !

Ensuite, pourquoi ne pas prévoir dans le projet une valorisation des calories produites par les déperditions résiduelles par leur réinjection durant les périodes froides dans des espaces à proximité ne nécessitant pas une qualité d’air semblable à celle d’une stérilisation centrale (quais fournisseurs par exemple).

Malheureusement, pendant les périodes chaudes (mais heureusement limitées), les calories devront être extraites de la zone technique vers l’extérieur.


Isolation des portes

Les portes, que ce soit du côté propre ou stérile, sont des parois déperditives qui risquent dans la plupart des cas de nuire au confort des occupants; elles conduisent souvent à la revendication de climatisation des zones de travail. Mais il est difficile, dans ce cas, de demander au constructeur d’augmenter son épaisseur d’isolant et, par conséquent, son épaisseur de porte (d’autres contraintes techniques limitent la marge de manœuvre).

La limitation des déperditions sera plutôt recherchée dans la gestion des temps d’ouverture des portes. En effet :

  • Le constructeur, pris dans l’exemple ci-dessus, évalue les déperditions au travers des portes à 500 W par stérilisateur. Dans le cas d’une stérilisation centrale équipée de 4 stérilisateurs, les déperditions montent à une valeur de 2 000 W été comme hiver.
  • Lorsque les portes sont ouvertes, le constructeur annonce une envolée des déperditions de 500 W à 1 400 W par stérilisateur.

On voit bien la nécessité, lors du projet de conception, de prévoir dans le cahier des charges la possibilité via une commande spéciale au niveau de l’automate de refermer les portes le plus rapidement possible après la sortie de la charge stérile.

Tout dépend aussi de la surcharge de travail des utilisateurs. On voit régulièrement en zone stérile des portes ouvertes pendant un certain temps car personne n’est disponible pour décharger l’autoclave. Une amélioration consiste à placer un déchargement automatique avec fermeture directe des portes après la sortie de la charge.

Choisir l’enveloppe de la chambre froide [Concevoir – Cuisine collective]

Choix constructif

Pour la construction de la chambre, on a intérêt à utiliser les éléments de raccords préfabriqués prévus par les fabricants des panneaux isolants (par exemple les éléments d’angles) en s’assurant qu’ils suppriment tous ponts thermiques.
En effet, si on n’utilise pas ces raccords, on risque de créer des ponts thermiques tels que ceux représentés ci-dessous.

On peut également supprimer ces ponts thermiques sur site lors de la construction en procédant à quelques adaptations qui consiste à couper la tôle ou à injecter des produits isolants.
Cette opération est néanmoins plus délicate et plus difficile à contrôler.

D’autre part, il vaut mieux aussi travailler avec la modulation des panneaux par rapport à l’espace disponible.
Car il est préférable d’avoir une chambre un peu plus petite mais réalisée soigneusement avec des pièces d’origine, que d’avoir une chambre (un peu) plus grande, mais bricolée en adaptant mal les raccords entre éléments préfabriqués qui auraient été découpés sur place avec le peu de précision que l’on devine.


Choix du coefficient de transmission thermique des parois

Importance relative de l’isolation des parois

Les apports par les parois ne constituent qu’une petite part dans les apports globaux d’une chambre froide. Cette part est plus ou moins importante selon le type et l’utilisation de la chambre froide.

Si le bilan frigorifique de la chambre ou de la cellule de congélation montre que, dans la puissance frigorifique totale, il y a une part importante d’apports thermiques par les parois, il faut s’intéresser d’autant plus près à l’isolation thermique et faire attention au vieillissement de l’isolant (les isolants perdent leurs qualités au cours du temps).

C’est par exemple le cas d’une chambre de conservation de longue durée, à température constante, dans laquelle les denrées sont introduites à la bonne température.

Choix de la valeur du coefficient de transmission thermique des parois

De manière générale, la valeur à atteindre pour le coefficient de transmission thermique (k) des parois des enceintes de conservation dépend de l’écart de température à maintenir entre la température intérieure de la chambre et la température extérieure.

Elle est de l’ordre de :

  • 0,350 à 0,263 W/m²K en stockage réfrigéré,
  • 0,263 à 0,162 W/m²K en stockage surgelé.

Avec des parois en polyuréthane (les plus courants pour les chambres froides démontables modulables) d’une masse volumique de 30 kg/m³ et d’un coefficient de conductivité thermique (λ) de 0,028 W/mK.
Cela correspond à des épaisseurs de panneaux de

  • 7 à 10 cm en stockage réfrigéré,
  • 10 à 17 cm en stockage surgelé.

 k [W/m2K] = 1/R; R = 1/αint + e/λ +1/αext

Où :

  • les coefficients d’échange superficiel αint = α ext = 8 [W/m2xK], e = l’épaisseur de l’isolant [m]

De manière plus précise, le coefficient de de transmission thermique doit permettre :

  • d’éviter les condensations superficielles
  • d’assurer un bon rapport coûts d’exploitation/investissement

Les condensations superficielles

Pour des raisons sanitaires (crasses, moisissures), et aussi pour éviter les corrosions des parties métalliques des chambres froides et des tuyauteries, il faut éviter les condensations.

La résistance thermique doit conduire à des températures de surface extérieure qui empêchent cette condensation dans une ambiance humide.

Calculs

Si vous voulez calculer l’épaisseur nécessaire des parois pour éviter les condensations superficielles, et ce en fonction de l’orientation de la paroi, de la température extérieure, de l’humidité relative extérieure, de la température intérieure et de la valeur lambda de l’isolant.

Remarque : en général, l’épaisseur ainsi calculée sera plus faible que les épaisseurs recommandées ci-dessus. Mais cette épaisseur est calculée avec un isolant de bonne qualité et en début de vie.

Les gains annuels suite à une meilleure isolation

Les apports thermiques par les parois vont dépendre du coefficient de transmission thermique de l’isolant, de son épaisseur, de la surface extérieure (en m²) et de la différence de température entre l’intérieur et l’extérieur.

Si pour une chambre donnée, on augmente l’épaisseur de l’isolant, cela a donc pour conséquence une diminution des déperditions. Ce qui a un triple effet sur les coûts :

  • les coûts des consommations électriques diminuent,
  • le coût d’investissement de l’enceinte augmente,
  • le coût d’investissement de la machine frigorifique diminue.

La fonction qui cumule ces trois variables, en fonction de l’épaisseur de l’isolant, possède en principe une courbe « creuse » au plus bas de laquelle on trouve l’optimum d’isolation thermique.

Pour trouver cet optimum, il faudrait connaître la variation de ces différents coûts par rapport à l’épaisseur de l’isolant. Il faudrait également faire intervenir des facteurs comme les taux d’intérêt, les taux d’inflation et la durée de l’amortissement.
Ce calcul est complexe et nous ne l’abordons pas ici.

Néanmoins, on peut calculer la diminution de pertes par les parois due à une augmentation de l’épaisseur de l’isolant et l’économie d’énergie approximative que cela engendre au niveau des consommations. Cette économie est à mettre en rapport avec le surcoût dû à l’augmentation de l’épaisseur de l’isolant (à demander à l’entrepreneur).

Calculs 

Si vous voulez faire ce calcul.
Remarque.

Le vieillissement des isolants est inéluctable, bien que ce chapitre ne soit pas abordé en toute franchise par les fabricants. On voit parfois apparaître des condensations sur des parois sandwiches en PUR après une dizaine d’années d’utilisation des chambres froides.
En tout état de cause, vu les nombreux phénomènes en cause dans la dégradation des isolations thermiques au cours du temps (et notamment les nombreux percements, la détérioration des joints et les dégâts faits aux parois par les utilisateurs eux-mêmes), il est prudent de tabler sur un accroissement de la valeur lambda de 20 à 30 % sur 10 ans.

Pour compenser cet effet, on peut augmenter l’épaisseur de l’isolant pour que l’isolation reste suffisante à la fin de la durée d’amortissement des installations.

Sans cette précaution, et si les apports par les parois forment l’essentiel de la puissance frigorifique, la machine risque d’être de plus en plus sollicitée au cours du temps, ce qui raccourcit sa durée de vie, et elle aura de plus en plus de difficultés à maintenir les consignes de température intérieures.


Faut-il isoler la dalle du sol ?

La chambre froide négative avec pièce habitée en-dessous

Le sol des chambres froides négatives est en général isolé pour les chambres vendues toutes faites.

Pour les autres, le sol doit être isolé sur chantier.

En effet sans cela il y a un risque certain de condensation sur le plafond de la pièce du dessous. L’épaisseur d’isolation thermique doit donc être calculée pour éviter la condensation sur cette surface.

Calculs

Si vous voulez calculer de manière simplifiée l’épaisseur d’isolant minimale nécessaire pour le sol de votre chambre froide négative afin d’éviter la condensation sur le plafond de la pièce située sous celle-ci.

Il est également impératif d’isoler le sol au niveau efficacité énergétique. En effet, les apports thermiques par cette paroi et les consommations qui en découlent vont être importants s’il ne l’est pas, vu qu’il y a une grande différence de température entre l’extérieur et l’intérieur.

La chambre froide négative sur terre-plein

Le sol des chambres froides négatives est en général isolé pour les chambres vendues toutes faites.

Pour les autres, il est impératif, pour des raisons d’économies d’énergie, d’isoler le sol sur chantier car les apports thermiques par cette paroi et les consommations qui en découlent vont être importants s’il ne l’est pas, vu qu’il y a une grande différence de température entre l’extérieur et l’intérieur.

Exemple.

Soit une chambre froide négative (-18°C) sur terre-plein, de dimensions (largeur x profondeur x hauteur) = (2.7 x 2.4 x 2.4) m³. Le sol sous la chambre est humide à 1 m de profondeur.

Sans isolation au niveau de la dalle, les déperditions par cette surface sont de 58 W. Avec 15 cm de polyuréthane (0.028 W/mK), les déperditions par cette paroi ne sont plus que de 19 W.

D’autre part, sans isolation de sol, il existe un danger de gel du sol s’il y a présence d’eau à faible profondeur. Si le sol commence à geler, les nodules de gel vont augmenter en épaisseur et finalement soulever et déformer le sol de la chambre. Il peut également y avoir un danger de condensation ou de givrage sur le sol extérieur autour de la chambre froide et le long des parois de la chambre froide. Ce mouillage du sol peut engendrer un risque de glissement pour le personnel de manutention.

Une bonne isolation du sol évite ces problèmes.

Il est à noter que les mesures décrites ci-dessous permettent également d’écarter ces risques mais utilisées seules, ces mesures ne sont pas satisfaisantes au niveau efficacité énergétique.
Ces mesures sont :

  • Le drainage du sol.
  • Un vide sanitaire bien ventilé par de l’air à température positive et le plus sec possible. Le cas du vide sanitaire doit être étudié pour que de la condensation n’apparaisse pas au plafond du vide, ce qui serait un risque pour les armatures de la dalle qui supporte la chambre froide.
  • Un chauffage sous le sol (câbles électriques ou tuyaux de circulation d’eau, éventuellement connectés par un échangeur au condenseur de la machine). Dans ce cas, la puissance du chauffage doit être ajoutée aux apports par le sol.

Gonflement du sol sous une chambre froide.

Système de chauffage pour éviter le gel du sol.

Source : Défauts de la construction, Kluwer Editorial, n°B1110 – 15 et 16.

Calculs 

Si vous voulez estimer la puissance chauffante à installer sous le sol d’une chambre froide négative pour éviter le gel. 

Mais attention, ce tableau est à manipuler avec la plus grande prudence. En effet :

  1. Les valeurs du lambda des sols secs et humides sont des hypothèses qui sont issues de la littérature pour des sols moyens. L’idéal serait de les vérifier pour le cas d’espèce.Certaines données à introduire ne sont pas indépendantes : la température en profondeur dépend évidemment de la température de la chambre froide, de l’importance de l’isolation thermique du plancher et de la profondeur de l’humidification du sol du terre-plein.
  2. Cette température en profondeur est variable au cours du temps, avant de se stabiliser quand l’ensemble de la masse est mis en régime.
  3. Cette température en profondeur peut varier entre l’hiver et l’été, surtout dans des zones situées au bord des entrepôts.
  4. L’humidification des sols peut aussi varier au cours du temps (selon l’efficacité du drainage).
  5. Si on ne chauffe pas la dalle, le gel pourrait se produire dans le sol, même si l’humidification du terre-plein ne monte pas jusque sous le béton du plancher.

Toutes ces raisons justifient pourquoi on doit utiliser le tableau en faisant une série de simulations raisonnables avec des données variables, pour aboutir à des valeurs maximalistes en isolation ou en chauffage.

La chambre froide positive

L’isolation des chambres froides positives est en option pour les chambres vendues toutes faites.

Pour les autres ce même choix est à faire.

Dans les 3 cas suivants, on choisit d’isoler le sol :

  1. Si on utilise la chambre avec des mises en régime fréquentes. L’isolation du sol permet d’avoir une constante de temps beaucoup plus courte et la mise en régime en sera d’autant plus rapide, avec beaucoup moins d’énergie nécessaire.
  2. Si on veut une homogénéité de la température aux environs du sol qui est souvent encombré par des dépôts de marchandises, ce qui conduit à des panaches de chaleur localisés.
  3. Si le sol est en contact avec une source chaude importante (comme un four posé sur le sol près de la chambre) qui transmet de la chaleur par conduction du sol par-dessous les parois verticales de la chambre. Bien sûr, cette situation est à éviter absolument pour des raisons énergétiques.

Dans les autres cas, le choix entre un sol isolé ou non se fait en fonction :

  • Du danger de provoquer de la condensation sur le plafond de la pièce du dessous lorsqu’il y en a une.
    Ce risque est moins important qu’avec une chambre froide négative.

Calculs 

Si vous voulez calculer de manière simplifiée si un isolant de sol est nécessaire dans votre chambre froide pour éviter la condensation sur le plafond de la pièce située sous celle-ci, et dans ce cas, quelle doit être l’épaisseur de celui-ci.
  • De l’augmentation des consommations électriques par rapport à celles de la même chambre dont le sol est isolé.

Aspects constructifs d’un plancher isolé

L’isolation de sol génère une marche à l’entrée de la chambre. Si la chambre est petite, on peut s’en accommoder. Les chariots restent à l’extérieur de la chambre et la manutention ne nécessite que quelques pas.

Dans le cas contraire, il y a trois possibilités :

  • la chape isolée qui évite la différence de niveau,
  • le décaissé dans la dalle,
  • une pente devant la porte.

La chape isolée

Pour des raisons évidentes de facilité de construction et de rapidité d’utilisation après construction, il vaut mieux utiliser des panneaux isolants dont la surface supérieure est un platelage en multiplex bakélisé ou une plaque métallique antidérapante.

Les constructeurs de ces panneaux en donnent les valeurs des résistances à la compression et au poinçonnement sous charge ponctuelle.

Si ces valeurs sont dépassées par les charges que l’on veut mettre en œuvre dans la chambre en projet, il faut alors passer à la réalisation d’une dalle flottante sur l’isolation thermique.

Dans ce type de conception, il y a 3 points à respecter :

  1. Il faut que l’isolant qui supporte le sol, soit suffisamment résistant pour porter le poids de la dalle augmenté des charges d’entreposage et de manutention.
  2. Il faut que la compressibilité de l’isolant sous cette charge soit inférieure à une certaine valeur. Le C.S.T.C. (dans sa revue trimestrielle n°1/2, 1988, pg. 50) propose (dL – dB) inférieur ou égal à 3 mm, avec :
    • dL : épaisseur de livraison sous charge de 25 kg/m²,
    • dB : épaisseur sous charge de 200 kg/m² après une sollicitation temporaire d’environ 2 minutes sous 5 000 kg/m². Bien entendu, ces dispositions sont valables pour des charges réparties de l’ordre de 300kg/m². Elles sont donc à adapter aux vraies charges de la chambre projetée. Mais elles ne devraient de toute façon pas être diminuées.

    Il est évident que la compressibilité de l’isolant dépend de sa masse volumique. Le C.S.T.C. préconise dans le cas du polyuréthane (PUR), une masse volumique minimale de 30 kg/m³.
    Remarquons que la masse volumique influence la valeur lambda de l’isolant : masse volumique plus élevée => lambda plus élevé, donc moindre qualité isolante.

    Sans les précautions ci-dessus, l’affaissement de l’isolation sous la charge de la dalle de sol, se traduirait par des problèmes périphériques de joints avec les parois verticales, et aussi par des différences de niveau aux endroits de passage vers l’extérieur.

  1. La dalle de sol doit être armée, l’armature calculée selon les charges.Le béton doit être le plus sec possible au moment de sa mise en œuvre, pour éviter l’éclatement du béton en cas de mise en régime trop rapide. L’idéal est d’attendre 3 semaines avant d’entamer le refroidissement.
Exemple de plancher isolé d’une chambre froide négative.


Le décaissé dans la dalle

Le décaissé est délicat à réaliser. Il demande une bonne préparation au niveau de la conception et une bonne coordination de l’exécution, si plusieurs entreprises successives doivent intervenir.

On prendra grand soin à réaliser l’obturation des joints à l’extérieur, au pied des parois, pour éviter que de l’eau n’aille se faire piéger dans la fosse, sous l’isolant.

C’est notamment pour cette raison que cette fosse doit être raccordée à l’égout.


L’étanchéité des parois

Pourquoi la chambre doit-elle être étanche à l’air et à la diffusion de vapeur ?

L’étanchéité à l’air et à la diffusion de vapeur va permettre de limiter :

  • Les apports thermiques.
    Les entrées d’air humide et de vapeur. Ces entrées sont provoquées par la différence de pression (on ne peut pas facilement rouvrir la porte d’un congélateur ménager qu’on vient de fermer) et de température entre l’extérieur et l’intérieur.

 

  • L’humidité va se condenser dans les chambres froides positives, ou va se congeler dans les chambres froides négatives.
    Dans les deux cas, cela entraîne des ennuis à plus ou moins court terme :

    1. Mouillage de l’isolation thermique qui perd ses qualités isolantes.
    2. Apparition de glace en expansion avec danger de déformation des panneaux, pour les chambres froides négatives.

Cela entraîne la dégradation des propriétés de la chambre à terme et donc un vieillissement accéléré.

Comment rendre la chambre étanche

  • La réalisation des joints doit être soignée.

 

  • Un pare-vapeur qui doit être placé du côté où la pression de vapeur est la plus élevée, c’est-à-dire ordinairement du côté le plus chaud. En principe, c’est la feuille métallique du panneau isolant préfabriqué, qui joue le rôle de pare-vapeur.Mais ce pare-vapeur doit être placé d’une manière continue et sans percements. Quelques trous dans le pare-vapeur réduisent son efficacité d’une manière dramatique.
  • Tout percement des parois dans les chambres doit être rebouché soigneusement par une matière imperméable à la vapeur (mousse à cellules fermées).

 

  • Les portes doivent posséder des joints souples qui doivent obturer très correctement les espaces entre la porte et son encadrement dormant. Un défaut de ces joints, ou une déformation de la porte, entraîne, surtout dans le cas des chambres négatives, l’apparition de glace sur les bords du cadre dormant. Cette glace empêche les joints de bien jouer leur rôle et, en plus, elle peut arriver à provoquer la déformation de la porte qu’on force en fermant. C’est le cercle vicieux.

Mesures supplémentaires à prendre avec une bonne étanchéité

La bonne étanchéité des chambres et des portes, entraîne des conséquences importantes :

  • Les entrées d’air ne se font plus que par les ouvertures de portes et il peut être nécessaire de contrôler la qualité de l’air pour les travailleurs qui sont enfermés dans les chambres (certaines denrées « respirantes »,de même que les travailleurs dégagent du CO2). Il faudrait donc, dans ce cas, assurer le renouvellement de l’air par un système de ventilation mécanique contrôlée.

 

  • Pour les grandes chambres froides négatives, la dépression causée par le refroidissement rapide de l’air introduit par une ouverture de porte, provoque une poussée de l’air extérieur sur toutes les parois de la chambre; ce qui peut créer des déformations dans les panneaux verticaux et le plafond voire leur effondrement, surtout pour des plafonds dont les panneaux ont des portées très grandes sans être efficacement supportés par une structure.
    C’est pourquoi il faut prévoir des soupapes de décompression qui permettent des passages d’air pour équilibrer les pressions à tout moment. Cela permet d’ouvrir les portes sans problème (voir l’exemple de la porte du congélateur ménager ci-dessus).
    Bien entendu, si de l’air extérieur chaud et humide passe à travers les soupapes vers l’intérieur de la chambre, on devra éviter le gel des soupapes (froides), en les chauffant par une résistance électrique. Il faut donc prévoir une arrivée de courant pour brancher ces soupapes.
    Mais il peut aussi se produire des surpressions dans les chambres froides négatives.
    Là encore, les soupapes de décompression vont jouer leur rôle en laissant sortir l’air intérieur pour éviter de mettre la chambre en surpression par rapport à l’extérieur, ce qui occasionnerait des déformations des parois vers l’extérieur.
    Il est essentiel que les clapets de ces soupapes soient toujours bien libres pour tout mouvement de l’air, soit vers l’extérieur, soit vers l’intérieur.

La porte et « ses accessoires »

La porte de par ces ouvertures apporte des quantités importantes de chaleur et constitue donc un poste important dans le bilan thermique d’une chambre.

De même, elle est à l’origine de quantités considérables de vapeur d’eau.

Dans les chambres positives, une partie de cette vapeur, entraînée par l’air chaud qui monte, se condense en eau sur les parties froides intérieures des parois au-dessus des portes, ce qui peut créer des égouttements gênants.
Dans les chambres froides négatives, une partie de cette vapeur d’eau se fait piéger sous forme de givre au-dessus des portes. Au départ, ce givre a une masse volumique assez faible (+ 200 kg/m³) et prend beaucoup de volume en s’accumulant à chaque ouverture. Au cours du temps, ce givre va se densifier en glace et prendre de plus en plus de poids, ce qui conduit à des masses importantes, collées à la structure au-dessus des portes. A la longue, cela peut entraîner des déformations, si la structure n’est pas assez forte pour supporter ces masses de glace.

Il faut donc régulièrement aller briser la glace si la chambre travaille en continu. Si la chambre froide est arrêtée de temps en temps pour nettoyage, la fonte de cette accumulation de glace, produira beaucoup d’eau et prendra du temps.

Ainsi, les temps d’ouverture doivent être réduits autant que possible. Quand on travaille à l’intérieur de la chambre ou quand on y fait des allées et venues, il est recommandé de refermer la porte contre son ébrasement, même sans l’encliqueter.

Des accessoires peuvent aider à limiter les effets négatifs des ouvertures de portes :

  • Un système de fermeture automatique.

 

  • Des lamelles plastiques d’obturation des baies.

 

  • Des portes vitrées isolées permettent de trouver les aliments avant d’entrer et de ne pas perdre de temps à chercher dans la chambre froide, portes ouvertes. Ce qui représente une économie d’énergie mais également une amélioration du confort pour les travailleurs.
    Les vitrages doivent être en plexy pour éviter les bris de vitre.Le coefficient d’isolation thermique est inférieur à celui du reste de la porte mais il doit être suffisant pour éviter l’apparition de condensation.
    En ce qui concerne les surconsommations énergétiques, les surfaces de ces vitrages sont souvent petites et sont donc négligeables dans l’ensemble.

 

  • Il existe des alarmes qui sonnent tant que la porte est ouverte, ce qui pousse la personne à sortir au plus vite (bien que le froid devrait suffire…!!)

Dans le même ordre d’idée, une chambre froide positive peut avantageusement servir d’espace tampon entre la chambre froide négative et l’extérieur.


La capacité thermique de la chambre

Associée à l’isolation thermique, la capacité thermique de la chambre froide détermine sa constante de temps.

La constante de temps de la chambre frigorifique permet d’estimer, en première approximation, la façon dont elle va se comporter en régime transitoire (c’est-à-dire entre deux paliers de température).

Une constante de temps courte indique que l’on aura des variations rapides de température, et une constante de temps longue, indique l’inverse.

Le choix entre une constante de temps longue (ou une inertie thermique importante pour une isolation déjà choisie) et une constante de temps courte (ou une inertie thermique faible pour une isolation thermique déjà choisie) se fait en fonction de :

  • la volonté de maintenir les marchandises à bonne température
  • la fréquence des mises en régime de la chambre froide

La volonté de maintenir les marchandises à bonne température

Les responsables des cuisines collectives vivent avec l’inquiétude de pannes des installations frigorifiques qui peuvent avoir des conséquences importantes sur l’utilisation des denrées stockées, dans le souci de respecter l’arrêté royal relatif à l’hygiène générale des denrées alimentaires.

Bien que les contrats de maintenance puissent prévoir des délais d’intervention très courts, il n’empêche qu’en cas de panne de l’installation, le maintien des aliments stockés le plus longtemps possible, aussi près que possible de la température de stockage, doit être un critère supplémentaire pour le choix de l’inertie thermique de la chambre (et de l’épaisseur d’isolant).

Le stockage d’énergie frigorifique dans une chape de sol refroidie peut ralentir la montée en température de la chambre parce que sa constante de temps est très longue (24 heures et plus) et que sa capacité thermique est importante. De plus, vu que le coefficient de conductivité thermique d’une chape est élevé, la prise d’énergie frigorifique dans la chape n’en sera que meilleure, ce qui tendra à stabiliser la température. Ceci plaide en faveur de la présence d’une chape placée par-dessus l’isolation des chambres froides, même pour les chambres froides positives.

Évidemment, la présence d’une quantité importante de denrées stockées refroidies jouera le même rôle, mais au détriment de leur qualité, car c’est leur surface extérieure qui va d’abord se réchauffer. Et surtout s’ils sont les seuls à jouer le rôle de capacité thermique.

La fréquence des mises en régime de la chambre froide

Avec une chambre à grande inertie thermique dans la chape, il faut éviter de les laisser remonter trop souvent à la température ambiante extérieure. Sinon, une partie importante de la puissance de l’évaporateur va être « détournée » pendant un temps très long par la chaleur qui s’évacue de la dalle de sol, au détriment de la chaleur à évacuer des denrées, si ce travail est à faire en même temps.

Choisir un système d’humidification

Choisir un système d'humidification


Check-list du projet

Des questions à se poser

Plus d’infos ?

Avant d’humidifier …
Le besoin d’humidifier est-il réel ? Il est nécessaire si une ventilation est organisée dans les locaux. Mais il est superflu dans une cafétéria, une salle de restaurant, une salle d’archives, un musée …

Évaluer

Le débit d’air neuf hygiénique a-t-il été évalué correctement ? (tout excès d’air entraîne une consommation d’énergie et d’eau excédentaire).

Evaluer

Est-il possible d’organiser un recyclage partiel de l’air extrait et donc un recyclage de l’humidité de l’air (dans une installation « tout air ») ? Le conseil minimal serait d’au moins prévoir l’ajout futur d’un humidificateur si cela s’avère nécessaire (constat de non-respect de la consigne, changement de norme, défaut du récupérateur d’humidité etc.).

Voir partie « Préalable : le besoin d’humidification »

Faut-il imposer une consigne d’humidité relative intérieure permanente ou imposer un seuil minimal d’humidité au dessus duquel le taux d’humidité peut flotter ?

Voir partie « Préalable : le besoin d’humidification »

L’hygrométrie est-elle variable d’un local à l’autre ? L’attribution des locaux pourrait être ultérieurement modifiée ? Ne doit-on pas privilégier une humidification individuelle par local ?

Voir partie « Préalable : le besoin d’humidification »

Le choix du matériel et de la régulation :
Une analyse comparative des coûts énergétiques a-t-elle été faite ?

Voir partie « Critère de choix : la consommation énergétique »

Une analyse comparative des consommations en eau a-t-elle été faite ?

Voir partie « Critère de choix : la consommation en eau »

Les précautions liées à la maintenance des humidificateurs, tout particulièrement pour les appareils à recyclage ou à évaporation, ont-elles été prises ? Une vidange automatique est-elle prévue ?

Voir partie « Critère de choix : la qualité hygiénique »

Comment sera régulé le débit de déconcentration ?

Voir partie « Critère de choix : la consommation en eau »

Aura-t-on la possibilité de stopper le fonctionnement en fonction d’un seuil de température extérieure (par exemple 5°C, ajustable par l’exploitant en fonction des exigences de confort) ?

Voir partie « Critère de choix : la régulation »


Préalable : le besoin d’humidification

Autrefois, l’air n’était pas humidifié…

Force est de constater que nous vivons généralement chez nous dans une ambiance non humidifiée de manière artificielle. Nous pouvons néanmoins indiqué que dans une maison, l’humidification principale de l’air se fait naturellement par la salle de bain et la cuisine. Dans un bâtiment de bureaux, le besoin d’humidification est plus important car ces pièces d’eau ne sont pas présentes.

Cependant, aujourd’hui, une ventilation est organisée dans nos bâtiments, et un besoin réel d’humidification existe alors en hiver. Il est lié à l’apport d’air neuf hygiénique. L’air extérieur froid, une fois réchauffé, est un air sec. Dans les bureaux, pour assurer un bon confort thermique, l’air est porté à un taux d’humidité relative minimum de 40 %.

Cette humidification est énergétiquement coûteuse et il est utile d’en limiter l’intensité.

L’analyse des besoins

Le besoin d’humidification est directement lié au taux de renouvellement d’air puisque c’est l’air neuf qu’il faut humidifier en hiver. Il y a donc lieu de définir précisément les besoins réels en apport d’air neuf.

Évaluer

Pour en savoir plus sur l’évaluation de la qualité de l’air, cliquez ici !

À noter que certains locaux ne nécessitent pas d’humidification : une salle de restaurant, une cafétéria, une salle d’archives, un musée…

Si un local nécessite un taux de renouvellement horaire de 5, sans obligation de contrôler le taux d’humidité, alors que les autres locaux n’ont besoin que d’un taux de 1 mais avec nécessité d’humidifier, il peut être intéressant de concevoir deux installations différentes.

Il sera utile de définir le niveau d’humidification : du « tout centralisé » au départ des circuits si les besoins semblent homogènes, vers le « tout décentralisé », chaque local ayant des besoins différents.

Contrôle de l’humidité strict où humidification minimale de base ?

Il est fréquent de trouver dans les cahiers des charges une demande de « maintien des locaux à 21°C et 50 % HR ».

Cette simple phrase peut générer des consommations non négligeables et inutiles.

Le contrôle strict du taux d’humidification n’est-il pas nécessaire uniquement au niveau du local informatique ? D’une manière générale, on vérifiera si l’humidification décentralisée d’une zone limitée dans le bâtiment ne pourrait pas suffire. Le restant du bâtiment étant humidifié au niveau de la centrale de traitement d’air neuf ou mixte « neuf-repris » avec une humidification minimale (par exemple, un taux d’humidité réglé sur 35 % en sortie de centrale et un arrêt total de l’humidification en mi-saison et en été).

Si néanmoins un contrôle de l’humidité est choisi, l’hygrostat sera placé soit dans un local témoin non sujet à beaucoup d’infiltrations d’air (fenêtres ouvrantes, par exemple), soit dans la reprise d’air.

Attention : la mesure dans la reprise d’air est souvent faussée !

L’air extrait est légèrement plus chaud que l’ambiance (suite aux luminaires, notamment), ce qui va fausser la mesure et augmenter le taux d’humidité ambiant.

Admettons que la reprise (placée dans le faux plafond) aspire de l’air à 25°C alors que l’ambiance est à 22°C. Une consigne réglée sur 50 % HR, va générer en réalité une ambiance à 60 % HR. En effet, la sonde va régler l’humidificateur pour assurer 25°C et 50 % HR, ce qui correspond à l’humidité de 22°C et 60 % HR dans le diagramme de l’air humide…

Il faut donc tenir compte de cette stratification des températures et diminuer la consigne à, par exemple, 34% HR pour obtenir une ambiance à 40% HR.

Schéma : la mesure dans la reprise d'air est souvent faussée


Synoptique des technologies existantes

Techniques

Ces technologies sont décrites en détail en cliquant sur :

« Humidifier, c’est augmenter la teneur en vapeur d’eau dans l’air ».

On distingue trois types de technologies pour y arriver.

1. Pulvériser de l’eau atomisée :

  • les humidificateurs à gicleurs d’eau froide (ou « laveurs d’air »),
  • les humidificateurs rotatifs,
  • les humidificateurs à pulvérisation par air comprimé + eau,
  • les humidificateurs à ultrasons,
  • les humidificateurs à pulvérisation d’eau chaude.

2. Injecter de  la vapeur :

  • issue d’un réseau de vapeur (si bâtiment équipé d’une chaudière à vapeur),
  • issue d’un générateur autonome (appareil de production de vapeur électrique).

3. Évaporer de l’eau chaude  ou froide :

  • par ruissellement d’eau sur un média,
  • par contact à la surface d’un plan d’eau.

« Humidifier, c’est maîtriser l’énergie de vaporisation de l’eau. »

On distingue les appareils suivant l’origine de la chaleur de vaporisation. Deux techniques sont possibles et les coûts qui en résultent sont fort différents.

1. Injecter de l’eau froide dans l’air :

La chaleur de vaporisation de l’eau liquide est prise sur l’air (qui se refroidit), et le système de chauffage de l’air devra fournir cette chaleur complémentaire. On parle « d’humidificateurs à enthalpie constante »

  • les humidificateurs à gicleurs d’eau froide (ou « laveurs d’air »),
  • les humidificateurs par contact avec de l’eau froide (plaque fixe, roue, nid d’abeille),
  • les humidificateurs par ultrasons.

L’énergie de vaporisation est donnée par le combustible qui alimente la chaudière (fuel, gaz, …)

2. Injecter de l’eau chaude ou de la vapeur dans l’air :

La chaleur de vaporisation de l’eau est, en tout ou en partie, fournie par l’humidificateur. On parle « d’humidificateurs à enthalpie variable »

  • les humidificateurs à vapeur,
  • les humidificateurs par pulvérisation à eau chaude,
  • les humidificateurs par contact avec de l’eau chaude.

L’énergie est d’origine électrique (et présente donc un coût plus élevé…).

« Humidifier, c’est risquer d’introduire des micro-organismes et des sels dans l’air… »

Le contact eau-air est favorable à la propagation de bactéries. Ce sera particulièrement critique dans les installations où l’humidification est faite « à reflux » car on y retrouve les conditions favorables au développement bactérien.

On a dès lors développé des installations à pulvérisation d’eau avec un débit limité : le débit d’eau est alors totalement vaporisé (aérosols). Une fois la goutte d’eau froide évaporée, les sels contenus dans l’eau se retrouvent pulvérisés dans l’atmosphère et risquent de former des dépôts (calcium, sodium) sur les appareils (fine poussière)…  C’est le cas des humidificateurs rotatifs, des humidificateurs à pulvérisation par air comprimé + eau, … De l’eau déminéralisée peu alors être utilisée.

Les humidificateurs à vapeur garantissent la stérilité du traitement et l’absence de sel dans l’air humidifié, … mais les sels se déposent dans le préparateur de vapeur, causant beaucoup de soucis à la maintenance ! De plus, le coût d’exploitation est élevé ainsi que l’impact environnement de l’humidification avec ce type de système….


Critère de choix : le coût d’investissement

Il est difficile de préciser le coût d’une installation d’humidification : la gamme d’équipements disponibles est grande et les débits d’humidification possibles également.

De plus, suivant la qualité de l’eau du réseau et le type d’humidification, il sera nécessaire ou non d’associer un traitement préalable de l’eau, avec le budget d’investissement et d’exploitation qu’il entraîne… !

On trouvera en synthèse une approche comparative des coûts d’investissements approximatifs.


Critère de choix : la consommation en eau

Le coût en eau d’une installation d’humidification peut être non négligeable. Et la tendance actuelle (augmentation du prix du m³ d’eau) va amplifier ce coût.

Calculs

Pour calculer la consommation annuelle en eau pour une installation donnée, cliquez ici !

La situation est particulièrement critique pour les installations à recyclage d’eau. En effet, au bas de l’humidificateur, un bac recueille l’excédent d’eau. Suite à l’évaporation partielle de l’eau, la teneur en sels dans l’eau du bac augmente progressivement. Une déconcentration régulière par injection d’un débit d’eau fraîche est réalisée, avec évacuation de l’excédent vers l’égout.

Principe des installations à recyclage d'eau.

En pratique, le risque est grand que le débit de déconcentration soit beaucoup trop élevé : à défaut de calcul, « par sécurité », le robinet reste souvent ouvert en permanence…

Calculs

Il est possible de procéder au calcul du débit de déconcentration effectivement nécessaire.

Pour maîtriser ce coût de l’eau, il est possible de prévoir une automatisation des périodes de déconcentration en fonction de la teneur en sels de l’eau du bac.

Au coût de l’eau, il faudra encore ajouter le coût de son traitement éventuel pour l’élimination des sels.

Exemple.

Soit un immeuble de bureaux de 4 000 m². Deux cents personnes y travaillent.

La nouvelle réglementation wallonne impose une ventilation de 2,5 m³/h.m² (bureaux communs). Une installation traitant 10 000 m³/h d’air neuf est dimensionnée (soit 10 000 m³/h x 1,2 kg/m³ = 12 000 kg/h).

Estimons les besoins en eau, en supposant que l’humidification fonctionne durant la saison de chauffe, aux conditions climatiques de la Belgique.

Les conditions d’ambiance à atteindre sont de 22°C et 50 % HR. Ce qui entraîne une humidité absolue de 8,2 greau/kgair.

On estime les apports hydriques internes du bâtiment suite à la présence des occupants, en considérant un apport en eau de 47 gr/h.pers :

(200 pers. x 47 greau/h.pers) / (12 000 kgair/h) = 0,8 greau/kgair

La régulation imposera un point de soufflage dont l’humidité absolue avoisine les :

8,2 – 0,8 = 7,4 greau/kgair

Dimensionnement de l’humidificateur :

Par température extérieure extrême de – 10°C et 90 % HR, l’humidité absolue est de 1,5 greau/kgair

Les débits maximum en eau sont donnés par :

12 000 kg/h x (7,4 – 1,5) greau/kgair = 70 800 gr/h = 70,8 kgeau/h,

ce qui permet de sélectionner l’humidificateur.

Estimation de la consommation :

La consommation totale saisonnière en eau sera estimée en fonction :

  • de la durée de fonctionnement de l’installation,
  • de l’écart entre l’humidité absolue moyenne extérieure et le niveau d’humidité intérieure souhaité.

Pour un immeuble de bureaux, le fonctionnement est estimé à 10 h/jour, 5 jours par semaine, durant les 35 semaines de la saison de chauffe, soit 1 750 heures/saison.

En première approximation, pour Uccle, les conditions moyennes de température et d’humidité hivernales en journée (de 8h00 à 18h00) sont de 7,7°C et 76 % HR, soit 5 greau/kgair pour l’ensemble de la saison de chauffe.

Mais plus précisément, sur base du , on doit retirer 150 heures de semaine où l’humidité absolue dépassant 7,4 greau/kgair, on peut supposer l’humidificateur à l’arrêt. Reste 1 600 heures pour lesquelles l’humidité absolue moyenne est de 4,6 greau/kgair.

La demande moyenne en eau d’humidification peut donc être estimée à :

12 000 kg/h x (7,4 – 4,6) greau/kgair = 33 600 gr/h = 33,6 kgeau/h

Autrement dit, 33,6 litres d’eau sont évaporés chaque heure, en moyenne.

Consommation saisonnière en eau d’humidification = 33,6 x 1 600 = 53 760 litres/an = 54 m³/an.

Remarques.

  • Cette consommation doit être augmentée de 50 à 200 %, si l’installation est à eau recyclée, avec débit de déconcentration.
  • Les hypothèses de départ influencent fortement le résultat du calcul qui doit être adapté à la situation particulière de chaque bâtiment.
  • Ce type de calcul permet de chiffrer l’intérêt de modifier les consignes de température et d’humidité. Ainsi, une température de 21° et une humidité relative fixée à un minimum de 40 % entraîne les adaptations suivantes :

21° et 40 % HR à 6,2 greau/kgair

apports internes à 0,8 greau/kgair

point de soufflage à 5,4 greau/kgair

Durée de fonctionnement de l’humidificateur : durant 1 025 heures l’humidité absolue extérieure est inférieure à 5,4 greau/kgair , l’humidité moyenne est de 3,9 greau/kgair.

> Nouvelle consommation en eau :

12 000 x (5,4 – 3,9) x 1 025 = 18,5 m³/an !


Critère de choix : la consommation énergétique

Deux sources de consommation sont présentes

  • l’énergie mécanique des pompes (pour la pulvérisation, par exemple),
  • l’énergie nécessaire à la vaporisation de l’eau.

La première est négligeable, au plus quelques % face à la seconde !

Par contre, l’énergie nécessaire pour faire passer l’eau de l’état liquide à l’état vapeur est fort élevée : c’est la chaleur latente de vaporisation. Et suivant le type d’humidificateur, le coût de cette énergie sera fort différent

  • Si l’humidificateur travaille à partir d’eau froide, c’est l’air qui donnera l’énergie de vaporisation. C’est donc la batterie de chauffe de l’air qui, indirectement, fournira la chaleur. Si la batterie est alimentée par de l’eau chaude, le prix de revient de la chaleur de vaporisation sera fixé par le prix du combustible en chaufferie.
  • Si l’humidificateur diffuse directement de la vapeur, soit la vapeur provient d’une chaudière vapeur et l’on se retrouve dans une situation similaire au point précédent, soit la vapeur est d’origine électrique et le coût de l’opération se trouve multiplié par un facteur 3 (c’est pratiquement toujours de l’électricité de jour…).

Pour faire passer 1 kg d’eau à 10° (température moyenne du réseau) à l’état vapeur, il faut fournir une chaleur de :

4,19 kJ/kg.K x 90 K + 2 257 kJ/kg = 2 634 kJ/kg, soit encore : 2 634 / 3 600 = 0,73 kWh/kg

Si on prend un coût de l’énergie électrique à 0,1 €/kWh (tarif de jour pour le régime haute tension, pointe de puissance comprise), le coût peut être estimé à 7,25 c€/kgeau.

Pour une installation au gaz naturel ou au fuel, sur base d’un coût moyen du kWh utile (rendement compris) estimé à 3,5 c€/kWh, on obtient 2,5 c€/kgeau.

Calculs

Pour calculer le coût énergétique annuel lié à l’humidification de l’air ambiant, cliquez ici !
Exemple suite.

en reprenant

l’estimation de la consommation en eau de 54 m³/an vaporisés pour une installation de 10 000 m³/h d’air neuf hygiénique, on obtient des coûts respectifs d’humidification de 3925 €/an (électrique), 1350 €/an (gaz ou fuel). Ces coûts correspondent à une consigne de 22° et 50 % HR. Ils chutent au tiers de leur valeur pour une consigne de 21° et 40 % HR.

Avec les hypothèses de l’exemple, ramené au m², on obtient 9,9 kWh/m² soit un budget de :

  • énergie électrique : +/- 1 €/m²
  • énergie gaz ou fuel : +/- 0,35 €/m²

Critère de choix : la qualité hygiénique

Ce critère est certainement déterminant dans le choix d’un humidificateur ! Le développement de bactéries dans les humidificateurs est un élément à ne pas négliger.

S’il fallait classer les systèmes sur base de ce seul critère, en partant du meilleur, on aurait

  • l’humidificateur à vapeur,
  • l’humidificateur à pulvérisation sans recyclage (tout le débit d’eau, ou presque, est évaporé),
  • l’humidificateur à pulvérisation avec recyclage (de l’eau stagne dans le bac récolteur de l’excédent),
  • l’humidificateur à évaporation avec recyclage (le média est humidifié en permanence…).

Bien sûr, une maintenance rigoureuse peut limiter fortement les risques de contamination de l’air. C’est pourquoi, même si les humidificateurs électriques sont fréquemment utilisés pour les petites installations, les laveurs d’air restent souvent choisis pour l’humidification des grosses installations.

Gérer

Pour en savoir plus sur les prescriptions de maintenance des humidificateurs : cliquez ici !

Pour limiter les risques de développement de germes dans les humidificateurs, ceux-ci peuvent être équipés de lampes à ultraviolets. Les lampes UV peuvent être placées sur la tuyauterie d’alimentation des cannes porte-gicleurs ou en by-pass avec pompe de circulation propre. L’installation en immersion dans le bac de rétention des eaux de ruissellement est moins conseillée. Il faudra cependant être attentif à ce qu’elles ne s’entartrent pas. L’eau d’alimentation doit donc idéalement faire l’objet d’un adoucissement préalable à son utilisation dans les humidificateurs. L’utilisation de lampes UV est préférable à l’utilisation de biocides pour éviter la pulsion d’agents irritants.

Dispositif de décontamination de l’eau avec lampe à ultraviolets : se place sur le circuit alimentant les gicleurs.

Humidificateur à évaporation équipé de lampes UV irradiant les câbles de ruissellement.

Parmi les systèmes à recyclage, on préférera les systèmes dont le bac de rétention est le plus petit possible et sans recoin, par exemple avec un fond incliné conduisant vers la prise d’eau.

Il existe également d’autre système comme le système Microniser.


Critère de choix : la régulation

Différents systèmes permettent à l’humidificateur de moduler le débit entre 0 et 100 %.

Pour les installations de conditionnement d’air

Humidificateurs à vapeur

La régulation est basée sur le schéma suivant :

Régulation des humidificateurs à vapeur.

En fonction de l’écart entre l’humidité relative mesurée sur l’air extrait (H2) et la valeur de consigne réglable sur le régulateur, il y a action sur l’humidificateur. Un limiteur maximal d’humidité relative de l’air soufflé (H1) limite le débit de vapeur pulvérisé. Une sonde de sécurité (H3, en option) commande directement l’arrêt de l’humidificateur.

C’est le même régulateur qui agit en cascade sur la batterie froide, pour la déshumidification éventuelle.

Ce système doit être complété par deux dispositifs de sécurité qui interdisent la pulvérisation de vapeur lors de l’arrêt du ventilateur

  • Le verrouillage électrique entre l’humidificateur et le ventilateur. Un pressiomètre qui vérifie le fonctionnement effectif par la mise en pression de la gaine (si la courroie du ventilateur casse, le ventilateur est électriquement en fonctionnement…)

Attention à ne pas placer les appareils de contrôle (thermomètre et hygromètre) trop prêt de la rampe. A priori, une distance de 3 m minimum est recommandée, mais cette distance dépend de la température de l’air humidifié.

Calculs

Un calcul de la distance humidificateur-sonde peut être réalisé.

Humidificateurs à pulvérisation et à évaporation

La régulation des laveurs d’air est traditionnellement basée sur le point de rosée du point de soufflage. Autrement dit, l’humidificateur fonctionne en continu et humidifie toujours l’air au maximum ( …85 %… en pratique). Le réglage de la batterie de post-chauffe se fait sur la température de l’ambiance, le réglage de la batterie de préchauffe se fait sur une température de point de rosée à la sortie de l’humidificateur, corrigée en fonction du degré d’humidité relative de l’ambiance.

Cette régulation est tout à fait correcte en hiver, mais risque de poser des problèmes en mi-saison et en été en fonction du mode de régulation : humidification excessive (même en hiver), fonctionnement simultané des batteries chaudes et froides. Ce sera le cas si le fonctionnement de l’humidificateur n’est pas asservi à une sonde d’humidité ambiante (ou de reprise) et si les batteries de préchauffe et de refroidissement sont commandées par la même consigne de point de rosée.

Quel type de régulation ?

Pour éviter ces problèmes, voici comment la régulation du groupe de traitement d’air peut être configurée en présence d’un humidificateur de type « laveur d’air » :

  • La batterie de préchauffe sera commandée par un régulateur en fonction de l’humidité relative de l’air repris ou de l’air ambiant, sans que l’humidité de l’air pulsé ne dépasse pour autant une valeur limite.
  • Les batteries de postchauffe et de refroidissement seront, elles, commandées, selon les cas, en fonction de la température de pulsion ou de la température ambiante ou de la température de reprise.
  • Le fonctionnement de l’humidificateur sera asservi à une sonde d’humidité ambiante ou située dans la gaine de reprise commune. Cet asservissement se fera en tout ou rien, de façon modulante ou par palier, en fonction du type d’humidificateur (avec une consigne d’humidité sera abaissée au maximum : 40%).

Pour les humidificateurs d’ambiance directe

On utilise généralement des humidificateurs par action tout ou rien (sur la pompe de gicleurs ou par étagement de rampes), l’hygrostat enclenchant l’appareil lors du dépassement d’un seuil réglable. Un hygrostat supplémentaire de sécurité est également prévu pour limiter le risque en cas de panne du premier régulateur.

Précautions générales

Asservissement au fonctionnement du ventilateur

Il est prudent d’asservir le fonctionnement de l’humidificateur à celui du ventilateur, pour éviter tout risque d’humidification des gainages lors de l’arrêt (volontaire ou non) du ventilateur.

La possibilité d’arrêter l’humidification en mi-saison

La régulation en fonction de l’humidité relative sur la reprise d’air est fiable, mais à défaut ou en plus, il est également possible de commander le fonctionnement de l’humidificateur en fonction de la température extérieure (interrupteur en série). En pratique, le critère qui consiste à « stopper l’humidification si T°ext > 5°C » est simple et efficace. La sonde peut être placée à l’extérieur ou dans la gaine d’air frais. De toute façon, un air extérieur à 5°C est, en Belgique, en moyenne chargé de 4,5 grammes d’eau par kg d’air. Une fois chauffé, il atteint 20°C et 30 % HR (ce qui est déjà temporairement supportable). L’apport en eau interne des bureaux (plantes, occupants,…) amène facilement l’air à 40 % HR.

Un seuil maximal de l’ordre de 8°C peut être choisi si le bâtiment présente très peu d’apports internes en eau et/ou si l’installation travaille en « tout air » neuf (c’est-à-dire en climatisation « tout air » sans recyclage partiel de l’air extrait).

De plus, on se prémunit ainsi :

  • D’un dérèglement de la régulation : il arrive, rarement il est vrai, de rencontrer un caisson de traitement d’air où, en mi-saison, l’humidification est combattue par la déshumidification de la batterie de froid …!
  • Du fonctionnement sporadique de l’humidificateur en mi-saison, avec son cortège de développement bactérien si l’installation n’est pas automatiquement vidangée…

Si l’humidificateur est du type à pulvérisation, ou « laveur d’air », la difficulté de régulation en mi-saison de ce type d’équipement justifie davantage encore son arrêt total.

L’humidification de l’ambiance avec maintien strict des consignes

Lorsque les consignes de température et d’humidité doivent être maintenues de façon stricte (centraux informatiques), on est souvent amené à refroidir l’air ambiant (donc à le déshumidifier) et ensuite à le réhumidifier. Il s’en suit une destruction d’énergie (déshumidification et humidification).

Pour réduire cette dernière, on a intérêt à fixer la consigne d’humidité la plus basse possible, compatible avec l’utilisation du local. Par exemple, est-ce qu’il est réellement nécéssaire de maintenir 60% d’HR ? Est-ce que 50% d’HR ne pourrait pas convenir ?

De plus, il importe que la batterie de refroidissement limite la déhumidifiant en travaillant avec la température d’eau la plus élevée possible (variant en fonction des besoins).

La précision de la régulation

La précision de la régulation d’un humidificateur doit être perçue en prenant en compte l’interaction entre la température et l’humidité relative de l’air. Autrement dit, toute fluctuation de la température de l’air se répercute sur le taux d’humidité.

Ainsi, exiger une régulation de 20°C et 50 % à +/- 2 %, impose au minimum une régulation de température de 20°C à +/- 0,5° près. Et encore faudra-t-il un type d’humidificateur adéquat : une régulation centralisée par « point de rosée », par exemple, est impossible. Si une telle précision est requise, on privilégiera une humidification par local : les humidificateurs à vapeur électriques sont particulièrement bien adaptés à cette situation. Ils peuvent être précédés d’une humidification centralisée minimale de base.

Trois types de régulateurs sont disponibles : régulateur on-off, régulateur proportionnel (P) ou régulateur proportionnel-intégral (PI). Le diagramme ci-dessous (issu d’un constructeur) permet de choisir le type de régulateur et la bande proportionnelle du système en % HR, en fonction :

  • de la précision attendue (plus la tolérance est faible, plus on aura tendance à sélectionner un PI avec petite bande proportionnelle),
  • de la quantité relative d’humidité absolue à fournir (plus celle-ci est grande, plus on sélectionnera un appareil PI fiable, puisqu’on est proche de la saturation).

Si le système est en mode on-off, il travaillera généralement avec un différentiel de 5 %. On réservera dès lors les régulateurs on-off au contrôle de limite haute de sécurité.


Critère de choix : l’encombrement

Ce critère porte peu à conséquence, généralement. Si ce n’est que dans un caisson de traitement d’air, un humidificateur à pulvérisation est certainement plus encombrant qu’un humidificateur à vapeur.

Les humidificateurs à pulvérisation sans recyclage ont la propriété de pulvériser généralement des micro-gouttelettes pas toujours arrêtées par le séparateur de gouttes. Aussi, pour une installation de climatisation par conduits, une portée plus importante doit être prévue pour éviter tout risque d’humidification des premiers tronçons.

Il est utile de prendre des dispositions particulières en vue de protéger la tuyauterie d’alimentation en eau et le réservoir d’eau de l’humidificateur de tout risque de gel.


Synthèse des critères de choix

Il est possible de synthétiser les principales propriétés comme suit :

Frais de Maintenance  Frais d’exploitat. Frais d’ Investissem. Encombr. Adaptabilité Utilisation recommandée pour un débit d’air en m³/h
Caisson de mélange Faible Faible Faible Faible > 3 000
Récupérateur rotatif Faible Faible Moyen Faible > 5 000
À évaporation Moyen Faible Faible Faible Bonne > 2 000
À ultrasons Faible Faible Moyen Faible Moyen < 2 000
Laveur d’air Elevé Faible Moyen Elevé > 10 000
À vapeur électrique Faible Elevé Faible Faible Très bonne < 3 000
À vapeur thermique Moyen Faible Elevé Elevé > 10 000
Chaudière électrique à vapeur Elevé Elevé Elevé Elevé > 10 000

En conclusions

  • Les humidificateurs à vapeur apportent toutes garanties au niveau hygiénique, mais leur coût d’exploitation est élevé suite au coût du kWh électrique : s’ils sont choisis, un dimensionnement limité aux besoins minimum s’impose. C’est une solution très souple pour un petit immeuble de bureaux.
  • Les humidificateurs à pulvérisation avec recyclage ou à évaporation sont économiques puisque l’apport énergétique est réalisé par la chaudière du bâtiment, mais ils sont sensibles à la prolifération bactérienne : s’ils sont choisis, une maintenance sérieuse et des mesures de contrôle de la qualité de l’air seront nécessaires. À ce titre, la maintenance de têtes de pulvérisation est plus simple que des supports sur lesquels l’eau vient s’évaporer.
  • Les humidificateurs à pulvérisation sans recyclage réunissent les deux qualités hygiéniques et économiques, mais l’encombrement est parfois incompatible avec l’espace disponible dans un caisson de traitement d’air. Ces techniques s’imposent pour l’humidification de grands halls (air comprimé, par ex.).

Prédimensionnement

Calculs

Le prédimensionnement du débit d’eau d’humidification nécessaire peut être réalisé sur base du débit d’air à traiter et de son degré d’humidité initial et final.

 Calculs

Il est également possible d’estimer le débit d’eau de déconcentration afin de limiter cette consommation d’eau parasite.

Ensuite, pour les appareils électriques, la puissance appelée est de 750 Watts par kg/h de débit de vapeur souhaité, environ.

Techniques

D’autres détails technologiques spécifiques sont accessibles en cliquant sur :

Espaces techniques et médico-techniques

Espaces techniques et médico-techniques


Principe

On traite ici des locaux annexes où l’on entasse des équipements à fort dégagement calorifique et sensibles à la température ambiante et parfois à l’humidité tels que :

  • les armoires électroniques de commandes et de calculs pour les appareils médicaux de radiologie (scanner, RMN, angiographie, …),
  • les congélateurs (- 30, – 40, – 86°C) des laboratoires,
  • les ordinateurs des salles informatiques centrales,

Les particularités des locaux intérieurs techniques sont :

  • d’avoir une présence humaine très limitée,
  • de ne pas avoir de parois en contact avec l’extérieur et donc pas de déperditions en hiver, pas plus que d’apports solaires en été,
  • d’être en permanence en demande de refroidissement puisque les équipements internes (dont l’éclairage) génèrent une chaleur qui ne peut s’échapper naturellement : sans intervention, la température ne ferait qu’augmenter …

Vu que ce type de local est à usage exclusivement technique, l’apport d’air neuf est-il encore nécessaire ? Les sources de polluants étant réduites au minimum, on pourrait admettre l’inutilité de cet apport. Au cas par cas, le concepteur prévoira ou pas un apport d’air neuf minimum en tenant compte dans la programmation de la destination du local. Par exemple dans un local de stockage de laboratoire où l’on trouve des congélateurs, il serait mal venu de ne pas prévoir un apport d’air frais dans le cas de la congélation de produits toxiques.


Choix du conditionnement d’air

1. Les solutions rapides pour installation de faible puissance

Les solutions traditionnelles, souvent appliquées lorsqu’il s’agit d’un local isolé, consistent à placer dans le local :

  • Un climatiseur avec un condenseur séparé. Mais cette solution ne peut être généralisée pour un ensemble de locaux « aveugles » puisqu’il n’y a pas un accès facile vers l’extérieur pour l’évacuation de la charge thermique (difficile de placer les condenseurs en façade).
  • Un climatiseur à eau perdue où le condenseur est un échangeur dont le secondaire est raccordé à l’eau de ville en entrée et à l’égout en sortie. Cette solution est rapide, efficace énergétiquement mais présente l’inconvénient de gaspiller de l’eau potable.

Si malgré tout, le choix du conditionnement d’air est arrêté sur une solution locale (c’est souvent le cas en rénovation partielle) il est intéressant de comparer l’installation d’un système de climatisation à eau glacée par rapport à un système à eau perdue.

Système de climatisation à eau perdue

Photo climatiseur à eau perdue.

Les climatiseurs à eau perdue sont intéressants dans le cas des locaux intérieurs qui disposent ou ont à proximité une alimentation d’eau de ville et un égouttage d’eau usée. En rénovation, de manière générale, il y a souvent un lavabo à proximité; raison pour laquelle, faute de temps et de budget il est simple d’envisager cette solution. Il suffit :

  • de se raccorder à l’alimentation en eau de ville du lavabo pour l’entrée du condenseur,
  • d’effectuer un repiquage au niveau de sa décharge pour la sortie du condenseur,
  • de disposer d’une alimentation électrique.

De plus, l’eau froide de ville est une source de refroidissement très efficace en considérant que la température moyenne de l’eau au cours de l’année est d’environ 10°C.

Néanmoins, il est conseillé de bien analyser les consommations d’eau de ville qui sont loin d’être négligeables. De plus, le rejet d’eau de ville directement à l’égout est loin de respecter une certaine éthique de consommation.

Évaluer

Pour en savoir plus sur les consommations et les coûts engendrés par le placement d’une climatisation à eau perdue.

Sur base de 2600 heures par an avec un COP de 4.4 et un COPA de 2

Puissance demandée dans le local [kW] Consommation Coût des consommations
+ 3.5
1069 kWh/an électrique
357 €/an
160 m³ d’eau de ville par an

Système de climatisation à eau glacée

Photo système de climatisation à eau glacée.

Il est clair qu’un tel système ne peut s’envisager que lorsqu’il est possible de placer le groupe de production de froid extérieur à proximité. Il existe toutes sortes de systèmes de climatisation avec condenseur séparé extérieur dans les gammes de faible puissance. Pour mieux rentabiliser l’investissement d’un petit système de climatisation à eau glacée, on essayera de prévoir un groupe de production de froid plus puissant pouvant accueillir plusieurs unités terminales même si dans un premier temps une seule unité est branchée; en effet, plus le groupe de froid sera chargé meilleur sera son COP.

Evaluer

Pour en savoir plus sur les consommations et les coûts engendrés par le placement d’une climatisation à eau perdue.

Sur base de 2600 heures par an avec un COP de 3 et un COPA de 1.5

Puissance demandée dans le local [kW] Consommation Coût des consommations
+ 3.5
1 859 kWh/an
204 €/an

Comparaison entre les deux systèmes

  • Énergétiquement parlant on constate que le système à eau perdue consomme moins d’énergie que le système à eau glacée (de l’ordre de 57 %) de par un bon COP (4.4). Cependant, dans l’exemple pris, le groupe de froid à eau glacée n’est pas utilisé à sa valeur optimale car pour une valeur de 5.7 kW, il alimente seulement une cassette plafonnière de 3.7 kW (dû au choix limité de puissance de groupe).

  • Malheureusement le système à eau perdue consomme de l’eau de ville en grande quantité. Vu le prix sans cesse plus élevé de l’eau froide, le coût de la consommation est de l’ordre de 30 % plus élevé que celui du système à eau glacée.
  • Il existe des systèmes de climatiseur que l’on appellera pour l’occasion à « eau courante » puisqu’on récupère « l’eau perdue. Ces systèmes travaillent à des températures de condensation plus élevées et nécessairement les puissances de froid disponibles diminuent. De plus, dans certains endroits de l’hôpital, il sera exclu de récupérer l’eau dans un système de condenseur à pression atmosphérique (bac de refroidissement à l’air libre par exemple) pour une question d’hygiène et de traitement des eaux.

2. Les solutions énergétiquement intéressantes

Par rapport à ce qui a été dit ci-dessus, une solution plus centralisée est nécessaire. En effet, les plateaux de radiologie et de laboratoire entre autres sont de grands consommateurs de froid et sont souvent regroupés. De plus, les locaux de traitement tels que les salles de scanner, de radiologie classique, les espaces de regroupement des congélateurs de laboratoire et les locaux adjacents tels que les locaux techniques, de commande et de protocole sont souvent contigus.

On pense alors, relié à une production de froid centralisée, au placement :

Techniques

de ventilo-convecteurs sur une boucle d’eau glacée.

Techniques 

ou de climatiseurs sur boucle de fluide réfrigérant.

Mais deux aberrations énergétiques apparaissent tout de suite car durant tout l’hiver pour des apports extérieurs limités au strict minimum :

  1. On va refroidir artificiellement le cœur du bâtiment, sans profiter de l’air froid extérieur.
  2. On ne va pas valoriser la chaleur produite par les équipements alors que les locaux en façade ont besoin de chauffage (les patients sont souvent déshabillés).

Deux solutions apparaissent alors

  1. La solution « free chilling » qui se fonde principalement sur l’idée que l’air extérieur froid peut répondre aux besoins de refroidissement une grande majorité du temps. L’économie ne se rapporte pas directement au local considéré, mais à la production de froid centralisée.
  2. La solution « fluide réfrigérant variable » qui se base sur l’idée que la chaleur extraite des locaux centraux peut être récupérée dans les locaux périphériques. En effet, cette solution est séduisante car en hiver dans les locaux adjacents tels que les salles d’examen radiologique, les salles d’analyse des laboratoires la demande de chauffage peut être nécessaire.

La solution « réseau d’eau glacée central »

La conception ou la rénovation des espaces intérieurs à apports internes importants échappent rarement à la climatisation.

Si l’option est prise, le placement d’une grosse unité de production couplée avec le placement d’un réseau de distribution d’eau glacée dans les couloirs est un bon plan. Au droit de chaque local susceptible de recevoir des équipements à dégagement calorifique important, on placera un système de connexion rapide avec vannes d’isolement permettant une modularité future importante dans le monde hospitalier.

Une grosse unité de production permet de mieux gérer la charge globale qu’une multitude de petites unités isolées.

Aussi, sur l’unité de production d’eau glacée il est intéressant d’envisager un système de « free chilling » afin de profiter des températures relativement basses de l’air extérieur tout au long de l’année.


La solution « fluide réfrigérant variable »

L’approche se construit sur les éléments suivants :

Nouvelles possibilités technologiques des compresseurs

On connaît le fabuleux « rendement » thermodynamique d’une machine frigorifique récente : pour faire 3 kWh de froid, il suffit de 1 kWh électrique au compresseur. Il en résulte alors 4 kWh de chaleur rejetés au condenseur. Si ces 4 kWh sont récupérés dans des locaux demandeurs de chaleur, le bilan s’impose de lui-même : avec 1 kWh au compresseur, on réalise 7 kWh utiles : 3 de refroidissement et 4 de chauffage !

Si dans le bâtiment, en parallèle avec la demande de refroidissement du cœur du bâtiment, il y a une demande de chauffage des locaux périphériques, la solution thermodynamique est alléchante !

Mais la difficulté, c’est qu’en été tous les locaux sont demandeurs de froid. L’échangeur du local en façade doit alors passer de condenseur à un fonctionnement en évaporateur.

On a bien essayé la solution de placer des pompes à chaleur réversibles sur une boucle d’eau commune à tous les locaux, mais sans trouver la souplesse de la solution actuelle de la climatisation à « fluide réfrigérant variable » qui supprime tout vecteur intermédiaire.

Ici, dans le cas idéal où il y aurait égalité entre la demande de froid et la demande de chaud, toute la chaleur évacuée dans les locaux à refroidir est transférée vers les locaux à chauffer :

Installation en équilibre.

Séparation des fonctions

À l’usage, dans les locaux où la ventilation hygiénique est nécessaire, la séparation des fonctions « apport d’air neuf » et « apport de chaud ou de froid » présente des avantages de facilité de régulation et de qualité hygiénique.

Pas de fluide intermédiaire

C’est le fluide frigorifique qui circule entre les échangeurs et le compresseur. En quelque sorte, c’est l’ensemble du bâtiment qui travaille « en détente directe et en condensation directe ».

Une régulation très fine en fonction de la demande

Rien n’est plus souple que du fluide frigorigène pour s’adapter aux besoins. Chaque échangeur est autonome dans la régulation de son local.

De plus, la régulation en place est étudiée pour limiter au maximum toute consommation d’énergie excessive.

Par exemple : une boucle d’eau glacée au régime 7°-12° va condenser inutilement la vapeur d’eau présente dans le local. Avec un système « fluide réfrigérant variable », l’humidité du local est mesurée en permanence et la température de l’évaporateur sera réglée « au plus haut » en fonction des besoins de froid du local, évitant ainsi toute condensation inutile.

Inconvénients

  • dans les locaux où la ventilation hygiénique est nécessaire l’apport d’air neuf hygiénique n’est pas résolu. De plus, il n’existe pas de production d’eau chaude par une chaudière pour alimenter les batteries de chauffe d’un éventuel groupe central de traitement de l’air hygiénique. L’apport d’air neuf va demander une installation spécifique dont on devra soigneusement étudier la régulation pour que de l’énergie ne soit pas « cassée » : il ne faudrait pas simultanément préchauffer l’air neuf à 20°C et refroidir le local !
  • La technique est encore relativement neuve dans nos régions (malgré une large expérience au Japon)…
  • Il faut franchir la petite appréhension liée à la circulation du fluide frigorigène dans les locaux, malgré l’étanchéité des installations actuelles et la non-toxicité des fluides utilisés.
  • La technologie est assez sophistiquée, bourrée d’électronique, et seul le fabricant peut réellement intervenir sur l’installation… Certains craindront alors le coût des contrats de maintenance, d’autres diront que nos voitures ont suivi la même évolution… sans que cela nous pose trop de problèmes. Des logiciels d’auto-diagnostic permettent la gestion automatique.

A nouveau, un bilan énergétique détaillé et annuel est nécessaire, mais il faut avouer que dans cette technique nouvelle, les bureaux d’études sont relativement dépourvus d’outils fiables d’évaluation…

Au minimum, on essayera d’établir un planning des périodes de chauffe et de refroidissement des différents locaux pour visualiser les recouvrements.

Concevoir

Pour aller plus loin dans la conception d’une installation DRV.

Un bilan énergétique annuel devrait départager ces solutions. Il doit être établi au cas par cas par un bureau d’études mais celui-ci va manquer de données fiables sur la performance moyenne annuelle des équipements.

Choisir la pompe à chaleur

 

PAC avec compresseur à pistons, à gauche, et avec compresseur à vis, à droite.


Intérieur ou extérieur ?

Les pompes à chaleur Air/Air ont la particularité de pouvoir être installées

  • Soit de façon compacte à l’intérieur du bâtiment, avec une conduite d’amenée et de rejet d’air extérieur vers l’évaporateur.
  • Soit d’être scindées entre un condenseur intérieur et un évaporateur extérieur (système Split), directement en contact avec la source froide. Le fluide frigorigène reliant évaporateur et condenseur devra alors traverser la paroi du bâtiment dans des conduites calorifugées. La performance est améliorée puisque l’évaporateur est généralement mieux alimenté. Elles sont d’une grande souplesse d’installation mais imposent une quantité de fluide frigorigène plus importante.

Installation de pompes à chaleur Air/Air.

  • On peut également installer l’ensemble de la PAC à l’extérieur et la relier au réseau de distribution par des conduites aller et retour isolées. Ces installations imposent des mesures constructives coûteuses de transfert des sources chaudes ou froides.

Les systèmes extérieurs peuvent occasionner une gêne à cause de leur bruit. Ces installations ne seront tolérables que si elles se font sans gène pour le voisinage (installation sur des toits en ville,.). Elles devront être protégées de la corrosion et avoir un dégagement suffisant autour d’elle pour permettre un bon fonctionnement de l’évaporateur.


Utilisation directe ou indirecte ?

L’utilisation directe de la source froide (eau de surface, nappe phréatique, rejets gazeux,…) a le grand avantage d’améliorer l’échange avec la source de chaleur et donc d’offrir un meilleur coefficient de performance. Cependant il faudra éviter la pollution (fuites de fluide frigorigène), ainsi que l’encrassement, l’érosion et la corrosion dans l’évaporateur en prenant les mesures suivantes :

  • désensablage du puits effectué par un spécialiste,
  • pose d’un filtre dans la conduite de raccordement à la PAC,
  • surveillance des vitesses de courant maximales et minimales pour éviter l’érosion, les dépôts, le gel et les dégâts dus aux vibrations dans les conduites de l’évaporateur,
  • pour lutter contre l’air agressif (par exemple rejets thermiques industriels), il faut utiliser un évaporateur résistant à la corrosion et dont le nettoyage est aisé. Dans certains cas, un dispositif de filtrage de l’air vicié devra être ajouté.

À défaut, il est vivement conseillé de prévoir une utilisation indirecte avec circuit intermédiaire. De plus il faut penser que la température du circuit intermédiaire peut tomber à 0°C. Le bon choix d’un produit antigel est donc d’une importance capitale.

Remarque : la qualité des sources thermiques naturelles peut se détériorer avec le temps. Une seule et unique analyse de l’eau ne peut évidemment pas servir de garantie absolue à long terme.


Choix de l’émetteur de chaleur

La température de distribution de la chaleur (température dite de la « source chaude ») est aussi importante que la température de la « source froide », puisque la consommation est proportionnelle à l’écart entre ces 2 températures.

Les pompes à chaleur ne peuvent correctement fonctionner qu’à une température de chauffage maximum de 50°C. Il faut donc sélectionner un système de chauffage à basse température, qu’il soit à air ou à eau.

Distribution par eau

Chauffage par le sol.

Les systèmes à eau devraient être dimensionnés de telle manière que la température de départ nécessaire lors de températures extérieures de – 8°C se situe entre 35 et 45°C. Ceci est possible avec un chauffage par le sol, et également, pour des bâtiments très bien isolés, avec des radiateurs à grande surface rayonnante.

Pour des systèmes de distribution anciens (radiateurs conventionnels) qui exigent des températures de départ de plus de 50°C, il faut évaluer de cas en cas si le recours à la pompe à chaleur bivalente est utile et raisonnable. Normalement, un chauffage par pompe à chaleur sera possible pendant la plus grande partie de la période de chauffe. Pour les jours nécessitant une température de départ de plus de 50°C, un deuxième générateur de chaleur fonctionnant avec un autre agent énergétique sera nécessaire (fonctionnement bivalent). Une solution fréquente dans le logement est d’installer un chauffage par le sol au rez-de-chaussée et de le compléter par des chauffages d’appoints à l’étage, pour limiter le coût d’investissement.

Par simulation informatique, une étude de la KUL a comparé les performances théoriques de différentes installations domestiques de pompes à chaleur (bâtiment respectant le niveau d’isolation K55, besoin de chaleur théorique évalué à 15 459 kWh par saison de chauffe) :

  • PAC Air/Eau avec chauffage par le sol au rez-de-chaussée et chauffage électrique à l’étage [1];
  • PAC Sol/Eau avec radiateurs basse température dans toute l’habitation [2];
  • PAC Air/Eau avec radiateurs basse température dans toute l’habitation [3];
  • PAC Sol/Eau avec chauffage par le sol au rez-de-chaussée et un chauffage électrique dans la salle de bain uniquement [4];
  • PAC Sol/Eau avec chauffage par le sol au rez-de-chaussée et radiateurs basse température à l’étage [5].

Alternative

1 2 3 4 5

Énergie fournie totale Q [kWh]

18 965 19 474 20 678 17 744 20 028

Énergie consommée totale E [kWh]

9 825 5 482 5 967 5 242 5 400

Rendement global annuel (Q/E)

1.93 3.55 3.47 3.38 3.70

CO2 produit [kg/an]

3 363 1 801 2 071 1 791 1 706

CO2 produit [kg/kWh fourni]

0.18 0.09 0.10 0.10 0.09

On constate que l’installation avec le meilleur rendement annuel est celle qui combine la PAC Sol/Eau avec le chauffage par le sol et les radiateurs basse température. Autrement dit, c’est le système qui diminue autant que faire se peut la différence de température entre la source froide et la source chaude.

La quantité de CO2 produite montre l’impact négatif des chauffages d’appoints électriques qui provoquent un doublement des émissions.

Distribution par air

Les systèmes de distribution à air ont l’avantage de toujours être dans une fourchette de température idéale pour les PAC (15 – 30°C). De plus, le chauffage direct de l’ambiance évite l’usage d’un intermédiaire caloporteur et d’un échangeur de chaleur supplémentaire comme un radiateur. Cet intermédiaire en moins ne permet néanmoins pas d’améliorer le rendement de l’installation puisque les échangeurs de chaleur « fluide caloporteur/air » sont moins performant que ceux « fluide caloporteur/eau ». L’inconvénient est l’emprise spatiale importante des gaines de distribution. Ce problème peut être contourné par les installations avec préparation d’air directement dans le local (installations multi-split ou DRV ainsi que sur boucle d’eau). Les systèmes de distribution par air ne permettent pas non plus l’accumulation de chaleur durant les heures creuses ou la préparation d’ECS.


Monovalent, bivalent ou avec résistance d’appoint électrique ?

Monovalent

Vu les frais d’investissement plus élevés provoqués par les installations bivalentes, on préférera en général les PAC monovalentes. En effet, la nécessité d’investir dans une chaudière traditionnelle en plus de la PAC n’est pas compensée par la diminution du coût de la PAC, diminution proportionnelle à la puissance moindre installée.

Bivalent

Cependant, lorsque la puissance à fournir est trop importante par rapport à une source froide limitée ou lorsque la température d’entrée dans le réseau de distribution doit être supérieure à 50°C, les systèmes bivalents sont inévitables pour assurer le confort de l’occupant. C’est souvent le choix qui est fait en rénovation, lorsque les réseaux d’émissions ne sont pas modernisés et ne peuvent fonctionner qu’à haute température.

Le fonctionnement bivalent alternatif a l’avantage de la simplicité de compréhension et de régulation.

Fonctionnement bivalent alternatif chaudière et pompe à chaleur.

Le fonctionnement parallèle par contre profite mieux de la pompe à chaleur puisqu’elle fonctionne toute la saison de chauffe. Ce deuxième mode permet donc une plus grande économie en frais de fonctionnement (même si, en période de grand froid, le COP de la PAC chute beaucoup) et un meilleur bilan écologique (avec un point de bivalence à 50 % de la puissance de chauffage, la PAC utilisée en bivalent-parallèle assure tout de même 80 à 90 % du besoin de chaleur).

Fonctionnement parallèle chaudière et pompe à chaleur.

Avec appoint électrique

Une installation avec appoint électrique est perçue comme un compromis. Elle nécessite un faible investissement mais contribue à la surcharge du réseau. Elle est aussi moins rationnelle au niveau écologique à cause de l’importante consommation de l’appoint électrique qui provoque un abaissement du COP annuel. Un enclenchement manuel est d’ailleurs conseillé pour éviter une durée de fonctionnement trop importante. Les appoints électriques permettent de préserver le confort lors des dégivrages ou des périodes de gel, lorsque la PAC (qui a été dimensionnée au plus juste pour limiter l’investissement) éprouve des difficultés.

Dans le secteur tertiaire, les apports internes compensent les pertes de puissance dues aux dégivrages, d’autant plus facilement que les dimensionnements de PAC réversibles sont souvent basés sur des puissances en froid, ce qui surdimensionne la puissance de chauffe. Les résistances d’appoint ne s’y justifient donc pas.


Avec ou sans accumulateur tampon ?

Toute installation compte au moins un accumulateur tampon qui permet d’augmenter la quantité d’eau présente dans le circuit, ceci afin d’éviter l’enclenchement trop fréquent des producteurs de chaleur (courts cycles).
On reproche parfois à l’accumulateur tampon pour les petites installations d’être trop coûteux, trop volumineux, d’entraîner des pertes de chaleur. Mais rares sont les cas où son installation n’est pas justifiée. On ne peut y renoncer que si les conditions suivantes sont remplies :

  • puissance à peu près constante de la source de chaleur (max 5 K de variation de température);
  • volume d’eau de chauffage supérieur à 15 litres/kW;
  • grande capacité d’accumulation du système de distribution de chaleur (par exemple inertie de chauffage par le sol);
  • pas ou peu de vannes thermostatiques;
  • installation bien équilibrée.

Un accumulateur de chaleur est lui plus volumineux qu’un accumulateur tampon. Il sert couvrir les heures d’interruption de fourniture électrique. Il peut aussi compenser des variations temporaires de la source froide et permettre une plus grande utilisation du courant bas tarif. De plus, un accumulateur de chaleur permet de combiner plus facilement différents producteurs de chaleur, comme par exemple des capteurs solaires.


Quel fluide frigorigène ?

Suite à la protection de l’environnement, certains fluides ont été supprimés du marché et d’autres sont encore en sursis, dont le R22, qui reste le plus couramment utilisé sur le marché.
Le choix du fluide frigorigène résulte de l’analyse spécifique effectuée par le projeteur, notamment en fonction de la température de départ du chauffage. La définition des limites d’utilisation du fluide est l’affaire du fabricant.
Il existe aujourd’hui beaucoup d’incertitudes sur le choix du nouveau fluide idéal, mais il semble que si l’équipement vendu est encore au R22, il ne soit pas d’une technologie récente.

Concevoir

Pour plus d’informations sur le choix du fluide frigorigène, cliquez ici !

Quelle régulation ?

Adaptation de la puissance

Pour de petites pompes à chaleur, la régulation de puissance a lieu par mise en ou hors service. Pour les plus grandes puissances, obtenues par combinaison de plusieurs unités de petites pompes à chaleur, la régulation a lieu par enclenchement-déclenchement de chaque unité. Si la puissance est obtenue par un compresseur à plusieurs cylindres, l’adaptation à la puissance demandée est effectuée par branchement et débranchement des différents cylindres. La combinaison de plusieurs modules est également une bonne solution, par exemple pour un quartier de villas, si on ne sait pas au départ combien de maisons seront raccordées au système de chauffage par pompe à chaleur.

De nouveaux concepts de régulation font usage de la possibilité de faire varier la vitesse de rotation du compresseur. De cette façon, il est possible d’adapter en tout temps la puissance au besoin momentané. De tels systèmes sont actuellement disponibles, également dans le domaine des fortes puissances. On ne saurait trop les recommander pour conserver une performance correcte tout au long de la saison.

Pour les installations travaillant par enclenchement-déclenchement, il faut éviter des démarrages trop fréquents, afin que le réseau électrique public ne soit pas surchargé et que la PAC ne subisse pas de dommages. Rappelons que ceci est réalisé au moyen d’un accumulateur technique (accumulateur tampon), auquel on ne peut renoncer que dans des cas exceptionnels.

Paramètres de régulation

Les régulateurs commandent la pompe à chaleur en fonction de la courbe de chauffe, après avoir obtenu les données du thermostat d’ambiance et la température de retour. Le thermostat est éventuellement doté de consignes « température de confort » et « température de nuit » réglables. Différentes commandes de fonctionnement sont possibles et s’organisent avec un ordre de priorité précis. Le dégivrage a toujours la priorité et s’effectue automatiquement si les sondes extérieures en indiquent le besoin. Viennent ensuite les alimentations de chauffage et d’ECS. La préparation de l’ECS peut être par exemple considérée comme un mode « été » alors qu’en hiver l’essentiel de la puissance de la pompe servirait au chauffage du bâtiment. Les équipements tels les piscines sont toujours derniers en priorité, à moins bien sûr que la pompe à chaleur ne leur soit spécifiquement destinée (piscines publiques,.)

La régulation de la température de sortie du condenseur est essentiellement liée au mode de chargement de l’accumulateur (étagé ou par stratification).

Adaptation des paramètres en fonctionnement

De nombreuses recherches menées en Suisse durant les premières années de fonctionnement ont montré que beaucoup d’installation ne travaillent pas du tout comme le concepteur du projet le souhaite, cette remarque est également valable pour des installations conventionnelles. Un contrôle des résultats pendant les premières années d’utilisation est donc conseillé pour s’assurer d’un bon fonctionnement de l’installation.

Stabilité du réglage

Les systèmes que l’on trouve pour la technique du bâtiment sont en général assez lents, ce qui permet une régulation stable et fiable. Certains circuits comprennent toutefois des parties où la vitesse de régulation est critique. C’est le cas de la température de départ du condenseur. Pour assurer une régulation rapide, diverses recommandations sont utiles : placer la vanne de régulation le plus près possible de la PAC pour réduire le temps mort, choisir une vanne de régulation à fermeture rapide, optimiser les paramètres de régulation de la vanne, utiliser des thermomètres de régulation à faible inertie.


Choix du compresseur

Le compresseur d’une pompe à chaleur présente les mêmes caractéristiques que le compresseur d’une machine frigorifique puisqu’il s’agit de la même machine.

Techniques

Pour plus d’informations sur les technologies de compresseur, cliquez ici !

Concevoir

Pour plus d’informations sur le choix du compresseur, cliquez ici !

Choix d’échangeurs

Évaporateur

Dans l’évaporateur, la chaleur délivrée par la source froide de chaleur est transférée au fluide frigorigène. Pour les sources de chaleur liquides, on installera des échangeurs de chaleur multitubulaires, coaxiaux ou à plaques, pour les échangeurs de chaleur à air, on préférera, dans la plupart des cas, des tubes à ailettes. D’une manière générale, l’échange de chaleur croît avec l’augmentation de la surface d’échange, la diminution de la vitesse de passage des fluides, l’augmentation de la différence de température entre les fluides et l’augmentation du débit de la source de chaleur par rapport au fluide récepteur.

Il existe en gros deux modes d’évaporation : à détente sèche ou par immersion. La différence entre les deux systèmes provient essentiellement de la circulation du fluide frigorigène. Dans le cas de l’évaporation par immersion, le fluide caloporteur passe à l’intérieur de tubes noyés dans le fluide frigorigène; dans le cas de la détente sèche, c’est l’inverse. La plupart des évaporateurs fonctionnent selon le principe de la détente sèche. L’échangeur de chaleur multitubulaire peut aussi, dans certains cas, fonctionner par immersion.

Perte de pression dans l’évaporateur et le condenseur

Il arrive souvent que des PAC dont la puissance est identique accusent des pertes de pression différentes sur l’échangeur de chaleur et présentent des COPA différents. Il peut s’agir de produits provenant de plusieurs fabricants, mais aussi, selon le degré de puissance, une série de PAC appartenant au même fabricant peut présenter de sensibles différences.

Pour illustrer ceci, examinons ce qu’une augmentation de 40 kPa de la perte de pression dans l’évaporateur et le condenseur provoque sur le COP d’installations de chauffage par PAC. Supposons au départ des installations telles que celles décrites ci-dessous :

Petite installation

Grande installation

Mode de fonctionnement

Monovalent, chargé par stratification,
sortie du condenseur constante de 47°C

Puissance chauffage

10 kW 100 kW

Besoin annuel de chaleur

25 000 kWh 250 000 kWh

Heures de fonctionnement

2 500 h/an 2 500 h/an

Consommation annuelle de courant

8 333 kWh 83 333 kWh

Coefficient de performance annuel COPA

3 3

Débit dans l’évaporateur
(Δt° = 5 K)

1,2 m³/h 12 m³/h

Débit dans le condenseur
(Δt° = 10 K)

0,9 m³/h 9 m³/h

Perte de pression condenseur

25 kPa 25 kPa

Rendement de la pompe

0,10 0,25

Pour la petite installation, l’augmentation de la perte de pression donnerait :

  • Ppompe évaporateur = 40 kPa x 1,2 m³/h / (3 600 x 0,10) = 0,133 kW
  • Ppompe condenseur = 40 kPa x 0,9 m³/h / (3 600 x 0,10) = 0,100 kW
  • W = 2 500 h x (0,133 + 0,100) kW = 583 kWh

COPApetit = 25 000 kWh / (8 333 + 583) kWh = 2,8

Et pour la grande installation :

  • Ppompe évaporateur = 40 kPa x 12 m³/h / (3 600 x 0,25) = 0,533 kW
  • Ppompe condenseur = 40 kPa x 9 m³/h / (3 600 x 0,25) = 0,400 kW
  • W = 2 500 h x (0,533 + 0,400) kW = 2 333 kWh

COPAgrand = 250 000 kWh / (83 333 + 2 333) kWh = 2,92

Pertes de pression dans les sondes géothermiques

Dans le cas d’installations équipées de sondes géothermiques, les pertes de pression doivent être optimalisées avec soin pour différents diamètres de sondes, longueurs de sondes, nombre de sondes. Des différences de 100 kPa entre deux variantes ne sont pas rares.

Pour illustrer ceci, reprenons les installations présentées au point précédent et imaginons qu’elles soient équipées de sondes géothermiques accusant une augmentation des pertes de pression de 100 kPa.

Pour la petite installation, l’augmentation de la perte de pression donnerait :

  • Ppompe évaporateur = 100 kPa x 1,2 m³/h / (3 600 x 0,10) = 0,333 kW
  • W = 2 500 h x 0,333 kW = 833 kWh

COPApetit = 25 000 kWh / (8 333 + 833) kWh = 2,73

et pour la grande installation :

  • ppompe évaporateur = 100 kPa x 12 m³/h / (3 600 x 0,25) = 1,333 kW
  • W = 2 500 h x 1,333 kW = 3 333 kW

COPAgrand = 250 000 kWh / (83 333 + 3 333) kWh = 2,88


Chargement étagé ou par stratification ?

Il existe deux méthodes de chargement de l’accumulateur de chaleur associé à la pompe à chaleur.
Le chargement étagé est meilleur marché (pas de régulation de la charge) et entraîne un coefficient de performance annuel plutôt meilleur que le chargement par stratification puisque la PAC peut fonctionner avec une température de sortie du condenseur plus basse. Toutefois, ce système a différents désavantages :

  • Consommation électrique supplémentaire de la pompe du condenseur pour augmenter le débit et diminuer la température de départ.
  • Variations de la température de départ du chauffage difficiles à évaluer.
  • Température finale de l’accumulateur imprécise.
  • N’utilise pas pleinement les capacités de l’accumulateur.
  • Manque de capacité au premier passage.

Cette dernière difficulté pourrait être évitée si la différence de température dans le condenseur est suffisamment importante. De cette façon pourtant, la charge étagée est un non-sens, car dans le meilleur des cas, il ne se produirait qu’environ deux passages étagés à la limite du chauffage. Une charge étagée ne peut être recommandée que dans les situations suivantes :

  • Petite installation (surtout à cause de l’avantage du prix).
  • Un seul groupe de chauffage.
  • Pour accumulateur technique seulement.

À l’opposé, le chargement par stratification, malgré son COP plus faible et son coût plus élevés, permet :

  • Une maîtrise exacte de la température de l’accumulateur.
  • Une température constante de départ garantie.
  • Une puissance de la pompe du condenseur plus faible.
  • Une utilisation maximale de la capacité de l’accumulateur.

Type de chargement de l’accumulateur

Le chargement étagé de l’accumulateur et, dans certains cas, le chargement par stratification en fonction des conditions météorologiques produisent un meilleur coefficient de performance annuel qu’un chargement par stratification avec consigne constante, car on peut sortir du condenseur avec des températures plus basses. Ce système ne fonctionne toutefois que si l’installation est réglée sur une petite différence de température dans le condenseur. En règle générale cela implique de doubler le débit, ce qui multiplie par 4 la perte de pression sur le condenseur. Ceci doit absolument être pris en considération.

L’influence sur le COP annuel est complexe, car il faut tenir compte non seulement de la température de sortie du condenseur, mais aussi de la consommation d’énergie auxiliaire et de la petite différence de température dans le condenseur lors du chargement étagé. La différence de COP entre une température de sortie du condenseur adaptée ou constante se situe à moins de 10 %.

Encore une fois, reprenons les installations décrites plus haut et supposons qu’au lieu de fonctionner 2 500 h à 47°C, d’où ε = 3,4, on procède ainsi :

500 h à 45°C, d’où ε = 3,5

1 000 h à 42°C, d’où ε = 3,75

1 000 h à 39°C d’où ε = 4

Le coefficient de performance instantané moyen pondéré SPF s’améliore en passant de 3,4 à 3,8. Le coefficient de performance annuel (COPA) devrait suivre cette tendance et passer de 3 à 3,4. Mais en doublant le débit, la perte de pression dans le condenseur est quatre fois plus forte. Il en résulte pour la petite installation :

  • Ppompe condenseur = (100 kPa x 1,8 m³/h) – (25 kPa x 0,9 m³/h) / (3 600 x 0,10) = 0,438 kW
  • W = 2500 h x 0,438 kW = 1 095 kWh

COPApetit = 25 000 kWh / (25 000 / 3,4) + 1 095 kWh = 2,96

et pour la grande installation :

  • Ppompe condenseur = (100 kPa x 12 m³/h) – (25 kPa x 9 m³/h) / (3 600 x 0,25) = 1 750 kW
  • W = 2 500 h x 1 750 kW = 4 375 kW

COPAgrand = 250 000 kWh / (250 000 / 3,4) + 4 375 kWh = 3,21


Choix de la technique de dégivrage

On utilise deux modes de dégivrage :

  1. Le système « by-pass » de dégivrage par gaz chaud, par lequel une partie des gaz échauffés à la sortie du compresseur est dirigée vers l’évaporateur. Ce système exige une différence de pression minimale assurée par le compresseur.
  2. L’ inversion de la direction du circuit par une vanne à quatre voies. L’évaporateur devient alors condenseur et le givre est rapidement éliminé au prix d’un plus grand besoin de chaleur momentané.

Lors du montage de l’évaporateur, il est indispensable de s’assurer que le fonctionnement du dégivrage n’est pas perturbé par un apport d’air froid dû à la circulation naturelle de l’air.

Le dégivrage des pompes Air/Air et Air/Eau

Les pertes provoquées par le dégivrage de l’évaporateur sont difficiles à évaluer avec précision car elles sont variables en fonction de la programmation des paramètres de dégivrage. L’énergie dépensée pour la fonte du givre (EFG) est généralement fournie par la pompe à chaleur qui, pour l’occasion, fonctionne en sens inverse. Elle vaut environ l’énergie utile de fonte du givre EFGu (énergie pour élever la température du givre à 0°C + chaleur latente de fusion du givre + énergie pour élever la température de l’eau de 0°C à 10°C pour éviter un regel immédiat) divisée par un rendement de 50 %. Cette énergie sera prélevée dans le bâtiment et devra en suite lui être restituée lorsque la pompe se remettra en mode chauffage. Pour des machines bien réglées avec des détections du givre optimales, la perte de COP peut valoir jusqu’à 10 % par temps froid.

Il n’est pas rare de voir des pompes à chaleur dont le système de détection du givre est mal réglé et la durée de dégivrage trop longue. Il s’en suit des consommations d’énergie excessives qui peuvent conduire à des COP inférieurs à 1.

Le graphique ci-contre, issu d’une fiche technique de constructeur, illustre l’influence du dégivrage sur la puissance calorifique et le COP d’une pompe à chaleur Air/Eau. On voit clairement la perte de COP survenant entre 3 et 10°C. L’air extérieur est chargé d’eau et le fluide frigorigène est à une température inférieure à zéro degré. La glace qui se forme « colle » à l’évaporateur.

Par contre, lorsqu’il fait très froid, l’air extérieur est plus sec et le givre apparaît alors davantage sous forme de cristaux qui n’adhèrent plus sur la paroi de l’évaporateur.

Choix de la technique de dégivrage

Sur le plan énergétique, le dégivrage par inversion du cycle est plus avantageux que le chauffage par injection de gaz chauds. Mais quelle que soit la méthode choisie, c’est surtout la durée du dégivrage qui sera le facteur important pour l’évolution du COP. Le critère d’enclenchement et de déclenchement doit être choisi avec soin.

Le choix du paramètre qui décrit la couche de givre dans l’évaporateur peut être multiple. En utilisation industrielle, il faut choisir un paramètre robuste et assez sensible. Plusieurs choix pour le lancement du dégivrage peuvent être faits :

  • Perte de charge dans l’évaporateur : la mesure de cette grandeur peut provoquer des dérives lorsqu’il y a risque de bouchonnement par des impuretés (feuilles, animaux,.) ou par des variations de pression causées par les vents externes.
  • Température de surface des ailettes : la différence entre la température de surface des ailettes et la température de l’air indique bien si une couche de givre (= isolation thermique) s’est formée. Comme le développement de givre n’est pas uniforme sur la surface de l’évaporateur, il faut bien vérifier l’emplacement du capteur de température.
  • Pincement dans l’évaporateur : la couche de givre provoque un blocage du transfert de chaleur qui se traduit par une diminution de l’efficacité de l’échangeur. Par conséquent, il y a une augmentation de l’écart de température minimal entre la température d’évaporation du frigorigène et la température de l’air en sortie d’évaporateur, écart appelé « pincement ». Pour détecter ce pincement, il faudra en général une prise de température de l’air sortant ainsi que le calcul de la température de saturation correspondante à la pression de vaporisation.

De même pour le paramètre d’arrêt, définissant la durée de dégivrage, plusieurs mesures peuvent être considérées :

  • La température du réfrigérant à la sortie de l’évaporateur : pendant le dégivrage de la batterie par inversion de cycle, un film d’eau ruisselle sur l’échangeur en refroidissant le fluide frigorigène. Une fois le dégivrage achevé, une grande partie de l’évaporateur est libérée et le transfert de chaleur diminue, ce qui provoque une réaugmentation de la température de sortie du fluide frigorigène.
  • Température de la surface des ailettes : cette mesure indique directement si l’échangeur est libéré de la couche de givre. Il est cependant difficile de bien placer la sonde pour avoir une bonne représentativité globale de l’échangeur.
  • Optimisation globale par microprocesseur : en combinaison avec les critères étalonnés en usine, le calcul du bilan énergétique par cycle de chauffage permet d’optimiser les grandeurs limites imposées sur site et en cours de fonctionnement.

Ces critères, ainsi que le critère plus « archaïque » qu’est l’horloge, devront être étalonnés soigneusement et vérifiés.

Une fois le cycle de dégivrage achevé, l’enclenchement du ventilateur à plein régime sans mettre en route le compresseur permet de sécher l’évaporateur. À défaut, les gouttelettes restantes seront rapidement gelées.

Récupérer la chaleur du condenseur de la machine frigorifique [Concevoir – Climatisation]

Récupérer la chaleur du condenseur de la machine frigorifique [Concevoir - Climatisation]


Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite du bâtiment vers l’extérieur.

Il semble dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique.

Fonctionnement du condenseur

En principe, trois opérations successives se passent dans le condenseur de la machine frigorifique :

Évolution des températures du fluide frigorigène
et du fluide de refroidissement.

  1. Dans une machine frigorifique, les gaz qui sont expulsés par le compresseur en fin de compression sont à très haute température (de 70 à 80°C). On dit qu’ils sont surchauffés. Comme la condensation se fait à une température largement inférieure (aux alentours de 40°C, par exemple), une quantité de chaleur va devoir être évacuée des gaz surchauffés pour les amener à leur température de condensation qui correspond à la pression de refoulement (dite pression de condensation). C’est la désurchauffe.
  2. Puis lors de la condensation elle-même, une importante quantité de chaleur va aussi devoir être évacuée pour liquéfier (si possible complètement) le fluide frigorigène gazeux.
  3. Enfin, si les conditions des échanges thermiques dans le condenseur le permettent (température du fluide refroidisseur suffisamment basse, débit du médium de refroidissement suffisamment important), le liquide condensé va subir le sous-refroidissement, ce qui améliore le rendement de l’évaporateur.

Récupération de l’énergie

Dans certains cas, on pourrait envisager de récupérer cette énergie pour chauffer de l’eau ou de l’air, au lieu de la gaspiller en pure perte :

  • si on a des besoins en eau chaude sanitaire de température pas trop élevée (45° à 50°C);
  • si on a des besoins de chauffage pour des locaux contigus;
  • si on veut éviter ou diminuer la puissance de climatisation du local des machines, ou faire des économies d’énergie sur ce poste;
  • si on veut participer à la lutte contre le réchauffement global de l’atmosphère.

Par exemple, voici ce qui peut être réalisé à partir du préparateur d’eau glacée ci-contre.

Le fonctionnement normal est de refroidir l’eau glacée à l’évaporateur (cooler). La chaleur contenue dans le fluide frigorigène évaporé est comprimée puis condensée dans un condenseur à air (fonctionnement classique d’une machine frigorifique).

Par contre, si un récupérateur de chaleur est placé, le réfrigérant passe d’abord dans un condenseur à eau (le récupérateur en question) pour donner la chaleur de désurchauffe, puis pour se condenser. Le liquide à haute pression passe au travers du détendeur avant de repasser à l’évaporateur. La chaleur excédentaire est rejetée via le condenseur à air.

La récupération de l’énergie du côté des condenseurs suppose évidemment des investissements supplémentaires par rapport à des machines classiques plus simples

  • des échangeurs de condenseurs adaptés;
  • des réservoirs-tampons pour l’eau chaude sanitaire ou de chauffage;
  • une disposition plus compliquée des tuyauteries;
  • une bonne évaluation des pertes de charge dans les tuyauteries;
  • une régulation complète permettant le contrôle correct de toute l’installation, y compris des récupérateurs.

Étant donné les spécificités inhérentes à chaque projet, le rapport entre l’investissement et les économies d’énergie doit faire l’objet de calculs adaptés, à demander aux auteurs de projet. Il faut en effet considérer ensemble la machine frigorifique et les appareils de production d’eau chaude sanitaire ou de chauffage.

Le bilan doit prendre en compte :

  • l’apport d’énergie « gratuite » par la machine frigorifique,
  • le fait que l’on doit quand même disposer, en plus des récupérateurs, d’une puissance installée suffisante pour pallier les périodes où la machine frigorifique ne fonctionne pas,
  • la pénalisation énergétique apportée toute l’année par l’échangeur supplémentaire,
  • le cas où le condenseur de la machine frigorifique doit assurer à lui seul, l’évacuation de toute la chaleur (lorsqu’il n’y a pas de besoin d’énergie dans les récupérateurs, ou quand ces derniers sont arrivés à leur consigne maximale de température).
Exemple d’application très intéressante

Le plus logique est de récupérer la chaleur sur le condenseur à air pour chauffer directement l’air d’un local. Ainsi, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.

Études de cas

Pour visualiser un exemple de schéma d’une installation avec stockage de glace et récupération de chaleur au condenseur.

Application sur une installation de ventilo-convecteur 4 tubes

Dans le cas des ventilos-convecteurs à 4 tubes, si le réseau d’eau glacée fonctionne en hiver et en mi-saison, n’y a-t-il pas intérêt à récupérer la chaleur au niveau du condenseur de la machine frigorifique ?

Par exemple, ne pourrait-on pas imaginer que le chauffage apporté vers les locaux en façade Nord soit récupéré sur le condenseur de la machine frigorifique refroidissant le centre informatique du bâtiment ?

En pratique, il semble que ce soit difficile :

  • La récupération de chaleur risque de se faire à une température trop haute. Les ventilos-convecteurs ont besoin d’eau à 40°…45°C en hiver. Donc la condensation devrait se faire à une température de 50°C. Or, à cette saison, le condenseur peut être refroidi à une température bien inférieure, puisque l’air extérieur est très froid. La récupération risque de pénaliser le COP de la machine frigorifique
    Par exemple, une machine frigo qui prépare de l’eau à 7°C, avec un condenseur à eau refroidi à 27…32°C, génère un COP-froid de 6. Soit 6 kWh froid pour 1 kWh électrique. Pourquoi risquer de dégrader un tel système …?
  • La récupération de la désurchauffe semble surtout intéressante, puisque les températures y sont plus élevées, mais la quantité d’énergie y est plus faible que dans la phase de condensation (refroidir un gaz libère peu d’énergie par rapport à condenser ce gaz).
  • Les puissances en jeu ne s’accordent pas forcément puisqu’elles sont antagonistes : en plein hiver, la demande de froid risque d’être trop faible pour apporter de la chaleur utile au réseau d’eau chaude et en mi-saison, la demande de chaleur risque d’être insuffisante pour évacuer la chaleur au condenseur, générant ainsi sa montée en température défavorable.

De plus, en hiver, il y a concurrence avec le procédé de free-chilling qui refroidit directement la boucle d’eau froide avec l’air extérieur. Plutôt que de récupérer au condenseur de la machine frigorifique, celle-ci est totalement arrêtée !

Enfin, il faudrait comparer ce système avec le système DRV (Débit de Réfrigérant Variable) qui dispose d’une version avec récupération d’énergie apte à réaliser ce type de transfert directement au niveau des locaux.

Exemple

Ci-dessus, d’une part, un réservoir à glace a été adjoint à l’équipement frigorifique, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

D’autre part, en mi-saison, on récupère la chaleur au condenseur : à ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer. L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir.

En plein été, la dissipation de chaleur se fait par un condenseur traditionnel (dit condenseur de rejet). En plein hiver, une chaudière d’appoint reste nécessaire pour vaincre la forte demande.


Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été).

Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique.

Ainsi, dans un immeuble de bureaux, les besoins d’eau chaude sanitaire sont faibles. La température de l’eau sera élevée dans le ballon (…60°C…). Si le condenseur est intégré dans le ballon d’eau chaude sanitaire, la machine frigorifique va travailler avec une pression de condensation élevée. La performance de la machine frigorifique va se dégrader. Si la pression de condensation s’élève encore, le pressostat HP (Haute Pression) de sécurité risque d’arrêter la machine… Un deuxième condenseur en série est alors nécessaire pour éliminer les calories. Le coût de l’installation paraît difficile à rentabiliser. D’ailleurs, faut-il encore de l’eau chaude dans les bureaux ?

Tout au contraire, dans un hôtel, dans un hôpital, dans des cuisines industrielles, des boucheries, … les besoins d’eau chaude sont élevés et une récupération de chaleur au condenseur se justifie tout à fait. Mais un ballon de préchauffage est propice au développement de la légionelle. Il faut donc s’assurer que l’eau séjournera durant un temps suffisamment long dans le dernier ballon : 60°C durant 30 minutes ou 70°C durant 4 minutes, par exemple (en cas de débit de pointe, de l’eau « contaminée » risque de traverser seulement le 2ème ballon).

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude

Dans le système ci-contre, un simple échangeur thermique (placé en série et en amont du condenseur normal) est inséré au bas d’un ballon d’eau chaude. Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir.

On parle de condenseur-désurchauffeur parce que la désurchauffe des gaz provenant du compresseur aura lieu dans cet échangeur.

La réglementation impose le principe selon lequel il ne doit pas y avoir de contact possible entre le fluide frigorigène et l’eau potable. En cas de perforation de l’enveloppe du fluide, la détérioration éventuelle doit se manifester à l’extérieur du dispositif.

Dans l’échangeur ci-dessus, une double paroi de sécurité est prévue selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Dans ce ballon intermédiaire, il n’y a aucun risque de dépôt calcaire puisque l’eau n’est jamais renouvelée.

En cas de fuite de fluide frigorigène, la pression dans le ballon augmente et une alarme est déclenchée.

Un deuxième condenseur en série est nécessaire pour le cas où le besoin de chauffage de l’eau sanitaire serait insuffisant.

Schéma 3 : en présence d’une boucle de distribution

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

Un tel schéma (contrairement au précédent) risque cependant d’être propice au développement de la légionelle, puisque le ballon de récupération peut être à une température inférieure à 60°C durant un temps assez long. Il n’est pas à recommander si des douches sont présentes dans l’installation.

On trouvera de nombreux schémas techniques d’application dans l’excellent ouvrage Climatisation et Conditionnement d’air – Tome 2 – Production de chaud et de froid de J. Bouteloup.

Choisir l’isolation de la gaine d’ascenseur

Prévoir une zone « chaude »

Position du noyau d’ascenseur

Dans la programmation d’un bâtiment tertiaire, l’étude des flux privilégiés par rapport aux déplacements verticaux est primordiale. Une configuration courante du noyau de l’ascenseur qui répond bien aux exigences de fluidité de déplacement, de convivialité entre occupants, …, est une configuration centrale. Thermiquement parlant, cette configuration permet d’intégrer facilement la gaine d’ascenseur et ses annexes dans le volume protégé.

 

Configuration centrale.

Une autre configuration existe en conception nouvelle, notamment avec la venue des ascenseurs de type panoramique; le noyau d’ascenseur est décentré. Cette configuration est moins intéressante au niveau des flux des personnes et énergétiquement parlant. De plus, les surfaces déperditives sont plus importantes et nécessitent aussi une isolation (la surface à isoler est plus importante).

  

Configuration décentrée.

Le cas extrême est celui de l’ascenseur panoramique qui coupe la continuité du volume chauffé.

Ascenseur panoramique.

Volume de la gaine inclus dans le volume protégé

L’intégration dès le projet de conception d’une zone « chaude » est la solution idéale pour maîtriser les consommations énergétiques. Le fait de prévoir l’isolation des parois du pied et du sommet de la gaine (ou du local des machines si existant) permet au volume de l’ascenseur d’intégrer le volume protégé devenant ainsi une zone « chaude » à part entière.

Un grand nombre de techniques d’isolation existe.

Isolation du pied de gaine d’ascenseur

Selon ouverture d'une nouvelle fenêtre ! Suisse énergie l’isolation du pied de la gaine d’ascenseur permet de réduire les ponts thermiques et, par conséquent, les déperditions thermiques.

Source Suisse énergie.

Isolation 

Pour en savoir plus sur les techniques d’isolation des murs et des planchers.

Isolation des cabanons de toiture

Pour intégrer le volume ascenseur dans le volume protégé, il faut isoler, dans la mesure du possible, les murs et la toiture du cabanon.

Isolation 

Pour en savoir plus sur les techniques d’isolation des murs et des planchers.

Généralement, les toitures couvrant la salle des machines des ascenseurs sont des toitures plates.

Isolation 

Pour en savoir plus sur les techniques d’amélioration de l’isolation des toitures plates.

Choisir le mode de gestion des débits

Le principe

La réglementation prévoit un débit d’air neuf hygiénique minimum.

Mais elle n’oblige pas à apporter de l’air neuf lorsque le bâtiment n’est pas occupé ! Elle n’oblige pas non plus à fournir le débit nominal (maximum) lorsque le bâtiment est partiellement occupé …

Ce principe fait d’ailleurs l’objet d’une réglementation en France : « la ventilation doit pouvoir être réduite de 50 % dans le cas d’une occupation discontinue et être coupée en cas d’inoccupation ».

Gérer la ventilation « à la demande », c’est doser précisément le débit d’air neuf en fonction des besoins réels de ventilation. Par exemple, dans une salle de réunion, la ventilation ne fonctionnera que lorsque des personnes sont effectivement présentes.

Cette gestion permet des économies

  • Sur le chauffage de l’air neuf grâce à la diminution de la quantité d’air introduite dans le bâtiment.
  • Sur le refroidissement du bâtiment par le principe du free cooling mécanique
  • En fonction du mode de réglage choisi, sur la consommation électrique du ventilateur de pulsion et/ou d’extraction.

Évaluer

Exemple de répartition des coûts énergétiques de la ventilation : cliquez ici !

Le principe appliqué dans les différents schémas de gestion possible, consiste à évaluer les besoins réels en ventilation grâce à un capteur (simple horloge, sonde de présence, sonde CO2, sonde COV , compteur de passage, sonde de température en cas de free cooling) et à adapter les débits d’air neuf en conséquence :

  • Pour un système de ventilation unizone, c’est-à-dire lorsqu’un groupe de ventilation (simple ou double flux) n’alimente qu’un seul local (simple extraction sanitaire, salle de conférence, …), la gestion se fera directement sur le débit du ventilateur.
  • Pour un système de ventilation multizone, c’est-à-dire lorsqu’un groupe de ventilation alimente plusieurs locaux (bureaux individuels, …), la gestion individuelle de chaque local se fera au niveau de l’ouverture des bouches de pulsion en double flux, le débit des ventilateurs étant adapté en conséquence. On parle alors de Ventilation à Volume d’Air Variable (VAV), dont les applications les plus fréquentes sont liées au refroidissement des locaux, mais dont le domaine d’application peut être élargit au chauffage au seul besoin d’air hygiénique dans des locaux à occupation variable.

Gestion d’un système unizone simple flux.

Gestion d’un système multizone double flux.

Ainsi, l’organisation d’une gestion de la ventilation « à la demande » consiste à :

  1. trouver le capteur fidèle des besoins réels de ventilation,
  2. adapter le débit des bouches en fonction de la lecture du capteur,
  3. régler le débit des ventilateurs en fonction de l’ouverture des bouches ou directement en fonction du capteur.

Lorsque les réseaux de ventilation alimentent des locaux ou des zones d’occupation fortement différents, il peut être utile de pratiquer un zonage du système de ventilation. Par exemple, on peut imaginer dans un immeuble de bureaux une séparation entre la ventilation de la salle de réunion et la ventilation des bureaux et des sanitaires. La gestion de la salle de réunion se ferait comme pour un système unizone, par exemple avec allumage et extinction par détection de présence. Tandis que la ventilation des bureaux et des sanitaires serait simplement raccordée sur une horloge.

L’Annexe C3 de la PEB impose l’usage d’une régulation pour éviter que le système ne fonctionne constamment dés que l’on est en présence d’une ventilation mécanique. Parallèlement elle interdit le recours aux systèmes de régulation suivants :

  • les systèmes de régulation manuelle : le système fonctionne selon une commutation manuelle;
  • les systèmes de régulation basés sur la température de l’air et qui permettent de réduire le débit de ventilation sous le débit de conception minimal.

Cas des bureaux individuels à horaire commun fixe

C’est un cas très fréquent dans les immeubles de bureaux : tous les bureaux sont occupés simultanément avec un taux d’occupation et un horaire fixe.

Dans ce cas, la solution la plus simple et la plus rentable est de simplement équiper les ventilateurs d’une horloge.

Exemples.

  • Dans une installation de ventilation simple flux (grilles dans les menuiseries et extraction dans les sanitaires), l’extraction peut être automatiquement réduite durant les périodes d’inoccupation (une coupure complète risque de provoquer la propagation d’odeurs). Cette remarque peut conduire à prévoir des extractions à deux vitesses. Il est alors souhaitable de réaliser un zonage des besoins d’extraction afin que les zones intéressées puissent entrer dans un programme d’occupation des lieux fixé à l’avance (vertical ou horizontal).
  • Dans une installation double flux (pulsion dans les locaux et extraction dans les sanitaires, les extractions sanitaires peuvent passer en régime réduit en période d’inoccupation et dans le même temps les introductions d’air neuf sont arrêtées. Il y a alors une légère dépression dans l’ensemble des locaux intéressés. Les installations peuvent être sous le contrôle d’une ou plusieurs horloges pour la programmation des différents régimes de marche (hors gel, relance, marche normale).
  • Une horloge commande le passage de grande vitesse à petite vitesse dans un réfectoire, en fonction de l’horaire de la journée.

Cas des bureaux individuels à occupation variable

Ici, cela se complique. On se trouve dans une situation où plusieurs locaux à horaire d’occupation différents sont alimentés par un seul système de ventilation. On a donc un système multizone.

Si on veut gérer les apports d’air neuf bureau par bureau, on ne peut agir que sur l’ouverture des bouches de ventilation.

Si le système de ventilation choisi est un système simple flux, avec une extraction centralisée dans les sanitaires, une gestion local par local n’est actuellement pas possible. Des développements sont cependant en cours pour automatiser les amenées d’air naturelles.

Ne considérons donc que le cas d’un système double flux avec pulsion dans chaque bureau.

Le détecteur de présence par infrarouge semble le plus adéquat pour la gestion individuelle de multiples petits locaux, comme des bureaux, parce que son prix est faible, et qu’il peut influencer facilement le débit d’une bouche de pulsion par une action « Tout ou Rien ». On trouve sur le marché des bouches qui intègrent les détecteurs.

Bouche de pulsion avec détecteur de présence incorporé.

Il est possible de combiner les systèmes : un bouton poussoir pour l’enclenchement (démarche volontaire) et un détecteur de présence pour assurer le déclenchement après le départ des occupants (avec une temporisation de quelques minutes), … .

Études de cas

La régulation de la ventilation du bâtiment PROBE du CSTC à Limelette en fonction de détecteurs de présence.

Cas des salles de conférence

Les salles de conférence sont souvent ventilées par un système unizone c’est-à-dire au moyen d’un groupe de ventilation indépendant par local.

On peut évidemment y adapter une gestion par horloge comme dans le cas précédent.

Cependant, lorsque l’horaire d’occupation est aléatoire et que le taux d’occupation est variable (une même salle peut être occupée par 20 ou 200 personnes), on peut envisager une gestion qui tient compte du nombre d’occupants.

Dans ce cas, la sonde CO2 est la plus fiable. Elle reflète mieux la présence effective de personnes dans un local puisqu’elle est directement proportionnelle à leur respiration. Mais elle est chère (minimum 750 €). Sa rentabilité n’est donc possible que pour la gestion d’un débit nécessaire important et relativement aléatoire.

Sonde COV et sonde CO2.

Dans certains cas particuliers, on pourrait éventuellement envisager l’utilisation d’une sonde COV, sensible aux odeurs les plus diverses. La sonde COV (Composés Organiques Volatiles), encore appelée sonde de qualité d’air, n’est pas trop chère (+/- 225 €). Elle semble cependant difficile à paramétrer au départ (quelle valeur de consigne faut-il lui donner?) et capricieuse dans le temps. Elle nécessite donc un étalonnage régulier et une bonne information de l’exploitant sur son principe de fonctionnement. La sonde devra être entretenue (nettoyage et étalonnage périodique). Si cette maintenance est peu probable, ou si l’ambiance se révèle être trop chargée en poussières, on préférera une régulation à deux vitesses basée sur le dépassement d’un seuil critique, plutôt qu’une régulation analogique réglée sur le signal 0-10 V de la sonde.

Sonde COV ou sonde CO2 ?

La comparaison des utilisations entre sonde COV et sonde CO2 apparaît clairement par l’expérience menée par le COSTIC en France :

Schéma sur la comparaison des utilisations entre sonde COV et sonde CO2.

Correspondance entre la mesure d’une sonde COV et la mesure d’une sonde CO2 dans un bureau de 32 m3, sans ventilation :

  • Phase 1 : une seule personne est présente dans le bureau durant 1 heure. Deux cigarettes sont fumées successivement, après 15 et 45 minutes.
  • Phase 2 : après ventilation de la pièce, six personnes sont introduites dans le bureau durant 10 minutes et il leur est interdit de fumer

On observe très nettement la sensibilité de la sonde COV à la fumée de cigarette lors de la première phase. Par contre, la forte occupation de la phase 2 est mieux mise en évidence par la sonde CO2.

En conclusion, les sondes de qualité d’air, sensibles à la fumée de cigarette et aux composés organiques odorants, sont adaptées aux salles de réunion pour fumeurs, aux restaurants, … . Les sondes CO2, uniquement sensibles à la présence du dioxyde de carbone sont plus adaptées aux locaux dans lesquels la cause de la pollution est celle provoquée par l’occupation : salles de conférence, amphithéâtres, …

Études de cas

La régulation de la ventilation d’une salle de conférence par sonde CO2.

Choix du mode de réglage des ventilateurs

Le réglage du débit des ventilateurs a pour but de diminuer la consommation électrique parallèlement à la diminution de la consommation de chauffage. Il s’applique

  • lorsqu’un groupe de ventilation assure l’apport d’air neuf d’un seul local (système unizone : salle de conférence, bureau paysager, …). Dans ce cas, la gestion de la ventilation en fonction des besoins peut s’effectuer en réglant directement le débit du ventilateur.
  • Lorsque plusieurs locaux sont desservis par un même ventilateur (système multizone : bureaux individuels, …), le réglage des débits locaux s’effectue en agissant sur l’ouverture des bouches. Dans ce cas, l’idéal est d’adapter le débit du ventilateur pour maintenir une répartition correcte des flux d’air dans les différents locaux.

Ventilation unizone

Plusieurs modes de réglage permettent d’adapter le débit des ventilateurs (de pulsion et/ou d’extraction) en fonction de la grandeur de référence :

Tous ces modes de réglage n’entraînent pas la même économie électrique. Le by-pass (l’équivalent de la soupape différentielle utilisée en chauffage) peut même conduire à une augmentation de la consommation.

Il ressort de la comparaison des différents types de réglage que la solution la plus intéressante d’un point de vue énergétique est la variation de la vitesse du ventilateur, soit par paliers grâce à des moteurs à plusieurs vitesses, soit de façon continue au moyen d’un convertisseur de fréquence.

Gamme de convertisseurs de fréquence.

Cependant, lorsque les plages de réglage souhaitées sont assez réduites, les solutions de l’étranglement (plage de réglage maximum de 100 à 85 %) ou des aubages de prérotation (réglage de 100 à 70 %, uniquement pour les ventilateurs centrifuges à aubes recourbées vers l’arrière et les ventilateurs hélicoïdes) sont des solutions satisfaisantes.

Cette dernière solution, de moins en moins utilisée, peut cependant devenir plus intéressante que la variation de vitesse du ventilateur, pour les ventilateurs de très grosse puissance (40 .. 50 kW). En effet, un convertisseur de fréquence qui doit gérer une telle puissance est très coûteux.

Pour les ventilateurs hélicoïdes, la modification automatique de l’angle de calage des aubes conduit à une diminution de la consommation électrique presque équivalente à la variation de vitesse.

Ventilation multizone

En ventilation multizone, deux situations peuvent se présenter : une distribution des locaux en série ou une distribution en parallèle.

Schéma sur la ventilation multizone.

Distribution de l’air en série,
en pulsion mécanique : tous les locaux ventilés se trouvent les uns derrière les autres.

Schéma sur la pulsion mécanique.

Distribution de l’air en parallèle,
en pulsion mécanique :
plusieurs séries de locaux sont raccordés directement à la sortie du ventilateur.

Lorsque toutes les bouches sont raccordées en série, la solution qui entraîne la plus grande économie d’énergie est le choix d’un ventilateur à aubage arrière équipé d’une variation de vitesse avec maintien de pression en fin de circuit et présence d’éléments autoréglables au niveau des différentes bouches. L’économie électrique réalisable par la gestion est cependant difficilement chiffrable puisque l’on ne connaît pas le débit moyen, ni la hauteur manométrique sur lesquels travaillera le ventilateur. L’investissement à réaliser sera quant à lui souvent important étant entendu le coût actuel d’un convertisseur de fréquence.

L’alternative à cette solution est l’emploi d’un ventilateur à courbe plate, c’est-à-dire à aubage avant. L’économie électrique réalisée sera moindre :

  • d’une part, parce que le ventilateur à aubage avant a un rendement maximum moindre que son homologue à aubage arrière, ce rendement pouvant d’ailleurs se détériorer avec la variation des débits;
  • d’autre part, parce que la hauteur manométrique du ventilateur restant constante avec la variation de débit total, l’économie électrique sera au maximum proportionnelle à la diminution du débit.

En contrepartie, l’investissement à consentir sera nettement moindre.
Dans le cas d’une distribution de la ventilation en plusieurs branches, il faut comparer les solutions :

  • ventilateur à aubage arrière équipé d’un convertisseur de fréquence avec variation de vitesse en fonction de la pression à la sortie du ventilateur,
  • ventilateur à aubage avant.

L’économie électrique réalisée grâce à la diminution des débits est identique pour les deux solutions puisqu’une pression constante devrait être maintenue à la sortie du ventilateur. Il faut donc comparer le gain de rendement que l’on peut obtenir en choisissant un ventilateur à aubage arrière avec le surcoût du convertisseur de fréquence, sur la durée de vie de l’installation.

Concevoir

Choix d’un ventilateur.

Exemples de rentabilité

Pour estimer, dans votre situation, la rentabilité de la gestion de la ventilation (réduction de l’horaire journalier de ventilation, variation de vitesse des ventilateurs en fonction d’une sonde CO2, détection de présence dans chaque local) :

Calculs

Pour évaluer la consommation due à la ventilation, cliquez ici !

Voici, à titre d’exemple, comment peuvent être estimées les économies réalisables par une gestion de la ventilation à la demande et la rentabilité de tels projets.

Formules permettant de chiffrer l’économie réalisable

L’évaluation exacte du coût énergétique de la ventilation est relativement complexe. Elle nécessite soit un programme de simulation numérique (lors de la conception), soit des mesures détaillées (bâtiment existant). Cette consommation dépend du climat, du type de système de ventilation et de gestion, de l’isolation du bâtiment, des gains internes, des gains solaires, …

L’économie réalisée provient d’une part de la diminution des consommations de chauffage de l’air neuf et d’autre part de la diminution de la consommation électrique du ventilateur.

Consommation de chauffage

Une formule simplifiée permet de donner une valeur approximative de la consommation de chauffage due à la ventilation :

Consch = 0,34 x qx ΔTmoy x t / ηch

où,

  • 0,34 W/m³.K est la capacité calorifique de l’air
  • qv est le débit de ventilation en m³/h
  • ΔTmoy est la différence entre la température de consigne de l’ambiance et la température extérieure moyenne
  • t est le nombre d’heures de fonctionnement annuel
  • ηch est le rendement de l’installation de chauffage à eau chaude (en moyenne : 0,7)

Consommation électrique du ventilateur

L’économie électrique réalisée grâce à la réduction du débit des ventilateurs est plus difficile à estimer. Tout au plus peut-on rechercher des ordres de grandeur réalistes : la consommation électrique d’un ventilateur peut être estimée suivant une règle de bonne pratique : la puissance électrique absorbée par une ventilation double flux dans ses conditions nominales de fonctionnement est de l’ordre de :

2 * 0,14 (installation performante : SFP1) à 0,35 W (installation médiocre : SFP3) par m³/h d’air transporté

En outre, les règles de similitudes des ventilateurs montrent que si on ne tient pas compte des pertes du système de réglage, la puissance absorbée par un ventilateur varie comme le cube de sa vitesse et donc comme le cube du débit.

Schéma technique.

Modification du point de fonctionnement et donc de la puissance absorbée par un ventilateur en fonction de sa vitesse (en passant de la vitesse n1 à n2).

Notons que lorsque la température extérieure est inférieure à la température ambiante, la consommation électrique des ventilateurs de pulsion est récupérée sous forme de chaleur dans l’air neuf et ne constitue donc plus une perte d’énergie. On remplace juste souvent un chauffage par combustible par un chauffage électrique.

Exemple 1 : mise à l’arrêt d’un ventilateur en période d’inoccupation, en fonction d’une horloge

Un ventilateur sanitaire extrait 1 000 m³/h, dans un immeuble de bureaux occupé de 8 à 18 h. Par rapport à un fonctionnement en continu, l’adaptation des horaires de ventilation à l’occupation permet d’économiser :

en électricité :

0,25 [W/(m³/h)] x 1 000 [m³/h] x 6 160 [h/an] = 1 540 [kWh/an]

où,

  • 0,25 W/(m³/h) est un ordre de grandeur de puissance absorbée pour une extraction seule
  • 6 160 h/an est le nombre d’heures d’inoccupation des bureaux durant l’année

en chauffage :

0,34 [W/m³.K] x 1 000 [m³/h] x (16 [°C] – 5 [°C]) x 4 130 [h/an] / 0,7 / 1 000 = 22 066 [kWh/an] ou 2 200 litres de fuel ou m³ de gaz par an

où,

  • 16° est la température de consigne de chauffage en période de ralenti et 5° la température extérieure moyenne nocturne durant la saison de chauffe.
  • 4 130 h/an est le nombre d’heures d’inoccupation des bureaux durant la saison de chauffe (35 semaines/an ou 5 880 h/an)

L’économie financière totale s’élève de 1614,8 [€/an] (à 0,622 €/ litre de fuel et 0,16 €/kWh en heures creuses).

L’investissement à consentir pour une horloge programmable est de l’ordre de quelques dizaines d’euros.

Exemple 2 : variation de la vitesse d’un ventilateur en fonction d’une sonde CO2 dans une salle de conférence

Un système de ventilation double flux alimente une salle de conférence de 200 places. Le débit d’air de ventilation est de 4 000 m³/h lorsque la salle est remplie.

La ventilation de la salle n’est assurée qu’en semaine (soit 50 h/semaine, pendant 32 semaines ou 1 600 h/an), alors qu’en fait, elle est occupée 4 jours par semaine pendant 10 h (de 8h30 à 18h30) par 100 personnes en moyenne.

Si on stoppe la ventilation durant la journée d’inoccupation (soit 320 h/an), on peut déjà économiser :

en électricité :

0,5 [W/(m³/h)] x 4 000 [m³/h] x 320 [h/an] = 640 [kWh/an]

où,

  • 0,5 W/(m³/h) est un ordre de grandeur de puissance absorbée pour une ventilation double flux de qualité moyenne

en chauffage :

0,34 [W/m³.K] x 4 000 [m³/h] x (20 [°C] – 8 [°C])
x 320 [h/an] / 0,7 / 1 000 = 7 460 [kWh/an] ou 746 [litres de fuel ou m³ de gaz]

où,

  • 20° est la température de consigne de chauffage en journée et 8° la température extérieure moyenne diurne durant la saison de chauffe
  • notons que cette valeur peut être très légèrement diminuée (de l’ordre de 400 kWh/an) si on veut tenir compte du fait que la consommation du ventilateur de pulsion était récupérée sous forme de chaleur dans l’air neuf.

D’autre part, en période d’occupation (1 280 h/an), on peut réduire la vitesse et donc le débit du ventilateur en l’adaptant au taux réel d’occupation. Le débit moyen de ventilation deviendrait alors de l’ordre de 2 000 m³/h.

L’économie d’électricité est plus difficile à estimer. Puisque la puissance absorbée par un ventilateur varie comme le cube de la variation de sa vitesse donc de son débit, on peut grossièrement dire qu’au mieux, la consommation électrique va être divisée par 8 (= (4 000 / 2 000)³) :

consommation d’origine (en occupation) :

0,5 [W/m³/h] x 4 000 [m³/h] x 1 280 [h/an] = 2 560 [kWh/an]

consommation avec régulation de vitesse :

 2 560 / 8 / 0,8 = 400 [kWh/an]

économie d’électricité :

2 160 [kWh/an]

où,

  • le facteur 0,8 tient compte du rendement du système de variation de vitesse qui n’est jamais de 100 %

En réduisant le débit d’air neuf de 4 000 m³/h à 2 000 m³/h, l’économie de chauffage durant la saison de chauffe (960 h/an) est estimée à

0,34 [W/m³.K] x 2 000 [m³/h] x (20 [°C] – 8 [°C]) x 960 [h/an] / 0,7 / 1 000 = 11 191 [kWh/an]

Si on veut être plus précis, il faut déduire de cette économie, l’économie d’électricité déjà réalisée sur le ventilateur de pulsion, de l’ordre de 1 400 kWh (soit environ 2/3 de l’économie électrique totale).

Récapitulatif : économie réalisable par une gestion de la vitesse des ventilateurs en fonction d’une sonde CO2
[kWh/an] [€/an] (0,16 €/kWh élec,
0,0622 €/kWhth ou 0,622 €/litre fuel)
Coupure de la ventilation en période d’inoccupation (320 h/an) Électricité 640 102,4
Chauffage 7 460 – 400 = 7 060 439,1
Réduction de la vitesse du ventilateur en période d’occupation Électricité 2 160 337,0
Chauffage 11 191 – 1 400 = 9 791 648,2
Économie totale 19 851 1526,7

L’économie totale varie en fonction de la qualité de départ de l’installation.  Cette économie sera par ailleurs probablement encore réduite car le rendement du ventilateur risque aussi de varier légèrement lorsque l’on réduit sa vitesse.

L’investissement nécessaire à la gestion de cette salle de séminaire consiste en une sonde CO2 commandant un convertisseur de fréquence agissant sur le moteur des deux ventilateurs d’extraction et de pulsion. Le coût estimé d’une telle installation est de l’ordre de 3000 €, soit un temps de retour de l’ordre de 2 ans.

Si on envisage la régulation avec variation de fréquence dès la conception de l’installation, le surcoût de l’installation régulée par rapport à l’installation fonctionnant en continu sera nettement moindre que cette somme. En effet, lorsque l’on équipe directement un ventilateur d’un convertisseur de fréquence, certains équipements deviennent superflus comme par exemple : les entraînements par courroies, le démarreur étoile-triangle nécessaire à la limitation du courant de démarrage et les clapets de régulation de pression.

Les coûts des deux installations risquent même d’être presque semblables.

En fonction du type de situation rencontrée, on peut envisager certaines variantes à ce projet. Lorsque le système de ventilation supporte également le chauffage et/ou le refroidissement, on peut envisager que la sonde agisse automatiquement sur le volet d’air neuf, réglant selon les besoins la répartition entre air neuf et air recyclé. En parallèle, la vitesse du ventilateur d’extraction s’adapte automatiquement à l’ouverture des volets. C’est entre autres ce mode de régulation que l’on peut rencontrer dans les piscines, la grandeur représentative utilisée étant l’humidité relative.

La régulation de vitesse peut aussi se faire par palier lorsque le moteur existant est un moteur à plusieurs vitesses.

Exemple 3 : Ventilation indépendante de bureaux en fonction de sondes de présence

Un immeuble de 20 bureaux individuels est ventilé par un système double flux (pulsion dans chacun des bureaux et extraction sanitaire). Quel est l’intérêt de choisir des bouches de pulsion avec détecteur de présence intégré ?

L’installation envisagée comprend pour chaque local une bouche de pulsion commandée en tout ou rien en fonction d’un détecteur de présence et un manchon autoréglable garantissant la constance des débits dans les locaux occupés, ce malgré la fermeture de certaines bouches dans le réseau. Le ventilateur choisi est un ventilateur à courbe caractéristique plate qui permet le maintien d’une pression constante au départ du circuit (on ne tient donc pas compte du coût d’un éventuel convertisseur de fréquence).

Le coût d’une bouche de pulsion avec détection de présence est de l’ordre de 150 €. On peut estimer le nombre minimum d’heures de coupure par bureau individuel nécessaire pour rentabiliser la régulation en un temps de retour inférieur à 5 ans.

L’économie annuelle doit être au minimum de 150 €/ 5 ans = 30 €/an.

> économie d’électricité :

0,5 [W/(m³/h)] x 30 [m³/h] x nb heures / 1 000 x 0,16 [€/kWh]

où,

  • 0,5 W/(m³/h) est un ordre de grandeur de puissance absorbée pour une ventilation double flux de qualité moyenne
  • 0,16 €/kWh = prix de l’énergie électrique
  • 30 m³/h = débit de ventilation d’un bureau occupé. Puisque le ventilateur maintient une pression constante en début de circuit, la variation de consommation électrique reste plus ou moins proportionnelle à la variation de débit

Réduction de débit et de puissance (rectangle vert) d’un ventilateur à courbe caractéristique plate, lorsque qu’une bouche de pulsion du réseau se ferme.

Économie en chauffage :

0,34 [W/m³.K] x 30 [m³/h] x (20 [°C] – 8 [°C])
x NB heures / 0,7 / 1 000 x 0,0622 [€/kWh]

où,

  • 30 m³/h = débit recommandé dans chaque bureau
  • 20° = la température intérieure de consigne
  • 8° = température extérieure moyenne diurne durant la saison de chauffe
  • NB heures = nombre d’heures annuel de coupure nécessaire pour rentabiliser la régulation
  • 0,0622 €/kWh = prix du fuel (1 litres de fuel = 10 kWh = 0,622 €)

Il en résulte (en négligeant la récupération de la consommation du ventilateur de pulsion sous forme de chaleur) :

Économie totale = Economie en chauffage + Economie électrique = NB heures x (0,24 [c€/h] + 1,09 [c€/h])

Nombre d’heures d’inoccupation du bureau = NB heures = 30 [€/an] / 0,0133 [c€/h] = 2 256 [heures/an]

Si on imagine qu’en complément de la détection de présence par bureau, le ventilateur est mis à l’arrêt lorsque toutes les bouches sont fermées (la nuit et les week-ends), pour éviter que celui ne tourne dans son jus, le temps maximum de fonctionnement de l’installation de ventilation est estimé à 2 500 heures par an (250 journées de 10 h). L’investissement peut donc être facilement rentabilisé dans le temps prévu (5 ans), rien qu’en coupant la ventilation le weekend, la rentabilité est déjà atteinte !

En conclusion

La gestion de la ventilation à la demande (c’est-à-dire par sonde de qualité d’air ou détection de présence) ne peut se justifier que

  • pour des débits gérés par sondes suffisamment importants,
  • pour des temps de fonctionnement à régime réduits suffisamment importants par rapport au temps de fonctionnement total de l’installation de ventilation.

Dans les autres cas, il faut se contenter de systèmes très simples comme la simple horloge sur l’extraction.


Contrôle des heures de fonctionnement

Le contrôle le plus simple se fait via un compteur d’heures de marche du ventilateur ou un compteur d’heures de marche couplé avec un compteur du nombre d’enclenchements.

En faisant de temps en temps des relevés par pointage, à des intervalles courts, on voit très bien si le nombre d’heures et d’enclenchements est raisonnable ou non et si une amélioration de la gestion ne se justifie pas.

Concevoir le mur creux


Remplissage partiel ou intégral ?

En général…

… on choisit, de préférence, un remplissage intégral de la coulisse du murs creux par de l’isolant car :

  1. Cette technique est moins délicate au niveau de l’exécution.
  2. Cela permet d’augmenter la résistance thermique du mur.

1. Exécution

Des défauts d’exécution sont très fréquents lors d’un remplissage partiel de la coulisse.

Exemples de défauts d’exécution

Des déchets de mortier tombés dans l’espace laissé vide encombrent la lame d’air entre le parement et l’isolant.

Les panneaux isolants ne sont pas placés contre le mur intérieur (en remplissage partiel) : ce qui engendre des pertes de chaleur par convection autour des panneaux.

Les panneaux d’angle ne sont pas superposés.

Exemples de détails corrects

  

Un placement correct de l’isolation en remplissage partiel veille essentiellement à assurer une jonction parfaite entre les panneaux isolants ainsi qu’entre les panneaux et le mur porteur. En outre la lame d’air doit être propre et dégagée de tous déchets.

La KUL a effectué des mesures de coefficients de transmission thermique moyens réels sur des murs creux où la mise en œuvre de l’isolant a été soignée et sur les mêmes murs creux où la mise en œuvre a été exécutée sans soin particulier; et ce, pour des murs creux isolés avec remplissage partiel et intégral.

En voici les résultats :

Uthéorique (W/m²xK) Upratique (W/m²xK)
Pas d’isolant dans le mur creux 1,34 1,35

Remplissage partiel du creux

Pose correcte de l’isolant. 0,42 à 0,49 0,54 à 0,61
Pose déficiente de l’isolant. 0,42 à 0,49 0,99

Remplissage intégral du creux

Pose correcte de l’isolant. 0,27 à 0,32 0,39 à 0,44
Pas de soin particulier apporté à la mise en œuvre de l’isolant. 0,27 à 0,32 0,39 à 0,44

Les mesures montrent qu’une mise en œuvre de l’isolant réalisée avec soin apporte finalement peu de diminution du coefficient de transmission thermique dans le cas d’un remplissage intégral. Ceci s’explique par le fait que le remplissage intégral du creux d’un mur souffre moins des erreurs de pose que le remplissage partiel.

2. Amélioration de la résistance thermique

Le remplissage intégral de la coulisse permet de profiter au maximum de la largeur de celle-ci pour isoler; un vide d’air est moins bénéfique qu’un supplément d’isolant au niveau de la résistance thermique du mur.

En effet, en cas de remplissage partiel, la lame d’air entre la paroi extérieure et le matériau d’isolation doit avoir une épaisseur minimale de 3 cm.
Une lame d’air de cette épaisseur a une résistance thermique maximale de 0,35 [m²xK/W] (cas d’une couche d’air verticale, une des faces latérales a une émissivité diminuée, la lame d’air est non ventilée) (Annexe A de la NBN EN ISO 6946).
Si l’on remplit cet espace de laine minérale (isolant le plus couramment utilisé dans le cas d’un remplissage intégral) cette dernière va augmenter la résistance thermique de la paroi de R = d/λ = 0,03/0,04 = 0,75 [m²xK/W], ce qui est nettement supérieur à la résistance thermique apportée par l’épaisseur de lame d’air supplémentaire.

Remarque.
Le coût d’un isolant un peu plus épais risque d’être plus élevé, mais est insignifiant vis-à-vis de l’augmentation de coût d’exécution dû à une mise en œuvre plus difficile d’un remplissage partiel.

Dans certains cas…

Le remplissage partiel (parfaitement exécuté) est choisi lorsque le vide ventilé est recommandé; seul ce remplissage permet la présence d’un vide ventilé.


Lame d’air ventilée ou non ventilée ?

> Un vide ventilé est nécessaire dans les deux cas suivants : 

  1. Les façades très exposées aux pluies battantes,
  2. Les façades dont la maçonnerie de parement est recouverte d’une couche faiblement perméable à la vapeur (briques émaillées, maçonnerie peinte, certains crépis,…) ou dont le parement lui-même est étanche à la vapeur (pierre naturelle, briques de grès, tôle métallique).

1. Façades très exposées aux pluies battantes :

Par « façades très exposées aux pluies battantes », il faut entendre celles des bâtiments :

  • situés en site urbain ou suburbain et dont la hauteur est supérieure à 50 m,
  • situés en zone rurale et dont la hauteur est supérieure à 25 m,
  • situés en zone côtière et dont la hauteur dépasse 8 m,
  • construits en bord de mer.

2. Parements peu perméables à la vapeur :

Dans le cas d’un mur de parement recouvert, sur sa face extérieure, d’une couche faiblement perméable à la vapeur d’eau (peinture, briques émaillées, …), un séchage effectif ne peut s’effectuer que par sa face intérieure et, pour le favoriser, il est nécessaire de ventiler le creux.

En effet, une couche d’émail ou de peinture a deux effets sur le comportement hydrique du mur :

  • D’une part, elle augmente l’étanchéité à l’eau de pluie, mais celle-ci n’est pas totale.
    Si la peinture, par exemple, peut réduire considérablement la quantité d’eau infiltrée dans le mur par capillarité, l’eau peut, malgré tout, pénétrer dans le mur par les inévitables petites discontinuités (joints incomplètement remplis, petits trous, fissures, …) qui ne peuvent pas toujours être colmatées par le feuil de peinture (le rôle de la peinture réside donc essentiellement dans la décoration et non dans la réalisation d’une étanchéité).
  • D’autre part, elle diminue la perméabilité à la vapeur d’eau. Or l’eau infiltrée dans le mur ne pourra s’évacuer par évaporation par la face extérieure qu’en fonction de la perméabilité à la vapeur de cette face.
    Il est apparu, lors d’études effectuées par le CSTC et la KUL, que toute peinture ralentissait tellement le séchage du parement qu’une humidité progressive s’installait dans celui-ci.

Ce comportement se présente aussi lorsque le parement lui-même est étanche à la vapeur : pierre naturelle, briques émaillées, tôle métallique, … et le vide ventilé est, dans ce cas également, fortement conseillé.

Dans tous les autres cas, bien qu’elle ne constitue pas un défaut, la ventilation du mur creux ne présente aucun avantage; on choisit donc une coulisse non ventilée avec remplissage intégral.
En effet, dans le cas d’un remplissage partiel (avec isolation correctement posée), le coefficient de transmission thermique du mur augmente légèrement (4,7 % avec un vent de 26 m/sec – résultat calculé sur base de modèles mathématiques) lorsque le vide est ventilé; on a donc tout intérêt à choisir un remplissage intégral.

Remarque.
Beaucoup d’idées reçues circulent à propos de la ventilation des murs creux. Celles-ci plaident en sa faveur mais sont sans fondement !
Le texte ci-dessous est très largement inspiré de l’article « Faut-il remplir intégralement d’isolant le creux de mur extérieur ? » paru dans le magasine Je vais construire n°148 de février 1992.

Une idée reçue…

La ventilation du creux du mur permet d’éviter les infiltrations d’eau vers l’intérieur du bâtiment.

En réalité…

En cas de fortes pluies prolongées, le mur de parement finit par laisser passer l’eau.

La coulisse a alors pour fonction d’empêcher le transfert de cette eau vers le mur intérieur. Elle remplit la fonction de rupture capillaire, de chambre de décompression et de canal d’évacuation (elle interrompt le passage de l’eau au travers des matériaux, elle évite que l’eau qui a pu traverser la paroi extérieure ne soit projetée par le vent sur la paroi intérieure et permet à cette eau de s’écouler sur la face interne du parement).

Ces fonctions peuvent aussi bien être remplies par un vide (c’est le cas en remplissage partiel) que par un isolant non capillaire (c’est le cas de la laine minérale en remplissage intégral).

La ventilation du vide ne joue donc aucun rôle déterminant à cet égard.

Les seuls problèmes rencontrés au niveau du passage de l’eau de pluie résultent soit d’erreurs d’exécution (déchets de mortier coincés entre les murs extérieurs et intérieurs, pose déficiente des membranes d’étanchéité, crochets non inclinés vers l’extérieur (remplissage intégral) ou sans casse-gouttes (remplissage partiel), soit d’un défaut d’étanchéité à l’air du mur intérieur.

Une autre idée reçue…

La ventilation du creux du mur empêche toute condensation interne.

En réalité…

La condensation interne est de si faible importance dans le cas d’un mur creux qu’elle ne mérite pas d’être évoquée. La ventilation ou non de la coulisse n’a donc aucune influence sur le phénomène.

Une autre idée reçue…

La ventilation du creux du mur accélère le séchage du mur de parement et permet de la sorte d’éviter tout dégât par le gel de la maçonnerie.

Schéma ventilation du creux du mur.

En réalité…

Un mur de parement complètement trempé s’assèche en deux phases

  • Assèchement rapide : quelle que soit la saison, l’assèchement par la face en contact avec le vide ventilé n’atteint qu’au maximum 5 % de l’assèchement obtenu par la face extérieure.

Shéma assèchement rapide du mur creux.

  • Assèchement approfondi : une fois que la contenance en humidité du mur s’abaisse de manière telle que l’assèchement de surface doit faire place à un assèchement par diffusion, le vide ventilé joue un rôle plus important  55 % de l’assèchement s’effectue encore par l’extérieur pour 45 % par le vide ventilé.
    À ce moment toutefois, on se situe déjà au niveau d’une humidité structurelle qui ne risque plus d’engendrer de dégâts à la maçonnerie en cas de gel.
    Une accélération de l’assèchement du mur n’est plus aussi vitale.
Une dernière idée reçue…

La ventilation du creux du mur évite la condensation superficielle et la moisissure à l’intérieur du bâtiment.

En réalité…

Les problèmes de condensation superficielle dans un bâtiment résultent généralement d’une combinaison négative de 4 facteurs :

  1. Un comportement thermique défaillant du bâtiment provenant soit de l’absence d’isolation thermique, soit d’une mise en œuvre déficiente de l’isolation, soit encore de la présence de ponts thermiques.
  2. Un apport d’air neuf insuffisant (ventilation insuffisante).
  3. Une température intérieure trop basse.
  4. Une production anormalement élevée d’humidité dans le bâtiment.

La discussion de l’utilité d’une ventilation du creux de mur dans le cadre des problèmes de condensation superficielle ne concerne évidemment que le 1er facteur (la qualité thermique de l’enveloppe du bâtiment). La chance de réduire ces ennuis par la ventilation du creux de mur serait effective si l’on parvenait de la sorte à réduire la valeur du coefficient U et à effacer l’effet des ponts thermiques.
Ce n’est évidemment pas le cas et l’on constate, au contraire, qu’en pratique la ventilation du creux de mur accentue le risque de formation de moisissures en cas de pose défaillante de l’isolant (rotation d’air autour des panneaux). Par ailleurs, si l’isolation est placée conformément aux règles de l’art, aucun problème de ce type n’apparaît quelle que soit la structure adoptée (remplissage total de laine minérale, remplissage partiel avec vide ventilé ou non) mais le résultat le meilleur est obtenu avec un remplissage intégral du creux de mur, le moins bon avec le vide ventilé.

Vouloir écarter le problème des moisissures en ventilant le creux de mur est donc un non-sens.


Quel type d’isolant?

L’eau étant un très bon conducteur de chaleur, il faut éviter que l’isolant ne s’humidifie. Un bon isolant thermique est donc étanche à l’eau ou hydrophobe et non capillaire, c.-à-d.. qu’il ne peut ni s’humidifier dans la masse, ni transférer l’eau qui aurait traversé la maçonnerie de parement.

L’étanchéité à l’air du mur creux étant assurée par un enduit, la perméabilité à l’air de l’isolant est une propriété de moindre importance. De même, la condensation interne ne posant pas de problème dans un mur creux, la perméabilité à la vapeur d’eau est également une caractéristique de moindre importance. Enfin, vu le faible risque d’exposition à la chaleur de l’isolant, la réaction au feu de l’isolant est une propriété d’importance secondaire.

Pour les murs creux, il est fortement conseillé de choisir des panneaux rigides ou semi-rigides, càd. une mousse rigide ou une laine minérale ayant une masse volumique supérieure ou égale à :

  • 20 kg/m³ pour la laine de verre;
  • 45 kg/m³ pour la laine de roche.

Cas d’un remplissage partiel

Le remplissage partiel se fait en général avec des plaques isolantes rigides ou semi-rigides en matériaux tels que :

Cas d’un remplissage intégral

Dans le cas d’un remplissage intégral, on choisit généralement des panneaux de laines minérales rigides ou semi-rigides ayant reçu un traitement hydrofuge. En effet, ceux-ci permettent de bien colmater la coulisse : les deux parois (intérieure et extérieure) sont maçonnées pour que les faces vues soient planes, il en résulte des irrégularités sur les faces se trouvant dans la coulisse; celles-ci sont « reprises » par un matériau suffisamment souple.

L’épaisseur d’isolant dépendra du type d’isolant choisi, de sa configuration dans la paroi et des performances thermiques à atteindre.

Choisir le condenseur et la tour de refroidissement

  

Critères de choix généraux

Il faut évacuer la chaleur du réfrigérant vers l’air ambiant.
On distingue deux techniques :

  • soit refroidir directement le fluide frigorigène par l’air : c’est le rôle du condenseur à air,
  • soit refroidir le fluide frigorigène par de l’eau : la machine frigorifique sera équipée par un condenseur à eau. Mais cette eau doit alors être elle-même refroidie en toiture, via une tour de refroidissement.

Pour accroître la puissance de refroidissement, on peut profiter de l’énergie de vaporisation d’une eau pulvérisée au travers du courant d’air. Le principe est le même que lorsque nous nous aspergeons la figure par temps très chaud : la vaporisation de l’eau refroidit notre peau.

Soit la pulvérisation est celle de l’eau qui circule dans le condenseur, soit c’est de l’eau indépendante de l’eau du circuit de condensation qui est pulvérisée.
Cela conduit aux 5 technologies développées dans la technologie des condenseurs.

Critères de choix globaux

Energétiquement, la solution d’un refroidissement direct du fluide frigorigène par l’air extérieur possède des avantages, puisque tous les intermédiaires (et leurs consommations) sont évités et ainsi que la maintenance coûteuse de la tour de refroidissement. Aujourd’hui, la pression de condensation des condenseurs à air est bien gérée par l’arrivée des détendeurs électroniques. C’est la solution couramment adoptée lorsque l’on peut placer le groupe frigorifique sur la toiture : le condenseur fera partie du système « monobloc ».

En toute logique, on retouvera donc le condenseur à air en toiture. Mais la machine frigorifique est parfois située en cave. Dans ce cas, il est exclu de faire confiance à des « ventilations naturelles », des « soupirails », … la température dans la cave risquerait de monter fortement et le condenseur se retrouverait balayé par de l’air déjà réchauffé. La pression de condensation du fluide monterait et le compresseur verrait sa consommation fortement augmenter. Par forte chaleur, le compresseur ne pourrait suivre et déclencherait par son pressostat haute pression.

L’évacuation de la chaleur demande un réel balayage par un fluide frais et il appartient au bureau d’études de comparer 2 solutions :

  • Soit une gaine d’air est prévue pour apporter l’air extérieur au condenseur et évacuer l’air réchauffé (les pertes de charge générées créent des consommations au ventilateur).
  • Soit il est décidé de placer un condenseur à eau et de transférer l’eau chaude en toiture pour la refroidir dans une tour de refroidissement.

Le transfert de la chaleur par cette deuxième solution est plus efficace (bon coefficient d’échange de l’eau, faible consommation d’une pompe par rapport à un ventilateur),… mais il y a investissement et consommation de la tour. Un bilan global doit être réalisé.

Paramètres de dimensionnement

Pour augmenter les performances du compresseur, on a tout intérêt à abaisser la température de condensation. Autrement dit, il faut augmenter la surface d’échange et augmenter le débit de circulation de l’eau ou de l’air. Le « pincement », c’est-à-dire l’écart entre la température du fluide refroidissant à la sortie du condenseur et la température du fluide frigorigène sera minimal. Mais l’investissement et les pertes de charge en seront augmentées, et donc la consommation de la pompe…

Schéma technique.

En pratique, pour un condenseur à eau, le bureau d’études choisit couramment un pincement final de 4 à 8°C et un échauffement de l’eau de 5 à 10°C. Autrement dit, si l’eau entre avec une température de 36°, elle ressortira entre 41 et 46°C et la température de condensation s’établira entre 45 et 54°C.

De même, pour un condenseur à air, la vitesse sera comprise entre 2 et 4 m/s et, si l’air entre avec une température de 30°C, la température de condensation s’établira entre 40°C et 50°C.

Schéma technique.

Un constructeur annonce que l’optimum entre la température de condensation et la température d’entrée du fluide refroidissant doit être de 12°C, maximum. Maximum car la régulation permet de moduler cette valeur en fonction de la charge réelle du compresseur.

Comparaison entre les modes de refroidissement

À partir d’une température de l’air de 30°C, quelle sera la température de condensation ? Tout dépend du type de refroidissement de l’eau de condensation choisi !

En partant du fonctionnement d’une tour de refroidissement, voici les résultats comparés pour une température d’air de 30°C 40 % HR
Comparons les systèmes en fixant des valeurs moyennes : une « approche » de 5°C, un pincement des échangeurs de 6°C et un échauffement de la température de l’eau de 7°C.

Entrée condenseur Sortie condenseur T°condens. fluide frigorifique
 

Condenseur à air

normal T° air sec = 30° T° air = 30° T° air = 37° 43°
avec évaporation d’eau T° air sec = 30° T° air = 25° T° air = 32° 38°
 

Condenseur à eau

tour ouverte T° air humide = 20° T° eau cond = 25° T° eau cond = 32° 38°
tour fermée T° eau pulvér. = 25° T° eau cond = 31° T° eau cond = 38° 44°
dry-cooler T° air séche = 30° T° eau cond = 36° T° eau cond = 43° 49°

Dans cette approche très simplifiée, on constate que le condenseur à eau est un échangeur intermédiaire entre le fluide frigorigène et l’air extérieur. Il provoque une augmentation de température de condensation du fluide (et donc une augmentation de la consommation du compresseur). Cette pénalité se retrouve entière pour l’aéro-refroidisseur ou dry-cooler. L’augmentation de la consommation du compresseur est de 2 à 3% par degré K, ce qui n’est pas négligeable !

Si une tour de refroidissement est insérée, on va rattrapper cet handicap par la fabuleuse capacité de refroidissement de l’eau lors de son évaporation !
La tour ouverte fait mieux que combler l’handicap puisqu’elle permet même de descendre la température de condensation. Mais elle entraîne beaucoup de soucis de corrosion…

La tour fermée semble un très bon compromis dans les installations avec condenseur à eau, tandis que l’appoint d’une pulvérisation d’eau est à étudier pour les condenseurs à air.

Abaisser la température de l’air extérieur

La consommation énergétique augmente si la température de condensation augmente.

Aussi, l’emplacement du condenseur doit éviter un réchauffement local de l’air de refroidissement. Par exemple, un condenseur placé sur une toiture couverte de roofing noir entraînera une surchauffe locale de l’air de plusieurs degrés en période d’ensoleillement … Le placement de gravier blanc sur la toiture sera favorable.

L’emplacement du condenseur devra éviter un ensoleillement direct de l’échangeur. Si le placement à l’ombre est impossible, le placement d’un système d’ombrage permettra d’abaisser le niveau de température.

Il faut éviter également qu’un recyclage de l’air ne se fasse autour du condenseur : de l’air chaud se mélange à l’air froid, la température de l’air d’aspiration augmente, … de même que la température de condensation.
C’est pourtant parfois une solution réalisée pour la limitation du niveau de bruit, puisque les parois latérales peuvent être couvertes d’absorbant acoustique… Qu’il est difficile de concilier toutes les contraintes…!

Dans le même esprit, il faut éviter que l’air de refroidissement d’un condenseur ne soit recyclé sur lui-même ou dans un condenseur voisin.

Sans commentaires…

Dans la mesure du possible, il faut donc aussi proscrire le placement le condenseur dans un local fermé. Si c’est le cas (pour des condenseurs de chambres frigorifiques, par exemple), il faut assurer une forte ventilation du local et même parfois sa climatisation, si on veut que la température de l’air du local reste suffisamment basse pour pouvoir continuer à refroidir les condenseurs sans faire monter la pression de condensation. On conviendra que cette situation est aberrante sur le plan énergétique !

Protéger l’isolation extérieure

Les tuyauteries d’eau glacée sont toujours isolées, ne fut-ce que pour éviter la condensation de l’eau de l’ambiance. Mais il est utile d’insister sur la nécessité d’entourer l’isolant d’une gaine en plastique rigide. À défaut, les oiseaux sont friands de cette mousse de polyuréthanne pour la confection de leur nid !


Choix d’un condenseur à air

Le gaz chaud du réfrigérant cède sa chaleur à l’air traversant le condenseur et passe à l’état liquide.

L’entretien du condenseur à air est limité. Il n’y a aucun risque de gel en hiver.

Mais le coefficient d’échange avec l’air étant faible, le condenseur sera volumineux, et donc lourd et encombrant.
Les températures de condensation sont directement liées aux conditions de température extérieure : la pression de condensation sera forte en été (dégradation du COP de la machine frigorifique), mais plus faible en hiver, entraînant d’ailleurs un besoin de régulation adaptée pour un fonctionnement correct.

Choix du ventilateur

La circulation forcée de l’air nécessite des ventilateurs dont la consommation électrique n’est pas négligeable. De plus, ils constituent une source de bruits, par frottement sur les pales du ventilateur, mais aussi par frottement sur les ailettes de l’échangeur.

Pour information, des condenseurs à air à convection naturelle existent (pas de ventilateur, pas de bruit, pas de consommation) mais leur puissance très faible en limite l’usage à des climatiseurs ne dépassant pas 1 kW.

Deux types de ventilateurs sont utilisés :

ventilateur hélicoïdal

Le ventilateur hélicoïdal (ou axial), pour des appareils placés à l’air libre, là où le bruit ne constitue pas une nuisance pour le voisinage. Le niveau sonore dépend de la vitesse de rotation du ventilateur. Dans les emplacements exposés, le régime ne doit pas dépasser 500 t/min.

Si des ventilateurs existants sont trop bruyants, on peut les munir d’amortisseurs de bruit cylindriques (tenir compte de la perte de charge).

ventilateur centrifuge

Le ventilateur centrifuge, souvent pour des appareils placés à l’intérieur d’un immeuble, raccordé à l’extérieur par des gaines (le ventilateur centrifuge peut vaincre des pertes de charges plus élevées).

Si le bruit du ventilateur dépasse les valeurs admissibles, on peut le munir d’amortisseurs de bruit.

La vitesse de passage de l’air est comprise généralement entre 2 et 4 m/s. Cette information dans le catalogue constructeur est un indice qualité puisque si elle se rapproche de 2 m/s, on a plus de garantie que l’appareil fera peu de bruit et que la consommation du ventilateur sera limitée (en fait, le constructeur a dû écarter davantage les ailettes pour faciliter le passage de l’air, donc l’appareil demandera plus de matière, sera plus volumineux et… sera plus cher : la qualité se paie !).

Complément de puissance par aspersion d’eau

Schéma complément de puissance par aspersion d'eau.

Pour augmenter la puissance d’échange, on peut transformer le condenseur à air en tour fermée par aspersion de l’échangeur avec de l’eau. Par exemple, de l’air extérieur de 30°C 50 % HR passe à 25°C 100 % HR . On abaisse donc la température de condensation en dessous de la température de l’air ambiant. Ce qui facilite le travail du compresseur !

Schéma technique.

Dans ce cas, il faut cependant tenir compte du risque de corrosion de l’échangeur et, de ce fait, des fuites possibles de l’agent réfrigérant. L’eau évaporée est remplacée par de l’eau du réseau. Un débit complémentaire de déconcentration est nécessaire afin de réduire l’entartrement. Un traitement de l’eau peut donc s’avérer nécessaire.

Récupération de chaleur du condenseur

Une récupération de la chaleur est possible pour chauffer directement un local. Ainsi, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.


Choix d’un condenseur à eau

Photo condenseur à eau.

Le réfrigérant de la machine frigorifique cède sa chaleur à l’eau circulant dans le condenseur.
Grâce au coefficient d’échange avec l’eau de 20 à 30 x plus élevé que le coefficient d’échange avec l’air, la taille du condenseur à eau sera plus réduite. L’échangeur sera moins encombrant.

Machine frigorifique avec condenseur à eau, installée en salle des machines et raccordée à une tour de refroidissement à l’extérieur.

Il est moins bruyant que le condenseur à air. Il permet plus facilement la récupération de chaleur puisque la chaleur est contenue dans de l’eau, plus facilement déplaçable.

La température de condensation peut plus facilement être stabilisée que dans les condenseurs à air.

Mais le condenseur à eau nécessite forcément une tour de refroidissement complémentaire qui, elle, est encombrante, génère du bruit, des frais d’entretien parfois importants, une éventuelle consommation d’eau, … Pourrait-on dire que l’on a déplacé le problème ?

La matière utilisée est souvent le cuivre ou l’acier, bons conducteurs thermiques, en fonction des contraintes (le cuivre ne peut être adopté pour l’ammoniac, par exemple).

Pour le refroidissement, on peut utiliser :

  • L’eau du réseau (eau potable), mais cette solution est à proscrire vu la consommation exorbitante d’eau qu’elle entraîne.
  • L’eau de nappes phréatiques, de lac ou de rivière (demander l’autorisation). Les eaux contiennent plus ou moins d’impuretés qui se déposent sur les tubes. Ces dépôts peuvent réduire considérablement le coefficient de transfert de chaleur. À défaut de la mise en place d’un système de nettoyage automatique, il faut surdimensionner l’échangeur de sorte que les performances de l’installation restent suffisantes.
  • Un circuit d’eau, ouvert ou fermé. C’est le cas le plus fréquent. Il entraîne l’utilisation d’une tour de refroidissement.

Choix de la tour de refroidissement

Photo tour de refroidissement.

Pour évacuer la chaleur captée par le condenseur à eau, on rencontre trois technologies de tour de refroidissement. Voici quelques critères de choix.

Le refroidissement atmosphérique ouvert : la tour ouverte

L’eau est pulvérisée dans l’air qu’un ventilateur pulse à travers la tour de refroidissement. Une partie de l’eau s’évapore. Simultanément, elle refroidit le reste de l’eau qui retourne vers le condenseur. L’eau évaporée est continuellement remplacée par de l’eau fraîche spécialement traitée. Cette configuration entraîne donc une consommation d’eau, estimée à 1,5 litre par kWh dissipé. Elle se rencontre généralement dans les installations de plus de 1 000 kW.

Schéma tour ouverte.

Cette tour ouverte a la faveur :

  • du financier : solution bon marché, ne prenant pas beaucoup de place,
  • de l’énergéticien : la température de condensation est très basse (ce qui diminue le travail du compresseur).

Mais elle constitue le cauchemar de l’équipe de maintenance : corrosion par oxygénation de l’eau, encrassement par introduction de poussières et de grains de sable qui risquent de se déposer dans le condenseur, risque de gel accru,… problèmes qui limitent d’ailleurs la durée de vie moyenne à une dizaine d’années.

Photo tour ouverte.

Elle peut poser également un risque en matière de contamination par la légionelle : l’eau pulvérisée se situe à une température de 30 à 50°C. Emporté par le vent, le nuage de vapeur d’eau + fines gouttelettes qui s’échappe de la tour risque d’être respiré par des personnes à proximité… On sera particulièrement attentif à ne pas placer une tour ouverte près de la prise d’air neuf du bâtiment, ou près d’un autre bâtiment plus élevé dont les occupants pourraient respirer le panache de vapeur en ouvrant leur fenêtre. Un entretien régulier doit de plus être prévu.

À noter qu’il existe des tours ouvertes sans ventilateurs. La pulvérisation d’eau est réalisée avec une pression assez élevée et cette pulsion d’eau entraîne l’air avec elle par effet induit (effet Venturi). L’avantage premier est la diminution des bruits et des vibrations. La consommation un peu plus élevée de la pompe est très largement compensée par la suppression du ventilateur. Mais ce type de tour est limité dans la gamme de puissance de refroidissement.

Schéma technique.

Si la tour doit travailler par des températures extérieures assez basses, une régulation de la température de l’eau du circuit « tour » est à prévoir. En effet, si l’eau du condenseur est anormalement froide, la haute pression s’établira difficilement et on aura des difficultés au démarrage.
La solution consiste à agir d’abord sur la diminution de la vitesse du ventilateur et ensuite sur la vanne trois voies diviseuses qui permettent à l’eau de by-passer la tour de refroidissement.

Schéma technique.

Remarques.

  • Si l’installation reste en fonctionnement en période de gel, une résistance chauffante sera prévue dans le bac de collecte d’eau, avec une régulation qui autorise le chauffage pour une température de l’eau inférieure à 5°C, par exemple.
  • Puisque le risque de corrosion est élevé dans les tours ouvertes, il est judicieux d’utiliser des tuyauteries en polyéthylène à haute densité ou en PVC haute densité, pour raccorder la tour au condenseur.

Le refroidissement atmosphérique fermé : la « tour fermée »

L’échangeur de chaleur eau/air est également aspergé d’eau quand la puissance de réfrigération est élevée. Cette eau d’aspersion constitue toutefois un circuit autonome. Pour cette installation il faut compter environ 20 % d’emplacement supplémentaire au sol et 50 % de budget en plus par rapport à la tour ouverte.
Le principal avantage est d’abaisser le point de condensation tout en conservant propre le circuit du condenseur. Les problèmes hydrauliques sont résolus mais les autres problèmes subsistent :

  • consommation d’eau (évaporation et déconcentration),
  • régulation,
  • protection contre le gel.

La réserve (mentionnée pour les tours ouvertes) concernant le risque de contamination par légionellose reste d’application dans ce cas-ci. Ici encore, le choix de ce système sera donc moins adéquat si des personnes sont susceptibles de respirer l’air sortant de la tour de refroidissement (fenêtres à proximité).

Le refroidissement atmosphérique fermé : l’aéro-refroidisseur où « dry-cooler »

Cette fois, pas d’aspersion d’eau, c’est le ventilateur qui pulse simplement l’air extérieur dans une batterie d’échange. Technologiquement, il s’agit d’un condenseur à air, à la seule différence que c’est de l’eau qui le parcourt et non du fluide frigorigène.

Pour éviter le gel, l’eau sera glycolée. Par exemple, pour atteindre une protection contre le gel à – 16°C, la concentration en éthylène-glycol sera de 30 % en masse.
Problème : la température de l’air en été peut dépasser les 30°C. Par rapport aux tours de refroidissement avec aspersion d’eau, la surface d’échange doit être plus importante, l’emplacement au sol également. Le coût d’investissement peut atteindre le double de celui de la tour ouverte.
Mais le dry-cooler est cependant souvent utilisé pour sa fiabilité (absence de corrosion du circuit hydraulique), la possibilité de le faire fonctionner en toutes saisons (avec eau glycolée), l’absence de consommation d’eau.
Ces caractéristiques sont appréciées surtout pour le refroidissement des installations informatiques dont le fonctionnement et la charge thermique sont constants toute l’année, et donc aussi en hiver.

Aéro-refroidisseur.

Quelques recommandations particulières

Pour une installation de qualité, on sera attentif aux éléments suivants :

  • Pour limiter la corrosion, préférer de l’acier revêtu (polymères) à l’acier galvanisé (il n’est pas lisse, ce qui favorise le développement d’algues),
  • Choisir des ailettes très larges ou des batteries lisses pour un nettoyage facile,
  • Choisir une pompe à eau en inox,
  • Privilégier un accouplement et des roulements de haute qualité (> 80 000 heures), sachant qu’une tour peut fonctionner jusqu’à 5 à 6 000 heures/an !
  • Si le bruit est un facteur important, favoriser les ventilateurs à aubes inclinées vers l’avant, malgré leur moins bonnes performances énergétiques que les ventilateurs à aubes inclinées vers l’arrière (qui doivent fonctionner à 3 000 tours), ou penser au placement d’un silencieux,
  • Vérifier la résistance de la structure : une tour fermée de 300 kW pèse de 3 à 4 tonnes et une tour de 1 000 kW pèse de 9 à 12 tonnes !
  • Prévoir l’absorption des vibrations sonores par des silent-blocs,
  • Prévoir un appareil de mesure de la conductivité de l’eau (pour mieux gérer le débit d’eau de déconcentration),
  • Pour les très grosses tours, le placement de capteurs de vibration pour la surveillance des paliers sera un outil très efficace de maintenance et d’économie à long terme.

Choix de la régulation

Principe de base : abaisser la température de condensation

Abaisser la température de condensation, c’est abaisser le niveau de pression à la sortie du compresseur, c’est donc diminuer le travail de celui-ci et l’énergie qu’il consomme.

Par exemple, abaisser la température de condensation de 10°C génère généralement plus de 10 % de réduction de la puissance électrique. Les constructeurs annoncent même 2 % d’économie par degré abaissé, dans certains cas.
De plus, une basse température de condensation entraîne un niveau moins élevé de pression, ce qui permet souvent de choisir un compresseur d’un modèle plus petit, donc moins cher.

Nous devrions avoir d’ excellents rendements dans nos régions où les canicules sont rares ! La température extérieure avoisine les 12 à 20°C lorsque la climatisation est en route. La température de condensation devrait être de l’ordre 24 à 32°C. Mieux, certains locaux à charges internes importantes (par exemple, les salles informatiques) doivent être aussi climatisés en mi-saison ou encore en hiver. Dans ce cas, lorsque la température de l’air extérieur diminue, la capacité de refroidissement du condenseur augmente.
En théorie, c’est tout bénéfice pour le compresseur qui a moins de mal à travailler !
Et pourtant …

Problème avec les détendeurs thermostatiques

Le constructeur souhaite qu’une différence de pression minimale existe au niveau du détendeur, pour assurer une quantité de débit de fluide frigorifique suffisante dans l’évaporateur. C’est la Haute Pression qui pousse le réfrigérant à travers l’orifice de la vanne du détendeur. Il en résulte, avec une haute pression trop faible, que l’alimentation en réfrigérant est insuffisante, particulièrement au démarrage. Le compresseur aspire mais il est sous-alimenté.

La basse pression devient aussi insuffisante et le groupe se met en sécurité basse pression. Mais comme cette sécurité est à réenclenchement automatique, le groupe « pompe », se fatigue et finalement déclenche par son thermique.

Avec un détendeur thermostatique, il est donc nécessaire de maintenir une haute pression suffisamment élevée. Dès lors, le constructeur impose une pression minimale, côté HP, à la sortie du condenseur (par exemple 12 bars pour le R22).
Ce problème est renforcé en hiver… Si l’air est à 0°C, la surface d’échange devient excessive. De plus, on n’aura plus besoin de la pleine puissance frigorifique. De sorte que le condenseur sera largement surdimensionné pendant les périodes froides.
S’il fait plus froid dehors, le constructeur va diminuer le débit d’air de refroidissement (en arrêtant l’un ou l’autre ventilateur, par exemple), mais il va maintenir le niveau de pression ! en fait, la régulation des ventilateurs sera réalisée sur base du pressostat HP.

Schéma régulation des ventilateurs sera réalisée sur base du pressostat HP.

Il y a économie sur le ventilateur… mais pas sur le compresseur !

Première amélioration : travailler avec un ventilateur à vitesse variable ou une cascade de ventilateurs

Supposons que le ventilateur du condenseur fonctionne en tout ou rien, avec l’exigence constructeur de maintenir les 12 bars minimum.
Par exemple, il s’enclenche lorsque la pression monte à 16 bars et déclenche lorsque la pression descend à 12 bars. Ceci entraîne des cycles on-off « rapides » (+/- 2 min.) et une « fatigue » du moteur. En plus la mise en route brutale du ventilateur provoquera une chute soudaine de la pression et de la température de condensation. Ceci provoque à son tour une ré-évaporation du liquide resté à la même température. Les bulles de vapeur provoqués par ce phénomène peuvent perturber le bon fonctionnement du détendeur et donc de l’installation. (« flash gaz »).

Si par contre, on utilise un ventilateur à vitesse variable (moteur spécial ou régulateur de vitesse de rotation externe), en plus de la réduction de consommation du ventilateur, on optimisera le fonctionnement du compresseur qui restera régulé à 12 bars (dès que la pression augmente, le ventilateur accélère; et si la charge augmente encore, c’est la pression qui augmente naturellement).

Si le condenseur dispose de plusieurs ventilateurs, on obtient un résultat similaire à partir d’une mise en cascade des ventilateurs, via un pressostat à plusieurs étages. Cette fois, la pression de condensation est stable, ce qui évite la formation de bulles de gaz à l’entrée de l’évaporateur.

Cas particulier

Comme le condenseur est entièrement à l’extérieur, par très basse température, c’est toute la masse métallique qui est à 0°C et, même clapets complètement fermés, le réfrigérant se condense à trop faible pression. Il faut dans ce cas rendre inopérants un certain nombre de tubes.

Pour les rendre inopérants, il suffit de remplir d’office certains tubes avec du réfrigérant liquide. Ce réfrigérant liquide sera sous-refroidi mais la surface d’échange utile du condenseur ayant fortement diminué, il ne pourra en condenser trop. Ce remplissage est obtenu par une vanne à 3 voies fonctionnant automatiquement et branchée sur un réservoir auxiliaire de réfrigérant.

Comme il faut une certaine quantité de liquide pour remplir ces tubes, il y a lieu de prévoir un réservoir et une quantité de réfrigérant suffisamment grande.

Exemple.

Un climatiseur devant fonctionner pour des températures extérieures inférieures à 17°C doit être équipé d’un ventilateur de condenseur à vitesse variable. La diminution de vitesse du ventilateur est alors commandée par un pressostat ou un thermostat placé sur le condenseur. La puissance d’échange de celui-ci est ainsi maintenue constante quelle que soit la saison.

Au minimum, le fonctionnement du ventilateur sera commandé en tout ou rien. Idéalement la vitesse sera modulée, soit en continu, soit par paliers.

Deuxième amélioration : travailler avec un détendeur électronique

Si le détendeur thermostatique travaille généralement avec une température minimale de condensation de 35°C, le détendeur électronique peut travailler avec une température minimale de condensation de 20°C !

Photo détendeur électronique.

Détendeur électronique.

Il est plus cher à l’investissement, mais ce prix est largement récupéré par l’usage de l’installation.
De plus, la présence d’un détendeur numérique permet d’optimiser la température de condensation en fonction de la charge du compresseur.

Exemple.

Voici la séquence prévue par un constructeur de régulation :

A 100 % de puissance, l’écart « température de condensation – fluide de refroidissement » est choisi à 12 K.

A 0 % de puissance, l’écart est de 4 K : la consommation du compresseur est diminuée par la baisse de pression de condensation et le ventilateur adaptera sa vitesse de rotation pour maintenir cette consigne. L’écart n’est pas de 0 K, car les ventilateurs tourneraient tout le temps.


** à corriger

Exemple.

si la T°ext = 30°C et Travail compresseur = 25 %, la T°condensation = 36°C
si la T°ext = 30°C et Travail compresseur = 50 %, la T°condensation = 38°C
si la T°ext = 20°C et Travail compresseur = 25 %, la T°condensation = 26°C

si la T°ext = 10°C et Travail compresseur = 25 %, la T°condensation = … 20°C car c’est la valeur minimale de condensation.

Remarque.
Adopter une température minimale de condensation de 20°C suppose que le sous-refroidissement soit suffisamment élevé.
À défaut, la moindre perte de charge sur le tracé va provoquer une vaporisation dans le condenseur (« flash-gaz »). C’est parfois un problème rencontré lorsqu’il faut remonter plusieurs mètres avec la tuyauterie.

Pour s’en prémunir, il est possible de sous-refroidir volontairement le liquide par la création d’une zone de sous-refroidissement dans le condenseur (voir figure), ou en plaçant un échangeur à plaques sur le liquide (à la sortie).

Illustration zone de sous-refroidissement dans le condenseur.

Régulation de la tour de refroidissement

La tour de refroidissement sera commandée suivant la même logique : maintenir constante la température de l’eau de refroidissement.
Classiquement, on retouvera une régulation par vanne 3 voies mélangeuses. La température de l’eau de sortie de la tour est mélangée à l’eau venant du condenseur. Si ce système permet de conserver le débit constant dans le condenseur (ce qui limite le dépôt de sédiments), il est peu efficace au niveau des ventilateurs : ceux-ci tournent en permanence quels que soient les besoins de refroidissement. En dehors du gaspillage d’énergie, le coût de fonctionnement des ventilateurs est loin d’être négligeable…

Schéma régulation de la tour de refroidissement.

Aussi est-il préférable de concevoir une installation qui régule d’abord sur le nombre et la vitesse des ventilateurs, pour ensuite affiner en modulant sur la position de la vanne mélangeuse (si ventilateur à 2 vitesses, par exemple). Idéalement, c’est un ventilateur à vitesse variable qui sera choisi.
N’oublions pas que toute l’installation de climatisation est dimensionnée pour les jours de canicule. Hélas, ces jours sont rares dans nos contrées…!

Il est donc facile d’imaginer que les besoins réels moyens seront largement en dessous des puissances de dimensionnement. Réduire la vitesse du ventilateur de moitié, c’est diviser sa consommation par 8 !


Critères acoustiques

Bruit aérien

La principale source de bruit d’un condenseur est constituée par le(s) ventilateur(s). On aura toujours intérêt à les faire fonctionner à faible vitesse.

L’émission du bruit des aérocondenseurs à ventilateurs hélicoïdes est pratiquement uniforme dans un plan perpendiculaire à l’axe de rotation des ventilateurs. Les faces d’aspiration et de refoulement d’air étant plus bruyantes que les autres, l’aérocondenseur doit être convenablement orienté par rapport aux plaignants potentiels.

Certains constructeurs proposent des moteurs de ventilateur à deux vitesses, option qui peut être déterminante dans certains cas. Ainsi, la petite vitesse pourra être utilisée la nuit, les bruits de fond et les besoins frigorifiques diminuant la nuit. Certains constructeurs annoncent qu’une réduction de moitié de la vitesse de rotation des ventilateurs entraîne un gain de 15 dB(A) sur le niveau de puissance acoustique de l’aérocondenseur.

Il est aussi possible d’utiliser des silencieux à baffles sur l’aspiration et le refoulement d’air mais ceux-ci risquent d’augmenter considérablement l’encombrement et les pertes de charge des aérocondenseurs. Certains matériaux absorbants peuvent servir de revêtement insonorisant de la carcasse, mais ceux-ci ne peuvent constituer une solution à eux seuls. Il est possible enfin, dans les cas les plus délicats, de disposer des écrans acoustiques autour de l’appareil.

Photo écrans acoustiques.

Exemple de baffles acoustiques
intégrés sur une tour ouverte (vue du dessus).
Les poignées permettent de les retirer facilement lors de l’entretien.

Bruit solidien (ou bruit d’impact)

Les vibrations se transmettent vers les locaux sensibles par les tuyauteries en cuivre, et par la dalle sur laquelle est posé l’appareil. Il faut traiter les vibrations par dalle flottante posée sur isolateurs à ressort, utiliser des manchons anti-vibratoires pour le raccordement sur des canalisations, et des suspensions anti-vibratiles pour les supports des canalisations.

Privilégier les outils de régulation et de gestion

Privilégier les outils de régulation et de gestion


Privilégier la régulation

La régulation est le cerveau des installations. Elle doit atteindre plusieurs objectifs :

  • fournir le service à l’endroit souhaité, au moment voulu, avec l’intensité voulue,
  • ne jamais détruire de l’énergie (= casser du chaud par du froid),
  • conserver une logique et une technicité simple, accessible à l’exploitant.

Quelle que soit la technique en jeu, on sera attentif à ne pas raboter sa qualité.

Le premier objectif peut s’écrire en d’autres mots : « une bonne installation est celle qui ne consomme rien lorsque la demande est nulle »…

Exemple, la production d’eau chaude sanitaire.

Est-on sûr que le système ne consomme pas essentiellement pour se maintenir en température (en été, par exemple) et non pour préparer de l’eau chaude ?

Mais les deux premiers objectifs peuvent se contredire : à force de vouloir apporter à chaque occupant la bonne température, donc de préparer un réseau « chaud » et un réseau « froid »,… de la chaleur et du froid se détruisent à la distribution.

Exemple, la production d’eau chaude sanitaire.

En été, les pertes de la boucle de distribution d’eau chaude sanitaire viennent augmenter la température des locaux, donc la consommation de la climatisation le cas échéant.

S’il est bien une amélioration majeure de ses 20 dernières années, c’est l’arrivée de la vitesse variable (basée par exemple sur l’utilisation d’un variateur électronique de fréquence). Au minimum, tous les équipements « rotatifs » (pompes, ventilateurs, compresseurs) devraient être équipés d’une régulation par vitesse variable pour s’adapter aux besoins réels.

Quelques exemples.

  • Couper les ventilateurs dans les parkings en fonction d’une sonde CO.
  • Moduler les débits d’air dans les salles de réunion par sonde CO2.
  • Éclairage et débits d’air dans les auditoires d’étudiants commandés par des détecteurs de présence.
  • Couper l’humidification au dessus d’une T°ext de 8°C.
  • Couper les luminaires en façades lorsqu’il y a du soleil.
  • Placer des vannes thermostatiques sur les radiateurs et des circulateurs à vitesse variable.
  • Commander la température de départ de l’eau glacée à l’évaporateur par une sonde de température extérieure.
  • Régler le débit de déconcentration de l’humidificateur par une sonde de conductibilité électrique.
  • Moduler la hotte d’extraction de la cuisine collective en fonction de la température sous celle-ci.

Parfois chères en rénovation, ces mesures coûtent peu si elles sont prises dès la phase de conception.

Le « on-off », c’était pour papa ! Donner un tel objectif de gestion à un bureau d’études doit se faire dès l’Avant-Projet afin qu’il puisse optimaliser les applications.

Par exemple, si les débits d’air sont modulés en fonction des besoins, il faut définir le découpage de l’unité gérée (par local, par zone de locaux sur une même façade, …) afin de pouvoir définir le réseau. Mieux, si les locaux de réunion sont réunis autour d’une même conduite de distribution d’air, un seul groupe de préparation va gérer ceux-ci. On pourra profiter d’un effet de foisonnement, tablant sur le fait que toutes les salles ne seront pas occupées en même temps, et au taux de remplissage maximal. Le coût d’installation en sera réduit d’autant.


Quels outils de comptage ?

L’installation de compteurs devra permettre :

  • De mesurer toutes les consommations d’électricité et de combustibles de chaque bâtiment (donc y compris la consommation de fuel).
  • De mesurer distinctement la part liée à la climatisation (présence d’un compteur électrique distinct sur chaque machine frigorifique de plus de 10 kW).
  • De mesurer la performance des installations de production d’eau glacée (compteur d’énergie thermique sur la boucle d’eau glacée).
  • De mesurer la consommation en eau chaude sanitaire.
  • De réaliser un partage des consommations par locataires : s’il existe une multi-propriété ou différents locataires dans le bâtiment, chaque entité devra disposer de compteurs d’énergie propres, tant en électricité qu’en énergie thermique.
  • De mesurer la quantité d’eau entrant dans le réseau de chauffage à partir du réseau d’eau de ville (ce simple compteur sur le raccordement au réseau permet de surveiller si des apports d’eau anormaux sont réalisés, apports qui, à terme, risquent de corroder le réseau).

Ne jamais lésiner sur les indicateurs…

Les outils de gestion, se sont également tous les plans, schémas, logique de régulation,… à recevoir lors de la réception du bâtiment.

Choisir la pompe à vide

Pompe à vide à anneau liquide

Généralités

On rencontre généralement la pompe à vide à anneau liquide au niveau du process de stérilisation; ce type de pompe créant un vide suffisant pour l’application.

Le dimensionnement de la pompe s’effectuera nécessairement en fonction du niveau de vide. Le niveau de vide est gouverné par la limite de cavitation de la pompe, elle même conditionnée par la pression de vapeur au niveau de l’anneau liquide (type et température du liquide de refroidissement formant l’anneau liquide).

Afin d’éviter un surdimensionnement de la pompe à vide, les constructeurs recommandent d’accroître la capacité de la pompe en terme de débit (à pression de vide nominale) plutôt que de chercher à dimensionner la pompe avec un facteur de sécurité sur la pression de succion.

Les paramètres du système de vide (cuve de stérilisation, conduites, vannes, …) qui influencent le débit d’entrée de la pompe à vide sont:

  • le débit volumique nécessaire au système (débit à l’entrée de la pompe);
  • le volume du système où le vide est créé;
  • le débit massique d’air de fuite;
  • les débits massiques de vapeur et de condensats réels utilisés lors d’un cycle de stérilisation;
  • le temps d’évacuation requis pendant un cycle.

Le temps d’évacuation est le paramètre important dans les process discontinus comme un cycle de stérilisation.

Influence du liquide de refroidissement

Dans le cas de la stérilisation, le liquide de refroidissement formant l’anneau liquide, et par conséquent l’étanchéité entre les ailettes de la roue à aube (ou niveau de vide), est en général de l’eau. La température de ce liquide de refroidissement influence fortement le niveau de vide. En effet, dans l’ouie d’aspiration, la basse pression régnant, le liquide de refroidissement a tendance à s’évaporer et à augmenter la pression partielle de vapeur au niveau de la cellule cloîtrée entre deux ailettes et l’anneau liquide. Il en résulte que plus la température du liquide de refroidissement est élevée, plus il aura tendance à s’évaporer et, par conséquent, le niveau de vide et de débit d’aspiration diminuera.

Le choix de l’eau comme liquide de refroidissement va de soi avec l’utilisation de vapeur comme moyen de stérilisation. Il va sans dire que la gestion de la température de l’eau de refroidissement sera un élément primordial dans la performance énergétique du système de vide.

Influence du gaz à aspirer

Les performances de la pompe à vide, notamment au niveau de la cavitation, dépendant de la capacité du gaz à aspirer à condenser ou pas. Le cas de la vapeur d’eau est intéressant puisqu’elle possède cette qualité.

L’interaction entre la vapeur et le liquide de refroidissement est forte :

  • D’une part, la vapeur se condense au contact de l’eau de l’anneau liquide en renforçant l’effet de vide (la pression partielle de vapeur diminue), c’est l’effet de « condensation ».
  • D’autres parts, l’eau de l’anneau liquide tend à se vaporiser et à diminuer l’effet, d’où la nécessité de contrôler la température de l’anneau liquide.

Il arrive que les fabricants placent des échangeurs avant la pompe à vide afin de condenser la vapeur et de renforcer l’effet de vide dans la pompe à anneau liquide.

Choix d’un éjecteur

Pour renforcer l’effet de vide à l’entrée de la pompe à vide, certains fabricants propose de placer un éjecteur (venturi). Ce système permet de dimensionner la pompe à sa valeur nominale de vide nécessaire pour la stérilisation tout en renforçant le vide par une pièce statique.

Choix du moteur électrique

Le dimensionnement de la pompe à vide influence naturellement celui du moteur électrique d’entraînement. Tenir compte en priorité d’un facteur de sécurité sur le niveau de vide plutôt que sur le débit d’aspiration risque de surdimensionner la pompe à vide et par conséquent le moteur électrique; on sera alors doublement pénalisé au niveau de l’investissement.


Gestion du refroidissement de l’eau de l’anneau liquide

Le choix du mode de gestion de l’alimentation en eau de l’anneau liquide influence le niveau de vide. En effet, la température de l’anneau liquide conditionnant le niveau de vide, l’utilisateur sera tenté de le refroidir avec des grandes quantité d’eau adoucie entraînant une envolée importante de la consommation.

Exemple.

Soit un stérilisateur 9 DIN effectuant 1 600 cycles par an. Sa consommation d’eau adoucie au niveau de l’anneau liquide est de l’ordre de 216 litres/cycle.

La consommation d’eau adouci est de l’ordre de :

nbre de cycle/an x quantité d’eau [m³/cycle] / 1 000

= 1 600 x 216 / 1000

= 346 [m³/an]

Le coût annuel pour un stérilisateur est de :

346 [m³/an] x 2,5 [€/m³]

864 [€/an]

Plusieurs modes de gestion du refroidissement de l’eau de l’anneau liquide sont disponibles sur le marché. À l’heure actuelle, la plupart des constructeurs proposent des solutions où les consommations sont réduites de manière draconienne.

Il est intéressant à ce sujet de comparer plusieurs solutions que propose un constructeur de pompe à vide :

  • circuit ouvert,
  • circuit semi-fermé,
  • circuit fermé.

Circuit ouvert

Ce circuit était classiquement installé en standard sur l’ancienne génération de stérilisation.

En nouveau projet, pitié, bannissez-la !

Théories

pour en savoir plus sur le circuit ouvert, cliquez ici !

Le constructeur annonce des débits moyens de 216 [litres/heure]. Si le choix de l’utilisateur se porte sur ce type de circuit, il doit s’attendre à couvrir des consommations d’eau importante. Si malgré tout vous optez pour ce type d’installation, pour limiter les consommations excessives, il sera nécessaire:

  • de prévoir un compteur d’eau au départ afin de s’assurer qu’il ne s’installe pas une dérive de la consommation au cours du temps par rapport au réglage initial;

  • d’exiger un réglage de la part d’un technicien qualifié en pompe à vide avant la « mise à feu » de l’installation de stérilisation;
  • de prévoir, dans le cadre du contrat d’entretien, l’optimisation régulière du réglage du débit d’eau.

Circuit semi-ouvert

Ce type de circuit est de plus en plus proposé en standard par les constructeurs qui, pour la plupart ont compris l’enjeu énergétique et environnemental.

Mais il y a mieux !

Théories

pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit semi fermé, cliquez ici !

L’évaluation théorique de ce système donne une réduction de l’ordre de 30 %

  • de la consommation d’eau de refroidissement,
  • des pertes d’énergie par rejet à l’égout.

Même dans ce cas, il sera nécessaire de :

  • Otpimiser le débit à la mise en route de l’installation par un technicien compétant.
  • Contrôler régulièrement la consommation d’eau dans le cadre du contrat d’entretien afin d’éviter toute dérive.

Circuit fermé

Dans les services de Stérilisation Centrale il y a souvent de la climatisation. Une prolongation de la boucle d’eau glacée et un investissement limité dans une petite régulation autonome permettrait d’y brancher une installation de pompe à vide à anneau liquide en circuit fermé. Ce système permettrait de ne pratiquement plus consommer d’eau adoucie.

Théories

pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit semi fermé, cliquez ici !

L’évaluation théorique de ce système donne une réduction de l’appoint d’eau de l’anneau liquide de la pompe à vide élevée. Il est risqué de donner une valeur précise de réduction sachant que les cycles de fonctionnement de la pompe à vide sont particulièrement fluctuants en température. En effet :

  • En début de phase de prise de vide, les températures risquent d’être élevées. À cet instant, le risque que l’échangeur ne soit suffisant est présent; ce qui signifie qu’il faut un appoint d’eau brute.
  • En fin de phase, les températures redeviennent normales puisqu’il n’y a pratiquement plus de vapeur ni de condensats à évacuer (l’échangeur suffisant à refroidir l’eau de l’anneau liquide).

Certains constructeurs annoncent 75 % de réduction de consommation d’eau.


Pompes centralisées ou locales ?

Ces deux alternatives existent. En général, les constructeurs proposent de placer une pompe à vide à proximité de chaque stérilisateur et, par conséquent, de préférer la configuration locale.

   

Configuration locale

Si on ne dispose pas d’un local technique à proximité de la stérilisation centrale, il va de soit que la configuration locale s’impose.
Cependant on sera attentif aux avantages et inconvénients suivants :

(+)

  • le rapprochement de la pompe du stérilisateur réduit le risque de fuite dans le circuit du vide;
  • le dimensionnement de la pompe à vide sera plus aisé;
  • l’investissement sera réduit;

(-)

  • la pompe à vide est plus sollicitée (plus de démarrage);
  • en cas de panne le cycle de stérilisation est perdu et le stérilisateur immobilisé;
  • les nuisances sonores (si les parois entre l’espace technique des stérilisateurs et l’ambiance de travail ne sont pas isolées) peuvent être importantes;
  • la compacité de l’installation peut être source d’ennui par rapport à l’entretien;

Configuration centrale

Si on dispose d’un local technique à proximité de la stérilisation centrale, on étudiera la possibilité de regrouper l’installation de vide dans cet espace en restant attentif aux avantages et inconvénients suivants :

(+)

  • on peut tenir compte de l’effet de foisonnement des cycles (réduction de la puissance des pompes à vide);
  • les pompes peuvent être soulagées par leur mise en cascade (inversion automatique des cascades);
  • les consommations d’eau peuvent être mieux maîtrisées
  • on évite les nuisances sonores;
  • réduction du risque d’abandon de cycle en cas de panne;

(-)

  • le risque de fuite dans le circuit vide augmente;
  • le coefficient de foisonnement est difficile à évaluer au risque de quand même surdimensionner les pompes;

Choisir un préparateur d’eau chaude instantané au gaz

Choisir un préparateur d'eau chaude instantané au gaz


Choix de la technologie

Avant toute installation du préparateur d’eau chaude sanitaire au gaz

On devra s’assurer :

  • que le local dans lequel doit être installé le générateur est conforme à la réglementation,
  • qu’il est suffisamment ventilé si ce n’est pas un appareil à ventouse, et à l’abri du gel,
  • que le conduit de fumée sera capable d’évacuer les gaz brûlés ou que les sorties de ventouses respectent la réglementation,
  • qu’il n’y a pas d’incompatibilité de tirage avec une installation de ventilation ou une hotte d’extraction,
  • que la présence d’un adoucisseur d’eau en amont ne soit pas de nature à affecter la durée de vie du réservoir par la présence du sel dissous.

Puis, parmi les différentes technologies de préparateur instantané gaz, on pourra distinguer différents critères de choix :

Choix d’un appareil étanche ou appareil « à ventouses »

En vue de limiter les risques de mauvaise combustion et de production de CO dans l’ambiance (toxicité très importante), on ne pourrait trop recommander l’appareil « étanche », encore appelé « appareil à ventouses ». Celui-ci fonctionne de façon totalement indépendante du local : l’air est pris à l’extérieur, il participe la combustion puis est rejeté vers l’extérieur par deux tubes concentriques (sortie en façade ou en toiture).

appareil étanche ou appareil "à ventouses"appareil étanche ou appareil "à ventouses"appareil étanche ou appareil "à ventouses"

Il est d’usage obligatoire en Hollande.

Accumulateur gaz à ventouse.

  1. Sortie ventouse en façade.
  2. Conduit de fumées.
  3. Coupe-tirage.
  4. Arrivée d’eau froide (tube plongeur).
  5. Départ d’eau chaude.
  6. Habillage à haute isolation.
  7. Anode magnésium (protection corrosion).
  8. Réservoir.
  9. Corps de chauffe.
  10. Mystère…
  11. Foyer.
  12. Socle thermo-isolant.
  13. Brûleur atmosphérique à rampes inox et régulation pneumatique avec thermostat incorporé.

Aujourd’hui les raccordements ne posent plus de problèmes, puisqu’il existe des appareils à ventouse équipés d’un ventilateur qui règle l’amenée d’air de combustion et l’évacuation des gaz. Ces modèles sont plus chers mais il faut faire le bilan complet, y compris l’absence du coût de construction d’une éventuelle cheminée.

Schéma sur les appareils à ventouse équipés d'un ventilateur.

Allumage

On choisira un allumage électronique plutôt que le système dépassé de la veilleuse. Celle-ci consomme en pure perte environ 120 m³ de gaz par an, soit un coût d’environ 40 € par an.

Schéma sur allumage électronique.

Il existe des veilleuses électroniques dont l’électricité est créée par le passage de l’eau elle-même, ce qui a pour avantage de ne pas devoir raccorder électriquement l’appareil.

Question : la durée d’allumage en est-elle ralentie ?

Les accumulateurs gaz à chauffe rapide

Un compromis entre préparateur instantané gaz et accumulateur gaz peut être trouvé dans les appareils dits « accumulateur à gaz à chauffe rapide ».

Ils peuvent travailler en toute autonomie, ce qui permet de séparer les fonctions chauffage et production ECS.

Leur gros point faible reste le rendement. Si les constructeurs ont amélioré les rendements de combustion et l’isolation de leur matériels, il reste cependant une perte permanente liée à leur fonctionnement « atmosphérique ». Leur foyer est ouvert, donc de l’air ambiant, attiré par la dépression de la cheminée, va balayer l’appareil et refroidir l’eau stockée en permanence. La flamme s’allumera régulièrement rien que pour maintenir l’eau en température.

Exemple.

Photo préparateur d'eau chaude instantané au gaz

Voici la fiche catalogue de l’appareil ci-contre :

Capacité : 185 l
Quantitié d’eau disponible en 1 heure : 385 l avec Delta T° = 35 K

Puissance utile : 9,18 kW
Puissance enfournée : 10,2 kW

Consommation d’entretien : 5,04 kWh/24 h
Température des fumées : 171°C

Sur base des données catalogue, on obtient un assez bon rendement instantané de combustion :

9,18 / 10.2 = 90 %

Mais par contre on annonce une consommation d’entretien de 5,04 kWh/24 h.

Imaginons que seulement 150 litres d’eau à 45°C soient utilisés. Cela représente une énergie utile de :

0,150 m³ x 1,163 kWh/m³.K x (45 – 10) K = 6,1 kWh

Le rendement de stockage devient

6,1 / (6,1 + 5,04) = 55 %

Soit un rendement global de

55 % x 90 % = 49,5 % !!!

Bien sûr, on a utilisé l’appareil en mode accumulation pure… Si, par contre, on lui fait tirer 2 000 litres d’eau chaude sur la journée, le rendement se rapproche des 90 % annoncés.

Lors de l’achat, il est très important de vérifier la consommation d’entretien annoncée (ou cachée…) par le fabricant. D’une certaine manière, ces pertes par la cheminée centrale correspondent à celles d’une mauvaise isolation de l’enveloppe.

S’il faut stabiliser la température de l’eau, a priori, il semble que la réserve d’eau doit être dissociée du lieu de production. Il vaut mieux que ce soit la boucle qui dispose d’une réserve d’eau puisque ce ballon peut être bien isolé. On peut alors s’inspirer des schémas de régulation d’un producteur instantané à plaques.


Schéma d’installation

Voici les schémas tels que proposés par Gaz de France (brochure « eau chaude sanitaire collective au gaz indépendante », disponible au Cegibat).

Schéma d'installation

Générateur seul.

  1. Générateur.
  2. Vanne d’arrêt gaz.
  3. Filtre gaz.
  4. Réducteur de pression.
  5. Vanne d’arrêt.
  6. Compteur d’eau.
  7. Filtre eau.
  8. Clapet anti-retour.
  9. Manomètre.
  10. Soupape de sécurité.
  11. Purgeur automatique.
  12. Pompe de bouclage.
  13. By-pass.
  14. Raccord isolant.

Générateur avec…

  1. Générateur.
  2. Vanne d’arrêt gaz.
  3. Filtre gaz.
  4. Réducteur de pression.
  5. Vanne d’arrêt.
  6. Compteur d’eau.
  7. Filtre eau.
  8. Clapet anti-retour.
  9. Manomètre.
  10. Soupape de sécurité.
  11. Purgeur automatique.
  12. Pompe de bouclage.
  13. By-pass.
  14. Raccord isolant.
  15. Vanne mélangeuse/mitigeur.

Le choix des tuyauteries de raccordement

Le cuivre s’érode facilement, si bien que de nombreuses particules de cuivre se mettent en circulation, se déposent sur les tuyauteries acier et constituent de nombreuses micropiles enclenchant le processus de corrosion galvanique. C’est une des raisons qui font que l’utilisation du cuivre est proscrite en amont de tuyauteries galvanisées.

Un ballon d’eau chaude sanitaire en acier galvanisé se détériore s’il est raccordé à l’arrivée d’eau de ville par des tuyauteries en cuivre. Si le cuivre est situé en aval de l’acier, il y aura peu de problèmes.


Sécurité des systèmes gaz

Le risque des appareils traditionnels

Les appareils de production d’eau chaude sanitaire fonctionnant au gaz sont à l’origine de nombreux accidents liés à la production de CO. Ce n’est pas la technique qui est en cause mais bien le non respect des règles d’installation et d’utilisation.

Un appareil traditionnel demande une évacuation des gaz brûlés correcte et le respect d’une ventilation suffisante (norme NBN D50-003).

Il sera sensible au bon tirage thermique de la cheminée. Il faut donc que l’étanchéité du local où il est inséré ne soit pas trop importante. Attention à la présence d’une hotte d’extraction d’air dans le local qui risquerait d’inverser le sens du flux d’air dans le conduit de fumées !

Illustration bon tirage thermique de la cheminée.

Chaque année, près de 300 personnes perdent la vie en Belgique par intoxication au CO… alors que la solution est techniquement si simple : l’appareil étanche.

Réglementation

En ce qui concerne les appareils non étanches, il existe une réglementation visant à limiter au maximum les accidents liés à la production de CO par les appareils instantanés (« chauffe-bains « ) ou chaudières murales combinées.

À partir du 1er janvier 96, seuls les appareils gaz portant un marquage CE peuvent être commercialisés en Belgique.

L’AR du 3 juillet 1992, transposant en droit belge la Directive européenne (90/396/CEE) « Appareils à gaz » du 29 juin 1990 qui constitue la base du marquage CE, autorise la commercialisation en Belgique d’appareils portant ce marquage pour autant qu’ils portent également l’indication CAT 12E+.

Cette indication signifie qu’il s’agit d’appareil fonctionnant uniquement (code 1) au gaz naturel (code 2) L ou H (code E) et ne comportant aucun réglage (appareil réglé en usine une fois pour toute).

Depuis cet AR, une nouvelle catégorie est permise pour les chauffe eau : CAT 12E(s)B. Les appareils de cette catégorie (principalement les chaudières à prémélange) possèdent un réglage possible de la pression de gaz mais celui-ci est scellé et donc non accessible aux utilisateurs.

Concrètement, l’impact direct de ces dispositions dans le domaine des appareils de production instantanée d’eau chaude est le renforcement de la sécurité. En effet, depuis le ler janvier 1996 deviennent obligatoires :

  • pour les petits appareils 5 l/min : un dispositif de contrôle d’atmosphère (dans la norme indiqué comme CDA),
  • pour les chauffe-bain et les chaudières murales : un dispositif de contrôle de l’évacuation des produits de la combustion (= sécurité de refoulement, appelée aussi TTB d’après la dénomination néerlandaise « thermische terugslagbeveiliging »).

CDA – Contrôle d’Atmosphère ?

Ce dispositif de sécurité doit interrompre l’arrivée du gaz au chauffe-eau type AAS (non raccordé à un conduit d’évacuation des produits de la combustion), avant que ne puisse apparaître, dans le local dans lequel il est installé, un niveau de CO dangereux pour les occupants éventuels (fixé à 100 ppm, ce seuil est totalement inoffensif pour un occupant éventuel du local).

La norme ne prescrit pas comment le fabricant doit réaliser un dispositif CDA. Elle prescrit les performances et les techniques d’essai à utiliser par le laboratoire d’agréation pour juger si la solution technique présentée par le fabricant répond bien à l’exigence de base.

La norme impose également au dispositif une deuxième performance : interrompre l’arrivée du gaz au brûleur en cas d’encrassement de l’échangeur, puisqu’un encrassement éventuel pourrait, à terme, mener à la formation de CO.

TTB – Thermische TerugslagBeveiliging ?

Ce dispositif de sécurité doit interrompre l’arrivée du gaz au chauffe-bain en cas de refoulement des produits de la combustion en quantité dangereuse dans le local où est installé l’appareil (cheminée bouchée ou évacuation dans une zone en surpression, vent refoulant, arrivée d’air insuffisante, extracteur mécanique trop puissant dans le local, …).

Son principe est basé sur un phénomène physique très simple : tout appareil à gaz avec brûleur atmosphérique raccordé à une cheminée doit comporter un coupe-tirage antirefouleur. Celui-ci comporte toujours un orifice par lequel de l’air ambiant du local est aspiré pour diluer les produits de la combustion.

En cas de déficience au niveau du tirage, le phénomène s’inverse et des produits de la combustion chauds sont envoyés dans le local. Il suffit donc de mesurer la température du flux dans cet orifice : en cas de refoulement la température sera nettement au-dessus de la température ambiante.

Il est admis qu’après intervention du dispositif de sécurité, l’appareil redémarre automatiquement mais, dans ce cas, il est exigé un délai d’attente (temporisation) de minimum 10 minutes. Il est clair que si la cause de l’intervention du dispositif persiste, l’appareil se remettra en sécurité après un certain temps. Puis redémarrera, puis se mettra en sécurité et ainsi de suite.

Remarque : en pratique , les fabricants et importateurs belges d’appareils instantanés de production d’eau chaude et de chaudières murales – réunis au sein de la Collectivité du Gaz – ont convenu, depuis le 1er janvier 1994 de ne plus commercialiser que des appareils munis du dispositif de sécurité de refoulement TTB.

D’autre part, et depuis début 1991, ils ne proposent plus que des chauffe-eau d’une capacité de 5 litres/min, raccordés ou non à une cheminée, équipés d’un dispositif de contrôle d’atmosphère CDA.


Sortie des ventouses en façade

Voici ce que dit la réglementation française à ce sujet :

Les orifices d’évacuation des appareils à circuit étanche rejetant les gaz brûlés à travers un mur extérieur doivent être situées à 0,4 mètre au moins de toute baie ouvrante et à 0,6 mètre de tout orifice d’entrée d’air de ventilation.

Schéma sur sortie des ventouses en façade. Schéma sur sortie des ventouses en façade.

Ces deux distances s’entendent de l’axe de l’axe de l’orifice d’évacuation des gaz brûlés au point le plus proche de la baie ouvrante ou de l’orifice de ventilation.

Les orifices d’évacuation et de prise d’air des appareils à circuit étanche débouchant à moins de 1,8 mètre au dessus du sol doivent être protégées efficacement contre toute intervention extérieure susceptible de nuire à leur fonctionnement normal.

Les orifices d’évacuation débouchant directement sur une circulation extérieure (voie publique ou privée) à moins de 1,8 mètre au-dessus du sol doivent comporter un déflecteur inamovible donnant au gaz une direction sensiblement parallèle au mur ».(Arrêté du 2 août 1977).

Choisir le modèle d’isolation du plancher des combles

Le plancher léger sans aire de foulée

Dans le cas du plancher léger sans aire de foulée, l’isolation peut :

  • être placée entre les gîtes,
  • envelopper complètement le plancher,
  • être posée au-dessus du gîtage.

L’isolation entre les gîtes

isolation entre les gîtes

Avantages

  • permet la pose ultérieure d’une aire de foulée ou d’entreposage;
  • encombrement minimum du plancher.

Inconvénients

  • difficulté d’encastrer des appareils dans le plafond;
  • léger pont thermique au droit des gîtes;
  • ajustage de l’isolant nécessaire.

Elle peut se réaliser de plusieurs façon :

Par panneaux semi-rigide entre les gîtes


Isolant semi-rigide entre gîtes
d’un plancher non circulable
.

Par matelas à languettes entre les gîtes

Matelas isolant avec languettes
entre gîtes d’un plancher non circulable
.

Par panneaux rigides entre les gîtes


Panneaux isolants rigides
entre gîtes d’un plancher non circulable.

Par flocons ou granulés d’isolant entre les gîtes

Isolant posé en vrac
entre les gîtes d’un plancher non circulable.

L’isolation enveloppant, par le haut, l’ensemble du plancher

isolation enveloppant, par le haut, l'ensemble du plancher

Avantages

  • pas de pont thermique au droit des gîtes;
  • pas de découpage de l’isolant.

Inconvénients

  • pose difficile;
  • difficulté d’encastrer des appareils dans le plafond;
  • ne permet pas la pose ultérieure d’une aire de foulée ou d’entreposage sans enlever l’isolant;
  • surface d’isolant nécessaire plus importante.

Par matelas de laine minérale

Isolation enveloppant l’ensemble du plancher non circulable.

L’isolation au-dessus du gîtage

isolation au-dessus du gîtage

Avantages

  • pas de pont thermique au droit des gîtes;
  • pas de découpage de l’isolant et pose facile;
  • possibilité d’encastrer les appareils d’éclairage dans le plafond;
  • permet éventuellement la pose ultérieure d’une aire de foulée ou d’entreposage sans enlever l’isolant si celui-ci résiste suffisamment à la compression.

Inconvénients

  • plaque de support supplémentaire;
  • épaisseur de plancher (isolant compris) plus importante.

Isolation continue au-dessus du gîtage
d’un plancher non circulable.


Le plancher léger avec aire de foulée

Dans le cas d’un plancher léger avec aire de foulée, l’isolation peut :

  • être placée entre les gîtes;
  • être posée au-dessus du plancher, sous l’aire de foulée.

L’isolation entre les gîtes

plancher léger avec aire de foulée et isolation entre les gites.

Avantages

  • encombrement minimum du plancher.

Inconvénients

  • difficulté d’encastrer des appareils dans le plafond;
  • léger pont thermique au droit des gîtes;
  • ajustage de l’isolant nécessaire.

Par panneaux de laine minérale semi-rigide entre les gîtes

Isolant semi-rigide
entre gîtes d’un plancher circulable.

Par matelas à languettes entre les gîtes

Matelas isolant avec languettes
entre gîtes d’un plancher circulable.

Par panneaux rigides entre les gîtes

Panneaux isolants rigides entre gîtes
d’un plancher circulable.

Par flocons ou granulés d’isolant entre les gîtes

Isolant posé en vrac entre les gîtes
d’un plancher circulable
.

L’isolation au-dessus du plancher et sous l’aire de foulée

isolation au-dessus du plancher et sous l'aire de foulée

Avantages

  • pas de pont thermique au droit des gîtes dans le cas où l’isolant est rigide et ne nécessite pas de lambourdes;
  • pas de découpage de l’isolant et pose facile dans le cas où l’isolant est rigide et ne nécessite pas de lambourdes;
  • possibilité d’encastrer les appareils d’éclairage dans le plafond;

Inconvénients

  • plaque de support supplémentaire;
  • épaisseur de plancher (isolant compris) plus importante.

Par isolants souples ou semi-rigides entre lambourdes

Isolation entre lambourdes au-dessus
du gîtage d’un plancher circulable.

Par panneaux isolants rigides

Isolation continue au-dessus
du gîtage d’un plancher circulable
.


Le plancher lourd sans aire de foulée

Dans le cas du plancher lourd sans air de foulée, l’isolant doit de préférence être placé au-dessus du plancher lourd. Il est vivement déconseillé de placer l’isolant sous le plancher lourd.

L’isolation au-dessus du plancher lourd

isolation au-dessus du plancher lourd

Avantages

  • pas de pont thermique;
  • pas de découpage de l’isolant et pose facile;
  • le plancher lourd ne subit pas de contraintes internes dues à une variation importante de température;
  • permet éventuellement la pose ultérieure d’une aire de foulée ou d’entreposage sans enlever l’isolant si celui-ci résiste suffisamment à la compression.

L’isolation au-dessus du plancher lourd se fait :

Par matelas de laine minérale sur le plancher

Matelas isolant au-dessus
d’un plancher lourd non circulable
.

Par panneaux rigides sur le plancher

Isolant rigide au-dessus
d’un plancher lourd non circulable
.

Par flocons ou granulés d’isolant sur le plancher

Isolant posé en vrac au-dessus
d’un plancher lourd non circulable
.

Le placement de l’isolant sous le plancher (une solution à éviter !)

placement de l'isolant sous le plancher

Avantages

  • l’aire de foulée est facile à aménager plus tard.

Inconvénients

  • ponts thermiques à l’aplomb des murs porteurs;
  • pose difficile de l’isolant au plafond;
  • le plancher lourd subit des contraintes internes dues à une variation importante de température;
  • difficulté de placer correctement le pare-vapeur par le dessous. D’où risque de condensation interne.


Le plancher lourd avec aire de foulée

Dans le cas du plancher lourd avec air de foulée, l’isolant doit de préférence être placé au dessus du plancher lourd, sous l’aire de foulée.
Il est vivement déconseillé de placer l’isolant sous le plancher lourd.

L’isolation au-dessus du plancher lourd

isolation au-dessus du plancher lourd

Avantages

  • pas de pont thermique;
  • pas de découpage de l’isolant et pose facile;
  • le plancher lourd ne subit pas de contraintes internes dues à une variation importante de température;

Inconvénients

  • l’aire de foulée est moins solide que la dalle brute.

L’isolation au-dessus du plancher lourd se fait :

Par isolants souples ou semi-rigides entre lambourdes

Isolation entre lambourdes au-dessus
d’un plancher lourd circulable.

Par panneaux rigides sur le plancher lourd

Isolant rigide au-dessus
d’un plancher lourd circulable
.

L’isolation sous le plancher lourd circulable (Une solution à éviter !)

isolation sous le plancher lourd circulable

Avantages

  • une aire de foulée très solide et facile à aménager.

Inconvénients

  • ponts thermiques à l’aplomb des murs porteurs;
  • pose difficile de l’isolant au plafond;
  • le plancher lourd subit des contraintes internes dues à une variation importante de température.

Remarque générale relative à l’étanchéité à l’air du plancher

Dans tous les cas, l’étanchéité à l’air du plancher des combles doit être assurée de manière à éviter « la condensation interne par transport de vapeur par convection ».

Cette étanchéité est en général assurée lorsque le plancher est une dalle en béton.

Elle est forcément garantie si l’on pose un pare-vapeur correctement sous l’isolant.

Sinon, cette étanchéité à l’air peut être obtenue, par un plafonnage ou par des plaques de carton-plâtre correctement rejointoyées sous le plancher léger.

Le plafond n’est pas étanche à l’air lorsqu’il est constitué de planchettes de bois. Dans ce cas les planchettes doivent être doublées par un écran étanche à l’air.

Il ne l’est, bien sûr, pas non plus dès que la dalle en béton, le pare-vapeur, la finition intérieure ou l’écran d’étanchéité à l’air est perforé pour permettre le passage de conduites électriques ou pour une autre raison.

Si la présence de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre la finition intérieure et la couche de matériau sensée assurer l’étanchéité à l’air.

Choisir le système de ventilation dans les locaux d’hébergement

© Architecture et climat 2023.

  1. Amenée d’air naturel
  2. Grille de transfert
  3. Evacuation naturelle

Chambres et sanitaires individuels

Dans les hôtels, auberges, pensionnats, … les plans de type « chambre et sanitaire individuels » présentent très souvent la même configuration : Chaque chambre représente un ensemble autonome composé de 3 zones

  • la chambre proprement dite (à un ou plusieurs lits),
  • la salle d’eau attenante, y compris WC,
  • l’entrée donnant accès aux deux premières zones et au couloir commun à toutes les chambres.

Plan standard d'une chambre d'hôtel.

Disposition habituelle de chambres individuelles :
une gaine technique dessert les sanitaires contigus.
Le faux plafond de l’entrée et des sanitaires peut être plus bas que celui de la chambre,
ce qui permet le passage de gaines techniques, notamment pour la pulsion d’air mécanique.

On trouve une configuration équivalente dans les hôpitaux :

Disposition habituelle de chambres individuelles

Généralement, deux salles d’eau contiguës ont en commun une gaine technique verticale. Un seul conduit d’extraction mécanique est habituellement placé dans celle-ci, desservant à chaque niveau deux ensembles contigus. Un extracteur en toiture peut ainsi reprendre l’extraction de 5 niveaux, c’est-à-dire 10 chambres. L’inconvénient de cette configuration est la transmission acoustique entre les différents ensembles.
L‘air neuf est introduit dans les chambres

  • Soit naturellement, au moyen de grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie (ventilation simple flux). Lorsque l’ambiance extérieure (bruit et pollution limités) le permet, c’est la solution la plus simple à mettre en œuvre.

Photo grilles externes de ventilation. Photo grilles externes de ventilation.

Grille intégrée entre le vitrage et la menuiserie et intégrée dans la menuiserie.

  • Soit mécaniquement, par un réseau de conduits placé dans le faux plafond des zones de circulation ou dans la gaine technique commune aux extractions. La diffusion de l’air neuf à l’intérieur de chaque bureau est alors obtenue par une grille murale placée au niveau de la retombée des faux plafonds des circulations ou de l’entrée.

Le transfert d’air entre la chambre et la salle d’eau se fait, soit par un détalonnage des portes, soit par des passages appropriés avec grilles à chevrons ou autre.

Grille de transfert d’air.


Chambres individuelles et sanitaires communs

Concevoir

On se retrouve dans une situation semblable à celle des immeubles de bureaux.

Les chambres sont desservies par des circulations donnant également accès à un ou plusieurs complexes sanitaires. Ce type d’agencement donne aux différents principes de ventilation retenus une orientation commune :

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

L’introduction d’air neuf dans les chambres,
le transfert des volumes d’air introduits via les circulations,
l’évacuation vers l’extérieur de l’air vicié dans les locaux sanitaires.

L’air neuf peut être amené dans les chambres par grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie (ventilation de type C ou simple flux), l’air vicié étant évacué dans les sanitaires au moyen d’un ventilateur d’extraction.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

Ventilation des locaux d’hébergement par ventilation simple flux (système C).

Les circuits d’extraction (conduits et ventilateurs) sont, dans la plupart des cas, communs à plusieurs niveaux. Ils sont généralement conçus suivant le principe du « parapluie ». Les conduits verticaux empruntent les gaines techniques également verticales et les conduits horizontaux passent dans l’épaisseur des faux plafonds. Ces ensembles desservent à chaque niveau une ou plusieurs zones sanitaires.

Étant donné l’absence de conduit de distribution vers chaque chambre, l’espace nécessaire aux locaux techniques et aux conduits d’air est peu important. Ceci prend toute son importance en regard des hauteurs de faux plafonds qui n’ont pas à tenir compte du passage de conduits d’air.

Cependant, pour limiter l’influence du vent et des circulations d’air parasites, ce type d’installation ne s’applique qu’aux immeubles de taille moyenne et peu élevés : immeubles de moins de 13 m de haut (hauteur au plancher du dernier étage).

Le système de ventilation D ou double flux, c’est-à-dire équipé d’une pulsion et d’une extraction mécanique, est quant à lui le meilleur en terme de maîtrise des débits dans les locaux : on a la garantie que les chambres sont bien alimentées en air neuf et que l’air vicié des sanitaires est directement évacué vers l’extérieur.

© Architecture et climat 2023.

  1. Air neuf
  2. Air rejeté
  3. Air vicié

Ventilation des locaux d’habitation par ventilation double flux (système D).

Ce système est pratiquement indispensable dans les immeubles importants en site urbain.

La distribution de l’air neuf est assurée par un réseau de conduits placé dans les faux plafonds des zones de circulation.

La diffusion de l’air neuf à l’intérieur de chaque chambre est obtenue par une grille murale placée au niveau de la retombée des faux plafonds des circulations, ou dans le cas de grandes chambres communes par des diffuseurs plafonniers répartis sur la surface du dortoir.

L’extraction et le transfert se font comme pour le système C.

Concrètement, le choix du système D par rapport au système C sera guidé par :

  • le souhait de garantir une répartition correcte des flux d’air,
  • le besoin de se protéger de l’ambiance extérieure (bruit et pollution),
  • le besoin de préchauffer ou d’humidifier l’air neuf.


Salles de séjour : principe du balayage

La ventilation des salles de séjour attenantes aux chambres doit assurer les débits recommandés par la norme NBN D50-001 (3,6 m³/h.m²). Il n’est cependant pas nécessaire de puiser cet air directement à l’extérieur. On peut appliquer, pour ces locaux, le principe dit « du balayage ». Celui-ci consiste à faire transiter par le séjour, l’air provenant des chambres, avant de l’évacuer dans les sanitaires. Si le débit nécessaire au séjour est supérieur au débit des chambres, des amenées d’air complémentaires doivent être ajoutées dans celui-ci.

Choisir les tuyauteries des installations frigorifiques [Concevoir – Cuisine collective ]

Choisir les tuyauteries des installations frigorifiques

L’isolation des tuyauteries froides d’aspiration et des appareils qui se trouvent sur cette ligne, est obligatoire dans un projet thermique qui se préoccupe d’économies d’énergie.

La qualité de la pose de l’isolation des tuyaux doit être soigneusement vérifiée.

Cet aspect est d’autant plus important que les conduites sont longues, car plus elle le sont, plus les apports par la canalisation d’aspiration seront importants, et cela nuit au rendement et à la puissance de l’installation.

D’autre part, la longueur, les déviations et les changements de niveaux des canalisations influencent les pertes de charge et les retours d’huile au compresseur.

Des pertes de charge excessives nuisent au bon fonctionnement rationnel de la machine et donc augmentent les consommations d’énergie pour le même résultat final.

Dans cette optique, une judicieuse implantation des moto-compresseurs et condenseurs, par rapport aux chambres froides, doit être étudiée avec soin.

Choisir le condenseur de la machine frigorifique

Critères de choix généraux

Modes d’évacuation de la chaleur de condensation

Il faut évacuer la chaleur du réfrigérant vers l’air ambiant.
On distingue deux techniques :

  • soit refroidir directement le fluide frigorigène par l’air : c’est le rôle du condenseur à air.
  • soit refroidir le fluide frigorigène par de l’eau : la machine frigorifique sera équipée par un condenseur à eau. Mais cette eau doit alors être elle-même refroidie en toiture, via une tour de refroidissement.

Pour accroître la puissance de refroidissement, on peut profiter de l’énergie de vaporisation d’une eau pulvérisée au travers du courant d’air.
Le principe est le même que lorsque nous nous aspergeons la figure par temps très chaud : la vaporisation de l’eau refroidit notre peau.
Soit la pulvérisation est celle de l’eau qui circule dans le condenseur, soit c’est de l’eau indépendante de l’eau du circuit de condensation qui est pulvérisée.
Cela conduit aux 5 technologies développées dans la technologie des condenseurs.

Critères de choix globaux

Refroidissement direct par l’air

Energétiquement, la solution d’un refroidissement direct du fluide frigorigène par l’air extérieur possède des avantages, puisque tous les intermédiaires (et leurs consommations) sont évités et ainsi que la maintenance coûteuse de la tour de refroidissement.

Aujourd’hui, la pression de condensation des condenseurs à air est bien gérée par l’utilisation de la variation de vitesse électronique des ventilateurs des condenseurs. C’est la solution couramment adoptée lorsque l’on peut placer le groupe frigorifique sur la toiture ou, de manière générale, à l’extérieur dans un endroit ombragé et ventilé.

Condenseurs en toiture.

Condenseurs contre une façade et à l’ombre.

En toute logique, on retrouvera donc le condenseur à air en toiture. Mais la machine frigorifique est parfois située en cave. Dans ce cas, il est exclu de faire confiance à des « ventilations naturelles », des « soupiraux « , … la température dans la cave risquerait de monter fortement et le condenseur se retrouverait balayé par de l’air déjà réchauffé. La pression de condensation du fluide monterait et le compresseur verrait sa consommation fortement augmentée. Par forte chaleur, le compresseur ne pourrait suivre et déclencherait par son pressostat haute pression.
L’évacuation de la chaleur demande un réel balayage par un fluide frais et il appartient au bureau d’études de comparer 2 solutions :

  • Soit une gaine d’air est prévue pour apporter l’air extérieur au condenseur et évacuer l’air réchauffé (les pertes de charge générées créent des consommations au ventilateur).
  • Soit il est décidé de placer un condenseur à eau et de transférer l’eau chaude en toiture pour la refroidir dans une tour de refroidissement.

Le refroidissement direct par l’air est le moyen le plus couramment adopté en froid commercial. Il permet de disposer d’un système simple, peu coûteux, demandant peu d’entretien, …

Refroidissement indirect par l’air (via un circuit d’eau)

Le transfert de la chaleur par l’intermédiaire de l’eau est plus efficace (bon coefficient d’échange de l’eau, faible consommation d’une pompe par rapport à un ventilateur),… mais il y a investissement et consommation de la tour. Un bilan global doit être réalisé.

Actuellement, ce genre d’installation est très peu répandu dans les commerces pour le froid alimentaire, car les investissements sont importants et l’entretien conséquent. De plus, jusqu’à présent ce genre de technologie était réservé à des puissances de condensation importantes. Enfin, il ne faut pas négliger le problème des tours de refroidissement par rapport à la prolifération de légionelles.

Cette technique est régulièrement utilisée pour les applications de climatisation. Cela dit, le problème des légionelles étant souvent évoqué, même pour les applications de climatisation, dans la mesure du possible, on place des aéroréfrigérants (« dry cooler ») ou des unités de condenseurs à air.
Attention qu’en froid industriel et même en froid commercial on commence à utiliser des systèmes de refroidissement direct tels que :

  • Les condenseurs « évaporatifs » qui sont en quelque sorte des tours de refroidissement où le fluide à refroidir est directement le fluide frigorigène.
  • Les condenseurs « adiabatiques » où l’air d’entrée est d’abord refroidi adiabatiquement (sans échange de chaleur) par des « matelas » sur lesquels on fait ruisseler de l’eau.
  • Les condenseurs directs mixtes qui combinent les principes « évaporatifs » et « adiabatiques » dans un même système.

Température de condensation

Pour augmenter les performances du compresseur, on a tout intérêt à abaisser la température de condensation. Autrement dit, il faut augmenter la surface d’échange et augmenter le débit de circulation de l’air. Le « pincement », c’est-à-dire l’écart entre la température du fluide refroidissant à la sortie du condenseur et la température du fluide frigorigène sera minimal. Mais l’investissement et les pertes de charge en seront augmentés, et donc la consommation de la pompe…

schéma technique.

Refroidissement direct par l’air

Schéma technique sur le refroidissement direct par air.   Schéma technique sur le refroidissement direct par air.

En pratique, pour un condenseur à air, la vitesse sera comprise entre 2 et 4 m/s et, si l’air entre avec une température de 30°C, la température de condensation s’établira entre 40°C et 50°C.

Refroidissement indirect par l’air (via un circuit d’eau)

Schéma technique sur le refroidissement indirect par l'air.  Schéma technique sur le refroidissement indirect par l'air.

Pour un condenseur évaporatif, le bureau d’études peut compter sur une température d’air de refroidissement à bulbe humide de l’ordre de 5 à 6 K en moins que la température à bulbe sec d’entrée du condenseur. Soit pour une température d’entrée de 30 °C d’air sec, la température d’air saturé peut atteindre des valeurs de 25°C.

Comparaison entre les modes de refroidissement

À partir d’une température de l’air de 30°C, quelle sera la température de condensation ? Tout dépend du type de refroidissement du fluide frigorigène choisi !
Voici les résultats comparés pour une température d’air de 30°C 40 % HR.

En partant du condenseur évaporatif, comparons les systèmes en fixant des valeurs moyennes : une « approche » de 5°C, un pincement des échangeurs de 6°C et un échauffement de la température de l’eau de 7°C.

Type de condenseur T°air sec Entrée
condenseur
Sortie
condenseur
T°condens. fluide frigorifique
Condenseur à air 30° T° air = 30° T° air = 37° 43°
Condenseur évaporatif 30° T° air = 25° T° air = 32° 38°

Le condenseur à air est pénalisant, car il provoque une augmentation de température de condensation du fluide (et donc une augmentation de la consommation du compresseur). L’augmentation de la consommation du compresseur est de 2 à 3% par degré K, ce qui n’est pas négligeable !


Critères acoustiques

Bruit aérien

Ventilateurs en toiture.

La principale source de bruit d’un condenseur provient de(s) ventilateur(s).
On aura toujours intérêt à les faire fonctionner à faible vitesse.

L’émission du bruit des aérocondenseurs à ventilateurs hélicoïdes est pratiquement uniforme dans un plan perpendiculaire à l’axe de rotation des ventilateurs. Les faces d’aspiration et de refoulement d’air étant plus bruyantes que les autres, l’aérocondenseur doit être convenablement orienté par rapport aux plaignants potentiels.

Certains constructeurs proposent des moteurs de ventilateur à deux vitesses, option qui peut être déterminante dans certains cas. Ainsi, la petite vitesse pourra être utilisée la nuit, les bruits de fond et les besoins frigorifiques diminuant la nuit. Certains constructeurs annoncent qu’une réduction de moitié de la vitesse de rotation des ventilateurs entraîne un gain de 15 dB(A) sur le niveau de puissance acoustique de l’aérocondenseur.

Il est aussi possible d’utiliser des silencieux à baffles sur l’aspiration et le refoulement d’air mais ceux-ci risquent d’augmenter considérablement l’encombrement et les pertes de charge des aérocondenseurs. Certains matériaux absorbants peuvent servir de revêtement insonorisant de la carcasse, mais ceux-ci ne peuvent constituer une solution à eux seuls. Il est possible enfin, dans les cas les plus délicats, de disposer des écrans acoustiques autour de l’appareil.

Bruit solidien (ou bruit d’impact)

Les vibrations se transmettent vers les locaux sensibles par les tuyauteries en cuivre, et par la dalle sur laquelle est posé l’appareil. Il faut traiter les vibrations par dalle flottante posée sur isolateurs à ressort, utiliser des manchons antivibratoires pour le raccordement sur des canalisations, et des suspensions antivibratiles pour les supports des canalisations.


Choix d’un condenseur à air

Condenseur à air pour une installation de froid positif centralisée.

Groupe condenseur à air pour une chambre froide.

Il est évident que sous nos latitudes les températures extérieures (même avec le réchauffement climatique comme « épée de Damoclès ») restent fraîches et donnent raison aux concepteurs d’adopter une stratégie de refroidissement des condenseurs par air.

La répartition des points de température et d’humidité au cours de l’année sur le diagramme psychométrique ci-dessous  montre qu’une grosse majorité des points températures du climat Belge se situe sous les 20 °C, avec un maximum du nombre d’heures aux alentours des 6-7 °C. Cette constatation signifie que la température de condensation, pour un écart de température entre le fluide dans sa phase de condensation et l’entrée du condenseur idéalement  de 12°C (optimum de dimensionnement des condenseurs), se situe aux alentours des 8°C.

Actuellement, les équipements frigorifiques permettraient de pouvoir travailler avec des températures de condensation de l’ordre de 20°C; ce qui signifie que l’air pourrait suffire durant une bonne partie de l’année pour amener le fluide frigorigène à cette température.

Climat heure par heure en Belgique.

Fréquence des températures pour une année type.

Le gaz chaud du réfrigérant cède sa chaleur à l’air traversant le condenseur et passe à l’état liquide. L’entretien du condenseur à air est limité. Il n’y a aucun risque de gel en hiver. Mais le coefficient d’échange avec l’air étant faible, le condenseur sera volumineux, et donc lourd et encombrant.

Les températures de condensation sont directement liées aux conditions de température extérieure : la pression de condensation sera forte en été (dégradation du COP de la machine frigorifique), mais plus faible en hiver, entraînant d’ailleurs un besoin de régulation adaptée pour un fonctionnement correct.

L’exemple suivant donne une idée de la répercussion sur les consommations électriques du compresseur qu’entraine une augmentation de la température de condensation.

Exemple

Soit un groupe de condensation composé d’un compresseur semi-hermétique et d’un condenseur. La puissance utile nécessaire est de l’ordre de 22 kW. Un logiciel de fabricant de compresseurs donne des courbes caractéristiques en fonction des données de prédimensionnement suivantes :

  • type de fluide réfrigérant : R134A ;
  • température d’évaporation : – 10°C ;
  • température de condensation : 40 °C ;
  • surchauffe de 5 K

Puissance frigorifique

La puissance frigorifique disponible au niveau du compresseur passe de 22.8 à 21.2 [KW] en augmentant la température de condensation de 5K (27 à 32 °C); ce qui correspond à une baisse de puissance de l’ordre de 8 %.

Schéma Puissance frigorifique.

Puissance électrique absorbée par le moteur

Dans un même temps, la puissance électrique absorbée par le moteur électrique passe de 9 à 9.4 lorsque l’on augmente la température de condensation de 5 K (27 à 32 °C); ce qui correspond à une augmentation de puissance de l’ordre de 4 %.

Schéma Puissance électrique absorbée par le moteur

COP

Enfin, le COP quant à lui passe de 2.53  à 2,25 lorsque l’on augmente la température de condensation de 5 K (27 à 32 °C); ce qui correspond à une d’efficacité énergétique de l’ordre de 12 %. Si on simplifie le problème en considérant une relation linéaire entre le COP et la température de condensation, chaque augmentation de 1 K de la température de condensation réduit l’efficacité du compresseur de l’ordre de 2 %.

Schéma COP.

Choix du ventilateur

La circulation forcée de l’air nécessite des ventilateurs dont la consommation électrique n’est pas négligeable. De plus, ils constituent une source de bruits, par frottement de l’air sur les pales du ventilateur, mais aussi par frottement de l’air sur les ailettes de l’échangeur.
Deux types de ventilateurs sont utilisés :

  • pour les commerces, principalement le ventilateur hélicoïdal (ou axial);
  • le ventilateur centrifuge.

Ventilateur hélicoïdal

Ventilateur hélicoïdal

Le ventilateur hélicoïdal (ou axial) est choisi pour des appareils placés à l’air libre, là où le bruit ne constitue pas une nuisance pour le voisinage. Le niveau sonore dépend de la vitesse de rotation du ventilateur. Dans les emplacements exposés, le régime ne doit pas dépasser 500 t/min.

Si des ventilateurs existants sont trop bruyants, on peut les munir d’amortisseurs de bruit cylindriques (tenir compte de la perte de charge).

Ventilateur centrifuge

Ventilateur centrifuge

Le ventilateur centrifuge est souvent utilisé pour des appareils placés à l’intérieur d’un immeuble, raccordé à l’extérieur par des gaines (le ventilateur centrifuge peut vaincre des pertes de charges plus élevées).

Si le bruit du ventilateur dépasse les valeurs admissibles, on peut le munir d’amortisseurs de bruit.

La vitesse de passage de l’air est comprise généralement entre 2 et 4 m/s. Cette information dans le catalogue constructeur est un indice qualité puisque si elle se rapproche de 2 m/s, on a plus de garanties que l’appareil fera peu de bruit et que la consommation du ventilateur sera limitée (en fait, le constructeur a dû écarter davantage les ailettes pour faciliter le passage de l’air, donc l’appareil demandera plus de matière, sera plus volumineux et… sera plus cher : la qualité se paie !).

Complément de puissance par aspersion d’eau

Conception classique

Nombreuses sont les installations où, en exploitation, on voit fleurir des réseaux de tuyaux d’aspersion d’eau de ville servant à refroidir les batteries de condensation lors des périodes chaudes ou carrément caniculaires.
Est-ce un défaut de conception, de dimensionnement à la base ou un manque d’entretien régulier des batteries ?
Le débat est ouvert.

Système D des techniciens en période de canicule.

Mais l’idée de choisir un condenseur à air et de se dire que de temps en temps en période chaude on déploie des systèmes d’aspersion d’eau n’est pas un sacrilège. Cela dit, ces systèmes, bien qu’efficaces, restent du domaine de « l’amateurisme ». De plus, aux températures de condensation de l’ordre de 35-40°C, l’eau de ville de dureté (exprimé en degrés Français °F) élevée (ou incrustante au niveau entartrage) risque de réduire l’efficacité de l’échange du condenseur.

Donc méfiance !

Conception professionnelle et énergétique

Si dès le départ la volonté est de prévoir, lors des périodes caniculaires, un système permettant de maintenir une température de condensation acceptable :

  • sans approcher le niveau de déclenchement haute pression HP du compresseur (le condenseur n’arrive plus à évacuer la charge thermique);
  • en garantissant un taux de compresseur HP/BP raisonnable, et par conséquent une efficacité énergétique intéressante;

il est nécessaire de se diriger  vers des condenseurs adiabatiques permettant de réduire la température d’entrée de l’air de refroidissement par aspersion de matelas d’eau. Cette technique, selon le fabricant permet de réduire la température de l’air de l’ordre de 5 à 7°C lorsque la température de l’air est supérieure à 24°C.

Condenseur adiabatique.
(Source : Balticare).

Cependant, dans un souci de conception énergétique, à savoir réduire la température de condensation au maximum des possibilités techniques des équipements du cycle frigorifique (Δde pression suffisant de part et d’autre du détendeur par exemple), l’utilisation de l’eau comme vecteur de refroidissement est la solution idéale sachant que les condenseurs « évaporatifs » donnent de bons résultats et s’adaptent petit à petit au marché du secteur commercial en terme de puissance de condensation.

Récupération d’eau de pluie

La récupération d’eau de pluie peut s’avérer intéressante pour aider les condenseurs à travailler dans de meilleures conditions en période chaude par aspersion de la batterie de condensation. Outre le fait que la récupération d’eau de pluie reste une approche durable au sens large du terme (utilisation de l’eau de pluie pour les sanitaires, volume tampon en cas de forte pluie, …), elle permettrait de pallier en période de canicule au manque d’efficacité des condenseurs à air. À l’heure actuelle, les condenseurs « adiabatiques » qui sont mis au point pour réduire significativement les températures d’entrée d’air aux condenseurs, pourraient utiliser l’eau de pluie.

En conception, la récupération d’eau de pluie est envisageable pour tous les types de commerce. En particulier, pour les supérettes, les supermarchés et les hypermarchés, cette récupération est envisageable d’autant plus que les surfaces de toiture sont importantes. La mise en place d’une telle installation nécessite néanmoins de l’espace :

    • en zone rurale, cela pose peu de problèmes même dans le cas d’une rénovation importante;
    • en zone urbaine, c’est au cas par cas en fonction de’ l’espace disponible.

Pour les moyennes et grandes surfaces, la récupération d’eau de pluie pourrait très bien s’organiser autour d’une citerne d’eau de pluie enterrée ou posée au niveau du parking sans trop compromettre la capacité de stationnement.

illustration récupération d'eau de pluieillustration récupération d'eau de pluie

Quant au risque de développement de légionelles qu’entraînerait l’évaporation d’eau au niveau d’un condenseur adiabatique, par exemple, le risque semble réduit par le fait que l’évaporation de l’eau se situe aux alentours des 24°C lorsque la température de l’air extérieur est de l’ordre de 30°C par exemple. Il est toutefois conseillé de demander aux différents constructeurs de ce type de condenseur les résultats des tests bactériologiques effectués dans le cadre de cette problématique.

Sous-dimensionnement du compresseur

Le choix d’un condenseur adiabatique permet de réduire les températures de condensation surtout en période de canicule. Pourquoi, alors ne pas en profiter pour sous-dimensionner le compresseur ? En effet, comme le montre l’exemple suivant, pour une température de condensation moindre, un compresseur légèrement sous-dimensionné pourra donner une puissance frigorifique égale tout en consommant moins d’électricité.

Comme montré dans l’exemple, l’auteur et le maître d’ouvrage pourraient partir du principe que l’on réduit de 5 K par exemple la température de condensation pour le dimensionnement du compresseur. Cette décision permettrait de choisir un compresseur de taille plus petite avec, pour la même puissance frigorifique disponible, des performances énergétiques plus intéressantes.

Exemple,

Données

Soit un groupe de condensation composé d’un compresseur semi-hermétique et d’un condenseur. La puissance utile nécessaire est de l’ordre de 25 kW. Un logiciel de fabricant de compresseurs donne les valeurs consignées dans le tableau suivant en fonction des données de prédimensionnement suivantes :

  • type de fluide réfrigérant : R134A ;
  • température d’évaporation : – 10°C ;
  • surchauffe de 5 K
Température de condensation
43 °C
35 °C
Taile du compresseur
Modèle standard de gamme
Modèle juste en dessous
Puissance frigorifique [kW]

25,3

25

Puissance absorbée par le moteur [kW]

9,98

7,82

Débit de fluide réfrigérant [kg/h]

649

592

Sous-refroidissement [K]

3

3

COP

2,5

3,2

Les résultats du tableau nous montrent que pour une même puissance frigorifique et par le choix d’un compresseur de puissance plus faible, mais travaillant aussi à une température de condensation plus faible (35 °C au lieu de 43 °C), les performances de la seconde machine sont meilleures :

  • la puissance absorbée est plus faible et, par conséquent, le COP est meilleur;
  • le débit de fluide frigorigène est plus faible. On peut donc considérer que la charge de fluide frigorigène sera plus faible (impact sur l’environnement positif).

Conclusion

Il serait intéressant de comparer les prix de deux tailles différentes de compresseurs de même gamme. Si leur prix est identique (le modèle surdimensionné est dans une gamme plus standard que celui de plus faible puissance par exemple), il y a intérêt à choisir celui de la taille supérieure et de reporter le surinvestissement sur la régulation du condenseur par température flottante. En effet :

  • En période de canicule, le compresseur ne risque pas de tomber en sécurité haute pression et sera dans sa plage de puissance où la performance énergétique est bonne. On ne sera pas nécessairement obligé d’asperger les condenseurs avec de l’eau de ville (surcoût), …
  • Pour des conditions climatiques de mi-saison et de période froide, la température de condensation pourra être adaptée et, par conséquent, soulager le compresseur par un taux de compression réduit (donc un meilleur rendement volumétrique et énergétique).

Abaisser la température de l’air extérieur

Configuration externe

Aussi, l’emplacement du condenseur doit éviter un réchauffement local de l’air de refroidissement. Par exemple, un condenseur placé sur une toiture couverte de roofing noir entraînera une surchauffe locale de l’air de plusieurs degrés en période d’ensoleillement … Le placement de gravier blanc sur la toiture sera favorable.

L’emplacement du condenseur devra éviter un ensoleillement direct de l’échangeur. Si le placement à l’ombre est impossible, le placement d’un système d’ombrage permettra d’abaisser le niveau de température.

Configuration interne

Il faut éviter également qu’un recyclage de l’air ne se fasse autour du condenseur : de l’air chaud se mélange à l’air froid, la température de l’air d’aspiration augmente, … de même que la température de condensation.
C’est pourtant parfois une solution réalisée pour la limitation du niveau de bruit, puisque les parois latérales peuvent être couvertes d’absorbant acoustique… Qu’il est difficile de concilier toutes les contraintes…!

Dans la mesure du possible, il faut donc proscrire le placement du condenseur dans un local fermé. Si c’est le cas (pour des condenseurs de chambres frigorifiques, par exemple), il faut assurer une forte ventilation du local et même parfois sa climatisation, si on veut que la température de l’air du local reste suffisamment basse pour pouvoir continuer à refroidir les condenseurs sans faire monter la pression de condensation. On conviendra que cette situation est aberrante sur le plan énergétique !

Récupération de la chaleur de condensation

Il faut garder à l’esprit que l’optimisation du cycle frigorifique passe principalement par :

  • l’abaissement de la température de condensation dans les limites climatiques possibles;
  • l’augmentation de la température d’évaporation dans les limites permettant d’assurer la conservation des aliments.

Groupe condenseur à proximité du meuble frigorifique

Pour les machines frigorifiques de petite taille, le condenseur est souvent incorporé ou à proximité immédiate de la machine frigorifique; ce qui signifie que le groupe frigorifique se situe souvent dans l’ambiance du magasin. On utilise souvent des groupes de condensation qui comprennent à la fois :

  • le compresseur;
  • le condenseur à air;
  • les sécurités et la régulation;
  • les connexions fluidiques des lignes liquides et d’aspiration.

Groupe de condensation.
(Source : Danfoss).

Ce type d’équipement convient en général pour des installations de faible puissance (commerce de détail, chambre froide de boucherie).

En gardant en mémoire le grand principe de la température de condensation minimal à maintenir, une récupération de la chaleur est possible pour chauffer directement un local. Ainsi, un supermarché Delhaize utilise le principe de récupération de la chaleur de condensation :

  • En période froide, la chaleur du condenseur du groupe frigorifique (armoires de congélation) est soufflée sous le meuble frigorifique dans l’allée froide et contribue à réchauffer l’ambiance. C’est vrai que la température de condensation est élevée et, par conséquent, la performance du compresseur dégradé, mais elle est plus ou moins compensée par la chaleur récupérée afin d’assurer un confort dans les zones de vente.
  • En été, la chaleur est évacuée à l’extérieur par un jeu de clapets.
Configuration Type de groupe de condensation Type de meuble Déperdition de l’enveloppe Énergie finale Consommée chaudière
[kWh/h]
Energie finale
électrique consommée
[kWh/h]
Energie primaire
consommée
[kWh/h]
Coût de l’énergie [€/h] kg/h de CO2
1

incorporé

fermé faible 0 5.6 14.7 0.6 3.7
2

incorporé

fermé forte 9.3 5.6 23.1 1

5.8

3

externe

fermé forte 20 1.4 23.7 1.2 5.9 
4

incorporé

ouvert forte 0 12 31.6  1.32 7.9
5

externe

ouvert forte 35.6 4.8 48.2 2.3 12.1

Condenseur à l’extérieur

Pour les machines frigorifiques de taille importante (supérette, supermarché, hypermarché, …), nécessitant des équipements tels que les centrales de compresseurs, la configuration classique est le placement du ou des condenseurs à l’extérieur (en toiture, à l’ombre d’un mur, …). En effet, thermiquement parlant, la gestion d’une telle quantité de chaleur dans une configuration interne serait impossible.

En ce qui concerne la récupération de chaleur sur ce type d’installation, vu que le condenseur est en dehors des zones de vente, on ne peut pas directement récupérer la chaleur des condenseurs dans les zones de vente. Le placement d’un équipement intermédiaire (ballon tampon par exemple) entre le compresseur et le condenseur permet la désurchauffe des gaz à la sortie des compresseurs. La chaleur de désurchauffe peut donc être utilisée pour chauffer un ballon d’eau. Un problème surgit cependant : la quantité de chaleur récupérée par désurchauffe est faible par rapport à la chaleur de condensation. Il est dès lors nécessaire de dimensionner le ballon afin de provoquer la phase de condensation dans le ballon. C’est pour cette raison que l’on ne peut concevoir une récupération de la chaleur de condensation

  • qu’à basse température (30-40°C);
  • qu’avec un ballon de récupération surdimensionné.

L’eau chaude qui en ressort peut servir :

  • à préchauffer directement l’eau chaude sanitaire;
  • à chauffer les zones de vente par un chauffage au sol par exemple.

Concevoir

Pour  en savoir plus sur la récupération de chaleur, cliquez ici !

Choix d’un condenseur évaporatif

 

Condenseur évaporatif hybride.
(Source Balticare).

Le fluide frigorigène échange directement sa chaleur avec l’eau et l’air de refroidissement (il n’y a pas de couplage condenseur à eau – tour de refroidissement).
Tout comme les circuits de condensation à eau (condenseur à eau associé avec une tour de refroidissement), les condenseurs évaporatifs trouveront leur place dans les projets de froid alimentaire nécessitant des puissances élevées (de l’ordre de 300 kW froid minimum); ce qui correspond plus ou moins à la puissance nécessaire pour alimenter en froid un supermarché important (> 2 500 m² de surface au sol).

On utilisera ce type de condenseur au cas par cas sachant que le risque de développement de légionelles dépend de l’entretien et du contrôle fréquent de l’installation.

Ce type d’installation implique que les quantités de fluide frigorigène sont plus importantes vu qu’ils est forcément nécessaire de placer le condenseur évaporatif à l’extérieur parfois loin des compresseurs (groupe frigorifique dans la cave et le condenseur évaporatif en toiture par exemple). À cette solution, pour réduire les quantités de fluide frigorigène, on préfèrera alors le condenseur à eau associé avec une tour de refroidissement tout en étant bien conscient que cette solution nécessite de gérer efficacement les risques liés aux légionelles.


Choix d’un condenseur à eau

Le réfrigérant de la machine frigorifique cède sa chaleur à l’eau circulant dans le condenseur. Grâce au coefficient d’échange avec l’eau de 20 à 30 x plus élevé que le coefficient d’échange avec l’air, la taille du condenseur à eau sera plus réduite.

Contrairement à la climatisation des bâtiments tertiaires, en réfrigération commerciale, bien que les équipements aient évolué, le choix d’un condenseur à eau est très rare pour diverses raisons (bonnes ou mauvaises) :

  • Le condenseur à eau est nécessairement associé avec une tour de refroidissement (investissement plus important, circuits complexes, …). elle, est encombrante, génère du bruit, des frais d’entretien parfois importants, une éventuelle consommation d’eau, … Pourrait-on dire que l’on a déplacé le problème ?
  • Le risque d’entartrage du condenseur nécessite de traiter l’eau de refroidissement.
  • La réputation des tours de refroidissement, comme vecteur de développement des légionelles, n’a pas contribué à son développement dans les commerces surtout lorsqu’on choisit une tour de refroidissement ouverte (tout le circuit peut être contaminé).
  • L’investissement dans ce type de technologie est intéressant pour des puissances frigorifiques importantes; ce qui n’est pas souvent le cas dans les commerces.
  • La matière utilisée est souvent le cuivre ou l’acier, bons conducteurs thermiques, en fonction des contraintes (attention cependant que le cuivre ne peut pas être adopté en cas d’utilisation d’ammoniac comme fluide frigorigène).

Néanmoins, pour autant que la maintenance soit effectuée dans les règles de l’art, on pourrait envisager le choix de condenseur à eau associé à une tour de refroidissement fermée afin, pour des installations de moyenne puissance comme dans les supermarchés et hypermarchés, de réduire la quantité de fluide frigorigène comme c’est le cas dans certains pays tel que le Luxembourg par exemple. Donc le choix d’un échangeur à eau offrirait les avantages suivants :

  • L’échangeur sera moins encombrant.
  • Il est moins bruyant que le condenseur à air. Il permet plus facilement la récupération de chaleur puisque la chaleur est contenue dans de l’eau, plus facilement déplaçable.
  • La température de condensation peut plus facilement être stabilisée que dans les condenseurs à air.

Pour le refroidissement, on peut utiliser :

  • L’eau du réseau (eau potable), mais cette solution est à proscrire vu la consommation exorbitante d’eau qu’elle entraîne.
  • L’eau de nappes phréatiques, de lac ou de rivière (demander l’autorisation). Les eaux contiennent plus ou moins d’impuretés qui se déposent sur les tubes. Ces dépôts peuvent réduire considérablement le coefficient de transfert de chaleur. À défaut de la mise en place d’un système de nettoyage automatique, il faut surdimensionner l’échangeur de sorte que les performances de l’installation restent suffisantes.

Enfin, il se peut, lors d’une rénovation importante ou un changement d’affectation d’un immeuble par exemple (plutôt en milieu urbain), que les machines frigorifiques ne puissent être placées que dans les caves. Dans ce cas précis, il serait intéressant d’envisager le condenseur à eau pour autant que la puissance frigorifique soit suffisante.


Choix de la régulation

Principe de base : abaisser la température de condensation

Abaisser la température de condensation, c’est abaisser le niveau de pression à la sortie du compresseur, c’est donc diminuer le travail de celui-ci et l’énergie qu’il consomme.

Par exemple, abaisser la température de condensation de 10°C génère généralement plus de 10 % de réduction de la puissance électrique. Les constructeurs annoncent même 2 % d’économie par degré abaissé dans certains cas.
De plus, une basse température de condensation entraîne un niveau moins élevé de pression, ce qui permet souvent de choisir un compresseur d’un modèle plus petit, donc moins cher.

Nous devrions avoir d’excellents rendements dans nos régions où les canicules sont rares !

En théorie, c’est tout bénéfice pour le compresseur qui a moins de mal à travailler !

Et pourtant … ce n’est pas si simple de réduire la température de condensation. En effet, les interactions avec les autres équipements du circuit frigorifique vont limiter la plage de variation vers le bas de la température de condensation. Les interactions les plus marquantes se manifestent au niveau du détendeur thermostatique, du compresseur.

Influence sur le détendeur thermostatique

Le constructeur souhaite qu’une différence de pression minimale existe au niveau du détendeur, pour assurer une quantité de débit de fluide frigorifique suffisante dans l’évaporateur. C’est la Haute Pression HP qui pousse le réfrigérant à travers l’orifice de la vanne du détendeur.

Il en résulte, avec une haute pression trop faible, que l’alimentation en réfrigérant est insuffisante, particulièrement au démarrage.
Avec un détendeur thermostatique, il est donc nécessaire de maintenir une haute pression suffisamment élevée. Dès lors, le constructeur impose une pression minimale, côté HP, à la sortie du condenseur (par exemple 12 bars pour le R22).

Influence sur le compresseur

Vu que le détendeur n’alimente pas correctement l’évaporateur (surtout au démarrage), le compresseur, même s’il aspire correctement une partie des vapeurs du fluide frigorigène, est sous-alimenté. La basse pression devient aussi insuffisante et le groupe compresseur se met en sécurité basse pression. Mais comme cette sécurité est à réenclenchement automatique, le compresseur « pompe », se fatigue et finalement déclenche par son thermique.

Ce problème est renforcé en hiver… Si l’air est à 0°C, la surface d’échange devient excessive. De plus, on n’aura plus besoin de la pleine puissance frigorifique. De sorte que le condenseur sera largement surdimensionné pendant les périodes froides.

S’il fait plus froid dehors, le constructeur va diminuer le débit d’air de refroidissement (en arrêtant l’un ou l’autre ventilateur, par exemple), mais il va maintenir le niveau de pression ! en fait, la régulation des ventilateurs sera réalisée sur base du pressostat HP.

Supposons que le ventilateur du condenseur fonctionne en tout ou rien, avec l’exigence du constructeur de maintenir les 12 bars minimums.
Par exemple, il s’enclenche lorsque la pression monte à 16 bars et déclenche lorsque la pression descend à 12 bars. Ceci entraîne des cycles on-off « rapides » (+/- 2 min.) et une « fatigue » du moteur. En plus, la mise en route brutale du ventilateur provoquera une chute soudaine de la pression et de la température de condensation. Ceci provoque à son tour une ré-évaporation du liquide resté à la même température. Les bulles de vapeur provoquées par ce phénomène peuvent perturber le bon fonctionnement du détendeur et donc de l’installation (« flash gaz »).

Il y a économie sur le ventilateur… mais pas sur le compresseur !

Cas particulier

Comme le condenseur est entièrement à l’extérieur, par très basse température, c’est toute la masse métallique qui est à 0°C et, même clapets complètement fermés, le réfrigérant se condense à trop faible pression. Il faut dans ce cas rendre inopérants un certain nombre de tubes.

Pour les rendre inopérants, il suffit de remplir d’office certains tubes avec du réfrigérant liquide. Ce réfrigérant liquide sera sous-refroidi, mais la surface d’échange utile du condenseur ayant fortement diminué il ne pourra en condenser trop. Ce remplissage est obtenu par une vanne à 3 voies fonctionnant automatiquement et branchée sur un réservoir auxiliaire de réfrigérant.

Comme il faut une certaine quantité de liquide pour remplir ces tubes, il y a lieu de prévoir un réservoir et une quantité de réfrigérant suffisamment grande.

Première amélioration : travailler avec un ventilateur à vitesse variable ou une cascade de ventilateurs

En plus de la réduction de consommation électrique du ventilateur, on optimisera le fonctionnement du compresseur qui restera régulé à 12 bars (dès que la pression augmente, le ventilateur accélère; et si la charge augmente encore, c’est la pression qui augmente naturellement).

Si le condenseur dispose de plusieurs ventilateurs, on obtient un résultat similaire à partir d’une mise en cascade des ventilateurs, via un pressostat à plusieurs étages. Cette fois, la pression de condensation est stable, ce qui évite la formation de bulles de gaz à l’entrée de l’évaporateur.

Régulation condenseur à air.

Deuxième amélioration : travailler avec un détendeur électronique

Si le détendeur thermostatique travaille généralement avec une température minimale de condensation de 35°C, le détendeur électronique peut travailler avec une température minimale de condensation de l’ordre de 20°C voire moins dans certains cas! C’est essentiellement la capacité du détendeur électronique à gérer correctement l’alimentation de l’évaporateur, même avec des hautes pressions en amont faibles, qui conditionne la limite basse de température de condensation.

Détendeur électronique.

Il est plus cher à l’investissement, mais ce prix est largement récupéré par l’usage de l’installation.

Pression de condensation flottante

La présence d’un détendeur numérique permet d’optimiser la température de condensation en fonction de la charge du compresseur.

Exemple.

Voici la séquence prévue par un constructeur de régulation :

A 100 % de puissance, l’écart « température de condensation – fluide de refroidissement » est choisi à 12 K.

A 0 % de puissance, l’écart est de 4 K : la consommation du compresseur est diminuée par la baisse de pression de condensation et le ventilateur adaptera sa vitesse de rotation pour maintenir cette consigne. L’écart n’est pas de 0 K, car les ventilateurs tourneraient tout le temps.

*

Exemple.

  • si la T°ext = 30°C et Travail compresseur = 25 %, la T°condensation = 36°C;
  • si la T°ext = 30°C et Travail compresseur = 50 %, la T°condensation = 38°C
  • si la T°ext = 20°C et Travail compresseur = 25 %, la T°condensation = 26°C;
  • si la T°ext = 10°C et Travail compresseur = 25 %, la T°condensation = … 20°C car c’est la valeur minimale de condensation.

Remarque.

 Adopter une température minimale de condensation de 20°C suppose que le sous-refroidissement soit suffisamment élevé. À défaut, la moindre perte de charge sur le tracé va provoquer une vaporisation dans le condenseur (« flash-gaz »). C’est parfois un problème rencontré lorsqu’il faut remonter plusieurs mètres avec la tuyauterie. Pour s’en prémunir, il est possible de sous-refroidir volontairement le liquide par la création d’une zone de sous-refroidissement dans le condenseur (voir figure), ou en plaçant un échangeur à plaques sur le liquide (à la sortie).

Schéma zone de sous-refroidissement dans le condenseur

Choisir le compresseur de la machine frigorifique [Froid alimentaire]

Compresseur semi-hermétique en centrale.
(Source : carrefour Mons).


Les critères thermiques

Température d’évaporation la plus haute possible.

La température d’évaporation est naturellement dictée par la nécessité de maintenir dans l’espace à réfrigérer une température définie en fonction du type de denrée à conservation. Néanmoins, l’option de « coller » le plus haut possible à cette température nécessite de choisir des systèmes de régulation adéquats pour piloter la plupart des équipements du circuit frigorifique.
Le maintien d’une température « haute » ou « haute pression » dans l’évaporateur, quelle que soit la charge frigorifique au niveau de l’évaporateur, influence :

  • le choix du détendeur et de sa régulation par rapport à la surchauffe;
  • le choix de la régulation du compresseur.

 Régulation de la surchauffe et du débit du compresseur.

Température de condensation la plus basse possible.

La température de condensation dépend en grande partie de la température de l’air pour un condenseur à air et de la température de l’eau pour un condenseur à eau. Néanmoins, l’option de « coller » le plus bas possible à cette température nécessite de choisir des systèmes de régulation adéquats pour piloter la plupart des équipements du circuit frigorifique.
Le maintien d’une température « basse » ou « basse pression » au condenseur, quelle que soit la charge frigorifique et les conditions externes d’échange, influence :

  • le choix du détendeur et de sa régulation par rapport à la différence de pression à laquelle il est soumis;
  • le choix du condenseur et de sa régulation;
  • le choix de la régulation du compresseur.

Régulation de la surchauffe et du débit du compresseur et de la pression de condensation.


Les critères de choix énergétique

Le coût du placement des installations frigorifiques commerciales est important et les compresseurs en représentent une part importante. Pour cette raison, sur le plan énergétique, il est nécessaire d’établir des critères de sélection. En réalité ils sont peu nombreux et les seuls à émerger vraiment sont :

  • le coefficient de performance énergétique EER (Energy efficiency Ratio) ou couramment appelé COPfroid;
  • le taux de compression HP/BP;
  • le rendement volumétrique.

Le coefficient de performance COP

Tous les compresseurs ne présentent pas une performance égale. Cette performance peut être mesurée via le COP de la machine frigorifique dans laquelle ils seront insérés.
Contrairement au domaine de la climatisation, en froid commercial, la détermination d’un EER ou COPfroid global et annuel d’une machine frigorifique n’est pas évidente à évaluer. La plupart des grandes marques adoptent très peu les protocoles d’établissement de performance énergétique des standards comme ouverture d'une nouvelle fenêtre ! EUROVENT et ouverture d'une nouvelle fenêtre ! AHRI (Air-conditioning and Refrigeration Institute).
Par contre, les fabricants de compresseurs renseignent de manière précise sur leur site des valeurs de EER ou permettent l’utilisation de leur logiciel de dimensionnement et de sélection en fonction de différents paramètres tels que :

  • la température d’évaporation;
  • la température de condensation;
  • le type de fluide frigorigène envisagé;
  • la valeur de sous-refroidissement
  • la valeur de surchauffe;
  • ….

Pour un même compresseur sélectionné, la variation des valeurs des paramètres de sélection influence de manière différente la valeur du COP.

Prévoir dès le départ la mesure du COP de l’installation :

Pour la bonne gestion future d’une grosse installation, on peut imaginer de placer un compteur d’énergie sur l’eau glycolée d’un circuit caloporteur et un compteur électrique sur le compresseur (coût de l’ordre de 5 000 Euros). Il sera alors possible d’imposer un COP moyen annuel minimum à la société de maintenance… en laissant celle-ci se débrouiller pour y arriver. Un remboursement de la différence peut être prévu comme pénalité en cas de non-respect.

Le taux de compression HP/BP

Le taux de compression HP/BP d’un compresseur, comme son nom l’indique, est le rapport de la pression absolue de refoulement par celle d’aspiration. C’est une caractéristique principalement :

  • intrinsèque aux compresseurs à vis et scroll (caractéristiques géométriques et mécaniques du compresseur);
  • extrinsèque aux compresseurs à piston.

Mais comme toute machine au sens large du terme, la choisir hors de son contexte ne rime à rien. Les conditions de pression au niveau du condenseur pour la haute pression et de l’évaporateur pour la basse pression.
Le taux de compression influence les performances énergétiques du compresseur en influençant le rendement volumique de la machine.
Pour rappel, les conditions de pression et de température sont dictées au niveau :

  • du condenseur (haute pression) par les conditions externes de refroidissement (la température de l’air externe pour un condenseur à air par exemple);
  • de l’évaporateur (basse pression) par la charge frigorifique à refroidir à une certaine température (et donc à une certaine pression).

Les compresseurs à vis et scroll

Pour les compresseurs à vis comme pour les compresseurs scroll, le risque est de sélectionner un compresseur dont le taux de compression est trop élevé : le compresseur travaillera « pour rien » puisque le fluide frigorigène sera trop comprimé puis se détendra au travers de l’orifice de refoulement jusqu’à atteindre la pression de condensation.
La pression de condensation est liée au régime de fonctionnement du condenseur de l’installation. Il importe que la pression interne de refoulement soit la plus proche possible de la pression de condensation.
Le concepteur choisira un « rapport de volume interne » (cela correspond au taux de compression, mais exprimé sous forme d’un rapport entre les volumes à l’entrée et à la sortie du compresseur) approprié au cas d’utilisation et pour lequel le compresseur exige la plus faible puissance d’entraînement possible.
Pour les cas où les conditions de pression de fonctionnement varient fortement, on a mis au point le compresseur à vis à rapport de volume interne variable. Le taux de compression s’adapte automatiquement au rapport de pression utile en fonction des paramètres de température de condensation et de température d’évaporation.
Cette technique optimalise le rendement énergétique tant à pleine charge, qu’à charge partielle.
On peut atteindre sans problème des taux de compression importants sans trop dégrader les performances du compresseur. Des taux de compression importants sont obtenus grâce à l’huile qui réduit l’échauffement des gaz comprimés.

Les compresseurs à pistons

Pour les compresseurs à pistons, le taux de compression HP/BP est lié essentiellement aux conditions externes utiles en amont (évaporateur) et en aval (condenseur).
Pour rappel :

  • Le clapet d’aspiration côté évaporateur (BP) ne s’ouvrira que pour autant que la pression à l’intérieur de la chambre de compression (au point mort bas) soit inférieure à celle dans la tuyauterie d’aspiration.
  • De même, le clapet de refoulement côté condenseur (HP) ne s’ouvrira que pour autant que la pression à l’intérieur de cette même chambre e compression (au point mort haut) soit supérieure à celle régnant dans la conduite de refoulement.

En général, les compresseurs à pistons, pour des raisons mécaniques et d’étanchéité, n’admettent que des taux de compression de l’ordre de 8 voire maximum 10.
On en déduit que :

  • pour les applications à froid positif (température d’évaporation de l’ordre de -3 à -14°C), les compresseurs mono étagés suffisent dans la plupart des cas.
  • à l’inverse, pour les applications à froid négatif (température d’évaporation de l’ordre de -30 à -38°C), les compresseurs biétagés sont utilisés.

Le rendement volumétrique

À une vitesse donnée, un compresseur est garanti par un volume balayé; c’est une des caractéristiques de la plaque signalétique. Mais en réalité, pour certains compresseurs tel que celui à piston, le volume réel aspiré est inférieur au volume balayé. Le taux compression influence fondamentalement l’écart entre le volume réel et le volume balayé, cet écart augmentant avec l’augmentation du rapport HP/BP.
Le rendement volumétrique exprime le rapport entre le volume réel et le volume balayé. Ce rendement volumétrique souvent exprimé en fonction du taux de compression est différent pour les compresseurs à vis et ceux à piston.

Les compresseurs à vis

Étant donné que les compresseurs à vis ont un espace mort pratiquement inexistant, le rendement volumétrique de ces machines est assez bon même à des taux de compression élevés.

À titre d’exemple,

Le graphique ci-dessous illustre l’abaque que fournissent les fabricants de compresseurs à vis. Même si le taux de compression en croissant dégrade le rendement volumétrique, pour un rapport HP/BP de 12, le rendement volumétrique est toujours de 80 %. Le rendement volumétrique se dégrade lorsque la pression en aval augmente pour la simple raison que le reflux des gaz de refoulement vers l’aspiration augmente aussi.

Exemple de courbe de rendement volumétrique d’un fabricant.

Les compresseurs à pistons

Le rendement volumétrique est donné par la relation suivante :

η = 1 – 0,05 x (HP/BP)

A titre d’exemple,

Aux mêmes conditions de fonctionnement que le compresseur à vis ci-dessus, le rendement volumétrique d’un compresseur à pistons est de :

η = 1 – 0,05 x (HP/BP)

η = 1 – 0,05 x 12

η = 0,4 ou 40 % 

Cette formule est empirique et permet d’évaluer le rendement volumétrique avec une bonne approximation.

Pour les compresseurs à pistons, le volume balayé est défini par la relation suivante :

Vb = ( π x D² / 4) x C x n x N x 60 [m³/h]

Où :

  • D : diamètre du cylindre [m];
  • C : course du piston [m];
  • n : vitesse de rotation [tr/min];
  • N : nombre de cylindres;

 

On voit tout de suite que pour assurer un volume réel équivalent au volume nécessaire à fournir la puissance frigorifique utile, le compresseur devra tourner plus vite toute autre chose restant égale. Par conséquent, la consommation électrique du moteur entrainant le compresseur sera plus importante et défavorable, à puissance frigorifique utile égale, à la performance énergétique du compresseur.

Vue globale

La puissance frigorifique à atteindre constitue un critère de choix classique de départ, mais la sélection d’un compresseur demande une vue globale sur les typologies disponibles en fonction de la puissance frigorifique et sur le mode de régulation de puissance. Un camion peut être très performant, mais s’il est trop puissant, il n’atteint pas la performance de 2 camionnettes…
Dans le tableau synthèse de sélection, on trouvera les deux critères rassemblés.


Choix du type de compresseur

Il existe de nombreuses technologies de conception des compresseurs.

Techniques

Pour découvrir ces diverses technologies, cliquez ici !

Pour aider à la sélection, il est possible de les regrouper par « familles » et d’en tirer leur propriétés communes selon :

  • le mode de compression;
  • l’association moteur-compresseur.

Mode de compression

On distingue les compresseurs par le mode de compression :

  • Les compresseurs volumétriques;
  • les compresseurs centrifuges;

Les compresseurs volumétriques

Compresseur à vis (Source Bitzer) et  compresseur scroll (Source Copeland).

Compresseur semi-hermétique à piston.
(Source Bitzer).

La compression du fluide frigorigène se fait par réduction du volume de la chambre de compression. Il existe des compresseurs à piston, à vis, à spirales (compresseurs scroll) et des compresseurs rotatifs.

Le compresseur centrifuge

La compression du fluide est créée par la force centrifuge générée par une roue à aubes. On parle de turbocompresseur. Les turbo-compresseurs sont souvent choisis dans des applications industrielles de grosses puissances.

Association moteur-compresseur

On les distingue également par l’association moteur-compresseur :

Le compresseur ouvert

Le moteur est dissocié du compresseur et raccordé par un manchon ou une courroie. L’accès aux différents éléments est possible pour réparation et la vitesse de rotation est modifiable en changeant la poulie du moteur. Mais ces deux avantages (fort théoriques…) ne compensent pas le défaut majeur de l’existence d’un joint d’étanchéité rotatif à la traversée du carter par l’arbre. Ce joint, qui doit être lubrifié pour assurer l’étanchéité, est source de fuites… inacceptables aujourd’hui dans un contexte « zéro-fuite » de fluide réfrigérant.

Le compresseur hermétique

Le moteur et compresseur sont enfermés dans une même enveloppe. Le joint tournant disparaît et avec lui le risque de fuite. Mais des contraintes nouvelles apparaissent, dont le fait que le refroidissement du moteur est réalisé par le fluide frigorigène lui-même. Cet échauffement est préjudiciable au cycle frigorifique puisque la température à l’aspiration du compresseur augmente. De plus, si le moteur vient à griller, c’est l’ensemble du circuit frigorifique qui sera pollué : un nettoyage complet du circuit doit être réalisé si l’on veut éviter de nouveaux ennuis. En cas de problème, il n’est plus possible de réparer… Dès lors, un organe de sécurité contre la surchauffe (Klixon) est incorporé. Grâce à cette sécurité thermique, montée dans les enroulements du moteur ou sur ces derniers, l’alimentation électrique sera coupée lors d’une surchauffe du moteur.
Le compresseur hermétique est couramment utilisé pour les petites et moyennes puissances : climatiseurs, armoires de climatisation, pompes à chaleur, …

Le compresseur semi-hermétique

qui réalise un compromis entre les deux produits précédents. Il tente de bénéficier des avantages du groupe ouvert (accès aux mécanismes) et du groupe hermétique (limitation des fuites). Mais l’étanchéité reste imparfaite (nombre de joints non négligeable) et le prix est sensiblement plus élevé que pour le compresseur hermétique.
Le compresseur semi-hermétique est utilisé pour les moyennes puissances

Comment choisir ?

Machines tournantes ?

Globalement en climatisation et réfrigération industrielle, la tendance actuelle est :

  • à l’abandon des machines à mouvement alternatif (compresseur à pistons),
  • au développement des machines tournantes, à came rotative, à spirale rotative (scroll) ou à vis.

Le compresseur à vis et compresseur scroll (Source Bitzer).

Les avantages et inconvénients :

(+)

  • une réduction des pièces mécaniques en mouvement (suppression des clapets) et donc une plus grande fiabilité,
  • un rendement volumétrique d’un compresseur assez bon grâce à l’absence d’espaces morts, comme dans les compresseurs à pistons,
  • une plus grande longévité,
  • un niveau sonore nettement plus favorable (moins de vibrations), surtout pour les appareils hermétiques,
  • une moindre sensibilité aux entrées de fluide frigorigène liquide (« coups de liquide » destructeurs des compresseurs à pistons),
  • un coût de maintenance également plus faible, puisque le risque de panne est diminué.

(-)

  • leur coût d’achat plus élevé;
  • nécessité de personnel qualifié;
  • en cas de défaillance, les compresseurs hermétiques tels que les scroll’s doivent être remplacés et sont limités en puissance;
  • les compresseurs à vis sont de plus grosse puissance et moins adaptés à la puissance frigorifique nécessaire habituellement dans les commerces.

Machines alternatives ?

Le compresseur semi-hermétique à piston (source Bitzer).

Les spécialistes du froid alimentaire dans la distribution quant à eux continuent de préconiser les compresseurs à pistons semi-hermétiques.
Les avantages et inconvénients :

(+)

  • l’investissement est raisonnable;
  • la réparation est facile;
  • au niveau des centrales de compresseurs, le niveau de puissance frigorifique est très modulable par le découpage par étage ainsi qu’une régulation de vitesse sur un des compresseurs;
  • la gamme de puissance frigorifique unitaire est étendue.

(-)

  • leur longévité est limitée;
  • ils sont sensibles aux entrées de fluide frigorigène liquide;
  • le risque de panne n’est pas négligeable;

En matière d’environnement

On choisira des compresseurs hermétiques ou semi-hermétiques pour atteindre l’objectif zéro-fuite de fluide frigorigène, objectif qui sera un jour ou est déjà obligatoire au niveau réglementaire.

Suralimentation des compresseurs à vis

Le fonctionnement technique de la suralimentation dépasse la portée de nos propos, mais le principe de base consiste à injecter une quantité de fluide frigorigène supplémentaire dans le compresseur, à une pression intermédiaire entre la pression de condensation et d’aspiration.
La puissance frigorifique en est nettement améliorée alors que la puissance absorbée n’augmente que légèrement.


Le dimensionnement du compresseur

Dimensionnement classique du compresseur

La puissance de la machine frigorifique a été dimensionnée pour répondre aux conditions de fonctionnement extrêmes (période de canicule), sans compter les surdimensionnements liés aux incertitudes d’utilisation des meubles et des chambres frigorifiques.

Généralités

La première économie consiste à évaluer au plus près la puissance frigorifique nécessaire, car la machine frigorifique s’adapte mal aux bas régimes. Chaque palier de diminution de 25 % de la puissance frigorifique du groupe ne réduit la puissance électrique absorbée que de 10 % en moyenne !
Le dimensionnement courant du compresseur pour une installation de froid alimentaire est naturellement conditionné par :

  • la puissance frigorifique à fournir
  • le type de fluide réfrigérant;
  • la température nécessaire à l’application au niveau de l’évaporateur (froid positif ou négatif, type de denrées à conserver, …) et ce, dans des conditions optimales;
  • la température extrême qu’il peut régner au niveau du condenseur (température de l’air ou de l’eau selon le type de condenseur).

Une température de condensation qui revient régulièrement dans le dimensionnement classique est de l’ordre de 40°C; ce qui correspond, compte tenu d’un « pincement » (caractérise le dimensionnement du condenseur) de l’ordre de 8 K, à une température d’entrée d’air de 32°C. Cette température d’air d’entrée correspond à une température « caniculaire ».
Ce qui est terrible dans le froid alimentaire, par rapport à la climatisation de bâtiment tertiaire où on pourrait tolérer un certain inconfort momentané, c’est que les règlementations et normes en matière de respect de la chaîne de froid sont très contraignantes (il y a va de la santé des consommateurs) et imposent aux commerçants de prendre les précautions qui s’imposent afin de respecter les températures de conservation. En d’autres termes, le bureau d’étude chargé du dimensionnement des compresseurs n’hésitera pas à prendre une valeur de 40°C de température de condensation même si on observe des températures d’air de l’ordre de 32°C quelques heures sur les 8 760 heures qui composent une année et donc de surdimensionner la puissance des compresseurs.

Froid négatif

On rappelle, de par les limites mécaniques des compresseurs à pistons, par exemple, que le taux de compression HP/BP ne peut pas dépasser en pratique la valeur de 8. En froid négatif, le taux de compression HP/BP nécessaire pour assurer au niveau de l’évaporateur des températures de l’ordre de -35°C implique un taux de compression de l’ordre de 15. Ces applications demandent donc de découper la phase de compression en deux étages.

« Lorsque le taux de compression est trop élevé, on travaille plutôt avec deux étages ».

Afin de réduire au maximum la taille (ou la cylindrée) des compresseurs, la pression intermédiaire entre les deux étages de compression doit être choisie de manière précise. La formule suivante exprime l’optimum de la pression intermédiaire Pi :

Pi = ( HP x BP)0,5 [bars abs]

Où :

  • HP : Haute Pression absolue côté aspiration du compresseur [bars];
  • BP : Basse Pression absolue côté refoulement du compresseur [bars].

Différentes solutions existent pour étager le taux de compression HP/BP :

  • deux compresseurs séparés sont placés l’un à la suite de l’autre (en série). Mais cette solution est coûteuse;
  • un compresseur biétagé monobloc permet d’atteindre des taux de compression importants avec l’avantage de n’investir que dans une seule machine.

Le choix de la régulation de puissance du compresseur

 Même si la puissance frigorifique du compresseur est calculée au plus juste pour une température de condensation raisonnable, il faut choisir une régulation qui lui permette de répondre à des besoins frigorifiques généralement beaucoup plus faibles que la valeur nominale et fluctuants dans le temps.
Diverses techniques de régulation sont possibles :

La variation de la puissance du compresseur

La variation de la puissance frigorifique de l’application de froid alimentaire (puissance utile à l’évaporateur) conditionne le fonctionnement du compresseur. Pour y répondre, comme le compresseur est de type volumétrique, il doit adapter sa puissance en faisant varier le volume de fluide frigorigène qui le traverse.
À l’heure actuelle, classiquement, la solution consiste à faire varier la puissance du compresseur :

  • soit en créant une cascade entre plusieurs compresseurs (= compresseurs en centrales);
  • par variation de la vitesse du compresseur.

Cascade de plusieurs compresseurs

À partir du moment où la puissance frigorifique devient importante (superettes, supermarchés ou hypermarchés), le choix d’une centrale de compresseurs s’impose pour les raisons suivantes :

  • fiabilité et sécurité d’alimentation en fluide frigorigène (ne pas « casser » la chaîne du froid) puisque les machines sont indépendantes;
  • modulation de la puissance frigorifique par enclenchement ou déclenchement successifs des différents compresseurs de la centrale.

La variation progressive de la puissance est énergétiquement favorable puisqu’aucune machine n’est dégradée dans son fonctionnement.

Centrale de 3 compresseurs en parallèle.

Bien sûr, le coût d’investissement est plus élevé que si l’on utilisait une seule grosse machine, mais imaginerait-on d’installer une grosse chaudière sans prévoir une cascade pour reprendre les faibles besoins de la mi-saison ?
Un découpage de la puissance en étages est recommandé, tout particulièrement lorsque les variations de charge sont importantes.
Il en résultera :
Un gain sur les kWh (énergie) :

  • car le « petit » compresseur alimentera un condenseur surdimensionné pour ses besoins, d’où une pression de condensation plus basse,
  • car le rendement du moteur du compresseur sera amélioré.
  • Une longévité accrue de l’installation par un fonctionnement plus régulier.
  • Une sécurité d’exploitation.
  • Un gain sur la pointe 1/4 horaire en kW (puissance), facturée par la société de distribution.

En général, on établit les enclenchements en cascade sur base de l’évolution de la pression d’aspiration de la centrale des compresseurs. Le tout est temporisé de telle sorte que les compresseurs ne s’enclenchent pas tous les uns à la suite des autres.

La variation de vitesse du compresseur

Centrale positive avec variateur de vitesse des compresseurs.
(Source : Carrefour Mons).

C’est une autre solution avantageuse en plein développement : soit un moteur d’entraînement à deux vitesses, soit un entraînement à vitesse variable. Cette dernière technique est sans aucun doute à recommander actuellement.
Le régime de vitesse s’adapte à la puissance de réfrigération souhaitée.
Par exemple, un variateur de fréquence génère une tension dont la fréquence varie entre 20 et 60 Hz. S’il s’agit d’un moteur prévu pour fonctionner à 1 500 tours à 50 Hz, il tournera entre 600 et 1 800 tours/min selon les besoins.
Pourquoi la limitation à 20 Hz ? Un défaut de lubrification du compresseur peut apparaît à basse vitesse, mais les constructeurs améliorent les systèmes régulièrement et trouvent des solutions.
Cette technique de variation de puissance par la variation de vitesse du compresseur (encore appelée INVERTER) entraine :

  • Un meilleur respect des températures de conservation des denrées (bonne stabilité de la température à l’évaporateur, car régulation de la pression à l’aspiration du compresseur).
  • Un rendement énergétique supérieur aux autres techniques de régulation de puissance, car on ne détruit pas le rendement volumétrique, on givre moins (en chambre frigorifique), on limite les dépassements de consigne de régulation propre aux systèmes de régulation tout ou rien (liés au différentiel de régulation).
  • Une réduction du bruit et des vibrations.
  • Un cos phi élevé (entre 0,95 et 0,98), ce qui permet d’éviter des pénalités ou le placement de condensateurs de compensation.

Audit

Pour comprendre la facture électrique, cliquez ici !

Gérer

Pour comprendre le placement de condensateurs de compensation, cliquez ici !

Le supplément de coût (si un compresseur coûte 100, sa version avec variateur de vitesse tournera entre 150 et 180) sera rapidement amorti par l’économie d’exploitation. Il ne sera plus nécessaire de prévoir un démarrage étoile-triangle » puisqu’un démarrage « en douceur » est réalisé par le variateur.
A priori, les différents types de compresseurs peuvent être équipés de cette technique (excepté les petits compresseurs hermétiques), mais s’il s’agit de greffer un variateur sur un matériel existant, une consultation préalable du fabricant sera bienvenue (risque de défaut de lubrification).
Cette technique est également intéressante pour les compresseurs à vis (énergétiquement plus efficace que la régulation par tiroir), mais des troubles de lubrification et un échauffement du moteur peuvent apparaître à vitesse réduite.

La mise à l’arrêt de cylindres

Méthode assez répandue parmi les techniques de découpage de la puissance, il est possible de jouer avec la mise hors service des cylindres (ce qui peut s’adapter sur une installation existante).
Avantage :

  • pour éviter les pointes de courant de démarrage, il est possible de démarrer à vide le compresseur.

Inconvénients :

  • Ce réglage est énergétiquement moins favorable; les cylindres tournant à vide ont pour conséquence que, pour une puissance de réfrigération de 50 %, par exemple, la machine absorbe encore environ 65 % de la puissance d’entraînement.
  • La variation de la puissance n’est pas continue (sauts de puissance).
  • L’usure de la machine est pratiquement identique à vide ou en charge.

L’obturation de l’orifice d’aspiration

À cet égard, le réglage par un étranglement dans la conduite d’aspiration n’est pas meilleur. On modifie alors la puissance de réfrigération en agissant sur le débit du réfrigérant.

L’injection des gaz chauds

Quant au réglage de la puissance du compresseur par injection des gaz chauds dans l’évaporateur ou à l’entrée du compresseur, il faut le qualifier de « pur gaspillage d’énergie ». Dans ce cas, la puissance absorbée reste la même lorsque la puissance de réfrigération diminue. De plus, ils provoquent un échauffement du moteur. Dans la mesure du possible, il faut mettre ce système aberrant hors service dans les installations existantes.
C’est le compresseur qui travaille sur lui-même. On pourrait tenter l’image suivante : une pompe remonte de l’eau de la cave vers le rez-de-chaussée. Si l’eau vient à manquer, on risque de faire caviter la pompe. Aussi, on décider de redescendre de l’eau vers la cave, de réinjecter de l’eau supplémentaire à l’entrée de la pompe. Ainsi, on est sûr que le débit de la pompe restera suffisant !

(A ne pas confondre avec le dégivrage par injection de gaz chauds, qui est par contre une technique très efficace de dégivrage).

Tableau synthèse de sélection

L’importance d’une mesure préalable !

La mise en place d’une régulation performante demande de connaître la puissance effective nécessaire en fonction des saisons. Aussi, si le choix d’un compresseur doit être fait en vue du remplacement d’une machine existante, on placera un simple compteur horaire sur l’alimentation électrique du compresseur actuel pour ainsi connaître son temps de fonctionnement et donc la puissance moyenne demandée. Cela permettra de mieux choisir la nouvelle machine frigorifique.

Si l’installation doit vaincre les apports d’une machine spécifique à enclenchement discontinu, la puissance moyenne peut être trompeuse : à certains moments, c’est la puissance totale qui est demandée, et zéro le reste du temps… Idéalement, on enregistrera la puissance demandée, en relevant en parallèle la source des apports thermiques.

Le tableau de synthèse ci-dessous se base sur l’analyse des catalogues des constructeurs de référence en matière de froid alimentaire positif et négatif. Les compresseurs repris sont les plus couramment rencontrés dans les commerces. Mais on notera que pour la plupart des installations actuelles, le compresseur à pistons semi-hermétique est largement choisi.

Plages de puissance
(kW frigorifiques)
Régulation adaptée
Compresseur scroll de 1 à 40, …  kW par compresseur
(mais possibilité de puissance supérieure par mise en parallèle de compresseurs)
Modulation de puissance optimale, par variation de la vitesse de rotation ou par mise en « centrale »
Compresseur à piston
Ouvert de…, 2 à 100, …  kW Étanchéité aux fluides frigorigènes insuffisante aujourd’hui
Semi-hermétique de …,2 à 60, ….kW
  • Un compresseur à plusieurs étages
    ou plusieurs compresseurs en cascade (« centrale »)
  • Variation de la vitesse de rotation
Compresseur à vis de …40 à 250 kW Excellente fiabilité et longévité

Modulation de puissance par « tiroirs » très souple, de 100 à 10 %, avec une très faible dégradation du COP par la régulation « par tiroirs », du moins au-dessus de 50 % de la puissance.

Compresseur à pistons
Semi-hermétique bi-étage de …, 6 à 60, … kW Modulation de puissance optimale par mise en centrale

Remarque.

Choisir un compresseur performant, c’est bien. Le placer dans un environnement favorable, c’est mieux. En pratique, on sera très attentif aux assembliers qui proposent
« un échangeur + un compresseur + un échangeur ».

L’ensemble forme une machine frigorifique, certes, mais les pertes de charge liées aux échangeurs sont parfois très élevées pour le compresseur, ce qui augmente fortement sa consommation !
On choisira de préférence une installation globale, montée d’usine et dont le fabricant garantit la performance globale.


Les critères acoustiques

En local technique

C’est le compresseur qui génère le plus de bruit, il est donc toujours préférable de le placer en local technique lorsque l’on dispose d’un espace suffisant, tandis que le condenseur refroidi par air est placé en terrasse. Cette solution est la plus adaptée en ce qui concerne la diminution des nuisances sonores vers l’extérieur du bâtiment.

   

Lorsque les compresseurs sont placés en local technique, ils masquent tous les bruits de détente ou de circulation interne des fluides dans la machine.
Pour diminuer les nuisances acoustiques du compresseur, il faut mettre en place les dispositifs suivants :

  • Mettre un capot acoustique sur la machine.
  • Prévoir une dalle flottante équipée d’isolateurs à ressorts.
  • Placer des plots en élastomère entre la machine et la dalle flottante.

Si le groupe évaporateur/compresseur est implanté au-dessus de locaux occupés, on peut placer un matelas de laine de verre entre la dalle flottante et le socle de propreté de la machine.
N.B. : la suspension antivibratile des compresseurs ne peut ne pas être suffisamment efficace, car les compresseurs sont reliés aux autres éléments de façon rigide. Ainsi, on utilisera des manchettes souples pour relier l’évaporateur aux canalisations du réseau hydraulique.

En terrasse

Si on ne dispose pas d’un local de service, évaporateur, compresseurs et condenseur seront placés en terrasse. Mais, sur le plan acoustique, ce type de disposition est toujours à éviter.
Dans tous les cas, il faudra éloigner au maximum les compresseurs de tous les plaignants potentiels.
Remarquons que l’éloignement de la machine impose des longueurs de canalisations plus importantes, ce qui peut avoir une influence sur le dimensionnement des équipements (collecteurs, pompes, …) et augmenter le coût de l’installation.
Il faudra éviter de placer les compresseurs à proximité de parois qui pourraient augmenter sa directivité vers une zone sensible. Au contraire, il faudra envisager de placer la machine de façon à la cacher derrière un obstacle. Ainsi, en terrasse, on pourra placer la machine derrière la cabine d’ascenseur ou profiter de la présence de l’armoire électrique de la machine, par exemple.
Remarque.
Si la réduction des nuisances acoustiques est un critère important, le placement d’un variateur de vitesse sur le compresseur (qui se justifie déjà pour des raisons énergétiques) est incontournable.
 Certains variateurs peuvent être paramétrés pour « sauter » la(les) gamme(s) de fréquence(s) qui génère(nt) des vibrations du compresseur (fréquences de résonance de la machine). Simplement, il ne s’arrête pas sur ces fréquences critiques.

À titre d’exemple, voici quelques niveaux sonores donnés par un fabricant de groupes refroidisseurs de liquide (pression sonore mesurée à 10 m en champ libre en dBA).

– machines équipées de compresseur scroll hermétique :

Puissance comprise entre 3 et 15 kW : 55 à 86 dBA

– machines équipées de compresseur à piston semi-hermétique :

Puissance comprise entre 6 et 50 kW : 60 à 80 dBA

– machines équipées de compresseur à vis :

Puissance comprise entre 40 et 210 kW : > 60 dBA


Le choix de l’alimentation en « noyé » des évaporateurs

Le choix de l’alimentation en « noyé » des évaporateurs associés à la machine frigorifique permet d’optimiser les performances de l’évaporateur par une augmentation significative de l’effet utile par kg de fluide frigorigène. Pour autant que la conduite d’aspiration soit de courte longueur et bien isolée, la surchauffe est faible. Par conséquent, le débit massique est réduit au minimum et permet d’obtenir des valeurs de performance énergétique meilleures.
Dans la mesure du possible, le placement des machines frigorifiques en hauteur par rapport à l’évaporateur permettra de l’alimenter par gravité. C’est entre autre pour cette raison que les commerces qui disposent d’une puissance frigorifique importante préfèrent placer le local technique accueillant les machines frigorifiques en toiture.

Choisir le ventilateur

 

Ventilateur centrifuge et ventilateur hélicoïde ou axial.

Voici les éléments qui peuvent guider le choix :


Point de fonctionnement et rendement

Le dimensionnement du système de ventilation définit le débit à fournir par le ventilateur et la perte de charge du réseau que celui-ci doit vaincre.

Concevoir

Pour connaitre les paramètres de dimensionnement d’un système, cliquez ici !

Les courbes caractéristiques des ventilateurs donnent, en fonction du débit, la pression dynamique à fournir par le ventilateur pour mettre l’air en vitesse dans le réseau de distribution. Cette pression dynamique ajoutée à la perte de charge du réseau indique la hauteur manométrique du ventilateur.

Hauteur manométrique et débit ainsi déterminés constituent le point de fonctionnement du ventilateur.

Courbes caractéristiques d’un ventilateur centrifuge à aubes inclinées vers l’arrière.
Pour fournir un débit de 8 000 m³/h, le ventilateur délivre une pression dynamique de 45 Pa.
Pour un réseau ayant, avec ce débit une perte de charge de 955 Pa, la hauteur manométrique
du ventilateur est de 1 000 Pa. Pour obtenir ce point de fonctionnement le ventilateur
doit tourner à 1 950 tr/min.
Pour ce point de fonctionnement, son rendement sera de 81 %
et la puissance à l’arbre sera proche de 2,8 kW.

On sélectionne donc d’abord les ventilateurs pouvant délivrer le débit et la perte de charge souhaitée. On sélectionnera ensuite, à partir des courbes caractéristiques, le ventilateur dont la pression dynamique est minimum au débit voulu, de manière à minimiser la hauteur manométrique totale à fournir. En fait, plus le ventilateur a une taille importante pour les performances voulues, plus sa pression dynamique sera faible. Ensuite on repère le ventilateur dont le rendement est maximum au point de fonctionnement.

Le cahier des charges 105 de la Régie des bâtiments impose la pression dynamique maximum et le rendement minimum que doit atteindre le ventilateur choisi à son point de fonctionnement. Ces valeurs sont bien des valeurs minimales et sûrement pas optimales :

Type de ventilateur % de pression dynamique max par rapport à la pression totale
Centrifuge à aubes inclinées vers l’avant. 20 %
Centrifuge à aubes inclinées vers l’arrière. 10 %
Puissance utile Rendement minimum
> 7,5 kW 80 %
7,5 kW >  > 3,5 kW 75 %
3,5 kW >  > 2 kW 70 %

L’Annexe C3 de la PEB exprime elle aussi des exigences quant au rendement des ventilateurs. Elle définit trois classes d’efficacité pour les ventilateurs en fonction de leur puissance spécifique (PSFP) :

PSFP = P/qV [W.m-3.s]

où :

  • P = puissance absorbée au moteur du ventilateur [W]
  • qV = débit nominal à travers le ventilateur en [m³.s-1]

Cette puissance spécifique doit toujours respecter la condition suivante :

PSFP > 1250 [W.m-3.s]

Bien entendu la puissance spécifique et le rendement (au point de fonctionnement nominal) sont liés par la formule suivante :

PSFP = Hm/η [W.m-3.s]

où :

  • Hm est la hauteur manométrique [Pa]
  • η est le rendement nominal [-]

La valeur de 1250 W.m-3.s correspond à la valeur maximale acceptable (la plus défavorable du point de vue énergétique). La catégorie la plus efficace est elle caractérisée par une puissance spécifique inférieure ou égale à 500 W.m-3.s.

Notons que pour les ventilateurs à débit variable, le « 105 » recommande d’envisager 2 points de fonctionnement pour lesquels il faut respecter ces rendements : le débit maximum et 60 % de celui-ci. Pour les installations comprenant un filtre, ces rendements doivent être respectés pour tous les points de fonctionnement compris entre la situation « filtre propre » et la situation « filtre sale ».

Attention, le rendement mentionné ici correspond au seul ventilateur et non à l’entièreté du système qui englobe également la transmission et le moteur.

Exemple.

Un ventilateur doit être sélectionné pour fournir un débit de 1,2 m³/s (4320 m³/h) et une hauteur manométrique de 1 000 Pa

Une recherche dans les catalogues fournit les deux possibilités suivantes  :

  • Le premier ventilateur (aubages recourbés vers l’avant) demande 1,8 kW en fonctionnement nominal, suite à son rendement de 67 %. Prix d’achat : +/- 600 €
  • Le deuxième (aubages recourbés vers l’arrière) ne demande que 1,4 kW pour fournir le même débit sous le même D p, suite au rendement de 84 %,…mais son prix est 40 % plus élevé ! Prix d’achat : +/- 825 €

Ventilateur avec aubages recourbés vers l’avant.   Ventilateur avec aubages recourbés vers l’arrière.

Remarquons que la puissance électrique absorbée par le ventilateur est parfois directement donnée par le constructeur sous forme d’abaque. Elle peut aussi être rapidement calculée par la formule :

Puissance [W] = Débit [m³/s] x Pression [Pa] / Rendement

Réalisons le bilan annuel des consommations :

  • Gain de puissance : 1,8 [kW] – 1,4 [kW] = 0,4 [kW]
  • Économie de consommation : 0,4 [kW] x 24 [h] x 365 [j] x 0,16 [€/kWh] = 560,6 [€/an]
  • Temps de retour de l’investissement : (825 [€] – 600 [€]) / 560,6 [€/an] = 0,4 [an]
  • Bénéfice sur 10 ans de fonctionnement : 10 x 306,6  [€/an] – 275 [€] = 5331 [€] !

Calculs

Pour estimer un peu plus précisément l’impact du rendement du ventilateur sur la consommation de la ventilation, cliquez ici !

Lorsqu’une installation de ventilation est gérée en fonction de la demande

  • Lorsqu’un groupe de ventilation assure la qualité de l’air d’un seul local (salle de conférence, …), la gestion de la ventilation se fera principalement en agissant sur la vitesse du ventilateur. Dans ce cas le rendement de départ du ventilateur sera pratiquement conservé sur toute la plage de réglage.
  • Par contre, lorsqu’un groupe de ventilation alimente plusieurs locaux, le réglage des débits peut se faire en agissant sur l’ouverture des différentes bouches. Dans ce cas, la fermeture de bouches va entraîner le redressement de la courbe caractéristique du circuit. Le point de fonctionnement va se déplacer vers la gauche de la courbe caractéristique du ventilateur. Pour rester le plus longtemps possible dans la zone de rendement maximum, il est conseillé de choisir un ventilateur dont le maximum de rendement se trouve à gauche du point de débit maximum.

Evolution du point de fonctionnement d’un système de ventilation lorsqu’une régulation par étranglement est appliquée.

Remarques.

  1. Les courbes caractéristiques reprises dans les catalogues sont données pour un ventilateur gainé au niveau de l’aspiration et du refoulement. Elles ne correspondent pas, par exemple, à une situation où la pulsion se fait librement dans un local. Dans ce cas, les corrections à apporter doivent être demandées au fabricant. Lorsque l’on installe un ventilateur dans un caisson, ce sont les courbes du ventilateur intégré qu’il faut demander et non celles du ventilateur nu.
  2. Les courbes caractéristiques sont données avec une certaine tolérance d’erreur. Les seuils de tolérance sont donnés par la norme DIN 24166. La plupart des fabricants respectent les tolérances de niveau 2. Certains atteignent le niveau 1. D’autres, à l’inverse, ont un seuil de tolérance de 3 ou 4. Dans ce dernier cas, les fabricants se tiennent bien souvent de le mentionner dans leur documentation. En fonction de la sévérité que l’on veut imposer sur le résultat à obtenir, on peut mentionner dans le cahier des charges de l’installation, le niveau de tolérance souhaité suivant la DIN 24166. 

Aubes recourbées vers l’avant ou vers l’arrière ?

Dans les immeubles tertiaires, on rencontre principalement des ventilateurs centrifuges, soit à aubes recourbées vers l’avant, soit à aubes recourbées vers l’arrière.

1er critère : le rendement

A priori les ventilateurs centrifuges à aubes recourbées vers l’arrière auront un meilleur rendement que les ventilateurs à aubes recourbées vers l’avant, mais ce n’est pas une règle tout à fait générale. Les premiers sont donc à conseiller sauf si un faible encombrement prime sur l’efficacité énergétique. Leur surcoût est très rapidement rentabilisé par la diminution des consommations électriques. Ce surcoût de ventilateur sera généralement minime si on le compare au coût global d’une nouvelle installation de ventilation. Par contre, le gain de rendement qui en résulte est déterminant pour les frais d’exploitation : plus de 50 % de la consommation électrique de la ventilation sont dus aux pertes de l’ensemble moteur-transmission-ventilateur.

Répartition des coûts d’un ventilateur.

Par exemple, pour des raisons d’efficacité énergétique, le cahier des charges 105 de la Régie des bâtiments n’autorise les ventilateurs à aubes inclinées vers l’avant que pour des débits inférieurs à 5 000 m³/h et des hauteurs manométriques inférieures à 600 Pa.

2ème critère : l’allure de la courbe caractéristique

Dans les réseaux à débit constant

Les ventilateurs à aubes recourbées vers l’avant ont une courbe caractéristique plutôt plate, c’est-à-dire que le débit varie fortement pour de faibles variations de pression. À l’inverse, les ventilateurs à aubes recourbées vers l’arrière ont une courbe caractéristique fort penchée. Le débit varie donc peu pour de fortes variations de pression.

Courbe caractéristique d’un ventilateur à aubes recourbées vers l’avant
et à aubes recourbées vers l’arrière, pour un même point de fonctionnement.

En général, il est conseillé d’utiliser des ventilateurs à aubes recourbées vers l’arrière. En effet le débit de ventilation sera plus stable face aux perturbations de pression que l’on rencontre inévitablement (vent, encrassement des filtres, …).

Exemple.

La différence de perte de charge entre un filtre propre et un filtre sale est de l’ordre de 250 PA, la variation de débit entre ces deux situations peut dépasser 25 % dans la cas d’un ventilateur à action. Elle peut être inférieure à 10 % si on se trouve dans la partie descendante de la courbe d’un ventilateur à réaction.

Les ventilateurs à aubes arrières sont donc indispensables pour la ventilation de locaux ou un débit stable est important comme les salles blanches avec flux laminaire.

Dans les réseaux à débit variable

Avec une gestion des débits local par local dans un système de ventilation multizone, la fermeture de certaines bouches entraîne une augmentation de la pression dans le réseau de distribution et donc aussi une augmentation du débit et du bruit au niveau des bouches restées ouvertes. Dans certains cas

  • Soit en choisissant un ventilateur à aubes recourbées vers l’avant. Ceux-ci ayant une courbe caractéristique plutôt plate, ils permettent donc le maintien d’une pression plus ou moins constante lorsque l’on fait varier le débit, par exemple par fermeture de certaines bouches du réseau de distribution.
  • Soit en choisissant un ventilateur à aubes recourbées vers l’arrière associé à une variation de vitesse, maintenant une pression constante en un point du réseau.

Gestion du débit dans un réseau de ventilation,
soit avec ventilateur à action,
soit avec ventilateur à réaction et maintien de la pression en tête de réseau.

Il faut alors comparer le surcoût d’un ventilateur à aubage arrière et d’une variation de vitesse avec l’économie énergétique réalisée en choisissant un ventilateur à aubage arrière par rapport à un ventilateur à aubage avant.

Dans les systèmes de ventilation unizone, où on prévoit une régulation du débit par étranglement, solution par ailleurs peu recommandée, l’utilisation d’un ventilateur à aubes avant permet de grandes variations de débit avec des faibles mouvements du registre. À l’inverse, il arrive que l’utilisation d’un registre d’étranglement n’ait que peu d’impact sur le débit d’un ventilateur à aubes arrières.


Mode d’entraînement du ventilateur

Rendement global

Le rendement du ventilateur est une chose, il faut cependant aussi être attentif au rendement de l’ensemble formé par le ventilateur, son entraînement (moteur et transmission).

Pour comparer deux solutions de ventilateur, on peut demander à chaque fournisseur la puissance électrique absorbée par le moteur pour obtenir le débit et la hauteur manométrique voulus, le rendement étant égal à :

Rendement = Débit [m³/s] x Hauteur manométrique [Pa] / Puissance électrique [W]

Pour se faire une idée de la qualité des solutions, on peut comparer le rendement proposé aux valeurs minimum imposées en Suisse par la SIA (Société suisse des ingénieurs et architectes). Pour les installations dites très performantes, on peut dépasser ces valeurs de 5 %.

Rendement préconisé par SIA.

Transmission

La meilleure transmission est sans conteste la transmission directe car ses pertes sont moindres (2 à 5 %) et il n’y a pas de frais d’installation de poulies et courroies, pas de surveillance, pas de remplacement de courroies. L’encombrement du système est de plus nettement moindre ce qui n’est pas négligeable dans le cas de groupes monoblocs.

Cela nécessite bien entendu un système de remplacement pour adapter la vitesse de rotation, comme un convertisseur de fréquence, ce qu’on verra de plus en plus, vu la démocratisation de ce genre d’appareil. Le convertisseur a l’avantage qu’à tout moment on peut régler une vitesse intermédiaire, le démarrage est doux et il permet directement une surveillance totale du moteur. Son coût reste cependant élevé dans le cas de puissance électrique importante. Attention, un réglage du débit par étranglement, souvent appliqué, est à déconseillé pour des raisons de surconsommation.

À l’inverse, si de toute façon, pour des raisons de gestion du débit à la demande, l’installation est équipée d’un convertisseur de fréquence, autant alors opter pour une transmission directe plutôt qu’une transmission par courroies ayant un moins bon rendement.

Lorsque l’on opte pour une transmission par courroies, il faut prendre des poulies aussi grandes que possible. Une grande poulie diminue l’usure de la courroie lorsqu’elle doit se tordre pour s’enrouler autour de la poulie. Elle permet en outre de transmettre plus de force qu’une petite poulie. Le choix de petites poulies n’est justifié par certains fabricants que par leur prix inférieur.

Il faut en outre éviter les courroies multiples. Il vaut mieux peu de courroies avec des grandes poulies que des petites poulies avec plus de courroies. Souvent, les fabricants prévoient des courroies multiples à cause de l’effort au démarrage. Avec les systèmes modernes de démarrage  en douceur (convertisseurs), on peut réduire le nombre de courroies.

Il faut éviter les courroies de section trop faibles (SPZ), elles sont facilement surchargées et s’usent rapidement. Pour diminuer l’usure et la saleté dégagée par les courroies (poussière noire collante), il est possible d’utiliser des courroies trapézoïdales crantées, qui durent beaucoup plus longtemps (elles se plient mieux au moment de l’enroulement dans la poulie), mais qui sont bien évidemment plus chères, il s’agit des types XP… au lieu de SP…

Moteur

Les moteurs qui équipe la plupart des ventilateurs actuels sont des moteurs asynchrones. Ces derniers ne présentent pas entre eux de grandes différences de rendement. Depuis peu, sont apparus sur le marché, des moteurs à courant continu. Ces derniers présentent des rendements nettement supérieurs. Actuellement, du fait de leur production à faible échelle, les moteurs à courant continu sont plus chers que leurs homologues asynchrones. Par exemple, le coût supplémentaire d’un ventilateur domestique à courant continu est de l’ordre de 100 €. L’amortissement de ce surcoût peut être estimé en moyenne à 4 ans.

Le rendement élevé, la faible usure et les possibilités de réglage font des moteurs à courant continu une solution d’avenir pour l’entraînement des ventilateurs.


Intégration du ventilateur dans le réseau

L’intégration du ventilateur dans le circuit joue un rôle non négligeable sur le rendement global de l’installation.

Sortie du ventilateur

Il est très important de concevoir les entrées et les sorties d’air du ventilateur afin d’avoir un flux d’air le plus stable possible.

On évitera ainsi de placer un coude ou un piquage à une distance inférieure à deux fois le diamètre de la roue du ventilateur.

La section de sortie du ventilateur doit être le plus possible adaptée à la section du conduit de distribution. L’idéal est le ventilateur hélicoïde débitant dans un conduit de même section que son diamètre. En effet, dans ce cas la veine d’air garde une direction constante.

Pour minimiser les pertes, la section du raccord doit être comprise entre 87,5 % et 107,5 % de la section de sortie du ventilateur et l’angle du raccord ne peut dépasser 15° pour un convergent et 7° pour un divergent. Idéalement, cette pièce de transformation doit être placée à une distance du ventilateur supérieure à deux fois le diamètre de sa roue.

Exemple.

Voici trois exemples de ventilateur débitant dans un même circuit. On voit la hauteur manométrique (image de la puissance absorbée) nettement plus importante que doit avoir un ventilateur dont l’orifice de refoulement est trop petit par rapport à la section du conduit, même lorsqu’on l’équipe d’un divergent de longueur correcte.

La surconsommation du troisième cas par rapport au premier est de 11 %.

Dans le même ordre d’idées, il est préférable de raccorder le ventilateur directement au gainage de distribution plutôt que de laisser la sortie de ce dernier libre dans le caisson du groupe. En effet, dans ce dernier cas, la pression dynamique disponible à la sortie du ventilateur (dépendant de la vitesse du fluide) est totalement perdue et non transformée en pression statique, à cause de l’absence de contraction des veines d’air lorsque celles-ci débouchent dans le plenum du caisson. Cette perte de pression dynamique constitue une perte de charge supplémentaire du caisson, correspondant à une surconsommation.

Exemple.

Comparaison de l’évolution de la pression dans un caisson de ventilation monobloc,
sortie libre dans le caisson et sortie raccordée au gainage.

Il faut en outre prévoir à la sortie du ventilateur une section de gaine droite suffisamment longue avant le premier changement de direction (au moins deux fois le diamètre de la roue du ventilateur). En effet, le fonctionnement du ventilateur sera perturbé si un changement de direction intervient alors que le flux d’air sortant du ventilateur n’est pas encore homogénéisé.

Profilfluxair.gif (2796 octets)

Evolution du flux d’air à la sortie d’un ventilateur.

Aspiration du ventilateur

Les conditions d’entrée du ventilateur jouent un rôle encore plus important sur ses performances.

La situation idéale est l’introduction d’air dans le sens de l’axe de rotation de la roue, de façon uniforme et sans turbulence.

Si les turbulences rotatives à l’entrée sont dirigées dans le sens de rotation de la roue, cela réduit la puissance de sortie et le rendement du ventilateur. Lorsque la turbulence est dirigée dans le sens inverse du sens de rotation de la roue, la puissance du ventilateur n’est peut-être pas réduite, mais celui-ci consomme plus d’électricité.

Exemples.

Ventilateurs avec gainage à l’aspiration (ventilateurs d’extraction).

  

Turbulence prérotative et turbulence prérotative corrigée.

 

Turbulence contre-rotative et turbulence contre-rotative corrigée.

Si l’ouïe d’aspiration du ventilateur et le gainage sont de sections différentes, la section du raccord doit être comprise entre 92,5 % et 112,5 % de la section d’entrée du ventilateur et l’angle du raccord ne peut dépasser 15° pour un convergent vers l’ouïe et 7° pour un divergent.

Lorsque l’ouïe d’aspiration d’un ventilateur est placée le long d’une paroi plane, il faut veiller à ce que la distance à la paroi soit au moins égale au diamètre d’entrée pour éviter la création d’une perturbation de la veine d’air aspiré.


Acoustique

Le bruit des ventilateurs peut avoir diverses origines mécaniques ou aérauliques (les bruits de type aéraulique sont généralement les plus importants) :

  • le bruit de ronflement du moteur qui entraîne le ventilateur
  • le bruit de la transmission mécanique au niveau des accouplements
  • le bruit de crissement des courroies au démarrage
  • le bruit des roulements et des paliers
  • le bruit de balourd résultant d’un mauvais équilibrage du ventilateur
  • le bruit de frottement de l’écoulement turbulent de l’air sur les pales du ventilateur et les parties fixes du ventilateur (carcasse,… )
  • le bruit du ventilateur servant à refroidir le moteur du ventilateur.

Comment connaître le bruit que fera le ventilateur ?

Pour comparer la production de bruit de plusieurs ventilateurs, il faut comparer leur puissance acoustique. Comparer les niveaux de pression sonore est inutile car cette grandeur dépend des conditions de mesure qui sont différentes chez tous les fournisseurs.

La puissance acoustique LW du ventilateur est reprise dans les courbes caractéristiques présentes dans les catalogues des fournisseurs. Il faut cependant vérifier l’endroit du ventilateur où a été prise la mesure (gaine de refoulement, aspiration, …).

Notons qu’un ventilateur qui fonctionne dans des conditions proches de son rendement maximum sera le plus silencieux.

Exemple.

Courbes caractéristiques d’un ventilateur.

 Le bruit du ventilateur, un critère de choix important ?

La puissance acoustique du ventilateur est un critère de choix déterminant chaque fois que le ventilateur est en communication directe avec l’ambiance : extracteur d’air visible depuis le local, ventilateur d’aérotherme, ventilo-convecteur, etc…

Photo tourelle d'extraction.   Photo, vue éclatée de tourelle d'extraction.

Tourelles d’extraction d’air en toiture. Dans la vue éclatée, on reconnaît les pales du ventilateur en partie supérieure, posé sur un caisson acoustique pour absorber le sifflement créé par le frottement des pales sur l’air.

Si, par contre, un réseau d’air est installé entre le ventilateur et les locaux, la situation est moins critique : des réflexions internes de l’onde acoustique ont lieu, la gaine absorbe en partie le bruit (surtout les hautes fréquences) et la pose d’absorbants supplémentaires est possible (silencieux, …). Ainsi, on diminue fortement le bruit d’un climatiseur de local en le plaçant dans un local annexe et en lui raccordant une gaine de distribution.

Par exemple, pour ventiler un grand espace, la première situation va imposer le placement d’un silencieux. La deuxième situation est moins critique et donc le critère acoustique devient moins important dans le choix du ventilateur.

Principe de l'absorbeur acoustique.

Un silencieux est obligatoire.

Un silencieux peut parfois être évité grâce à l’absorption et à la réflexion dans les conduits.

Calculs

Exemple de calcul acoustique d’une installation de ventilation : cliquez ici !

À noter cependant que la présence d’un silencieux va augmenter la perte de charges du réseau et donc la consommation du ventilateur durant toute la durée de vie de l’installation. Un bilan financier doit comparer le coût d’investissement d’un ventilateur de faible niveau sonore, avec celui d’un équipement plus bruyant complété d’un silencieux pour lequel il faut compter une consommation complémentaire …

Un niveau sonore lié à la hauteur manométrique

Si le niveau de puissance sonore n’est pas mentionné sur la documentation technique du fabricant, il peut être déduit de la formule de Beranek :

L= 37 + 10 log q+ 20 log (Δp)      [dB]

où,

  • q= le débit volumique en m³/s.
  • Δp = la hauteur manométrique totale en PA.
  • L= le niveau global de puissance sonore du ventilateur en dB.

Cette formule s’applique aux ventilateurs dont le rendement minimal est de 70 %. Il faut ajouter 4 dB à chaque baisse de 10 % du rendement.

Cette formule fournit une valeur moyenne très approximative.

Elle permet cependant de mettre en évidence le niveau de bruit élevé des installations « haute pression ». Si, pour des raisons d’encombrement de gaines, il est décidé de réaliser un réseau à haute vitesse et haute pression, une étude acoustique préalable sérieuse s’impose.

Choisir un ventilateur à haut rendement et basse vitesse

La production de bruit d’un ventilateur est:

  • inversement proportionnelle à son rendement
  • proportionnel à sa vitesse

On a donc aussi tout intérêt, pour limiter la puissance sonore du ventilateur, à choisir le ventilateur ayant le meilleur rendement au point de fonctionnement. En fait, plus un ventilateur crée des turbulences, plus son rendement se dégrade, et plus il crée du bruit. À rendement égal, le ventilateur tournant le moins vite (c’est-à-dire le plus grand, si on compare 2 ventilateurs ayant le même type de roue), sera le plus silencieux.

Ceci a également pour conséquence une diminution de la taille de l’éventuel silencieux dont peut être équipé l’installation.

Bien choisir l’implantation du local technique ou de l’extracteur

Local technique

Le local technique est un local bruyant (… NR 75 …). Il faut tout d’abord veiller à confiner le bruit à sa source, par exemple en utilisant des caissons de traitement d’air à doubles parois. Les caractéristiques acoustiques de ces derniers peuvent être ajustées en jouant sur l’épaisseur des tôles et l’épaisseur de l’isolant intérieur. Ensuite, on essayera de limiter la transmission du bruit vers les locaux adjacents, principalement si ces derniers sont des locaux de travail.

Le local technique (où sera installé le ventilateur) sera placé de préférence sous les pièces de service, des circulations communes,… et non sous un local où le niveau sonore doit être limité. Latéralement, des espaces intermédiaires peuvent être prévus (couloirs, locaux de stockage, …).

Lorsque les locaux techniques ne peuvent être implantés qu’à proximité de locaux sensibles, les murs mitoyens doivent être de structure suffisamment lourde pour respecter l’objectif acoustique imposé dans les locaux sensibles. Il en va de même pour la dalle. L’indice d’affaiblissement des parois dépend du spectre du bruit des équipements installés dans les locaux techniques.

Si nécessaire, la pose de matériaux absorbants sur les parois du local technique permettra de limiter la réflexion des sons dans le local. De ce fait, le bruit global sera diminué puisqu’il n’y aura plus addition entre « le nouveau » bruit produit et « l’ancien » bruit réfléchi. À noter que les caractéristiques d’absorption des matériaux doivent être adaptées aux fréquences émises par les équipements.

Cette amélioration ne sera que partielle; ainsi, doubler la surface équivalente d’absorption dans le local ne diminue le niveau sonore que de 3 dB. Si le problème acoustique est limité à une seule paroi de contact, c’est d’abord celle-ci que l’on traitera (paroi très lourde ou paroi double avec effet masse-ressort-masse).

La taille du local technique joue également un rôle important en acoustique. En effet, un local trop exigu rendra difficile le positionnement des équipements et notamment des silencieux, capots, isolation acoustique des parois.

Portes d’entrée et d’accès pour le matériel

Les portes d’entrée au local technique peuvent constituer un pont acoustique important si aucune précaution n’est prise lors de leur choix : portes acoustiques, porte à doubles battants avec montant central fixe mais amovible, sas constitué de deux portes en enfilade et éventuellement équipé de matériau absorbant.

Pour pouvoir rénover ultérieurement le matériel technique, une accessibilité du local suffisamment importante doit être assurée. Elle ne sera utilisée que lors du montage et du remplacement des équipements. Pour éviter le placement de grandes portes acoustiques, on peut aussi poser des « murs fusibles », c’est-à-dire des murs qu’il est possible de démolir, plutôt que de prévoir des portes acoustiques de grande dimension.

Conduits

Les conduits constituent des ponts phoniques importants… à éviter si possible (ne pas les faire passer par les locaux techniques).

Garage collectif

On sera particulièrement attentif au groupe de ventilation d’un garage où un volume suffisant doit être prévu pour y placer un silencieux.

Extracteur extérieur

Ils doivent être placés le plus loin possibles des pièces de travail, et tout particulièrement de leurs fenêtres ! En fonction des règlements locaux en matière d’émission de bruit vers le voisinage, un traitement acoustique de l’extraction doit être prévu (silencieux, …).

Couper la transmission du bruit vers les supports

Pour réduire la propagation des vibrations des ventilateurs à la structure du bâtiment, on insère sous son socle des supports élastiques antivibratiles de manière à réaliser une dalle flottante.

Photo de supports élastiques antivibratiles.

L’ensemble « équipement-support » constitue un système « masse-ressort », soumis aux lois de la mécanique des vibrations, et disposant dès lors d’une fréquence propre.

Pour dimensionner correctement les plots antivibratiles, il faut connaître

  • la masse de l’équipement et sa répartition,
  • la fréquence excitatrice liée à la vitesse de rotation du moteur et du ventilateur.

Pour une bonne efficacité, la fréquence propre du système antivibratile doit être 3 à 4 fois inférieure à la fréquence excitatrice.

Exemple.

Un ventilateur tournant à une vitesse de rotation de 1 500 tours/minute provoque des vibrations de 25 Hz (puisque rotation de 25 tours/seconde). Les plots devront être calculés sur une fréquence propre de 6 à 8 Hz.

En pratique, on rencontre :

  • Des ressorts, utilisés pour toutes les fréquences propres mais surtout lorsqu’elles sont  inférieures à 8 Hz.
  • Des plots à base de poudre de liège mélangée à un élastomère, pour des fréquences propres supérieures à 8 Hz.
  • Des plots à base d’élastomères, pour les fréquences propres supérieures à 12 Hz.
  • Un système de « dalle flottante », c’est-à-dire la construction d’un socle de béton (sous l’équipement ou sur tout le local) sur un matelas de laine minérale ou de mousse plastique souple, pour les fréquences propres moyennes ou aigües.

Ce dernier système de dalle flottante est assez difficile à réaliser puisqu’en aucun endroit il ne peut y avoir de contact (raccords de mur, écoulement de sols, tuyauteries, conduits, …). Devant la nécessité d’exercer un contrôle quasi permanent durant les travaux, on préfère parfois la technique des éléments antivibratiles…! Ou alors un contrôle de la qualité acoustique de la dalle est imposé à la fin des travaux.

En général, il sera fait appel à un spécialiste de cette question pour le dimensionnement correct des plots.

À noter l’importance de réaliser des raccordements souples des gaines et des canalisations à la machine qui vibre, afin d’éviter non seulement la transmission des vibrations, mais également le risque de rupture.


Encombrement

Parfois des impératifs de place peuvent imposer le choix d’un ventilateur plus petit mais tournant à plus grande vitesse. Ce critère de choix va cependant à l’encontre des critères précédents. Pour un même point de fonctionnement, un ventilateur plus petit aura un plus mauvais rendement et produira plus de bruit.

Le ventilateur plus petit coûte évidemment moins cher à l’investissement, mais la surconsommation électrique qu’il engendre fait vite oublier ce bénéfice.

Ventilation [ Concevoir l’avant projet ]

Ventilation


Organiser une ventilation permanente des bâtiments

En ventilation naturelle, il peut paraître curieux de placer des joints pour étanchéifier les châssis et, simultanément, de placer des grilles de ventilation dans le même châssis ! Et pourtant, c’est correct. Toute la différence tient dans ce qu’on ne maîtrise pas le débit d’air qui passe dans les joints et que l’on maîtrise le débit qui passe dans la grille…

Dans le bâtiment-passoire de papa, toute la chaleur s’échappait la nuit et le WE par les inétanchéités.

La Citroën 2CV était sympathique, avec une ventilation naturelle extraordinaire, … mais on ne la vend plus aujourd’hui.

Le maintien de la qualité de l’air intérieur est aussi fondamental aujourd’hui que la réalisation du confort thermique. L’organisation d’une ventilation permanente, qu’elle soit naturelle ou mécanique, est un objectif logique, en plus que d’être une obligation réglementaire.

On y sera d’autant plus attentif dans les bâtiments scolaires où la tradition n’existe pas.


Privilégier la ventilation mécanique ?

Le chauffage de l’air neuf hygiénique représente près de la moitié de la consommation de chauffage d’un bâtiment isolé. Pour diminuer ce poste, le choix du système de ventilation n’est pas neutre.

En pratique, si on excepte le système B peu répandu, la norme propose 3 systèmes de ventilation, représentés ci-dessous de façon simplifiée dans le cas d’un immeuble d’hébergement :

Système A
(ou ventilation naturelle).
Amenée d’air naturelle

Évacuation d’air naturelle

 

Système C
(ou simple flux avec extraction mécanique).

Amenée d’air naturelle

Évacuation d’air mécanique

 

Système D
(ou double flux).

Amenée d’air mécanique

Évacuation d’air mécanique

 

L’investissement minimal, le souci d’éviter le bruit et le coût d’exploitation des ventilateurs, … feraient pencher pour le système A. Mais ce système est celui qui génère la plus grande consommation énergétique puisque le débit d’air est permanent et que l’on imagine difficilement que l’on va fermer les grilles lorsque l’occupant est absent.

Tout au contraire, le système D peut être arrêté la nuit et le WE (soit les 2/3 du temps) et une récupération de chaleur peut être réalisée sur l’air extrait (récupération de 50 % de la consommation). Dès lors, le chauffage de l’air de ventilation via un système D (muni d’un récupérateur de chaleur) chute donc au sixième de celui du système A ! Mais c’est le plus cher à l’investissement…

Le système C est sans doute un compromis : l’arrêt des extracteurs limite l’entrée d’air en dehors des périodes d’occupation.

À première vue, le système D est optimal pour un immeuble de bureaux.

Le système A est possible en théorie, en pratique c’est un système quasi irréalisable et de façon générale peu recommandable.

Ce choix n’est pas neutre sur la conception du bâtiment, dès la phase d’avant-projet. Notamment suite aux interactions avec la climatisation éventuelle.

Concevoir

Pour plus d’informations sur le choix des systèmes de ventilation.

Surdimensionner (pour une fois !) les conduits d’air

À débit transporté égal, si la section d’un conduit d’air double, la vitesse diminue de moitié… et la puissance du ventilateur est diminuée par 8 !

Il faut le prévoir dès l’avant-projet pour réserver des espaces techniques suffisants (encombrement des conduits) et des trajectoires rectilignes (le moins de coudes possible).

En général c’est le contraire qui se produit : le bureau d’études est obligé de travailler à haute vitesse pour faire passer le débit d’air dans les petites sections tortueuses.

Et du bruit sera inévitablement entendu. À moins que des baffles acoustiques soient placés. Mais ces baffles augmentent fortement la perte de charge (= le frein) du conduit et donc la consommation du ventilateur…

Et puis, la consommation du ventilateur 8 x trop importante va se libérer en chaleur dans l’air transporté. Si l’air doit rafraîchir les locaux, il faudra augmenter d’autant l’énergie frigorifique pour combattre cet apport de chaleur…

L’ingénieur dirait : « posez les larges conduites d’abord et construisez le bâtiment autour ! ». Bon, cette caricature ne va pas motiver l’architecte…! Mais quand même, pourquoi ne pas tenter une « conception douce » des équipements ?

Concevoir

Pour plus d’informations sur le choix des réseaux de ventilation.

Réguler en fonction des besoins réels

On a déjà attiré l’attention sur l’intérêt de la ventilation mécanique, permettant une programmation horaire générale. Mais si en plus, chaque local (ou zone de locaux) à occupation variable est équipé d’une régulation indépendante, il est possible d’en moduler l’apport d’air frais hygiénique. Par exemple, la ventilation d’une salle de réunion peut être gérée en fonction de la lecture d’une sonde de présence ou d’une sonde CO2 traduisant la présence effective d’occupants.

À noter dans cette même logique de débit d’air contrôlé : un sas sera prévu à l’entrée du bâtiment. C’est d’autant plus important si le bâtiment est conditionné, car les locaux seront mis en surpression.

Concevoir

Pour plus d’informations sur les techniques de régulation de la ventilation.

Sélectionner des bouches fonctionnant à basse température

Pour éviter l’inconfort, l’air hygiénique est souvent préchauffé à 20°C en centrale avant d’être pulsé dans les locaux.

Or, imaginons une température extérieure de 13°C. Si le bâtiment est conditionné, dans beaucoup de locaux, le refroidissement est déjà enclenché.

On assiste alors à un gaspillage énergétique : l’air extérieur est chauffé de 13 à 20°C… et du froid est apporté dans les locaux.

Le concepteur doit sélectionner des bouches qui permettent de pulser de l’air à 14…15°C dans le local, sans inconfort.
Il se tournera, par exemple, vers des diffuseurs à jet hélicoïdal qui favorisent pour un même débit, un brassage plus rapide entre l’air ambiant et l’air pulsé.

 

Si la climatisation n’est pas présente, la possibilité de pulser de l’air frais limitera le risque de surchauffe en mi-saison.

Concevoir

Pour plus d’informations sur le choix des bouches de ventilation.

Découvrez ces quelques exemples de systèmes optimisés de ventilation : l’antenne communale de Louvain-la-Neuve, le bâtiment PROBE du CSTC ou encore l’école TANGA.

Chambres d’hôtel

Chambres d'hôtel


Analyse de la demande

La spécificité des chambres d’hôtel ou d’hôpital apparaît comme suit :

  • un découpage en nombreux locaux indépendants,
  • une demande très variable entre les locaux, suite à une occupation variable et à une localisation sur des façades différentes,
  • le souhait de l’occupant de pouvoir intervenir sur la consigne intérieure,
  • le souci du gérant de limiter la consommation d’une chambre non occupée.

Et les exigences acoustiques sont particulièrement sévères. La norme européenne EN 13779: 2004 propose trois niveaux de confort acoustique à respecter dans les locaux (minimum – par défaut- minimum) :

Type de bâtiment

type de local dB(A)
Hôtels couloir 35/40/45
salon de réception 35/40/45
chambre d’hôtel (nuit) 25/30/35
chambre d’hôtel (jour) 25/35/40

Évaluer

Pour en savoir plus sur l’ évaluation du niveau de bruit.

Choix du système de conditionnement d’air

Remarque préliminaire

Il serait prétentieux de prétendre énoncer en quelques lignes tous les critères constituant la démarche conceptuelle qui conduit au choix d’un système de climatisation d’un immeuble.

La solution résulte en effet de la concertation étroite entre le Maître de l’Ouvrage, l’Architecte, l’Ingénieur de bureau d’études et tous les partenaires qui forment l’équipe de projet. Cette concertation se situe à la fin de la phase d’avant-projet de l’étude du bâtiment et résulte du meilleur compromis entre critères parfois contradictoires :

  • coût d’investissement et d’exploitation,
  • optimalisation de l’usage des surfaces,
  • mobilité aux variations de programme,
  • esthétique externe et interne (le bâtiment doit être beau à voir et à vivre !),
  • confort au sens large (climatique, acoustique, visuel,…),
  • etc…

À noter qu’au plus tôt se constitue cette équipe de projet, plus l’ensemble des contraintes sera pris en considération à temps.

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux habituels et l’ébauche de solutions classiques mais nullement « passe-partout :

1° Choix d’un système « tout air »

Un système « tout air » paraît exclu :

  • peu de souplesse d’exploitation s’il est à débit constant,
  • consommation élevée du transport de l’air,
  • impossibilité de recycler l’air venant des chambres, et donc consommation élevée du fonctionnement en tout air neuf,

En fait, le besoin en air neuf des chambres est faible si on le rapporte aux m² utilisés. Un système où l’air serait le vecteur des apports de chaleur et de froid ne semble donc pas se justifier ici.

Si ce système est malgré tout retenu (avec une batterie terminale de réchauffage pour chaque chambre), il est essentiel de prévoir une batterie de récupération de chaleur entre l’air extrait et l’air pulsé, au risque d’alourdir encore le coût d’investissement puisque les conduits d’extraction devront au minimum être raccordés entre eux pour placer le récupérateur dans le tronçon commun.

2° Choix d’une solution décentralisée

Photo unité de climatisation autonome, intérieure.

Parmi les systèmes à « détente directe », il est possible d’envisager des unités de climatisation autonomes placées dans chacune des pièces (windows, splits,…), mais l’esthétique douteuse, les coûts de maintenance élevés, le niveau de bruit généré par la mise en vibration de la façade, l’absence de régulation centrale, … rendent ce choix peu adéquat. Tout au plus pourrait-on l’admettre en rénovation de quelques locaux orientés en façade Sud-Ouest ou Ouest.

Photo unité de climatisation autonome, extérieure.Photo unité de climatisation autonome, extérieure.

A noter qu’il est possible d’éviter la présence de multiples condenseurs à air en façade :

  • Soit en plaçant des condenseurs à eau et en refroidissant l’eau en toiture dans une tour de refroidissement. Mais alors l’investissement paraît similaire au placement d’une boucle d’eau glacée et de ventilo-convecteurs, pour un confort acoustique moindre puisque chaque chambre comportera un compresseur…
  • Soit en plaçant des condenseurs à eau perdue (eau de ville rejetée à l’égout) mais cette solution est tout à fait à déconseiller suite à la forte consommation d’eau qu’elle entraîne. Elle risque d’ailleurs d’être interdite si le bâtiment fait l’objet d’un permis d’environnement (ce serait refusé par l’IBGE à Bruxelles, par exemple).

 3° choix d’une solution par ventilo-convecteurs

Photo ventilo-convecteur.

La solution classiquement adoptée est d’installer deux boucles d’eau (eau chaude et eau glacée) entre tous les locaux, avec comme unité terminale un ventilo-convecteur dans chaque chambre. On rencontre le ventilo soit monté en allège de fenêtre, soit placé en soffite (généralement au dessus du petit couloir qui longe la salle de bain : l’air est repris dans le ventilo qui le souffle dans la chambre).

Schéma principe ventilo-convection.

Les avantages du ventilo-convecteur sont nombreux :

  • Une autonomie de fonctionnement local par local, tant en ce qui concerne la mise en service que le réglage individuel de la température.
  • Une rapidité de remise en température du local grâce au transfert thermique par convection.
  • Un fonctionnement thermique en recyclage local, qui permet d’éviter la pollution (la contamination dans le cas d’un hôpital) d’une chambre à l’autre.
  • La liberté pour chaque occupant de démarrer ou d’arrêter l’unité de sa chambre à sa guise et de choisir la vitesse du ventilateur qui lui convient.
  • Un prix d’investissement limité grâce à un équipement fabriqué en grande série.
  • A taux d’occupation réduit, la gérance de l’hôtel a la possibilité d’arrêter les unités correspondant aux chambres non occupées, moyennant le report des commandes à la réception (GTC). Elle peut décider de préchauffer ou prérefroidir la chambre avant l’arrivée de l’occupant sur base d’un lien automatique avec le fichier de réservation.

Comme inconvénient au système, on peut noter la nécessité de maintenir une bonne partie de l’année les deux boucles de distribution d’eau chaude et froide en circulation dans le bâtiment. Il ne faut absolument pas négliger l’importance des pertes permanentes liées à ces deux réseaux et soigner tout spécialement à l’isolation efficace des tuyauteries.

Également, la solution par ventilo-convecteur ne permet pas de traiter l’humidité de l’air qui peut devenir fort sec en hiver. Il est possible d’insérer des petits atomiseurs d’eau à ultrasons dans les ventilos, mais cette solution est relativement coûteuse. On peut également apporter l’humidité nécessaire par un humidificateur inséré dans le réseau d’air de ventilation, pour autant que celui-ci soit préchauffé.

 4° Choix d’un système à plafond rafraîchissant

Photo panneau rayonnant froid.

La climatisation par panneaux rayonnants froids ne paraît pas opportun dans le conditionnement d’air des chambres. En effet, la présence d’humidité suite à la salle de bain attenante risque d’entraîner de la condensation sur le plafond, même si le système est régulé pour stopper la circulation d’eau froide à ce moment.

De plus, ce système n’apporte qu’une solution pour le refroidissement et devrait être complété par un réseau de radiateur pour apporter la chaleur en hiver. Le placement d’un faux plafond n’est pas justifié pour un autre usage (éclairage, câblage,…).

Même en rénovation, il semble coûteux de placer un tel réseau alors que seuls les apports solaires sont à vaincre de façon épisodique.

Les poutres froides  ne sont pas non plus adéquates car elles entraîneraient un grand inconfort dans des locaux de faible hauteur.

5° Choix d’un système à débit de fluide réfrigérant variable

Une installation à fluide réfrigérant variable (VRV, VRF, … selon les marques) peut également être d’application pour une structure hôtelière ou hospitalière. Elle dispose des mêmes avantages que la solution par ventilo-convecteur : souplesse nécessaire, possibilité de gestion centralisée tout en fournissant à chaque occupant une télécommande pour actionner la cassette, …

Deux avantages spécifiques apparaissent par rapport à la solution classique des ventilos :

  • L’absence de boucles d’eau chaude et froide parcourant tout le bâtiment.
  • La possibilité en mi-saison de récupérer la chaleur excédentaire d’une façade (par exemple à l’Est) pour réchauffer la façade encore en demande (par exemple à l’Ouest) ou de récupérer la chaleur extraite de locaux techniques intérieurs pour réchauffer les chambres périphériques en demande.

Si le bâtiment présente simultanément des besoins de chaleur et des besoins de refroidissement durant une bonne partie de l’année, ce système paraît le plus avantageux. Mais encore faut-il s’assurer qu’au sein d’une même zone gérée par le même réseau, de l’énergie soit transférable. Ainsi, il semble difficile d’alimenter les chambres du 4ème étage par la chaleur dégagée par les locaux de réunion du rez-de-chaussée. Il faudrait que les réseaux soient dans ce cas verticaux, ce qui doit poser de nombreux problèmes pratiques.

Un point faible réside probablement dans le chauffage « par pompe à chaleur » en plein hiver. Quel est à ce moment le COP de l’installation ? Le compresseur fonctionnant de jour, le prix de revient du kWh électrique est environ 3 x plus élevé que le kWh issu d’une chaudière au gaz traditionnelle, par exemple. Il faut donc que le COP global dépasse 3 pour y trouver avantage.

Le taux d’humidité en hiver n’est pas non plus contrôlé avec ce système.

Nous n’avons pas pu, jusqu’ici, obtenir de données permettant d’évaluer la performance effective de l’échange entre locaux et le COP moyen annuel d’un tel système, ni le lire dans un rapport d’un organisme indépendant.

Exemple. l’hôtel Mercure à Paris-Courbevoie est équipé d’un tel système pour les chambres, les salles de réunion et de restaurant et le hall d’accueil. Une cassette a été installée dans chacune des 515  chambres réparties sur 12 étages. Le système est réversible et assure les besoins en chaud et froid, sans appoint électrique.

Il s’agissait d’une rénovation et l’hôtel est resté en activité durant les travaux, l’installation se faisant par niveau. Les 72 unités extérieures sont situées sur la toiture.

Le budget total a été de 15 Millions de FF, le coût d’entretien par chambre est estimé à 750 FF par an.

(Source : « GIE – Climatisation et Développement »).


Quelques critères en détail

Voici les principaux critères à prendre en compte :

Le coût d’investissement

Si le prix moyen d’une installation avoisine les 125 €/m² (contre 40 €/m² pour une simple installation de chauffage), l’échelle des prix en fonction du type d’équipement et du niveau de régulation qui lui est associé peut être évaluée comme suit :

Installations  « détente directe »

Investissement
€/m²

Window 75 – 95
Split system 100 – 200
Débit réfrigérant variable* 150 – 300

Installations « sur boucle d’eau »

—–

Investissement
€/m²

Ventilo – 2 tubes 110 – 140
Ventilo – 2 tubes/2 fils 115 – 155
Ventilo – 4 tubes 125 – 190
Pompe à chaleur sur boucle 100 – 215

Le coût d’exploitation énergétique

Le coût d’exploitation est directement fonction des charges à vaincre : un immeuble fort vitré consommera beaucoup plus que son équivalent équipé de protections solaires extérieures, par exemple … C’est donc d’abord le bâtiment qui crée la consommation !

On peut cependant établir une échelle entre les systèmes suivant leur performance énergétique :

Installations  « détente directe »

Coût énergie

Window élevé
Split system moyen
Débit réfrigérant variable faible

Installations « sur boucle d’eau »

Coût énergie

Ventilo – 2 tubes moyen
Ventilo – 2 tubes/2 fils moyen à élevé
Ventilo – 4 tubes moyen
Pompe à chaleur sur boucle faible à élevé

Quels sont les critères qui permettent de distinguer une installation à faible consommation énergétique ?

  • Une installation ne devrait jamais consommer du chaud et du froid simultanément, pour éviter de détruire l’énergie; en aucun cas, on ne doit pas concevoir une installation dont la régulation fonctionnerait par mélange.
  • Lorsque le bâtiment requiert du chaud et du froid simultanément (un grand local informatique refroidi en hiver, des plateaux très étendus et fort équipés dont il faut en permanence refroidir la partie centrale, …), on aura intérêt à concevoir une installation qui peut récupérer la chaleur extraite de ces locaux pour la restituer dans les locaux en demande de chaleur (bureaux en périphérie). Les installations à débit de réfrigérant variable et les pompes à chaleur sur boucle d’eau sont performantes à ce niveau. Dans les installations plus classiques (ventilos), une récupération de chaleur au condenseur des groupes frigorifiques est également possible et moins contraignante.
  • Les résistances chauffantes électriques prévues dans les installations peuvent entraîner des dépenses importantes vu le coût du kWh électrique par rapport au kWh thermique. On sera attentif à ne sélectionner une installation de ventilos 2 tubes/2 fils que dans un bâtiment très isolé (besoins de chaleur très limités suite aux apports gratuits).

Calculs

Un petit outil de simulation permet de visualiser globalement l’impact du choix du vecteur énergétique de chauffage sur un local type (même si les hypothèses sont celles d’un bureau, avec des apports internes élevés).
  • Enfin, quelle que soit l’installation, la qualité de la régulation est déterminante : c’est un budget à ne pas raboter ! on pense tout particulièrement au ventilo-convecteur qui est le pire ou le meilleur des équipements, … selon la régulation qui lui est associée !

Le coût de maintenance

Les prix donnés à titre indicatif ci-dessous correspondent à un contrat annuel de maintenance sur devis (les prix les plus bas correspondent aux surfaces traitées les plus grandes). Normalement, il faudrait leur ajouter le prix du renouvellement périodique des équipements défectueux. Ainsi, les installations en « détente directe » sont généralement plus fragiles, ce qui implique un remplacement plus fréquent des composants.

Installations « détente directe »

€/m²
Window très faible
Split system 3 – 7,5
Débit réfrigérant variable

Installations « sur boucle d’eau »

€/m²

Ventilo – 2 tubes 3 – 5
Ventilo – 2 tubes/2 fils 3 – 5
Ventilo – 4 tubes 3 – 5
Pompe à chaleur sur boucle 4,75 – 6,25

Le confort thermique

Installations  « détente directe »

Confort thermique
Window faible
Split system faible
Débit réfrigérant variable bon

Installations « sur boucle d’eau »

Confort thermique
Ventilo – 2 tubes moyen
Ventilo – 2 tubes/2 fils moyen
Ventilo – 4 tubes bon
Pompe à chaleur sur boucle moyen

Le confort acoustique

Quel que soit le système de climatisation choisi, le critère de performance acoustique sera déterminant, et cela, tant à l’intérieur qu’à l’extérieur :

  • Les ventilos ou cassettes seront choisis en fonction de leur qualité acoustique et de manière à pouvoir dissiper la puissance requise à moyenne vitesse. Idéalement, pour réduire encore le niveau sonore, on installera le module de traitement d’air en dehors du local (dans un faux plafond, dans un placard technique, …) et l’air traité sera conduit vers le local par une gaine, ce qui permet un affaiblissement acoustique optimal.
  • Le placement des unités extérieures sera bien étudié pour éviter la propagation du bruit vers les chambres (placement en toiture ? placement à l’écart du bâtiment ? …).

Remarque : on rencontre parfois le placement du groupe frigorifique en sous-sol, dans un local technique insonorisé. L’objectif de réduction du niveau acoustique est atteint. Mais la consommation du compresseur risque d’augmenter si le condenseur n’est pas correctement refroidi…! De toute façon, c’est l’air extérieur qui est le refroidisseur final. Aussi, le traitement en sous-sol va entraîner un refroidissement par de l’eau (sélection d’une machine frigorifique équipée d’un condenseur à eau), cette eau étant elle-même refroidie ultéreurement dans une tour de refroidissement en toiture.

Installations  « détente directe »

Confort acoustique
Window faible
Split system bon
Débit réfrigérant variable bon

Installations « sur boucle d’eau »

Confort acoustique
Ventilo – 2 tubes bon
Ventilo – 2 tubes/2 fils bon
Ventilo –  4 tubes bon
Pompe à chaleur sur boucle faible

La centralisation des équipements

Si la surface des locaux à climatiser est limitée (rénovation de quelques locaux,par exemple), un système à « détente directe » (voire plusieurs équipements décentralisés) sera suffisant et nettement moins coûteux.

Si une installation centralisée bénéficie de l’effet de taille en terme de prix d’investissement, il n’y a peu d’effet majeur à l’exploitation (efficacité frigorifique meilleure pour les grosses puissances mais pertes en ligne et pertes en régulation plus élevées…).

L’encombrement

Les ventilo-convecteurs seront souvent insérés dans le faux plafond face à la salle de bain, afin de ne pas occuper de place au sol.


Choix de la ventilation associée

Que l’on choisisse une solution décentralisée ou que l’on choisisse des ventilo-convecteurs, un apport d’air neuf doit être envisagé.

Ce dernier, imposé par la réglementation wallonne pour garantir une qualité de l’air suffisante, est dès lors fourni par une installation en simple ou double flux.

Concevoir

Pour définir la configuration à adopter le choix du système d’apport d’air neuf.

 Concevoir

Pour choisir le mode de gestion (régulation du système), cliquez ici ! Remarquons que dans les immeubles nouveaux (et donc isolés), l’apport d’air neuf devient une part essentielle dans la consommation énergétique (tant en chaud qu’en froid) en regard des déperditions.

Puisque de toute façon une extraction doit être prévue dans les sanitaires, la question devient : apport d’air par des grilles de ventilation dans les châssis, ou apport par une gaine de distribution d’air (qui permet le préchauffage de l’air)?

La ventilation double flux est le seul moyen de contrôler au plus juste les apports d’air et donc de contrôler cette consommation.

La ventilation simple flux, quant à elle, reste en partie influencée par les conditions atmosphériques.

En quelque sorte, c’est le standing souhaité qui tranchera.


Choix du mode de régulation

Vu les possibilités actuelles de programmation du traitement des chambres en fonction de la réservation, la mise en place d’une GTC, Gestion Technique Centralisée, semble aujourd’hui requise pour un bâtiment hôtelier.

Choisir la couche isolante du plancher des combles [Concevoir]

L’efficacité isolante

La valeur isolante du matériau dépend de son coefficient de conductivité thermique. Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

Le choix l’épaisseur d’isolant doit donc se réaliser en fonction de la performance thermique à atteindre.

Exemple d’épaisseur calculée d’isolant

Remarque.

Les calculs ci-dessous sont faits avec l’hypothèse que le plancher est étanche à l’air. Dans le cas contraire, la valeur U peut être très fortement dégradée.

Pour éviter les courants d’air à travers les planchers légers, on choisira une finition inférieure de type :

  • plafonnage;
  • plaques de carton-plâtre correctement rejointoyées;
  • ou des panneaux de fibres de bois liées au ciment, avec enduit.

Le plafond n’est, par contre, pas rendu étanche par une finition en lambris ou planchettes.
Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.
Un plancher lourd ne pose généralement pas de problème de courant d’air.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

1/U
=  [1/hi + d11 + d2/ λ2 + … + di/λi + Ru + 1/he]

<=> di = λi [(1/U) – (1/hi + d11 + d22 + … + Ru + 1/he)]

où,

  • λi est le coefficient de conductivité thermique de l’isolant,
  • U est le coefficient de transmission thermique de l’ensemble « plancher des combles + versants de toiture » à atteindre (exemple : 0,3 W/m²K),
  • he et hi les coefficients d’échange thermique entre le toit et les ambiances extérieures et intérieures valant respectivement 23 W/m²K et 8 W/m²K,
  • dxx la résistance thermique des autres couches de matériaux,
  • Ru est la résistance thermique des combles. Elle comprend la résistance thermique de l’espace d’air et la résistance thermique de la toiture (en pente).

Le tableau ci-dessous donne les résultats des calculs pour des toitures avec sous-toiture et pour différents modèles d’isolation de plancher.

Sous-toiture
+

Valeur U sans isolation [W/(m²xK)] Épaisseur (en mm) d’isolant nécessaire pour obtenir :
U < 0,3 W/(m²xK)
Plancher : MW, EPS


0.045
W/(mK)

PUR


0.035
W/(mK)

XPS


0.040
W/(mK)

Plancher léger étanche à l’air; sans aire de foulée.

2.6 > 133 > 103 > 118

Plancher léger étanche à l’air; avec aire de foulée.

1.5 > 120 > 93 > 107

Plancher lourd étanche à l’air.

2.3 > 130 > 101 > 116

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.

La formule devient alors :

ei = λi ((1/ U) – (1/he + 1/hi) [m]

Exemple pour U = 0,3 W/m²K,

ei = λi ((1/ 0,3) – (1/23 + 1/8 )) m
= λi x 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λi.

L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR).

Son λi vaut 0.039 W/mK (suivant NBN B62-002)
ei = 0.039 x 3.16 = 0.12324 m

L’épaisseur commerciale : 13 cm (par exemple : 6 + 7 cm).

Calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant.

L’adéquation avec le support

Un isolant semi-rigide :

  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable).

Un isolant souple :

  • peut suivre la forme très compliquée d’un plancher (contournement des gîtes);
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable);

doit être supporté (par le plafond).
Un isolant rigide :

  • résiste mieux à la compression (peut éventuellement supporter une aire de foulée);
  • calfeutre moins facilement (entre les gîtes ou lambourdes);
  • s’adapte plus difficilement à des formes compliquées.

Les flocons ou granulés :

  • s’intercalent facilement dans les espaces qui leur sont réservés (pose entre les gîtes);
  • calfeutrent correctement les raccords (autour de l’isolant);
  • ne résistent pas à la compression (non circulable);
  • doivent être supporté (par le plafond);
  • se déplacent facilement.

Le choix de l’isolant dépend des caractéristiques énumérées ci-dessus et du modèle d’isolation choisi en fonction du type de plancher (lourd ou léger).

Le plancher lourd

Le plancher lourd sera idéalement isolé par le haut afin de lui maintenir une température constante. On évite ainsi des contraintes internes dans la structure et les désordres qu’elles risquent de provoquer. Le volume protégé profite également de l’inertie thermique importante du plancher lourd.

Non circulable

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si, en outre, la face supérieure du plancher est compliquée ou irrégulière, on préférera les matelas d’isolant souples qui épousent mieux la forme.
Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Circulable

Si le plancher doit être circulable, tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (voir plancher léger, isolation entre gîtes).

Le plancher léger

Non circulable

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides, car ils sont faciles à ajuster et à calfeutrer.
On peut également utiliser des flocons ou granulés. Ils sont plus faciles à poser, mais risquent d’être déplacés avec le temps par des facteurs mécaniques extérieurs (vent, circulation intempestive, rongeurs, oiseaux, …).
Isolation autour des gîtes

On utilisera exclusivement un matelas souple épousant bien la forme du support. Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.
Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Circulable

Le plancher léger circulable sera généralement isolé dans son épaisseur pour des raisons d’économies d’espace et de matériaux.
Dans ce cas, on utilisera idéalement des matelas rigides ou semi-rigides, car ils sont faciles à ajuster et à calfeutrer.
Lorsque le plafond est posé avant l’aire de foulée, on peut utiliser des flocons ou granulés. Ils sont faciles à mettre en place.

Dans certains cas lorsqu’il n’y a pas de plafond ou lorsque des appareils volumineux sont encastrés dans celui-ci, on pose l’isolant sur une plaque de support reposant sur le gîtage.
Tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.

Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (Voir plancher léger, isolation entre gîtes).

Attention !

Certains isolants sont incompatibles avec d’autres éléments du plancher en contact avec l’isolant.
Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.


Le comportement au feu

Lorsque le support résiste mal au feu (plancher en bois, tôles profilées métalliques), l’inflammabilité de l’isolant joue un rôle important.
Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.

La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant (solution à éviter), les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.


L’impact écologique

Les différents matériaux isolants n’ont pas tous le même impact sur l’environnement. Pour limiter cet impact, on choisira de préférence un isolant « écologique ».

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant mais aussi de sa mise en œuvre.
Lorsqu’ils sont posés dans les planchers, les isolants correctement posés et protégés des agressions extérieures ne nécessitent aucun entretien et leur durée de vie ne pose pas de problème particulier.


Les conseils généraux de mise en œuvre

 

  • L’isolant doit être placé sur toute la surface du plancher sans oublier les éventuelles parties verticales, les trappes d’accès, etc.

 

  • Les joints entre les différents panneaux isolants et entre les panneaux isolants et les gîtes (planchers légers) doivent être bien fermés.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

  • Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé.
    Par exemple :

    • L’isolant du plancher doit être en contact avec l’isolant des murs extérieurs et des éventuels murs intérieurs du grenier;
    • Il doit être dans le prolongement et en contact avec le dormant du trapillon isolant des accès.
    • Il doit être en contact avec l’isolant autour du conduit de cheminée.
    • Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.
    • Les panneaux isolants doivent être protégés et manipulés avec précaution pour éviter les écrasements, les déchirures, l’eau, la boue.

Choisir l’implantation de la zone froide [Concevoir – Cuisine collective]

Une part de l’énergie frigorifique va servir à refroidir (et donc assécher) l’air extérieur jusqu’à la température de consigne de la chambre froide.

Cette part d’énergie peut être élevée dans l’ensemble du bilan frigorifique si cet air est chaud et humide.
Ainsi, les portes des chambres froides doivent, autant que possible, être tenues à l’écart des zones chaudes et humides :

  • zone surtout chaude et parfois humide : la zone de cuisson,
  • zones surtout humide et parfois chaude : la zone de la laverie.

Si cela ne gêne pas l’utilisation, une zone-tampon ou un sas avec des portes va-et-vient peut être créé devant les portes des frigos pour disposer d’un espace qui aurait une température moyenne et une humidité relative plus basses.

Exemple.

Soit une chambre froide négative de dimensions intérieures : L = 4 m, l = 4 m, h = 3 m.
L’air intérieur a les caractéristiques suivantes : t° = -18°C, HR = 50 %.
La chambre est « sollicitée » pendant 8 h/jours.
Il y a 10 interventions par heure; pendant chacune d’elle la porte est laissée ouverte pendant 10 secondes.

L’air extérieur a les caractéristiques suivantes : t° = 35°C, HR = 90 %.

Avec cette utilisation, il y a un renouvellement de 15,7 volumes par jour. L’énergie nécessaire pour refroidir et assécher l’air par les ouvertures de portes est de 40,5 kWh par jour (pendant la période d’utilisation).

Avec une meilleure implantation, l’air extérieur a les caractéristiques suivantes : t° = 22°C, HR = 50 %.

Avec cette utilisation, il y a un renouvellement de 12 volumes par jour. L’énergie nécessaire pour refroidir et assécher l’air par les ouvertures de portes est de 13,4 kWh par jour (pendant la période d’utilisation).

Soit une économie de (40,5 – 13,4) = 27,1 kWh/jour.

Avec un COP global moyen de 2,5 et un prix moyen de 0,115 € du kWh, cela représente une économie de (27,1 [kWh] / 2,5) x 0,115 [€] x 260  [jours], soit 342 € par an pour une seule chambre froide.

À cela, il faut ajouter le gain d’énergie électrique pour les dégivrages (environ 6,3 kWh).

Objectifs et principes de la ventilation

Objectifs et principes de la ventilation


Objectif et principe

L’activité d’une cuisine, par le fonctionnement des équipements, est source d’un certain nombre de nuisances.

Ces nuisances sont dues à plusieurs facteurs :

  • Le dégagement calorifique des équipements. L’asymétrie de rayonnement entre les appareils de cuisson et les parois environnantes, en est une conséquence et constitue une gêne supplémentaire.
  • La chaleur dégagée par les appareils est transmise à l’air. La chaleur se divise en une partie sensible et une partie latente (humidité). L’air chaud monte en entraînant avec lui humidité et graisses.
  • les dégagements gazeux et les odeurs qui peuvent entraîner un inconfort, voire des intoxications

L’objectif de la ventilation d’une cuisine collective est d’éliminer au mieux les agents de nuisance.

Mais attention, si la ventilation permet d’évacuer la chaleur qui se trouve dans l’air, elle ne peut cependant rien faire contre la chaleur rayonnante dégagée par les équipements.

Évaluer

Pour savoir quels sont, les critères de qualité de l’air dans une cuisine collective.

Parallèlement à l’évacuation de l’air chaud et pollué, il y a lieu d’éviter une consommation excessive de chauffage, des courants d’air désagréables et un assèchement de l’air trop important.

Le traitement de l’air comporte deux fonctions :

  • Capter, filtrer et extraire l’air vicié pour l’évacuer vers l’extérieur,
  • introduire, traiter et diffuser l’air neuf dans les différents locaux.

C’est le premier point, à savoir l’extraction au-dessus des appareils de cuisson et des lave-vaisselle au moyen d’un appareil spécifique (hotte ou plafond filtrant) qui constitue la spécificité de la ventilation des cuisines. La diffusion d’air neuf et la ventilation des locaux annexes se font, elles, avec des principes et des équipements tout à fait identiques à ceux de la ventilation en général.

Concevoir

Si vous voulez en savoir plus sur le choix de la ventilation en général.

Règles de bonne pratique

  • Il faut établir les pressions relatives entre les locaux de manière à respecter l’hygiène : dans les locaux qui dégagent des odeurs ou beaucoup d’humidité (local de cuisson, laverie vaisselle, local des ordures et sanitaires), l’air doit être extrait. Il en est de même de tous les locaux « à denrées sales ». Exemple : légumerie (s’il s’agit du local où les légumes sont en attente de préparation ou du local où les légumes sont nettoyés) . Dans les locaux dits « propres », de l’air neuf est introduit.
  • Au niveau de la ventilation, la cuisine doit être considérée comme une zone à part entière. Ce qui signifie que la ventilation de l’ensemble des locaux de la cuisine est réalisée indépendamment du reste du bâtiment. Il faut y « équilibrer » les pulsions et les extractions d’air. Néanmoins, il faut empêcher la propagation des polluants de l’ensemble des locaux-cuisines vers les autres locaux du bâtiment.
  • Or, en général la mitoyenneté entre les locaux de la cuisine et le reste du bâtiment se fait au niveau du restaurant.
    Soit la ventilation du restaurant est traitée avec l’ensemble des autres locaux-cuisines (système avec transfert), soit le restaurant dispose d’un système indépendant de ventilation.
    Dans le premier cas, l’ensemble des locaux-cuisines (restaurant compris) doit être en dépression par rapport au reste du bâtiment. Ce qui signifie que l’ensemble des débits extraits doivent être supérieurs à l’ensemble des débits introduits (ex : débits introduits = 90 % des débits extraits).
    Dans le second cas, l’ensemble des locaux-cuisines (restaurant non compris) doit être en dépression (ex : débits introduits = 90 % des débits extraits) de manière à ce que les odeurs de la cuisson ne se propagent pas dans le restaurant. De plus, le restaurant doit être en légère surpression vis-à-vis de la cuisine et en dépression par rapport au reste du bâtiment. (ex. : débits introduits = 95 % des débits extraits).
    La zone de cuisson et la laverie vaisselle nécessite des moyens d’extraction mécaniques spécifiques tels que hottes ou plafonds filtrants. La ventilation hygiénique peut être assurée soit par la plus petite vitesse de la hotte, soit par un système séparé.
  • Les bilans sont d’abord faits pour un fonctionnement à pleine charge de la cuisine. Ensuite on regarde si on peut l’adapter, au moyen de plusieurs vitesses par exemple, dans d’autres circonstances.
  • Trois systèmes de base sont possibles:

Le système indépendant

Chaque local possède son extraction et son introduction d’air.

Le système avec transfert

L’air est extrait dans les locaux « sales » et introduit dans les autres locaux avec grilles de transfert entre les locaux.

Le système avec transfert

Le système avec transfert et amenée ou extraction d’air complémentaire.

Ce troisième système combine les deux précédents : l’air est extrait dans les locaux « sales » et introduit dans les autres locaux avec grilles de transfert entre les locaux. Chaque local dont le débit risque, à un moment donné de la journée, de ne pas être équilibré par les débits des autres locaux de la cuisine, dispose en plus d’une amenée ou d’une extraction d’air complémentaire.

Il permet donc d’équilibrer les débits à tout moments de la journée.

Chacun de ces systèmes peut être réalisé avec un système à simple flux (extraction mécanique et pulsion naturelle) ou à double flux.

On peut combiner ces trois systèmes au niveau d’une seule cuisine : on peut avoir une partie des locaux avec transfert et d’autres locaux avec des systèmes indépendants.

Exemple.

On peut considérer l’ensemble des « petits » locaux dont la ventilation est nécessaire en permanence et y implanter un système avec transfert (ex. : local des ordures (extraction), les réserves de légumes (extraction), le local des pommes-de-terre (extraction), etc. À partir des différents débits nécessaires, on regarde s’il y a équilibre entre pulsion et extraction; dans le cas contraire, on peut pulser ou extraire le complément dans les couloirs, zones de circulation, zones de travail ouvertes, etc.

Pour les locaux utilisés temporairement (ex. : local de cuisson, restaurant, laverie, préparation froide, bureau du chef-coq, etc.), on peut leur donner des systèmes de ventilation indépendants. On peut aussi leur donner un (des) système(s) avec transfert. Dans ce cas, soit les locaux fonctionnent toujours ensemble, soit, lorsqu’un local n’est pas utilisé, une extraction ou pulsion complémentaires assure l’équilibre.

Par exemple, lorsque le restaurant peut, servir de cafétéria, et qu’il ne fonctionne donc pas en même temps que la cuisine, il vaut mieux prévoir deux systèmes indépendants.

Bref, chaque cuisine est à étudier spécifiquement. Les processus de préparation et de distribution des repas sont analysés avant de concevoir la ventilation. Celle-ci tiendra compte, de la disposition des différents locaux, des horaires et des différents débits correspondant aux locaux.

Évaluer

Pour un autre exemple (conception de la ventilation d’une cuisine d’école).

Choisir l’emplacement des luminaires dans les bureaux

Bureau individuel

 

Ces bureaux ont en général 5 à 7 m de profondeur et jouissent d’un éclairage naturel qui peut être abondant. Ils peuvent se passer d’éclairage artificiel durant un grand nombre d’heures.

Afin de limiter les problèmes d’éblouissement et de reflets sur les écrans d’ordinateur, il est conseillé de placer la table de travail perpendiculairement aux fenêtres. Vu que la plupart des luminaires actuels ont des angles de défilement bien contrôlés dans toutes les directions, ils pourront être placés en deux rangées  perpendiculaires ou parallèles à la baie vitrée.

Comme l’apport d’éclairage naturel est généralement important, et bien que ces bureaux ne soient pas très profonds, il est intéressant de pouvoir commander les deux rangées de luminaires séparément l’une de l’autre afin de pouvoir dimmer le luminaire côté fenêtre.


Bureau de groupe

 

Un bureau de groupe est occupé par 5 à 10 personnes. Les places de travail peuvent être arrangées afin que les lignes de vision des personnes soient parallèles aux fenêtres et que la lumière naturelle provienne de leur gauche pour les droites et vice versa pour les gauchers. La position des places est donc souvent figée.

La distribution classique des luminaires en rangées parallèles à la fenêtre permet de tenir compte des apports de lumière naturelle (si la modulation des faux plafonds permet une telle répartition).

Une telle disposition des personnes et des luminaires peut paraître monotone mais elle a l’avantage de fournir une même qualité d’éclairement pour chacun sans nécessiter de dispositifs spéciaux contre l’éblouissement.


Bureau paysager

 

En général, c’est toute la largeur d’une aile d’un bâtiment qui est réservée à un bureau paysager.

Il bénéficie donc souvent d’éclairage naturel bilatéralement ou même trilatéralement. Cependant, leur profondeur et la présence de mobilier sont telles que certaines zones ne peuvent se passer d’éclairage artificiel.

Pour éviter la monotonie d’un tel espace, on peut éclairer différemment les zones de communication et les zones de travail.

Les zones de même activité seront regroupées et disposeront d’une commande d’éclairage spécifique.

Les luminaires peuvent également être gérés en groupes différents en fonction de l’apport d’éclairage naturel et d’un zonage d’activité.

Il est également important de veiller au confort psychologique en créant une zone de travail agréable et personnelle pour chaque individu en utilisant, par exemple, des luminaires d’appoint ponctuels.

Choisir le vitrage

La performance énergétique et lumineuse du vitrage

Un vaste choix de vitrages sur le marché

La technologie des vitrages est variée :

Comment sélectionner les performances adéquates pour un bâtiment donné ? C’est ce que nous allons tenter de réaliser ci-dessous.
Le premier rôle d’une baie vitrée est :

  • D’assurer le confort visuel et thermique des occupants.
  • De gérer les apports solaires en toute saison en optimisant l’énergie disponible.

De ce point de vue, les vitrages sont caractérisés par 3 facteurs :

Les interactions entre les facteurs :

A première vue, plus le facteur solaire d’un vitrage est bas, plus il est opaque au rayonnement solaire et donc moins il est transparent à la lumière. Lorsque le facteur solaire diminue, le coefficient de transmission lumineuse devrait diminuer lui aussi.

Mais en réalité,

  • le rayonnement solaire est composé pour moitié de lumière et pour moitié de rayonnement infrarouge,
  • dans le local, la lumière se transforme en chaleur,
  • le rayonnement infrarouge apporte, lui, seulement de la chaleur.

Aussi, avec des filtres spécifiques, on peut donc diminuer le passage du rayonnement infrarouge sans freiner le passage de la lumière. Le FS diminuera, mais le FL restera presque intact. Avec une limite : il y a un moment où on aura arrêté tout le rayonnement infrarouge et où, pour diminuer encore l’apport de chaleur, il faudra diminuer l’apport de lumière en parallèle.

Pour connaître les caractéristiques énergétiques et lumineuses des différents types de vitrages, cliquez ici !

Par contre, le fait de rendre un vitrage moins perméable au rayonnement solaire (c’est-à-dire diminuer son facteur solaire et parfois sa transmission lumineuse), n’a pas de conséquence sur la valeur de son coefficient de transmission thermique U.

> Pour connaître les caractéristiques thermiques des différents types de vitrages, cliquez ici !

Le dilemme : facteur solaire – transmission lumineuse

Les souhaits de l’utilisateur varient selon les périodes de l’année et sont contradictoires. En effet :

  • En hiver, il désire maximiser les gains solaires, et donc avoir une transparence maximale au rayonnement solaire (TL et FS élevés).
  • En été, il désire limiter au maximum les gains de chaleur (FS faible) qui sont la cause de surchauffe, tout en assurant un éclairage suffisant des locaux (TL élevé).

Le graphique ci-dessous montre les différentes combinaisons possibles des valeurs TL et FS des vitrages.

La zone supérieure grise :
Correspond aux combinaisons de TL et FS qu’il n’est pas possible d’atteindre, le facteur solaire n’étant jamais inférieur à la moitié de la transmission lumineuse.

La zone inférieure grise :
Correspond aux combinaisons qui présentent peu d’intérêt, le facteur solaire FS étant élevé (apports énergétiques importants) et transmission lumineuse TL faible (peu d’apports lumineux).

La zone centrale claire :
Correspond aux caractéristiques qu’il est théoriquement possible de réaliser, certaines zones présentant plus d’intérêt selon les périodes de l’année.

Par leur facteur solaire faible, certains vitrages empêchent, par réflexion ou absorption, la chaleur solaire de pénétrer dans le bâtiment, et conviennent donc bien pour les bâtiments où les gains solaires sont à minimiser (c’est à dire, les bâtiments fortement exposés ou les bâtiments aux gains internes importants). Ils rejettent malheureusement en même temps la lumière, entraînant une transmission lumineuse généralement très faible.

De plus, les vitrages absorbants sont teintés dans la masse. Ceux de couleur bleue claire ou verte, ont un coefficient de transmission lumineuse plus élevé que les vitrages teintés traditionnels de couleur bronze ou grise mais ont un facteur solaire moins élevé que ces derniers.

Les vitrages absorbants sont moins efficaces contre le rayonnement solaire que les verres réfléchissants, c’est pourquoi ils ne sont pratiquement plus utilisés à l’heure actuelle.

Quel coefficient de transmission lumineuse choisir ?

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Les valeurs nécessaires varient d’un cas à l’autre : de nombreux facteurs interviennent tels la profondeur du local, le pourcentage de surface vitrée, l’orientation du local…. Le graphique ci-dessous illustre l’influence du coefficient de transmission lumineuse sur la consommation d’éclairage artificiel pour une façade vitrée à 50 %, en fonction de l’orientation du bâtiment.

l'influence du coefficient de transmission lumineuse sur la consommation d'éclairage artificiel pour une façade vitrée à 50 %

On constate que :

  1. Plus le coefficient de transmission lumineuse augmente, moins on consomme d’éclairage artificiel.
  2. Les locaux situés au Nord nécessiteront toujours plus d’éclairage artificiel que respectivement l’Est, l’Ouest et le Sud.

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Quel facteur solaire choisir ?

Le choix du facteur solaire minimum à rechercher est fonction de chaque cas (surface vitrée, orientation, …). Il n’est donc pas possible de citer un chiffre unique. C’est une simulation thermique qui peut optimaliser ce choix.

Fixons un ordre de grandeur par un exemple.

Objectif : éviter la climatisation du local.

Dans les immeubles de bureaux, on peut estimer qu’un refroidissement devient nécessaire en été lorsque la somme des apports internes et externes atteint  60 W/m² au sol du local. Si on estime d’une manière générale les apports internes d’un bureau moyennement équipé comme suit : un ordinateur (+ 150 W/ordinateur), une personne (70 W/pers.), l’éclairage (10 W/m²) et 1 personne/13 m² au sol, les apports internes totalisent 27 W/m². Pour éviter le recours à la climatisation, il est donc nécessaire de limiter les apports solaires à 33 W/m² au sol.

Apports thermiques

Le tableau suivant représente pour une journée ensoleillée du mois de juillet, la puissance énergétique maximum due à l’ensoleillement, réellement transmise à l’ambiance d’un local de 30 m² au sol, en fonction de l’inertie du bâtiment. La fenêtre du local est équipée d’un double vitrage clair (de 6 m², soit 4 m x 1,5 m) orienté respectivement à l’est, au sud et à l’ouest.

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 245 49 267 53 351 70
Sud 198 40 210
42
252
50
Ouest 250 50 263 53 356 71
W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol

Facteur solaire recommandé

Bâtiment lourd
Bâtiment moyen
Bâtiment léger
Est 0.51 0.47 0.36
Sud 0.63 0.60 0.50
Ouest 0.50 0.47 0.35
FS FS FS

Facteur solaire minimum de l’ensemble vitrage + protection nécessaire
pour limiter les apports solaires à 33 W/m² au sol.

On peut donc préconiser un vitrage dont le facteur solaire est limité à 40 %, tout en atteignant une transmission lumineuse de 70 %.

Contrôle solaire … oui, mais il faut savoir que :

  • La réflexion ou absorption solaire au moyen de vitrage à contrôle solaire est constante et définitive. Aucune adaptation n’est possible en fonction de l’ensoleillement, contrairement aux protections solaires mobiles sous forme de stores, intérieurs ou extérieurs.
  • Mais, le choix du confort thermique ne doit pas se faire exagérément au détriment du confort lumineux. Sous nos latitudes, la probabilité d’ensoleillement est inférieure à 20 % en hiver (moins d’un jour sur cinq) et à 50 % en été (moins de un jour sur deux). Un vitrage très efficace contre le rayonnement solaire en été est inconciliable avec la valorisation de l’éclairage naturel en absence d’ensoleillement et des apports énergétiques gratuits en hiver. Sauf exception (locaux informatiques où il faut gérer la surchauffe et l’éblouissement), certains vitrages trop absorbants ou réfléchissants seront écartés dans nos régions à climat variable.
    Conscients de ce problème, les fabricants de vitrages ont développé des nouveaux vitrages présentant une protection contre l’énergie solaire correcte (FS = 0,40) et une transmission lumineuse qui se rapproche de celle des doubles vitrages clairs (TL = 0,70).
  • Plus un verre absorbe ou réfléchit le rayonnement solaire, plus il a tendance à s’échauffer. Il est ainsi exposé à la casse thermique. Des précautions sont à prendre pour éviter l’échauffement de ces types de verres.

Le coefficient de transmission thermique « U »

Un simple vitrage a un coefficient U de 5,8 W/m²K. On améliore son pouvoir isolant, c’est à dire on diminue son coefficient de transmission thermique U, par les interventions suivantes :

Type d’amélioration Type de vitrage

Coefficient U
[W/m²K]

Insertion de lames d’air entre des couches de verre. Le double vitrage Le triple vitrage U = 2,8 U = 1,9
Action sur les caractéristiques de la surface du verre. Le double vitrage basse émissivité
(= à haut rendement )
U = 1,6
Remplacement de l’air entre les couches de verre par un mélange gazeux plus isolant. Le double vitrage basse émissivité avec gaz (argon, krypton, …) U = 1,1 à 1,3

Le facteur coût intervient dans le choix du vitrage, mais un vitrage bien isolé permet de réaliser des économies d’énergie. En première approximation, le supplément de prix au m² est rentabilisé en 6 ans.

Au départ, consommation annuelle d’1 m² de simple vitrage :

= 6 W/m².K [coefficient de déperdition du vitrage] x (15 – 6) [delta de température moyenne intérieure et extérieure] x 5 800 h [nombre d’heures de chauffe] / 0,8 [rendement du système de chauffe (on évalue une consommation et non un besoin)] = 400 kWh/m² = l’équivalent de 4 seaux de fuel/m².an !

Consommation annuelle d’1 m² de double vitrage basse émissivité :

= 1,1 W/m².K x (15 – 6)

x 5 800 h / 0,8 = 72 kWh/m²

Rentabilité du remplacement d’un châssis simple vitrage ?

Économie : 328 kWh/m² = 33 litres fuel
Pour un fuel à 0,8€/l, cela revient à 26,4€/m².an
Investissement : 300 €/m²
Temps de retour : 300 € / 26,4 € /an = 11 ans…

C’est donc souvent le confort amené qui justifie le remplacement du simple vitrage.

En pratique

  • Le simple vitrage n’est plus utilisé. En construction neuve comme en rénovation, la réglementation impose pour les fenêtres un Ufenêtre maximum, ce qui implique l’utilisation du double vitrage basse émissivité (dénommé aussi « vitrage à haut rendement HR »).
  • Sans hésiter et dans tous les cas, nous recommandons le choix d’un plus faible coefficient de transmission thermique pour limiter les pertes en hiver. Cette limitation est nettement plus importante que la limitation du refroidissement du bâtiment en été, car la période d’été est plus courte et le delta T°Int-ext est nettement plus faible.
  • Le triple vitrage est de plus en plus utilisé (surtout pour le résidentiel). C’est un vitrage d’épaisseur et de poids importants, s’adaptant à des menuiseries spécifiques.

Interaction entre U et FS ?

Le coefficient de transmission thermique U est peu influencé par les caractéristiques d’absorption ou de réflexion d’énergie. Le facteur solaire FS et le coefficient de transmission lumineuse TL sont indépendants de U.

Les couches à basse émissivité peuvent donc être combinées avec les couches de contrôle solaire réfléchissantes. Il s’agit alors de vitrages combinant les deux effets d’isolation et de contrôle solaire avec les contraintes visuelles que cela entraîne.
Remarques.

  • La performance d’un simple vitrage n’est pratiquement pas améliorée par son épaisseur.
  • Rien ne sert d’améliorer les performances isolantes d’un vitrage si les performances du châssis ou du raccord châssis-mur ne sont pas équivalentes et compatibles avec celles du vitrage. En effet, le calcul du coefficient de transmission thermique d’une fenêtre (Ufen) tiendra compte du coefficient de transmission thermique U du vitrage (Uv), du châssis (Uch) et des effets de bords.

Théories

Pour évaluer le coefficient de transmission thermique U d’une fenêtre, cliquez ici !

Première synthèse

Économie énergie Confort visuel et thermique
… plus le vitrage laisse passer de la lumière, c’est à dire plus son facteur .de transmission lumineuse TL est grand.
  • moins grande est la consommation d’éclairage électrique.
  • plus l’éclairage est naturel et le contact visuel avec l’extérieur agréable.

mais par contre,

  • plus grand sont les risques d’éblouissement si aucun dispositif de protection solaire n’est prévu.
… plus le vitrage est isolant, c’est à dire plus son coefficient de déperdition thermique U est bas.
  • plus les déperditions thermiques seront réduites à travers sa surface en hiver.
  • plus le vitrage est chaud sur sa face intérieure et donc moins la température de l’air intérieur doit être élevé pour assurer le confort en hiver.
… mieux le vitrage contrôle le rayonnement solaire entrant, c’est-à-dire plus son facteur solaire est petit.
  • plus les frais de conditionnement d’air en été sont réduits.

mais, par contre,

  • moins les apports d’énergie gratuite en hiver sont importants.
  • plus les risques de surchauffe du à l’effet de serre sont diminués.

 

  • moins la lumière naturelle pénètre dans le local.

Choix du vitrage en fonction des caractéristiques du bâtiment

Démarche pour le choix

Lors du choix d’un vitrage, les paramètres déterminants seront :

  • l’orientation du bâtiment,
  • l’implantation du bâtiment,
  • les gains internes,
  • la climatisation éventuelle des locaux,
  • le pourcentage de surface vitrée,
  • la taille du local et la photométrie des parois.

L’orientation du bâtiment

Si la performance thermique doit être élevée pour toutes les façades, les besoins en contrôle solaire et lumineux varient suivant l’orientation.

Idéalement, il est conseillé de changer de vitrage à chaque orientation si l’aspect financier et esthétique n’est pas un problème pour le constructeur, mais ce n’est pas souvent le cas. Aussi il est plus intéressant :

  • De déterminer la famille de vitrage la plus performante pour le bâtiment plutôt que le vitrage lui-même, pour avoir une certaine marge de manœuvre.
  • De choisir ensuite dans cette famille, le vitrage le plus polyvalent possible pour ne pas multiplier les vitrages différents.

Pour raisonner plus avant dans ce domaine, on peut avoir 2 hypothèses en tête :

  • Soit le bâtiment est mal isolé ou présente peu d’apports internes (hébergement au sens large) : le chauffage du bâtiment se fait tout au long de la journée et les apports solaires sont les bienvenus.
  • Soit le bâtiment est bien isolé ou présente des apports internes élevés (bureaux au sens large) : le chauffage du matin permet de remettre le bâtiment en température après l’arrêt de la nuit et dès l’arrivée des occupants, les apports internes suffisent pour maintenir la consigne intérieure. Tout apport solaire supplémentaire génèrera de la surchauffe.

… au Nord

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Par contre, ce sont celles où les gains solaires sont les plus appréciés.

… à l’Est et à l’Ouest

Les pièces orientées à l’Est profitent du soleil le matin ce qui, en hiver, permet d’apporter des gains solaires bénéfiques au chauffage en matinée, dans le secteur « hébergement ».

Une orientation Ouest aura tendance à induire davantage des surchauffes. En effet, les vitrages tournés vers l’Ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Dans les 2 cas, le rayonnement solaire est difficile à maîtriser car les rayons sont bas sur l’horizon entraînant des risques d’éblouissement élevés.

Si on veut un contrôle variant en fonction des conditions climatiques, il faut idéalement :

À défaut, un vitrage relativement réfléchissant sera nécessaire, d’autant plus réfléchissant que le pourcentage de surface vitrée est élevé.

Mais, un vitrage trop réfléchissant va augmenter les consommations en hiver, surtout si les gains internes sont faibles… De plus, il ne parviendra jamais à empêcher entièrement l’éblouissement.

 … au Sud

Une orientation sud entraîne un éclairement important. Mais, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée, de sorte qu’une protection extérieure (tel un auvent fixe.). simple permet de diminuer efficacement les gains solaires en été et empêche le rayonnement direct dans les yeux de l’utilisateur.
En été, les apports solaires sur une surface verticale sont également nettement inférieurs au Sud qu’à l’Est ou à l’Ouest car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

L’implantation : présence de masque solaire

Illustration de l'implantation : présence de masque solaire.

Les choix dépendront de la présence d’un masque solaire éventuellement créé par les bâtiments voisins ou des végétations.

Puisque ceux-ci assurent une protection contre l’ensoleillement direct, ainsi on choisira des vitrages possédant un FS et FL élevé, de façon à obtenir un maximum de gains lumineux et énergétiques de types indirects.

Les gains internes

Dans un bâtiment tertiaire conforme à la réglementation thermique en matière d’isolation et disposant d’apports internes normaux pour des bureaux (> 25 W/m²), il n’y a pas intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage.
Cela signifie que, entre deux vitrages, on aura tendance à choisir celui avec le facteur solaire le plus bas.

Plus les gains internes seront élevés, plus on cherchera à limiter les apports externes pour éviter les surchauffes : par un vitrage performant ou par une protection solaire adéquate.

La climatisation éventuelle des locaux

La motivation peut différer si le local est équipé d’un système de refroidissement ou non.

Lorsqu’un local tertiaire n’est pas équipé de système de refroidissement ou de ventilation nocturne, et est soumis à une forte exposition solaire, la limitation du risque de surchauffe entraînera un choix de vitrage avec contrôle solaire efficace : choix d’un vitrage à faible FS, ou protection solaire interne ou externe. Cette nécessité sera d’autant plus importante que l’inertie du bâtiment est faible. Le critère qui consiste à ne pas dépasser un apport (interne + externe) de 50 à 60 W/m² au sol est parfois utilisé.

Par contre, lorsqu’un local est équipé d’un système de refroidissement mécanique, le risque de surchauffe n’existe plus. Le choix d’un faible facteur solaire est motivé par la limitation de la consommation de la climatisation. Or, si le bâtiment est équipé d’une gestion de l’éclairage artificiel en fonction de la lumière naturelle (dimming), le gain sur l’éclairage artificiel est double (gain sur la consommation des lampes et sur la consommation de la machine frigorifique qui ne doit plus évacuer la chaleur correspondante). Dès lors, on aura tendance, dans des limites raisonnables, à privilégier un vitrage favorisant l’apport de lumière et de ce fait … plus perméable à la chaleur. Le vitrage qui présente un FS de 40 % et un TL de 70%, est un excellent point de départ. C’est par simulation informatique que l’on peut alors optimiser le pourcentage de vitrage en façade.

Le pourcentage de surface vitrée dans le local

Le critère thermique impose une limitation des surfaces vitrées dans les façades d’un bâtiment tertiaire, quelle que soit leur orientation.

Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment. C’est donc dès la conception du bâtiment qu’on traitera les fenêtres comme capteur de lumière et de chaleur en tenant compte de l’orientation, de l’occupation et des besoins lumineux et énergétiques propres au local

Une réglementation thermique française, prescrivait une règle concernant la valeur minimale de facteur solaire à atteindre en fonction du pourcentage de surface vitrée :

Le pourcentage de surface vitrée x le facteur solaire de la baie (vitrage + ombrage) < 0,35 (*)

(*) valeur d’application dans le Nord de la France.

Il s’agit de la performance minimale à atteindre pour respecter la Réglementation. Bien sûr, un facteur solaire inférieur est préférable.

Concrètement, cela signifie que :

  • Pour un local dont le vitrage va du sol au plafond (pourcentage de vitrage en façade est de 100 %), un facteur solaire minimal de 35 % est exigé.
    Si aucune protection solaire de type stores, mobiles ou fixes n’est prévue, ceci correspond au minimum aux performances atteintes par un vitrage contre le rayonnement infrarouge absorbant (E) de basse émissivité (6/12argon/6) dont le facteur solaire vaut 36 %.
  • Pour un local dont le pourcentage de vitrage en façade est de 50 %, un facteur solaire minimal de 70 % est exigé.
    Si aucune protection solaire n’est prévue, ceci correspond au minimum à la performance atteinte par un vitrage dont le facteur solaire vaut 70 %.
    Il est à remarquer que ces conditions sont presque atteintes par un vitrage double ordinaire dont le facteur solaire est de 75 %.

La taille du local et la photométrie des parois

Il est évident qu’en cas de locaux profonds ou aux parois sombres, on donnera la priorité à un vitrage assurant une transmission lumineuse importante. Il en va de la qualité architecturale du projet.

Plus d’infos ?

Concevoir

Pour plus d’infos concernant le choix de la fenêtre comme capteur d’énergie, cliquez ici !

Concevoir 

Pour plus d’infos concernant le choix de la fenêtre comme capteur de lumière, cliquez ici !

Le niveau et le type de bruit dont on doit s’isoler

Le choix du vitrage devra s’effectuer en fonction du niveau sonore maximal intérieur acceptable selon l’occupation du local (en terme de confort acoustique), du type et du niveau de bruit extérieur dont on doit s’isoler.

La capacité d’un vitrage à empêcher la transmission des sons aériens provenant de l’extérieur est évaluée par son indice d’affaiblissement acoustique pondéré appelé Rw (dB)

Quel facteur d’affaiblissement acoustique choisir ?

Le type et le niveau de bruit sont fonction de l’environnement dans lequel se trouve implanté le bâtiment.

Selon le contexte urbanistique, on peut évaluer le niveau de l’ambiance sonore théoriquement rencontré.

Généralement ce sont les sites urbains et industriels qui posent le plus de problèmes pour le facteur acoustique.

Théories

Pour avoir une évaluation du niveau de l’ambiance sonore en fonction du contexte environnemental, cliquez ici !

Ensuite, suivant le type d’activité intérieure, on définit le niveau de bruit admissible afin de préserver le confort acoustique.

Théories 

Pour connaître niveau de l’ambiance sonore admissible en fonction de l’activité intérieure, cliquez ici !

Lorsque l’on dispose de ces deux valeurs, en effectuant leur différence, on détermine le taux d’affaiblissement acoustique Rw que devra fournir le vitrage contre les bruits courants.

Quel type de source de bruit : basse ou haute fréquence ?

Pour choisir un vitrage ayant des performances adaptées à la situation, il faut connaître le type de source dont on désire s’isoler. C’est-à-dire si la source est de type basse ou haute fréquence. En effet, un vitrage pour un même niveau sonore, offre des performances acoustiques différentes selon la fréquence.

C’est pourquoi il est caractérisé par son indice d’affaiblissement Rw et ses deux indices de correction (C;Ctr), précisants ses performances vis-à-vis des basses et des hautes fréquences qui peuvent s’avérer fort variables.

Le tableau suivant donne des exemples de choix d’adaptation de l’indice d’affaiblissement Rw, pour déterminer l’indicateur à valeur unique à utiliser en fonction de l’origine du bruit.

Source de bruit

Type « trafic rapide »
Rw + C
Type « trafic lent »
Rw + Ctr
Jeux d’enfants.

XXX

Activités domestiques (conversations, musique, radio, télévision). XXX
Musique de discothèque. XXX
Trafic routier rapide (>80 km/h). XXX
Trafic routier lent (p.ex. :trafic urbain). XXX
Trafic ferroviaire de vitesse moyenne à rapide. XXX
Trafic ferroviaire lent.
Trafic aérien (avion à réaction) de courte distance. XXX
Trafic aérien (avion à réaction) de longue distance. XXX
Avions à hélices. XXX
Entreprises produisant un bruit de moyennes ou hautes fréquences. XXX
Entreprises produisant un bruit de moyennes ou basses fréquences. XXX

Tableau permettant le choix du type de bruit représenté par l’indicateur à valeur unique Rw + C ou Rw + Ctr selon la norme EN ISO 717-1).

Ainsi, si on est en présence de trafic lent, par exemple, on sait que le critère de choix du vitrage portera sur la valeur de son Rw + Ctr. Celui-ci devra atteindre la valeur d’isolation acoustique définie en fonction du niveau de bruit extérieur et du confort acoustique intérieur à atteindre.

Quel type de vitrage choisir ?

L’isolation acoustique que procure un double vitrage est relativement mauvaise. Ainsi, les doubles vitrages clairs ou à basse émissivité sans amélioration acoustique sont à déconseiller en site urbain bruyant.

Les vitrages réfléchissants et absorbants classiques permettent une faible réflexion du son mais cela reste souvent insuffisant.
Les vitrages isolants et absorbants avec de l’argon peuvent s’avérer assez efficaces en cas de trafic à moyenne densité. Ils sont à proscrire en site urbain, car si la présence du gaz permet d’améliorer les performances dans les hautes fréquences (bruits de trafic rapide), les performances s’avèrent moins bonnes, même défavorables, dans les basses fréquences (bruit de trafic urbain).

Pour pallier à ces limites, on utilise les doubles vitrages dissymétriques ou si nécessaire, les doubles vitrages avec verres feuilletés acoustiques.

Afin d’obtenir leurs valeurs exactes d’affaiblissement acoustique, cliquez ici !

Conclusion

Le choix du vitrage dépend du type et du niveau de bruit dont il faut se protéger, et du confort acoustique exigé. Chacune des options adoptées permet d’améliorer les performances acoustiques des vitrages dans les différentes fréquences. Cela permet de se protéger efficacement contre les bruits de toutes sortes que peut provoquer l’environnement du bâtiment.

Ces dispositions sont bien sûr additionnables à des dispositions lumineuses ou énergétiques. En effet un film basse émissivité ou réfléchissant peut être ajouté. Il est nécessaire, en effet, de ne pas privilégier un facteur au détriment d’un autre.

Cliquez ici pour accéder à une grille récapitulative des propriétés des vitrages.

> Attention, en matière d’isolation acoustique, la performance globale est déterminée par le maillon le plus faible ! L’inétanchéité à l’air peut détruire un projet…
La règle de base est donc avant tout d’assurer une résistance maximale au passage de l’air au niveau de l’enveloppe globale (c.-à-d. raccord chassis-vitrage, ouvrant-dormant et chassis-mur, … ) et d’assurer des raccords souples entre les éléments de façon à absorber au maximum les vibrations.


Sécurité

Le choix d’un vitrage de sécurité dépend du type de risque encouru. Et celui-ci dépend à son tour du niveau où on se trouve dans le bâtiment.

  • Au-rez-de chaussée, dans les bureaux et/ou les commerces, les risques seront :
    • risque de bris par tout type de projectiles,
    • risque de destruction par balle,
    • risque de blessure en cas de chute contre la glace,
    • risque d’effraction, que le verre devra retarder au maximum.
  • Aux autres niveaux, dans les bureaux, les risques seront :
    • risque de blessure en cas de chute contre la glace,
    • risque de chute de personne au cas de vitrage descendant sous le niveau normal d’un garde-corps.

Quel type de vitrage choisir en fonction de la protection désirée ?

Contre l’effraction

Les vitrages feuilletés constituent un bonne protection car ils résistent aux coups et lorsqu’ils se fissurent ils restent entiers sans sortir du châssis. Leur résistance est fonction du nombre de films et de l’épaisseur des verres.
Le tableau suivant reprend la valeur indicative du nombre de films en PVB à utiliser en fonction du niveau de protection souhaité.

Type de protection

Degré de protection

Nombre de films de PVB
Protection contre le vandalisme. Protection contre le vandalisme non organisé. 3
Retardateur d’effraction. Protection contre l’effraction organisée. 4
Protection de haut niveau. 6
Très haut niveau de protection contre toutes formes d’agressions à arme blanche. Compositions multifeuilletées

Bien sûr, il faut que le degré de sécurité accordé aux vitrages soit compatible avec le degré de sécurité accordé aux châssis, aux systèmes de ventilation, aux raccords châssis-mur, …

Remarque : Les vitrages feuilletés à résine coulée ne se prêtent pas à la protection anti-effraction, mais ils peuvent être utilisés en toiture car, en cas de bris de vitre, l’adhérence verre-résine permet aux fragments du vitrage cassé de rester en place. Ils permettent de plus d’absorber les bruits dus aux impacts de pluie. Les vitrages en toiture devront offrir une résistance mécanique plus importante à cause du poids propre du vitrage et de la surcharge provoquée par la présence de neige éventuelle.

Contre les risques de blessure

On préconisera souvent un verre trempé car il se fragmente en petits morceaux non coupants. Par contre la vitre n’offre plus aucune protection contre les chutes une fois cassée …

Le verre trempé offre de plus, une très bonne résistance aux chocs thermiques : ils peuvent résister à un différentiel de température de 200°C. Mais il faut savoir que les verres trempés ne peuvent plus être coupés, sciés ou percés après l’opération de trempe.
Il faut proscrire le verre armé car sa fragmentation ne répond pas aux exigences en la matière.

Photo de vitrage brisé.

Contre les risques de chute

On utilisera exclusivement le verre feuilleté. En effet même si le verre se fissure, le film intercalaire maintient les morceaux en place évitant les blessures et la chute des occupants.

Si le verre doit résister aux chocs thermiques, il peut être trempé avant d’être feuilleté.

Contre la destruction par balle

Il s’agit d’un domaine très spécialisé. Il est, dès lors, recommandé de consulter un spécialiste.

Contre le feu

La résistance au feu concerne surtout les vitrages intérieurs qui servent à empêcher la propagation du feu.

Les verres feuilletés classiques n’offrent aucune résistance au feu. Par contre, le verre armé et le verre trempé permettent de retarder un peu la rupture et l’effondrement du verre.
Il existe des vitrages spéciaux résistants au feu. Il s’agit de verres feuilletés avec intercalaire intumescent ou avec gel aqueux.

Quelles sont les combinaisons possibles entre la sécurité et les autres performances ?

Les dispositions relatives à la sécurité sont bien sûr superposables à des dispositions lumineuses, acoustiques ou énergétiques. En effet, un film basse émissivité et/ou réfléchissant peut être ajouté au sein du double vitrage. Les verres absorbants peuvent être trempés. Il est nécessaire de ne pas privilégier un facteur au détriment d’un autre.

La présence de verre trempé ou feuilleté ne modifie pas la valeur du coefficient de transmission thermique U. Par contre, le procédé de trempe modifie quelque peu l’aspect superficiel et les propriétés de réflexion du vitrage. Le feuilletage du verre le rend plus bleuté, mais ne modifie pas ses propriétés énergétiques et lumineuses (un verre feuilleté offre un coefficient U pratiquement égal à un verre monolithique de la même épaisseur).

On remarque que les verres feuilletés de sécurité sont en général très efficaces contre le bruit. On peut estimer qu’un bon vitrage thermique feuilleté pourra assurer, à la fois, les fonctions acoustique, sécurité et thermique dans un site urbain très bruyant.


L’effet esthétique produit / ou recherché

Ce sont les vitrages à contrôle solaire qui offrent les aspects les plus variés. En effet, ces vitrages peuvent être clairs ou teintés (bronze, gris, argenté, vert, bleu…). Ils confèrent aux vitrages des propriétés de réflexion ou d’absorption lumineuses très diverses.

Les vitrages basse émissivité ont un reflet qui diffère un peu d’un double vitrage classique mais dans des proportions moindres. Les caractéristiques de sécurité par contre modifient peu l’aspect du vitrage. Les vitrages feuilletés peuvent avoir un reflet plus bleuté. Les vitrages trempés ou durcis peuvent contenir de légers dessins colorés dus à des phénomènes d’interférence appelés  »fleurs de trempe ». Ils proviennent du procédé de trempe qui modifie quelque peu l’aspect superficiel et les propriétés de réflexion du vitrage.

Quel effet esthétique recherché ?

Photo de bâtiment vitré.

Aujourd’hui le verre est fort utilisé en façade, même comme matériau d’allège. On crée ainsi une continuité et un lissage parfait de la façade.

Pour ces raisons, les vitrages réfléchissants ou absorbants sont fort utilisés. Ils assurent, en plus, une intimité totale intérieure et une protection contre le rayonnement solaire.

L’effet esthétique provoqué par des verres réfléchissants ou colorés sera parfois fortement influencés par l’environnement, l’état du ciel, l’orientation de la façade, la position de l’observateur, la présence de store, la couleur des menuiseries. Il est donc important de faire des études préalables, éventuellement même à l’aide de prototypes.

Précautions

Le vitrage réfléchissant, en plus de réfléchir le paysage, réfléchit le soleil. Cela peut créer des éblouissements indésirés pour les bâtiments voisins. De plus, il diminue définitivement les apports de lumière naturelle à l’intérieur du local quelle que soit son orientation.

Ces vitrages réfléchissent la lumière provenant du milieu le plus lumineux. Dès lors, le soir, c’est l’éclairage artificiel des locaux qui sera réfléchi vers l’intérieur, la vue vers l’extérieur ne sera alors plus possible.

Les vitrages absorbants et réfléchissants ont des couleurs très variables. Leur coloration a une répercussion directe conséquente sur la perception des couleurs.

L’uniformité

Si on souhaite une uniformité de la façade, il convient de placer côte à côte le même type de vitrage sans inverser les faces. Cela concerne tant la couleur et la réflexion que le pouvoir isolant et l’épaisseur. Des épaisseurs de vitrages différentes nécessitent souvent des cadres différents.


Le coût

Le choix adéquat d’un vitrage peut fort diminuer les consommations d’énergie. Il est nécessaire avant de rejeter un vitrage à cause de son prix, d’évaluer rapidement la rentabilité de ce vitrage par rapport au coût d’investissement.

Les facteurs intervenants dans le prix d’un vitrage sont :

  • Sa qualité : plus il est performant plus, il est cher.
  • Ses dimensions : plus il est grand ou épais, plus il est cher.
  • La quantité commandée : plus on en commande, moins il est cher.

Pour se faire une idée, voici une estimation de prix de vitrage au m², fourniture et mise en œuvre compris.
On consultera les fabricants pour avoir des informations plus précises.

Type de verre ou vitrage

Composition en mm Estimation en €/m²
Vitre simple claire neutre 6 mm 45 50
Vitre simple claire neutre 12 mm 110 130
Vitre simple claire réfléchissante 6 mm 95 105
Verre armé* 6 mm 35 37
Verre feuilleté* 44.2 60 85
Vitrage Rf (résistant au feu)* 1/2 heure 310 400
Vitrage Rf (résistant au feu)* 1 heure 570 620
Double vitrage ordinaire (U=2.9 W/m²K) 4-12-4 mm 48 50
Double vitrage ordinaire (U=2.9 W/m²K) 6-12-6 mm 52 57
Double vitrage isolant
à basse émissivité
6-12-6 mm 65 75
Double vitrage réfléchissant clair 6-12-6 mm 145 150
Double vitrage acoustique 8-12-4 mm (38 dB) 115 120
Double vitrage acoustique 10-20-4 mm (41 dB) 125 130
Vitrage chromogène 11 mm 2 480 2 975
Triple vitrage 28 mm 80 85

(*) S’ils sont montés en double vitrage, au prix des vitrages de sécurité, il sera nécessaire d’ajouter celui d’un vitrage simple supplémentaire.

Choisir un fluide frigorigène [Concevoir – Climatisation]

Il existe différents types de fluides frigorigènes sur le marché. En voici les critères de choix :

Choisir un fluide frigorigène


L’impact environnemental

Reprenons différents fluides en fonction de leur impact environnemental dans le tableau ci-dessous. Ce tableau met bien en évidence le fait que les HFC sont en sursis comme le prévoit la réglementation européenne (règlementation dite F-gaz). Celle-ci prévoit en effet une réduction d’utilisation de 79% de l’utilisation des gaz fluorés d’ici 2030 par rapport à l’utilisation faite en 2015.

Aujourd’hui les solutions de remplacement ne sont pourtant si pas évidentes. Il faudra s’orienter vers des (nouveaux ?) fluides à faible Potentiel de Réchauffement Global (PRG) ou des fluides naturels.

Cependant, pour ces derniers, il faudra faire face aux contraintes de sécurité associées au CO2 (haute pression) au propane et au butane (inflammabilité) et à l’ammoniac (toxicité).

ODP
(/R-11)
GWP
(kg éq. de CO2)
ODP
(/R-11)
GWP
(kg éq. de CO2)
CFC
(interdits)
Mélanges de HCFC
R-11 1 4 000 R-404A 0 3 260
R-12 0,8 8 500 R-407C 0 1 530
R-502 0,2 5 490 R-410A 0 1 730
HCFC Mélanges à base R-22
R-22 0,04 1 700 R-408A 0,7 2 650
HFC
(corps purs)
Autres
R-134a 0 1 300 Propane / Butane 0 20
R-125 0 2 800 Ammoniac 0 <1
R-143a 0 3 800 CO2 0 1

Remarque : certains imaginent qu’à défaut de trouver le gaz parfait, on pourrait produire le froid dans des machines frigorifiques très compactes (donc contenant peu de fluide), puis transférer le froid par des caloporteurs (eau glycolée, CO2,.). Dans ce cas, le problème du fluide ou de sa sécurité est moins crucial.


L’impact énergétique (ou qualité thermodynamique)

Par ses propriétés thermodynamiques, le fluide frigorigène influence la consommation énergétique de la machine frigorifique. Pour illustrer ce point, nous reprenons ci-dessous les résultats d’une étude comparative entre 5 fluides différents, utilisés dans une même machine, avec les mêmes conditions de fonctionnement.

Source : ADEME, « le froid efficace dans l’industrie ».

Dans chaque cas, l’objectif est de produire une puissance frigorifique de 100 kW.

NH3 R-134a R22 propane R-404A
Puissance effective sur l’arbre [kW] 30,7 30,9 32,1 33,1 35,1
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Débit volumique balayé dans le compresseur [m³/h] 239 392 224 250 217
Débit volumique de liquide frigorigène [m³/h] 0,53 1,91 1,75 2,42 2,70
Température de refoulement de la compression réelle adiabatique [°C] 156 60 87 63 59

Hypothèses de l’étude

  • Cycle à compression monoétagée;
  • Température d’évaporation : – 15°C;
  • Surchauffe à la sortie de l’évaporateur : 5 K;
  • Surchauffe à l’entrée du compresseur : 10 K;
  • Température de condensation : 30 °C;
  • Sous-refroidissement en sortie de condenseur : 5 K
  • Taux d’espace mort du compresseur : 3 %.

Analyse

Les températures de refoulement de la compression indiquée sont légèrement plus élevées qu’en réalité parce que le compresseur est placé dans une situation de non-échange avec l’extérieur (adiabatique). Par exemple, le compresseur réel à l’ammoniac qui échangerait 1/10 de sa puissance sur l’arbre aurait une température au refoulement d’environ 142°C.

On constate que le groupe au R-404A consomme 14 % de plus que le groupe à l’ammoniac. La machine équipée de propane n’est pas très performante non plus.

Le R-134a est très performant sur le plan énergétique. Par contre, le débit volumique balayé par le compresseur est nettement plus élevé, ce qui va augmenter la taille du compresseur et des conduites d’aspiration (coût d’investissement plus élevé).

L’ammoniac présente un très faible débit volumique de liquide frigorigène et donc un faible diamètre de la conduite de liquide.

Reprenons les chiffres du COP frigorifique en partant d’une référence 100 pour le R-22 :

NH3 R-134a R22 propane R-404A
Coefficient de performance frigorifique 3,26 3,24 3,12 3,03 2,85
Si le R-22 est pris en référence 100 : 105 104 100 97 91

Des résultats similaires ressortent d’une autre étude relatée par l’ASHRAE, avec comme différence notable un coefficient 99 pour le R-404A. Il faut dire que ce genre d’étude est fonction des options choisies : prendre la même machine frigorifique et changer juste le fluide, ou optimiser tous les composants en fonction des caractéristiques de chaque fluide pour produire la même puissance ?

Cette deuxième étude fournit les coefficients pour d’autres fluides :
R-410A : 99
R-407C : 95

À noter que les débits demandés par le R-407C sont, à 1 % près, identiques à celui du R-22 : il a justement été conçu comme fluide de remplacement. Il est malheureusement zéotrope et présente donc un glissement de température lors du changement d’état (un « glide ») de 7,2 °C, ce qui lui fait perdre 5 % de rendement énergétique.

Conclusion

L’ammoniac et le R-134a présentent une performance énergétique meilleure, mais cet avantage n’est pas suffisant que pour conclure sur ce seul critère.


La sécurité d’usage

De nombreuses études poussées sont menées sur les aspects :

  • toxicité (par inhalation);
  • action biologique (cancers, malformations des nouveaux-nés);
  • action sur les denrées entreposées en chambre froide;
  • inflammabilité.

Certains critères sont facilement quantifiables

  • par la concentration limite d’exposition (exprimée en ppm);
  • par la limite inférieure d’inflammabilité (concentration, en volume, dans l’air sous la pression atmosphérique).

Ce qui a permis de définir un code sécurité (Standard 34 Safety Group) :

NH3 R-134a R22 propane butane R-407C R-404A R-410A
Conc. limite d’exposition (ppm) 25 1 000 1 000 2 500 800 1 000 1 000 1 000
limite inf. d’inflammabilité (%) 14,8 2,3 1,9
Code sécurité B2 A1 A1 A3 A3 A1 A1 A1

La toxicité de l’ammoniac et l’inflammabilité des hydrocarbures entraînent des mesures de sécurité toutes particulières pour leur usage.

La norme NBN EN 378-1 traitant des Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.


Les contraintes techniques

Elles sont nombreuses (niveaux de pression requis, comportement du fluide en présence d’eau, viscosité et donc tendance à fuir de l’enceinte, commodité de détection d’une fuite) et vont influencer l’efficacité et la fiabilité de l’installation.

Une des contraintes fort importantes est le couple formé par le fluide frigorigène et l’huile de lubrification.

De l’huile est nécessaire au bon fonctionnement du compresseur. Un séparateur d’huile est prévu à la sortie du compresseur, mais son efficacité n’est jamais totale. Et la petite quantité d’huile entraînée par le fluide risque de se déposer au fond de l’évaporateur (basse température et faible vitesse). L’échange thermique est diminué et, à terme, l’huile risque de manquer au compresseur. Si autrefois la miscibilité entre le fluide CFC et les huiles minérales était très bonne (le fluide « entraînait » avec lui une certaine dose d’huile assurant une lubrification permanente), il faut aujourd’hui adopter des huiles polyolesters, plus coûteuses, très sensibles à la présence d’eau, et dont on doit vérifier la compatibilité avec les différents matériaux en contact (métaux, joints élastomères, vernis moteur,.).

L’élimination des fluides frigorigènes chlorés, bonne chose pour l’ozone stratosphérique, en est une mauvaise pour la lubrification, le chlore étant bénéfique à la présence du film d’huile. L’emploi d’additifs divers dans les huiles a dû y suppléer.


Le coût

Le prix au Kg du frigorigène est très différent selon qu’il s’agisse d’un fluide simple, comme l’ammoniac, ou d’un fluide plus complexe comme un mélange de HFC.

Mais le coût du fluide frigorigène rapporté à celui de l’installation se situe entre 1 et 3 %, ce qui reste faible. Et les coûts indirects liés au choix du fluide (dispositifs de sécurité, équipements électriques anti-déflagrant, conception étanche du local technique,…) sont sans doute plus déterminants.


Les tendances futures

En HVAC, l’utilisation courante des fluides frigorigènes CFC (R11, R12 et R502) et HCFC (R22)  a été proscrite, car ils avaient le pouvoir de détruire la couche d’ozone et de renforcer l’effet de serre.

Depuis 1990 est apparue une nouvelle famille : les HFC, fluides purement fluorés, dont le R-134a est le plus connu. Malgré tout, ce genre de fluide frigorigène n’est pas idéal sur le plan de l’environnement. Dès lors, l’utilisation dégressive de ces gaz fluorés est imposée par la réglementation. On devra alors s’orienter vers des fluides à potentiel de réchauffement global faible. Cela passera très certainement par :

  • L’élargissement de l’utilisation des fluides toxiques (amoniac) et inflammables (propane, butane)
  • Le développement de nouvelles molécules et de nouveaux mélanges
  • La réduction drastique de la charge et confinement du fluide frigorigène
  • Le retour du CO2

À ce sujet, une étude a été menée en France par  Armines CES, le Cemafroid et ERéIE pour l’AFCE avec le soutien de l’ADEME et d’UNICLIMA. Ce rapport présente notamment un série d’alternatives par secteur. Vous pouvez le télécharger en  ouverture d'une nouvelle fenêtre ! cliquant ici.