Circulateurs [ECS]

Circulateurs [ECS]


Les pompes in-line et les circulateurs à rotor noyé

Dans les installations de chauffage, on peut retrouver 2 types de circulateurs :

  • Les circulateurs à rotor noyé se retrouvent dans toutes les installations. Ils sont montés directement sur la tuyauterie. Le moteur est, en partie, directement refroidi par l’eau de l’installation. Ils sont sans entretien et de coût modeste. Leur rendement est cependant faible mais une partie de leur perte est récupérée par l’eau de chauffage.
  • Les pompes in-line sont aussi directement montées sur la tuyauterie mais le moteur n’est plus refroidi par l’eau du réseau de chauffage. Elles sont pourvues d’une garniture mécanique qui sépare la pompe du moteur. Le refroidissement est assuré par un ventilateur. Les pompes in-line se retrouvent principalement dans les grandes installations de chauffage ou dans les installations de refroidissement pour lesquelles la perte du moteur devient une charge calorifique supplémentaire à compenser.

Circulateur à rotor noyé et pompe in-line (les deux types de circulateur existent en version électronique).


Courbes caractéristiques

Les performances des circulateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants. Attention, les données ainsi reprises sont le résultat de mesures qui, faute d’une normalisation en la matière, peuvent différer d’un fabricant à un autre.

On retrouve, dans les courbes caractéristiques, la hauteur manométrique totale (en mCE ou en bar) que peut fournir le circulateur en fonction du débit, pour chaque vitesse possible du circulateur.

On peut retrouver en parallèle, la puissance électrique absorbée par le moteur, soit sous forme de graphe pour chacun des points de fonctionnement possibles, soit sous forme de tableaux, pour chaque vitesse. Dans ce dernier cas, il est difficile de savoir à quel point de fonctionnement correspond cette puissance (est-ce ou non pour la zone de rendement maximal ?). Il n’y a pas de norme et chaque fabricant peut adopter une règle différente.

Courbes caractéristiques d’un circulateur électronique. On y repère les courbes de régulation (ici, diminution linéaire de la hauteur manométrique avec le débit) et pour chaque point de fonctionnement, on peut établir la puissance électrique absorbée. On y repère les courbes caractéristiques correspondant au régime de ralenti (de nuit). Rem : P1 correspond à la puissance électrique absorbée par le moteur, P2, à la puissance transmise par le moteur à la roue et P3, à la puissance transmise à l’eau.

Courbes caractéristiques d’un circulateur standard à 3 vitesses.

Vitesse P1 [W] In [A]
3 960 1,8
2 590 1,05
1 250 0,47

Puissance et courant nominal absorbés par le circulateur en fonction de sa vitesse.


Les circulateurs standards

On entend par « circulateur standard », un circulateur à rotor noyé dont la vitesse de rotation est réglée manuellement et reste fixe quelles que soient les conditions d’exploitation de l’installation.

On retrouve des circulateurs à 1 ou plusieurs vitesses (3 ou 4), équipés d’un moteur monophasé ou triphasé.

Circulateur à trois vitesses.

Courbes caractéristiques d’un circulateur à 3 vitesses.

Certains circulateurs (c’est valable également pour les circulateurs électroniques) peuvent être équipés d’une coquille isolante sur mesure qui diminue ses déperditions calorifiques.

On peut également y joindre un « display » permanent qui permet de visualiser en temps réel les caractéristiques électriques de fonctionnement telles que la puissance absorbée, l’ampérage, la consommation et les heures de fonctionnement, …

Circulateur équipé d’un module d’affichage des caractéristiques de fonctionnement.


Les circulateurs électroniques ou à vitesse variable

Les circulateurs électroniques ou « à vitesse variable » sont des circulateurs dont la vitesse peut être régulée en continu en fonction de la variation de pression régnant dans le circuit de distribution.

Circulateur avec convertisseur de fréquence intégré.

La régulation de vitesse est intégrée directement dans le circulateur. Elle se fait par cascade d’impulsions pour les petits circulateurs ou au moyen d’un convertisseur de fréquence (technologie semblable à celle utilisée en ventilation) pour les circulateurs de plus de 200 W.

Mode de régulation

Lorsque sous l’effet d’apports de chaleur gratuits, les vannes thermostatiques (où les vannes 2 voies de zone) se ferment, la pression dans le réseau augmente avec une influence néfaste sur le fonctionnement des vannes restées ouvertes.

Les circulateurs électroniques vont automatiquement adapter leur vitesse en fonction de la fermeture des vannes de régulation (donc en fonction des besoins thermiques). Deux types de régulation sont possibles dans ce type d’équipement :

  • soit la vitesse de rotation du circulateur est adaptée automatiquement pour maintenir la pression constante dans le circuit, quel que soit le degré d’ouverture des vannes des régulations,
  • soit la vitesse de rotation du circulateur est adaptée automatiquement en fonction de l’ouverture des vannes de régulation, en diminuant de façon linéaire la pression du circuit. Cette deuxième option est énergétiquement plus intéressante. En effet, si des vannes thermostatiques se ferment, le débit circulant dans le réseau diminue, entraînant une baisse des pertes de charge dans les tronçons communs. Le circulateur peut donc diminuer sa hauteur manométrique,
  • soit la vitesse est commandée par la température extérieure ou la température de l’eau. Dans les installations à débit constant (sans vanne thermostatique), la régulation du circulateur diminue linéairement la pression du circulateur quand la température de l’eau véhiculée diminue. Ce type de régulation peut être utilisée pour accélérer la coupure et la relance de l’installation (notamment pour un chauffage par le sol).

Utilisation d’un circulateur à vitesse variable : le circulateur diminue sa vitesse automatiquement pour assurer le maintien d’une pression différentielle constante en un point choisi du réseau. La solution de la prise de pression entre le départ et le retour en un point du circuit n’est pas standard pour les circulateurs à rotor noyé. La plupart de ceux-ci ne sont, en fait, pas équipés de prises de pression. Le régulateur interne à l’appareil travaille en fonction d’une mesure du courant absorbé, image de sa hauteur manométrique.


Evolution du débit du circulateur lorsque les vannes thermostatiques se ferment : le point de fonctionnement passe de B à A. Si on diminue la vitesse du circulateur en maintenant une pression constante dans le réseau : le point de fonctionnement passe de B à D. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Evolution du débit du circulateur, si on diminue la vitesse du circulateur en diminuant linéairement la pression dans le réseau : le point de fonctionnement passe de B à E. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Théories

Pour en savoir plus sur la régulation de vitesse des circulateurs en fonction de la fermeture des vannes thermostatiques.

Régime jour/nuit

Certains circulateurs électroniques permettent également la programmation d’un régime jour et d’un régime nuit. Cette dernier correspond à une vitesse de rotation fortement réduite.

Pour les circulateurs électroniques traditionnels, la commande du régime de nuit se fait par la régulation centrale de l’installation. Pour les nouveaux circulateurs à aimant permament, la régulation est intégrée au circulateur. Celui-ci diminue sa vitesse s’il mesure, en son sein, une baisse de température d’eau de 10 .. 15°C pendant 2 h. Il revient au régime normal si la température de l’eau augmente d’une dizaine de degré.

Programmation et visualisation des paramètres

Les circulateurs électroniques peuvent être programmés par télécommande infrarouge : mode et paramètre de régulation.

Photo de télécommande infrarouge pour circulateurs électroniques.

Ces télécommandes permettent en outre un contrôle des paramètres de fonctionnement des pompes : hauteur monométrique, débit, vitesse de rotation, température de l’eau véhiculée, puissance absorbée, … .

Coût

Le coût d’un circulateur électronique dépend de la puissance installée : pour les circulateurs de moins de 200 W, la différence de prix, par rapport à un circulateur traditionnel est faible (de l’ordre de 40 %). dès 250 W, la variation de vitesse implique plus que le doublement du prix.

Prix des circulateurs de la marque « x » (à titre indicatif).


Les circulateurs à moteur synchrone ou à aimant permanent

Les circulateurs traditionnels sont équipés d’un moteur électrique asynchrone ayant un rendement souvent médiocre.

Il existe maintenant sur le marché des circulateurs à rotor noyé équipé d’un moteur synchrone à commande électronique.

   

Roue et moteur d’un circulateur à moteur synchrone.

Nous ne disposons actuellement pas d’information neutre concernant les performances énergétiques de ce type de matériel. De l’avis des différents fabricants, ce type de moteur couvrira dans quelques années tout le marché.

Exemple.

Pour un point de fonctionnement de 10 m³/h et 6 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque x, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

470 W

Circulateur électronique à aimant permanent

380 W

Soit une économie de 20 %.

Pour un point de fonctionnement de 15 m³/h et 5 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque y, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

570 W

Circulateur électronique à aimant permanent

420 W

Soit une économie de 26 %. Notons que dans ce deuxième exemple, en plus du moteur, la configuration hydraulique de la roue du circulateur a également été optimalisée pour augmenter le rendement.

Chaudières à condensation [ECS]

Chaudières à condensation [ECS]

Principe de la chaudière à condensation : le retour de circuit de chauffage à basse température amène les fumées de combustion en dessous du point de rosée au sein de l’échangeur, une partie plus ou moins importante de l’eau contenue dans les fumées condense.


Principe de la condensation dans les chaudières

Pouvoir calorifique inférieur (PCI) et supérieur (PCS)

Les produits normaux d’une bonne combustion sont essentiellement du CO2 et de l’H2O. Juste après la réaction de combustion, cette eau issue du combustible se trouve à l’état gazeux dans les fumées. Notons que l’eau à l’état gazeux n’est pas visible, elle est transparente. D’ailleurs, l’air ambiant en contient toujours une certaine quantité.

Imaginons que nous puissions réaliser une combustion parfaite d’un combustible, libérant ainsi le maximum d’énergie sous forme thermique (énergie qui était initialement contenue sous forme chimique dans le combustible).  L’énergie libérée est transmise, d’une part, à la chaudière et, d’autre part, est contenue dans les fumées à température élevée. Si on peut aussi récupérer l’énergie contenue dans ces fumées en abaissant leur température jusqu’à la température ambiante, on dispose théoriquement de toute l’énergie que le combustible contenait initialement. Il s’agit du pouvoir calorifique. Néanmoins, comme évoqué ci-dessus, les fumées contiennent de l’H2O à l’état gazeux. En abaissant la température des fumées, l’eau peut passer à l’état liquide cédant ainsi une énergie, la chaleur de condensation ou énergie latente. Si on est capable de récupérer cette énergie, on parlera du pouvoir calorifique supérieur (PCS). Par contre, si, dans la phase de récupération de l’énergie des fumées, on ne sait pas la récupérer, alors on parlera de pouvoir calorifique inférieur (PCI).

Le pouvoir calorifique supérieur est par définition supérieur au pouvoir calorifique inférieur (PCS > PCI). En effet, on a récupéré la chaleur latente de la vapeur d’eau contenue dans les fumées. Voici les valeurs de pouvoir calorifique pour les combustibles liés à la technologie des chaudières à condensation :

  • Pour le gaz naturel (type L) : PCS = 9,79 kWh/m³N et PCI = 8.83 kWh/m³N, soit PCS = PCI  + 10.8 %
  • Pour le gaz naturel (type H) : PCS = 10.94 kWh/m³N et PCI = 9.88 kWh/m3N, soit PCS = PCI + 10.7 %
  • Pour le mazout (standard) : PCS = 12.67 kWh/kg et PCI = 11.88 kWh/kg, soit PCS =  PCI + 6.6 %

Dans le cas du gaz naturel ?

On voit que l’on peut récupérer jusqu’à 10 % de rendement supplémentaire si on peut condenser la vapeur d’eau des fumées et récupérer parfaitement cette chaleur. On voit donc que le potentiel d’une telle technique pour le gaz naturel est substantiel. À l’heure actuelle, on trouve des chaudières condensation gaz pour toutes les gammes de puissance.

Dans le cas du fuel ?

La technique de la condensation est principalement utilisée dans les chaudières gaz. Il existe également des chaudières fuel à condensation, mais leur utilisation est actuellement moins répandue, pour trois raisons :

  • Teneur en eau plus faible : La teneur en vapeur d’eau des fumées issues du fuel est plus faible que pour le gaz naturel. Il en résulte une différence plus faible entre le PCS et le PCI (pour le fuel : PCS = PCI + 6 %). La quantité de chaleur maximum récupérable est donc plus faible, ce qui rend moins facile la rentabilité du surcoût de la technologie « condensation ».
  • Point de rosée plus bas : Pour que l’eau à l’état gazeux dans les fumées se condense totalement, il faut que la température des fumées soit bien inférieure à la température dite de « rosée » (c’est-à-dire la température à partir de laquelle la vapeur d’eau des fumées se met à condenser, à ne pas confondre avec la température du « rosé » qui, lui, se sert bien frais). Si la différence n’est pas suffisante, autrement dit, la température des fumées pas assez basse, seule une fraction de l’eau condense. On perd donc en efficacité. Parallèlement, on peut difficilement descendre les fumées avec un échangeur en dessous d’un certain seuil. En effet, les chaudières ne possèdent pas des échangeurs de taille infinie. Typiquement, on peut descendre jusqu’à 30 °C dans de bonnes conditions. Le problème est que, dans le cas du mazout, la température à partir de laquelle les fumées condensent (point de rosée) est plus basse (d’une dizaine de °C) que dans le cas du gaz. Il faut donc descendre les fumées à une température relativement plus faible pour pouvoir bénéficier pleinement de l’avantage de la condensation. Or, la température de retour du circuit de chauffage qui assure le refroidissement des fumées dépend, d’une part, du dimensionnement, mais aussi des conditions météorologiques (la température de retour est plus élevée si la température extérieure est plus faible, et donc le besoin de chauffage grand). Dans ces conditions, il est possible que l’on ait moins de périodes où la chaudière condense avec une chaudière mazout qu’avec une chaudière gaz.

Température de condensation des fumées (point de rosée) de combustion du gaz et du fuel, en fonction de leur teneur en CO2. : pour les coefficients d’excès d’air typiques pour le gaz et le fioul, c’est-à-dire 1.2, la concentration en CO2 est de, respectivement, 10 et 13 % donnant une température de rosée d’approximativement 55 °C et 47.5 °C.

  • Présence de Soufre et acidité : Le fuel contient du soufre et génère des condensats plus acides (présence d’H2SO4), corrosifs pour la cheminée et l’échangeur. De plus, lorsque la température d’eau de retour du circuit de chauffage se situe à la limite permettant la condensation des fumées, la quantité d’eau condensée est faible, mais sa concentration en acide sulfurique est très élevée, ce qui est fort dommageable pour l’échangeur. Cela explique pourquoi les fabricants ont mis plus de temps pour le mazout pour développer des chaudières à condensation résistantes aux condensats.

Notons cependant que les gros fabricants de chaudières ont quasiment tous développé des chaudières à condensation fonctionnant au fuel. Néanmoins, ils ne proposent pas toujours ces produits dans toutes les gammes de puissance. L’acier inoxydable de l’échangeur a été étudié pour résister aux condensats acides.
Ainsi, l’existence d’un fuel à très faible teneur en souffre (« Gasoil Extra » avec une teneur en souffre inférieure à 50 ppm) officialisée par un arrêté royal publié le 23 octobre 02, peut ouvrir de nouvelles perspectives aux chaudières à condensation fonctionnant au fuel. Suivant la technologie de la chaudière à condensation au mazout, on est obligé de fonctionner avec un mazout Extra à faible teneur en Soufre ou, si la chaudière le permet, on peut fonctionner avec un mazout standard.

Dans le cas du bois ?

Certains fabricants de chaudières au bois proposent des chaudières à condensation. À l’heure actuelle, cela reste assez rare, mais cela existe. Manquant de retour et de références à ce sujet, nous ne donnerons plus d’information.


Intérêt énergétique d’une chaudière à condensation

Que rapporte une chaudière à condensation par rapport à une chaudière traditionnelle ?

Le gain énergétique réalisé grâce à une chaudière à condensation se situe à deux niveaux :

  1. Gain en chaleur latente : La condensation de la vapeur d’eau des fumées libère de l’énergie. Pour une chaudière gaz, ce gain maximum est de 11 % du PCI tandis qu’il s’élève à 6 % pour le mazout.
  1. Gain en chaleur sensible : La diminution de la température des fumées récupérée au travers de la surface de l’échangeur (de .. 150.. °C à .. 45 °C ..).

Pour comparer le rendement des chaudières à condensation et celui des chaudières classiques, il faut comparer leur rendement global annuel ou rendement saisonnier, qui prend en compte toutes les pertes de la chaudière (par les fumées, par rayonnement et d’entretien), en fonction de la charge réelle de la chaudière durant toute la saison de chauffe.

Ce gain réel obtenu par une chaudière à condensation est difficile à estimer d’une manière générale, car il dépend de la température d’eau qui irrigue la chaudière et qui est évidemment variable (elle dépend de la courbe de chauffe choisie et donc du dimensionnement des émetteurs).

Exemple pour le gaz naturel : 

 

Exemple pour le mazout :

Représentation du rendement utile (sur PCI et sur PCS) d’une chaudière gaz traditionnelle et d’une chaudière à condensation.

Par exemple pour le gaz naturel, avec une température d’eau de 40 °C, on obtient des produits de combustion d’environ 45 °C, ce qui représente des pertes de 2 % en chaleur sensible et des pertes de 5 % en chaleur latente (on gagne sur les 2 tableaux). Le rendement sur PCI est donc de :

((100 – 2) + (11 – 5)) / 100 = 104 %
(ce qui correspond à 93 % sur PCS)

Par exemple pour le mazout, des produits de combustion donnent des pertes de 2 % en chaleur sensible et des pertes de 2 % en chaleur latente. Le rendement sur PCI est donc de :

((100 – 2) + (6 – 2)) / 100 = 102 %

(ce qui correspond à 96 % sur PCS)

Un rendement supérieur à 100 % ?

Ceci est scientifiquement impossible.

Lorsque l’on a commencé à s’intéresser au rendement des chaudières, la technologie de la condensation n’existait pas. On comparait donc l’énergie produite par une chaudière à l’énergie maximale récupérable pour l’époque c’est-à-dire à l’énergie sensible contenue dans le combustible ou PCI (ou HI) du combustible.

De nos jours, ce mode de calcul a été maintenu même si, dans les chaudières à condensation, on récupère aussi une partie de la chaleur latente. On a alors l’impression de produire plus d’énergie que le combustible n’en contient. C’est évidemment faux.

Si l’on voulait être scientifiquement rigoureux, il faudrait comparer l’énergie produite par une chaudière à condensation au PCS (ou Hs) du combustible. Si on commet l’erreur de comparer avec les valeurs PCI d’autres chaudières, on aurait l’impression qu’une chaudière à condensation a un plus mauvais rendement qu’une chaudière traditionnelle, ce qui est aussi erroné.

Par exemple, un rendement utile de chaudière au gaz à condensation de 104 % sur PCI, correspond à un rendement de 93 % sur PCS.

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Besoin d’une température de retour la plus basse possible et émetteurs de chaleur

Pour obtenir les meilleurs rendements, il faut que la température des fumées soit la plus basse possible. Du coup, il faut une température de retour du circuit de distribution de chauffage la plus basse. Cela s’obtient par une bonne conception du circuit hydraulique, essentiellement, en travaillant avec une température de départ plus basse et des émetteurs de chaleur qui travaillent à basse température. On pense naturellement au chauffage par le sol (basé sur le rayonnement). Néanmoins, les radiateurs ou convecteurs basse température peuvent aussi convenir pour atteindre cet objectif.

Rendement théorique utile des chaudières gaz et mazout à condensation en fonction de la température à laquelle on a pu descendre les fumées dans la chaudière : le coefficient d’excès d’air est pris égal à 1.2. On voit que le point d’inflexion où la chaudière au gaz commence à condenser se situe autour de 55 °C alors que ce point se déplace à 47.5 °C pour le mazout.

Quelles sont les conclusions de ce dernier graphe :

  • On voit que la température à laquelle débute la condensation (point de rosée) commence plus tôt pour le gaz (55 °C) que pour le mazout (47.5 °C). Physiquement, c’est dû à la composition des fumées.
  • On remarque que les gains de rendement potentiels grâce à la condensation sont plus faibles avec le mazout que le gaz. Physiquement, c’est dû à une moindre présence d’hydrogène dans le mazout donnant, après réaction, moins d’eau dans les fumées.
  • On remarque qu’il faut être bien en dessous de la température de rosée pour atteindre les meilleurs rendements. En effet, il ne suffit pas d’être à quelques degrés inférieurs à ce point critique. Il faut de l’ordre d’une dizaine de degrés pour assurer une augmentation significative. Encore une fois, la température des fumées dépendra des conditions climatiques et du dimensionnement de l’installation de chauffage.

Intérêt d’une chaudière à condensation pour améliorer une ancienne installation de chauffage ? Oui si régulation adaptée !

Il y a-t-il un intérêt de placer une chaudière à condensation sur un réseau de radiateurs dimensionnés en régime 90°/70 °C ? En effet, si la température de retour est de 70 °C, alors la chaudière ne condensera pas !
Pourtant, il y a bien un intérêt à placer une chaudière à condensation :

  • D’une part, la température de retour ne sera de 70 °C que pendant les périodes plus froides de l’année. En effet, le régime de radiateur 90°/70 °C correspond aux températures extérieures les plus basses, plus particulièrement à la température de dimensionnement de l’installation (en d’autres termes, la température de base qui varie suivant les régions, mais tourne autour de – 10 °C). Si la température de départ est adaptée à la température extérieure (régulation climatique ou glissante), la température de retour sera plus faible pendant les périodes moins froides de l’année pouvant finalement donner lieu à la condensation dans la chaudière.

   

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 90°/70° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~ – 10 °C et ~ – 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière. Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent sur une grande partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la troisième figure que la chaudière gaz à condensation condense 75 % du temps et la chaudière mazout approximativement 40 %.

  • D’autre part, même en l’absence de condensation, les rendements utiles minimum obtenus (95 %) sont supérieurs aux valeurs que l’on rencontre avec les chaudières traditionnelles haut rendement (92 … 94 %). En effet, les chaudières à condensation sont équipées d’échangeurs de chaleur avec une surface plus grande que les chaudières traditionnelles. À température de retour égale, la chaudière à condensation amènera les fumées à un niveau de température plus bas.

Sur base des arguments suivants, le potentiel d’une chaudière à condensation sur une ancienne installation dimensionnée en régime 90°/70° est justifié pour le gaz naturel. Pour les installations au mazout, l’amélioration induite par la condensation est bel et bien présente, mais moins importante : ceci est dû à la température du point de rosée qui est plus basse pour le mazout.

On voit au moyen des figures suivantes que la situation est encore plus favorable à la condensation en présence d’émetteurs dimensionnés en régime 70 °C/50 °C. Dans le cas de la chaudière au gaz, on peut potentiellement avoir une condensation quasi permanente de la chaudière. Pour le mazout, la condensation est aussi majoritairement présente. Par conséquent, pour s’assurer de l’efficacité des installations équipées de chaudières à condensation, il peut être intéressant de redimensionner l’installation en régime 70°/50 °C. C’est généralement possible, dans la mesure où, d’une part, les émetteurs des anciennes installations de chauffage sont souvent largement surdimensionnés en régime 90°/70 °C, et, d’autre part, que la rénovation d’une installation de chauffage va souvent de pair avec l’amélioration des performances de l’enveloppe (rénovation), ce qui réduit significativement la puissance nécessaire des émetteurs.

    

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 70°/50° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~-10 °C et ~- 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière . Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent la majeure partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la dernière figure que la chaudière gaz à condensation condense 100 % du temps et la chaudière mazout approximativement 93 %.

L’intérêt des chaudières à condensation démontré, il faut néanmoins savoir que le circuit hydraulique de distribution de chaleur devra être éventuellement modifié pour assurer une température de retour la plus faible à la chaudière.

Influence de l’excès d’air

L’excès d’air a une influence sur les performances d’une chaudière à condensation. En effet, plus l’excès d’air est important et plus la température de rosée diminue. Comme la température de retour du réseau de distribution de chaleur dépend de sa conception, mais aussi des conditions météorologiques, cette température de rosée devrait être la plus haute possible pour être certain que la chaudière condense efficacement le plus souvent. Autrement, le risque est d’avoir une température de fumée trop élevée et donc de l’eau qui reste à l’état de vapeur dans ces fumées. En conclusion, il faut que l’excès d’air soit le plus faible possible pour avoir une température de rosée la plus haute et de meilleures conditions de condensation.

Rendement utile d’une chaudière gaz de type L en fonction de la température des fumées (fonction de la température de l’eau) et de l’excès d’air (λ = 1,3 équivaut à un excès d’air de 30 %).

Remarque : ce schéma montre que les anciennes chaudières atmosphériques à condensation avaient de moins bonnes performances puisqu’elles fonctionnaient avec un excès d’air supérieur à 50 % (λ = 1,5).

Gains sur le rendement saisonnier

Le gain obtenu sur le rendement saisonnier et donc sur la facture énergétique en choisissant une chaudière à condensation plutôt qu’une chaudière traditionnelle haut rendement peut donc varier entre : 1 et 14 %.

Si on compile les informations de l’ARGB pour le gaz et le résultat des programmes de simulation de certains fabricants, on peut dire que 6 .. 9 % d’économie sur la consommation annuelle est un ordre de grandeur réaliste pouvant être utilisé pour guider le choix de la nouvelle chaudière (voir peut-être un peu plus pour les meilleures installations).


Constitution d’une chaudière à condensation

Type d’échangeur

Les chaudières à condensation actuelles sont composées de deux ou trois échangeurs en série. Ces échangeurs sont soit séparés sous une même jaquette, soit intégrés dans un ensemble monobloc.

Le dernier échangeur sur le circuit des fumées (ou la dernière partie de l’échangeur monobloc) est appelé « condenseur ». C’est dans ce dernier que les fumées doivent céder leur chaleur latente. C’est donc également au niveau de ce dernier que se raccorde le retour d’eau à température la plus basse possible. Cet échangeur est conçu en un matériau supportant la condensation sans risque de corrosion (acier inox, fonte d’aluminium).

Il est également possible d’utiliser un condenseur séparé, rajouté à une chaudière traditionnelle, de manière à en augmenter son rendement. Cela est en principe possible pour toute chaudière gaz et fioul existante. C’est la seule solution si on veut exploiter la condensation avec des chaudières de plus d’un MW.

    

Échangeurs-condenseurs s’adaptant à une chaudière traditionnelle.

Pour obtenir le meilleur rendement de l’échangeur-condenseur, il est important que l’évacuation des fumées se fasse dans le même sens que l’écoulement des condensats, c’est-à-dire vers le bas. Dans le cas contraire, les fumées s’élevant risqueraient de revaporiser les condensats, ce qui ferait perdre l’avantage de la condensation.

Évacuation des fumées dans une chaudière à condensation, dans le sens de l’écoulement des condensats.

Le rendement de combustion obtenu dépend entre autres de la qualité de l’échangeur. Un bon échangeur permettra d’obtenir des fumées dont la température à la sortie de la chaudière est au maximum de 5 °C supérieure à la température de l’eau de retour. Attention, sur les plus mauvaises chaudières à condensation, cette différence de température peut aller jusqu’à 15 °C.

Circuits retour

Certaines chaudières comportent deux branchements de retour : un retour « basse température » au niveau du condenseur et un retour « haute température » au niveau du premier échangeur. Cette configuration permet l’utilisation d’une chaudière à condensation même lorsqu’une partie des utilisateurs demandent une température d’eau élevée (production d’eau chaude sanitaire, batteries à eau chaude, circuits de radiateurs à différents niveaux de température, …). Les circuits qui leur sont propres sont alors raccordés du côté « haute température », les circuits pouvant fonctionner en basse température (circuits radiateurs basse température, chauffage par le sol, …) étant dédiés au retour « basse température ».

Il faut toutefois faire attention : le retour « froid » reste le retour principal de la chaudière.  Le retour chaud by-passe une partie de la surface d’échange.  Il est donc important de maintenir un rapport (60% min, 40% max) entre le retour froid et le retour chaud !

Si l’on place la production ECS sur le retour « chaud » , tout l’été, la chaudière va fonctionner dans de mauvaises conditions, car il n’y a pas de retour « froid ».  Il est donc préférable dans ce cas de surdimensionner la production ECS, de manière à revenir plus froid sur la chaudière, et n’utiliser qu’un seul retour, à savoir le retour « froid » dans ce cas !

Type de brûleur

En gros, en fonction du type de brûleur, on retrouve trois types de chaudière à condensation :

  1. Des chaudières dont le brûleur est un brûleur gaz pulsé traditionnel (souvent 2 allures) commercialisé séparément de la chaudière à condensation.
  2. Des chaudières dont le brûleur est un brûleur à prémélange avec ventilateur (rampe de brûleurs, brûleurs radiant, …), modulant (de 10 à 100 % de leur puissance nominale). La modulation du brûleur se fait soit par variation de vitesse du ventilateur, soit par étranglement variable de la pulsion d’air et de gaz.
  3. Des chaudières gaz à brûleur atmosphérique à prémélange, sans ventilateur. Ces brûleurs sont à une ou 2 allures. Étant donné la technologie assez basique appliquée (contrôle moindre de l’excès d’air, pas de modulation de la puissance), ces chaudières présentent généralement de moins bonnes performances que les 3 premières catégories ci-dessus.

Type d’alimentation en air

Dans certaines chaudières avec brûleur à prémélange, l’air comburant est aspiré le long des parois du foyer avant d’être mélangé au gaz. Il est ainsi préchauffé en récupérant la perte du foyer. Les pertes vers l’ambiance sont dès lors minimes.

Cette configuration liée à une régulation qui fait chuter directement la température de la chaudière à l’arrêt et à un brûleur modulant fonctionnant quasi en permanence en période de chauffe rend inutile la présence d’isolation dans la jaquette de la chaudière.

Chaudière sans isolation, dont l’air est aspiré le long du foyer.

Ces chaudières peuvent être équipées d’un système de combustion étanche (ou à ventouse) dans lequel l’air comburant est directement aspiré à l’extérieur du bâtiment.

Irrigation

Il existe de trois types de chaudière, en fonction du degré d’irrigation minimum exigé :

  • Sans irrigation imposée (chaudières à grand volume d’eau),
  • Avec irrigation faible ou moyenne imposée (chaudières à faible volume d’eau),
  • Avec irrigation importante impérative (chaudières à faible volume d’eau).

Le circuit hydraulique qui sera associé à la chaudière à condensation dépend des exigences suivantes :

  • Pour les chaudières avec faible ou moyenne exigence d’irrigation, c’est la régulation qui doit assurer un débit minimum en toute circonstance, par exemple, par action sur les vannes mélangeuses.
  • Pour les chaudières sans irrigation imposée, les circuits de distribution peuvent être extrêmement simples et optimalisés pour garantir une condensation maximale.

Dans les deux cas de figure, il est impératif d’avoir une régulation performante qui régule la température de départ chaudière en fonction des besoins et /ou de la température extérieure, afin d’optimiser les performances chaudières et limiter les pertes de distribution.

Pertes vers l’ambiance, pertes à l’arrêt et isolation

Certaines nouvelles chaudières gaz à condensation se caractérisent par l’absence d’isolation dans la jaquette. Et pourtant, leurs pertes vers l’ambiance sont très faibles.
Il y a plusieurs raisons à cela :

  • Ces chaudières sont équipées de brûleurs modulants dont la plage de modulation est grande. En journée, puisque le brûleur adapte en permanence sa puissance aux besoins. Celui-ci ne présente nettement moins de périodes d’arrêt.
  • Parallèlement à cela, l’air de combustion est aspiré par le brûleur entre le foyer et la jaquette de la chaudière. Durant le fonctionnement du brûleur, l’air lèche le foyer avant d’être mélangé au gaz. La perte du foyer est ainsi récupérée en grande partie par le brûleur.
  • Lorsque le brûleur s’arrête (par exemple, au moment de la coupure nocturne), la chaudière retombe directement en température (si son irrigation s’arrête). Elle ne présente donc plus de perte.

 Exemples de chaudière à condensation

Exemples de chaudières à condensation : 

Chaudière gaz à condensation, équipée d’un brûleur modulant 10 .. 100 % et d’un réglage automatique de la combustion par sonde d’O2.

Chaudière gaz à condensation à équiper d’un brûleur pulsé traditionnel.

Chaudière gaz à condensation avec brûleur modulant à prémélange et aspiration d’air le long du foyer en fonte d’aluminium.

 

Chaudière fioul à condensation avec brûleur à air pulsé.

Chaudière à pellets à condensation : le refroidissement des fumées s’opère en deux fois. Le premier échangeur correspond aux plus hautes températures tandis que la condensation s’opère dans le second. Cette séparation permet de récupérer le condensat efficacement sans polluer le cendrier de la chaudière.


Circuits hydrauliques associés à une chaudière à condensation

Une chaudière à condensation n’a ses performances optimales que si elle est alimentée avec une eau à basse température, en tout cas inférieure à la température de rosée des fumées (de 53 à 58 °C pour les fumées issues de la combustion du gaz naturel, environ 45 °C pour les chaudières au mazout). Plus la température d’eau de retour est froide, plus la quantité de fumée condensée est importante et meilleur est le rendement.

La configuration des circuits de distribution doit donc être adaptée en conséquence avec comme principes :

  • De ne jamais mélanger, avant le condenseur, l’eau de retour froide et l’eau chaude de départ,
  • D’alimenter le condenseur avec les retours les plus froids.

Cumul imaginaire des recyclages d’eau chaude possibles vers la chaudière. Situations à éviter.

Exemples : schémas hydrauliques proposés par les fabricants de chaudières. Remarque : d’autres schémas sont également proposés par certains fabricants. Il est impossible de les reprendre tous ici. Certains sont particulièrement complexes, pour ne pas dire « biscornus ». Nous ne critiquons pas ici leur efficacité énergétique. Nous pensons cependant qu’il est préférable de choisir les schémas les plus simples, pour des raisons de facilité de conception (diminution des erreurs de conception), de rationalisation de l’investissement et de facilité d’exploitation.

Chaufferie comprenant une chaudière à condensation pouvant fonctionner à débit variable

Exemple 1

La chaudière alimente des circuits de chauffage par radiateurs régulés en température glissante (garantis un retour le plus froid possible vers le condenseur) et une production d’eau chaude sanitaire. Les configurations de la régulation (où la température de départ de la chaudière peut rester constante) et du circuit primaire en boucle ouverte sont extrêmement simples (il n’y a pas de circulateur primaire). Des aérothermes devant fonctionner à haute température d’eau peuvent être raccordés de façon identique à la production d’eau chaude sanitaire.

ATTENTION : Le retour « haute température » by-pass une partie de la chaudière.  Pour l’ECS en été, la chaudière fonctionnera dans de mauvaises conditions !!!  Dans le cas de l’utilisation de deux retours d’eau, le retour « froid » doit rester le principal retour, avec min 60 % du débit contre 40 % max pour le retour « chaud », dans toutes les conditions d’exploitation.

Exemple 2

Le branchement de la production d’eau chaude sanitaire sur le retour « froid » de la chaudière est rendu possible par un dimensionnement de l’échangeur en régime 70°/40°. On peut également raccorder sur ce même retour froid, des batteries de traitement d’air dimensionnées en régime 70°/40° ou des ventilos-convecteurs dimensionnés en régime 55°/40°.

Exemple 3

La présence d’un circuit à très basse température comme le chauffage par le sol est à valoriser pour augmenter la condensation. La chaudière à condensation aura de bonnes performances si la puissance du circuit « basse température » équivaut au minimum à 60 % de la puissance thermique totale.

Chaufferie composée comprenant une chaudière à condensation pouvant fonctionner à débit variable, et une chaudière traditionnelle

Exemple 1

L’enclenchement des chaudières est régulé en cascade. Dans l’ordre d’enclenchement, la chaudière à condensation est prioritaire.

Exemple 2

Le fonctionnement de ce schéma est identique au précédent, mais avec une production d’eau chaude sanitaire fonctionnant en régime 70°/40°.

Exemple 3

La chaudière à condensation et la chaudière traditionnelle sont raccordées en série. La chaudière à condensation préchauffe l’eau de retour. Si la température de consigne du collecteur n’est pas atteinte, la vanne trois voies (1) bascule pour alimenter la chaudière traditionnelle qui se met alors en fonctionnement.

Chaufferie comprenant une chaudière à condensation devant fonctionner à débit constant : bouteille casse-pression et circulateur sur boucle primaire

La chaudière alimente en température glissante les circuits de chauffage par radiateurs.

Le débit constant dans la chaudière est obtenu au moyen d’une bouteille casse pression qui recycle une partie de l’eau de départ lorsque les vannes mélangeuses des circuits secondaires se ferment. Pour obtenir la condensation, malgré la possibilité de retour d’eau chaude de départ vers le condenseur (via la bouteille casse-pression), il est impératif que la température (1) à la sortie de la chaudière suive au plus près la température (2) des circuits secondaires et garantisse une ouverture maximale des vannes mélangeuses. Une régulation climatique peut assurer que la température des radiateurs est mieux adaptée aux besoins de chaleur et, donc, que les vannes mélangeuses sont plus ouvertes.

Ce type de schéma est plus complexe et risque de conduire à des performances moindres puisqu’il est quasi impossible d’empêcher le recyclage partiel d’eau chaude dans la bouteille casse-pression :

  • Les différents circuits n’ont jamais la même température de consigne,
  • Les circulateurs des circuits primaires et secondaires (et donc les débits mis en œuvre) ne sont jamais dimensionnés avec la précision voulue.

De plus, il n’est guère possible de combiner une production d’eau chaude sanitaire avec ce type de chaudière. En effet, celle-ci ne pourra, à la fois, suivre au plus près la température des circuits secondaires et produire de l’eau chaude à plus de 60 °C.

Une solution est de placer un circulateur primaire à vitesse variable. Celui-ci diminuera sa vitesse lorsque la demande des circuits secondaires diminue, empêchant le recyclage d’eau chaude dans la bouteille casse-pression. Il s’agit cependant de rester dans les limites de débit exigé par la chaudière.

Par exemple, la régulation de la vitesse du circulateur peut être réalisée comme suit : la vitesse est augmentée si la température en amont de la bouteille (T°G) est supérieure à la température en aval de la bouteille (T°D) augmentée de 2 K. Inversément, elle sera diminuée si la T°G est inférieure à T°D + 2 K. De la sorte, on est assuré du fait que l’eau de retour remontera en faible quantité dans la bouteille et que l’eau de chaudière ne sera jamais recyclée.

Chaufferie composée comprenant une chaudière à condensation devant fonctionner à débit constant et une chaudière traditionnelle

Dans un tel schéma, la chaudière à condensation est prioritaire dans l’ordre d’enclenchement de la régulation en cascade.
Pour réguler une installation de ce type en favorisant au maximum la condensation sans créer d’inconfort, il est impératif que la consigne de température des chaudières soit d’une part très proche de la température des circuits secondaires (pour éviter un retour d’eau chaude via la bouteille casse-pression) et d’autre part, que cette température soit mesurée en aval de la bouteille casse-pression (en 2 et non en 1, pour éviter une incompatibilité de débit entre le circuit des chaudières et les circuits radiateurs).

Le risque de retour d’eau chaude dans la bouteille casse-pression est moins grand que dans le cas d’une seule chaudière. En effet lorsque les besoins sont moindres et que les vannes mélangeuses des circuits secondaires se ferment, on peut imaginer que seule la chaudière à condensation est en demande. Le débit primaire est alors diminué par 2.

On peut aussi imaginer que, le raccordement du retour vers les chaudières se fasse séparément au départ d’une bouteille casse-pression verticale. Le retour vers les chaudières traditionnelles se raccordera plus haut que le retour des circuits secondaires, qui lui-même sera plus haut que le retour vers la chaudière à condensation. Cette façon de faire permet de diriger le recyclage éventuel d’eau chaude dans la bouteille casse-pression vers la chaudière traditionnelle.


Cheminées associées à la condensation

Les produits de combustion issus d’une chaudière à condensation sont saturés en vapeur d’eau dont une partie va se condenser sur les parois de la cheminée. Cela exclut une évacuation par une cheminée traditionnelle en maçonnerie, car l’humidité provoquerait de graves dommages au bâtiment. De plus, la température trop froide créé une dépression naturelle.

Des solutions particulières ont donc été mises au point pour évacuer les produits de combustion des chaudières à condensation. On rencontre ainsi principalement les deux techniques suivantes :

  1. La cheminée étanche à l’humidité, en acier inoxydable ou matériau synthétique. Elle permet de maintenir une température inférieure au point de rosée sans que l’humidité ne la traverse et attaque la maçonnerie. Fonctionnant en surpression, elle est aussi étanche aux produits de combustion.
  2. Le tubage, qui s’applique en rénovation à une cheminée ancienne. Il doit être étanche, résistant à la corrosion et installé dans une cheminée. Le tubage doit pouvoir fonctionner en surpression dans toute sa longueur. Il peut être réalisé en conduit rigide ou flexible. Dans le cas d’un tubage en conduit flexible, l’aluminium, même de qualité requise, est interdit. Le bas du conduit d’évacuation des produits de combustion doit être équipé d’une purge munie d’un siphon et reliée au réseau d’eaux usées par un conduit en matériau résistant aux condensats, le tube en PVC est réputé convenir pour cet usage.

Notons qu’il existe un agrément technique concernant les conduits de cheminée utilisables en combinaison avec une chaudière à condensation. Seuls ceux-ci peuvent être choisis.

En principe, dans une chaudière à condensation la température des fumées est supérieure à la température de l’eau entrant dans la chaudière d’environ 5 °C. La température des fumées ne peut donc jamais dépasser 110 °C qui est la limite de fonctionnement d’une chaudière. Cependant pour pallier à un défaut de la régulation de cette dernière, un thermostat de sécurité coupant la chaudière si la température des fumées dépasse 120 °C doit être prévu dans les raccordements vers la cheminée en matériau synthétique.

Il est important aussi de signaler que l’on ne peut raccorder sur un même conduit de cheminée, une chaudière traditionnelle et une chaudière à condensation.

Notons également qu’il existe des chaudières à condensation à combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se font par deux conduits concentriques (l’air est aspiré au centre et les fumées rejetées par le conduit extérieur). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical et 160 kW en conduit horizontal.

Chaudières raccordées à un système de combustion étanche (à « ventouse »).

Pour plus d’information concernant la conception des cheminées.


Évacuation des condensats

À l’heure actuelle, il n’existe pas de normes ou de prescription en vigueur pour l’évacuation des condensats. De manière générale, les condensats sont évacués vers l’égout au moyen d’un conduit.

Photo évacuation des condensats vers les égouts.

 Photo face isolée arrière d'une chaudière à condensation au gaz avec son tuyau d'évacuation des fumées.   Photo partie inférieure du conduit de cheminée munie d'un conduit d'évacuation des condensats.

La première figure montre l’évacuation des condensats vers les égouts, la deuxième figure montre la face isolée arrière d’une chaudière à condensation au gaz avec son tuyau d’évacuation des fumées et son conduit d’évacuation des condensats (en blanc), tandis que la dernière figure montre la partie inférieure du conduit de cheminée munie d’un conduit d’évacuation des condensats.

En régime permanent, une chaudière gaz à condensation de 250 kW produit en moyenne environ 14 litres/h de condensat. Ces condensats pour le gaz naturel sont légèrement acides (H2O + CO2). Le degré d’acidité est du même ordre de grandeur que celui de l’eau de pluie (pH : 4 .. 4,5). De plus, l’acidité de ceux-ci est souvent compensée par le caractère plutôt basique des eaux ménagères. Ceci explique qu’il ne soit pas obligatoire de traiter les condensats avant leur évacuation à l’égout. Pour les grandes installations où la production de condensat devient importante devant la quantité d’eau domestique, il peut être judicieux de traiter les condensats avant de les évacuer.

Graphe représentant différents niveaux d’acidité et comparaison avec les condensats des chaudières mazout et gaz.

Dans le cas du mazout, le niveau d’acidité est plus important et est dû à la présence plus importante du soufre au sein du combustible. Le mazout extra, pauvre en Soufre, permet de limiter l’acidité. Dans ce cas de figure, les remarques pour les condensats des chaudières gaz peuvent être appliqué pour la chaudière au mazout extra. Dans le cas du mazout standard, nous conseillons le lecteur de clarifier la situation avec l’installateur ou le bureau d’études. En effet, dans les grandes installations (Pn > ~100 kW), une neutralisation des condensats pourrait s’avérer nécessaire, par exemple, dans le cas d’une utilisation continue de la chaudières (ex. piscine) qui occasionnerait une plus grande production de condensat. Pour relever le pH des condensats, on peut utiliser un bac de neutralisation équipé de filtres de charbon actif : les filtres devront être remplacés de manière périodique pour maintenir l’efficacité.

Dans le cas d’une chaufferie en toiture, il est recommandé de ne pas faire couler les condensats sur la toiture ou directement dans les gouttières (légère acidité, risque de gel et de bouchage des évacuations). Un conduit en matière synthétique raccordé directement à l’égout est indiqué.

Chaudières traditionnelles [ECS]

Chaudières traditionnelles [ECS]

On parle de « chaudière traditionnelle » en opposition aux « chaudières à condensation« . Les « chaudières traditionnelles » sont conçues et exploitées de manière à éviter la condensation des fumées.

La chaleur latente de celles-ci n’étant pas récupérée, les « chaudières traditionnelles » auront toujours un moins bon rendement que les « chaudières à condensation ».


Chaudières gaz ou fuel à brûleur pulsé

Les chaudières à brûleur pulsé sont des chaudières dont le brûleur est choisi indépendamment de la chaudière. Celui-ci peut fonctionner au gaz ou au fuel.

Les chaudières actuelles de ce type sont dites « à foyer pressurisé », c’est-à-dire que le trajet des fumées dans la chaudière est assuré grâce à la pression fournie par le ventilateur du brûleur.

   

Chaudière à foyer pressurisé sans et avec son brûleur.

Types de foyer

En gros, il existe actuellement deux types de chaudière (de puissance > 70 kW) :

  • les chaudières « à triple parcours »,
  • les chaudières « à inversion de flamme ».

Chaudière triple parcours en acier : les fumées quittent le foyer par l’arrière et parcourent à trois reprises la longueur de la chaudière avant d’être récoltées au dos de celle-ci.

Elément d’une chaudière triple parcours en fonte. Les chaudières performantes de ce type possèdent un premier et un dernier élement (refermant le foyer) entièrement parcourus par l’eau, ce qui augmente les surfaces d’échange et diminue les pertes par parois sèches.

Chaudière à inversion de flamme en acier. Dans ces chaudières, souvent de grosse puissance, le foyer est « borgne ». Les fumées ressortent de celui-ci par l’avant (le long de la flamme) avant de parcourir des tubes de fumée. Dans ceux-ci, des turbulateurs (spirales, lamelles métalliques, …) ralentissent les fumées pour augmenter l’échange avec l’eau et doser celui-ci pour éviter les condensations.

La principale différence entre ces deux configurations se situe au niveau des émissions de NOx. En effet, les chaudières à « triple parcours » permettent un court temps de séjour des fumées dans la zone de combustion, contrairement aux chaudières à inversion de flamme dans lesquelles les fumées doivent retransiter par la zone de combustion. Rappelons que un long temps de séjour des fumées dans la zone à plus haute température est favorable à la formation des NOx.

Rendement

Pertes à l’arrêt

Les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont extrêmement faibles (de l’ordre 0,1 … 0,4 % de la puissance nominale de la chaudière).
Cela est la conséquence :

  • d’un degré d’isolation de la jaquette important, équivalent à une épaisseur de laine minérale de 10 cm enveloppant l’ensemble de la chaudière,
  • de la présence d’un clapet (motorisé, pneumatique, …) refermant l’aspiration d’air du brûleur lorsque celui-ci est à l’arrêt.

Isolation de la jaquette d’une chaudière à brûleur pulsé.

Rendement de combustion

Le rendement de combustion de ces chaudières est dépendant du choix du brûleur et de son réglage. Avec un brûleur finement réglé, un rendement de combustion de 93 .. 94 % est tout à fait possible dans les chaudières actuelles les plus performantes.

Rendement saisonnier

Les faibles pertes à l’arrêt et la possibilité d’obtenir des rendements de combustion les plus élevés (sans condenser), font des chaudières à brûleur pulsé les chaudières les plus performantes dans la catégorie des chaudières dites « traditionnelles »:

Exemple. Soit une chaudière correctement dimensionnée (facteur de charge (nB/nT) de 0,3) avec des pertes à l’arrêt (qE) de 0,2 % et un rendement utileutile )de 93 %.

Le rendement saisonnier de cette chaudière est estimé à :

ηsais = ηutile / (1 + qx (NT/NB – 1))

ηsais = 93 [%] / (1 + 0,002 x ((1/0,3) – 1)) = 92,6 [%]


Chaudières gaz atmosphériques

Les chaudières gaz atmosphériques sont des chaudières dont le brûleur ne possède pas de ventilateur.

Ces chaudières sont composées de rampes de brûleurs placés en dessous du foyer. L’aspiration d’air par le brûleur se fait naturellement par le gaz et les flammes. On parle de brûleur atmosphérique traditionnel quand une grande partie de l’air est aspirée au niveau de la flamme et on parle de brûleur à prémélange quand l’air est mélangé au gaz avant la flamme.

Chaudière gaz à brûleur gaz atmosphérique à prémélange.

Un coupe tirage (ouverture de la buse d’évacuation vers la chaufferie), placé à l’arrière de la chaudière annule l’influence du tirage de la cheminée sur la combustion en maintenant une pression constante à la sortie de la chaudière.

Chaudière atmosphérique :

  1. Corps de chauffe (en fonte)
  2. Échangeur à ailettes profilées
  3. Isolation
  4. Bouclier thermique
  5. Buse de fumée avec coupe-tirage intégré
  6. Tableau de commande
  7. Jaquette
  8. Porte d’accès (pivotante)
  9. Collecteur de départ
  10. Collecteur de retour
  11. Brûleur à prémélange (bas NOx)
  12. Rampe gaz
  13. Électrode d’allumage et sonde d’ionisation
  14. Transfo d’allumage
  15. Connecteurs électriques
  16. Vanne gaz à 2 allures
  17. Vanne de vidange

Avantages

  • Le prix moindre. Une chaudière atmosphérique de conception « bas de gamme » coûte moins cher qu’une chaudière équipée d’un brûleur gaz pulsé.
  • L’absence de bruit. Une chaudière atmosphérique ne comportant pas de ventilateur est nettement moins bruyante qu’un brûleur pulsé.
  • La facilité de montage et de réglage.

Inconvénients

  • Un rendement utile moindre. La gestion moins précise de l’excès d’air diminue le rendement utile des chaudières qui est voisin de 91 .. 92 % pour les nouvelles chaudières à prémélange et inférieur à 90 % pour les chaudières de conception plus ancienne (chaudières répondant juste aux exigences de l’AR du 18 mars 97 et encore vendues), alors que l’on peut espérer un rendement de 93 .. 94 % avec une chaudière moderne à brûleur pulsé bien réglée.
  • Une production importante de NOx. Les chaudières atmosphériques « bas de gamme » émettent généralement une quantité importante de NOx, à telle point que certains modèles ne peuvent plus être vendus qu’en Wallonie (émission de NO> 150 mg/kWh) où il n’y a pas de réglementation en la matière. Les technologies du prémélange et le refroidissement de la flamme au moyen de barres métalliques diminuent fortement les émissions de NOx (< 60 .. 70 mg/kWh) pour les rendre compatibles avec la plupart des labels européens.

Brûleur à prémélange « LOW NOx« .

  • Des pertes à l’arrêt plus importantes. Les chaudières purement atmosphériques (c’est-à-dire sans ventilateur) sont généralement parcourues à l’arrêt par un flux d’air continu provoquant des pertes par balayage. Par rapport aux anciens modèles de chaudière atmosphérique, celles-ci sont maintenant limitées : limitation des ouvertures de passage d’air dans les brûleurs à prémélange, ajout sur certains modèles d’un clapet sur les fumées se fermant à l’arrêt. Quelques importants fabricants de chaudières annoncent ainsi (d’autres ne donnent pas de chiffre) des pertes à l’arrêt de leurs chaudières atmosphériques de l’ordre de 0,8 .. 1,3 % de la puissance de la chaudière, sans clapet sur les fumées et de l’ordre de 0,6 .. 0,7 % avec un clapet d’obturation des fumées (pour une température d’eau de 60°C). À titre de comparaison, les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont de l’ordre de 0,1 .. 0,4 %.

Pertes à l’arrêt d’une chaudière atmosphérique à prémélange actuelle de la marque « x » en fonction de la température de l’eau de chaudière.

Exemple.

Il existe sur le marché des chaudières gaz atmosphériques composées de deux ensembles brûleur-échangeur séparés, ce sous une même jaquette. Cette chaudière intègre également la régulation lui permettant de réguler en cascade les deux brûleurs. Des vannes d’isolement permettent également l’isolation hydraulique de l’échangeur à l’arrêt. Cette technique de construction permet donc, dans une seule chaudière, d’offrir les avantages de deux chaudières séparées régulées en cascade : réduction des pertes à l’arrêt, augmentation du temps de fonctionnement des brûleurs.


Chaudières gaz à prémélange avec ventilateur

On associe aussi aux chaudières gaz atmosphériques les chaudières à prémélange total mais équipées d’un ventilateur qui pulse le mélange air/gaz vers le brûleur ou placé sur l’évacuation des fumées, qui aide à vaincre la perte de charge de la chaudière. Le brûleur intégré à ces chaudières peut être un brûleur à rampes comme pour les chaudières atmosphériques ou un brûleur radiant.

Par rapport aux chaudières gaz atmosphériques (sans ventilateur), les chaudières gaz à prémélange avec ventilateur présentent les avantages complémentaires suivants :

  • Les pertes à l’arrêt sont légèrement moindres (0,5 .. 0,7 %, pour une température d’eau de 60°C), soit parce qu’un clapet d’air supprime le tirage au travers du foyer à l’arrêt, soit parce que la configuration du brûleur et du foyer est telle que le balayage d’air est moindre.
  • La technologie du brûleur radiant permet une diminution importante des émissions de NOx.
  • En outre, les brûleurs de ces chaudières sont souvent modulants, (jusqu’à 25 % pour les chaudières qui ne sont pas à condensation) ce qui implique une diminution du nombre de démarrages, donc des émissions polluantes, une diminution des temps d’arrêt de la chaudière, donc des pertes à l’arrêt et une augmentation du rendement utile à charge partielle.
  • Dans le cas d’atmosphère corrosive pour les chaudières, certaines de ces chaudières peuvent être équipées d’un système de combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se fait par deux conduits concentriques (l’air est aspiré par le conduit périphérique et les fumées rejetées par le conduit central). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical.

Chaudières gaz reliées à un système de combustion étanche.

Il est ainsi possible d’atteindre, avec ces chaudières des rendements saisonniers proches de ceux des chaudières pressurisées à brûleur pulsé.


Les technologies « très basse température »

Actuellement, on retrouve sur le marché des chaudières traditionnelles dites :

  • « Basse température », dont la température moyenne d’eau interne ne peut descendre en dessous d’une certaine valeur, de l’ordre de 50 …60°C (on parle aussi dans la réglementation de chaudières « standards »).
  • « Très basse température », ne présentant aucune contrainte en ce qui concerne la température de l’eau.

La troisième catégorie de chaudières étant les chaudières à condensation conçues, elles, pour favoriser la condensation des fumées et fonctionnant avec les températures d’eau les plus basses.

Conception des chaudières « très basse température »

Pour éviter que les fumées ne condensent dans les chaudières « très basse température », les échangeurs de chaleur sont conçus pour qu’à aucun moment la température de paroi de l’échangeur du côté des fumées ne puisse descendre en dessous du point de rosée (.. 45°C .. pour le fuel et .. 55°C .. pour le gaz).

Exemple.

Pour certaines chaudières en fonte, le parcours de l’eau dans la chaudière est conçu pour que l’eau froide de retour n’entre pas en contact direct avec l’échangeur.

Thermographie infrarouge d’un élément en fonte d’une chaudière. l’eau de retour rentre dans l’élément par le dessus (rond bleu). Elle est dirigée vers l’extérieur de l’élément (couronne bleue, jaune et verte). Elle ne longe, ainsi, le foyer et les tubes de fumées qu’une fois réchauffée (zone rouge).

Dans les chaudières en acier, les fabricants utilisent, par exemple, des échangeurs « double parois ». Cela permet à la paroi de l’échangeur, côté fumée, d’être maintenue à une température supérieure à 60°C, même si la température de l’eau est très basse (l’échangeur se comporte comme un double vitrage).

Échangeur d’une chaudière très basse température : les fumées circulent dans les tubes doubles parois. L’absence partielle de contact entre le tube coté fumée et le tube coté eau permet aux fumées de ne pas condenser au contact de la paroi, quelle que soit la température de l’eau dans la chaudière. Sans la double paroi, la température du tube coté fumée serait presqu’égale à la température de l’eau,même si les fumées au centre du tube ont une température élevée, puisque le coefficient d’échange coté eau est nettement plus important que du coté des fumées. Les fumées condenseraient alors le long de la paroi si la température de l’eau descend sous 60°C.

Comparaison énergétique « basse température » et « très basse température »

Rendement de production

En théorie, les chaudières « très basse température » régulées en température glissante présentent un rendement saisonnier supérieur aux chaudières « basse température ». En effet, plus la température de l’eau est basse :

En pratique, la différence n’est pas aussi tranchée. En effet, le rendement de production d’une chaudière « très basse température » ne se démarque pas toujours énormément de celui d’une chaudière « basse température ».

En effet, dans les chaudières « très basse température », pour éviter que les fumées ne condensent au contact de parois de la chaudière irriguées avec de l’eau à température inférieure à 60°C, les constructeurs conçoivent des échangeurs dans lesquels l’échange de chaleur entre l’eau et les fumées est ralenti (par exemple, les tubes doubles parois).

Il en résulte un moins bon échange qu’imaginé théoriquement puisque la température de surface de l’échangeur ne descend pas sous 60° même si la température de l’eau est plus basse. La température des fumées n’est donc pas forcément plus basse pour une chaudière « très basse température » que pour une chaudière « basse température ». Pour limiter cet impact, les constructeurs augmentent la surface d’échange, ce qui augmente la taille des chaudières et leur coût.

Dans les chaudières « basse température », si la température de l’eau ne descend pas en dessous de 60°C, il n’y a aucun risque de condensation côté fumée, et on peut optimiser les surfaces d’échanges et ainsi entraîner une température de fumée plus basse et donc le meilleur rendement de combustion possible.

Pertes à l’arrêt

De plus, il est vrai que la chaudière « basse température » présente des pertes à l’arrêt légèrement supérieures mais celles-ci fortement limitées du fait d’une isolation renforcée et de la suppression des pertes par balayage avec les brûleurs pulsés (pour autant que le clapet d’air se referme effectivement à l’arrêt !).

Attention, cette conclusion n’est plus valable si on choisit une chaudière atmosphérique d’une ancienne conception, et/ou si l’installation est fortement surdimensionnée.

Pertes de distribution et de régulation

La diminution de la température moyenne de l’eau dans la chaudière, en fonction de la saison, n’a pas un intérêt énergétique que sur le rendement de la chaudière :

  • la limitation des pertes par distribution dans le collecteur primaire, dans le cas des circuits avec distribution secondaire possédant sa propre régulation de température (vannes mélangeuses),
  • la limitation des pertes de distribution dans l’ensemble du réseau de distribution dans le cas des installations sans circuit secondaire,

Cela permet également de simplifier la conception des circuits hydrauliques, puisqu’il ne faut plus faire attention à la température de l’eau qui alimentera la chaudière.

Pompes à chaleur

Pompes à chaleur

Pompe air-eau à chaleur réversible.


Vous avez dit « pompe à chaleur » ?

Elle transfère de l’énergie d’un milieu à un autre

Source : ef4.

Une pompe à chaleur (PAC) est une machine dont le but est de valoriser la chaleur gratuite présente dans l’environnement : celle présente dans l’air extérieur, les rivières, le sol. En effet, tout corps, même « froid » contient une quantité importante d’énergie qui peut être récupérée.

Pratiquement, grâce à un fluide décrivant un cycle thermodynamique, la pompe à chaleur retire de la chaleur à une source dite « froide » et la rejette dans une source dite « chaude ». Ce transfert fait appel à un processus forcé, puisque chacun sait que la chaleur se déplace de façon naturelle d’une zone chaude vers une zone froide. C’est pourquoi, la PAC doit être entraînée par un compresseur qui lui amènera l’énergie nécessaire à son fonctionnement.

À titre d’exemple,  pompe à chaleur à placer sur la toiture d’un atelier industriel.

Il est important de préciser que l’on parle ici d’appareils réalisant un transfert, et non une création de chaleur. L’objectif visé – le coefficient de performance – se situe autour de 3 unités de chaleur fournies à la source chaude par unité injectée au compresseur. Cela signifie que pour un kWh consommé et payé, on en reçoit 3 gratuitement

Mais la PAC est un producteur de chaleur « dynamique » : contrairement à une chaudière, une PAC voit ses performances varier selon les conditions d’utilisation. Elle aura ainsi de très bonnes performances de chauffage … en été alors que ce n’est pas en cette période que le besoin de chauffage est présent ! La tâche la plus difficile pour le projeteur, consiste à prendre en considération ce comportement dynamique et à équiper l’installation de telle manière que les conditions limites de fonctionnement ne soient pas dépassées.

Un boom commercial

Il s’agit d’une technologie qui bénéficie d’un fort regain d’intérêt ces dernières années après un premier boom (et une déception…) lors de la crise pétrolière des années 70. Le marché est en pleine expansion :

Développement des ventes de pompes à chaleur en Europe 2005-2013, par catégorie.

Source : https://www.ehpa.org.

Un outil « propre » ?

La PAC permet d’utiliser l’énergie électrique à bon escient. La pompe à chaleur s’inscrit-elle alors dans la démarche « développement durable » ? Il convient de nuancer la réponse.

La pompe à chaleur en tant que telle est une machine intéressante dans la mesure où un kWh payé au niveau mécanique (pour faire tourner le compresseur), on produit 3 à 4.5 kWh d’énergie thermique (suivant la technologie utilisée et la qualité de la mise en œuvre). Néanmoins, toute la question de l’impact environnemental d’une pompe à chaleur se trouve dans la façon de produire ce kWh mécanique. La majorité des PAC utilisent de l’énergie électrique pour réaliser ce travail moteur. Les performances environnementales d’une PAC sont donc directement liées aux performances environnementales de l’électricité que l’on utilise. Prenons différents cas de figure :

  • Dans le cas, plutôt marginal à l’heure actuelle, où l’électricité serait produite par des énergies purement renouvelables, comme des éoliennes ou panneaux photovoltaïques, l’impact d’une PAC est remarquable dans la mesure où elle multiplie l’efficacité des énergies renouvelables pour la production thermique, et globalement, l’impact environnemental est nul. Dans ce cas de figure, il n’y a pas lieu de nuancer le propos : les PACs ont un impact positif.
  • Si l’on consomme l’électricité du réseau électrique belge, les performances environnementales des PAC sont alors à nuancer. À l’heure actuelle, la production électrique est largement dominée par les centrales nucléaires. Celles-ci réalisent autour de 60 % de le production électrique. Le restant de la production est essentiellement réalisé par des centrales travaillant avec les combustibles fossiles (gaz et charbon). Les centrales nucléaires sont caractérisées par des émissions d’équivalent CO2 relativement moindres que les centrales classiques (quoi que cet argument est parfois remis en cause). Du coup, si on fait un bilan global, travailler avec des PAC et l’électricité du réseau émet moins de CO2 que de brûler du gaz ou du mazout localement dans la chaudière de chaque habitation. Néanmoins, gros bémol, il reste la problématique des déchets nucléaires. Même si à court terme, la gestion ou du moins, l’entreposage des déchets nucléaires, est gérable, à long terme, cela peut engendrer de gros soucis. Si on s’intéresse à la consommation en combustible fossile, la PAC combinée à l’électricité du réseau est intéressante comparée à la combustion directe dans l’habitat uniquement si la pompe à chaleur à de bonnes performances, c’est-à-dire si l’on travaille avec du bon matériel, bien conçu par rapport au bâtiment et bien installé. En fait, les centrales utilisent 2 à 2.5 kWh de combustible fossile pour générer 1 kWh électrique. En intégrant les pertes du réseau électrique, il faut que la PAC produise plus de 3 kWh thermiques sur base de ce kWh électrique pour que le bilan environnemental soit intéressant.

Conclusion, l’intérêt environnemental de placer une pompe à chaleur est dépendant de la qualité de l’électricité qui est utilisée pour alimenter la PAC. Dans le cas du réseau électrique belge actuel, l’intérêt d’une PAC est présent sur les émissions de CO2 mais, en ce qui concerne la consommation en énergie primaire, uniquement si les performances thermiques des PAC sont optimisées.


Types de pompes à chaleur

 

Source : ef4.

Les pompes à chaleur sont désignées en fonction des fluides caloporteurs dans lesquels baignent les échangeurs de chaleur de l’évaporateur et du condenseur. Attention, il s’agit bien du fluide caloporteur au niveau de l’évaporateur et du condenseur et qui n’est pas toujours équivalent au type de source chaude ou froide (l’air, l’eau ou le sol). En effet, on peut trouver intercalé, entre le condenseur et la source chaude, ou entre l’évaporateur et la source froide, un circuit intermédiaire. Prenons à titre d’exemple, les PAC Saumure/eau. On trouve du coté évaporateur de l’eau glycolée, eau glycolée dans un circuit qui parcourt ensuite le sol afin d’en extraire la chaleur. Du coté condenseur, on trouve un circuit d’eau qui, par exemple, alimente un circuit de chauffage par le sol pour se décharger de son énergie.

Les principaux types de PAC

Désignation

Évaporateur

Condenseur

Boucle intermédiaire : source froide/évaporateur

Boucle intermédiaire : condenseur/source chaude

PAC Eau/ Eau

Eau

Eau

Non

Oui

PAC Air/ Eau

Air

Eau

Non

Oui

PAC Saumure/ Eau

Saumure

Eau

Oui

Oui

PAC Air/ Air

Air

Air

Non

Non

PAC Sol/Sol

Sol

Sol

Non

Non

Exemple de désignation abrégée :

Type : Eau/ Eau
Température entrée évaporateur : 10 °C
Température sortie condenseur : 45 °C
Désignation abrégée : W10/W45

L’expression W10/W45 signifie que la source froide est une eau à 10 °C et la source chaude une eau à 45 °C. C’est sous cette forme que les fournisseurs désignent leurs produits. Une source de chaleur telle une nappe phréatique ou une eau de surface sera désignée par « eau », l’air atmosphérique ou des rejets gazeux par « air », un mélange eau-glycol qui circule dans le circuit fermé entre une source de chaleur et l’évaporateur par « saumure ». De ce fait, les pompes à chaleur puisant l’énergie du sol seront parfois désignées sous le terme de « saumure ».

Les systèmes les plus répandus sont les systèmes Air/Eau puis Saumure/Eau dont la source de chaleur est souterraine. Les pompes à chaleur Eau/Eau sont souvent soumises à autorisation et sont donc moins courantes en Belgique.


Principe de fonctionnement d’une pompe à chaleur

     

Source : ef4.

Le principe de fonctionnement est le même que celui de la machine frigorifique mais l’application travaille en sens inverse.

Cette fois, l’objectif consiste à extraire la chaleur gratuite d’un milieu extérieur : l’eau d’une rivière, l’air extérieur, l’eau d’une nappe souterraine, … (on parle de « source froide »). Physiquement, l’air extérieur à 0 °C contient beaucoup d’énergie puisque sur l’échelle des températures absolues, l’air se situe en réalité à 273 K !

Schéma du principe de fonctionnement d’une pompe à chaleur.

L’évaporateur est à l’extérieur et la température du fluide frigorigène sera environ 5 à 8 °C inférieure à la température de la source froide. L’énergie thermique captée sera « remontée » à un niveau de température utilisable (pour le chauffage d’une maison, par exemple) via le compresseur : le condenseur est donc à l’intérieur.

Bien sûr, on choisira un émetteur de chaleur à une température la plus basse possible (par exemple, chauffage à air chaud, chauffage à eau chaude par serpentin dans le sol, …). L’écart de température entre l’entrée et la sortie du compresseur doit être en effet le plus faible possible pour limiter le travail du compresseur.

Exemple.

Refroidir l’eau d’une rivière initialement à 10 °C pour assurer le chauffage d’une habitation par de l’air à 35 °C. Le fluide frigorigène passera à 6 °C dans la rivière et à 40 °C dans l’échangeur de chauffage de l’air du bâtiment.


Différents coefficients de performance

SC = source de chaleur (source de froide),   Acc = accumulateur.

L’évaluation de la performance instantanée

On peut déduire le rendement d’une PAC (appelé « ε », indice de performance) sur base du rapport entre l’énergie thermique utile délivrée au condenseur par rapport à l’énergie électrique fournie (et payée) au compresseur.

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

Ce rapport peut être obtenu ou déduit du catalogue du fournisseur, à partir de mesures qu’il aura effectuées dans des conditions standards.

L’évaluation de la performance instantanée, auxiliaires compris

Cette fois, on parle d’un coefficient de performance « COP ».

C’est la norme européenne EN 255 qui définit le coefficient de performance en lieu et place de l’indice de performance présenté ci-dessus. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des dispositifs auxiliaires qui assurent le bon fonctionnement de la pompe à chaleur : le dispositif antigel, la commande/régulation et les installations mécaniques (pompe, ventilateur).

Toutefois, ces mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances particulières. Il ne faut pas perdre cela de vue lorsque l’on travaille avec le COP pour estimer les performances d’une PAC.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

L’évaluation de la performance annuelle, auxiliaires compris :

Le coefficient de performance annuel (« COPA ») est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produites et injectées pendant une année y sont comparées les unes aux autres. Il ne s’agit plus ici d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Imaginons que notre PAC exemple fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.

L’évaluation théorique de la performance annuelle :

Il s’agit du Facteur de Performance Saisonnier (« SPF »).

Alors que le COPA est le rapport entre les valeurs mesurées sur un an de l’énergie calorifique donnée utilement au bâtiment et de l’énergie (souvent électrique) apportée à l’installation, le SPF est le rapport de ces mêmes quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SFP comme ceci :

où,

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an].
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Un rendement qui dépasse 100 % !?

Quel bilan énergétique de la PAC ?

Qu’est-ce qui coûte dans l’exploitation d’une installation de pompe à chaleur ?

  • pas l’énergie de la « source froide » : elle est gratuite,
  • mais bien l’énergie électrique du compresseur.

D’où la notion de rendement donné par « ε », l’indice de performance :

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Or Q2 = Q1 + W = chaleur captée à la source froide + énergie développée par le travail du compresseur (loi de conservation des énergies).

Dès lors, Q2 est toujours plus grand que W et ε est toujours nettement plus élevé que 1.

Est-il normal de rencontrer une machine dont le « rendement » dépasse 100 % ?

En réalité, il ne s’agit pas ici d’une machine de conversion, de transformation d’énergie comme une chaudière (c’est-à-dire transformation d’énergie chimique en chaleur), mais bien d’une machine qui transfère une quantité d’énergie thermique d’un seuil de température à un autre. L’indice de performance n’est donc pas un rendement (de conversion) mais une évaluation de la performance du transfert.

Si l’écart entre les 2 seuils de température augmente, l’efficacité (ε ou COP) diminue.

Quel est le « ε » théorique d’une pompe à chaleur ?

Puisque W = Q2 – Q1, on écrit encore : ε = Q2 / (Q2 – Q1)

Si l’on considère un travail sans pertes, les lois de la thermodynamique établissent le lien entre l’énergie contenue dans un fluide (Q) et la température absolue de ce fluide (T), si bien que l’on admettra sans démonstration l’expression suivante du COP théorique :

ε théorique = T2 / (T2 – T1) [T étant exprimé en Kelvin]

Où :

  • T2 = température de condensation [K].
  • T1 = température d’évaporation [K].

Il faudra donc une température d’évaporation maximale et une température de condensation minimale. Attention cependant à ne pas confondre les températures T1 et T2 du fluide frigorigène avec celles des sources chaudes et froides, même si, par voie de conséquence, le coefficient de performance instantané est d’autant meilleur :

  • que la température de la source de chaleur (= la « source froide ») est élevée,
  • que la température du réseau de chauffage est basse (T2 proche de T1).

Alors que l’on ne peut guère influencer la température de la source de chaleur (la source froide), celle au départ du chauffage sera définie par le projeteur ! Par conséquent, il aura tendance à choisir un chauffage par le sol ou un chauffage à air chaud.

Exemple d’une pompe à chaleur AIR – AIR

Soit T°ext = 0 °C (= 273 °K) et T°chauff. = 40 °C

εthéor = (273 + 40) / (40) = 7,8 !

En théorie, la pompe fournira 8 x plus d’énergie au condenseur que d’énergie demandée au compresseur ! … (les 7/8 de la chaleur étant captés dans l’air extérieur).

Et quel COP pratique ?

En pratique, plusieurs éléments vont faire chuter la performance :

  • Il existe un écart de température entre le fluide frigorigène et les sources.
    Par exemple : si T°ext = 0 °C, T°évaporateur = … – 8 °C… Et si T°chauff. = 40 °C, T°condenseur = … 48 °C… D’où ε = (273 + 48) / (56) = 5,7.
    Le coefficient de convection entre l’eau et l’évaporateur étant nettement meilleur que le coefficient de convection entre l’air et l’échangeur, on aura tendance à privilégier les PAC eau/eau et eau/air. Encore faut-il avoir une rivière au fond de son jardin ou une nappe phréatique sur laquelle il est possible de puiser (autorisation obligatoire). En général, il faudra se résoudre à prendre l’air extérieur comme source froide.
  • Or dans ce cas, si la T°ext < 5 ° C, alors T°fluide évaporateur = 0 °C. Dès lors, du givre apparaît sur les ailettes, la glace bouche l’échangeur extérieur, d’où nécessité de dégivrer (soit un courant électrique est envoyé sur l’échangeur pour faire fondre la glace, soit le cycle est inversé et des gaz chauds sont envoyés dans l’évaporateur).
    Avec la consommation de dégivrage, l’indice de performance moyen diminue fortement.
  • Lorsque la température de l’air extérieur descend sous 0 °C, le compresseur a de plus en plus de mal à fonctionner : la puissance délivrée au condenseur de la pompe à chaleur devient très faible et il faut parfois ajouter des résistances de chauffage électrique directe à l’installation . Paradoxe malheureux, c’est quand il fait très froid que l’habitation demandera le plus de puissance et que la pompe à chaleur lui en donnera le moins!
  • Il y a nécessité de faire fonctionner les ventilateurs des sources froides et chaudes, d’où une consommation électrique supplémentaire de ces auxiliaires.

Exemple. Voici les spécifications techniques d’un climatiseur réversible présent sur le marché. En hiver, ce climatiseur peut fournir de la chaleur au local : il fonctionne alors en mode « pompe à chaleur ».

Unité intérieure

FHYB35FJ

Unité extérieure

RY35D7

Puissance frigorifique

kcal/h

3 100

Btu/h

12 300

kW

3,60

Puissance calorifique

kcal/h

3 500

Btu/h

14 000

kW

4,10

Puissance absorbée

rafraîchissement

kW

1,51

chauffage

kW

1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4
 

  • l’indice de performance au condenseur, ε

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Attention ! Ce coefficient est obtenu dans des conditions très favorables ! En petits caractères, le fabriquant précise qu’il s’agit de valeurs obtenues pour 7 °C extérieurs… Cette performance va s’écrouler en période plus froide. En réalité, c’est le rendement moyen saisonnier qui nous intéresse… mais celui-ci n’est jamais donné puisqu’il dépend des conditions d’exploitation.


Pompe à chaleur sur boucle d’eau

Plusieurs pompes à chaleur sont connectées sur une boucle d’eau commune.

  • En été, elles fonctionnent en machine frigorifique dont le condenseur est refroidi par la boucle d’eau. Celle-ci se refroidit elle-même via par exemple une tour de refroidissement posée en toiture.
  • En hiver, elles fonctionnent en pompe à chaleur dont la boucle d’eau constitue la source « froide ». Celle-ci est elle-même réchauffée par une chaudière placée en série sur la boucle.
  • En mi-saison, ce système prend tout son sens : si simultanément des locaux sont refroidis et d’autres réchauffés, la boucle qui les relie permet le transfert d’énergie entre eux, avec une performance URE remarquable.

Ce système est optimalisé s’il dispose en plus d’un système pour stocker la chaleur et la restituer à la demande, en différé.

Ces PAC/climatiseurs sont constitués de deux parties :

  • Une partie traitement de l’air du local composée principalement d’un filtre, d’un échangeur Air/fréon et d’un ventilateur de soufflage.
  • Une partie circuit frigorifique constituée d’un compresseur, d’une vanne 4 voies d’inversion de cycle, d’un échangeur Eau/fréon raccordé à la boucle d’eau, d’un détendeur capillaire.

Suivant les cycles de fonctionnement, les échangeurs Eau/fréon et Air/fréon sont tour à tour le condenseur ou l’évaporateur du circuit frigorifique; ce basculement est rendu possible par la vanne 4 voies d’inversion de cycle canalisant les gaz chauds sous pression, en sortie du compresseur, vers l’un ou l’autre des échangeurs dans lesquels le fluide frigorigène sera alors condensé en abandonnant ses calories à l’eau ou l’air.


Impact sur l’environnement

Impact sur la couche d’ozone

Les pompes à chaleur récentes sont en général chargées avec des fluides frigorigènes  tels que les HFC, l’ammoniac, le CO2 ou le propane qui n’ont pas d’impact sur la couche d’ozone.

Impact sur l’effet de serre

Pour calculer l’impact sur l’effet de serre d’une pompe à chaleur, et donc la quantité d’équivalents CO2 qu’elle produit, on doit connaître les éléments suivants :

Éléments liés au fluide frigorigène

  1. Le potentiel de participation au réchauffement climatique sur 100 ans du fluide frigorigène choisi (le GWP100 en anglais). Voir ici  pour connaître ces valeurs en kg de CO2 par kg de fluide frigorigène.
  2. La quantité de fluide frigorigène chargée : m en kg, qui dépend du type de PAC. Il faut en effet dix fois plus de fluide frigorigène dans une PAC « sol/sol » à détente directe (à la source froide ET à la source chaude), par rapport à une PAC eau/eau ou eau glycolée/eau.
  3. La quantité annuelle de fluide frigorigène perdue à cause des fuites : L en kg/an que l’on estime à 3 % de la charge m de fluide frigorigène, si la pompe à chaleur est assemblée et testée en usine et non sur chantier. Si la PAC est assemblée sur chantier, on suppose que 10 % de la masse en fluide frigorigène est perdue par les fuites.
  4. Le taux de récupération du fluide frigorigène lors du démontage de la pompe à chaleur : αrecovery qui est estimé à 75 %.

Éléments liés à l’énergie primaire utilisée pour le fonctionnement de la pompe à chaleur et des auxiliaires

  1. La consommation électrique annuelle : E en kWh/an.
  2. Le coefficient d’émissions de CO2 dues à la production d’électricité : β = 0,456 kg de CO2/kWhélectrique si l’on considère que l’électricité est produite dans une centrale TGV.

Éléments liés à la l’utilisation de la pompe à chaleur

  1. Le nombre d’années d’utilisation : n.

Ces éléments entrent dans la formule du TEWI (Total Equivalent Warming Impact) en kg de CO2 :

TEWI = GWP100 x L x n  +  GWP100 x m x (1 – αrecovery)  +  n x E x β         (*)

Le tableau illustre les quantités de CO2 émises par différents types de PAC de 20 kW calorifiques, toutes chargées avec le fluide frigorigène R407C (GWP100 = 1 800 kg CO2/kg FF).

PAC air extérieur/eau
(A2/W35)
PAC eau/eau
(W10/W35)
PAC eau glycolée/eau
(B0/W35)
PAC sol/eau (évaporation directe)
(S-5/W35)
PAC sol/sol (évaporation et condensation directes)
(S-5/S35)
Puissance calorifique 20 kW 20 kW 20 kW 20 kW 20 kW
COP saisonnier moyen 3,5 4,5 4 4 4
Puissance électrique absorbée 20 kW / 3,5
= 5,7 kW
20 kW / 4,5
= 4,5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
Consommation électrique E 5,7 kW x 2 000 h
= 1 1400 kWh/an
4,5 kW x 2 000 h
= 9 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
Consommation appoint 4 kW x 300 h/an
= 1 200 kWh/an
0 0 0 0
Quantité de FFm 6 kg 2,5 kg 2,5 kg 10 kg 18 kg
Quantité annuelle de FF perdue par les fuites L 3 % de 6 kg
= 0,18 kg/an
3 % de 2,5 kg
= 0,075 kg/an
3 % de 2,5 kg
= 0,075 kg/an
10 % de 10 kg
= 1 kg/an
10 % de 18 kg
= 1,8 kg/an
Premier terme de (*) 1 800 x 0,18 x 20
= 6 480 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 1 x 20
= 36 000 kg CO2
1 800 x 1,8 x 20
= 64 800 kg CO2
Second terme de (*) 1 800 x 6 x (1 – 0,75)
= 2 700 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 10 x (1 – 0,75)
= 4 500 kg CO2
1 800 x 18 x (1 – 0,75)
= 8 100 kg CO2
Dernier terme de (*) 20 x (11 400 + 1 200) x 0,456
= 114 912 kg CO2
20 x 9 000 x 0,456
= 82 080 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
Émissions 124 092 kg 85 905 kg CO2 95 025 kg CO2 131 700 kg CO2 164 100 kg CO2
Annuelles de CO2 CO2
/ 20 ans
= 6 205 kg CO2/an
/ 20 ans
= 4 295 kg CO2/an
/ 20 ans
= 4 751 kg CO2/an
/ 20 ans
= 6 585 kg CO2/an
/ 20 ans
= 8 205 kg CO2/an

On voit que le troisième terme de l’expression (*) est de loin le plus important en ce qui concerne les 3 premières PAC de 20 kW étudiées : c’est l’électricité consommée par la pompe à chaleur et ses auxiliaires qui génère le plus de CO2 (entre 80 et 95 % des émissions totales). Les quantités de fluide frigorigène sont par contre tellement élevées dans les PAC à détende directe (les deux dernières colonnes), que les émissions de CO2 leur sont en grande partie dues.

Une pompe à chaleur de 20 kW calorifiques chargée au R407C (deux fois moins polluant que le R404A) génère ainsi entre 4 000 et 8 300 kg de CO2 par an en fonction du type de PAC. En comparaison aux chaudières à mazout (13 600 kg de CO2 par an pour une puissance calorifique de 20 kW) ou au gaz (11 200 kg de CO2 pour cette même puissance), la pompe à chaleur est beaucoup moins polluante.  Les PAC qui présentent l’impact sur l’effet de serre le moins important sont les PAC sur eau de surface, car il n’y a pas lieu de forer et leur COP est élevé.

Les pompes à chaleur à électricité d’origine renouvelable

Les émissions de CO2 générées par l’utilisation d’une pompe à chaleur sont très faibles si l’électricité nécessaire à son fonctionnement est produite par des panneaux photovoltaïques ou par une autre énergie renouvelable. L’impact sur l’effet de serre n’est plus alors causé que par les fuites de fluide frigorigène et par sa récupération en fin de vie de la PAC. Alors, si possible, il faut éviter les grandes quantités de fluide frigorigène, qui annuleraient tout l’effort d’économies de CO2 permis par la production renouvelable d’électricité…

Impact sonore

La pompe à chaleur est une technologie qui émet un fond bruyant. En effet, les pièces mécaniques en mouvement, la circulation d’air, etc., occasionnent un niveau sonore qui sera d’autant plus élevé que les conditions extérieures sont mauvaises (la PAC fonctionne au maximum de ses performances par temps froid). Les compresseurs et ventilateurs sont en l’occurrence, les éléments fautifs…

Une PAC émet entre 50 et 60 décibels à 1 mètre et environ 40 dB à 5 mètres. Une telle installation ne sera tolérable que si elle n’occasionne pas de gêne sonore pour les occupants de l’immeuble et pour le voisinage. Il faut donc l’installer suffisamment loin des fenêtres, des pièces de travail, de repos, etc. La PAC devra être posée sur un silent block (plots antivibratiles).

Autres impacts

L’installation d’une PAC eau/eau sur nappe phréatique montrera un impact non négligeable sur les eaux souterraines. Il existe des réglementations pour ce type de PAC, dont la sévérité dépend de la potabilité de l’eau extraite et du débit nécessaire.

Voir le site de la base de données juridique de la Région Wallonne pour connaître la réglementation concernant les prélèvements et les rejets d’eau souterraine : ouverture d'une nouvelle fenêtre !  wallex.wallonie.be : « Arrêté du Gouvernement wallon modifiant l’arrêté du Gouvernement wallon du 4 juillet 2002 arrêtant la liste des projets soumis à étude d’incidences et des installations et activités classées » du 22 janvier 2004.
L’injection d’eau refroidie dans les eaux de surface peut avoir un impact sur le milieu.

Grandeurs caractéristiques des ventilateurs

Grandeurs caractéristiques des ventilateurs


Diamètre nominal

 La plupart des ventilateurs ne sont pas construits à partir de dimensions arbitraires. Celles-ci sont normalisées, ce qui permet leur interchangeabilité et les comparaisons de prix.

Le diamètre nominal d’un ventilateur est le diamètre de la section de raccordement placée à l’aspiration dans le cas d’un raccordement direct à un conduit. Lorsque le ventilateur est équipé différemment (par ex.: présence d’un pavillon à l’aspiration), on se réfère au ventilateur équivalent en raccordement direct.

Diamètres nominaux en mm

63

71

80

90

100

112

125

140

160

180

200

224

250

280

315

355

400

450

550

560

630

710

800

900

1 000

1 120

1 250

1 400

1 600

1 800

2 000


Courbes caractéristiques

Les performances des ventilateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants.

On retrouve dans les courbes caractéristiques :

  • la hauteur manométrique totale que peut fournir un ventilateur en fonction du débit (ou point de fonctionnement),
  • la vitesse du ventilateur pour chaque point de fonctionnement,
  • le rendement du ventilateur pour chaque point de fonctionnement,
  • la pression dynamique à la sortie du ventilateur,
  • la puissance absorbée à l’arbre du moteur.

Courbes caractéristiques d’un ventilateur centrifuge à aubes inclinées vers l’arrière.

Pour fournir un débit de 8 000 m³/h, le ventilateur délivre une pression dynamique de 45 Pa.

Pour un réseau ayant, avec ce débit une perte de charge de 955 PA, la hauteur manométrique
du ventilateur est de 1 000 PA Pour obtenir ce point de fonctionnement le ventilateur
doit tourner à 1 950 tr/min.
Pour ce point de fonctionnement, son rendement sera de 81 %
et la puissance à l’arbre sera proche de 2,8 kW.

Certaines courbes caractéristiques reprennent de façon semblable la puissance acoustique émise par le ventilateur pour chaque point de fonctionnement.

De même, si l’angle de calage des aubes du ventilateur (ventilateur hélicoïde) peut varier ou si le ventilateur est équipé d’un aubage de prérotation, on retrouvera sur les courbes caractéristiques les différentes performances du ventilateur en fonction du réglage choisi.

On peut également signaler que l’imprécision des mesures des caractéristiques en laboratoire a conduit à éditer des classes de tolérance permettant de se faire une idée de la qualité de la documentation technique fournie par le fabricant.

Classe de tolérance

0

1

2

3

Débit d’air

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Pression

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Puissance absorbée

+ 2 %

+ 3 %

+ 8 %

+ 16 %

Rendement

– 1 %

– 2 %

– 5 %

Puissance acoustique

+ 3 dB

+ 3 dB

+ 4 dB

+ 6 dB


Sens de rotation et position de l’enveloppe

C’est la situation de la manchette de refoulement qui permet de différencier la position de l’enveloppe (0, 90, 180 ou 270 degrés avec parfois des angles intermédiaires comme 45, 135, 270 ou 315 degrés).

Quant au sens de rotation d’une roue, il se détermine comme suit : l’observateur se place face au ventilateur du côté du moteur (ou du manchon d’accouplement ou de la poulie) et regarde dans le prolongement de l’axe de rotation du ventilateur. Si l’observateur voit alors le ventilateur tourner dans le sens des aiguilles d’une montre, le ventilateur est dit tourner « à droite » ou dans le « sens direct » ; s’il le voit tourner dans le sens inverse des aiguilles d’une montre, le ventilateur est dit tourner « à gauche » ou dans le « sens inverse ».


Règles de similitude

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné.

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume (m³/h)

n = vitesse de rotation (tr/min)

p = gain de pression (Pa)

P= puissance sur l’arbre (kW)

p/ p= (n1 / n2)² = (q1 / q2

Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Variation du diamètre de l’ouïe d’aspiration pour un ventilateur tournant à vitesse constante

V/ V= (d/ d2

Légende :

d = diamètre de l’ouïe d’aspiration (mm)

p/ p= (d/ d2

Pw1 / Pw2 = (d1 / d2)5

Absorbeurs acoustiques

Absorbeurs acoustiques


Les silencieux à absorption

Le silencieux à absorption est le plus utilisé dans les installations de ventilation et de climatisation.

Physiquement, l’énergie acoustique du signal sonore est absorbée par les parois et convertie en chaleur.

  1. gaine d’écoulement.
  2. enveloppe perméable aux sons.
  3. matériau d’absorption acoustique.

Le principe consiste à faire circuler l’air entre des plaques de matériau absorbant, appelées baffles (garnie de plaques métalliques dans le cas des silencieux pour basse fréquence). L’atténuation acoustique d’un silencieux est fonction de l’épaisseur des baffles, de l’écartement entre deux baffles et de la longueur de ces derniers

  • Silencieux composés de cinq baffles.
  • Baffle pour silencieux efficace pour les hautes fréquences.
  • Baffle pour silencieux, recouvert en partie d’une tôle métallique pour les basses fréquences.

 

Tourelles d’extraction équipées d’un silencieux.

Il existe également des baffles cylindriques dans lesquels le matériau absorbant est recouvert d’un tube  perforé. Ceux-ci ne permettent pas une atténuation aussi importante que leurs homologues rectangulaires, mais provoquent moins de pertes de charges. Pour les plus grands diamètres, ce type de silencieux est en outre équipé d’un cylindre central (appelé bulbe) pour augmenter ses performances.

    

Silencieux cylindriques sans et avec bulbe.


Les silencieux actifs

L’absorption acoustique a comme principe de créer à l’aide d’un circuit électronique une onde déphasée par rapport à l’onde acoustique qui se propage dans le réseau, annulant cette dernière :

Le bruit incident dans la gaine est transmis par le microphone de détection (situé vers le ventilateur) au calculateur électronique. Celui-ci analyse ce signal entrant, le décompose, calcule le signal inverse et le restitue au haut-parleur. Ce dernier émet le bruit contraire ainsi créé dans le flux d’air qui interfère de manière destructive avec le bruit incident pour l’atténuer. Un microphone de contrôle (à l’opposé du ventilateur) transmet au calculateur le bruit atténué résultant pour qu’il corrige et optimise cette atténuation.

Silencieux actif.

L’énorme avantage de cette technique est de ne créer que peu de perte de charge, contrairement à tous les systèmes dits « passifs ».

Les silencieux actifs sont capables d’éliminer aussi bien des bruits complexes que des sons purs. Ils sont particulièrement efficaces dans l’atténuation des basses fréquence sans sélectivité.

Ils peuvent ainsi être complémentaire aux silencieux à absorption car leur association permet de réduire des niveaux de bruit sur de larges bandes allant des basses aux hautes fréquences.

Les silencieux actif s’insère directement sur un réseau de gaines circulaires mais, pour les gaines rectangulaires des pièces d’adaptation sont nécessaires.

Les turbulences au sein de l’écoulement d’air diminuent les performances de ce type de silencieux. Il faut donc être attentif à les placer dans une portion du réseau où l’air se répartit le plus uniformément sur toute sa section.


La manchette de compensation

La manchette de compensation, ou compensateur élastique, a pour mission de couper les bruits transmis par les solides, grâce à son élasticité.

Tout particulièrement, elle permet de stopper les vibrations générées par le ventilateur dans le caisson de climatisation.

Elle est réalisée en toile à voile, en tissu plastifié ou en matière synthétique.


Le revêtement absorbant de conduit

Un revêtement intérieur fibreux (généralement, il s’agit de panneaux de laine minérale) renforce l’atténuation du son transporté par un conduit d’air.

Il existe des matériaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène. Cet enduit ne doit pas dépasser 0,1 mm d’épaisseur, sans quoi le pouvoir d’absorption est diminué. Les panneaux pouvant émettre des fibres dans le réseau de ventilation sont, quant à eux, à éviter.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Exemple : imaginons un conduit de 0,15 m x 0,15 m de section, d’une longueur de 11 m, munie d’un revêtement absorbant sur 1 m. Quelle sera l’atténuation sonore totale ?

Voici l’atténuation du niveau sonore annoncée par un fabricant de panneaux absorbants [en dB/m] :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

4,5

4

11

16,5

19

17,5

0,30 m x 0,30 m

1,5

1,5

6

15

10

7

0,60 m x 0,60 m

1

1,5

5

12

7

4,5

Remarque.

On constate que l’absorption acoustique d’un matériau fibreux est nettement plus élevée pour les hautes fréquences (sons aigus) que les basses fréquences (sons graves). On constate également que le même absorbant est plus efficace dans un conduit de faible diamètre (la fréquence des chocs avec les parois est beaucoup plus élevée).

Voici l’atténuation linéaire [en dB/m] d’un conduit en tôle d’acier :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

0,6

0,45

0,3

0,3

0,3

0,3

Additionnons les atténuations [en dB] sur les 11 m de conduit :

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

10 m sans revêtement

6

4,5

3

3

3

3

1 m avec revêtement

4,5

4

11

16,5

19

17,5

Atténuation totale

10,5

8,5

14

19,5

22

20,5

Conclusions : Il est très frappant de voir l’efficacité de 1 m de matériau absorbant par rapport à 10 m de tôle non couverte ! En fait, les conduits en tôle avec revêtement absorbant ne sont rien d’autre que des silencieux à absorption…

Eclairage naturel et ses variations

Eclairage naturel et ses variations

La lumière naturelle n’est ni fixe, ni toujours égale dans sa qualité et son intensité.


L’influence du type de ciel

La lumière naturelle traduit les fluctuations de l’état du ciel. Elle est composée de la lumière directe du soleil et de la lumière diffuse du ciel. Les stratégies à mettre en place pour accroître la luminosité intérieure d’un édifice doivent tenir compte de cette différence.

La lumière solaire directe dispense un flux considérable qui s’avère facile à capter et à diriger. Elle présente une dynamique intéressante et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement et ne provoque pas de surchauffe mais elle peut être considérée comme insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes.

Les résultats des simulations présentés ci-dessous mettent en évidence l’influence du type de ciel sur la quantité de lumière qui peut être captée par un local, le 15 mars à 9 heures universelles, pour une ouverture orientée au sud. Le ciel couvert fournit un éclairage parfaitement symétrique par rapport à l’axe du local, ce qui est dû au fait que la distribution des luminances de la voûte céleste d’un ciel couvert est symétrique par rapport au zénith. Ce n’est pas le cas d’un ciel clair. Ainsi, la répartition lumineuse d’un local éclairé naturellement par un ciel serein est très souvent fortement asymétrique. Les simulations réalisées pour un local orienté vers le sud sous un ciel clair et sous un ciel clair avec soleil, le 15 mars à 9 heures, présentent des niveaux d’éclairement nettement plus importants du côté ouest du local.

Par ciel couvert, les niveaux d’éclairement dans le module simulé varient d’environ 1 300 lx, à 50 cm de la fenêtre, à 70 lx au fond du local.

Graphe résultat simulation ciel couvert.

Par ciel clair, ces valeurs d’éclairement augmentent jusqu’à 4 300 lx près de la fenêtre et 300 à 400 lx au fond du local.

Graphe résultat simulation ciel clair.

La présence du soleil dans un ciel clair permet au rayonnement solaire direct d’entrer dans un local. Ainsi, dans la simulation d’un ciel clair avec soleil, le rayonnement solaire direct trace une zone extrêmement lumineuse sur le plan de travail, ce qui porte l’éclairement du côté ouest, à proximité de l’ouverture, à près de 20 000 lx. Dans ce dernier cas, l’éclairement au fond du local vaut environ 500 lx. La lumière solaire disponible diminue donc fortement lorsque le ciel se couvre.

Graphe résultat simulation ciel clair avec soleil.


L’influence du moment de l’année

Pour des conditions de ciel clair avec soleil, le 15 juin à 13 heures universelles, le niveau d’éclairement simulé dans notre cas de base atteint 55 000 lx à proximité de la fenêtre. Mais ces valeurs d’éclairement très élevées ne concernent qu’une bande étroite le long de la façade, ce qui est lié à la hauteur du soleil qui atteint 62° le 15 juin à 13 heures.

Graphe résultat simulation 15 juin.

Par contre, le 15 décembre, l’éclairement est compris entre 14 000 et 11 000 lx sur plus de la moitié du local. Au fond de l’espace, les valeurs atteintes sont de 750 lx le 15 juin et 1 600 lx le 15 décembre.

Graphe résultat simulation 15 décembre.

De l’été à l’hiver, le rayonnement solaire direct pénètre plus en profondeur dans le local mais le niveau d’éclairement à proximité de la fenêtre diminue progressivement.


L’influence de l’heure

Par ciel clair avec soleil, la répartition lumineuse varie fortement d’une heure à l’autre et d’un point à l’autre du local. La lumière disponible augmente jusqu’à la mi-journée, puis diminue.

Pour la journée du 15 décembre, par exemple, les valeurs d’éclairement obtenues à 9 huniv. sont comprises entre 2 600 lx près de la fenêtre et 400 lx au fond du local; tandis qu’à 13 huniv. , l’éclairement vaut 11 000 lx sur plus de la moitié du local et 1 600 lx au fond.

Le rayonnement solaire direct induit une tache de lumière qui évolue, au cours de la journée, depuis le mur ouest du local vers le mur est.

Graphe résultat simulation 9 heures.

Graphe résultat simulation 11 heures.

Graphe résultat simulation 13 heures.

Graphe résultat simulation 15 heures.

Graphe résultat simulation 17 heures.


L’influence de l’orientation de l’ouverture

L’organisation spatiale d’un bâtiment devrait toujours être pensée en fonction du moment d’occupation des locaux, de l’activité qui s’y déroule et de la course du soleil.

   

Il est préférable de placer les fenêtres de telle façon que le soleil puisse pénétrer à l’intérieur d’un local au moment où il est le plus utilisé. Ainsi, les locaux essentiellement occupés le matin devraient, dans la mesure du possible, être orientés à l’est, ceux occupés dans le courant de la journée, au sud et ceux où l’on se tient en soirée, à l’ouest. Pour une habitation domestique, on choisira, par exemple, une orientation est pour la cuisine, tandis qu’une orientation ouest convient davantage à un salon. Les locaux de service ainsi que les pièces de travail nécessitant une lumière constante et homogène sont de préférence localisés au nord.

L’apport de lumière naturelle est maximum sur la façade sud en hiver et en entre-saison. Par contre, en été, le rayonnement solaire est plus important à l’est pendant la matinée et à l’ouest durant l’après-midi.

Les ouvertures orientées au sud offrent donc la meilleure situation puisqu’elles captent un maximum de rayons solaires en hiver et durant l’entre-saison et qu’en été, il est plus facile de se protéger du soleil au sud puisqu’il est plus haut dans le ciel. La façade sud apparaît donc comme l’orientation privilégiée pour capter la lumière naturelle.

Lorsque le ciel est couvert, le rayonnement lumineux est diffusé dans toutes les directions. Les baies vitrées verticales captent donc la lumière de manière similaire, indépendamment de leur orientation. Par contre, lorsque le ciel est clair, l’orientation de la baie vitrée influence directement la quantité de lumière captée. Ainsi, une baie vitrée perpendiculaire aux rayons solaires captera beaucoup plus de lumière que les autres orientations.

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Pendant l’été, elles peuvent devenir une source d’éblouissement, difficile à contrôler car le soleil est bas. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, ce qui est préférable pour certaines activités comme un atelier de peinture, par exemple.

Les pièces orientées à l’est profitent du soleil le matin mais le rayonnement solaire est alors difficile à maîtriser car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin.

Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest assure une insolation directe en soirée. Il est très intéressant d’orienter à l’ouest les locaux où l’on souhaite un éclairage doux et chaleureux. Toutefois, il y a un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important.

De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler et d’un ensoleillement maximal en hiver, ce qui est souvent l’idéal.

En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans la maison tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.


L’influence de l’inclinaison de l’ouverture

La surface à prendre en compte pour étudier la lumière disponible est le plan dans lequel s’inscrivent les limites de la fenêtre. Ainsi, la photo ci-dessous correspond à une ouverture horizontale, même si les vitrages sont obliques.

Pour capter le maximum de rayonnement solaire direct, une ouverture doit être la plus perpendiculaire possible aux rayons du soleil. En revanche, par ciel couvert, les performances d’une fenêtre sont avant tout liées à la portion de ciel visible depuis l’ouverture. Ainsi, une ouverture zénithale horizontale couvre une partie de ciel plus importante qu’une fenêtre verticale et apporte donc une plus grande part de lumière naturelle diffuse dans le local qu’elle éclaire. De même, une fenêtre oblique tournée vers le ciel offre déjà un flux lumineux diffus plus important que la fenêtre verticale.

Les fenêtres de façade et les ouvertures zénithales ont un comportement radicalement divergent en ce qui concerne la sélection des pénétrations solaires.

Les ouvertures latérales ne voient qu’une partie du ciel. Par ciel couvert, ces ouvertures verticales ont donc des performances lumineuses nettement plus faibles que les ouvertures horizontales. En outre, la lumière pénètre latéralement dans les locaux, ce qui peut créer des situations de contre-jour ou d’éblouissement à proximité des fenêtres.

Cependant, les fenêtres latérales en façade sud transmettent un maximum de rayons solaires en hiver, ce qui favorise l’utilisation des gains solaires, tout en limitant les pénétrations estivales et les surchauffes qu’elles induisent.

Schéma fenêtres latérales en façade sud- 01.Schéma fenêtres latérales en façade sud- 02.
Schéma fenêtres latérales en façade sud- 03.

Les ouvertures zénithales s’ouvrent sur la totalité de la voûte céleste; elles induisent donc une large pénétration de lumière diffuse. La distribution lumineuse obtenue par une ouverture horizontale est aussi beaucoup plus homogène que celle produite par une fenêtre verticale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement.

Par contre, par ciel serein, les ouvertures zénithales captent mal les rayons solaires d’hiver alors qu’elles laissent largement pénétrer le soleil d’été, ce qui implique un mauvais comportement thermique.

Schéma ouvertures zénithales - 01. Schéma ouvertures zénithales - 02.
Schéma ouvertures zénithales - 03.

Le graphique donné ci-après présente les valeurs d’éclairement par ciel couvert d’un local comprenant, pour seule ouverture, une fenêtre zénithale horizontale de 1,5 m² de surface placée au centre du plafond, le 15 décembre à 13 heures universelles. Cette fenêtre zénithale donne de très bons résultats puisqu’elle procure un éclairage assez uniforme de l’espace, alors que la surface vitrée est faible. Le désavantage majeur d’une ouverture horizontale réside dans son mauvais comportement par rapport aux gains solaires, qui sont plus élevés en été qu’en hiver.

Graphe résultat simulation ciel couvert.


L’influence de l’environnement

Chaque lieu spécifique développe sa propre identité vis-à-vis de sa région et de son climat général. Le côté est d’une montagne offre de beaux levers de soleil et sa disparition rapide dans la soirée ; le versant ouest montre de superbes couchers mais un soleil qui se lève tard ; le creux de la vallée reçoit une période d’ensoleillement direct plus courte que le sommet de la montagne. La topographie, la végétation, la nature du sol et l’urbanisme influencent entre autres les données météorologiques d’un lieu: chaque site est caractérisé par un microclimat. Dès lors, travailler l’architecture d’un bâtiment en faisant abstraction de son environnement paraît impensable.

La lumière disponible dépend de l’environnement direct du bâtiment par le jeu de différents paramètres : le relief du terrain, les constructions voisines, le coefficient de réflexion du sol, la végétation,…. Ces éléments ne doivent pas être négligés; la présence d’un gratte-ciel, d’un lac ou d’un arbre peut radicalement transformer la lumière d’un espace.

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain peut provoquer de l’ombre sur un bâtiment ou au contraire favoriser son ensoleillement. L’éclairement d’un site en pente dépend de la géométrie solaire ainsi que de l’orientation et de l’inclinaison du terrain. Les pentes sud jouissent d’une meilleure insolation que les terrains plats. Il faut prendre en compte les caractéristiques naturelles du site et tirer profit du profil du terrain, que l’on pourra au besoin remanier localement.

On appelle « masque solaire » tout corps empêchant le rayonnement solaire d’atteindre une surface que l’on désire ensoleiller. En ville, en hiver, il est parfois difficile de capter quelques rayons solaires à cause des bâtiments voisins qui leur font écran.

La quantité d’énergie solaire reçue en un endroit dépend souvent de l’ombrage des bâtiments avoisinants. En Belgique, en hiver, le soleil est bas sur l’horizon. Tous les masques de l’environnement, immeubles ou grands arbres, qui interceptent le soleil pendant cette période gêneront grandement l’utilisation de la lumière naturelle.

Les simulations ci-dessous présentent la diminution du niveau d’éclairement intérieur de notre local suite à l’ajout d’un masque urbain formé par un bâtiment de 30 m de long et de 15 m de haut, placé parallèlement au local simulé, à 18 m de la fenêtre. Cet obstacle correspond à un angle horizontal d’obstruction de 40° et à un angle vertical d’obstruction de 37° depuis le milieu de la fenêtre. La quantité de lumière intérieure est fortement réduite à cause de cette construction: sous ciel couvert, le 15 décembre à 13 huniv., l’éclairement n’est plus que de 80 lx à 2 m de la fenêtre pour le local ombragé par le bâtiment alors que, sans ce masque urbain, il y a environ 200 lx.

Graphe résultat simulation sans bâtiment.

Graphe résultat simulation avec bâtiment.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Pour profiter au maximum de la lumière naturelle, il importe de ne pas négliger le facteur de réflexion des surfaces extérieures environnant le bâtiment. En effet, des surfaces claires et réfléchissantes augmentent la quantité de lumière qui peut pénétrer dans le bâtiment.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Les graphes ci-dessous montrent la variation de la lumière naturelle dans un bâtiment en fonction du coefficient de réflexion du sol qui entoure le bâtiment, le 15 juin à 13 heures universelles sous ciel couvert. Trois matériaux différents ont été simulés : la terre (r = 0,22), qui correspond au facteur de réflexion utilisé pour le sol extérieur de l’ensemble des simulations de ce chapitre, le béton neuf (r = 0,35) et la neige (r = 0,9). Le local est d’autant mieux éclairé que le coefficient de réflexion du sol extérieur est élevé.

Graphe résultat simulation sol extérieur en terre.

Graphe résultat simulation sol extérieur en béton.

Graphe résultat simulation sol extérieur couvert de neige.

L’emploi de matériaux réfléchissants peut également influencer l’exposition effective d’un bâtiment. Un édifice orienté au nord et doté de larges vitrages clairs pour tirer parti de la lumière naturelle peut se trouver dans une situation sud si on construit en face de lui un bâtiment équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement. A l’évidence, les conditions de confort du premier bâtiment sont profondément modifiées par la construction du second.

Des éléments liés au bâtiment lui-même, tels que des murs de refends, des surplombs, des light shelves,….peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La mise en place d’auvents ou de surplombs fixes destinés à réduire les problèmes d’éblouissement et de surchauffe pénalisera bien sûr la quantité de lumière captée par le bâtiment. En général, il est souhaitable en Belgique que les angles d’obstruction ne dépassent pas 45° pour l’angle horizontal et 25° pour l’angle vertical.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Annexe : les paramètres de simulation

Les simulations présentées ci-dessus proviennent du logiciel SUPERLITE, programme d’éclairage naturel faisant partie du progiciel ADELINE.

Elles sont toutes réalisées à partir d’un module de base de 7,2 m de profondeur, 4,8 m de largeur et 3 m de hauteur, éclairé par une fenêtre latérale de 4,58 m de large et de 1,13 m de haut, centrée horizontalement. Le plan de travail et le rebord inférieur de l’ouverture sont situés à 0,75 m du sol. La fenêtre couvre une aire de 5,2 m², ce qui correspond à 15 % de la superficie du plancher de ce local.

Schéma paramètres de simulation.

Les simulations tiennent compte d’un double vitrage, dont le coefficient de transmission lumineuse est de 78 %. Cette vitre est placée en retrait de 0,15 m par rapport au plan de la façade. Le module simulé est situé en site parfaitement dégagé, sans élément d’ombrage. Les coefficients de réflexion des parois intérieures valent 15 % pour le sol, 45 % pour les murs et 70 % pour le plafond.

Les données météorologiques utilisées pour les calculs sont celles d’Uccle (Bruxelles) : 50,8° de latitude (nord), – 4,4° de longitude (est) et 100 m d’altitude. Le moment de la journée simulé est toujours précisé en fonction des heures universelles. Chaque fois qu’un paramètre de ce module de base a été modifié dans une simulation, le changement effectué est clairement précisé.

Automatiser les protections mobiles ?

Trois modes de manipulation

Il existe trois degrés de manipulation des protections solaires amovibles :

  • Manuelle (par manivelle, cordon ou chaînette),
  • motorisée (commande avec bouton poussoir ou télécommande, commande groupée ou individuelle),
  • automatisée.

Quel est le rôle de la gestion automatique ?

Augmenter la protection

Lorsque des apports solaires risquent d’entraîner des surchauffes des locaux et une production de froid importante ou l’éblouissement des occupants, la régulation peut décider le déploiement de la protection.

Cette action peut être préventive et intervenir avant que l’inconfort réel n’apparaisse. En hiver, la nuit venue, la régulation peut prendre en charge l’ajout d’une isolation complémentaire aux fenêtres.

Diminuer la protection

En période de chauffe, des apports extérieurs sont les bienvenus. La régulation peut décider la suppression de la protection pour diminuer les frais de chauffage.

L’automatisation permet en outre de ne pas exposer les protections à des contraintes extérieures excessives (vent, pluie, vandalisme).

La libération automatique des fenêtres en cas d’incendie est également un point à considérer.


Pourquoi automatiser la protection ?

Le rôle de la gestion automatique pourrait être assuré manuellement par un occupant consciencieux. Cependant, il existe plusieurs objections à cela :

    1. L’optimalisation des dépenses énergétiques n’est généralement pas le souci premier des occupants des bâtiments du secteur tertiaire.Exemple : en hiver, qui pensera à baisser son store le soir avant son départ ?
    2. L’oubli de la protection et la non-surveillance des conditions extérieures.

Exemple : une protection extérieure restant déployée durant la nuit alors que le vent se lève risque de se détériorer.

    1. Ou tout simplement l’absence d’occupant dans un local, alors que celui-ci est chauffé ou refroidi.
      Exemple : les apports solaires dans les locaux orientés à l’est peuvent devenir importants avant l’arrivée du personnel. Dans les locaux orientés à l’ouest, les apports les plus importants se produisent en fin de journée. Qui pensera alors à protéger la fenêtre pour empêcher toute accumulation inutile de chaleur après le départ des occupants ? De même dans des locaux inoccupés, il faut prévenir toute accumulation de chaleur qui augmentera ultérieurement ou sur le moment même la nécessité de refroidissement. Ces exemples peuvent être transposés en période de chauffe lorsque les apports extérieurs sont alors les bienvenus.

En conclusion

L’automatisation des protections solaires mobiles permet donc de suppléer à l’absence des occupants ou à leurs carences en matière de gestion des apports énergétiques extérieurs. Cependant, une dérogation est toujours recommandée pour offrir à l’occupant une possibilité d’interagir sur son environnement. Cela lui permettra, en autres, de se protéger d’un éventuel inconfort (dû à l’éblouissement par exemple) ou de satisfaire un besoin d’intimité.


Quelles caractéristiques pour le système d’automatisation ?

Les grandeurs de référence

L’ensoleillement

Un capteur mesure l’intensité lumineuse et active le système de protection en cas de dépassement des valeurs programmées.

La température extérieure

Une sonde de température extérieure empêchera le déploiement des protections en dessous d’une certaine valeur.

La température intérieure

Un thermostat d’ambiance peut commander la protection en fonction de la température intérieure.

La vitesse du vent

Un anémomètre mesure la vitesse du vent et commande un retrait des protections extérieures en cas de menace de tempête.

La présence de pluie

Une sonde détecte la présence de pluie et entraîne le retrait immédiat de la protection.

La date et l’heure

Une horloge quotidienne et hebdomadaire commandera à heures fixes les protections.

Le danger d’incendie

Un détecteur de fumée commande le retrait des protections pour garantir l’accès aux fenêtres et une évacuation possible.

Toutes ces grandeurs ne doivent pas forcément être reprises. Pour les protections extérieures la protection au vent sera la configuration minimale. Son association avec une sonde d’ensoleillement sera aussi couramment rencontrée. La protection contre la pluie n’est importante que pour les protections extérieures horizontales (auvents). Par contre le vent et la pluie n’ont pas d’influence sur les protections intérieures.

Lorsque plusieurs grandeurs sont prises en considération, le régulateur actionnera (en tout ou rien ou en modulation) les protections en fonction d’un des paramètres considéré comme prioritaire ou en fonction d’une combinaison de paramètres.

La temporisation

La temporisation des commandes de l’automatisme est indispensable. En effet, de petites variations passagères des paramètres ne peuvent entraîner des modifications incessantes des protections.

Exemple : le passage d’un nuage, légères variations de température, …

Si tel était le cas, l’abandon de l’automatisme pour un mode manuel serait rapidement opéré par les utilisateurs.

Commande centralisée et dérogation

Une centralisation permet de commander une série de protections pour des locaux d’orientation identique.

Exemple : toute l’aile d’un hôpital, …

Dans ce cas, un local de référence devra accueillir la sonde de température ambiante éventuelle.

Malgré l’automatisation, une dérogation doit rester possible pour les utilisateurs d’un local particulier. Cette liberté sera, au même titre que la protection proprement dite, source de confort et donc d’efficacité pour les occupants. Cependant la dérogation et le fonctionnement en mode manuel ne peuvent rester permanents un retour au mode automatique est obligatoire si on ne veut pas perdre tous les avantages de l’automatisation. Ce retour peut se faire en fonction du temps de dérogation, d’un horaire précis ou de la variation d’un des paramètres. Les paramètres prévenant toute détérioration (vent, pluie) des protections seront prioritaires et indérogeables.

Protection du système

L’automatisation doit être munie d’un système permettant de détecter tout mauvais fonctionnement de la sonde de vent. Par exemple si le régulateur ne détecte aucun mouvement de l’anémomètre durant une période déterminée, il commande le retrait immédiat de la protection et bloque l’automatisme.


Quel est le coût du système de commande ?

Il est difficile de fixer dans l’absolu le surcoût relatif à la motorisation et à l’automatisation des protections mobiles.

Paramètres

Cela dépend  :

  • Du nombre de protections manipulables et gérables simultanément,
  • de l’orientation des locaux,
    Exemple : un local avec une façade vitrée au sud et une à l’ouest devra disposer de deux capteurs d’ensoleillement
  • du nombre de grandeurs prises en compte,
  • du précâblage existant dans le bâtiment,

Pour fixer les idées

D’une manière générale, on peut dire que l’installation de protections motorisées a un coût semblable à l’installation de protections à commande manuelle. Lorsque le nombre de protections gérables simultanément devient important, la commande électrique peut même devenir moins onéreuse que la commande manuelle, grâce à des commandes groupées et à une main d’œuvre nécessaire moins importante (le branchement électrique est plus facile à réaliser que le placement d’une manivelle au travers du châssis ou du mur).

Notons également que la commande électrique des protections sollicite moins les parties mobiles que la commande manuelle et donc leur garantit une durée de vie plus longue.

En fonction du degré de sophistication demandé, le coût d’une gestion automatique se situe dans une fourchette de 250 à 1250 €. Lorsque le nombre de protections gérées est important, on se rend compte que le surcoût relatif de l’automatisation devient nettement moins lourd.

De plus, certains capteurs du système de gestion peuvent déjà faire partie de l’installation de chauffage ou de climatisation comme capteur principal ou de compensation.

Un projet d’installation de protections solaires peut être planifié sur plusieurs années. Si le besoin se fait ressentir, des protections motorisées peuvent être équipées d’une gestion automatique a posteriori sans surcoût important par rapport à un projet initial complet.


Exemple d’automatisation d’une protection mobile

L’exemple ci-contre, se rapporte à un bâtiment précis. Les valeurs de consigne qui y sont mentionnées peuvent varier en fonction de la saison et du type d’inertie du bâtiment. Si le bâtiment est sensible à l’ensoleillement même durant la saison de chauffe, la consigne de température extérieure peut être abaissée. De même, une anticipation face à la surchauffe peut être réalisée en diminuant la température de consigne intérieure. En effet plus le bâtiment est inerte thermiquement, plus l’apparition de la surchauffe sera retardée par rapport à l’ensoleillement.

Choisir une protection mobile, fixe ou permanente

Choisir une protection mobile, fixe ou permanente


Stores enroulables mobiles.

Brise-soleil fixes.

Films pare-soleil permanents.


Pourquoi moduler la protection ?

Des besoins variables

Les besoins de protection des locaux vis-à-vis des apports du soleil sont la plupart du temps variables sur une journée ou encore sur une année :

  • Les apports énergétiques peuvent être souhaités en hiver et au printemps (température extérieure moyenne < 8°C) mais risquent de devenir indésirables en été ou en automne (température extérieure moyenne > 15°C).
  • Les apports solaires seront importants le matin pour les locaux orientés à l’est et le soir pour les locaux orientés à l’ouest.
  • Une augmentation de l’isolation thermique des vitrages est souhaitable durant les nuits d’hiver mais au contraire défavorable au refroidissement du bâtiment durant les nuits en été.
  • L’éblouissement dépend très fort de la hauteur du soleil et donc de l’orientation et de la saison.
  • En absence de soleil, la lumière du jour est souvent la bienvenue.

Optimaliser les besoins de chaleur et de froid

Adapter le degré de protection à ces besoins permettra de gérer les apports gratuits et d’optimaliser les productions de chaud ou de froid (pour autant que celles-ci tiennent compte des apports externes : présence de vannes thermostatiques, sonde extérieure,…) et l’éclairage artificiel des locaux.

L’optimalisation de la protection solaire en fonction des besoins réels dépendra de plusieurs facteurs :

La mobilité de la protection elle-même : certaines protections peuvent être fixes, d’autres complètement amovibles. Le degré d’automatisation de la protection : la manipulation de nombreuses protections peut être motorisée et automatisée. Dans ce cas, le degré de protection sera automatiquement réglé en fonction de grandeurs représentatives des climats intérieurs et extérieurs.

Le comportement des occupants : dans le cas de protections manuelles, le rôle de l’occupant sur l’optimalisation de la protection est important et souvent difficile. Dans le cas de protections automatisées, il faut tenir compte de la liberté de l’occupant et de son pouvoir sur la mise en dérogation du système.


Les protections mobiles

La protection peut varier selon les souhaits de l’utilisateur, quelle que soit l’heure ou la saison.

Exemple : les stores vénitiens, enroulables, à lamelles.

L’adaptation aux besoins en protection ou en apports solaires peut se faire par retrait partiel ou complet (latéral ou vertical en fonction du type de store) ou par inclinaison des lamelles. Cette modulation peut être gérée par l’occupant de façon manuelle ou motorisée (il existe aussi des systèmes avec télécommande) ou de façon automatique grâce à un régulateur.

Store vénitien
intérieur.

Store enroulable
extérieur.


Les protections fixes

Le système est fixe et le degré de protection varie systématiquement en fonction de l’heure et de la saison.

Exemple : les brise-soleil, les avancées architecturales.

Souvent les éléments fixes sont des avancées horizontales au-dessus de la fenêtre, soit des avancées verticales de part et d’autre de la fenêtre.

Le pourcentage de protection de la fenêtre dépend :

  • De la position de la protection par rapport à la fenêtre,
  • de la hauteur du soleil,
  • du rapport entre la largeur de la protection et la hauteur ou longueur (en position verticale) de la fenêtre,
  • de l’espacement et de l’orientation des lames éventuelles.

Brise-soleil.

Avancée architecturale.

Façades sud

Les façades d’orientation proches du sud seront les plus faciles à protéger. Une protection fixe est à même d’éliminer complètement le rayonnement direct estival sans pour autant porter une ombre indésirable en hiver.

Façades est et ouest

Par contre, aucune protection fixe, horizontale ou verticale, ne permet de résoudre le problème propre aux façades est et ouest. Dans ces situations, une protection mobile sera de loin la plus préférable.

En général, une protection optimale, c’est-à-dire adaptée toute l’année aux besoins en chaud ou en froid, est difficile à obtenir avec des protections fixes. En tout état de cause, une étude précise tenant compte des risques de surchauffe et d’éblouissement dus à l’ensoleillement en fonction de la position du soleil et de la saison doit être menée préalablement à tout projet.

calculs 

Pour obtenir une méthode de dimensionnement des protections fixes : cliquez ici !

Exemple : une protection fixe horizontale pour une fenêtre orientée au sud.

en été :
la protection est maximum lorsque le soleil est au zénith

en hiver :
la protection est inopérante

en mi-saison :
aux mois de septembre et de mars, la protection est partielle

En hiver

En hiver, l’absence de protection permet aux apports du soleil de diminuer les frais de chauffage. La situation est intéressante. Cependant, elle ne le sera que si la régulation de l’installation de chauffage tient compte des apports gratuits et que l’ensoleillement ne crée pas de surchauffe en saison froide. Par contre l’éblouissement dû au soleil bas en hiver ne peut être résolu par cette disposition. Pour limiter celui-ci, une protection légère intérieure (rideaux) peut être associée à une protection fixe.

En mi-saison

En mi-saison, on voit que l’ensoleillement des locaux sera le même au printemps qu’en automne, alors que les besoins sont différents. En effet, au mois de septembre, la température moyenne en journée est d’environ 18°C. L’ensoleillement peut dans ce cas devenir source de surchauffe. Au mois de mars, la température moyenne est de 8°C. Dans ce cas, les apports du soleil peuvent être les bienvenus.

Cas particulier : la végétation

La végétation à feuilles caduques apporte une protection qui est naturellement variable. En été, le feuillage apporte un ombrage aux fenêtres et en hiver, la chute des feuilles fait profiter les locaux des apports gratuits du soleil.

Schéma protection solaire végétale.


Les protections permanentes

Le système est fixe et le degré de protection est constant quelle que soit l’heure et la saison.

Exemple : les films collés contre le vitrage, les vitrages spéciaux (réfléchissants et/ou absorbants).

Photo films collés contre le vitrage. Sous notre climat belge, la probabilité d’ensoleillement est inférieure à 20 % en hiver (moins d’un jour sur cinq) et à 50 % en été (moins de un jour sur deux).
Une protection relativement efficace en été est inconciliable avec la valorisation de l’éclairage naturel en absence d’ensoleillement et des apports énergétiques gratuits en hiver.
Sauf exception (locaux informatiques où il faut gérer la surchauffe et l’éblouissement), ce type de protection est donc peu recommandable dans nos régions.

Conscients de ce problème, les fabricants de vitrages ont développé des vitrages présentant une protection contre l’énergie solaire correcte (FS = 0,39) et une transmission lumineuse qui se rapproche de celle des doubles vitrages clairs (TL = 0,71).

Signalons également que des vitrages anti-solaires dont les caractéristiques de protection peuvent varier automatiquement en fonction des besoins sont développés par les grands fabricants. Ils ne sont malheureusement pas accessibles à tout le monde !

Choisir une protection insérée dans un double vitrage

Choisir une protection insérée dans un double vitrage


La description du système

Schéma protection insérée dans un double vitrage. Schéma protection insérée dans un double vitrage. La protection, composée d’une toile enroulable ou d’un store vénitien, est intégrée dans l’espace entre les deux vitres d’un double vitrage.

Les avantages par rapport aux systèmes classiques

L’efficacité contre les surchauffes et l’éblouissement

Les performances face à l’ensoleillement sont semblables aux performances des protections intérieures réfléchissantes et peuvent se rapprocher des performances de protections extérieures parallèles au vitrage. Il faudra cependant se méfier de l’augmentation de la température interne de la surface du vitrage qui peut provoquer un léger inconfort (rayonnement chaud).

La résistance mécanique et à l’encrassement

Les éléments sont montés à l’intérieur d’une partie étanche. Ils ne sont soumis ni aux perturbations extérieures, ni aux perturbations intérieures. N’étant pas sujet à l’encrassement et à l’empoussièrage, ce système de protection peut s’appliquer aux locaux où une grande hygiène est souhaitée. Il ne demande aucun entretien.

L’esthétique

La présence de la protection est discrète. Elle ne modifie pas la structure des façades, ni à l’extérieur, ni à l’intérieur.

La ventilation naturelle

La liberté d’ouverture des fenêtres est totale.

Le pouvoir isolant

Le coefficient de transmission thermique U du double vitrage clair est amélioré, jusqu’à 20 à 30 % pour un double vitrage clair standard (air) grâce à une protection solaire insérée entre les vitres.


Les inconvénients par rapport aux systèmes classiques

Placement en rénovation

Le placement de la protection implique le remplacement du vitrage, ce qui limite son application dans le cadre de la résolution d’un problème de surchauffe ou d’éblouissement.

Diminution de la surface utile de la fenêtre

L’encombrement du mécanisme des systèmes escamotables (par exemple les stores enroulables) peut diminuer de façon non négligeable la surface utile de la fenêtre.

Dépannage et étanchéité du double vitrage

La position intégrée des protections rend difficile un dépannage en cas de dysfonctionnement du mécanisme de retrait. Il peut également en résulter une perte d’étanchéité du vitrage.

Choisir entre une protection intérieure ou extérieure

L’efficacité contre les surchauffes et l’éblouissement

L’effet de serre se produit lorsque les rayons du soleil sont absorbés par une matière située derrière le vitrage. Dès lors, une protection solaire sera efficace contre les surchauffes :

Protections extérieures Les protections extérieures seront toujours efficaces contre les surchauffes car elles arrêtent les rayons du soleil avant qu’ils n’atteignent le vitrage. Pour les stores de type « toile »,  une plus grande efficacité sera atteinte pour de facteur d’ouverture faible et des couleurs foncées.
Protections intérieures Les protections intérieures ne seront efficaces contre les surchauffes que si elles repoussent les rayons du soleil ayant traversé le vitrage. Pour cela, elle doit être non absorbante et réfléchissante (couleur clair au minimum).

Un même store en tissu (gris non réfléchissant avec un coefficient d’ouverture de 4.2) à l’extérieur ou à l’intérieur combiné à un double vitrage argon clair et basse émissivité :

FS = 0,05

FS = 0,55

Par contre, une même protection solaire installée à l’extérieur ou à l’intérieur, permettra un contrôle presqu’identique de la luminosité.


Les contraintes mécaniques

Protections extérieures Les protections extérieures sont soumises aux perturbations atmosphériques (vent, pluie) ou encore au vandalisme. La sensibilité de certaines de ces protections (notamment en toile) peut limiter leur utilisation pour les bâtiments élevés ou en zone exposée (vent important) ou encore à hauteur d’homme dans des lieux fréquentés (vandalisme).
Pour prévenir toute détérioration, notamment la nuit, il sera nécessaire de conscientiser les occupants à la nécessité de retrait de ces protections durant leur absence ou à envisager leur automatisation.
Par contre, il existe des protections extérieures conçues pour résister aux contraintes extérieures. C’est le cas par exemple des brise-soleil ou des stores vénitiens en aluminium.
En outre, dans les zones urbaines fort fréquentées, l’encrassement des protections extérieures peut être assez rapide.
Protections intérieures Les protections intérieures devront résister aux sollicitations des occupants qui peuvent être importantes notamment dans les locaux publics. La position intérieure des stores peut faciliter leur nettoyage notamment pour les bâtiments élevés.

L’esthétique

Protections extérieures Les protections extérieures modifient peu (stores enroulables) ou beaucoup (brise-soleil, avancées architecturales, stores vénitiens) la structure architecturale des façades. En ce sens, certaines protections extérieures risquent de ne pas s’adapter à une rénovation.

Protections intérieures Des protections intérieures ayant une efficacité limitée contre les surchauffes (par exemple, les stores vénitiens ou à lamelles) sont parfois installées uniquement pour leur aspect décoratif.

Les protections intérieures efficaces contre les surchauffes et les déperditions de chaleur auront un aspect réfléchissant qui peut ne pas être au goût de chacun.


Le pouvoir isolant

Protections extérieures Les protections extérieures n’apportent qu’une légère amélioration de l’isolation thermique supplémentaire à la fenêtre car elles ne sont généralement pas étanches..
Protections intérieures Certaines protections intérieures peuvent avoir un impact plus important sur la diminution des déperditions d’un vitrage. De plus, elles peuvent aussi avoir un impact plus important sur la sensation de confort à proximité de la baie (protection contre le rayonnement « froid » de la baie).

Pour autant que la surface intérieure de la protection soit réfléchissante, le coefficient de transmission thermique d’une fenêtre équipée de double vitrage peut diminuer de 25 %. Une diminution de 40 % peut être atteinte avec des stores réfléchissants insérés dans des guides étanches.

Remarquons que l’inétanchéité de la protection, outre la diminution de l’isolation par rapport à l’optimum, risque d’entraîner l’apparition de condensations importantes sur la surface intérieure de la fenêtre. Celles-ci peuvent endommager les menuiseries.


La ventilation naturelle des locaux

Le déploiement de certaines protections solaires rendra impossible l’ouverture des fenêtres pour pratiquer une ventilation naturelle des locaux.

Protections extérieures Aucune protection extérieure n’empêchera physiquement l’ouverture des fenêtres permettant ainsi une ventilation naturelle associée à la protection solaire. Une restriction existe cependant : les protections en toile déroulées devant les fenêtres risquent de ne pas résister aux contraintes mécaniques dues aux courants d’air éventuels.
Protections intérieures L’installation de protections solaires intérieures limite souvent les possibilités d’ouverture des fenêtres. Les protections peuvent être fixées aux ouvrants. Dans le cas de châssis oscillo-battants ou basculants, la combinaison de la protection solaire et de la ventilation naturelle est possible. Cependant, les fabricants de stores enroulables risquent de ne pas couvrir une détérioration due à de l’air s’infiltrant entre la protection et le vitrage du fait de fenêtres voisines ouvertes.

Si la protection est fixée sur le dormant, l’ouverture des fenêtres n’est guère possible lorsque la protection est déployée, que ce soit pour des raisons de maintien de la protection dans ses guides ou de leur résistance mécanique aux courants d’air. De même, lorsque la protection est abaissée, il est bon de prévenir l’ouverture subite d’une fenêtre suite à un courant d’air.

Lorsque la protection intérieure est relevée, il faut pouvoir conserver la liberté d’ouverture de la fenêtre :

  • Si la protection est fixée au dormant ou au linteau, l’ouvrant ne peut heurter ni la protection repliée, ni ses guides.
  • Si la protection est solidaire de l’ouvrant, les charnières latérales de la fenêtre doivent se situer suffisamment loin des retours de fenêtre pour garantir une ouverture complète.

Choisir le facteur lumineux


Transmission lumineuse d’un vitrage simple TL = 0,9.

Quelle transmission lumineuse faut-il choisir ?

La transmission lumineuse de la protection doit être suffisamment faible pour supprimer l’éblouissement des occupants et suffisamment élevée pour que la diminution de la quantité de lumière pénétrant à l’intérieur du local ne rende pas obligatoire l’utilisation de la lumière artificielle. La possibilité de vue de l’intérieur vers l’extérieur sera en outre souvent recherchée.

Fixons les ordres de grandeur par un exemple :

Définition d’un bureau type

Illustration bureau type.

Les murs sont de couleur claire et le sol recouvert de moquette.

Éclairement recommandé

Type d’activité Éclairement
Travail de bureau (attention soutenue). min. 500 lux
Activité ne demandant pas une attention soutenue
(ex : un séjour).
min. 200 lux
Travail sur ordinateur. max. 1 000 lux

Apports lumineux enregistrés dans le local

Schéma apports lumineux enregistrés dans le local.

La figure ci-dessus représente l’éclairement dans la pièce, au niveau d’un plan de travail, en fonction de la distance à la fenêtre, avec :

  • un double vitrage clair,
  • un double vitrage et une protection peu transparente (TL de la protection = 0,10),
  • un double vitrage avec une protection transparente (TL de la protection = 0,19).

Cette simulation se déroule le 15 juin à 16h, par ciel serein.
La fenêtre est orientée à l’ouest. Les conditions d’ensoleillement sont donc très favorables pour l’éclairage naturel du local (soleil fort pénétrant). Les valeurs minimum de transmission lumineuse déduites de cet exemple peuvent donc être considérées comme des extrêmes à ne pas dépasser sous peine de rendre le local trop obscur.

Transmission lumineuse recommandée

Le tableau suivant reprend les valeurs de transmission lumineuse minimum que doivent respecter les protections pour garantir un éclairement suffisant (300 lux) dans la pièce pour assurer le confort visuel lorsque la protection est déployée en période d’ensoleillement.

Ouest Sud Est
Distance à la fenêtre Juin
16 h (1)
Décembre
14 h
Juin
12 h
Décembre
12 h
Juin
7 h
Décembre
9 h
1 m 0.01 0.08 0.03 0.04 0.01 0.08
2 m 0.06 0.20 0.09 0.05 0.02 0.16
3 m 0.11 0.40 0.17 0.06 0.08 0.29
4 m 0.20 0.58 0.28 0.07 0.14 0.46
5 m 0.26 0.79 0.38 0.08 0.19 0.65

(1) Heure universelle; heure réelle en été = heure universelle + 2 h; heure réelle en hiver = heure universelle + 1 h.

Exemple.

Si l’on souhaite garantir 300 lux sur une table de travail, à 3 m de la fenêtre, dans un local orienté à l’ouest, on choisira un store dont le TL est :

  • Supérieur à une valeur de 0.11 si le store n’est utilisé qu’en été,
  • supérieur à une valeur de 0.40 si le store est aussi utilisé en hiver.

Choisir le facteur solaire (FS)


Facteur solaire d’un vitrage simple FS = 0,86.

Quel facteur solaire faut-il atteindre ?

Le choix du facteur solaire minimum à rechercher est fonction de chaque cas. Il n’est donc pas possible de citer un chiffre unique.

Fixons des ordres de grandeur par un exemple.

Valeur de référence

Dans les immeubles de bureaux, on peut estimer qu’un refroidissement devient nécessaire en été lorsque la somme des apports internes et externes atteint  60 W/m² au sol du local. Si on estime d’une manière générale les apports internes d’un bureau moyennement équipé comme suit : un ordinateur (+ 150 W/ordinateur), une personne (70 W/pers.), l’éclairage (10 W/m²) et 1 personne/13 m² au sol, les apports internes totalisent 27 W/m². Pour éviter le recours à la climatisation, il est donc nécessaire de limiter les apports solaires à 33 W/m² au sol.

Apports thermiques

Le tableau suivant représente pour une journée ensoleillée du mois de juillet, la puissance énergétique maximum due à l’ensoleillement, réellement transmise à l’ambiance d’un local de 30 m² au sol, en fonction de l’inertie du bâtiment. La fenêtre du local est équipée d’un double vitrage clair (de 6 m²) orienté respectivement à l’est, au sud et à l’ouest.

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 245 49 267 53 351 70
Sud 198 40 210
42
252
50
Ouest 250 50 263 53 356 71
W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol

Facteur solaire recommandé

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 0.51 0.47 0.36
Sud 0.63 0.60 0.50
Ouest 0.50 0.47 0.35
FS FS FS

Facteur solaire minimum de l’ensemble vitrage + protection nécessaire
pour limiter les apports solaires à 33 W/m² au sol.

Objectifs d’une protection solaire

Objectifs d'une protection solaire


Limiter les surchauffes

En période d’ensoleillement la quantité d’énergie solaire transmise au travers de vitrages peut entraîner par effet de serre, des surchauffes inadmissibles pour le confort des occupants. Dans le cas de locaux climatisés, la présence de protections solaires efficaces doit permettre une diminution notable de la quantité de froid à produire.

Améliorer

En cliquant ici, vous pouvez visualiser les résultats d’une simulation du comportement d’un bureau standard. On y a comparé les coûts d’achat et d’exploitation d’un climatiseur et d’un store extérieur.

De plus, malgré une température ambiante supportable, le rayonnement chaud du vitrage et le rayonnement direct du soleil sur une partie du corps peuvent devenir rapidement insupportable pour les occupants.

Comment déterminer si le soleil est à l’origine de la surchauffe ?

Dans les locaux fortement vitrés et orientés à l’est, au sud ou à l’ouest, les gains solaires constituent souvent les apports gratuits les plus importants.
Notons que l’orientation ouest est souvent la plus critique car les apports solaires viennent s’ajouter à la chaleur emmagasinée durant la journée.

Rénovation énergétique 

Pour en savoir plus sur comment repérer l’origine de la surchauffe, cliquez-ici !

Calculs

On peut établir un bilan de l’ensemble des apports de chaleur d’un local en cliquant ici !

Il calcule la puissance frigorifique nécessaire pour maintenir une température de consigne (24°C par exemple) dans le local, alors que la température extérieure est de 30°C. Il est possible ainsi de mesurer l’impact d’une protection solaire sur les besoins en froid. On peut également visualiser l’importance d’avoir un local avec une inertie thermique importante. Ou encore une toiture isolée.


Limiter l’éblouissement

L’ensoleillement direct pour être aveuglant tout comme une luminance trop élevée d’une paroi peut impacter le confort visuel. Hors, le confort visuel joue un rôle important sur la possibilité de réalisation de certaines tâches et donc sur la productivité des occupants d’un local.

Ce phénomène n’est pas forcément le plus crucial pour des fenêtres orientées au sud durant la saison chaude. Les problèmes d’éblouissement sont également très importants lorsque le soleil est bas sur l’horizon : le matin pour les fenêtres orientées à l’est, le soir pour l’orientation ouest, ou encore au sud en hiver. De même, dans les locaux nord, la vision directe d’un ciel trop lumineux peut devenir gênante et nécessiter aussi une protection.


Les objectifs secondaires

Augmenter le pouvoir isolant de la fenêtre

L’utilisation de protections solaires modifie de façon plus ou moins importante les caractéristiques de transmission thermique des vitrages. Cette propriété sera principalement recherchée durant les nuits en hiver.

Assurer l’intimité des occupants ou occulter un local

Ces deux objectifs sont des cas particuliers. On parlera alors plus d’occultation que de protection solaire.

Quelles soient intérieures ou extérieures, les protections parallèles au vitrage permettront d’apporter une certaine intimité voire d’occulter le local. Cette propriété dépendra principalement des vides laissés par la protection solaire et de sa couleur.

Décorer la fenêtre

De nombreuses protections ont un but décoratif plutôt qu’énergétique. Cet objectif est souvent associé avec le souhait de garantir l’intimité des occupants.

Institut du Monde Arabe – Paris.

Choisir la fenêtre comme capteur de lumière naturelle [Les fenêtres]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.

On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Choisir la fenêtre comme capteur d’énergie solaire [Les fenêtres]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’

un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).

Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m²

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Placer l’isolant dans le versant ou dans le plancher des combles ? [Améliorer]

Placer l'isolant dans le versant ou dans le plancher des combles ?

Isolation dans le plancher des combles et dans le versant de toiture.


Ainsi, lorsque les combles ne sont pas prévus pour être occupés et donc chauffés (ni après travaux, ni ultérieurement), le plancher de celui-ci constitue la limite supérieure de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant. Ce qui permet :

  • d’utiliser une surface d’isolant moindre que s’il fallait isoler les versants de toiture,
  • d’éviter d’avoir à traiter toutes les infiltrations d’air souvent nombreuses dans les combles inoccupés,
  • de permettre la ventilation des combles en été.

Par contre, les combles qui seront occupés et chauffés doivent être isolés de l’ambiance extérieure.

Le toit incliné est dans ce cas la limite de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant.

Choisir le programme de maintenance [Eclairage]

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, combinaison de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages successifs des parois
  • L’intervalle de temps entre deux nettoyages successifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

Dans la suite de cette page vous trouverez une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance, cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive ou mixte (curative et préventive), cliquez ici !

Calculs

Pour accéder au fichier Excel permettant de réaliser cette comparaison, cliquez ici !

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel accessible ci-dessus ;
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux qui permet de tenir compte du facteur de maintenance de l’installation ;
  3. faire l’étude économique du système ;
  4. comparer les différents systèmes à l’aide du troisième fichier Excel référencé ci-dessus.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.103 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe,
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe,
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire.

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ ouverture d'une nouvelle fenêtre ! ICEDD et disponible sur le site de la ouverture d'une nouvelle fenêtre ! CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3.
  • Catégorie d’environnement : normale.
  • Durée de fonctionnement par an : 3100 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7,
    • Murs : 0.5,
    • Sol : 0.2.
  • Lampes utilisées :
    • Type : fluorescente triphosphore,
    • Coût hors taxe :6.85 €/lampe,
    • Puissance : 28 W/lampe.
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement),
    • Coût hors taxe : 150 €/luminaire,
    • Puissance (lampe incluse) : 32 W/luminaire.
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous supposons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.84.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 6.03 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
0.94
LMF
0.91
RSMF
0.83
MF
0.64
Simulation dialux

L’installation sera composée de :

  • 110 luminaires,
  • 110 lampes.

Caractéristiques du système :

  • Puissance installée : 3 520 W.
Étude économique du système
Investissement
Achat des luminaires 110*150 = 16 500 €
Achat des lampes 110*6.85 = 753.50 €
Installation des luminaires 110*30 = 3 300 €
Total
20 553.50 €
Coût de fonctionnement
Énergie consommée par le système 3 100*3.520 = 10 912 kWh/an
Coût de fonctionnement 10 912*0.103 = 1123.936 €/an
Coût de la maintenance
Achat lampes 110*6.85 = 753.5 €
Remplacement lampes 110*5 = 550 €
Total sur 5 ans 1303.5 €
Total par an
260.7 €/an

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale

Calcul du facteur de maintenance

Le respect de ce critère conduit à la nécessité de réaliser un relamping tous les 2 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF*LSF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes hors services avant intervention. Dans le cas présent, cette valeur est de 0.93 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.92
LSF
0.99
LMF
0.91
RSMF
0.83
MF
0.69
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 168 W.
Étude économique du système
Investissement
Achat des luminaires 99*150 = 14 850 €
Achat des lampes 99*6.85 = 678.15 €
Installation des luminaires 99*30 = 2 970 €
Total
18 498
Coût de fonctionnement
Énergie consommée par le système 3 100*3.168 = 9 820.80 kWh/an
Coût de fonctionnement 9 820.80*0.103 = 1011.542 €/an
Coût de la maintenance
Achat lampes 99*6.85 = 678.15 €
Remplacement lampes 99*5 = 495 €
Total sur 2 ans 1 173.15 €
Total par an
586.575 €/an

Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans

Calcul du facteur de maintenance

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF (celle qui entre en jeu dans la détermination du facteur de maintenance de l’installation) est ici de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, cette valeur est de 104.89 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance prennent les valeurs suivantes :

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 10 ans
100*(104.89/100)*6.85 = 718.497 €/(10 ans)
  • Sur 1 an
718.497/10 = 71.497 €/an
Remplacement lampes  

 

  • Sur 10 ans
100*(104.89/100)*15 = 1 573.35 €/(10 ans)
  • Sur 1 an
1 573.35/10 = 157.335 €/an
Coût de fonctionnement 1 250.945 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 10 ans 1 185 €
Total par an
118.5 €/an

Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important

Calcul du facteur de maintenance

Entre 6.5 et 6.8 ans, le service de maintenance devra remplacer un peu plus de 50 % des lampes dans le cadre d’une maintenance curative. Il semble naturel de réaliser une maintenance préventive au bout de 6.5 ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est de 0.90, comme dans le cas précédent.

Ce graphique permet également de déterminer le pourcentage de lampe changée avant intervention. Dans le cas présent, ce dernier vaut 50.13 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 6.5 ans
100*(50.13/100)*6.85 = 343.391 €/(6.5 ans)
  • Sur 1 an
343.391/6.5 = 52.829 €/an
Remplacement lampes  
  • Sur 6.5 ans
100*(50.13/100)*15 = 751.95 €/(6.5 ans)
  • Sur 1 an
751.95/6.5 = 115.684 €/an
Coût de fonctionnement 1 190.274 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 6.5 ans 1 185 €
Total par an
182.308 €/an

Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les 4.5 ans

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF*LSF.

La valeur minimale de LLMF est encore une fois de 0.90.

Ce graphique permet également de déterminer le pourcentage de lampes changées avant intervention. Dans le cas présent, ce dernier vaut 3.3 %.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.9
LSF
1
LMF
0.91
RSMF
0.83
MF
0.68
Simulation dialux

L’installation sera composée de :

  • 100 luminaires,
  • 100 lampes.

Caractéristiques du système :

  • Puissance installée : 3 200 W.
Étude économique du système
Investissement
Achat des luminaires 100*150 = 15 000 €
Achat des lampes 100*6.85 = 685 €
Installation des luminaires 100*30 = 3 000 €
Total
18 685
Coût de fonctionnement
Énergie consommée par le système 3 100*3.2 = 9 920.00 kWh/an
Coût de la consommation électrique 9 920.80*0.103 = 1 021.760 €/an
Achat des lampes  
  • Sur 4.5 ans
100*(3.3/100)*6.85 = 22.605 €/(4.5 ans)
  • Sur 1 an
22.605/4.5 = 5.023 €/an
Remplacement lampes  
  • Sur 4.5 ans
100*(3.3/100)*15 = 49.5 €/(4.5 ans)
  • Sur 1 an
49.5/4.5 = 11 €/an
Coût de fonctionnement 1 037.783 €/an
Coût de la maintenance
Achat lampes 100*6.85 = 685 €
Remplacement lampes 100*5 = 500 €
Total sur 4.5 ans 1 185 €
Total par an
263.33 €/an

Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans ce cas, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Calcul du facteur de maintenance

Le remplacement des lampes doit dans ce cas être effectué tous les ans.

Le graphique suivant permet de suivre l’évolution au fil du temps de la valeur de LLMF.

La valeur minimale de LLMF est encore une fois de 0.95.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont identiques à ceux du cas précédent.

LLMF
0.95
LSF
1
LMF
0.91
RSMF
0.83
MF
0.72
Simulation dialux

L’installation sera composée de :

  • 99 luminaires,
  • 99 lampes.

Caractéristiques du système :

  • Puissance installée : 3 128 W.
Étude économique du système

L’installation sera donc la même que celle du programme 2. Les coûts d’investissement et de fonctionnement seront donc identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

 

Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110 99 100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique(€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33  

Le graphique suivant permet de comparer les différents programme de maintenance :

 

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il montre également l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Choisir entre les différentes caractéristiques influençant le programme de maintenance [Eclairage]

Le type de lampe

Il y a lieu de considérer ici sept grandes catégories de sources lumineuses  :

En ce qui concerne les deux autres types de lampes :

  • Les lampes à induction présentent un prix et une durée de vie élevés. Elles seront utilisées quand la maintenance est difficile, ou coûteuse, et dans des situations requérant de longues périodes de fonctionnement.
  • Les lampes au sodium haute pression possèdent un très mauvais IRC. Elles sont principalement utilisées pour l’éclairage des autoroutes, car l’efficacité lumineuse doit être très élevée et que le rendu des couleurs n’est pas primordial.

Du point de vue de la maintenance, les différents types de lampes vont se distinguer par leur :

  • facteur de survie
  • facteur de maintien de flux lumineux

Il est important de noter que les tables permettant de calculer le facteur de maintenance d’une installation reprennent des valeurs moyennes par catégorie de lampe. Dans les faits, il existe une grande dispersion autour de ces valeurs moyennes.

Par exemple, les halogénures métalliques possèdent les caractéristiques suivantes :

  • Une durée de vie moyenne comprise entre 10 000 et 18 000 heures et donc un facteur de survie (LSF) variant fortement d’une lampe à l’autre (la durée de vie moyenne est définie par un LSF de 0.5).

durée de vie moyenne de lampes aux iodures métalliques

Le schéma ci-dessus montre la chute du flux lumineux de différents lots de lampes aux iodures métalliques d’un fabricant donné.

  • Une durée de vie utile comprise entre 6 000 et 10 000 heures et donc un facteur de maintien du flux lumineux variant fortement d’une lampe à l’autre (la durée de vie utile est définie par un LLMF de 0.8).

Evolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d'un fabricant donné.

Le schéma ci-dessus indique l’évolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d’un fabricant donné.

Les différents types de lampes sont également définis par leur efficacité moyenne. En pratique, il y aura lieu de comparer le produit de ces trois facteurs, comme le montre le graphique suivant :

Il est essentiel de garder à l’esprit que ce graphe se base sur les valeurs moyennes de l’efficacité, du facteur de maintenance du flux lumineux et du facteur de survie de chaque type de lampes.

Ce graphique montre que selon la durée de fonctionnement (avant relamping ou remplacement complet du luminaire) souhaitée, le type de lampe le plus efficace sera différent.

Par exemple si l’installation est sensée fonctionner 13 000 heures, alors le type de lampes le plus efficace (en moyenne) sera celui des fluorescentes triphosphores (1.12 fois plus efficace que les lampes sodium haute pression et 1.71 fois plus que les lampes aux halogénures métalliques).

Si le système est sensé fonctionner 3 000 heures, alors le type de lampes le plus efficace sera celui des halogénures métalliques, qui sera 1.06 fois plus efficace que le type fluorescente triphosphore et 1.25 fois plus efficace que les types flocompacte et sodium haute pression.

Il est essentiel de garder à l’esprit que les courbes donnant le pourcentage de flux lumineux restant en fonction de la durée de fonctionnement n’auront pas toutes la même allure. Ce serait donc une erreur de s’intéresser uniquement à l’efficacité lumineuse initiale des lampes.

Ce diagramme permet également de voir simplement que les lampes incandescentes classiques et halogènes possèdent de très mauvaises caractéristiques (faible efficacité, diminution rapide du flux lumineux, et facteur de survie très bas).

Calculs

Si vous voulez comparer des lampes de type différent en fonction de leur efficacité lumineuse. (xls)

Lampes halogènes classiques ou lampes aux halogénures métalliques

Méthodologie

L’étude présentée ici se base sur quatre étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer les valeurs du facteur de survie des lampes choisies en fonction de la durée de vie annoncée par le constructeur ;
  2. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel ;
  3. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux ;
  4. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh.
  • Coût de la main-d’œuvre : 30 €/h.
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe ;
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe ;
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 7*6*2.8 m³.
  • Catégorie d’environnement : propre.
  • Durée de fonctionnement par an : 2 580 h.
  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2.
  • Luminaires utilisés :
    • Luminaires à ventilation forcée de type downlight pouvant accueillir des lampes halogènes ou des lampes à halogénures métalliques
  • Pas de nettoyage des parois du local.
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 1 an. Ceci correspond (pour les luminaires choisis et la catégorie d’environnement) à un facteur de maintenance des luminaires de 0.99.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous considérons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures.

Les lampes utilisées

Comme dit précédemment, les luminaires choisis ici peuvent aussi bien accueillir des halogènes ou des halogénures métalliques. Les luminaires, peu importe le type de lampes qu’ils accueillent, présentent le même rendement et la même courbe photométrique (distribution à caractère intensif).

Si la topologie du système d’éclairage est imposée par des critères esthétiques, il y a lieu de choisir des lampes possédant des flux lumineux équivalents. Ce choix est de plus conforté par le fait que nous utiliserons le même type de luminaire et donc la même courbe photométrique (à peu de chose près) à caractère intensif. Augmenter le flux des lampes aura pour conséquence première d’augmenter l’éclairement dans l’axe du luminaire et ne permettra donc pas d’utiliser moins de luminaires.

Notre choix se portera donc sur les lampes suivantes :

Lampe halogène
Lampe aux halogénures métalliques
Puissance luminaire (W)
300
82
Flux lumineux (lm)
5 600
5 900
Efficacité lumineuse (lm/W)
18.67
71.95
Température de couleur (K)
2 900
4 200
Indice de rendu des couleurs
100
85
Durée de vie moyenne (h)
2 000
9 000
Prix lampe (€ HTVA)
5.36
28
Prix luminaire (€ HTVA) 147
159.25

Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.9

Il n’est malheureusement pas possible de satisfaire ce critère avec les lampes halogènes, à moins de les remplacer tous les 4 mois.

Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF descende sous la barre des 0.76

> Système réalisé à base de lampes halogènes

Dans ce cas, il est nécessaire de réaliser un relamping tous les 6 mois.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 22 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.76.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF
0.97
LSF
0.78
LMF
0.99
RSMF
0.94
MF
0.7
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 2 400 W
Étude économique du système
Investissement
Achat des luminaires 8*147 = 1 176 €
Achat des lampes 8*5.36 = 42.88 €
Installation des luminaires 8*30 = 240 €
Total
1 458.88
Coût de fonctionnement
Énergie consommée par le système 2 400*2.58 = 6 192 kWh/an
Coût de la consommation électrique 6 192*0.103 = 637.776 €/an
Coût de fonctionnement 637.776 €/an
Coût de la maintenance
Achat lampes 8*5.36 = 42.88 €
Remplacement lampes 8*5 = 40 €
Total sur 0.5 an 82.88 €
Total par an
165.76 €/an

> Système réalisé à base de lampes à halogénures métalliques

Dans ce cas, il est nécessaire de réaliser un relamping tous les 1.5 ans.

Caractéristiques du système d'éclairage avec relamping.

Avant le relamping, 9.51 % des lampes seront hors services.

La valeur minimale de LLMF*LSF est de 0.81.

Dans ce cas, les facteurs permettant le calcul du facteur de maintenance sont :

LLMF 0.89
LSF
0.90
LMF 0.99
RSMF 0.94
MF 0.75
Simulation dialux

L’installation sera composée de :

  • 8 luminaires
  • 8 lampes

Caractéristiques du système :

  • Puissance installée : 656 W
Étude économique du système
Investissement
Achat des luminaires 8*159.25 = 1 274 €
Achat des lampes 8*28 = 224 €
Installation des luminaires 8*30 = 240 €
Total
1 738
Coût de fonctionnement
Énergie consommée par le système 656*2.58 = 1 692.48 kWh/an
Coût de la consommation électrique 1 692.48*0.103 = 174.325 €/an
Coût de fonctionnement 216.197 €/an
Coût de la maintenance
Achat lampes 8*28 = 224 €
Remplacement lampes 8*5 = 40 €
Total sur 1.5 an 264 €
Total par an
176 €/an
Comparaison

Schéma, comparaison économique des différents programmes.

Cet exemple montre à quel point les halogènes donnent des résultats médiocres tant du point de vue énergétique qu’économique. L’utilisation d’halogénures métalliques à leur place permet de diminuer la consommation énergétique du système de près de 75 %. Et cela, pour un surcoût à l’investissement d’environ 230 €.

Il est à noter que les 5 % gagné sur la valeur du facteur de maintenance n’ont pas permis de réduire le nombre de luminaires. Cela est dû à la topologie du système (disposition rectiligne, dimensions du local…) et à la nécessité de satisfaire les critères de confort visuel (un facteur de maintenance de 0.84 aurait permis de limiter le nombre de luminaires à halogénures métalliques à 6).

Cela montre bien que la planification de la maintenance ne se limite pas à la détermination du facteur de maintenance. Elle permet également de déterminer la périodicité de la maintenance et les coûts qui lui sont liés. Dans le cas qui nous occupe, les surcoûts rattachés à l’achat d’halogénures métalliques, une dizaine d’euros par an, sont largement compensés par la diminution de la facture électrique.

Comme le montre le graphique suivant, l’utilisation d’halogénures métalliques plutôt que d’halogènes est rentabilisée en un an. On aura ainsi économisé (investissement compris) 160 € en un an, 922 en deux.

Les résultats calculés ici se basent sur l’emploi de lampes aux halogénures métalliques possédant une dure de vie moyenne (9 000 heures) assez faible si on la compare aux standards de sa catégorie. En effet, la plupart des halogénures métalliques possèdent une durée de vie moyenne de 18 000 heures.

Ces lampes présentent tout de même un bon indice de rendu des couleurs ainsi qu’une température de couleur plus proche de celle de la lumière naturelle.

Les fichiers ayant permis la réalisation de cette étude sont accessibles ici :

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour déterminer les valeurs du facteur de survie catalogue.

Calculs

Pour planifier une maintenance préventive ou mixte.

Le graphique suivant montre qu’il existe une grande dispersion autour de ces valeurs moyennes :

Pour finir, il ne faut pas oublier que d’autres facteurs jouent également dans le choix d’une lampe :

  • Indice de Rendu des Couleurs
  • Spectre lumineux complet et régulier

Le type de luminaire

Il y a lieu de considérer ici 7 grandes catégories de luminaires :

Illustration luminaire tube nu.

Tube nu.

Illustration luminaire ouverts sur le dessus.

Luminaires ouverts sur le dessus
(ventilés naturellement).

Illustration luminaire fermé sur le dessus.

Luminaires fermés sur le dessus
(non ventilés).

Illustration luminaires fermés IP2X.

Luminaires fermés IP2X,
protégés contre les corps solides
supérieurs à 12 mm.

Illustration luminaires fermés IP5X.

Luminaires fermés IP5X,
protégés contre la poussière.

Illustration luminaires assurant un éclairage indirect ou vers le haut.

Luminaires assurant
un éclairage indirect
ou vers le haut.

Illustration luminaires à ventilation forcée.

Luminaires à ventilation forcée.

Le choix du type de luminaire revêt d’une importance capitale, surtout dans les locaux de catégorie « normal  » et « sale « . Ce choix influence directement la valeur du facteur de maintenance des luminaires (LMF).

Par exemple, si la catégorie d’environnement est sale et que les luminaires sont nettoyés tous les 3ans, les pertes engendrées par l’empoussièrement de ceux-ci seront de :

  • 15 % si l’on utilise des luminaires à ventilation forcée.
  • 21 % si l’on utilise des luminaires fermés IP5X.
  • 27 % si l’on utilise des tubes nus.
  • 32 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 35 % si l’on utilise des luminaires fermés IP2X.
  • 48 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 55 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un même intervalle de nettoyage des luminaires, mais pour un environnement normal cette fois, les pertes engendrées seront de :

  • 10 % si l’on utilise des luminaires à ventilation forcée.
  • 16 % si l’on utilise des luminaires fermés IP5X.
  • 21 % si l’on utilise des tubes nus.
  • 26 % si l’on utilise des luminaires ouverts sur le dessus (ventilés naturellement).
  • 27 % si l’on utilise des luminaires fermés IP2X.
  • 39 % si l’on utilise des luminaires fermés sur le dessus (non ventilés).
  • 45 % si l’on utilise des luminaires assurant un éclairage indirect ou vers le haut.

Pour un environnement propre, les pertes vont de 5 à 26 % et pour un très propre de 2 à 15 %.

En règle générale, le classement des luminaires en fonction du facteur de maintenance (LMF) donnera :

Type de luminaire
LLMF moyen
Luminaires à ventilation forcée. 0.948
Luminaires fermés IP5X, protégés contre la poussière. 0.890
Tube nu. 0.874
Luminaires ouverts sur le dessus (ventilés naturellement). 0.845
Luminaires fermés IP2X, protégés contre les corps solides supérieurs à 12 mm. 0.820
Luminaires fermés sur le dessus (non ventilés). 0.781
Luminaires assurant un éclairage indirect ou vers le haut. 0.757

Comme dans le cas du choix du type de lampe à utiliser, il y a lieu de faire attention au rendement des luminaires. Il est cependant plus difficile ici de tirer des conclusions générales étant donné la dispersion de la valeur des rendements dans une gamme donnée.


Le système d’éclairage

On distingue ici trois types de systèmes d’éclairage :

  • Les systèmes directs.
  • Les systèmes indirects.
  • Les systèmes mixtes.

Pour ce qui est des systèmes mixtes, il existe théoriquement une infinité de possibilités. Nous ne nous occuperons ici que des trois cas types suivants :

  • Cas 1 : 100 % direct, 0 % indirect.
  • Cas 2 : 50 % direct, 50 % indirect.
  • Cas 3 : 0 % direct, 100 % indirect.

Du point de vue de l’énergie, plus la composante directe de l’éclairage est importante et plus l’efficacité du système est grande. En effet, dans un système à composante indirecte non nulle, avant d’atteindre la tâche à éclairer, la lumière est réfléchie. Ce mode d’éclairage a donc un moins bon rendement et demande, à niveau d’éclairement égal, une puissance installée supérieure à celle du système direct.

L’éclairement dépend dans ce cas fortement des coefficients de réflexion des parois sur lesquelles la lumière est réfléchie. L’état de propreté des parois aura donc une influence directe sur les valeurs d’éclairement atteintes (via le RSMF), comme le montre l’exemple suivant :

Exemple montrant l’influence du système d’éclairage sur les valeurs de RSMF à utiliser.

Soit un système possédant les caractéristiques suivantes :

  • Environnement normal
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2

Les valeurs de RSMF vont alors suivre les évolutions suivantes :

Valeurs de RSMF.

Si on planifie un nettoyage des parois tous les 3 ans, les pertes engendrées par l’empoussièrement du local seront de :

  • 10 % dans le cas d’un système d’éclairage direct
  • 17 % dans le cas d’un système d’éclairage 50 % indirect et 50 % direct
  • 28 % dans le cas d’un système d’éclairage indirect

Il est à noter que du point de vue du confort, l’utilisation d’un système d’éclairage mixte va conduire à des différences de luminance nettement moins marquées que dans le cas d’un éclairage direct. Le système mixte est surtout avantageux dans des pièces à plafond haut et évite la perception d’une zone sombre au plafond. Il est cependant nécessaire de garder à l’esprit qu’une faible proportion de flux vers le haut suffit généralement et qu’une proportion de 50 % vers le haut est certainement une valeur trop importante.

À ce sujet, il peut être intéressant de se tourner vers les réglementations. Celle relative aux lieux de travail indique que pour un éclairement de la tâche de 500 lux, les zones environnantes immédiates (bande de 0.5 m autour de la zone de travail) doivent présenter un éclairement de 300 lux, soit 60 % de la première valeur. Il est donc évident que l’éclairement du plafond devra être largement inférieur à 50 % de la valeur d’éclairement de la tâche. La composante indirecte ne devra servir qu’à éviter la création d’une ombre sur le plafond.


La catégorie d’environnement

Catégorie d’environnement

Les coefficients de réflexion des parois d’un local jouent un rôle important sur l’éclairage. L’empoussièrement de celui-ci va conduire à la réduction des facteurs de réflexion du local, et donc à la réduction du niveau d’éclairement atteint. Cette déperdition va dépendre :

  • des proportions du local
  • du facteur de réflexion de chacune des parois du local
  • du type d’éclairage choisi (direct, indirect…)
  • et surtout de la catégorie d’environnement dans laquelle on se trouve (la nature et la densité de la poussière étant des facteurs prépondérants)

On distingue quatre catégories d’environnement :

Très propre Hôpitaux (zones d’interventions), centres informatiques.
Propre Bureaux, écoles, hôpitaux (zones communes), magasins, laboratoires, restaurants, salles de conférence.
Normal Salles d’assemblage.
Sale Ateliers mécaniques, fonderies, laboratoires chimiques.

Le type d’environnement a une grande importance, mais il ne résulte malheureusement pas vraiment d’un choix.

Par exemple pour un système possédant les caractéristiques suivantes :

  • Facteurs de réflexion des parois du local (valeur standard) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Système d’éclairage 50 % direct, 50 % indirect
  • Nettoyage des  parois du local tous les deux ans

Les pertes du à l’empoussièrement des parois seront de :

Pertes du à l'empoussièrement des parois.

Soit en résumé :

  • 5 % dans le cas d’un environnement très propre
  • 9 % dans le cas d’un environnement propre
  • 17 % dans le cas d’un environnement normal
  • 25 % dans le cas d’un environnement sale

La catégorie d’environnement va donc influencer directement la valeur du facteur de maintenance du local (RSMF). Mais comme le montre le graphique précédent, de manière générale, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Ce qui dans la pratique ne semble pas envisageable.

La catégorie d’environnement joue également sur le taux d’encrassement des luminaires. Si l’on analyse plus en détail l’évolution du facteur de maintenance des luminaires (LMF) on s’aperçoit qu’il est intéressant de pratiquer un nettoyage des luminaires tous les 6 mois, comme le montre le graphe suivant (catégorie d’environnement « sale « ) :


Le nombre d’heure de fonctionnement

Le tableau suivant indique, dans le cadre d’activités typiques, le nombre d’heures de fonctionnement de l’installation d’éclairage :

Activité Période d’occupation Gestion en fonction de la lumière du jour Heures de fonctionnement
Shift inclus Nombre de jours Heures/jour Oui/non Heures/an
Industrie
  Continu

365

24

Non

8760

  Process

365

24

Oui

7300

  2 shifts

310

16

Non

4960

  6 jours/semaine

310

16

Oui

3720

  1 shift

310

10

Non

3100

  6 jours/semaine

310

10

Oui

1760

  1 shift

258

10

Non

2580

  5 jours/semaines

258

10

Oui

1550

Commerce
  6 jours/semaine

310

10

Non

3100

Bureaux
  5 jours/semaine

258

10

Non

2580

258

10

Oui

1550

Écoles
  5 jours/semaine

190

10

Non

1900

190

10

Oui

1140

Hôpitaux
  7 jours/semaine

365

16

Non

5840

365

16

Oui

3504


Planification du programme de maintenance

Pour chaque topologie, il est nécessaire de réaliser une étude permettant de définir quel sera le type de programme à appliquer (maintenance curative, maintenance préventive, mix de ces deux programmes). Cette étude permettra de définir, en plus du type de maintenance optimal :

  • L’intervalle de temps entre deux relamping
  • L’intervalle de temps entre deux nettoyages consécutifs des parois
  • L’intervalle de temps entre deux nettoyages consécutifs des luminaires

Cela dans le but d’optimiser la valeur du facteur de maintenance.

Comme vu précédemment certaines caractéristiques du système ne résultent pas d’un choix de l’utilisateur. C’est le cas notamment :

  • de la catégorie d’environnement
  • du nombre d’heures de fonctionnement de l’installation

Pour diminuer la consommation électrique du système d’éclairage, il est néanmoins possible de jouer :

  • Sur le type de lampes utilisé
  • Sur le type de luminaires utilisé
  • Sur le système d’éclairage utilisé
  • Et dans une certaine mesure sur les coefficients de réflexion des parois du local

Dans la suite de cette page, vous trouverez le résumé d’une telle étude. Celle-ci a été réalisée dans le cas d’un système d’éclairage comprenant des lampes fluorescentes triphosphores.

Pour accéder à l’étude complète, est accessible dans la page « Exemple de choix du programme ».

Calculs

Pour apprendre à utiliser les fichiers Excel permettant de planifier la maintenance.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance préventive.

Calculs

Pour accéder au fichier Excel permettant de planifier une maintenance mixte (curative et préventive).

Exemple de planification de la maintenance

Méthodologie

L’étude présentée ici se base sur trois étapes. Pour chacun des couples (type de maintenance, valeurs des critères de planification), il y a lieu :

  1. de déterminer la valeur du facteur de maintenance, des intervalles de nettoyage, de la périodicité du relamping. Cette étape est réalisée à l’aide de deux fichiers Excel.
  2. dimensionner l’installation (nombre de luminaires, de lampes, puissance installée) grâce à un logiciel tel que Dialux.
  3. faire l’étude économique du système à l’aide d’un troisième fichier Excel.

Données du problème

  • Coût moyen du kWh (prix en mars 2006, pour une consommation électrique située entre 100 et 700 MWh) : 0.104 €/kWh
  • Coût de la main-d’œuvre : 30 €/h
  • Durée de l’intervention :
    • 30 minutes par lampes dans le cas d’un remplacement curatif, ce qui conduit à un coût de remplacement de 15 €/lampe
    • 10 minutes par lampes dans le cas d’un remplacement préventif, ce qui conduit à un coût de remplacement de 5 €/lampe
    • 1 h par luminaire à installer, ce qui conduit à un coût d’installation de 30 €/luminaire

Les prix repris ici sont HTVA et correspondent à des types de lampes et de luminaires bien précis. Ils devront donc être adaptés en fonction des choix du responsable.

En ce qui concerne le prix moyen du kWh d’électricité, celui-ci varie en fonction de la consommation totale d’électricité. Pour en savoir plus à ce sujet, une étude réalisée par l’ICEDD disponible sur le site de la CWaPE permet de déterminer la valeur du kWh moyen en fonction de la tranche de consommation totale.

Caractéristiques du système

  • Dimensions du local : 20*15*2.8 m3
  • Catégorie d’environnement : normale
  • Durée de fonctionnement par an : 3100 h
  • Facteurs de réflexion des parois du local (valeurs standards) :
    • Plafond : 0.7
    • Murs : 0.5
    • Sol : 0.2
  • Lampes utilisées :
    • Type : fluorescente triphosphore
    • Coût hors taxe :6.85 €/lampe
    • Puissance : 28 W/lampe
  • Luminaires utilisés :
    • Luminaires ouverts sur le dessus (ventilés naturellement)
    • Coût hors taxe : 150 €/luminaire
    • Puissance (lampe incluse) : 32 W/luminaires
  • Pas de nettoyage des parois du local
  • Intervalle de temps entre deux nettoyages successifs des luminaires : 0.5 an. Ceci correspond à un facteur de maintenance des luminaires de 0.91.

Comme dit précédemment, pour être efficace, le nettoyage des parois doit être effectué tous les 0.5 ans. Cette option ne semblant pas être envisageable en pratique, nous considérons que ce nettoyage n’est pas effectué.

Hypothèses

Nous supposons ici que l’appareillage électrique reste en état de fonctionnement durant toute l’étude.

Dans le cas d’une maintenance curative, nous estimons que les lampes hors services sont remplacées juste avant la fin de chaque intervalle de 1 000 heures (ce qui correspond au pas de simulation).

Les différents programmes de maintenance

  • Programme 1 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 80 % de la valeur initiale
  • Programme 2 : Remplacement préventif des lampes avant que le facteur LLMF*LSF ne descende sous la barre des 90 % de la valeur initiale
  • Programme 3 : Remplacement curatif des lampes et relamping tous les 10 ans
  • Programme 4 : Remplacement curatif des lampes et relamping juste avant le remplacement le plus important
  • Programme 5 : Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
  • Programme 6 : Relamping juste avant que le LLMF ne descende sous les 0.95

Dans le cas du programme 6, aucune lampe ne claquera avant le relamping. La maintenance sera donc de type préventif.

Le remplacement des lampes devra dans ce cas être effectué tous les ans.

L’installation sera donc la même que celle du programme 2, avec des coûts d’investissement et de fonctionnement identiques. Les coûts relatifs à la maintenance augmenteront.

Enfin, par rapport au programme 2, l’impact écologique sera plus négatif. En effet, cette solution conduit à la production de plus de déchets et aussi à la nécessité de produire plus de lampes, et donc d’augmenter la quantité d’énergie grise relative à ce système d’éclairage.

Synthèse

    Programme 1
Programme 2
Programme 3
Programme 4
Programme 5
    Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.8
Remplacement préventif des lampes avant que LLMF*LSF ne descende sous les 0.9 Remplacement curatif des lampes et relamping tous les 10 ans Remplacement curatif des lampes et relamping juste avant le remplacement le plus important Remplacement curatif des lampes et relamping juste avant que 5 % des lampes aient été changées
 

Dimensionnement

Périodicité relamping 5 2 10 6.5 4.5
MF
0.64 0.69 0.68 0.68 0.68
Pourcentage de lampes hors services avant relamping (maintenance préventive) (%)
6.03 0.93      
Pourcentage de lampes changées avant relamping (maintenance mixte) (%)     104.89 50.13 3.3
Nombre luminaires (= nombre lampes)
110

99

100 100 100
Puissance installée (W)
3520 3168 3200 3200 3200
Investissement Investissement (€)
20 553.50 18 498 18 685 18 685 18 685
 

Fonctionnement

Énergie consommée par le système (kWh/an)
10 912 9 820.80 9 920 9 920 9 920
Coût de la consommation électrique (€/an) 1 123.936 1 011.542 1 021.760 1 021.76 1 021.76
Coût achat et remplacement des lampes (€/an)     228.832 168.513 16.023
Coût de fonctionnement (€/an) 1 123.936 1 011.542 1 250.945 1 190.274 1 037.783
Relamping Coût de la maintenance (€) 1 303.5 1 173.15 1 185 1 185 1 185
Coût de la maintenance (€/an) 260.7 586.575 118.5 182.308 263.33    

Le graphique suivant permet de comparer les différents programmes de maintenance :

Calculs

 Pour accéder au fichier Excel permettant de réaliser cette comparaison.

Le programme le plus intéressant économiquement est donc le programme 5, c’est-à-dire un remplacement curatif des lampes et un relamping juste avant que 5 % des lampes aient été changées.

Au bout de 15 ans, ce programme permet une économie de :

  • 800 € par rapport au programme 3
  • 1 100 € par rapport au programme 4
  • 1 700 € par rapport au programme 2
  • 2 200 € par rapport au programme 1

Ce graphique montre tout l’intérêt d’assurer un facteur de maintenance élevé. En effet, si l’on étudie en détail les coûts de fonctionnement, on s’aperçoit que la facture électrique représente toujours la part la plus importante de ceux-ci.

Il met également en exergue l’intérêt d’un remplacement curatif des lampes, qui permet à moindres frais de maintenir le facteur de maintenance à une valeur acceptable.

Économiquement, la fréquence des relamping est d’une grande importance et vouloir maintenir un facteur de maintenance élevé en augmentant celle-ci ne semble pas être la solution optimale.

Enfin, rappelons qu’une telle étude doit être menée pour chaque réalisation et que les résultats obtenus ici ne sont pas applicables de manière générale.

Traiter les bois attaqués par les champignons

Traiter les bois attaqués par les champignons


Travaux à réaliser sur les bois attaqués

Le traitement curatif et préventif du bois comprend les opérations suivantes

Le bois doit d’abord être dégagé pour le rendre accessible et contrôlable.

Les fructifications du champignon sont éliminées.

Tous les bois sont ensuite contrôlés. Les pièces n’offrant plus de résistance mécanique suffisante sont éliminées et remplacées.

Les éléments conservés sont soigneusement nettoyés à la brosse métallique.

Toutes les pièces de section supérieure à 64 cm², sont traitées en forant des trous espacés de 30 cm et en y injectant sous pression un produit fongicide non délavable. Ce traitement est appliqué jusqu’à 1 m au-delà de la zone visible de l’attaque.

Tous les bois sont ensuite aspergés sous pression, d’un produit fongicide non délavable, ayant des propriétés curatives et préventives, tant fongicide qu’insecticide.

On veille lors des forages à affaiblir le moins possible les pièces et on vérifie si leur stabilité reste assurée.

Finalement, les trous de forage sont bouchés à l’aide de chevilles traitées.

Attention !
Même si aucune attaque ne s’est déjà produite, lors de la mise à nu du bois pour une transformation, ou lorsque des travaux, liés par exemple à une amélioration de l’isolation, vont cacher des ouvrages en bois, il faut impérativement en profiter pour le traiter de façon préventive.

Travaux à réaliser sur les maçonneries

Le traitement curatif et préventif des maçonneries comprend les opérations suivantes.

Le plafonnage est éliminé en dépassant la zone attaquée d’au moins 50 cm.

Toutes les surfaces infectées sont nettoyées soigneusement à la brosse métallique.

Les surfaces sont ensuite brûlées au chalumeau.

Des trous sont forés dans le mur tous les 20 cm en découpant la zone attaquée en carrés de +/- 60 cm de côtés.

Les trous de forage sont remplis au moyen d’un fongicide puissant.

Toutes les surfaces traitées sont finalement aspergées.


Bois de remplacement

Tous les bois de remplacement seront traités dans une station agréée, travaillant sous contrôle permanent de l’UBAtc.

Un certificat officiel, établi suivant le modèle UBAtc, mentionnera :

  • le relevé des pièces traitées,
  • le mode opératoire utilisé,
  • le nom du produit de traitement, homologué par l’Association Belge pour la protection du bois.

Table de correspondance température/pression pour quelques fluides frigorigènes

Table de correspondance température/pression pour quelques fluides frigorigènes


Température Pression relative [bar]

[°C]

R22 R134A

R407c

-20 1,43 0,31 1,79
-18 1,62 0,43 2,02
-16 1,83 0,56 2,25
-14 2,05 0,69 2,50
-12 2,28 0,84 2,77
-10 2,52 0,99 3,05
-8 2,78 1,15 3,34
-6 3,05 1,33 3,65
-4 3,33 1,51 3,98
-2 3,63 1,71 4,32
0 3,95 1,91 4,68
2 4,28 2,13 5,06
4 4,63 2,36 5,46
6 5,00 2,60 5,88
8 5,38 2,85 6,31
10 5,78 3,12 6,77
12 6,20 3,40 7,25
14 6,64 3,70 7,75
16 7,10 4,01 8,27
18 7,58 4,34 8,81
20 8,08 4,68 9,38
25 9,42 5,61 10,91
30 10,91 6,66 12,60
35 12,55 7,82 14,46
40 14,35 9,11 16,50
45 16,33 10,53 18,75
50 18,49 12,10 21,20
55 20,84 13,83 23,87
60 23,40 15,73 26,78
65 26,17 17,80 29,94

Ces valeurs ont été calculées à partir de petits programmes accessibles gratuitement sur le site fridgetech.com.

 

Rendement des appareils de cuisson

Rendement des appareils de cuisson

De l’énergie totale nécessaire à la cuisson des aliments, seule une part parvient finalement sur la table. L’autre part est utilisée au chauffage et au maintien en température des appareils pendant la cuisson. Le rapport entre l’énergie absorbée par la charge et l’énergie totale consommée est désigné par rendement. Ce dernier dépend du genre de procédé de cuisson, du mode de transmission de la chaleur, de la température utile, de la pression, de l’humidité et de la quantité de charge traitée.

Pour les procédés de cuisson et étuvage à la vapeur, il peut atteindre approximativement 90 %. Alors que pour les procédés de rôtissage ou de cuisson au four, il est considérablement inférieur.

L’énergie non transmise à la charge est désignée par énergie perdue. Elle réchauffe le local, fuit à l’extérieur ou dans les locaux adjacents plus froids au travers des parois, fenêtres, installations de ventilation ou s’écoule à la canalisation avec l’eau de cuisson inutilisée. L’énergie perdue contribue au réchauffement de la cuisine, donc à la détérioration du climat ambiant.

L’installation de ventilation et les machines frigorifiques sont mises à rude contribution pour en assurer l’équilibre.

Pour des charges nominales, on peut caractériser chaque appareil de cuisson par son rendement.

Il peut s’exprimer par :

h = P2 / P1

Où :

  • P1 : puissance absorbée (W),
  • P2 : puissance utile (W).
Rendement approximatif des appareils de cuisson les plus courants

Fourneau électrique :

plaque en fonte : 60 %
plaque vitrocéramique : 75 %
plaque à induction : 90 %

Fourneau à gaz :

feu ouvert : 58 %
plaque de mijotage : 60 %
plaque vitrocéramique : 75 %

Sauteuse :

électrique : 30 %
à gaz : 25 %

Grill :

électrique : 20 %
à gaz : 15 %

Salamandre :

électrique : 20 %
à gaz : 15 %

Marmite :

électrique : 50 %
à gaz : 50 %

Four à air pulsé :

électrique : 80 %
à gaz : 70 %

Four statique :

électrique : 45 %
à gaz : 40 %
Cuiseur à la vapeur électrique : 80 %

Bain-marie :

électrique : 50 %
à gaz : 45 %

Friteuse :

électrique : 50 %
à gaz : 45 %

Pour un même type d’appareil, le rendement dépend principalement des facteurs suivants :

  • l’inertie de l’élément chauffant
  • la qualité d’isolation pour les enceintes fermées
  • l’efficacité des dispositifs de réglage.

Choisir le système de régulation de la machine frigorifique

Variateur de vitesse.  (Source : Delhaize).

Critères de choix de la régulation

Dans le cas du froid alimentaire, les critères de choix de la régulation sont :

  • la puissance frigorifique disponible au niveau de l’évaporateur;
  • l’efficacité énergétique du compresseur (consommation électrique, COP).

Il va de soi que les deux critères sont intimement liés. On observe par exemple qu’en maîtrisant la surchauffe à la sortie de l’évaporateur, non seulement la puissance frigorifique augmente (remplissage optimal de l’évaporateur) mais la consommation électrique du compresseur diminue. Globalement, ces deux effets sont cumulatifs et sont mis en évidence par des valeurs d’efficacité énergétique élevées (COP).

La puissance frigorifique de l’évaporateur

La charge frigorifique disponible pour l’application au niveau de l’évaporateur conditionne non seulement le choix :

  • de l’évaporateur en premier;
  • du compresseur, du condenseur et du détendeur et des auxiliaires;

mais aussi, et c’est l’objet de ce chapitre, le choix :

  • des types de régulation;
  • des organes d’entrée des régulateurs comme les capteurs de pression et de température (la pression de condensation à l’entrée du condenseur par exemple);
  • des organes de sortie des régulateurs comme les variateurs de fréquence et les détendeurs asservis(régulation de la vitesse du compresseur par exemple);
  • des superviseurs éventuels.

La régulation de la puissance frigorifique à l’évaporateur, suivant la charge de l’application, est primordiale. En effet, elle conditionne la stabilité de la température au niveau de la zone à refroidir, celle-ci étant impérative pour la conservation des denrées alimentaires.

Consommation énergétique des compresseurs et des auxiliaires

Si pour le même prix, à savoir une puissance frigorifique optimalisée au niveau de l’évaporateur, on peut réduire les consommations électriques du compresseur, des ventilateurs des évaporateurs et des condenseurs, des cycles de dégivrage, … tout le monde est gagnant tant pour le portefeuille du commerçant que pour la planète.

À titre indicatif, un grand constructeur d’élément de régulation annonce des économies d’énergie (essentiellement une réduction des consommations électriques) variant de 20 à 30 % par le choix d’une régulation :

  • de l’ouverture du détendeur électronique donnant une gestion de la surchauffe et, par conséquent du remplissage de l’évaporateur;
  • du débit du compresseur par variation de sa vitesse;
  • du dégivrage de l’évaporateur;
  • de la pression de condensation (régulation en pression flottante);

La répartition des consommations énergétiques moyennes du froid alimentaire dans des supermarchés se répartit comme suit :

répartition des consommations énergétiques moyennes du froid alimentaire

Tous les postes de consommations énergétiques sont importants, d’accord, mais celui des compresseurs doit revêtir une attention toute particulière. En effet, la plupart des choix qui seront effectués sur la régulation des différents équipements de la machine frigorifique influenceront de près ou de loin la consommation électrique du compresseur contribuant à améliorer sa performance énergétique :

Exemple.

L’investissement dans une régulation associée avec un détendeur électronique permet de prédire, selon un fabricant, une réduction des consommations énergétiques du compresseur de l’ordre de 25 % soit 12 % des consommations énergétiques totales du poste froid alimentaire.

réduction des consommations énergétiques du compresseur de l'ordre de 25 %


Les régulations

Le choix de la régulation d’une installation frigorifique doit être considéré :

  • dans un premier temps, au niveau global, c’est la supervision;
  • dans un second temps au cas par cas par rapport aux différents équipements, ce sont les régulateurs dédicacés.

Supervision

La gestion technique centralisée (GTC)

GTC d’un supermarché (source : Delhaize).

Avec la venue de l’électronique, et plus particulièrement de la régulation numérique, tout est pratiquement réalisable au niveau de la régulation du cycle d’une installation de froid alimentaire sachant que les équipements individuels peuvent se trouver souvent à des distances non négligeables.

Pour les installations de froid alimentaire importantes, une gestion globale de tous les points critiques tels qu

  • les températures des différents meubles frigorifiques;
  • les pressions de condensation, d’évaporation, …;
  • les phases de dégivrages,

peut s’avérer très intéressante tant pour le responsable commercial du magasin que pour les responsables techniques et de la maintenance des équipements.

On nomme couramment ce type de superviseur une Gestion Technique Centralisée (GTC) qui est capable à la fois  :

  • d’effectuer des campagnes de mesure de traçabilité, de « benchmarking » (analyse des tendances de consommations énergétiques par exemple);
  • de modifier des paramètres de régulateur individuel (modification de consigne de température de meuble frigorifique, …);
  • La gestion technique centralisée offre les avantages et inconvénients suivants :

(+)

  • une meilleure vue globale de l’installation;
  • gestion des alarmes possible;
  • programmation aisée de la maintenance;
  • maîtrise plus facile du dépannage des installations;
  • benchmarking possible entre différents magasins d’une même chaîne de distribution;

(-)

  • Investissement important. Ne conviens que pour des installations importantes (pour le commerçant de détail, cela semble du luxe);
  • les systèmes de supervision et de régulation sont souvent propriétaires et, par conséquent, la note reste souvent « salée » en cas d’implémentation ou de modification de l’installation;

Schéma d'une installation de supermarché.

Une installation de supermarché est régulièrement configurée de la manière suivante :

  • les meubles frigorifiques sont dans les zones de ventes;
    les compresseurs sont dans un local technique annexe (pas toujours à proximité);
  • les condenseurs sont sur le toit.
    Dans ce cas, une gestion technique centralisée permet de voir globalement comment se comporte l’installation.

Les réseaux

Les réseaux de communication entre le superviseur et les régulateurs locaux sont souvent de types LON. Attention de nouveau que les protocoles de communication entre les différents équipements peuvent être propriétaires.

Régulation individuelle des équipements

Dans le cadre d’une démarche URE (Utilisation Rationnelle de l’Énergie), le choix de régulateurs individuels de qualité s’impose. En conception, il va de soi aussi qu’une régulation qui vise à réduire les consommations énergétiques de l’installation au maximum doit être envisagée globalement. En effet, le choix d’une régulation performante :

  • de la surchauffe ne devrait se concevoir qu’en association avec une variation de débit pour le compresseur (variateur de fréquence contrôlant la vitesse du moteur électrique du compresseur).
  • de pression flottante au niveau du condenseur, en fonction du climat externe, ne devrait aussi se concevoir qu’en association avec un détendeur électronique performant de manière à continuer à alimenter de manière optimale l’évaporateur en fluide frigorigène.

De manière générale, une somme de choix d’équipements adéquats associés à des régulateurs de qualité, permet d’améliorer sensiblement les performances énergétiques de la machine.

À l’heure actuelle, les fabricants de régulation en froid alimentaire offre les possibilités principales de régulation suivantes :

  • Régulation de la surchauffe à la sortie de l’évaporateur permettant le remplissage optimal de l’évaporateur quelle que soit la charge frigorifique de celui-ci.
  • Régulation du débit de réfrigérant en fonction de la demande de l’évaporateur.
  • Régulation de la pression de condensation au niveau du condenseur (pression flottante) dans le but de réduire le travail du compresseur (taux de compression HP/BP optimisé).

Surchauffe

La régulation moderne de la surchauffe se réalise au moyen de régulateur intégrant un algorithme de contrôle de la valeur minimale de surchauffe stable. Afin de garantir la pleine maîtrise de la surchauffe, le régulateur sera associé avec un détendeur électronique.

Schéma régulateur associé a un détendeur électronique.

Un fabricant de régulateurs annonce une réduction de l’ordre de 12 % de la consommation énergétique du compresseur et un temps de retour sur investissement de 1,5 à 2,5 ans. En effet, meilleur sera le remplissage de l’évaporateur moins long sera le temps de fonctionnement du compresseur.

Techniques

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Consigne flottante de basse pression

Le choix d’une consigne flottante de basse pression (ou température flottante à l’évaporateur) permet, outre les nombreux avantages au niveau de la qualité de conservation des denrées alimentaires, de réduire les consommations énergétiques par la simple augmentation de la consigne de température d’évaporation en période creuse des zones de vente. On sait que l’augmentation de la température d’évaporation conditionne le travail du compresseur. On estime, en général, qu’une augmentation de la consigne de température d’évaporation de 1 K réduit la consommation énergétique du compresseur de l’ordre de 2 à 3 %.

On est souvent amené à choisir ce genre de régulateur au même moment que le choix de l’équipement à placer dans les zones de vente comme les meubles frigorifiques, les chambres froides, …

Il existe sur le marché un grand choix de modules de régulation permettant par exemple de combiner les fonctions :

  • de régulation de température par commande des ventilateurs de l’évaporateur;
  • de dégivrage;
  • de monitoring de température;
  • de commande directe de compresseur dans les installations simples;
  • d’alarme température haute;

N’hésitez donc pas à bien négocier la qualité de votre régulateur au même moment que le choix des meubles et/ou chambres frigorifiques.

Débit du fluide frigorigène

Auparavant, la variation du débit du fluide frigorigène, et par conséquent l’adaptation de la puissance de la machine frigorifique à la charge nécessaire à l’évaporateur, était obtenue, par exemple, en enclenchant en « tout ou rien » une cascade de compresseurs en fonction de la pression d’aspiration Pa à l’entrée de la centrale.

Régulation en cascade de plusieurs compresseurs.

La mission était plus délicate encore pour un compresseur seul. Les moyens de régulation du débit frigorigène étaient limités et parfois très gourmands en énergie pour le compresseur (injection des gaz chauds par exemple).

La venue des variateurs de vitesse et surtout ces derniers temps la maîtrise des perturbations qu’ils engendraient auparavant au niveau des harmoniques, a permis de les adapter au compresseurs :

Régulation par variation de fréquence de la vitesse du compresseur.

Sur base d’une mesure en continu fiable de la pression d’aspiration (Pa) du compresseur, la  régulation par variation de fréquence du moteur d’entrainement du compresseur permet d’adapter le débit de fluide réfrigérant en fonction de la demande de l’évaporateur (le compresseur se comporte comme une pompe volumétrique).

Les principaux avantages et inconvénients du choix de ce type de régulation sont :

(+)

  • le COP est optimisé en permanence;
  • la pression d’aspiration est plus stable;
  • le compresseur peut être dimensionné plus petit;
  • les courants de démarrage sont plus faibles;
  • la durée de vie du compresseur est prolongée de par la diminution du nombre des démarrages/arrêts;

(-)

  • l’investissement est plus important;
  • il faut maîtriser les problèmes d’harmoniques;

De manière générale, l’évaluation des temps de retour simple sur investissement est, à l’heure actuelle, assez difficile à objectiver, car, des installations équipées de ce genre de régulation :

  • peu sont réellement monitorées (une fois l’installation terminée, il n’y a pas de réel contrat de maintenance ou de « benchmarking »);
  • si elles le sont, le temps de monitoring est souvent court.

Il est donc difficile de valider les temps de retour annoncé par les fabricants. L’équipe d’Energie+ serait tout à fait ravie de pouvoir disposer d’études de cas pertinentes.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Pression de condensation flottante

Schéma pression de condensation flottante.

La régulation de la pression de condensation en fonction des conditions climatiques externes est de loin celle qui permet de réduire fortement les consommations énergétiques du compresseur. En effet, tout comme l’augmentation de la basse pression à l’évaporateur améliore les performances du compresseur (une augmentation de température de 1 K réduit les consommations du compresseur de + 3 %), la diminution de la pression de condensation réduit aussi de + 3 % les mêmes consommations. Cependant, autant la réduction de la pression d’évaporation est limitée de par la température de l’application à respecter, autant la pression de condensation pourrait être abaissée au plus bas essayant de « coller » au maximum à la température extérieure pour un condenseur à air par exemple.

Schéma sur la diminution de la pression de condensation.

La diminution de la pression de condensation augmente l’efficacité du compresseur et de l’évaporateur.

S’il n’y avait pas de limite mécanique, par exemple la nécessité de maintenir une certaine pression haute sur le détendeur afin qu’il fonctionne correctement, on pourrait envisager des pressions de condensation proche de celles d’évaporation. La limite basse actuelle de pression de condensation est souvent fixée à 20 °C.

Vu que la plupart du temps la température externe, sous nos latitudes, est comprise entre 5 et 15°C, le pouvoir rafraichissant de l’air doit être utilisé au maximum. C’est pour cette raison qu’il est important de choisir une régulation de la pression de condensation flottante. Elle permet donc l’abaissement de la pression de condensation par la régulation du débit d’air externe (variation de la vitesse des ventilateurs des condenseurs).

graffique sur la régulation de la pression de condensation flottante.

On y arrive grâce à des régulateurs qui prennent en compte en permanence la température d’entrée d’air (dans le cas d’un condenseur à air) et la pression de condensation et l’introduise dans un algorithme de régulation de la vitesse du ventilateur d’air afin moduler son débit.

La régulation flottante de la pression (ou température) de condensation chez certains fabricants est réalisée en prenant en compte :

  • la température de l’air entrant dans le condenseur (= température externe) tair;
  • la pression de condensation (température de condensation) pc;
  • une information de la puissance frigorifique du compresseur est nécessaire Pf. Elle peut être obtenue lorsque que le compresseur est lui-même équipé d’un régulateur.

L’algorithme du régulateur recalcule la pression de condensation adéquate en fonction des différents paramètres d’entrée (pc, tair, Pf). La figure ci-dessus donne un exemple de loi de régulation imaginée par un constructeur spécialisé dans le domaine.

Techniques 

Pour en savoir plus sur la régulation de la surchauffe, cliquez ici !

Négocier le meilleur tarif

Négocier le meilleur tarif


Les trois étapes de la recherche d’un éventuel nouveau fournisseur

Une négociation avec un fournisseur d’électricité passera nécessairement par trois étapes: une phase de préparation, la négociation proprement dite et le suivi du contrat souscrit.

Étape 1 – La phase de préparation

Il s’agit de rassembler et de compiler l’ensemble des éléments constitutifs du cahier des charges. La précision des informations fournies permettra aux fournisseurs consultés de cerner au mieux les activités de votre institution, le produit recherché et votre profil de consommation. Ce cahier des charges comportera essentiellement deux parties.

Un volet administratif reprenant

  • une description des activités de l’institution,
  • les contraintes d’exploitation,
  • les caractéristiques du point de prélèvement au réseau,
  • la procédure et les critères d’attribution du marché
  • et le produit recherché (durée du contrat, niveau de service souhaité, garanties, possibilité de révision des prix, modalités de paiement,…).

On y adjoindra un volet technique qui présentera le fonctionnement de l’institution à travers le profil de ses consommations et la structure de sa consommation, par exemple l’historique des consommations des trois dernières années. Plus ces éléments seront précis et détaillés, mieux le fournisseur pourra prévoir vos consommations et plus il sera en mesure de vous proposer un prix intéressant.

Comme votre fournisseur achète l’électricité qu’il vous délivre auprès d’un producteur, ces éléments aideront ce dernier à connaître la puissance à injecter sur le réseau, afin de satisfaire la demande et donc à affiner son prix.

Le fournisseur s’efforcera dès lors de signaler au producteur la courbe de charge jour par jour pour l’ensemble de ses clients. Tout en sachant qu’en cas de non-concordance, une pénalité lui sera imposée… qu’il répercutera sur le prix du kWh chez le client dont les prévisions de consommation se seront avérées incorrectes.

Par exemple : vous commandez un certain nombre de kWh à un prix donné. Une canicule apparaît. La consommation de vos machines frigorifiques dépasse vos prévisions. Vous pourrez obtenir des kWh supplémentaires … mais à un prix très élevé parce que votre fournisseur l’achètera lui-même au prix fort auprès du producteur !

Si vous ne disposez pas de telles mesures, vous pouvez éventuellement reconstituer schématiquement votre profil de consommation sur base des factures mensuelles (idéalement des trois dernières années), de vos pointes de puissance et consommations électriques en heures creuses et pleines.

Si vous disposez d’un compteur électronique, votre GRD doit vous fournir sur demande le profil de charge que vous lui demanderiez. En principe, les 80 derniers jours sont mémorisés dans l’historique.

Voici 3 profils de consommation bien différents :

Mais une analyse de charge plus rigoureuse et détaillée peut vous permettre de mieux comprendre la source de votre consommation.

Un technicien spécialisé peut venir enregistrer le profil de demande électrique sur les principaux départs de votre bâtiment (cafétéria, buanderie, machine frigorifique, etc…) au moyen de pinces ampèremétriques placées autour des principaux câbles. Vous découvrirez l’origine de vos pointes de puissance et pourrez peut-être envisager un délestage de certains consommateurs (ne pas faire fonctionner simultanément lave-vaisselle et friteuse) ou même un report vers les périodes creuses (le chauffage du ballon d’eau chaude sanitaire, par exemple). Il vous en coûtera de 1000 à 2000 Euros, montant partiellement subsidié par des primes régionales. Certains fournisseurs, dans le cadre une démarche commerciale, peuvent financer le complément.

Il est parfois utile de consulter l’ensemble des fournisseurs lors de l’appel d’offre pour envisager toutes les possibilités : ainsi, si votre pointe ¼ horaire se fait en Heures Creuses (c’est rare !), il existe des fournisseurs qui n’en tiennent pas compte et facturent la pointe ¼ horaire de jour uniquement.

Étape 2 – La phase de négociation

Reste à analyser et à comparer les offres des différents fournisseurs d’électricité. Cette comparaison peut se révéler délicate et difficile dans la mesure où chaque fournisseur a sa propre structure de tarification.

D’une manière générale, il faudra notamment être attentif aux conditions générales de vente, aux différentes surcharges applicables, à des redevances fixes éventuelles, à la nature de l’énergie fournie (p.ex. de l’électricité verte), à la formule de révision des prix, …

Le prix peut être décomposé ou non en postes constitutifs :

  • 3 composants : un prix pour la pointe de puissance en kW, un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses.
  • 2 composants : un prix pour les kWh en Heures Pleines, un prix pour les kWh en Heures Creuses, ces deux valeurs incluant la pointe.
  • 1 composant : formule « all-in », un prix pour les kWh, tout compris.

A priori, le tarif le moins cher sera celui à 3 composants, puisque le moins risqué pour le fournisseur.

Les deux autres, qui vous permettent de ne pas vous soucier du profil de votre charge, comprennent donc un risque que le fournisseur va anticiper. D’ailleurs, il mettra généralement des valeurs minimales et maximales à sa proposition, ce que l’on appelle des valeurs « tunnel ». Par exemple, s’il s’agit d’un prix « all-in », il sera basé sur une répartition forfaitaire entre kWh HP et kWh HC (du type 55 % – 45 %). Si la réalité s’écarte de cette estimation, le prix peut être modifié…

Vous devrez choisir entre des prix avec ou sans révision mensuelle. A nouveau, votre sécurité (vous avez fixé le prix du kWh durant 2 ans) … se traduira par une augmentation initiale du prix, pour couvrir le risque d’inflation. Un parallèle avec la logique d’intérêt fixe ou indexé des prêts hypothécaires peut avoir lieu ici.

Enfin, certains fournisseurs proposeront des services associés, tels que :

  • des courbes mensuelles de consommation,
  • la détection d’anomalies éventuelles de fonctionnement,
  • voire même la réalisation d’un audit de vos consommations électriques en vue de leur rationalisation.
Exemple d’une difficulté d’appréciation.

Il est difficile de comparer entre le prix « fixe » proposé par un fournisseur et un prix variable fixé par un autre. En effet, le prix variable sera indexé en fonction de 2 indices : les paramètres Nc et Ne publiés par le Ministère des Affaires Économiques. Or Nc est l’indice des coûts de combustible. Celui-ci fluctue, avec retard, en fonction du prix du baril de pétrole mondial. Qui peut en évaluer le coût dans 12 mois ??? Il est donc impossible de comparer mathématiquement des offres indexées et non indexées : on peut juste faire des hypothèses d’évolution raisonnable…

 Le fournisseur qui veut comparer son prix fixe au prix variable de son concurrent aura tendance à augmenter, peut être plus que de nécessaire, la valeur du paramètre Nc et mettre son prix ainsi en évidence…

Trucs et ficelles des « acheteurs »

  • On n’est jamais aussi fort que lorsque l’on change de fournisseur… puis qu’on fait mine de pouvoir revenir … sous de meilleures conditions ! A égalité d’offre de prix entre 2 fournisseurs, il est donc parfois préférable de changer… pour être plus fort dans un an ou deux, lors de la nouvelle négociation.
  • Il est aujourd’hui possible d’additionner les consommations de plusieurs sites financées par la même source et de négocier un prix « de gros » pour ces différents sites. Voire de s’associer avec d’autres entités similaires pour constituer un poids plus important (association de communes, d’établissements scolaires, …). Face à la concentration des producteurs, pourquoi pas une concentration des clients ?
  • Demander un prix global tout postes compris, sur base de la demande des 12 derniers mois.
  • Si le profil est régulier, les marges d’écart entre fournisseurs seront faibles. Celui qui avait un tarif « Binôme A Éclairage » aura plus intérêt à réévaluer son tarif que celui qui était en « Binôme A Force Motrice ».

Les pièges à éviter

  • Les amateurs du « All-in » se disent sans doute qu’ils seront ainsi à l’abri de toute dérive impromptue de leur pointe de puissance… Pas si sûr ! Attention aux valeurs tunnels qui sont peut-être écrites dans le contrat… Attention également à la valeur du kW ¼ horaire annuel (= kWa) pris en compte par le GRD dans sa formule tarifaire. Et ce poste kWa est fort élevé dans le bilan final.
  • Suivant les fournisseurs, le prix proposé est « tout compris » ou « coût des certificats verts » non compris (composante encore appelée « contribution Énergie Renouvelable ») …
  • Attention aux « obligations de consommer » : il est possible qu’il soit prévu dans les clauses du contrat de payer au minimum les ¾ de la consommation prévue, qu’elle soit consommée ou non !
  • Attention à l’existence ou non de « prix plafond » dans la formule tarifaire : certains fournisseurs additionnent le coût des kW et des kWh HP, qu’ils divisent par le nombre de kWh HP. Si ce montant est trop élevé (parce que la pointe ¼ horaire est vraiment très forte), ils rabotent leur prix. D’autres ne le font pas… Les écoles avec réfectoire sont souvent dans ce cas : peu de consommation en journée et une pointe élevée pour les frites de midi !

Étape 3 – Le suivi du contrat

Le contrat signé, il vous faudra chaque mois vérifier l’exactitude de la facturation. Dans le cadre du marché libéralisé, les durées des contrats de fourniture sont de l’ordre de une à deux années maximum. Il s’agira donc de renouveler l’appel d’offres en actualisant le cahier des charges, en fonction de l’évolution du marché et du fonctionnement de votre institution.

Fini donc le contrat de fourniture qui s’empoussière au fond d’un tiroir: l’électricité devient un bien de consommation comme un autre, soumis à la volatilité du marché. Plus question de se fier à un simple contrôle des tarifs. La libéralisation ouvre la porte à de nouvelles opportunités économiques, mais pour en faire votre profit, une nouvelle vigilance s’impose, ainsi qu’un brin de créativité.

En Allemagne et en France où le marché de l’électricité est déjà libéralisé depuis quelques années, on assiste ainsi à des regroupements de petits consommateurs pour former des cercles d’achat. Histoire de négocier aussi sur un plus grand volume de consommation et de mutualiser les services d’un consultant.

En principe, environ 2 mois avant la fin du contrat, votre fournisseur vous fait une nouvelle proposition pour l’année ou les 2 ans à venir…


Comment changer de fournisseur ?

Chaque fois qu’un contrat est conclu avec un nouveau fournisseur, c’est celui-ci qui est chargé d’informer le gestionnaire de réseau qui informera à son tour le fournisseur précédent de la signature du contrat.

Votre changement de fournisseur deviendra effectif après la période de préavis applicable.

Il semble cependant correct d’avertir également vous-mêmes par recommandé la non-reconduction du contrat avec votre ancien fournisseur.


Des primes pour analyser le profil de charge

Il existe des primes et subsides de la Région Wallonne pour la réalisation d’une analyse du profil de vos consommations électriques ainsi que pour la mise en place d’une comptabilité énergétique.


Faire appel aux « pros » de la négociation ?

La transition vers le marché libéralisé n’est pas une mince affaire: volatilité des prix, multitude de fournisseurs, rédaction de cahier des charges, appels d’offres, contraintes contractuelles, nombreuses variables influençant le prix, suivi du marché, …

Faute de temps, de moyen et/ou de compétence en interne pour aborder et affronter la préparation et la négociation de votre premier contrat d’approvisionnement, la meilleure solution pourrait consister à confier une partie ou la totalité des démarches à des professionnels. Certains bureaux d’études se sont spécialisés dans la consultance en négociation de contrat de fourniture d’électricité.

Ces consultants peuvent à la carte vous aider dans la rédaction de votre cahier des charges, donc définir précisément vos besoins, vous assister pour comparer les offres et vous orienter vers le fournisseur répondant au mieux à vos besoins et contraintes, ainsi que vous tenir informé sur l’évolution du marché.

On considère actuellement qu’un consommateur d’1 GWh ( = 1.000.000 de kWh) gagne à faire appel à un consultant. Son coût sera probablement bien remboursé par l’économie qu’il vous procurera. Mais vous n’êtes pas obligé de lui confier “tout le paquet”. Une intervention ponctuelle sur l’une ou l’autre étape peut être suffisante. Et rien ne vous empêche d’agglomérer les consommations de l’ensemble de vos bâtiments dans le cadre d’un seul appel d’offres.

Il peut être également intéressant de confier simultanément la mission de suivi énergétique et de négociation des tarifs à un consultant extérieur. Il vous informera de toute dérive de vos consommations et sera très au courant de votre profil de consommateur lors de la négociation.

Pour plus d’informations sur ce sujet, contactez le facilitateur tertiaire de la Région Wallonne.


Acheter de l’électricité verte ?

Par le système mis en place, tout consommateur achète donc de l’électricité « verte« , intégrée pour quelques pour cents dans le courant distribué. Mais il lui est aussi possible d’acheter directement son électricité à un fournisseur d’électricité verte, c.-à-d. à un fournisseur qui s’est engagé à ce que au minimum 50,1 % de son électricité soit verte (en pratique, ce ratio est proche des 100 %). C’est la meilleure manière de soutenir le développement de ces techniques propres.

Pare-vapeur

Pare-vapeur


Généralités

Toutes les matières sont plus ou moins perméables à la vapeur.

Sous l’influence de la différence de pression de vapeur d’eau des deux côtés d’une paroi, la vapeur a tendance à vouloir migrer par diffusion à travers celle-ci.

Pour éviter les phénomènes de condensation interne, il est parfois nécessaire de placer du côté chaud de l’isolant d’une paroi, une couche de matériau relativement étanche à la vapeur d’eau.

Cette couche de matériau est appelée « écran pare-vapeur ».

Le pare-vapeur remplit les fonctions suivantes :

  • Éviter une condensation excessive.
  • Empêcher, dans l’isolant thermique, l’absorption d’eau par capillarité en provenance des éléments de construction contigus.
  • Assurer l’étanchéité provisoire à l’eau de pluie lors de la construction.
  • Assurer l’étanchéité à l’air.

Selon les exigences :

Classe Résistance à la diffusion de vapeur Exemples de matériaux utilisables comme pare-vapeur
E1 2 m < µd < 5 m Papier bitumé
Film en PE 0,2 mm
Papier de tapisserie plastifié
Peinture à l’huile
Peinture au caoutchouc chloré
E2 5 m < µd < 25 m Carton-plâtre recouvert d’une feuille d’aluminium
Film de PE 0,2 mm et laminé d’aluminium
Voile de polyester bitumineux P150/16
Voile de verre bitumineux V50/16
Membrane en PVC épaisseur > 1 mm
E3 25 m < µd < 200 m Bitume armé P3 ou P4 ou V3 ou V4
Bitume polymère APP ou SBS
Film PIB
E4 200 m < µd Bitumes armés avec film métallique (alu 3)
Système bitumineux multicouche ( ³ 8 mm)

Pare-vapeur, freine vapeur ou membranes intelligentes ?

Le risque principal de condensation est lié à la diffusion de vapeur en hiver, ou quand la pression de vapeur est plus importante à l’intérieur qu’à l’extérieur et que la vapeur a donc tendance à traverser la paroi de l’intérieur vers l’extérieur.

Les modèles d’évaluation statiques (comme celui de Glaser) entraînent presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur.

Néanmoins, essayer d’éviter le risque principal de condensations internes par diffusion en choisissant une membrane totalement étanche à la vapeur peut engendrer un risque secondaire à cause de la difficulté qu’a le mur pour sécher du côté intérieur

Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant.

On parle alors de « freine-vapeur ». La valeur μd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par exemple 50 ou même 100 m) alors que la valeur μd des freine-vapeur ne sera que de quelques mètres seulement (par exemple 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

Les membranes intelligentes

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré sur l’illustration ci-contre. Dès lors, elles freinent le passage de la vapeur quand l’air intérieur est plus sec (généralement en hiver), et permettent le séchage du mur, lorsque l’humidité relative intérieure est plus élevée (généralement en été ou au printemps).

Principe de fonctionnement d’une membrane intelligente.

Source : Proclima.

Plusieurs types de membranes intelligentes existent avec une valeur  μd moyenne allant de quelques mètres à une dizaine de mètres. Remarquons que ces changements de μd ne sont pas instantanés et que le choix de la membrane doit d’abord se faire sur base de l’ambiance globale du local pour éviter le risque principal de condensations internes par diffusion. On pense ici au cas des salles d’eau qui sont le lieu des charges d’humidité élevées, mais ponctuelles dans temps.


Le placement

Le pare-vapeur doit être placé de manière continue et avec des joints étanches.

Les films seront posés autant que possible sans joint. Les joints inévitables et les jonctions avec d’autres éléments de construction sont à réaliser par collage ou soudage avec recouvrement, de manière à assurer la continuité du pare-vapeur.

La classe E4 exige une mise en œuvre sur support continu.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air (et des pertes de chaleur associées) et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Attention !
Un matériau pare-vapeur placé à un mauvais endroit peut fortement perturber le comportement hygrothermique de la toiture (entre autres augmenter les condensations internes ou empêcher l’élimination de l’humidité de construction).

Source : certains passages de cette feuille sont extraits du guide Isolation thermique par l’intérieur des murs existants en briques pleines réalisé par Arnaud Evrard, Aline Branders et André De Herde (Architecture et Climat-2010) dans le cadre de la recherche ISOLIN, financée par le département Énergie et Bâtiment durable du Service Public de Wallonie. Disponible sur le site : energie.wallonie.be

 

Luminaires extérieurs

Luminaires extérieurs


Classification des luminaires extérieurs

Luminaires fonctionnels Luminaires décoratifs Projecteurs

Type 1 : asymétriques (type éclairage public).

Type 3 : asymétriques.

Type 5 : asymétriques.

Type 2 : symétriques avant-arrière.

Type 4 : symétriques avant-arrière.

Type 6 : symétriques.

   

Distribution lumineuse des luminaires asymétriques et des luminaires symétriques.

Les projecteurs se distinguent des autres luminaires parce qu’ils sont orientables en azimut et en inclinaison. Un luminaire d’éclairage public éclaire grosso modo une bande d’une largeur égale à la hauteur de feu. Cette largeur peut atteindre 2,5 fois la hauteur pour un projecteur.

     

Distribution lumineuse des luminaires et des projecteurs.

  

Orientation d’un projecteur.

Pour éviter toute pollution lumineuse, on évitera d’utiliser des luminaires décoratifs éclairant vers le ciel.


Matériaux utilisés

Matériaux pour armatures

Matériaux pour armature

Traitement de surface

Finition

Avantages

Inconvénients

Acier inoxydable

Aucun

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussières, grand choix des couleurs.

Coût, poids.

Acier

Galvanisation

Peinture cuite au four

Très bonne tenue dans le temps, limitation du dépôt de poussière, grand choix des couleurs.

Veiller à ce que la couche de galvanisation soit suffisante, poids.

Aucune

Bonne tenue dans le temps.

Surface moins lisse, plus salissante, couleur unique.

Aluminium et alliages

Chromatation

Peinture cuite au four

Très bonne tenue dans le temps, poids, limitation du dépôt de poussières, grand choix des couleurs.

Anodisation

Aucune

Bonne tenue dans le temps.

Couleur unique, plus salissante.

Cuivre

Aucun

Aucune

Moins coûteux que les autres.

Oxydation naturelle.

Polissage

Vernis

Maintien de l’aspect initial dans le temps.

Oxydation

Aucune

Bonne tenue dans le temps.

Couleur noire uniquement, impossibilité de voir si c’est du cuivre.

Bronze

Aucun

Aucun

Matériau noble.

Coût, poids, oxydation naturelle.

Couche de primer

Peinture liquide

Bonne tenue dans le temps, limitation du dépôt de poussières, grand choix de couleurs.

Coût, poids.

Matières synthétiques

Peintes dans la masse

Aucun

Légèreté, pas de risque de couple galvanique.

Faible résistance mécanique et thermique, choix de couleurs limité.

Couche de primer

Peinture liquide

Légèreté, pas de risque de couple galvanique, grand choix de couleurs.

Faible résistance mécanique et thermique,  risque de décollement de la peinture.

Matériaux pour réflecteurs

Matériaux pour réflecteurs

Procédé de fabrication

Traitement

Avantages

Inconvénients

Aluminium

Emboutissage

Anodisation

Légèreté, très répandu, coût, très bonnes qualités de réflexion.

Toutes les formes ne sont pas permises.

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Extrusion

Chromatation puis métallisation

Qualités de réflexion optimales.

Coût, fragilité mécanique du traitement.

Matière synthétique

Injection

Métallisation

Légèreté, grande liberté des formes, qualités de réflexion optimales.

Coût, limitation thermique, fragilité mécanique du traitement.

Verre

Soufflage

Aucun

Esthétique lorsque le réflecteur est visible, la vasque et le réflecteur peuvent ne faire qu’un.

Poids, coût.

Matériaux pour protecteurs

Matériaux pour protecteurs

Aspect

Avantages

Inconvénients

Métacrylate (PMMA ou polymétacrylate de méthyle)

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, pas de jaunissement avec les UV.

Cassant.

Structuré

Coût, légèreté, très faible perturbation de la distribution de la lumière, moins éblouissant que le clair.

Opalin

Coût, légèreté, éblouissement très faible.

Cassant, distribution de la lumière tout à fait diffusante (réflecteur inutile).

Polycarbonate

Clair

Coût, légèreté, ne perturbe pas la distribution de la lumière, très résistant aux chocs.

Nécessite, pour éviter le jaunissement, un traitement anti-UV dans la masse, voire un film protecteur supplémentaire lorsqu’on utilise des sources qui émettent beaucoup d’UV comme les lampes à induction et les iodures métalliques.

Structuré

Comme le métacrylate, mais très résistant aux chocs.

Opalin

Comme le métacrylate, mais très résistant aux chocs.

Comme le métacrylate.

POND (Partially Obscured Non Diffusing)

Traitement de surface qui ne perturbe que très faiblement la distribution de la lumière ; malgré un aspect légèrement opalin.

Coût.

Verre

Clair

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas.

Coût, poids, matériau très cassant sauf quand il est trempé ou feuilleté et qu’il a une forme étudiée pour résister (p.e. bombé, cintré).

Strié

Esthétique d’un matériau noble, ne perturbe pas la distribution de la lumière, ne s’altère pas, les stries permettent une distribution améliorée selon le besoin.

Sablé

Ne perturbe pas la distribution de la lumière, ne s’altère pas, comparable à l’opalin des matières synthétiques.

Distribution de la lumière plus aléatoire comme pour les opalins.

Matériaux pour poteaux et consoles

Matériaux pour poteaux

Avantages

Inconvénients

Aluminium

Légèreté.
Pas besoin nécessairement de peinture.
Coût.

Très grande transmission des vibrations.
Apparition de déformations permanentes lors de chocs.
Limitation au niveau des formes.

Acier

Très grande résistance mécanique.
Transmet peu les vibrations.
Résistance aux chocs.
Grande variété de formes et d’adaptations.
Très grandes hauteurs possibles.

Nécessite un grand soin de traitement de surface : galvanisation + nettoyage.

Fonte

Grande variété de formes.
Matériau noble.
Rendu des détails excellent (ex : armoiries, détails végétaux,…).

Poids, coût, limitation en hauteur, poteaux en plusieurs pièces.
Nécessite un grand soin de traitement de surface : métallisation + peinture riche en zinc.
Matériau cassant sauf les fontes nodulaires.


Contrôle de l’éblouissement

Les luminaires extérieurs sont classés en fonction de leur contrôle de l’éblouissement et de la pollution lumineuse :

Classe Intensité lumineuse maximale pour tous les demi-plans C (en cd/klm) Maîtrise de l’éblouissement et de la pollution lumineuse
à γ = 70° à γ = 80° à γ = 90°
G1 200 50 Maîtrise très réduite.
G2 150 30 Réduite.
G3 100 20 Faible.
G4 500 100 10 Moyenne.
G5 350 100 10 Bonne.
G6 350 100 0 Excellente.

Check-list pour une installation [Chauffage à eau chaude URE]

Voici un résumé des points essentiels qui garantissent une installation de chauffage énergétiquement efficace et confortable.

On sera attentif à 4 aspects du projet :

Paramètres de dimensionnement

Exigences

Pour en savoir plus

La puissance utile des chaudières doit être calculée se base des prescriptions de la norme NBN B62-003 en tenant compte de la température de base de la région correspondante.

Concevoir

Dans les installations équipées de radiateurs, la puissance électrique d’un circulateur en [W] doit être proche de la puissance thermique du réseau qu’il alimente Pth en [kW].

Concevoir 

Dans le cas d’une installation fonctionnant au gaz, les radiateurs doivent au minimum être dimensionnés en régime 80°/60° (ou mieux encore en régime 70°/50°) pour pouvoir optimaliser le fonctionnement des chaudières à condensation.

Concevoir 

Dans le cas d’une installation fonctionnant au fuel, les radiateurs sont dimensionnés en régime inférieur ou égal à 80°/60° pour bénéficier d’une certaine surpuissance à la relance.

Concevoir 


Choix de matériel

Exigences

Pour en savoir plus

Si le gaz naturel est disponible, la chaudière est une chaudière à condensation, de préférence ne demandant pas de débit minimal et équipée d’un brûleur modulant (10 .. 100 %).

Concevoir

Pour les grosses puissances, la chaudière à condensation peut être couplée à une chaudière traditionnelle très basse température.

Concevoir 

Si le gaz naturel n’est pas disponible, la chaudière est une chaudière fuel traditionnelle très basse température équipée d’un brûleur Low NOx.

Concevoir 

Au-delà d’une puissance de 150 kW, le brûleur des chaudières traditionnelles sera à deux allures vraies régulées en cascade.

Concevoir 

Les brûleurs fuel doivent être équipés d’origine d’un compteur de combustible.

Concevoir 

Les chaudières à condensation sont raccordées à un circuit hydraulique favorisant les retours à température la plus froide possible et approuvé par le fabricant de la chaudière.

Concevoir 

Dans le cas de chaudières ne demandant pas de débit minimal et pouvant travailler à très basse température, le collecteur primaire est un collecteur ouvert sans pompe primaire.

Concevoir 

Les circuits de distribution secondaires correspondent à des zones d’activités homogènes et disposent de leur régulation propre.

Concevoir 

Les conduites parcourant des locaux non chauffés sont isolées avec une épaisseur d’isolant fonction de leur diamètre.

Concevoir 

Les vannes et brides disposées dans des locaux non chauffés sont isolées au moyen de coquilles isolantes amovibles.

Concevoir 

Les circulateurs sont à vitesse variable et leur débit maximal est ajusté aux besoins réels.

>Concevoir 

La courbe caractéristique maximale d’un circulateur doit se trouver juste en dessous du point de fonctionnement théorique calculé du circuit correspondant.

Concevoir 

Chaque circuit secondaire est équipé d’un organe d’équilibrage (correctement dimensionné) permettant une répartition correcte du débit dans l’installation.

Concevoir 

Un chauffage par le sol ne peut être installé dans des locaux à occupation variable, à forte occupation ou fortement ensoleillé.

Concevoir 

Le chauffage par le sol est à déconseillé au dessus du sol ou de caves non chauffées.

Concevoir 

Des radiateurs ne peuvent être installés devant des vitrages.

Concevoir 

Des corps de chauffe de types différents ne peuvent être raccordés sur un même circuit de distribution avec un réglage de la température d’eau unique.

Concevoir 


Régulation

Exigence

Pour en savoir plus

Les chaudières multiples sont régulées en cascade par action sur le brûleur, leur vanne d’isolement et leur circulateur éventuel.

Concevoir

Chaque zone d’occupation et de besoin homogènes dispose de son propre circuit de distribution dont la température d’eau est régulée en fonction d’un thermostat d’ambiance ou d’une sonde extérieure.

Concevoir 

La température des chaudières suit au plus près la température des circuits secondaires de distribution (sauf si la chaudière ne peut descendre en température, si une production instantanée d’eau chaude sanitaire est combinée à la chaudière ou si le collecteur primaire est un collecteur bouclé).

Concevoir 

L’intermittence est gérée par un optimiseur qui assure une coupure complète des circuits de distribution et éventuellement des chaudières et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures.

Concevoir 

Chaque circuit dispose un thermostat d’ambiance qui permet de gérer la température d’inoccupation et éventuellement d’ajuster le réglage de la courbe de chauffe dans le cas d’une régulation en fonction de la température extérieure.

Concevoir 

Si nécessaire, le régulateur doit comprendre une possibilité de dérogation au régime de ralenti avec retour au mode automatique sans intervention manuelle.

Concevoir 

Les locaux profitant d’apports de chaleur plus importants que les autres sont équipés d’une régulation locale (par exemple, pour les radiateurs, des vannes thermostatiques, « institutionnelles » dans les lieux publics).

Concevoir 

Dans les installations de taille importante, les régulateurs sont de type digital, communiquant, de manière à pouvoir être raccordés sur une centrale de gestion centralisée.

Concevoir 

Les équipements de régulation doivent être accompagnés d’un mode d’emploi clair (plus clair que le simple mode d’emploi des régulateurs), comprenant l’explication du principe de régulation et de l’utilisation des équipements.

Concevoir 

La régulation doit mettre à l’arrêt les circulateurs en absence de besoin de chauffage (en fonction de la fermeture des vannes et en fonction de la température extérieure).

Concevoir 


Chaufferie

Exigence

Pour en savoir plus

La section de la cheminée doit être adaptée à la puissance et au type de chaudière installée.

Concevoir

La cheminée doit être équipée d’un régulateur de tirage.

Concevoir 

La cheminée raccordée à une chaudière à condensation doit être étanche à l’humidité et résister à la corrosion.

Concevoir 

La chaufferie doit être équipée d’une ventilation haute et d’une ventilation basse, respectant la norme NBN B61-001.

Concevoir 

Choisir le pare-vapeur pour une toiture plate existante

Quel pare-vapeur choisir ?

Les toitures inversées ne nécessitent pas de pare-vapeur, l’étanchéité en faisant office.

Pour les toitures chaudes, le choix du type et de la classe d’écran pare-vapeur dépend de plusieurs facteurs.

La classe de l’écran pare-vapeur nécessaire se calcule. Dans les cas les plus courants, il est fait usage de tableaux pour déterminer cette classe.

Le tableau suivant (extrait de la NIT 215 du CSTC) indique la classe de pare-vapeur à choisir en fonction de la classe de climat intérieur, du support et de l’isolant.

Support ou forme de pente Classe de climat intérieur PURPIREPSPF MWEPBICB CG
Techniques de pose de l’étanchéité
Fixation mécanique (a) Autres Fixation mécanique (a) Autres
Béton coulé in situ, éléments préfabriqués en béton (b) (c) I

II

III

IV

E3

E3

E3

X

E3

E3

E3

E4

E3

E3

E3

X

E3

E3

E3

E4

(h)

(h)

(h)

(d)

Voligeage ou panneaux à base de bois résistant à l’humidité (e) (f) I

II

III

IV

E1 (g)

E2

X

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Tôles profilées en acier I

II

III

IV

(i)

E1 (g)

E2

X

(i)

E1 (g)

E2

E4

E2

E3

X

E2

E3

E4

(h)

(h)

(d)

Panneaux sandwiches autoportants I – III

IV

voir remarques

Non autorisé

(a) Afin d’éviter un “effet de pompage” résultant de l’action du vent, l’étanchéité à l’air du complexe toiture dont le support est perméable à l’air doit toujours être assurée, et ce de l’une des façons suivantes :

  • par la pose d’un pare-vapeur de classe E1 ou supérieure
  • par l’utilisation de panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces), d’épaulements sur les quatre bords et mis en œuvre sur un support permettant une bonne fermeture des emboîtements. Ces mêmes panneaux à bords droits ou coupés peuvent également assurer l’étanchéité à l’air du complexe toiture, pour autant que les joint entre les panneaux, ainsi que les raccords avec les rives de toiture (voir NIT 191) soient rendus étanches à l’air
  • en rendant étanches à l’air les joints entre les éléments d’un plancher de toiture.

(b) Pour la rénovation des toitures avec un plancher de toiture étanche à l’air en béton sec, on ne prévoit pas de pare-vapeur dans les classes de climat intérieur I, II et III.

(c) Dans les classes de climat intérieur I, II et III, on ne pose pas d’écran pare-vapeur complémentaire sur les planchers de toiture en béton léger (p. ex. béton cellulaire) sans couche d’isolation thermique complémentaire, si la membrane d’étanchéité est adhérente ou lestée. Dans le cas contraire, il est nécessaire de rendre étanches les joints entre les éléments en béton. Dans des climats de la classe IV, une condensation résiduelle annuelle peut entraîner des dégâts aux éléments (corrosion des armatures, p. ex.), de sorte qu’une isolation thermique complémentaire posée sur un pare-vapeur non perforé est indispensable.

(d) Pour les bâtiments de la classe de climat IV, il convient d’examiner avec le fabricant de l’isolation si un pare-vapeur complémentaire est éventuellement nécessaire.

(e) Préalablement au collage d’un isolant thermique au moyen de bitume sur un plancher en bois, les joints (y compris le joint périphérique) sont rendus étanches au moyen d’une membrane du type P 150/16. Lorsque les joints de cette membrane sont collés, celle-ci peut être assimilée à un pare-vapeur de la classe E2.

(f) Lorsque l’isolation est posée sur un panneautage, les joints de ce dernier ainsi que les joints aux rives sont rendus étanches par la pose d’une bande de “pontage”.

(g) La résistance à la diffusion de vapeur des panneaux d’isolation pourvus d’un parement (type aluminium ou voile de verre bitumé présent sur les deux faces) équivaut au minimum à celle offerte par un pare-vapeur de classe E1, lorsque les panneaux sont à épaulement sur les quatre bords et qu’ils sont mis en oeuvre sur un support permettant une bonne fermeture des emboîtements.

(h) La pose d’un écran pare-vapeur n’est pas requise, si les joints entre les panneaux d’isolation sont entièrement remplis de bitume (voir l’ATG pour cette application).

(i) Dans le cas d’une isolation en PF, on pose une couche de désolidarisation continue.

X La fixation mécanique au travers du pare-vapeur n’est pas autorisée en classe de climat IV.

REMARQUES

Compatibilité

Lorsque l’étanchéité est de type bitumineux, on pose de préférence un pare-vapeur bitumineux. Lorsque l’étanchéité est de type synthétique, on pose de préférence un pare-vapeur synthétique. Les deux types de matières peuvent être combinées à condition d’être compatibles entre elles, car elles sont en contact au droit des rives et des lignes de compartimentage de l’isolant.

Rénovation

Dans le cas d’une rénovation, l’étanchéité existante peut être conservée et faire office de pare-vapeur. Dans ce cas, il convient de vérifier si ce pare-vapeur possède une classe suffisante.

Panneaux sandwiches

Les panneaux sandwiches de toiture avec âme isolante appartiennent généralement, dès la fabrication, à la classe de pare-vapeur E1. Les dispositions relatives à la résistance au passage de la vapeur d’eau, à prendre en fonction de la classe de climat intérieur, sont prévues dans l’agrément technique des panneaux.

Toitures plates légères isolées à l’intérieur de la structure

Un freine vapeur est toujours nécessaire. Son choix est particulièrement délicat. On recommandera souvent le placement d’un pare-vapeur « intelligent ». Néanmoins, le choix étant particulièrement délicat on conseillera de se référer à l’avis (et aux calculs dynamiques!) d’un bureau d’études spécialisé.


Comment poser le pare-vapeur d’une toiture chaude ?

Un écran pare-vapeur mal posé où posé à un mauvais endroit peut causer de graves dégâts. Son action peut être insuffisante ou même, dans certains cas, peut créer des désordres ou les aggraver.

Le pare-vapeur se pose toujours du côté chaud par rapport à l’isolant.

On sera attentif à ne pas emprisonner d’eau dans les couches situées entre l’écran pare-vapeur et la membrane d’étanchéité.

Le pare-vapeur sera continu. Les joints seront soignés. Le pare-vapeur ne sera pas percé (accident mécanique ou passage de canalisations).

Aux rives et raccords, l’étanchéité et le pare-vapeur sont reliés en emprisonnant complètement l’isolant.

Le mode de pose du pare-vapeur dépend :

Du mode de pose et de fixation de l’isolant et de l’étanchéité

Lorsque l’étanchéité est posée en indépendance totale ou fixée mécaniquement, le pare-vapeur peut être posé en indépendance totale. Il est toutefois préférable de le poser en semi-indépendance pour faciliter la mise en œuvre. Le pare-vapeur est ainsi maintenu en place pendant la phase de mise en œuvre et en attendant le lestage final.

Lorsque l’étanchéité et l’isolant sont collés, le pare-vapeur doit également être collé de façon à ce que l’ensemble puisse résister au vent.

– Du support

Sur les supports en bois

Sur des panneaux, le pare-vapeur est collé (après pontage des joints), soudé ou cloué.

Sur des voliges, le pare-vapeur est cloué.

Sur les supports en tôles profilées

Pour les classes de climat intérieur < III, les lés du pare-vapeur sont posés parallèlement aux ondes.
Tous les joints sont réalisés par recouvrement.
Les joints longitudinaux doivent se trouver sur une nervure supérieure des tôles.
Sur une nervure supérieure, le pare-vapeur peut être perforé par les fixations mécaniques de l’isolant (et de l’étanchéité).

Pour la classe de climat intérieur IV, il faut poser le pare-vapeur sur un support intermédiaire plan.

Schéma classe de climat intérieur IV, pose du pare-vapeur.

Sur les autres supports

La pose est identique à celle des membranes d’étanchéité posées directement sur les mêmes supports (voir Choix du mode de pose de l’étanchéité), c’est-à-dire en indépendance, en semi-indépendance ou en adhérence totale.

Friteuse au gaz

Friteuse au gaz


Description

Une friteuse est un appareil comportant un bac à huile ou à graisse chauffé par un ou plusieurs brûleurs.

Actuellement, la majorité des friteuses sont dites « à zone froide », c’est-à-dire que la forme de la cuve et l’emplacement des brûleurs permettent de ménager dans le bain d’huile une zone à plus faible température (inférieure d’au moins 60°C à celle du bain). Cette disposition présente l’avantage de permettre le dépôt des particules d’aliments détachées lors de la cuisson par suite d’une baisse très sensible des courants de convection. La durée d’utilisation de l’huile s’en trouve ainsi prolongée et, de plus, cela évite la transmission de goûts et d’odeurs sous l’effet de la carbonisation de ces particules.

Il existe principalement deux types de friteuse à zone froide :

  • Dans l’une le chauffage se fait par le fond. L’entretien est aisé, mais le rendement est moins bon.
  • Dans l’autre, les gaz brûlés produits par le brûleur passent dans un tube qui est immergé dans le bain d’huile. Le rendement est meilleur, mais l’entretien est plus difficile.


Utilisation

Les friteuses sont utilisées non seulement pour la cuisson des pommes de terre frites, mais aussi pour la préparation des beignets, poissons, …

Elles sont adaptées aux aliments frais et aux aliments congelés.

Les aliments sont placés dans des paniers en fil d’acier chromé. Deux paniers utilisés dans la même cuve permettent une plus grande souplesse d’utilisation. Des friteuses à panier « transfert » donnent une productivité accrue. Il s’agit d’un système permettant l’abaissement/élévation, puis la translation du panier. Le fond du panier est généralement composé de volets perforés, facilement ouverts en manœuvrant une poignée. On peut ainsi faire passer rapidement et sans effort les aliments depuis la friteuse jusqu’à un plateau ou bac de réception. Un tel dispositif peut être associé à deux éléments de cuisson, chaque panier se déversant à tour de rôle dans une structure porte-plats disposée entre les deux friteuses.

Pour choisir le matériel adapté à ses besoins, on déterminera, en fonction du mode de distribution et de la régularité de la consommation, la production horaire qu’il convient d’obtenir. On compte environ 300 grammes de frites par personne. La production horaire annoncée par le constructeur pourra être différente dans la réalité, notamment lors de l’utilisation de frites déjà cuites, elle sera largement supérieure.


Gamme

Les capacités des friteuses vont d’environ 6 à 80 litres avec des puissances se situant entre 7,5 et 60 kW.


Efficacité énergétique

Plusieurs fabricants ont développé des friteuses optimisant leur rendement. Cette amélioration se base sur l’utilisation du brûleur séquentiel, une meilleure isolation, un meilleur transfert de chaleur et un allumage électronique.

Le meilleur transfert s’obtient par le choix du matériau pour l’échangeur (cuivre bon conducteur) et par le choix de la géométrie des parois d’échange thermique  : trajet des gaz chauds plus long, plus turbulent (ailettes, tétons).

Exemple: l’air brûlé est poussé par des ventilateurs dans des carnots se trouvant tout autour de la cuve mais à l’extérieur de celle-ci (rendant son entretien plus facile).

L’allumeur électronique est plus facile à manipuler que le piezzo. On arrêtera donc plus volontiers l’appareil.

Grâce à ces techniques, il existe une friteuse au gaz à haut rendement (88 %) fabriquée en Hollande. Ce rendement est à comparer aux 45 % d’une friteuse au gaz classique.

Choisir le modèle d’isolation pour le versant du toit

L’efficacité énergétique

L’efficacité énergétique de l’isolation d’une toiture inclinée dépend évidemment de l’épaisseur et du coefficient de conductivité thermique de l’isolant (λ).

Elle dépend aussi de la continuité de l’isolant. Ainsi une isolation posée entre chevrons de 6 cm d’épaisseur écartés de 30 cm ne couvre que 80 % de la toiture, le reste étant couvert par les chevrons nettement moins isolants.

De ce point de vue, il est bon de poser l‘isolant sous les chevrons. On limite ainsi le pont thermique au niveau des pannes. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La meilleure solution si on veut éviter complètement les ponts thermiques, est d’isoler la toiture par l’extérieur, par la méthode « sarking » ou en posant des éléments autoportants à isolation continue (c-à-d sans raidisseurs).


La complexité de la toiture

Dans le cas d’une toiture compliquée (pentes variables, formes complexes, hors équerre, fenêtres et pénétrations nombreuses), il est préférable d’utiliser de petits éléments pour réaliser le système de toiture.

Par contre, l’isolation par panneaux autoportants convient bien pour des toitures simples.


Le type de charpente

L’entre-axe des chevrons et l’épaisseur des gîtes de versant ou des arbalétriers de fermettes peuvent rendre difficile la mise en œuvre de certaines techniques d’isolation, notamment l’isolation par l’extérieur de type « sarking« .

En effet, avec ce type de toiture, la largeur minimale des supports de l’isolant (chevrons, gîtes de versant, arbalétriers) est de 38 mm pour pouvoir réaliser une pose correcte. (Dimensions plus importantes des vis et clous, précision avec laquelle doivent être réalisés les assemblages).

Les chevrons carrés ont généralement une épaisseur de 6 à 8 cm. Dans le cas d’une isolation posée entre chevrons, l’épaisseur de l’isolant est limitée à celle des chevrons. S’il est fait usage de laine minérale, l’isolation de la toiture est insuffisante et la pose d’une couche isolante sous les chevrons s’impose.

Par contre lorsque la charpente comprend des gîtes de versant ou des arbalétriers de fermettes d’une hauteur plus importante, 12 cm par exemple, l’isolation entre ces éléments de charpente peut être suffisante.

Schéma de l'isolation entre chevrons ou gîtes.

Des gîtes de versant permettent de poser en une seule couche 12 cm d’isolant.


Les performances acoustiques souhaitées

Les laines minérales sont de bons isolants acoustiques. Elles « piègent » les sons provenant du bruit aérien extérieur ou de l’impact des gouttes de pluie ou des grêlons sur la couverture. Une isolation entre chevrons à l’aide de laine minérale convient donc particulièrement lorsque de bonnes performances acoustiques sont souhaitées.

Le modèle d’isolation par l’extérieur (Toiture « Sarking » ou isolation par panneaux autoportants) peut poser des problèmes acoustiques, surtout si l’isolant est du polystyrène expansé.


Souhait de garder la charpente apparente

Lorsque l’on désire garder la charpente apparente, y compris les chevrons, il est nécessaire de poser l’isolant au-dessus de ceux-ci. Dans ce cas la toiture « sarking » est la plus appropriée. Les panneaux isolants peuvent éventuellement être posés sur un support décoratif (plaques, planchettes, …) assurant la finition du plafond entre les chevrons.

Si seules les pannes et fermes doivent rester apparentes, l’isolant peut être placé entre les chevrons. Il peut également être fait usage de panneaux autoportants.

Charpente apparente d’une toiture isolée.


Le souhait de faire réaliser les travaux par un non professionnel

Dans ce cas la pose de l’isolation doit se faire sans influence sur l’organisation des travaux des corps de métiers intervenant sur la toiture (charpentier, couvreur, zingeur, maçon …).

La pose de l’isolant devrait donc se faire après l’achèvement de leurs travaux.

L’isolant est posé par l’intérieur entre les chevrons, gîtes de versant ou fermettes, ou il est posée sous les chevrons de façon continue si la perte de place provoquée par cette technique est acceptable. Cependant, dans ce cas, on crée un espace important entre la sous-toiture et l’isolant, ce qui est déconseillé. On peut contourner ce problème en posant l’isolant, à la fois, entre les chevrons et sous les chevrons.

La finition du plafond des combles ne pourra se faire qu’après la mise en place de l’isolant et du pare-vapeur éventuel.

Inertie thermique

Inertie thermique

Les matériaux lourds de la construction tels que béton, brique, pierre, etc. ont une grande capacité à stocker de la chaleur. Le rayonnement solaire irradiant une paroi de brique ou de béton est, en partie, absorbé par celui-ci, transformé en chaleur et accumulé en son sein.
Cette paroi peut aussi prendre de la chaleur à de l’air plus chaud qu’elle.
La chaleur sera restituée dès que la température de l’air environnant est plus basse que celle de la surface du matériau (par convection) ou/et dès que la température de surface d »objets avoisinants descend en-dessous de celle de la paroi en question (par rayonnement).
L’inertie thermique peut simplement être définie comme la capacité d’un matériau à stocker de la chaleur et à la restituer petit à petit. Cette caractéristique est très importante pour garantir un bon confort notamment en été, c’est-à-dire pour éviter les surchauffes.

Cette capacité permet de limiter les effets d’une variation « rapide » de la température extérieure sur le climat intérieur par un déphasage entre la température extérieure et la température de surface intérieure des murs et par amortissement de l’amplitude de cette variation. Un déphasage suffisant permettra par exemple que la chaleur extérieure « n’arrive » qu’en fin de journée dans l’habitat, période où il est plus facile de le rafraîchir grâce à une simple ouverture des fenêtres.

L’inertie thermique d’un matériau est évaluée à l’aide des deux paramètres suivants :

  • la diffusivité : α = λ / (ρ * c) [m²/s]
  • l’effusivité : E = √ (λ * ρ * c) [ J.K-1.m-2.s-1/2]

où :

  • ρ la masse volumique du matériau en [kg.m-3]
  • c la capacité thermique massique du matériau en [J.kg-1.K-1]

Physiquement, la diffusivité thermique détermine la vitesse avec laquelle la température d’un matériau va évoluer en fonction des sollicitations thermiques extérieures.

L’effusivité d’un matériau est sa capacité à échanger de l’énergie thermique (L’énergie thermique est l’énergie cinétique d’un objet, qui est due à une agitation désordonnée de ses molécules et de…) avec son environnement (L’environnement est tout ce qui nous entoure. C’est l’ensemble des éléments naturels et artificiels au sein duquel se…). Lorsqu’on marche sur du sable chaud, on ressent une sensation de brûlure. Le sable impose sa température à notre corps, de manière plus importante que notre corps impose sa température au sable, car il possède une plus grande effusivité que le pied.

Pour garantir le confort d’été (éviter les surchauffes) on essaiera d’utiliser un matériau possédant les caractéristiques suivantes :
  • une faible diffusivité, pour que l’échange d’énergie thermique entre le climat extérieur et le climat intérieur se fasse le plus lentement possible (inertie en transmission).
  • une forte effusivité thermique pour que le mur stocke au maximum la fraîcheur dans les éléments en contact avec l’intérieur du bâtiment (inertie par absorption).

Exemple de l’évolution des températures intérieures lors d’une journée d’été dans un bâtiment à forte inertie et dans un bâtiment à faible inertie.

Remplacer les ballasts électroniques

Remplacer les ballasts électroniques


Remplacement des ballasts électromagnétiques existants par des ballasts électroniques

Avant / après …

Dans une installation possédant déjà des optiques et des lampes performantes, il est cependant peu rentable de remplacer uniquement les ballasts électromagnétiques par des ballasts électroniques. En effet, ceci nécessite une main d’œuvre importante : pose et dépose des luminaires, démontage des ballasts, modification du câblage interne et placement du nouveau ballast.

Concevoir

Pour choisir le type de ballast.

Remplacement des ballasts existants par des ballasts électroniques dimmables

Dans des locaux où la lumière naturelle est présente, il est légitime de se poser la question du remplacement des ballasts des luminaires par des ballasts électroniques dimmables qui géreront le niveau d’éclairement artificiel en fonction de l’apport en lumière naturelle.

Si les ballasts existants sont déjà des ballasts électroniques, l’investissement consenti pour le remplacement des ballasts n’engendrera plus d’économie. Au contraire, les ballasts électroniques dimmables présentent une perte légèrement supérieure aux ballasts électroniques traditionnels. Dans ce cas, l’installation du système de gestion ne sera jamais rentabilisée dans un temps raisonnable. Toutefois, si les ballasts existants sont en fin de vie et qu’un remplacement est nécessaire, alors on peut éventuellement envisager de les remplacer par des ballasts électroniques dimmables et un système de gestion simple de gradation en fonction de la lumière du jour (pour autant qu’il y ait un apport de lumière naturelle).

Si les ballasts existants sont électromagnétiques, on réalise déjà une économie d’énergie d’environ 20 % par leur remplacement, ce qui diminue les temps de retour.

Pour limiter la main d’œuvre, un fabricant commercialise un système de remplacement des ballasts sans démontage du luminaire et sans câblage. A première vue, ce kit permet à la fois de remplacer:

  • un tube fluorescent T12 (38 mm) ou T8 (26 mm) par un tube T5 (16 mm);
  • un ballast électromagnétique par un ballast électronique gradable ou pas.
Exemple de solution proposée par un fabricant

Composition

  • Châssis « enclipsable » à la place d’un tube T12 ou T8;
  • Ballast électronique éventuellement dimmable;
  • Lampe T5.

Avantages

A priori, le constructeur annonce les avantages suivants :

  • Remplacement rapide de la lampe T12 ou T8 par le kit T5;
  • Si le réflecteur et les ventelles sont incompatibles avec le kit, le fabricant propose une palette de réflecteurs adaptés;
  • En déconnectant le ballast existant, le starter et le condensateur, on bénéficie directement de l’association d’une lampe performante et d’un ballast électronique.

Inconvénient

Il faut rester prudent avec ce type d’équipement « miracle ». on retiendra donc que :

  • Le kit ne s’adapte pas nécessairement à tous les luminaires;
  • On risque de ne plus bénéficier de l’efficacité optimale du réflecteur existant vu que l’on change la position de la lampe dans le luminaire;
  • Les réflecteurs de remplacement proposés par le fabricant sont-ils adaptés aux luminaires ?
  • on risque de changer les angles de défilement du luminaire.

Conclusion

Ce type d’initiative est intéressante car elle permet de remplacer indirectement des ballasts traditionnels par des ballasts électroniques sans grands frais de maintenance.

S’il y a des expériences en la matière, elles sont les bienvenues !

Choisir le système de ventilation dans les bureaux

© Architecture et climat 2023.

Système de ventilation double flux dans les bureaux.


Configurations les plus courantes pour les immeubles de bureaux

Les bureaux ou zones de bureaux sont généralement desservis par des circulations donnant également accès à un ou plusieurs complexes sanitaires.

Ce type d’agencement très généralisé donne aux différents principes de ventilation retenus une orientation commune :

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié

L’introduction d’air neuf dans les bureaux,
le transfert des volumes d’air introduits via les circulations,
l’évacuation vers l’extérieur de l’air vicié dans les locaux sanitaires.


Ventilation simple flux avec extraction sanitaire

Lorsque l’ambiance extérieure (bruit et pollution limités) le permet, la solution la plus simple à mettre en œuvre est le système simple flux avec extraction sanitaire.

© Architecture et climat 2023.

  1. Air neuf
  2. Air vicié
  • L’air neuf est de préférence introduit dans les bureaux au moyen de grilles autoréglables placées en façade dans les menuiseries ou la maçonnerie.

Grille intégrée entre le vitrage et la menuiserie.

Grille verticale intégrée dans la menuiserie.

  • L’air vicié est évacué dans les sanitaires au moyen d’un ventilateur d’extraction.
  • Les transferts d’air entre bureaux et sanitaires se font, soit par un détalonnage des portes, soit par des passages appropriés avec grilles à chevrons ou autre.

Grille de transfert d’air.

Les circuits d’extraction (conduits et ventilateurs) sont dans la plupart des cas communs à plusieurs niveaux. Ils sont généralement conçus suivant le principe du « parapluie ». Les conduits verticaux empruntent les gaines techniques également verticales et les conduits horizontaux passent dans l’épaisseur des faux plafonds. Ces ensembles desservent à chaque niveau une ou plusieurs zones sanitaires. Pour peu que l’extraction d’air soit limitée aux zones sanitaires (pas d’extraction complémentaire dans les couloirs ou certains locaux spécifiques à des fins d’équilibrage), ce réseau horizontal restera limité en ampleur.

Étant donné l’absence de conduit de distribution vers chaque bureau, l’espace nécessaire aux conduits d’air est peu important. Ceci prend toute son importance en rénovation en regard des hauteurs de faux plafond qui ne doivent pas tenir compte du passage de conduits d’air.

Cependant, cette configuration souffre de certaines limites :

  • pour limiter l’influence du vent et des circulations d’air parasites, ce type d’installation ne s’applique qu’aux immeubles de taille moyenne et peu élevés : pour les nouveaux immeubles de plus de 13 m de haut (hauteur du plancher au dernier étage), la réglementation wallonne, demande ainsi, la preuve, étude à l’appui, qu’il est possible de garantir les débits d’air neufs recommandés au moyen d’amenées d’air naturelles.
  • ce type d’installation ne permet ni traitement de l’air (préchauffage ou rafraîchissement, gestion de l’humidité) ni récupération d’énergie. Il pourrait donc ne pas correspondre aux attentes de confort ou de performance énergétique.


Ventilation double flux avec extraction sanitaire

Le système de ventilation double flux, c’est-à-dire équipé d’une pulsion et d’une extraction mécanique est le meilleur en terme de maîtrise des débits dans les locaux : on a la garantie que les bureaux sont alimentés en air neuf et que l’air vicié des sanitaires est directement évacué vers l’extérieur.

© Architecture et climat 2023.

Ce système est pratiquement indispensable dans les immeubles de bureaux importants en site urbain.

La distribution de l’air neuf est assurée par un réseau de conduits placé dans les faux plafonds des zones de circulation.

La diffusion de l’air neuf à l’intérieur de chaque bureau est obtenue par une ou plusieurs bouches, soit murales dans le cas d’une retombée des faux plafonds des circulations, soit plafonnières s’il existe un faux plafond dans le local.

© Architecture et climat 2023.

  1. Bureau
  2. Couloir

Pulsion mécanique dans les bureaux soit via le faux plafond des bureaux,
soit via la retombée du faux plafond des couloirs.

L’extraction et le transfert se font comme pour le système simple flux.

Concrètement, le choix du double flux par rapport au simple flux sera guidé par

Études de cas

Une ventilation double flux a été mise en œuvre dans le bâtiment PROBE du CSTC à Limelette.
Etancheité à l'air

Améliorer l’étanchéité du bâtiment

Etancheité à l'air

 

Un problème : les portes d’entrée

De manière générale, le problème des commerces est l’ouverture et fermeture incessantes des portes par les clients. Bien vite s’installe une habitude de laisser les portes ouvertes en permanence été comme hiver afin de faciliter l’accès à l’intérieur et, tout aussi important pour le commerçant, pour raison de marketing (comme dirait un commerçant béninois : « c’est ouvert, tout est gratuit jusqu’à la caisse !).

Les commerces « no-food »

Photo de façade, l'étanchéité du bâtiment   Photo de façade, l'étanchéité du bâtiment

Pour ce type de commerce, le « syndrôme » de la porte ouverte en permanence risque d’entraîner :

  • En période froide des déperditions importantes de chaleur. Lorsque les portes sont fermées, on peut considérer que les apports internes nécessaires suffisent pratiquement à chauffer l’ambiance. À l’inverse, une porte ouverte en permanence laisse s’échapper la chaleur et, par conséquent augmente les consommations de chauffage.
  • En période chaude, tant les apports de chaleur internes (éclairage, occupant, …) que les apports externes sont présents. Le simple fait de laisser la porte du magasin ouverte suffit à créer une surchauffe à l’intérieur; d’où la motivation des commerçants de s’équiper d’une climatisation.

En période froide

La perte peut être estimée en considérant qu’elle augmente la consommation liée au taux de renouvellement d’air neuf du bâtiment.
Dans ces conditions, la chaleur s’échappe joyeusement ! Le coût généré par cette fuite est variable en fonction de la durée d’ouverture.

À titre de repère, une porte ouverte en permanence de 2 m² dans une enveloppe peut générer un passage d’air à la vitesse moyenne de 1 m/s. Ces 2 m³ qui s’échappent par seconde entraîneraient une consommation hivernale de :

2  [m³/s] x 3 600 [s/h] x 214 [jour/saison chauffe] x 12 [h/jour] x 0,34 [Wh/m³.K] x (15° – 6°) / 1 000 = 56 578  [kWh/an]

ou encore 56 578 / 2 = 28 289 [kWh/an.m²]

où :

  • 15° est la température moyenne intérieure, tenant compte d’un abaissement nocturne et d’un apport équivalent de 3° au minimum par les apports « gratuits »,
  • 6° est la température moyenne extérieure hivernale dans le centre de la Belgique,
  • 0,34 Wh/m³.K est la capacité thermique de l’air.

Soit un équivalent de +/- 1 414 € par an et par m² d’ouverture permanente, si la chaleur est fournie par du combustible fuel à 0,5 €/litre. En ces périodes de spéculation énergétique, à vous d’adapter le calcul au prix du combustible.

En mi-saison

Lorsque les températures externes sont plus clémentes, l’idée de la porte ouverte prend du sens. En effet, pour éviter le recours à la climatisation, l’ouverture de la porte d’entrée permet de juste compenser les apports internes. Cela dit, ce n’est pas une raison pour ne pas conjointement réduire les apports internes par la mise en place d’un éclairage performant et peu gourmand en énergie.

En période chaude

Pour des températures extérieures caniculaires, l’idéal est de pouvoir « décharger » le commerce par « free cooling » de nuit ou tôt le matin à l’ouverture du magasin. Par contre en pleine journée, que le magasin soit équipé en climatisation ou pas, il est nécessaire de refermer les portes et de réduire, dans des limites tolérables pour la vente, les apports internes.

Les commerces « food »

Il est frappant de voir comme la modernité nous complique la vie alors que la technique devrait-être là pour la simplifier. Il existe malgré tout des commerçants qui font preuve de bon sens sans grand moyen technique. Par exemple, une boucherie pourrait regrouper toutes les astuces nécessaires à la chasse au gaspillage énergétique et basée sur la gestion de sa vitrine amovible.
En effet :

  • En période très froide (par gel), la vitrine pourrait être fermée, sachant qu’il n’y a pas de chauffage à l’intérieur. L’impact énergétique est faible.
  • En période froide, une vitrine amovible pourrait être enlevée. Tout se passe donc comme si le commerce était dans la rue. Cela se justifie dans le sens où les clients sont habillés chaudement et qu’ils ne restent pas suffisamment de temps à l’intérieur de la boucherie pour se dévêtir. Il est vrai que le confort du commerçant ne serait pas assuré, mais on s’avance un peu vite.
  • En période chaude, outre l’auvent naturel des arcades (comme ci-dessous) qui préserve la boucherie des apports solaires directs, le commerçant pourrait refermer sa vitrine pour limiter l’impact de sa climatisation (de par ses vitrines semi-ouvertes) sur ses consommations électriques.

Photo d'arcades, l'étanchéité du bâtiment

Dans l’absolu et de manière un peu utopique, si l’on considère que sous nos latitudes, la température moyenne annuelle est de 6°C, le fait d’ouvrir son magasin sur l’extérieur en permanence permet de n’avoir qu’à refroidir l’ambiance du magasin de quelques degrés pour arriver à la température de conservation des denrées.
Attention toutefois que ce type de démarche devrait être appliquée au cas par cas sachant que des critères autres que ceux énergétiques et de confort interviennent, par exemple la sécurité, la pollution, …


Des solutions pour les grandes et moyennes surfaces type « food »

Pour pallier partiellement à cette débauche d’énergie, l’étanchéité des ouvertures contrôlées, tant du côté des entrées clients que du côté des accès aux réserves et des portes de service, est importantes.
Les améliorations possibles sont :

  • les sas d’entrée (investissements de l’ordre de 11 000 €);
  • les tourniquets (investissements de l’ordre de 25 000 €);
  • la mise en surpression des zones de vente par rapport à l’extérieur. Elle évite la formation de courant d’air incontrôlé entre plusieurs zones;

Photo de sas d'entrée, l'étanchéité du bâtiment   Photo de tourniquet, l'étanchéité du bâtiment  Photo de sas d'entrée, l'étanchéité du bâtiment

Le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.


Des solutions pour les commerces de détail type « food »

Le problème est le même que pour les grandes surfaces à la différence près qu’il y a très rarement de la place en suffisance pour prévoir des sas de grandes dimensions
Les améliorations possibles sont :

  • le placement de portes étanches;
  • la mise en place d’un mini sas avec portes automatiques.

Photo de portes étanches, l'étanchéité du bâtiment   Photo de mini sas, l'étanchéité du bâtiment

Tout comme les grandes et moyennes surfaces, le placement d’un rideau d’air aux entrées et sorties principales depuis toujours fait couler beaucoup d’encre. Nous manquons à l’heure actuelle d’études objectives concernant l’efficacité d’un rideau d’air. Si vous en connaissez, elles seraient les bienvenues dans Énergie+. Une des pistes serait peut-être le rideau d’air alimenté par la récupération de la chaleur de désurchauffe ou de condensation des machines frigorifiques.

Chauffage électrique à accumulation

Chauffage électrique à accumulation


Les appareils à accumulation

Les accumulateurs renferment un noyau accumulant la chaleur; celui-ci est constitué de briques en magnésite, féolite, forstérite, fonte ou autres… pouvant être chauffées à des températures de 650 à 800°C.

Les briques peuvent avoir des formes diverses, en fonction de la conception du noyau et du mode d’installation des résistances entre les briques. Le noyau est entouré de matériau isolant approprié afin de limiter la température des parois.

  1. Vermiculite isolante.
  2. Briques magnétiques.
  3. Eléments chauffants.
  4. Contrôleur de charge.
  5. Borne de branchement.
  6. Sortie d’air.
  7. Entrée d’air.
  8. Ventilateur.

La température du noyau est le reflet de la charge contenue dans l’appareil et est contrôlée par un thermostat de charge.

Différents types d’accumulateurs

Accumulateurs statiques

Ils ne sont pas équipés d’un système de réglage de restitution de chaleur. Celle-ci s’effectue sous forme de rayonnement et de convection naturelle par les parois de l’appareil.

Accumulateurs statiques à restitution de chaleur réglable

En plus de la restitution de chaleur par les parois, ces appareils émettent également de la chaleur par convection naturelle de l’air entre les briques du noyau de l’accumulateur. Le réglage de la restitution de chaleur s’opère au moyen de clapets thermostatiques montés sur l’évacuation d’air dans la partie supérieure de l’appareil.

Accumulateurs statiques compensés

Il s’agit d’accumulateurs statiques pourvus d’un chauffage auxiliaire direct sous forme de convecteur. Ces appareils sont caractérisés par une puissance de raccordement plus faible et une capacité d’accumulation relativement limitée, qui permet néanmoins de réaliser au moins 60 % de la consommation annuelle au tarif de nuit.

Accumulateurs dynamiques

À l’opposé des accumulateurs statiques, la restitution de chaleur s’effectue essentiellement par une convection forcée de l’air à travers des canaux prévus entre les briques du noyau d’accumulation.

Dans ce cas, les accumulateurs sont équipés d’un ou plusieurs ventilateurs commandés par un thermostat d’ambiance.

Accumulateurs dynamiques à résistance d’appoint

Il s’agit d’accumulateurs dynamiques équipés d’une résistance de chauffe auxiliaire qui, en cas de restitution insuffisante de chaleur par le noyau d’accumulation, est enclenchée par le thermostat d’ambiance. La résistance d’appoint se situe dans le flux d’air.

Une distinction suivant le mode de restitution de la chaleur

Les accumulateurs « 9 heures »

Les accus 9 heures sont construits de telle façon que la capacité d’accumulation et la résistance électrique soient suffisamment importantes pour charger en neuf heures l’énergie nécessaire au chauffage pendant toute la journée. L’usage de ces appareils est optimalisé en tarification exclusive de nuit.

Les accus dynamiques 9 heures peuvent être équipés d’une résistance d’appoint.

Les accumulateurs « Hors-Pointes »

Les accumulateurs « Hors-pointes » sont des appareils dynamiques sans résistance d’appoint.

Leurs résistances de charge se trouvent dans le circuit d’air qui traverse le noyau. Cette caractéristique constructive permet un chauffage rapide même en cas de décharge complète du noyau.

La durée de charge nocturne et diurne de ces accumulateurs atteint au moins 16 heures par jour.

Les avantages par rapport à l’accu 9 heures se concrétisent par une puissance de raccordement plus faible et des dimensions plus réduites.

Le dimensionnement et la régulation de charge permettent de limiter la charge diurne à un strict minimum. L’usage de ces appareils est optimalisé en tarification trihoraire ou en EHP.


L’accumulation dans le sol

Photo chauffage par le sol.

L’assurance d’obtenir un chauffage de qualité commence par le choix du conducteur chauffant. Les écarts de température à la surface du sol, même lors de l’emploi d’un recouvrement céramique, doivent rester en dessous de la valeur normalisée de 1,5 K.

Le câble étant incorporé dans le béton accumulateur, la chaleur qu’il dégage se disperse dans tous les sens et chauffe ainsi la masse accumulatrice. La température limite du béton accumulateur mesurée à hauteur des conducteurs chauffants se situe entre 50 et 60°C.

Le chauffage par le sol est dimensionné de telle sorte qu’on obtient une température de contact au sol limitée à 26,5°C. Il est ainsi en mesure de dissiper 70 W au m².

Si la puissance requise n’est pas disponible par le sol, le complément sera obtenu par un chauffage additionnel (convecteurs ou chauffage d’appoint dans le sol le long des murs). Le cas échéant, lors de l’emploi de chauffage additionnel dans le sol, limité aux zones périphériques de la pièce, la température de contact au sol pourra atteindre 34°C, permettant ainsi de dissiper une puissance de 150 W au m².

Pour éviter des pertes de chaleur importante vers le dessous du plancher, celui-ci doit présenter une isolation suffisante.

Calculs

 Pour estimer la perte d’un chauffage par le sol situé au-dessus d’une cave, en fonction du degré d’isolation.

La dalle est subdivisée au moyen de joints de dilatation et de mouvement afin d’absorber les contraintes mécaniques dues aux phénomènes de dilatation et de mouvement inhérents à une dalle flottante.

Le chauffage à accumulation par le sol est normalement complété par un chauffage d’appoint direct dont la puissance diminue en fonction des heures de charge complémentaires disponibles pendant la journée.

En matière de restitution de la chaleur, l’accumulation par le sol est assimilable à un appareil à accumulation statique.

Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…Question : la dalle de béton chauffante ne doit-elle pas être bordée d’une matière souple pour reprendre les dilatations ? Cela se fait dans pour le chauffage par le sol par tuyauteries d’eau chaude –> on peut penser que le schéma ci-dessus est incomplet à ce niveau…

  1. Revêtement de sol.
  2. Dalle en béton accumulateur (6,5 à 14 cm selon l’inertie du local, le recouvrement du sol et la durée de charge; une valeur moyenne de 10 à 12 cm pour une durée de charge de 8h, et de 6,5 cm pour une alimentation en 7 h + 9 h de charge).
  3. Tube de protection à embout cuivre pour sonde de mesure.
  4. Nappe chauffante – profondeur d’encastrement : dans le tiers inférieur de la couche de béton – minimum 3 cm au dessus de la couche d’étanchéité.
  5. Couche d’étanchéité : 0,2 (0,5) mm pe ou apprêt de bitume de 250 gr.
  6. Isolation (résistante à une température de 85 °C).
  7. Couche d’étanchéité habituelle.
  8. Infrastructure porteuse.
  9. Chauffage d’appoint éventuel dans le sol.
  10. Plinthe.
  11. Ruban souple d’étanchéité.

 Source : d’après Le code de bonne pratique pour la réalisation des installations de chauffage électrique – Communauté de l’Electricité – CEG.

Évaluer la consommation de la climatisation

Évaluer la consommation de la climatisation


Généralités

Précisons d’entrée de jeu que la consommation d’été est très variable d’un bâtiment à l’autre puisqu’elle est directement fonction de l’importance des vitrages, du niveau d’équipement intérieur, du système de climatisation, de la température de consigne,… À titre d’exemple : comment évaluer la consommation d’une salle de réunion si le profil d’occupation n’est pas précisément connu ?

À défaut d’une étude précise avec simulation informatique du bâtiment (taux de vitrage par façade, inertie des parois,…) et relevé détaillé de son mode d’occupation (taux d’occupation effectif, niveau d’équipement bureautique,…), personne ne peut prédire la consommation.

Les choses se compliquent également par le fait que les hypothèses de départ de l’évaluation ne sont pas toujours les mêmes. Exemple : dans l’évaluation des coûts de refroidissement, tient-on compte des coûts de transport de l’air froid (ventilateurs) ?
Les ratios globaux sont donc très aléatoires…

Données

Pour connaitre les ratios de consommation rencontrés des bâtiments.

Évaluation de la consommation frigorifique basée sur la puissance frigorifique installée

En France, une technique grossière est parfois utilisée pour fixer les ordres de grandeur : partir de la puissance frigorifique nominale installée et estimer que l’installation fonctionne 1 000 heures par an à cette puissance (Collection des guides de l’AICVF : Calcul prévisionnel des consommations d’énergie – Bâtiments non résidentiels).

On prendra plutôt 800 heures lorsque l’énergie frigorifique est surtout liée à la compensation des apports solaires (fonctionnement surtout en plein été), et plutôt 1 200 heures lorsque la charge est plus permanente parce qu’issue des équipements électriques… Bien sûr, si l’installation a été fortement surdimensionnée, le ratio horaire va lui diminuer fortement !

On tiendra compte d’une efficacité frigorifique moyenne de …2,5… c.-à-d. que 1 kWh froid va générer 0,4 kWh au compresseur, et puis d’un prix du kWh adapté à la période d’utilisation de la climatisation (tarifications jours/nuits).

Exemple.

Une installation de climatisation de bureaux dont la puissance frigorifique nominale est de 80 W/m², va demander :

  • 80 W/m² x 800 h/an = 64 000 Wh/m² ou 64 kWh frigorifiques par m² traité;
  • soit encore 26 kWh/m² électriques au compresseur (64/2,5);
  • soit 4,3 €/m².an si la consommation se fait en journée (coût considéré : 0,16 €/kWh).

Attention : il s’agit là d’une estimation très grossière et elle ne reprend que la consommation liée au refroidissement des locaux !


Évaluation liée au fonctionnement

Lorsque le fonctionnement dépend très peu des conditions climatiques extérieures et que les apports internes sont connus, la consommation est directement liée à la durée de fonctionnement.

Par exemple, pour estimer la consommation d’un centre informatique, on peut multiplier la puissance moyenne par la durée de fonctionnement. De même, pour une salle de spectacle, on peut approcher les consommations à partir de l’occupation et de la puissance dégagée par occupant, de la durée et du nombre de représentations.

Diminuer les consommations énergétiques des meubles frigorifiques

Diminuer les consommations énergétiques des meubles frigorifiques


La solution radicale

Une ou des solutions radicales ?

Il en existe une ou plusieurs ! Le problème est qu’elles sont évidentes mais semblent bloquer les commerçants et les responsables « marketing » des grandes et moyennes surfaces. Peu importe les moyens et techniques mis en œuvre, mais il suffit de confiner ou enfermer le froid dans une boîte isolée pour améliorer directement l’efficacité énergétique du froid alimentaire. Certains magasins (ils se reconnaîtront) appliquent ce principe depuis déjà longtemps, d’autres se lancent timidement.

Solutions locales

Fermeture des meubles frigorifiques négatifs horizontaux

Photo meubles frigorifiques négatifs horizontaux fermés - 01.   Photo meubles frigorifiques négatifs horizontaux fermés - 02.   Photo meubles frigorifiques négatifs horizontaux fermés - 03.

Le placement de fermeture simple en plexiglas sur les gondoles négatives montre une solution rapidement rentable car elle permet de réduire les consommations énergétiques de l’ordre de 30 à 40 %. C’est cette solution qui a été retenue par une chaîne de distribution belge sans observer de baisse significative du chiffre d’affaire.

Fermeture des meubles frigorifiques positifs verticaux

C’est là que les anciens Belges s’empoignèrent car le client roi doit pouvoir apprécier les denrées sans contrainte d’ouverture et de fermeture de porte. La question qui se pose immédiatement est de savoir pourquoi une méthode qui semble marcher avec le froid négatif ne fonctionne pas pour le froid positif. Est-ce une question :

  • d’éducation à la consommation : on comprend que le froid négatif doit être confiné parce que les crèmes glacées fondent s’il n’y a pas de confinement du froid et que le froid positif peut être assimilé à la climatisation où les fenêtres peuvent rester ouvertes;
  • d’investissement : le nombre de mètres linéaires de ce type de meubles frigorifiques étant important cela peut éventuellement rebuter les gérants de se lancer;

C’est une des questions du 21ème siècle en suspend.

  

Source : Magasin alimentation Bioshanti.

Une des solutions intéressantes dans un magasin biologique d’une commune bruxelloise est le placement de lamelles en matière plastique quasi transparentes. Cette technique, selon le gérant du magasin n’a pas l’air de freiner l’achat de denrées. Pour être tout à fait objectif, il est hésitant à protéger l’ensemble de ces meubles par ce type de confinement.

Si on considère que ces lamelles arrivent au même degré de protection que les rideaux de nuit, on peut considérer que les réductions de consommations énergétiques peuvent atteindre aussi 30 à 40 %.

Exemple.

En analysant le graphique suivant issu d’une simulation (TRNSYS) de 50 mètres linéaires de meubles frigorifiques ouverts et verticaux maintenant aux frais des produits laitiers, on constate qu’en retirant les 7 000 [W] d’apport interne dû à l’éclairage, le simple fait de placer des rideaux de nuit, on réduit de l’ordre de 40 % la demande en puissance de l’évaporateur à la machine de froid.

Graphique simulation (TRNSYS).

Si l’on considère que les protections de jour peuvent être assimilées à celle de nuit au niveau de la performance, on peut effectivement réduire au maximum de 40 % (dans ce cas-ci) les consommations énergétiques de l’installation de froid alimentaire sachant que la nuit il n’y a pas d’ouvertures et fermetures incessantes des lamelles synthétiques.

Solutions globales

Confinement des produits frais dans une enceinte bien isolée

Photo enceinte bien isolée - 01.   Photo enceinte bien isolée - 02.

Meuble frigorifique ouvert et confinement et isolation légère (double vitrage).

Confinement et isolation importante (enceinte opaque).

Là où on arrive à l’optimum énergétique et thermique, c’est lorsque les produits frais sont confinés dans des espaces réfrigérés et isolés des zones de vente classique. En terme de confort, naturellement, ce n’est pas l’idéal bien que finalement ce n’est qu’une question d’organisation (prévoir une petite laine en été ne pose pas beaucoup de problème). Les pionniers dans ce domaine sont bien connus et adoptent ce principe depuis des années voire plus d’une décennie. on peut dire que ce concept est passé dans les mœurs aujourd’hui.

Confinement des produits frais dans une enceinte légèrement isolée et vitrée

Un autre concept a vu le jour il n’y a pas longtemps. Dans un premier temps, on pourrait dire que la solution est mauvaise. A bien y regarder, elle se situe juste entre :

  • les meubles frigorifiques ouverts qui absorbent un maximum de chaleur de l’ambiance de vente globale au point que même en période chaude dans certains commerces on soit obligé de chauffer;
  • et l’enceinte fermée et isolée du reste de l’ambiance globale de vente.

Ce concept serait-il le bon vieux compromis à la Belge ?

(+)

  • confinement des denrées dans une enceinte séparée du reste des surfaces de vente réduisant ainsi le risque de devoir chauffer ces surfaces par apport de froid trop important comme on l’observe pour l’instant avec la prolifération des meubles frigorifiques ouverts;
  • la « cage » de verre est une approche marketing intéressante. Bien qu’il y fasse froid, l’impression d’inconfort est moins présente que dans une ambiance totalement occulte;
  • si l’on pousse le concept plus loin, on pourrait envisager de placer l’éclairage en dehors de l’espace en verre et, par conséquent, de réduire les apports de chaleur produits par les luminaires.

(-)

  • l’isolation du vitrage est relativement faible. On pourrait espérer réaliser un coefficient de transmission thermique U des parois de l’ordre de 1,1 [W/m².K]. À noter qu’une isolation de 6 cm donne, elle, de l’ordre de 0,4 [W/m².K];
  • les ouvertures auraient pu être des lamelles verticales ou des portes automatiques, mais pas des rideaux d’air mettant en jeu des consommations électriques supplémentaires au niveau des ventilateurs.

Optimisation du rideau d’air

On ne le dira jamais assez, le rideau d’air est le point faible des meubles frigorifiques ouverts. A lui seul, par induction de l’air ambiant de la zone de vente, il représente de l’ordre des 2/3 de la puissance frigorifique nécessaire. De l’optimisation du rideau d’air dépend les consommations énergétiques des groupes frigorifiques.

Apports de chaleur par induction

Taux d’induction

L’apport de chaleur par induction dépend de beaucoup de facteurs. L’apport de chaleur par induction Pind est donné par la relation suivante :

 Pind  = ma x (hambiance – hinterne) x 1000 [W] (1)

où :

Pind  = Xrideau_air x mrideau_air x (hambiance – hinterne) x 1000 [W] (2)

Où :

  • Xrideau_air : taux d’induction du rideau d’air. Celui-ci représente l’efficacité du rideau d’air et est défini comme le rapport m/ mrideau_air où :

    • ma = débit massique d’air de l’ambiance externe entrainé et induit par le rideau d’air en [kg/s];
    • mrideau_air = débit massique du rideau d’air en [kg/s];
  • (hambiance – hinterne) : différence d’enthalpie entre l’ambiance externe et interne au meuble en [kJ/kg].

Si l’on veut optimiser les consommations dues à l’induction par le rideau d’air, il est nécessaire de réduire la masse ma de l’air de l’ambiance induite par le rideau d’air (1). La quantification de la masse ma est très difficile à préciser.

La formule (2) permet de mettre en évidence le taux d’induction Xrideau_air comme étant la quantité d’air ambiant entrainé dans le flux du rideau d’air.

L’exemple suivant permet de mettre en valeur l’utilité de déterminer le taux d’induction

Exemple.

En prenant un rideau d’air d’un meuble frigorifique vertical ouvert, la littérature nous apprend que le taux d’induction peut être exprimé par la relation suivante :

Xrideau_air = h2 – h1 / ((ha – h2) – (h2 – h1))

Où :

  • h1 : enthalpie à la buse de soufflage [kJ/kg];
  • h2 : enthalpie à la bouche de reprise[kJ/kg];
  • ha : enthalpie de l’ambiance de la zone de vente [kJ/kg].

Hypothèse

  • ha = 55 [kJ/kg];
  • h1 est +ou- constant et faible.

Calculs

L’équation ci-dessus peut être exprimée plus simplement par :

Xrideau_air = h2  / (ha – 2h2)

Pour différentes valeurs de h2 variant de 5 à 20 [kJ/kg], le taux d’induction varie et est représenté sur le graphique suivant :

D’après les équations (1) et (2), l’induction d’air extérieur :

ma = Xrideau_air x  mrideau_air

ou

ma = h2  / (ha – 2h2) x  mrideau_air

Conclusions

Pour que les apports dus à l’induction soient faibles, il faut que :

  • le débit du rideau d’air mrideau_air soit faible;
  • le transfert de chaleur de l’ambiance vers la bouche de reprise soit faible. On y arrive en réduisant au maximum la turbulence du rideau d’air.

En analysant cet exemple, on serait tenté d’en conclure que la présence du rideau d’air ne sert à rien. En fait, le rideau d’air étant nécessaire pour maintenir le froid dans le meuble, un débit minimum est nécessaire. De plus, le rideau d’air sert aussi à refroidir le meuble. L’air par son passage sur l’évaporateur est refroidi. Or, plus le débit d’air sur l’évaporateur est important plus l’échange thermique est grand. Il y a donc un optimum à trouver !

Des études extrêmement sophistiquées réalisées par les fabricants permettent d’établir un optimum afin de tenir compte à la fois :

  • de la nécessite de maintenir les denrées froides et de confiner le froid dans le meuble;
  • de l’optimisation de l’induction afin de limiter les apports externes venant de la zone de vente.

Suivant l’application et la géométrie du meuble, il existe toujours un débit d’air et une vitesse d’air optimaux au niveau du rideau.

Déformation du rideau d’air

L’effet « bilame » est connu pour affecter et déformer les rideaux d’air verticaux ou faiblement inclinés. Les différences de températures de part et d’autre du rideau d’air provoquent une différence de densité de l’air au niveau des faces intérieures et extérieures. Pour autant que la vitesse du rideau d’air devienne insuffisante, la différence de densité de l’air sur la profondeur du rideau génère des forces transversales de déformation du rideau. On observe que le rideau se déforme vers l’intérieur du meuble allant jusqu’à le briser.

Schéma "bilame" sur rideau d'air.

Briser le rideau d’air équivaut à augmenter les apports externes et, par conséquent dégrader le bilan thermique et énergétique. Cet effet peut être réduit par :

  • l’utilisation de meuble de type « cascade »;
  • le positionnement correct des étagères en fonction du profil du rideau d’air;
  • l’optimisation du chargement des denrées (pas de trou et pas de meuble vide);
  • une vitesse d’air suffisante qui va naturellement affecter le bilan thermique et énergétique du meuble (donc attention à trouver l’optimum;
  • l’utilisation d’un double rideau d’air.

    

Soufflage arrière de type « cascade » et double rideau d’air.

Les vitesses d’air recommandées pour les rideaux d’air

Comme on l’a vu ci-dessus, les échanges de chaleur entre l’ambiance des zones de vente et les denrées doivent être réduites au maximum. L’augmentation de la vitesse du rideau d’air devrait les limiter mais un débit trop important entraine une recrudescence des apports par induction, une augmentation des consommations des ventilateurs et, par conséquent, des apports internes des moteurs des ventilateurs. On conseille en pratique de limiter les vitesses des rideaux d’air :

  • pour les meubles horizontaux, à 0,5 m/s;
  • pour les meubles verticaux, entre 0,6 et 0,7 m/s.

Diminuer les apports par rayonnement

Apports de chaleur par rayonnement

Les apports de chaleur par rayonnement peuvent être importants notamment lorsque l’application est négative. Dans ce cas, ils peuvent représenter de l’ordre de 40 % du total des apports internes et externes. Ils sont essentiellement produits par le rayonnement dans l’infrarouge lointain des surfaces « chaudes » faisant face à l’ouverture des meubles dont la température des faces internes et des emballages des denrées est froide (application positive : température de 0° à 8°C) voire très froide (application négative : température de -18 ° à -35°C).

On évalue l’apport de chaleur par rayonnement Pray par la relation suivante :

Pray = hro x Aouverture (Tparoi – T i) x φ1 x φ2 [W]

où :

  • A ouverture : surface d’ouverture du meuble en [m²];
  • (tparoi – ti) : l’écart de température entre l’intérieur du meuble et la température des parois vues par l’ouverture du meuble en [K];
  • hro : coefficient équivalent d’échange par rayonnement hro de deux corps noir parallèles en [W/m².K];
  • φ1 : facteur de correction d’émission mutuelle entre deux corps gris (thermiquement) de surface parallèle;
  • φ2 : facteur d’angle associé à φ1 lorsque les surfaces ne sont pas parallèles.

Dans une situation existante, des améliorations sont possibles en jouant sur le choix des parois faisant face à l’ouverture des meubles. En effet, chaque matériau possédant un coefficient d’émissivité, le placement entre les parois et l’ouverture du meuble d’une paroi à basse émissivité, permet de réduire de manière substantielle les apports par rayonnement.

Par exemple, les matériaux polis, notamment les métaux, ont vis-à-vis du rayonnement infrarouge (IR) des coefficients d’émissivité assez faibles; ce qui veut dire qu’ils ne réémettent pas ou peu le rayonnement visible et infrarouge proche et qu’ils réfléchissent le rayonnement infrarouge lointain (matériaux de construction dans notre cas).

L’émissivité des tôles d’aluminium ou d’alliages à base d’aluminium est de l’ordre de 0,1 à 0,15 pour les longueurs d’onde allant du visible à l’infrarouge.

Spectre visible et Infrarouge proche.

Dans l’infrarouge lointain, le même type d’aluminium passe d’une émissivité 0,1 à 0,8 et a tendance à se comporter comme un corps noir et par conséquent à réémettre le rayonnement.

Les meubles horizontaux

Réduction des apports

Les meubles horizontaux, de par leur position par rapport aux parois du magasin, sont des cibles privilégiées pour réduire les apports par rayonnement. En effet, en grande partie, ce sont les plafonds qui interagissent avec ce type de meubles.

L’emploi d’un « baldaquin » de forme concave au-dessus des gondoles à froid négatif et dont la face inférieure est recouverte d’un aluminium de type poli miroir non anodisé, peut, dans certains cas et selon le type de meuble, réduire la température des denrées positionnées en surface de l’ordre de 3 à 5 °C.

Gondole avec baldaquin.

Différentes configurations de gondole.

Et le confort ?

Pour les meubles frigorifiques horizontaux, de par la position des clients par rapport à l’ouverture, le fait ou non de placer des baldaquins ne modifie pas tellement le confort.

Les meubles verticaux

Les ouvertures des meubles verticaux quant à elles subissent les agressions par rayonnement venant des plafonds, des murs ou des rayons leur faisant face et dont les températures sont plus chaudes.

Réduction des apports

Un moyen simple de réduire les apports par rayonnement est de positionner (s’il y en a beaucoup) les meubles frigorifiques en face à face. Cette solution simple permet d’éliminer partiellement l’effet d’émissivité mutuelle vu que les températures des parois internes des meubles sont plus ou moins égales.

Allée froide en convection naturelle.

Tunnel froid.

Allée froide en convection forcée.

Et le confort ?

Ce type de composition des meubles est souvent appelé « allée froide » pour la simple raison qu’elles sont inconfortables ». En effet l’introduction d’un corps à 36 °C entre deux parois dont la température de surface est de l’ordre de 0°C implique que le corps chaud échange par rayonnement sa chaleur et, par conséquent, l’impression de froid est grande.

Performances des réflecteurs

Des essais ont été réalisés afin de déterminer la pertinence de ce type d’action. La comparaison est réalisée en prenant un meuble frigorifique horizontal possédant les caractéristiques suivantes :

  • convection forcée;
  • chargée d’une seule couche de paquets d’essais en emballage carton de couleur blanche.

Essai en laboratoire

Dans un local obscur, maintenu dans des conditions d’ambiance à 25°C pour un taux d’humidité de 60 %, et équipé d’un plafond type « corps noir », on effectue un monitoring des températures de chaque paquet test. En régime stable, la moyenne des températures atteint – 15°C.

Dans les mêmes conditions d’ambiance, on place une paroi en aluminium poli entre le meuble et le plafond. La moyenne de la distribution des températures des paquets tests donne – 19°C.

On observe donc un abaissement des températures de l’ordre de 4°C. Les apports par rayonnement sont donc réduits et, par conséquent, les consommations énergétiques à l’évaporateur.

Pour être certain que ce ne soit pas un phénomène de réduction d’apports convectifs, toute chose restant égale, la tôle d’aluminium est peinte en blanc. On constate que les températures remontent aux alentours des – 15°C; la réduction d’apport est donc uniquement radiative.

Essai en magasin

La mise en place d’un baldaquin au dessus du même meuble donne un abaissement des températures de l’ordre de 3 à 5°C.

La variation des températures résulte de la manipulation et des déplacements fréquents des denrées par les clients ainsi que des opérations de dégivrages.


Placer ou optimiser les protections de nuit

Les rideaux de nuit, comme le montre le tableau ci-dessous donnent des résultats très intéressants au niveau de la réduction des apports externes par induction au travers du rideau d’air.

Il ne faut quand même pas oublier que pendant minimum 12 heures par jour (après la fermeture du magasin), cette protection, si elle existe, réduit de manière importante les apports par induction et aussi par rayonnement au meuble.

Type de meuble Type d’application Période de jour période de nuit Réduction des consommations énergétiques
Horizontal négative rideau d’air rideau de nuit 8 à 15 %
couvercle simple 15 à 30 %
couvercle isolé 25 à 45 %
Vertical positif rideau d’air rideau de nuit 12 à 30 %
porte vitrée
négatif porte vitrée porte vitrée 25 à 30 %

Meubles verticaux

Dans le cas où les protections de nuit n’existent pas, leur placement s’impose. Attention toutefois qu’il faut se renseigner de la faisabilité du placement auprès du constructeur. En effet, la configuration du meuble ne le permet pas toujours, car il faut que le rideau de nuit se trouve à l’extérieur par rapport au rideau d’air.

Photo rideaux de nuit.

L’optimisation des rideaux de nuit manuels peut passer par l’automatisation des ouvertures et fermetures. Pour autant que cela soit possible (au cas par cas), l’automatisation permet au personnel de ne plus se soucier de la gestion. Un oubli une nuit implique que les apports par induction et rayonnement continuent à influencer le meuble au niveau de ces consommations, même si les apports nocturnes diminuent (ralenti de nuit, apports réduits par l’absence d’occupant, d’éclairage de vente, …).

Attention aussi que l’automatisation rend le personnel moins responsable. En effet dans certains commerces, vu que le personnel ne voit plus la descente des rideaux de nuit, on se rend compte au matin (ou pas du tout) que certains rideaux ne sont pas descendus à fond par la présence de porte-prix dans l’axe du rideau par exemple.

Meubles Horizontaux

Avec les meubles horizontaux, les possibilités de fermeture des ouvertures en période nocturne sont diverses. On épinglera les fermetures coulissantes qui peuvent être utiles de jour comme de nuit.

Photo fermetures coulissantes sur meuble horizontaux.


Optimiser ou supprimer l’éclairage des tablettes

Problème ?

On sait que les consommations énergétiques dues à l’éclairage sont payées deux fois et même plus :

  • une première fois à travers les consommations électriques nécessaires pour mettre en valeur visuellement les denrées;
  • une seconde fois parce que les lampes réchauffent l’ambiance interne du meuble se traduisant par une consommation électrique supplémentaire au niveau des groupes de froid;
  • un peu plus même pour la simple raison que l’efficacité du tube en ambiance froide est réduite au moins de 40 %. Pour les accrocs de l’éclairage, ils seraient, au vu de l’effet médiocre de l’éclairage des étagères, de renforcer la puissance installée pour compenser le manque d’efficacité des lampes.

   Photo éclairage meubles horizontaux - 01.   Photo éclairage meubles verticaux - 01.   Photo éclairage étal.

Emplacement de l’éclairage

L’emplacement de l’éclairage est sûrement la clef du problème. Un test a été réalisé dans une grande surface. L’idée était de couper l’éclairage des tablettes et de ne plus se servir, comme source lumineuse, que des tubes fluorescents en dehors de la partie réfrigérée du meuble. Cette initiative a pour avantage de :

  • réduire la puissance installée des luminaires;
  • réduire les apports internes défavorables au bilan thermique et frigorifique du meuble;
  • augmenter l’efficacité des lampes puisqu’elles travaillent à température plus élevée.

Ceci est d’autant plus remarquable, que le magasin n’a pas enregistré de baisse du chiffre d’affaires pendant le test.

Gestion de l’éclairage

Simplement, une horloge peut assurer la coupure des luminaires pendant les heures de fermeture du magasin. On pourrait aussi arriver à un degré de sophistication en utilisant un superviseur (GTC ou Gestion Technique Centralisée) donnant des alarmes lorsque l’éclairage n’est pas éteint.

Photo écran de Gestion Technique Centralisée.


Adapter la vitesse des ventilateurs

On serait tenté de le faire ! En fonction de l’évolution des apports, réduire ou pas la vitesse des ventilateurs est tentant. Il faut rester prudent sachant que le rideau d’air doit sa stabilité au débit donné par les ventilateurs. Les moyens pour contrôler cette stabilité à notre connaissance n’existent pas et donc il n’y a pas moyen de réguler le débit par rapport à l’efficacité du rideau d’air.

Choisir la couche isolante du plancher des combles [Améliorer]

Performances thermiques à atteindre – la réglementation

Outre un niveau de performance global à atteindre (Kglobal ou Be 450), la réglementation wallonne en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique (Umax) des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si un mur n’est pas directement touché par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (Kglobal ou Be 450).

Élément de la surface de déperdition

Umax (W/m²K) (Annexe C1 de la PEB)
Toiture entre le volume protégé et l’ambiance extérieure ou ensemble de plafond + grenier + toiture. 0,3

Performances thermiques à atteindre – les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U (anciennement k) de 0,3 [W/m²K] est requis pour les toitures. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde fou que la Région a voulu imposer aux constructeurs.

En pratique, l’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

Quelques considérations complémentaires :

  • Ci-dessus, nous avons suivi une logique de rentabilité financière. Si une logique de rentabilité écologique était prise, la lutte contre 2>le CO2 nous pousserait vers une isolation plus forte !

 

  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau troué. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau . En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, . notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses ,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Epaisseur de l’isolant pour atteindre les performances recommandées :

Pour une toiture inclinée, l’épaisseur d’isolant à poser en fonction du coefficient de conductivité thermique est donnée sur le graphique ci-dessous. Pour chaque isolant, il existe un intervalle de valeurs possibles pour la conductivité thermique. Le diagramme ci-dessous permet de déterminer dans quel intervalle d’épaisseur il faudra se situer en fonction du type d’isolant choisi. Les valeurs présentées font références à une toiture standard dont le détail technique est donné ci-dessous.

À droite : Épaisseur d’isolant nécessaire pour atteindre U = 0.3 W/m²K dans le cas d’une toiture inclinée de référence en fonction de la conductivité thermique (λ) ou du type d’isolant choisi (les intervalles de valeurs pour chaque isolant correspondent aux valeurs certifiées).

À gauche : Détail technique de la toiture inclinée prise comme référence.

Les isolants considérés ici sont ceux qui sont habituellement retenus lors de la réalisation d’une toiture inclinée.

Pourquoi une isolation plus poussée en toiture que dans les murs ?
Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en ouvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.

Pourquoi une isolation moins poussée sur le sol ?
En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.


Type d’isolant

L’isolation des différents types de planchers des combles non aménageables.
Les matériaux isolants peuvent présenter différentes formes, raideurs et résistances à la compression :

Formes

Matériaux

Matelas semi-rigide ou souple :

La laine de roche, la laine de verre, les fibres traitées organiques (chanvre, …) ou animales (laine, ….) …

Panneaux rigides :

La mousse de polyuréthane, de polystyrène expansé ou extrudé, le verre cellulaire, les panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …), le liège

Les flocons ou granulés :

Les granulés de perlite ou de vermiculite, les granulés de polystyrène expansé, les granulés de liège, les flocons de laine minérale insufflés, les flocons de papier recyclé …

L’isolant doit bénéficier d’un agrément technique certifiant ses qualités et sa compatibilité avec l’usage qui en est fait. La valeur de calcul de la conductivité thermique (λ U) d’un isolant possédant ce type d’agrément est connu avec précision. Il est certifié par le fabricant. Il est régulièrement vérifié par des essais. Il peut être utilisé pour calculer les performances de la paroi à la place des coefficients moins favorables tabulées dans les normes (Annexe B1 de la PEB).

  • l’efficacité isolante,
  • l’adéquation avec le support,
  • le comportement au feu,
  • le prix.

C’est au concepteur de choisir ceux qui sont prioritaires.

L’efficacité isolante

La valeur isolante du matériau dépend de son coefficient de conductivité thermique λ . Plus sa conductivité est faible, plus l’isolation sera efficace et donc plus l’épaisseur nécessaire à mettre en œuvre sera réduite. Le matériau doit également conserver une efficacité suffisante dans le temps.

L’adéquation avec le support

Un isolant semi-rigide :
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable).

Un isolant souple :

  • peut suivre la forme très compliquée d’un plancher (contournement des gîtes);
  • s’intercale facilement dans les espaces qui lui sont réservés (pose entre les gîtes);
  • calfeutre correctement les raccords (autour de l’isolant);
  • ne résiste pas à la compression (non circulable);
  • doit être supporté (par le plafond).

Un isolant rigide :

  • résiste mieux à la compression (peut éventuellement supporter une aire de foulée);
  • calfeutre moins facilement (entre les gîtes ou lambourdes);
  • s’adapte plus difficilement à des formes compliquées.

Les flocons ou granulés :

  • s’intercalent facilement dans les espaces qui leur sont réservés (pose entre les gîtes);
  • calfeutrent correctement les raccords (autour de l’isolant);
  • ne résistent pas à la compression (non circulable);
  • doivent être supporté (par le plafond);
  • se déplacent facilement.

Le choix de l’isolant dépend des caractéristiques énumérées ci-dessus et du modèle d’isolation choisi en fonction du type de plancher (lourd ou léger).

Plancher lourd

Le plancher lourd sera idéalement isolé par le haut afin de lui maintenir une température constante. On évite ainsi des contraintes internes dans la structure et les désordres qu’elles risquent de provoquer. Le volume protégé profite également de l’inertie thermique importante du plancher lourd.

Non circulable

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.

Si, en outre, la face supérieure du plancher est compliquée ou irrégulière, on préférera les matelas d’isolant souples qui épousent mieux la forme.
Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Circulable

Si le plancher doit être circulable, tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (voir plancher léger, isolation entre gîtes).

Plancher léger

Non circulable, avec plafond mais sans plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.
On peut également utiliser des flocons ou granulés. Ils sont plus faciles à poser mais risquent d’être déplacés avec le temps par des facteurs mécaniques extérieurs (vent, circulation intempestive, rongeurs, oiseaux, …)
Dans les deux cas, la pose d’un pare-vapeur est difficile.

Isolation autour des gîtes

On utilisera exclusivement un matelas souple épousant bien la forme du support. Les matelas souples seront idéalement enveloppés d’un papier perméable à la vapeur qui le protège de la poussière.

Non circulable, sans plafond mais avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Non circulable, avec plafond et avec plaque supérieure existante

Isolation sur le plafond entre les gîtes

On insuffle des flocons ou granulés d’isolant entre les gîtes, dans l’espace situé entre le plafond et le plancher.

Isolation au-dessus du plancher

Si le plancher ne doit pas être circulable, tous les isolants en matelas ou en panneaux conviennent.
Si on utilise des panneaux suffisamment résistants, ceux-ci peuvent être recouverts ultérieurement d’une aire de foulée et le plancher des combles serait ainsi rendu circulable, si nécessaire.
Dans ce cas, il ne faut pas oublier de prévoir le pare-vapeur éventuellement requis.

Circulable

Le plancher léger circulable sera généralement isolé dans son épaisseur pour des raisons d’économies d’espace et de matériaux.

 

Dans ce cas, on utilisera idéalement des matelas rigides ou semi-rigides car ils sont faciles à ajuster et à calfeutrer. On les posera par le haut ou par le bas si respectivement l’aire de foulée ou le plafond n’existent pas encore.
Lorsque le plafond est posé, on peut utiliser des flocons ou granulés d’isolant, éventuellement insufflés si l’aire de foulée existe déjà.

Dans certains cas, pour des raisons de facilité, ou lorsqu’il n’y a pas de plafond ou lorsque des appareils volumineux sont encastrés dans celui-ci, on pose l’isolant sur une plaque de support reposant sur le gîtage.
Tous les panneaux rigides conviennent à condition que leur résistance à l’écrasement soit compatible avec les surcharges prévues.
Ils seront ensuite couverts par des plaques de protection constituant l’aire de foulée.
Ces panneaux rigides ne nécessitant pas de lambourdes pour porter l’air de foulée, les ponts thermiques sont évités.

Si pour des raisons économiques ou de protection au feu un isolant semi-rigide ou souple devait être posé, il le serait entre lambourdes. (Voir plancher léger, isolation entre gîtes).

Attention !

Certains isolants sont incompatibles avec d’autres éléments du plancher en contact avec l’isolant.
Par exemple, les mousses de polystyrène sont attaquées par les agents d’imprégnation du bois à base huileuse et par certains bitumes, par les solvants et les huiles de goudron.

Le comportement au feu

Lorsque le support résiste mal au feu (plancher en bois, tôles profilées métalliques), l’inflammabilité de l’isolant joue un rôle important.
Suivant le degré de sécurité que l’on souhaite atteindre, en fonction de la valeur du bâtiment et de son contenu, de son usage, de sa fréquentation, etc., on déterminera le degré d’inflammabilité acceptable pour l’isolant.

Le verre cellulaire et la laine de roche sont ininflammables. Les panneaux à base de mousse résolique ou de polyisocyanurate ont un bon comportement au feu.
Les mousses de polystyrène et de polyuréthane sont inflammables et résistent mal à la chaleur.
La chaleur produite par les spots peut dégrader ces mousses et provoquer des incendies. Si des spots doivent être placés à proximité du panneau isolant (solution à éviter), les mousses doivent être protégées en interposant des boucliers thermiques efficaces.

On veillera également à ce que ce matériau ne dégage pas de gaz toxique lorsqu’il est exposé à la chaleur d’un incendie. C’est notamment le cas de mousses auxquelles ont été rajoutés des moyens retardateurs de feu.

Le prix

« Le nerf de la guerre…! »

A performance égale on choisira le matériau le moins cher. Il faut cependant raisonner en coût global, et tenir compte, non seulement du coût de l’isolant mais aussi de sa mise en œuvre.
Lorsqu’ils sont posés dans les planchers, les isolants correctement posés et protégés des agressions extérieures, ne nécessitent aucun entretien et leurs durées de vie ne posent pas de problème particulier.


Épaisseur calculée de l’isolant

Remarque.

Les calculs ci-dessous sont faits avec l’hypothèse que le plancher est étanche à l’air. Dans le cas contraire, les mêmes épaisseurs d’isolant peuvent mener à une valeur U (anciennement k) 2,5 fois plus élevée que celle prévue.
Un plancher lourd ne pose généralement pas de problème de courant d’air.
Pour éviter les courants d’air à travers les planchers légers on choisira une finition inférieure de type :

  • plafonnage;
  • plaques de carton-plâtre correctement rejointoyées;
  • ou des panneaux de fibres de bois liées au ciment, avec enduit.

Le plafond n’est, par contre, pas rendu étanche par une finition en lambris ou planchettes.
Il ne l’est, bien sûr, pas non plus dès que la finition intérieure est perforée pour des canalisations électriques ou pour une autre raison. Si le passage de canalisation est nécessaire, celles-ci passeront dans un vide technique aménagé entre un écran à l’air et la finition intérieure.

Calcul précis

L’épaisseur « di » de l’isolant se calcule par la formule suivante :

 

1/U

= [1/hi + d11 + d22 + … + di/λi + Ru + 1/he]
<=> di = λi [(1/U) – (1/hi + d11 + d22 + … + Ru + 1/he)]

où,

  • λi est le coefficient de conductivité thermique de l’isolant,
  • U est le coefficient de transmission thermique de l’ensemble « plancher des combles + versants de toiture » à atteindre (exemple : 0,3 W/m²K),
  • he et hi les coefficients d’échange thermique entre le toit et les ambiances extérieure et intérieure valant respectivement 23 W/m²K et 8 W/m²K,
  • dx la résistance thermique des autres couches de matériaux,
  • Ruest la résistance thermique des combles. Elle comprend la résistance thermique de l’espace d’air et la résistance thermique de la toiture (en pente).

Le tableau ci-dessous donne les résultats des calculs pour des toitures sans sous-toiture et pour différents modèles d’isolation de plancher.

+

Valeur U sans isolation [W/(m² x K)]

 

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,4 W/(m² x K)

Epaisseur (en mm) d’isolant nécessaire pour obtenir :

U < 0,3 W/(m² x K)

plancher  :

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

MW, EPS

0.045
W/(mK)

PUR

0.035
W/(mK)

XPS

0.040
W/(mK)

Plancher léger étanche à l’air; sans aire de foulée.

4 > 101 > 79 > 90 > 139 > 108 > 123
Plancher léger étanche à l’air; avec aire de foulée.

1.8 > 88 > 68 > 78 > 125 > 97 > 111
Plancher lourd étanche à l’air. 3.3 > 99 > 77 > 88 > 136 > 106 > 121

Calcul simplifié

La valeur U d’une toiture est presque uniquement déterminée par la couche isolante. Pour simplifier le calcul, on peut négliger la résistance thermique des autres matériaux.
La formule devient alors :

e= λi ((1/ U) – (1/h+ 1/hi) [m]

Pour U = 0,3 W/m²K,

ei = λi ((1/ 0,3) – (1/23 + 1/8 )) m
 

= λx 3,16 [m]

L’épaisseur ne dépend plus que du choix de l’isolant et de son λ i.
L’épaisseur ainsi calculée doit être adaptée aux épaisseurs commerciales existantes.

Exemple.

Si l’isolant choisi est la mousse de polyuréthane (PUR)

Son λi vaut 0.039 W/mK (suivant NBN B62-002)

ei = 0.039 x 3.16 = 0.12324 m

L’épaisseur commerciale : 13 cm (par exemple : 6 + 7 cm).

calculs

Pour estimer vous-même, de manière simplifiée, l’épaisseur suffisante d’un isolant, cliquez ici !

Conseils généraux de mise en œuvre de la couche isolante

> L’isolant est mis en œuvre conformément aux prescriptions de son agrément technique.

> L’isolant doit être placé sur toute la surface du plancher sans oublier les éventuelles parties verticales, les trapes d’accès, etc.

> Les joints entre les différents panneaux isolants et entre les panneaux isolants et les gîtes (planchers légers) doivent être bien fermés.

Pourquoi ?

L’air chauffé à l’intérieur d’un bâtiment se dilate. Il devient ainsi plus léger et monte. Il est alors remplacé par de l’air plus froid qui se réchauffe à son tour. Il s’établit ainsi une circulation d’air dans le local. C’est la convection. Dans une toiture, le même phénomène de rotation de l’air peut se développer autour des panneaux isolants si les joints ne sont pas fermés correctement. Il s’en suit des pertes de chaleur importantes et des risques de condensation dus à la vapeur d’eau dans l’air.

> Pour la même raison que ci-dessus et pour éviter les ponts thermiques, l’isolation de l’enveloppe doit être continue. La couche isolante de la toiture doit être raccordée avec les couches isolantes des autres parois du volume protégé. Par exemple :

  • L’isolant du plancher doit être en contact avec l’isolant des murs extérieurs et des éventuels murs intérieurs du grenier;
  • Il doit être dans le prolongement et en contact avec le dormant du trapillon isolant des accès.
  • Il doit être en contact avec l’isolant autour du conduit de cheminée.

> Les panneaux isolants ne peuvent être perforés pour la pose de conduite, etc.

> Les panneaux isolants doivent être protégés et manipulés avec précaution pour éviter les écrasements, les déchirures, l’eau, la boue.

Cuisiner ou assembler ?

Cuisiner ou assembler ?

Les gammes de produits

Produits de première gamme

Il s’agit des produits bruts traditionnels, c’est-à-dire :
  • crus et non épluchés pour les fruits et les légumes,
  • en carcasse, quartier ou muscles pour les viandes,
  • à vider ou prêts à cuire pour les poissons et les volailles…

Ces produits nécessitent des conditions de stockage précises en termes de température,d’hygrométrie. Pour éviter des souillures éventuelles et des transferts d’odeurs, ils doivent être isolés.

Produits de deuxième gamme

Ce sont tous les produits aseptisés (conserves et semi-conserves), c’est-à-dire des aliments conditionnés en emballage étanche aux liquides, aux gaz, aux micro-organismes et ayant subi un traitement thermique susceptible de détruire ou d’inhiber « d’une part les enzymes et d’autre part les micro-organismes et leurs toxines « .

Produits de troisième gamme

Sont rassemblés dans cette catégorie les produits conservés en froid négatif (congélation et surgélation).
Ils ont généralement subis des traitements préliminaires (épluchages, blanchiment… ), sont conditionnés en emballage non étanche (carton poche plastique) et se conservent à -18°C.

Produits de quatrième gamme

Ce sont des produits végétaux ayant subi des traitements d’épluchage, de parage, de coupage. Ils sont prêts à l’emploi pour les préparations de crudités ou prêts à la mise en cuisson dans des plats cuisinés ou potages. Conditionnés en emballage étanche, sous atmosphère contrôlée ou raréfiée (« sous vide »), ils se conservent à une température inférieure à +4°C.

Produits de cinquième gamme

Cette catégorie qui est apparue plus récemment sur le marché, regroupe les produits cuisinés prêts à être servis. Ils sont conditionnés en atmosphère raréfiée (avant ou après cuisson) et se conservent à +3°C.

Produits semi élaborés

Enfin et pour être complet, il faut ajouter une famille de produits appartenant au secteur de l’épicerie sèche, très souvent déshydratée, qui permet de réaliser des préparations culinaires ou pâtissières en « sautant  » certaines étapes du cycle normal de production.


Cuisiner ou assembler ?

La cuisine d’assemblage consiste à réaliser une production culinaire (hors d’œuvre, plats garnis, dessert), à partir de produits achetés dans un état déjà plus ou moins élaboré, en les assemblant dans le cadre de la recette, avec ou sans cuisson.

Elle a pour effet de transférer vers l’amont, en l’occurrence les industries agro-alimentaires, certaines phases de la production classique d’une cuisine, notamment les étapes préliminaires, permettant ainsi la réalisation d’effets d’échelle et de gain de productivité.

Schéma cuisine traditionnelle / cuisine assemblage.

Moteur à courant continu

Moteur à courant continu


 

Généralité

On rencontre encore régulièrement des moteurs à courant continu à excitation indépendante dans les salles des machines des immeubles d’un certain âge. En général, ils font partie d’un groupe Ward-Leonard qui permet d’aisément faire varier la vitesse de rotation.

Actuellement, du groupe Ward-Leonard, on ne conserve que le moteur à courant continu qui, cette fois, est associé à un variateur de vitesse statique (variateur électronique) dont la technologie est plus simple et peu onéreuse tout en demandant peu d’entretien et en offrant des performances élevées dans une plage de vitesse très large (de 1 à 100 %).


Principe de fonctionnement

Le moteur à courant continu se compose :

  • de l’inducteur ou du stator,
  • de l’induit ou du rotor,
  • du collecteur et des balais.

Lorsque le bobinage d’un inducteur de moteur est alimenté par un courant continu, sur le même principe qu’un moteur à aimant permanent (comme la figure ci-dessous), il crée un champ magnétique (flux d’excitation) de direction Nord-Sud.

Une spire capable de tourner sur un axe de rotation est placée dans le champ magnétique. De plus, les deux conducteurs formant la spire sont chacun raccordés électriquement à un demi collecteur et alimentés en courant continu via deux balais frotteurs.

D’après la loi de Laplace (tout conducteur parcouru par un courant et placé dans un champ magnétique est soumis à une force), les conducteurs de l’induit placés de part et d’autre de l’axe des balais (ligne neutre) sont soumis à des forces F égales mais de sens opposé en créant un couple moteur : l’induit se met à tourner !

Schéma principe de fonctionnement.

Si le système balais-collecteurs n’était pas présent (simple spire alimentée en courant continu), la spire s’arrêterait de tourner en position verticale sur un axe appelé communément « ligne neutre ». Le système balais-collecteurs a pour rôle de faire commuter le sens du courant dans les deux conducteurs au passage de la ligne neutre. Le courant étant inversé, les forces motrices sur les conducteurs le sont aussi permettant ainsi de poursuivre la rotation de la spire.

Dans la pratique, la spire est remplacée par un induit (rotor) de conception très complexe sur lequel sont montés des enroulements (composés d’un grand nombre de spires) raccordés à un collecteur « calé » en bout d’arbre. Dans cette configuration, l’induit peut être considéré comme un seul et même enroulement semblable à une spire unique.


Caractéristiques

Les avantages et inconvénients du moteur à courant continu sont repris ci-dessous :

(+)

  • accompagné d’un variateur de vitesse électronique, il possède une large plage de variation (1 à 100 % de la plage),
  • régulation précise du couple,
  • son indépendance par rapport à la fréquence du réseau fait de lui un moteur à large champ d’application,

(-)

  • peu robuste par rapport au machine asynchrone,
  • investissement important et maintenance coûteuse (entretien du collecteur et des balais,

Machine réversible

Dans le régime de fonctionnement des ascenseurs à traction, le treuil à courant continu peut :

  • Tantôt fonctionner en moteur lorsque le système cabine et contre-poids s’oppose au mouvement de rotation (charge dite « résistante »); le moteur prend de l’énergie au réseau.
  • Tantôt travailler en générateur lorsque le même système tend à favoriser la rotation (charge dite « entrainante »); le générateur renvoie de l’énergie au réseau.

Type de moteur à courant continu

Suivant l’application, les bobinages du l’inducteur et de l’induit peuvent être connectés de manière différente. On retrouve en général :
Des moteurs à excitation indépendante.

Des moteurs à excitation parallèle.

Des moteurs à excitation série.

Des moteurs à excitation composée.

La plupart des machines d’ascenseur sont configurées en excitation parallèle ou indépendante. L’inversion du sens de rotation du moteur s’obtient en inversant soit les connections de l’inducteur soit de l’induit.


L’inducteur

L’inducteur d’un moteur à courant continu est la partie statique du moteur. Il se compose principalement :

  • de la carcasse,
  • des paliers,
  • des flasques de palier,
  • des portes balais.

   

Inducteur.

Le cœur même du moteur comprend essentiellement :

  • Un ensemble de paires de pôles constitué d’un empilement de tôles ferro-magnétiques.
  • Les enroulements (ou bobinage en cuivre) destinés à créer le champ ou les champs magnétiques suivant le nombre de paires de pôles.

Pour des moteurs d’une certaine puissance, le nombre de paires de pôles est multiplié afin de mieux utiliser la matière, de diminuer les dimensions d’encombrement et d’optimaliser la pénétration du flux magnétique dans l’induit.


L’induit

L’induit du moteur à courant continu est composé d’un arbre sur lequel est empilé un ensemble de disques ferro-magnétiques. Des encoches sont axialement pratiquées à la périphérie du cylindre formé par les disques empilés. Dans ces encoches les enroulements (bobines de l’induit) sont « bobinés » selon un schéma très précis et complexe qui nécessite une main d’œuvre particulière (coûts importants). Pour cette raison, on préfère, en général, s’orienter vers des moteurs à courant alternatif plus robuste et simple dans leur conception.

   

Induit.

Chaque enroulement est composé d’une série de sections, elles même composées de spires; une spire étant une boucle ouverte dont l’aller est placé dans une encoche de l’induit et le retour dans l’encoche diamétralement opposée. Pour que l’enroulement soit parcouru par un courant, ses conducteurs de départ et de retour sont connectés aux lames du collecteur (cylindre calé sur l’arbre et composé en périphérie d’une succession de lames de cuivre espacée par un isolant).

Composition de l’induit.

L’interface entre l’alimentation à courant continu et le collecteur de l’induit est assuré par les balais et les porte-balais.


Les balais

Les balais assurent le passage du courant électrique entre l’alimentation et les bobinages de l’induit sous forme d’un contact par frottement. les balais sont en graphite et constituent, en quelques sortes, la pièce d’usure. Le graphite en s’usant libère une poussière qui rend le moteur à courant continu sensible à un entretien correct et donc coûteux.

L’ensemble balais, porte-balais et collecteur.

Le point de contact entre les balais et le collecteur constitue le point faible du moteur à courant continu. En effet, c’est à cet endroit, qu’outre le problème d’usure du graphite, la commutation (inversion du sens du courant dans l’enroulement) s’opère en créant des micros-arcs (étincelles) entre les lamelles du collecteur; un des grands risques de dégradation des collecteurs étant leur mise en court-circuit par usure.


Pilotage de la vitesse de rotation

Relation Vitesse et force contre-électromotrice à flux constant

Lorsque l’induit est alimenté sous une tension continue ou redressée U, il se produit une force contre-électromotrice E.
On a :

E = U – R x I [volts]

Où,

  • R = la résistance de l’induit [ohm].
  • I = le courant dans l’induit [ampère].

La force contre-électromotrice est liée à la vitesse et à l’excitation du moteur.
On a :

E = k  x  ω x Φ[volt]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • ω = la vitesse angulaire de l’induit [rad/s].
  • Φ= le flux de l’inducteur [weber].

En analysant la relation ci-dessus, on voit, qu’à excitation constante Φ, la force contre-électromotrice E est proportionnelle à la vitesse de rotation.

Relation Couple et flux

Quant au couple moteur, il est lié au flux inducteur et au courant de l’induit par la relation suivante.

On a :

C = k x Φ x I [N.m]

Où,

  • k = constante propre au moteur (dépendant du nombre de conducteurs de l’induit).
  • Φ= le flux de l’inducteur [weber].
  • I = le courant dans l’induit [ampère].

En analysant la relation ci-dessus, on voit qu’en réduisant le flux, le couple diminue.

Variation de la vitesse

Au vu des relations existant entre la vitesse, le flux et la force contre-électromotrice, il est possible de faire varier la vitesse du moteur de deux manières différentes. On peut :

  • Augmenter la force contre-électromotrice E en augmentant la tension au borne de l’induit tout en maintenant le flux de l’inducteur constant. On a un fonctionnement dit à « couple constant ». Ce type de fonctionnement est intéressant au niveau de la conduite d’ascenseur.
  • Diminuer le flux de l’inducteur (flux d’excitation) par une réduction du courant d’excitation en maintenant la tension d’alimentation de l’induit constante. Ce type de fonctionnement impose une réduction du couple lorsque la vitesse augmente.


Le groupe Ward-Leonard

Le groupe Ward-Léonard représente l’ancienne génération des treuils d’ascenseur à traction à câbles. Ce système permettait de faire varier la vitesse d’un moteur à courant continu à excitation indépendante en réglant la tension de l’induit par l’intermédiaire d’une génératrice à courant continu dont on faisait varier l’excitation; la génératrice étant entraînée mécaniquement par un moteur à courant alternatif classique.

Pour une faible variation du courant d’excitation de la génératrice, il était possible de maîtriser des puissances énormes de moteurs à courant continu dans une plage de variation de vitesse très étendue.

L’électronique de régulation de vitesse est venue supplanter le système du groupe Ward-Léonard où le variateur de vitesse électronique vient contrôler :

  • soit directement un moteur à courant alternatif,
  • soit le moteur à courant continu seul rescapé du groupe Ward-Léonard.

 

Exemple de réglage d’une courbe de chauffe

Exemple de réglage d'une courbe de chauffe

Voici un exemple de réglage d’une courbe de chauffe (réglage de la pente et du déplacement parallèle) dans 4 situations. Il se base sur la méthodologie de réglage décrite dans « Régulateurs climatiques et réglage des courbes de chauffe« .


Situation 1 – Premier réglage

Monsieur M. est responsable technique d’une institution située à Namur. L’installation de chauffage qu’il avait pour mission de gérer ne comprenait quasiment aucune régulation :

  • la chaudière était maintenue en permanence à température grâce à son aquastat,
  • seul le circuit de la façade sud est équipé d’une vanne trois voies manuelle

Installation avant rénovation.

Au plus fort de l’hiver, Monsieur M. réglait par expérience la température de la chaudière sur 80°C. En effet une température plus élevée engendrait l’apparition de plaintes de la part des occupants qui souffraient d’un excédent de chaleur.
Malheureusement, lorsque le soleil était présent, les locaux situés au sud étaient vite surchauffés.
Récemment, les responsables de l’institution ont décidé d’investir dans la régulation de l’installation.
Les circuits sont équipés de vannes mélangeuses avec servomoteur et sont régulés chacun au départ de leur propre sonde extérieure.

Installation après rénovation.

Il s’agit maintenant pour Monsieur M. de régler les courbes de chauffe de chaque régulateur.

1. Définir les besoins

> Pour l’hiver, Monsieur M. reprend les réglages qu’il appliquait avant rénovation au niveau de la chaudière :

  • T° extérieure de base = – 9°C (a)
  • T° maximale de l’eau = 80°C (b)

> Pour la saison chaude, Monsieur M. considère une valeur couramment reconnue dans nos régions :

  • T° extérieure de non chauffage = 15°C (c)
  • T° minimale de l’eau = 35°C (d)

2. Calcul de la pente

Pente = [(b) – (d)] / [(c) – (a)] = [80°-35°] / [15° – (- 9°)] = 1,9 (e)

3. Connaître le point pivot de base du régulateur

Le point pivot préréglé sur le régulateur est :

  • T° extérieure de non chauffage = 20°C (f)
  • T° minimale de l’eau = 20°C (g)

4. Calculer le déplacement parallèle

Température de l’eau pour une pente égale à 1,9, le point pivot de base du régulateur [20°, 20°] et une température de non chauffage égale à 15° = (g) + [(f) – (c)] x (e) = 20° + [20° – 15°] x 1,9 = 29,5 (h)
Déplacement parallèle = (d) – (h) = 35° – 29,5° = 5,5° (i).

Calculs

Déterminer votre propre réglage.

Situation 2 – Ajustement en mi-saison

Au printemps et en automne, les occupants des locaux nord se plaignent unanimement : il fait trop froid !

Monsieur M. décide donc de rehausser la température de l’eau du circuit nord durant l’entre-saison. Pour cela, il revoit progressivement le déplacement parallèle à la hausse tout en rectifiant simultanément la pente de la courbe.

1. Connaître les réglages actuels

Avant toute modification, Monsieur M. prit soin de noter les paramètres de réglage existant du régulateur.

  • Pente = 1,9 (a)
  • Déplacement parallèle = 5,5° (b)

2. Définir le nouveau déplacement parallèle

  • Nouveau déplacement parallèle = 10° (c)

3. Connaître le point pivot de base du régulateur

  • T° extérieure de non chauffage = 20° (d)
  • T° minimale de l’eau = 20° (e)

4. Connaître la température extérieure minimum de base

  • Température de base = – 9° (f)

5. Calculer la nouvelle pente

Pente = [(b) – (c)] / [(d) – (f)] + (a) = [5,5° – 10°] / [20° – (- 9°)] + 1,9 = 1,7 (g)

Calculs

Déterminer votre propre réglage.

Situation 3 – Ajustement en hiver

L’hiver venu, les plaintes se multiplient, de façon uniforme dans les locaux orientés au sud: il fait trop chaud, même en absence d’ensoleillement.

Il s’agit donc de diminuer la pente de la courbe de chauffe de ce circuit.
Plusieurs abaissements successifs sont nécessaires pour arrêter la gronde des occupants. La pente est ramenée à 1,4.

Calculs

Déterminer votre propre réglage.

Situation 4 – Isolation de l’enveloppe

Récemment, un programme de rénovation des châssis de la façade nord est entrepris. On passe de simples vitrages à des doubles vitrages.

Les besoins en énergie de l’aile devenant moindres, la température de l’eau du circuit nord peut être abaissée.

1. Connaître les paramètres de l’actuelle courbe de chauffe

  • Pente actuelle = 1,7 (a)
  • Déplacement parallèle actuel = 10° (b)

2. Connaître le point pivot de base du régulateur

  • T° extérieure de non-chauffage = 20° (c)
  • T° minimale de l’eau = 20° (d)

3. Déterminer la température moyenne de l’eau en plein hiver avant rénovation

  • Température de base = – 9° (e)
  • T° de l’eau de départ en plein hiver = (b) + (d) + (a) x [(c) – (e)] = 10° + 20° + 1,7 x [20° – (- 9°)] = 80° (f)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

T° moyenne de l’eau = 71° (g)

 4. Connaître le facteur d’émission des corps de chauffe

T moy eau – T amb
0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79

0,81

0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Facteur d’émission des corps de chauffe courants en fonction de la différence (T° moyenne de l’eau – T° ambiante).

Exemple : si Tmoyenne = 71°C, Tambiante = 20°C, Tmoyenne – Tambiante = 51°C (= 50°C + 1°C), f = 0,81

Différence de température corps de chauffe – ambiance intérieure = (g) – 20° = 71° – 20° = 51° (h)
Facteur d’émission des corps de chauffe avant rénovation = 0,81 (i)

5. Déterminer le pourcentage de réduction des déperditions d’un local suite aux rénovations

Réduction des déperditions = 0,3 (j)

Bureau Rénovation Réduction des déperditions
Classique Double vitrage 30 à 40 %
Sous toiture Isolation 55 à 65 %
Sous combles Isolation 30 à 40 %

 6. Déterminer la température moyenne de l’eau dans le corps de chauffe

Nouveau facteur d’émission = (i) x [1 – (j)] = 0,81 x (1 – 0,3) = 0,57 (k)

T moy eau – T amb

0°C

1°C

2°C

3°C

4°C

5°C

6°C

7°C

8°C

9°C

20°C

0,24 0,26 0,27 0,28 0,30 0,32 0,34 0,35 0,37 0,39

30°C

0,41 0,42 0,44 0,46 0,48 0,50 0,51 0,53 0,55 0,57

40°C

0,59 0,61 0,63 0,65 ,067 0,69 0,71 0,73 0,75 0,77

50°C

0,79 0,81 0,83 0,85 0,87 0,89 ,91 0,94 0,96 0,98

60°C

1,00 1,02 1,04 1,07 1,09 1,11 1,13 1,15 1,18 1,20

70°C

1,22 1,24 1,27 1,29 1,31 1,34 1,36 1,38 1,41 1,43

80°C

1,45 1,48 1,50 1,52 1,55 1,57 1,60 1,62 1,65 1,67

90°C

1,69 1,72 1,74 1,77 1,79 1,82 1,84 1,87 1,89 1,92

Différence de température corps de chauffe – ambiance intérieure (suivant le tableau ci-dessus) = 39° (=30° + 9°) (l)

7. Déterminer la température de départ de l’eau pour la température de base

Température moyenne de l’eau du corps de chauffe = (l) + 20° = 39° + 20° = 59° (m)

Température moyenne de l’eau dans un corps de chauffe dimensionné en régime 90/70.

Température de départ de l’eau en plein hiver = 66° (n)

Calculs

déterminer votre propre réglage.

Machine frigorifique à compression [Climatisation]

Machine frigorifique à compression


L’installation frigorifique, vue de l’extérieur

Dans les installations de climatisation, la machine frigorifique permet d’évacuer vers l’extérieur la chaleur excédentaire des locaux.

En pratique, elle prépare de l’air froid ou de l’eau froide qui viendront compenser les apports de chaleur du soleil, des équipements de bureautique, des occupants,… de telle sorte que le bilan chaud-froid soit à l’équilibre et que la température de consigne soit maintenue dans les locaux.

La technique la plus simple consiste à préparer de l’air froid qui sera diffusé via des gaines de distribution.

Distribution de l’air froid dans le bâtiment.

Traitement de l’air dans des caissons de climatisation.

Pour le groupe frigorifique, on distingue deux modes principaux d’action :

  • Soit le fluide frigorigène refroidit l’air en passant directement dans la batterie de refroidissement : on parle de « système à détente directe » parce que l’évaporateur de la machine frigorifique prend la place de la batterie de froid dans le caisson de climatisation.

Réfrigération « à détente directe ».

  • Soit l’installation frigorifique prépare de l’eau froide à …6°C… (généralement appelée « eau glacée »), eau qui alimentera la batterie de refroidissement du caisson de traitement d’air.

Réfrigération par circuit d’eau glacée.

Mais le transport de froid par l’air est très coûteux à l’investissement (gainage).

À titre d’exemple, comparons l’encombrement demandé pour le transfert de 10 kW de froid :

Transport par air Transport par eau
Delta T° : 9°C (de +16° pulsé à +25°C d’ambiance, par ex.) Delta T° : 5°C ( boucle d’eau glacée au régime 7° – 12°C, par ex.)
Débit d’air : 3 270 m³/h Débit d’eau : 1,72 m³/h
Vitesse : 15 m/s Vitesse : 0,8 m/s
Section de gaine : 300 x 220 mm ( ou Ø 300 mm) Diamètre de conduite : Ø 40 mm

De plus, à l’exploitation, la consommation des ventilateurs représente de 10 à 30 % de l’énergie transportée contre 2 % pour la consommation des pompes de circulation.

Circuit d’eau glacée pour l’air neuf et les ventilo-convecteurs.

Aussi, on rencontre souvent des installations où le refroidissement des locaux est principalement assuré par de l’eau glacée alimentant les batteries froides des ventilo-convecteurs.

Un complément de froid peut être donné par le rafraîchissement de l’air neuf de ventilation.

Bien sûr, « produire du froid » sous-entend évacuer de la chaleur. Aussi, à l’extérieur du bâtiment, souvent en toiture, on trouvera un équipement chargé de refroidir.

  • soit le fluide frigorigène directement : c’est le condenseur de l’installation frigorifique.
  • soit de l’eau, qui elle-même sert à refroidir le fluide frigorigène : c’est la tour de refroidissement.

On distingue trois types de tour :

La tour ouverte

l’eau est pulvérisée devant un ventilateur et le refroidissement est alors renforcé par la vaporisation partielle de cette eau (la chaleur de la vaporisation est « pompée » sur la goutte d’eau qui reste et qui donc se refroidit). Après refroidissement, cette eau sera conduite vers un condenseur à eau se trouvant près du compresseur.

Schéma principe tour ouverte.

La tour fermée
l’eau venant du condenseur reste à l’intérieur d’un circuit tubulaire fermé, mais se fait « arroser » par un jet d’eau de refroidissement. Cette eau s’évaporant partiellement, sera également fortement refroidie. Mais cette fois, l’eau qui a été au contact de l’air extérieur (son oxygène et ses poussières), n’est plus en contact direct avec le condenseur à eau évitant de bien pénibles ennuis de corrosion…

Schéma principe tour fermée.

Le dry cooler
il s’agit d’une tour fermée, que l’on n’arrose pas, que l’on refroidit simplement par l’air extérieur pulsé par des ventilateurs. Cette batterie d’échange convient en toute saison, puisque en ajoutant un antigel (type glycol), elle est insensible au gel. Elle n’est pas aussi performante que les précédentes puisque la température de refroidissement est limitée à la température de l’air extérieur…

Pour davantage d’informations :

Techniques

Pour connaître la technologie des condenseurs et des tours de refroidissement, cliquez-ici !

L’installation frigorifique, vue de l’intérieur

Le transfert de chaleur, entre intérieur et extérieur, ne peut se faire que si un équipement rehausse le niveau de température entre le milieu où la chaleur est prise (air ou eau) et le milieu où la chaleur est évacuée (air extérieur) : c’est le rôle de la machine frigorifique.

Elle se compose au minimum des 4 éléments suivants :

  • 1 évaporateur
  • 1 condenseur
  • 1 compresseur
  • 1 organe de détente

Voici le fonctionnement de chacun de ces composants.

Tout est basé sur les propriétés physiques du fluide frigorigène

La machine frigorifique est basée sur la propriété des fluides frigorigènes de s’évaporer et de se condenser à des températures différentes en fonction de la pression.

Pour expliquer le fonctionnement, nous prendrons les caractéristiques du R 22 parce c’est le fluide le plus couramment utilisé en climatisation. Mais ce n’est plus celui que l’on choisira dans les installations nouvelles.

A la pression atmosphérique :

Le R22 est liquide à – 45°C et se met à « bouillir » aux alentours de – 40°C.

>  Si du fluide R 22 à -45°C circule dans un serpentin et que l’air à 20° C passe autour de ce tuyau, l’air se refroidira : il cédera sa chaleur au fluide qui lui s’évaporera. C’est le rôle de l’évaporateur de la machine frigorifique.

A la pression de 13 bars :

cette fois, le R 22 ne va « bouillir » qu’à 33°C. Autrement dit, si de la vapeur de fluide à 13 bars et à 65°C circule dans un serpentin et que de l’air à 20° C passe autour de ce tuyau, le fluide se refroidira et à partir de 33°C, il se liquéfiera, il se condensera. En se condensant, il va libérer énormément de chaleur. C’est le rôle du condenseur de la machine frigorifique.

> Si l’on souhaite donc que le fluide puisse « prendre » de la chaleur : il doit être à basse pression et à basse température sous forme liquide, pour lui permettre de s’évaporer.

>  Si l’on souhaite qu’il puisse céder sa chaleur : il doit être à haute température et à haute pression, sous forme vapeur, pour lui permettre de se condenser.

Pour réaliser un cycle dans lequel de la chaleur est extraite d’un côté et donnée de l’autre, il faut compléter l’installation par 2 éléments :

  1. Le compresseur, qui comprime le gaz en provoquant l’augmentation de température jusqu’à + 65°C.
  2. Le détendeur, qui, au départ d’un fluide à l’état liquide, « lâche » la pression : le fluide se vaporise partiellement et donc se refroidit. Le liquide retombe à la température de – 40°C (bien sûr, on choisira – 40°C pour faire de la congélation, et entre 0°C et + 5°C pour de la climatisation).

Si ces différents équipements sont bouclés sur un circuit, on obtient une machine frigorifique.

En pratique, suivons le parcours du fluide frigorigène dans les différents équipements et repérons le tracé de l’évolution du fluide frigorigène dans le diagramme des thermo-dynamiciens, le diagramme H-P, enthalpie (ou niveau d’énergie) en abscisse et pression en ordonnée.

Dans l’évaporateur

Le fluide frigorigène liquide entre en ébullition et s’évapore en absorbant la chaleur du fluide extérieur. Dans un deuxième temps, le gaz formé est encore légèrement réchauffé par le fluide extérieur, c’est ce qu’on appelle la phase de surchauffe (entre 7 et 1).

Fonctionnement de l’évaporateur.

Dans le compresseur

Le compresseur va tout d’abord aspirer le gaz frigorigène à basse pression et à basse température (1). L’énergie mécanique apportée par le compresseur va permettre d’élever la pression et la température du gaz frigorigène. Une augmentation d’enthalpie en résultera.

Fonctionnement du compresseur.

Dans le condenseur

Le gaz chaud provenant du compresseur va céder sa chaleur au fluide extérieur. Les vapeurs de fluide frigorigène se refroidissent (« désurchauffe »), avant l’apparition de la première goutte de liquide (point 3). Puis la  condensation s’effectue jusqu’à la disparition de la dernière bulle de vapeur (point  4). Le fluide liquide peut alors se refroidir de quelques degrés (sous-refroidissement) avant de quitter le condenseur.

Fonctionnement du condenseur.

Dans le détendeur

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Fonctionnement du détendeur.

Fonctionnement complet

Le cycle est fermé, le fluide frigorigène évolue sous l’action du compresseur dans les quatre éléments constituant la machine frigorifique.

Cycle frigorifique élémentaire.

L’ensemble du cycle peut être représenté dans le diagramme enthalpie-pression. Sous la courbe en cloche se situent les états de mélange liquide-vapeur; à gauche de la cloche, le fluide est à l’état liquide (il se « sous-refroidit »), à droite, le fluide est à l’état vapeur (il « surchauffe »).

Diagramme enthalpique du cycle frigorifique.


Un fonctionnement de la machine frigorifique en équilibre permanent

Le cycle réel de fonctionnement d’une machine frigorifique se stabilise à partir des températures du milieu qu’il faut refroidir, de l’air extérieur où la chaleur est rejetée, et des caractéristiques dimensionnelles de l’appareil.

Ainsi, la température d’évaporation se stabilisera quelques degrés en dessous de la température du fluide refroidi par l’évaporateur. De même, la température de condensation se stabilisera quelques degrés au-dessus de la température du fluide de refroidissement du condenseur.

Or, les besoins de froid évoluent en permanence et la température extérieure varie toute l’année !

Tout cela va bien sûr entraîner une modification du taux de compression et une variation de la puissance absorbée. En fonction du régime d’évaporation et de condensation, le compresseur aspirera un débit masse plus ou moins grand de fluide frigorigène définissant ainsi la puissance frigorifique à l’évaporateur et calorifique au condenseur.

Exemple

Afin d’imaginer ces évolutions, partons d’un cas concret.

Évaporateur

Évolution des fluides dans l’évaporateur.

La boucle d’eau glacée fonctionne au régime 5°-11°. L’échange de chaleur s’effectue en deux phases :

  • ébullition du fluide
  • surchauffe des vapeurs

La température d’évaporation qui s’établit est de 0°C. Dans le cas du R22, ceci correspond à une basse pression de 4 bar (lecture du manomètre), soit 5 bar absolu (comparé au vide).

Condenseur

Évolution des fluides dans le condenseur.

Le condenseur est directement refroidi par l’air extérieur. Supposons que celui-ci entre à 30°C dans le condenseur. L’échange de chaleur s’effectue en trois phases :

  • désurchauffe des gaz chauds provenant du compresseur,
  • condensation du fluide,
  • sous-refroidissement du liquide.

La température de condensation qui s’établit est de 40°C. Dans le cas du R 22, ceci correspond à une haute pression de 14,5 bar, soit 15,5 bar absolu.

Analysons le comportement du compresseur sur base des caractéristiques nominales données par le fournisseur.

Extrait d’un catalogue de compresseurs.

On constate que pour une température d’évaporation de 0°C et pour une température de condensation de 40°C,

  • la puissance électrique absorbée par le compresseur sera de 6,3 kW
  • la puissance frigorifique donnée à l’évaporateur sera de 21,9 kW

Remarque : en réalité, une adaptation de quelques pour cent devrait avoir lieu car le constructeur fournit des indications pour un fonctionnement normalisé de son appareil (surchauffe de 0K, sous-refroidissement de 25 K selon DIN 8928 et bientôt la CEN) mais ceci dépasse la portée de ces propos.

Supposons à présent que le condenseur soit mal entretenu. L’échange de chaleur se fait moins bien, la température au condenseur augmente, le compresseur va travailler davantage et va augmenter la pression de sortie des gaz. Une nouvelle température de condensation va se mettre en place : supposons qu’elle atteigne une température de 50°C. Comme la température du liquide s’élève à l’entrée du détendeur, la température d’évaporation s’élève également de 1 ou 2°. Le diagramme constructeur prévoit une augmentation de la puissance électrique absorbée : 7 kW, pour une puissance frigorifique diminuée : 18,2 kW…

Le « rendement » de la machine s’est dégradé :

> AVANT : (21,9 kW produits) / (6,3 kW absorbés) = 3,5.

> APRES : (18,2 kW produits) / (7 kW absorbés) = 2,6.

On dira que « l’efficacité énergétique » de la machine frigorifique a diminué de 25 %. À noter que l’on serait arrivé au même résultat si la température extérieure s’était élevée de 10°.


Plusieurs régulations imbriquées dans la machine frigorifique

On peut voir la machine frigorifique comme un ensemble d’équipements, réunis par le réseau de fluide frigorigène et régulés chacun en poursuivant divers objectifs en parallèle.

Adapter la puissance fournie à la puissance requise : la régulation du compresseur

Une machine frigorifique est dimensionnée pour vaincre les apports thermiques maximum (ciel bleu, soleil éclatant et 32°C de température, par exemple). Elle est donc la plupart du temps sur-puissante. Il faut donc pouvoir adapter la puissance frigorifique du compresseur à la charge partielle réelle.

Diverses techniques de régulation du compresseur sont possibles :

  • arrêter le compresseur par « tout ou rien » ou par étages,
  • réduire sa vitesse de rotation,
  • le mettre partiellement hors service (décharge de cylindres,…),
  • prévoir un bypass refoulement-aspiration,
  • obturer l’orifice d’aspiration,

Limiter la pression maximale à la sortie du compresseur : le pressostat HP

La plus importante partie d’une installation frigorifique est sans aucun doute le compresseur. Il doit maintenir la quantité nécessaire d’agent frigorifique en circulation; il opère ainsi donc comme une pompe. La pression différentielle entrée-sortie est très importante et, selon le point de travail et le fluide frigorifique, elle se situe entre 5 et 20 bar, environ.

Imaginons une panne du ventilateur du condenseur ou une période de forte chaleur de l’air extérieur. Le refroidissement des gaz chauds dans le condenseur est insuffisant, la température à l’évaporateur va augmenter, la pression à l’entrée du compresseur augmente. Le compresseur pourrait alors développer une pression de sortie supérieure au niveau permis. Afin de protéger l’installation, il est prévu sur cette partie Haute Pression (HP) un pressostat qui déclenche le moteur d’entraînement lorsque la pression dépasse le niveau maximal permis par le constructeur.

Limiter la pression minimale à l’entrée du compresseur : le pressostat BP

La basse pression avant le compresseur est également surveillée. Par exemple, en cas de demande de froid insuffisante à l’évaporateur, la chaleur d’évaporation transmise au fluide frigorifique n’est pas suffisante. Cela conduit à une diminution de la pression du côté basse pression du compresseur avec pour conséquence une diminution de la température d’évaporation ainsi que le givrage de la batterie de froid ou le gel de l’eau glacée.

Or quand une batterie givre, le coefficient d’échange diminue, la température d’évaporation diminue encore et le phénomène s’accélère. C’est pourquoi la basse pression est contrôlée et le compresseur est déclenché par le pressostat BP lorsque la Basse Pression descend en dessous d’une valeur minimale. Ainsi, en cas de fuite de réfrigérant, il est important de faire déclencher le compresseur, autrement il tournera sans réfrigérant et se détériorera en très peu de temps. Normalement la pression dans l’évaporateur est largement supérieure à la pression atmosphérique.

Éviter la surchauffe du moteur

Il faut éviter que la machine ne démarre et ne s’arrête trop souvent. En effet, des enclenchements répétitifs entraînent la surchauffe du moteur (le courant de démarrage est plus élevé que le courant nominal). Un temps de fonctionnement minimal est nécessaire pour évacuer cet excédent de chaleur.

Un dispositif, appelé « anti-court-cycle », limite la fréquence de démarrage des compresseurs et assure un temps minimal de fonctionnement.

Lubrifier le compresseur

Les pistons d’un moteur de voiture nécessitent une lubrification constante pour éviter aux anneaux de piston d’être « rongés ». Il existe le même problème dans les compresseurs frigorifiques. L’huile qui lubrifie le compresseur suit également la vapeur du fluide frigorigène et se trouve ainsi dans le système de circulation. Le technicien de service doit contrôler que l’huile retourne bien au compresseur, par la pose adéquate des tuyauteries frigorifiques, le cas échéant en incorporant un séparateur d’huile.

Lorsque le compresseur n’est pas en service, un réchauffage du carter est réalisé. En effet, en cas de faibles températures ambiantes, l’huile peut absorber un peu de vapeur du fluide frigorigène. Comme cette huile se trouve principalement dans la cuvette du carter, il peut y avoir à cet endroit une concentration importante d’agent frigorigène dans l’huile. Lorsque l’installation est mise en service, une très rapide chute de pression apparaît, l’agent frigorigène tente de se vaporiser et de se séparer de l’huile. Celle-ci commence à mousser, ce qui peut provoquer des coups de liquide et un manque d’huile dans le compresseur. Afin d’empêcher l’huile d’absorber du fluide frigorigène, la cuvette du carter est, lors du déclenchement de l’installation, réchauffée à l’aide d’une résistance électrique.

Éviter les coups de liquide réfrigérant

Le compresseur a pour fonction de comprimer un gaz. Les liquides étant pratiquement incompressibles, le compresseur sera endommagé si le réfrigérant le traverse en phase liquide plutôt que vapeur. Si le piston pousse contre un agent non compressible, il s’ensuit un « coup de liquide », et donc la casse du piston et des clapets.

Lorsque l’installation est hors service, le liquide peut s’accumuler avant le compresseur et lors du ré-enclenchement provoquer un coup de liquide. Pour éviter cela, une vanne magnétique est souvent placée avant le détendeur. La vanne magnétique se ferme lorsque l’installation est déclenchée et évite à l’agent réfrigérant de retourner à l’évaporateur. Le raccordement électrique est effectué de telle sorte que le compresseur puisse fonctionner après la fermeture de cette vanne. Le compresseur s’arrête lorsque le pressostat basse pression déclenche. Aussitôt que la pression augmente à nouveau, le processus est répété. Ce processus est parfois appelé « le pump down ».

Remarque : les coups de liquides ne concernent quasiment que les compresseurs à pistons. Les profils des vis ou des labyrinthes de Scroll peuvent s’écarter en cas d’aspiration de liquide. Et les turbocompresseurs ne sont pas des compresseurs volumétriques.


L’efficacité énergétique ou COP-froid

Un climatiseur est énergétiquement efficace s’il demande peu d’énergie électrique au compresseur pour atteindre une puissance frigorifique donnée.

En comparant les offres, on établit le rapport entre puissance frigorifique fournie et puissance électrique absorbée par le compresseur.

Exemple : voici les spécifications techniques d’un climatiseur réversible présent sur le marché.

Unité intérieure FHYB35FJ
Unité extérieure RY35D7
Puissance frigorifique kcal/h 3 100
Btu/h 12 300
kW 3,60

Puissance calorifique

kcal/h 3 500
Btu/h 14 000
kW 4,10

Puissance absorbée

rafraîchissement

kW 1,51

chauffage

kW 1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4

  • energy efficiency ratio, E.E.R

puissance frigorifique / puissance absorbée =
12,3 Btu/h / 1,5 kW
= 8,2

Et si l’on souhaite utiliser l’appareil en mode chauffage :

  • le coefficient de performance au condenseur, COPchaud

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Remarques.

  1. Il ne faut pas confondre COPfroid et COPchaud ! Le COPchaud est le rapport entre l’énergie thermique délivrée au condenseur et l’énergie électrique demandée par le compresseur (c’est un terme qui vient de l’évaluation du rendement d’une pompe à chaleur). Alors que le COPfroid part de la chaleur captée à l’évaporateur. La confusion étant fréquente, il n’est pas inutile lorsque l’on compare le rendement des machines dans les documentations de constructeurs, de vérifier ce qui se trouve derrière l’appellation COP.
  2. Il est intéressant de s’inquiéter également de l’efficacité globale de la machine frigorifique installée, c’est à dire du rapport entre le froid produit et l’ensemble de toutes les consommations électriques engendrées, y compris les ventilateurs aux échangeurs, les pompes… Une machine frigorifique, avec une efficacité excellente, placée sur le toit d’un immeuble de plusieurs étages, peut voir son efficacité fortement chuter si la machine est placée en cave et que le condenseur est refroidi via un gainage d’air traversant les étages ! La consommation du ventilateur sera importante dans le bilan final.
  3. Il est très important de se rendre compte que l’énergie mécanique des ventilateurs et des pompes se dégradera en chaleur. Cette chaleur vient en diminution de la puissance frigorifique pour les éléments du côté froid. Ce n’est donc pas seulement le COP ou l’EE qui se dégradent par la consommation électrique supplémentaire, c’est aussi la puissance frigorifique qui diminue.

Détendeurs [Climatisation]

Détendeurs [Climatisation]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement du détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Différentes technologies de détendeurs

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Photo détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).

Détendeurs [Froid alimentaire]

Détendeurs [Froid alimentaire]


Fonctionnement

Dans l’ensemble du fonctionnement d’une machine frigorifique, le détendeur module le débit de fluide réfrigérant à l’entrée de l’évaporateur.

Schéma fonctionnement détendeur.

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit. C’est le rôle du détendeur. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

La régulation de la surchauffe à la sortie de l’évaporateur conditionne l’ouverture ou la fermeture du détendeur. Cette régulation « auto-adaptative » se base sur le principe que l’évaporateur a une valeur minimale de surchauffe stable qui évolue en fonction des variations de sa charge Q0. Entre d’autres termes, la valeur minimale de surchauffe stable est celle qui permet, quelle que soit la charge, de vaporiser la dernière goutte liquide du fluide frigorigène juste à la sortie de l’évaporateur.

Surchauffe minimale (source : Danfoss).

  • Si la dernière goutte de fluide est vaporisée juste avant la sortie de l’évaporateur, la surchauffe mesurée en température est élevée et ne permet pas à l’évaporateur d’évacuer la chaleur Q0 complètement et, par conséquent, le travail de l’évaporateur n’est pas optimum.
  • Si la dernière goutte de fluide est vaporisée après la sortie de l’évaporateur ou ne se vaporise simplement pas, la surchauffe mesurée en température est faible. La présence de liquide à l’aspiration du compresseur risque de l’endommager.


Différentes technologies de détendeurs

Le détendeur thermostatique

C’ est le dispositif le plus fréquemment utilisé. Le détendeur thermostatique est une vanne qui règle le débit du réfrigérant, en maintenant une différence constante entre la température d’évaporation du réfrigérant et la température des gaz à la sortie de l’évaporateur. La différence entre ces deux températures s’appelle la « surchauffe à l’évaporateur », typiquement 6 à 8 K. De cette façon, on est certain que tout le liquide injecté s’est évaporé.

Schéma détendeur thermostatique.

Si la charge thermique augmente, la sonde (3) détectera une montée de température, agira sur la membrane (4) et le détendeur s’ouvrira (le pointeau est renversé : plus on l’enfonce, plus il s’ouvre) afin d’augmenter le débit de réfrigérant (1).

Le détendeur électronique

Schéma détendeur électronique.

Il fonctionne sur le même principe, mais ce type de détendeur permet un réglage plus précis de l’évaporateur. Une surchauffe plus faible sera nécessaire. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.
Son avantage est de pouvoir bénéficier de l’intelligence de la régulation numérique : adapter son point de fonctionnement en fonction de divers paramètres.

De là, plusieurs propriétés :

  • régulation modulante de la température du milieu à refroidir,
  • injection optimale du réfrigérant,
  • dégivrage optimalisé.

Technologiquement, il dispose d’une vanne à pointeau, commandée par un moteur pas à pas à 2 500 positions.

Le détendeur capillaire

Dans de petites installations, tels les appareils frigorifiques ou les petits climatiseurs, on se contente, comme dispositif de réglage, d’un étranglement dans la conduite du réfrigérant avant l’évaporateur. L’étranglement est assuré par un tube capillaire (de très faible diamètre) dans lequel la détente du fluide est obtenue par la perte de charge dans le tube.

Le détendeur pressostatique

Il maintient une pression d’évaporation constante, indépendante de la charge. La totalité de la surface d’échange de l’évaporateur n’est utilisée qu’une fois en régime. C’est pourquoi il n’est utilisé que dans le cas d’installations dans lesquelles la charge ne varie pas beaucoup (machines à glace par exemple).


Comparaison entre les détendeurs thermostatiques et électroniques

La régulation des détendeurs est surtout liée à leur technologie : jusqu’il y a peu, la technologie vraiment éprouvée était le détendeur thermostatique.

À l’heure actuelle, la plupart des installations de petite à moyenne puissance utilisent encore cette technologie. La régulation du débit d’alimentation de l’évaporateur et, par conséquent, de la surchauffe obéit à une loi proportionnelle en fonction de la charge frigorifique demandée à l’évaporateur.

Le détendeur thermostatique

Lorsqu’un détendeur thermostatique est utilisé pour réguler l’injection de fluide frigorigène, il réagit de manière linéaire en fonction de la demande de froid Q0.

Le réglage de l’injection de fluide réfrigérant au départ doit garantir une surchauffe quelle que soit la charge afin d’éviter que du fluide se retrouve en phase liquide à la sortie de l’évaporateur. Ce réglage s’effectue au niveau d’une vis agissant sur le ressort d’équilibrage de pression.

La courbe de réglage du détendeur thermostatique étant une droite proportionnelle à la différence entre les températures mesurées par le bulbe à la sortie de l’évaporateur et la température d’évaporation (traduite par la pression régnant en sortie du détendeur), pour garantir la surchauffe, elle doit se situer à droite (en bleu) de la courbe de surchauffe minimale stable (en rouge). Dans ces conditions, la surchauffe est garantie, mais exagérée se traduisant par :

  • une efficacité de l’évaporateur réduite pour certaines charges;
  • une durée de marche accrue du compresseur pour conserver la température souhaitée à l’évaporateur; d’où une augmentation de la consommation énergétique.

À l’inverse, un réglage trop à gauche de la courbe de surchauffe minimale (en noir) provoque un fonctionnement de l’évaporateur en surchauffe insuffisante et risquerait d’être dommageable pour le compresseur à certaines charges (liquide présent à la sortie de l’évaporateur).

Le détendeur électronique

Les nouvelles technologies permettent de suivre au plus près la courbe des valeurs minimales de surchauffe stable en associant des détendeurs électroniques à des régulateurs analogiques ou digitaux. Le schéma suivant montre une régulation électronique optimisée qui assure en permanence un bon remplissage de l’évaporateur. On remarquera que la régulation assure toujours que le fluide reste bien vaporisé dans l’évaporateur en évitant d’envoyer du liquide au niveau du compresseur (on reste à droite de la courbe).

À l’heure actuelle, les fabricants de régulateurs y arrivent facilement par le développement d’algorithmes sophistiqués prenant en compte les différents types de fluide frigorigène indépendamment des caractéristiques initiales de l’évaporateur et de leur évolution en fonction de la charge. Comme le montre la figure ci-dessus, le régulateur calcule l’ouverture du détendeur en fonction :

  • de la température en sortie de l’évaporateur (capteur de température par contact sur la tuyauterie);
  • de la pression d’évaporation (capteur de pression sur la conduite d’aspiration du compresseur) traduite en température d’évaporation par le régulateur.

La différence entre ces deux valeurs représente la valeur réelle de la surchauffe et est comparée à la courbe de surchauffe minimale.

Choisir l’étanchéité [isolation de la toiture plate]

Membranes bitumineuses bicouches

Toutes les membranes bitumineuses utilisées seront toujours du type bitume amélioré APP ou SBS.

Les deux produits sont équivalents en qualité. Les membranes APP résistent mieux à la chaleur, mais sont plus difficiles à poser par temps froid. Les membranes SBS doivent être protégées des rayonnements UV (généralement par des paillettes d’ardoise).

Il existe des membranes bitumineuses, dont le comportement au feu est amélioré.

Les systèmes multicouches offrent plus de garanties en cas d’erreur de mise en œuvre au niveau de l’assemblage des lés.

La plupart des entreprises spécialisées dans la pose d’étanchéités bitumineuses sont capables de poser correctement une étanchéité multicouche (par opposition à une étanchéité monocouche).

Lorsque le bâtiment doit être mis à l’abri alors qu’il n’est pas encore achevé, et que la toiture risque d’être abîmée par la fin des travaux, le système multicouche offre la possibilité de protéger provisoirement le bâtiment avec la première couche, et de n’achever le travail par la pose de la dernière couche, que lorsque le bâtiment est complètement achevé.

Lorsqu’en cas de fuite les dégâts risquent d’être très importants, on préférera une étanchéité multicouche qui présente moins de risques d’infiltration.

Si l’on perçoit qu’une rénovation ultérieure de la toiture sera difficile ou coûteuse, on optera, dès le départ, pour un système plus fiable. Une rénovation peut être rendue difficile par la présence d’une couche de protection impossible ou lourde à déplacer, des difficultés d’accès, etc.

Si pour accéder à des appareillages, il est nécessaire de circuler souvent sur la toiture, mieux vaut prévoir une étanchéité multicouche qui résiste mieux au poinçonnement accidentel.


Membranes bitumineuses monocouches

La pose d’un système monocouche requiert de l’entreprise chargée de l’ouvrage une grande expérience et une bonne formation.

Lorsqu’on souhaite un investissement minimal (tout en sachant que l’entretien après quelques années risque de nécessiter de gros frais), on peut se contenter d’une étanchéité bitumineuse monocouche.

Lorsque l’on peut contrôler facilement l’exécution des recouvrements et pratiquer un essai d’étanchéité à l’eau en mettant la toiture sous eau, on peut se contenter d’une étanchéité bitumineuse monocouche.


Membranes synthétiques

Les membranes synthétiques en hauts polymères offrent des résistances mécaniques élevées, des résistances au feu, et des résistances chimiques qui varient d’un matériau à l’autre. On choisira une membrane synthétique principalement pour ses caractéristiques particulières.

Parmi celles-ci, deux seulement sont utilisées de manière significative, un plastomère : le PVC, et un élastomère : l’EPDM.

Le comportement au feu du PVC et de l’EPDM traité « NO-FLAM » est satisfaisant.

Le prix des membranes synthétiques (suffisamment épaisses pour garantir des qualités mécaniques suffisantes) est généralement plus élevé que celui des membranes bitumineuses. Pour réduire le prix de ces membranes, on en réduit parfois l’épaisseur, ce qui les fragilise malgré leurs qualités évidentes.

Ces membranes étant monocouches, leur mise en œuvre nécessite un soin particulier. De plus, les techniques de soudage et de fixation étant particulières à chaque matériau, le personnel chargé de poser les membranes doit être formé à ces techniques et être hautement qualifié.

Certaines membranes nécessitent des conditions atmosphériques très favorables pour pouvoir être mises en œuvre.


Que faire dans certains cas ?

Type d’étanchéité
Ma toiture a des formes compliquées. oui bitumineuse
non pas de préférence
L’étanchéité est facile à remplacer en cas de problème. oui pas de préférence
non bitumineuse bicouche
On prévoit une circulation technique fréquente sur la toiture. oui bitumineuse bicouche ou synthétique épaisse
non pas de préférence
Je veux payer le moins possible. oui bitumineuse monocouche
non pas de préférence
Je peux contrôler facilement l’exécution. oui pas de préférence
non bitumineuse bicouche
Une fuite aurait des conséquences graves. oui bitumineuse bicouche
non pas de préférence
Je dispose d’un personnel qualifié et expérimenté pour réaliser la toiture. oui pas de préférence
non bitumineuse bicouche
Je dois protéger provisoirement mon bâtiment avant la fin des travaux. oui bitumineuse bicouche en deux phases
non pas de préférence
Je suis dans un environnement particulier. oui synthétique adapté
non pas de préférence
Les conditions atmosphériques risquent d’être mauvaises pendant le chantier. oui je vérifie les limites de mise en œuvre de la membrane choisie
non pas de préférence
Les risques liés à un incendie sont importants. oui synthétique ou bitumineux « ANTI-FEU »
non pas de préférence

Concevoir les détails : la trappe d’accès [isolation]

Trappe d’accès

Schéma trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.

Détails

Schéma détails isolation trappe d'accès.

  1. Structure portante (gîtes).
  2. Pare-vapeur.
  3. Trappe d’accès.
  4. Isolant.
  5. Finition intérieure (plâtre, bois, …).
  6. Charnière.
  7. « Elément décoratif de finition ».
  8. Joint mousse synthétique.

L’isolant choisi pour être placé à l’intérieur de l’ouvrant est peu perméable à la vapeur : il s’agit d’une mousse synthétique, par exemple.

« Un élément décoratif de finition » placé entre la finition intérieure et la structure en bois de la trappe assure l’étanchéité à l’air entre ces deux éléments. Cette étanchéité est complétée par des joints de mousse synthétique.

Isoler un mur par l’intérieur

Isoler un mur par l'intérieur

Attention ! L’isolation par l’intérieur est la seule technique possible lorsque l’aspect extérieur de la façade doit rester inchangé. Cependant, cette technique d’isolation est délicate et peut engendrer des problèmes. Ainsi, beaucoup d’architectes belges l’évitent.

Les vérifications préliminaires et précautions ci-dessous permettent simplement de se mettre le plus possible du côté de la sécurité !


Vérifications et mesures préliminaires

Le mur doit être en bon état

Lorsqu’on isole un mur plein par l’intérieur, les variations de température hiver-été et au cours d’une même journée, deviennent plus importantes. Ce qui augmente les contraintes dans la maçonnerie et peut mener à des fissurations.
Si le mur est déjà fissuré, on peut s’attendre à des dégradations suite à l’apport d’une isolation par l’intérieur.

Le mur doit être sec et protégé contre toute pénétration d’eau

Le mur doit être sec et protégé de toute pénétration d’eau de pluie, protégé contre les remontées capillaires et ne plus contenir d’humidité de construction.

L’étanchéité à l’eau de pluie d’un mur plein dépend de son type et de son état.

Lorsque le mur est isolé par l’intérieur, l’eau à l’intérieur de la maçonnerie engendre les 2 désagréments suivants :

  • Vu l’abaissement de la température moyenne d’hiver d’un mur isolé par l’intérieur, le séchage est ralenti. L’humidification prolongée de la maçonnerie peut favoriser une dégradation de la maçonnerie par le gel.

   

Gel de la maçonnerie.

En outre, lorsqu’une maçonnerie humide a fait l’objet d’une intervention pour la protéger, il y a lieu d’attendre son séchage (6 mois à plusieurs années selon le type et l’épaisseur du mur) avant d’entamer son isolation par l’intérieur.

La disposition doit permettre de traiter les ponts thermiques

  • Les dormants des châssis doivent être suffisamment grands pour pouvoir prolonger l’isolant sur la partie latérale de la baie, en dessous du linteau, sous la tablette de fenêtre. À défaut, les châssis devront être remplacés. On profitera de l’occasion pour choisir des vitrages à haut rendement.
  • On doit vérifier la possibilité d’envisager une isolation du sol, du plafond et des murs de refend ou simplement une prolongation de l’isolant sur ces parois.

Le climat intérieur doit être « normal »

Le climat intérieur doit correspondre au plus à la classe III.
Dans des bâtiments de classe de climat intérieur IV, le risque de condensation à l’interface maçonnerie-isolant est trop important. Dans ce cas des précautions lourdes doivent être prises : une étude approfondie du système et de chaque détail doit être réalisée par un bureau d’étude spécialisé; un soin particulier doit être apporté à la mise en œuvre; les matériaux devront être judicieusement choisis etc.

L’inertie thermique doit être suffisante

On vérifiera que la capacité thermique des locaux reste suffisante malgré l’apport de l’isolation du côté intérieur des murs de façade.

Voici des indices d’un risque important de surchauffe en été :

Schéma indices d'un risque important de surchauffe en été.

  • Les cloisons intérieures sont en matériaux légers (ex. : plaques de plâtre sur structure en bois ou métallique).
  • Les plancher sont en bois.
  • Il y a beaucoup d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont grandes et ont une orientation autre que « Nord ».

Voici des indices d’un risque faible de surchauffe en été :

Schéma indices d'un risque faible de surchauffe en été.

  • Les cloisons intérieures sont en matériaux lourds (béton, brique, …).
  • Les plancher sont en béton.
  • Il y a peu d’apports internes (éclairage artificiel, ordinateurs, imprimantes, etc.).
  • Les baies vitrées sont petites ou orientées au Nord.

Cependant, une faible inertie thermique peut être favorable dans le cas de locaux occupés durant de courtes périodes.


Choix du système

Il existe de nombreux systèmes d’isolation par l’intérieur.

Choix du système à panneaux isolants collés

Lorsque le mur est sec et sain et présente une surface plane, on choisit le système des panneaux collés.

Les défauts de planéité ne peuvent pas dépasser 15 mm sur une règle de 2 m. Ce système ne peut être utilisé sur des supports ayant connu l’humidité car des sels peuvent apparaître.
Ce système est le moins onéreux et demande le moins d’espace.
Il demande le décapage complet du revêtement (papier-peint, peinture, …) ou du moins aux endroits des plots ou bandes de colle.

Choix d’un système à structure

Lorsque le mur n’est pas suffisamment plan, on choisit un des deux systèmes à structure.

Ceux-ci sont plus chers mais permettent de rattraper les défauts de planéité du mur. Ces systèmes peuvent aussi être choisis si l’on ne souhaite pas enlever le papier peint ou la peinture.

Le système à panneaux composites posés sur lattage possède l’avantage, par rapport au système à panneaux isolants entre lattes, d’apporter une isolation continue. En particulier, lorsque les profilés utilisés sont métalliques, il évite les ponts thermiques au droit de chaque profilé.
Ce système permet également d’apposer une couche plus épaisse d’isolant.

Remarque.

Avec un système à panneaux isolant entre profilés métalliques, ces derniers doivent, dans certains cas, pour des raisons de résistance, être placés avec l’ouverture du « u » vers le mur. On doit veiller, dans ce cas, à ce que ceux-ci soient remplis d’isolant.

Photo système à panneaux isolant entre profilés métalliques.

Remarque.

Les deux systèmes à structure permettent de laisser un vide entre le mur extérieur et l’isolant (lorsque l’isolant est placé entre les montants, il peut être accolé à la plaque de plâtre; lorsque la hauteur n’est pas trop importante, la structure peut être auto-portante et ne doit pas être fixée contre le mur mais uniquement au sol et au plafond en laissant un espace derrière celle-ci).
Les fabricants proposent dès lors ces solutions lorsque le mur est humide.

Le CIFFUL, dans la brochure Méthodes de modification du gros-œuvre / Isolation thermique d’un bâtiment existant » relue par le CSTC ne recommande pourtant pas de laisser un vide car celui-ci, s’il y le moindre espace entre les panneaux isolants, favorise les courants de convection et engendre non seulement des pertes énergétiques mais également des risques de condensation du côté interne du mur extérieur.

En France, on recommande, dans le cas des murs humides, de ventiler la lame d’air (par l’ouverture de joints dans le haut et le bas des maçonneries).
Mais cette solution est insuffisante pour sécher efficacement la face intérieure des murs extérieurs et augmente les courants de convection.

L’isolation par l’intérieur, dans le cas d’une maçonnerie humide, reste fortement déconseillée.

Choix du système avec isolation derrière contre-cloison maçonnée

L’isolation derrière contre-cloison maçonnée permet de rajouter un matériau lourd devant l’isolant et donc de remplacer, en partie du moins, l’inertie thermique perdue.
Il demande néanmoins un plancher pouvant le supporter. Il ne pourra pas, en principe, être choisi dans le cas d’un plancher entre étages en bois.


Choix de l’isolant

Le choix d’un isolant dépend des performances à atteindre et de l’espace disponible dans les locaux à isoler. Ces critères permettent de déterminer l’épaisseur et le type d’isolant à mettre en œuvre.

Il est toujours recommandé de choisir un isolant disposant d‘un agrément technique.

Les produits minces réfléchissants font l’objet d’une polémique importante ces dernières années.

Photo produits minces réfléchissants.   Photo produits minces réfléchissants.

Qu’en penser ? Nous reproduisons en annexe le compte-rendu détaillé de l’étude du CSTC((Isolation des murs existants par l’intérieur : systèmes et dimensionnement, Les Dossiers du CSTC 2013/2.4, p.4)) à ce sujet, étude confirmée par plusieurs études scientifiques dans divers pays européens. L’affirmation des fabricants d’un équivalent de 20 cm de laine minérale est fantaisiste. Dans le meilleur des cas, un équivalent de 4 à 6 cm peut être obtenu, ce qui est souvent insuffisant.

Si ce produit connaît malgré tout un certain succès commercial, c’est parce que sa pose est très rapide (agrafage sous pression), donc intérêt de l’entrepreneur qui aime à en faire la publicité, et que le produit se présente en grandes bandes continues, assurant une très grande étanchéité au passage de l’air, donc impression d’une certaine qualité pour l’occupant.


Choix du pare-vapeur

Quand doit-on prévoir un pare-vapeur ?

Lorsqu’on utilise un isolant perméable à la vapeur (laine minérale, par exemple) celui-ci doit être précédé, côté intérieur, par un pare-vapeur de manière à éviter le risque de condensation interne.

L’utilisation d’un isolant peu ou pas perméable à la vapeur (EPS, XPS, PUR, CG) collé sur la maçonnerie, ne nécessite pas l’interposition d’un pare-vapeur pour autant que de l’air intérieur NE puisse PAS circuler entre isolant et maçonnerie.
Aussi, si ce type d’isolant est mis en œuvre entre lattes, la pose du pare-vapeur reste indispensable. Celui-ci couvre alors l’ensemble du système « isolant + lattes ».

Quel pare-vapeur choisir ?

L’évaluation du risque principal de condensation par modèle statique (comme celui de Glaser) entraîne presque systématiquement le choix d’une membrane très étanche à la vapeur du côté intérieur. On les appelle souvent les « pare-vapeurs ». Lorsque l’on affine l’analyse, il apparaît que le choix d’une membrane plus faiblement étanche à la vapeur est parfois suffisant. On parle alors de « freine-vapeur ». La valeur Sd des pare-vapeur n’est pas définie avec précision, mais en pratique, elle sera de plusieurs dizaines de mètres (par ex. 50 ou même 100 m) alors que la valeur Sd des freine-vapeur ne sera que de quelques mètres seulement (par ex. 2 m à 5 m, mais rarement plus de 10 m).

Le choix d’un freine-vapeur, plus ouvert au passage de la vapeur, permet souvent de se prémunir du risque, dit secondaire, de condensations internes en été ou au printemps, ou quand la pression de vapeur est plus importante à l’extérieur qu’à l’intérieur et que la vapeur a donc tendance à traverser la paroi de l’extérieur vers l’intérieur. En effet, le flux de vapeur n’est pas complètement bloqué vers l’intérieur ce qui facilite le séchage du mur.

D’autres membranes, dites intelligentes, sont de ce point de vue encore plus adaptées. En effet, leur perméabilité à la vapeur évolue avec l’humidité relative. Elles sont conçues pour être relativement fermées à la vapeur quand l’humidité relative est faible et pour s’ouvrir au passage de la vapeur quand l’humidité relative est plus élevée. Ce principe est illustré ici.

Outre les risques de condensations, il est important de faire remarquer que certains matériaux dits hygroscopiques, comme le bois et les matériaux dérivés du bois, mais aussi d’autres matériaux comme la terre crue, ont le pouvoir de réguler l’humidité de l’ambiance intérieure en captant l’humidité en excès pour la restituer plus tard, atténuant ainsi les effets désagréables d’ambiances trop sèches ou trop humides. On parle alors parfois d’inertie hydrique par analogie avec l’inertie thermique. Malheureusement, peu de valeurs sont disponibles. Ce domaine devrait faire l’objet de recherches complémentaires et dépasse le cadre d’Énergie+. Remarquons seulement que la présence d’une membrane atténue fortement l’effet hygroscopique des couches sous-jacentes, et notamment celui de l’isolant.

Remarquons enfin que la présence d’une membrane, en plus de permettre la régulation de la vapeur, permet aussi de bloquer le passage de l’air et donc d’éviter le risque de condensation par convection, pour autant bien sûr que la mise en œuvre soit d’une qualité irréprochable (notamment au niveau des nœuds constructifs).

Comment assurer la continuité de la fonction « pare-vapeur » :

Lorsque la fonction « pare-vapeur » est assurée par les panneaux, la continuité de la fonction « pare-vapeur » est assurée en fermant les joints entre panneaux ou entre panneaux et raccords au moyen :

  • soit, de bandes adhésives,
  • soit, de mousse injectée,
  • soit, de mastic.

Lorsque le système nécessite un pare-vapeur indépendant, celui-ci doit être placé avec recouvrements. Les recouvrements et les raccords doivent être fermés au moyen :

  • soit, de bandes adhésives,
  • soit, de joints comprimés.

Il faut vérifier auprès des fabricants que le produit assurant la continuité du pare-vapeur proposé corresponde à la classe du pare-vapeur demandé.


Pose de l’isolation par l’intérieur

Principes à respecter

  • L’isolant doit être posé de manière continue, en particulier aux angles des parois, afin de ne pas créer de pont thermique et d’éviter ainsi la condensation superficielle.
  • Le pare-vapeur doit également être posé de manière continue, les raccords doivent être rendus étanches.
  • Il faut prévoir une finition intérieure étanche à l’air sur toute la surface.
    De manière à éviter la condensation interne par convection, il faut fermer toutes les ouvertures qui permettraient à l’air intérieur de circuler derrière la couche isolante. Les points délicats sont :

    • La jonction entre mur et plafond.
    • La jonction entre mur et plancher (les panneaux isolants sont, en général, butés en tête sous le plafond. Il s’ensuit que le jeu nécessaire à la pose du panneau se retrouve en pied. Cet espace doit être calfeutré avant la pose de la plinthe).
    • La jonction avec les baies.
    • Les percements pour le passage des gaines et canalisations diverses, incorporations des boîtiers, etc.

Le calfeutrement de ces points est également indispensable pour éviter les infiltrations d’air de l’extérieur vers l’intérieur du bâtiment.

Remarque : les paragraphes ci-dessous s’inspirent de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Panneau isolant composite – pose par collage

  1. Mur existant.
  2. Panneau composite.
  3. Plots de colles.
  4. Isolant.
  5. Pare-vapeur éventuel.
  6. Finition

Panneau isolant entre lattes

1. Latte, ayant l’épaisseur de l’isolant,
fixée mécaniquement à la maçonnerie et réglée à l’aide de cales.
L’entre axe des lattes est d’environ 40 cm.

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Isolant légèrement compressible afin de remplir aussi complètement que possible l’espace disponible entre lattes et entre le mur et le pare-vapeur.
  3. Pare-vapeur. La technique la plus aisée est d’agrafer, sur les lattes, un film en matière plastique (d’épaisseur > 0,2 mm) qui correspond à un pare-vapeur de classe E2. Le recouvrement entre lés est agrafé et recouvert d’une bande adhésive.
  4. Panneau de finition : par exemple, plaque de plâtre enrobé de carton. Les joints entre plaques et les têtes de vis sont fermés et recouverts au moyen d’un enduit de finition.

Panneau isolant composite – pose sur lattage

  1. Mur existant (avec ou sans enduit de finition intérieur).
  2. Un isolant légèrement compressible est posé entre les lattes fixées mécaniquement à la maçonnerie et dont le réglage est assuré à l’aide de cales.
  3. Les panneaux composites sont fixés mécaniquement sur les lattes à l’aide de vis. La pose des panneaux doit être bien jointive et les joints bien fermés à l’aide d’un enduit de finition.

Détails d’exécution

Remarque : cette partie s’inspire de la brochure Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant.

Isolation autour de la baie

Pour ne pas provoquer de pont thermique et de risque de condensation superficielle autour de la baie, l’isolation thermique doit être prolongée jusqu’à la menuiserie.

      

  1. Mur existant avec enduit de finition.
  2. Isolant thermique (posé entre latte par exemple).
  3. Pare-vapeur éventuel.
  4. Panneau de finition.
  5. Retour d’isolation collé à la maçonnerie (épaisseur de minimum 2 cm).Si après avoir disqué l’enduit de finition existant, il n’y a pas assez de place pour le retour d’isolation, il faut remplacer le châssis par un châssis à dormant plus large.
  6. Prolongement du pare-vapeur jusqu’à la menuiserie ou pose d’un isolant peu perméable à la vapeur (mousse synthétique, par exemple).
  7. Joint souple d’étanchéité pour empêcher toute infiltration d’air intérieur derrière l’isolant.
  8. Nouvelle tablette.

Pour augmenter les performances thermiques du retour d’isolation, la finition autour de la baie peut être réalisée en bois (ébrasement et tablette).

  1. Joint souple d’étanchéité.
  2. Ebrasement et chambranle en bois.
  3. Finition angle.

Plancher en bois entre étages

Dans le cas d’un plancher en bois, l’extrémité du gîtage de celui-ci qui vient s’encastrer dans la maçonnerie atteint des températures plus basses qu’avant isolation par l’intérieur. Alors qu’il est possible d’éviter le transfert de vapeur interne au travers du mur par l’usage d’un pare-vapeur, il n’existe pas de moyen efficace pour éviter ce transfert au niveau du plancher. Ainsi, il y a risque de condensation à proximité des têtes de gîtes ou de solives et possibilité de pourrissement.

  1. Plancher.
  2. Solive.
  3. Condensation.

Jonction avec murs de refend (ou plancher béton entre étages)

Pour supprimer le pont thermique au droit des murs de refend, il faut éventuellement prolonger l’isolation du mur de façade contre le mur de refend.

Pont thermique non traité

Pont thermique traité

  1. ED = 80 mm (polystyrène expansé, mousse de polyuréthane ou laine minérale).
  2. ER = 30 mm (polystyrène expansé ou laine minérale).
  3. ER = 20 mm (mousse de polyuréthane).
  4. R = 30 cm.

Ce retour d’isolation peut être cependant très contraignant au niveau esthétique.

De plus, cette mesure concerne plus spécifiquement les logements avec les températures et les productions d’humidité qui leur sont propres. Dans les immeubles de bureaux, par exemple, où la production de vapeur est moins importante et qui, en général, sont équipés d’une ventilation, il faut reconsidérer la nécessité de cette mesure. Il faut évaluer le risque de condensation superficielle sans retour d’isolation à partir des conditions réelle.

Évaluer

Savoir comment évaluer le risque de condensation à partir des données propres à votre bâtiment.

Évaluer

Voir, par un exemple, comment évaluer concrètement le risque de condensation au droit d’un pont thermique dans un immeuble de bureau.

Travaux annexes

Remarque : cette partie s’inspire de la brochure « Méthodes de modification du gros-œuvre – isolation thermique d’un bâtiment existant ».

Déplacement des équipements existants

Les installations électriques (prises et interrupteurs)

  1. Espace technique.

Les canalisations d’eau

Elles sont disposées dans un espace technique (1) ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Détail en plan et en coupe :

     

  1. Isolant posé entre lattes
  2. Pare-vapeur placé sans interruption
  3. Latte fixée à la maçonnerie
  4. Latte supplémentaire servant d’entretoise
  5. Tube électrique
  6. Boîtier électrique

Les canalisations d’eau

Les canalisations encastrées avant rénovation (isolation par l’intérieur) sont réchauffées par l’ambiance intérieure.

Si aucune précaution n’est prise lorsqu’on isole par l’intérieur, la maçonnerie, et avec elle, la canalisation sont directement exposées au climat extérieur et donc au gel.

Il existe différentes solutions pour protéger la canalisation contre le gel.
Solution n°1 : déplacer le tuyau et le laisser apparent.

Solution n° 2 : (peu pratique) agrandir la saignée dans laquelle se trouve la canalisation et introduire un isolant thermique (mousse expansée, par exemple.)

Solution n° 3 : déplacer le tuyau et le placer dans un espace technique ménagé entre l’isolant (ou le pare-vapeur) et la finition.

Attention : ne pas traverser le pare-vapeur avec le tuyau !

Les radiateurs

Les radiateurs doivent être déplacés et fixés à la nouvelle paroi. Dans ce cas, la structure doit être renforcée.
Le radiateur peut également être posé sur un pied fixé au sol.

  1. Tablette
  2. Isolant imperméable à la vapeur collé à la maçonnerie
  3. Isolation entre lattes
  4. Pare-vapeur
  5. Radiateur
  6. Joint d’étanchéité (mastic)
  7. Canalisation de chauffage
  8. Renfort (lattes bois)

Remplacement des châssis

Lorsqu’on améliore l’isolation du mur de façade, on profitera de l’occasion pour remplacer les châssis anciens par des châssis avec double vitrage à basse émissivité.
On choisit des châssis avec de larges dormants de manière à avoir de la place pour l’isolant.

Sol

Lorsque l’isolation des murs est prolongée par l’isolation du sol, cela exige de créer une marche au niveau de l’accès aux autres locaux.

Ventilation

Une ventilation suffisante doit être assurée dans le local isolé par l’intérieur de manière à éviter les problèmes de condensation.

Concevoir

Pour savoir comment assurer une ventilation suffisante.

N’hésitez pas également à consulter notre page consacrée aux isolants biosourcés.

Comparer les critères de choix [protection solaire]

Récapitulatif des protections et des critères de choix

+ + Très bon + Bon 0 Moyen – Mauvais – – Très mauvais

Protections extérieures

Brise-soleil

+ + + + + + – – + + 0 + + 0 – – + +

Stores
vénitiens

+ + + + + – – + + + + + + +
Stores
enroulables
+ + + + 0 – – + + + + + + + +
Eléments
architecturaux
+ + + + + + – – + + 0 + + – – – – + + +
Auvents + + + + + + – – – – + + + + + + – – +
Stores
projetés à
l’italienne
+ + + + + – – – – + + + + + + +

Protections intérieures

Stores
enroulables
et plissés

en tissu
+ + 0 0 + + + – – + + + + +
Stores
enroulables
et plissés
réfléchissants
+ + + + + 0 + + – – + + + +
Stores
vénitiens
et à lamelles
verticales
– – + + + + – – + + + + + + +
Films
adhésifs
– – à + + – à + + – à + – – à + + + + – – + + + + – à + + + +

Protections intégrées au vitrage

Stores
vénitiens
+ + + + + + + + + + + + + – – + – –
Stores
enroulables
+ + + + + + + + + + + + – – + + – –

Outil PROSOLIS, comparaison des complexes vitrages-protections solaire

copie écran PROSOLIS

Vous devez choisir une protection solaire spécifique ? un type de vitrage et une protection solaire ? L’outil PROSOLIS est là pour vous aider !

Développé par l’UCL (Architecture et Climat) et le Centre Scientifique et Technique de la Construction (CSTC) en 2015, cet outil est accessible gratuitement à l’adrese : www.prosolis.be

Il permet de comparer facilement et en fonction du contexte (orientation – type de bâtiment) les performances thermiques et visuelles de différents complexes « vitrages – protections solaires parallèles au vitrage « .

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
22-09-2008 : WinMerge ok – Sylvie

Lampes à décharge : généralités

Lampes à décharge : généralités

On reprend généralement sous la dénomination « lampes à décharge »

Mais les tubes fluorescents, les lampes fluocompactes et les lampes à induction sont aussi des lampes à décharge (la lumière y est aussi produite par une décharge électrique dans un gaz).


Principe de fonctionnement

 Schéma principe de fonctionnement lampes à décharge.

Une lampe dite « à décharge » fonctionne par décharge d’un courant électrique dans une atmosphère gazeuse. La décharge se fait au travers d’un tube à décharge qui se trouve lui-même dans une ampoule vide.

Schéma principe de fonctionnement lampes à décharge.

Lorsqu’on met la lampe sous tension, des électrons sont émis par les deux électrodes de tungstène. Lors de leur trajet au travers du tube à décharge, ils entrent en collision avec les atomes de gaz. Il en résulte une libération d’énergie soit sous forme de lumière visible, soit sous forme de rayonnement ultraviolet invisible (principalement pour les lampes au mercure haute pression). Ce dernier est absorbé par le revêtement fluorescent présent sur la face interne de la lampe et converti en rayonnement visible.

Selon la pression du gaz dans le tube ou l’ampoule, on distingue les lampes à basse et à haute pression.

Les lampes à décharge ont besoin des éléments suivants pour fonctionner :

Photo amorceur.

– d’un amorceur (l’équivalent du starter des lampes fluorescentes),

Photo ballast.   Photo condensateur.

– d’un ballast  et d’un condensateur.

Ces trois éléments sont nécessaires pour :

  • atteindre pendant un court instant la tension élevée d’amorçage de la décharge électrique dans le gaz ionisé ou dans la vapeur de métal,
  • limiter le courant après l’amorçage pour empêcher la destruction de la lampe,
  • garder un cos φ proche de 1.

Principales dénominations commerciales

Type de lampe / Marques *

Philips

Osram

Sylvania

Sodium basse pression SOX SOX SLP
Sodium haute pression SDW
SON
NAV SHP
SHX
Mercure haute pression HPL HQL
HWL
HSL
HSB
Halogénures ou iodures métalliques HPI
MHN/MHW
CDM
HQI
HCI
HSI
MS
MP
Induction QL

 * Liste non exhaustive.

Données

 Pour connaitre les caractéristiques des lampes à décharge

Données

 Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Principes de base de la ventilation

 

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur
  2. Le mobilier
  3. Les produits et équipements de construction
  4. La ventilation
  5. Le comportement des usagers

Pourquoi faut-il ventiler ?

Pour maitriser l’énergie

La ventilation hygiénique fait partie du trio indissociable formé avec l’étanchéité à l’air et l’isolation thermique permettant le bon achèvement d’un bâtiment confortable et performant énergétiquement. L’un ne va pas sans l’autre. En effet, augmenter l’isolation sans penser aux pertes dues au niveau d’étanchéité à l’air du bâtiment n’a pas de sens… Et dès lors que le bâtiment est suffisamment étanche à l’air, il devient impératif de ventiler pour assurer une bonne qualité de l’air intérieur et garantir des ambiances intérieures confortables.

Pour garantir une bonne qualité de l’air intérieur

Ainsi, l’être humain passe entre 80% et 90% de son temps dans un espace intérieur clos et y respire de l’air intérieur bien souvent plus pollué que l’air extérieur. Pour évacuer ces polluants présents dans l’air et garantir une bonne qualité de l’air pour notre confort respiratoire et notre santé, il est nécessaire de ventiler les locaux dans lesquels nous vivons. De même, il peut être nécessaire d’évacuer le surplus d’humidité des bâtiments afin d’éviter tous dégâts dus à la condensation et garantir la bonne santé du bâtiment autant que celle des occupants.

Pour oxygéner le bâtiment

Dès lors que le bâtiment est un tant soit peu étanche à l’air et que les appareils de combustion se trouve à l’intérieur du volume protégé, il devient nécessaire d’assurer l’alimentation en air et donc en oxygène du bâtiment pour permettre la combustion utile au système de chauffage.


Comment ventiler ?

Pour atteindre les débits d’air et les renouvellements d’air prévus par les normes ou ceux nécessaires afin de garantir le confort respiratoire et la santé des occupants et du bâtiment, un système de ventilation hygiénique de base doit prévoir :

  • une amenée d’air frais dans les locaux dits « secs » : bureaux, salle de réunion, salle de séjour, chambre…
  • une évacuation de l’air vicié et humide dans les locaux dits « humides » : sanitaires, vestiaires, cuisine, salle de bain…
  • un transfert de l’air des locaux secs aux locaux humides
  • une gestion efficace pour garantir les débits voulus tout en limitant les pertes énergétiques

Les locaux où l’air doit être fournit doivent donc disposer d’une alimentation en air et ceux où l’air doit être enlevé, d’une extraction. Celles-ci peuvent être naturels (simple ouverture vers l’extérieur) ou mécanique (équipée d’un ventilateur). Ceci donne lieu à une classification des systèmes de ventilation en 4 modes principaux :

Évacuation Alimentation
Naturelle Mécanique

Naturelle

Système A ou Ventilation naturelle Système B ou Simple flux par insufflation

Mécanique

Système C ou Simple flux par extraction
Système D ou Double flux

Les dénominations A, B, C et D proviennent de la norme NBN D50-001 qui traitent des dispositifs de ventilation dans les bâtiments d’habitation et sont donc propres au milieu résidentiel. Cette norme distingue également trois type d’ouverture nécessaire à la ventilation correcte des locaux :

OAR

Ouverture d’amenée d’air réglable ou entrée d’air naturelle comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (grille, vasistas, …).

OER

Ouverture d’évacuation d’air réglable ou évacuation naturelle d’air comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (conduit vertical), la position fermée laissant passer un débit de fuite de 15 à 25 % du débit en position complètement ouverte.

OT

Ouverture de transfert ou ouverture permettant le transfert naturel d’air entre deux locaux (grille, interstice sous les portes, …)

Quels types de ventilation ?

  • La ventilation naturelle se fait par les interstices (infiltration) et par les ouvertures (ventilation) du bâtiment. L’air circule sous l’effet du vent, des différences de températures et des jeux de pressions. L’ouverture des grilles, bouches ou fenêtres peut se faire manuellement ou mécaniquement.
  • La ventilation mécanique utilise des composants motorisés, ventilateurs, pour forcer la circulation l’air à l’intérieur du bâtiment. On parle de simple flux par extraction si le ventilateur sert à faire sortir l’air du bâtiment, de simple-flux par insufflation s’il sert à faire entrer l’air ou de double flux si le système combine les deux.
  • La ventilation hybride correspond à une ventilation naturelle assistée ou remplacée mécaniquement sur certaines périodes de fonctionnement.
  • La ventilation de base consiste à alimenter le bâtiment en air frais en permanence durant les activités normales.
  • La ventilation intensive est nécessaire en cas d’occupation et de besoins particuliers comme une surchauffe exceptionnelle, un ensoleillement intensif, des activités exceptionnellement polluantes, … afin que le climat reste dans des limites acceptables.

Exemple de ventilation naturelle – Cas de l’hébergement


© Architecture et climat 2023.

  1. Amenées d’air naturel
  2. Grille de transfert
  3. Bouche d’extraction
  4. Evacuation naturelle

L’air est introduit naturellement dans les chambres par des ouvertures en façade et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (pulsion) – Cas de l’hébergement

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Evacuation naturelle
  7. Bouche d’extraction
  8. Bouche de pulsion
  9. Grille de transfert

L’air est pulsé dans les chambres et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (extraction) – Cas d’une école

© Architecture et climat 2023.

  1. Amenée d’air naturelle
  2. Grille de transfert
  3. Gestion des débits
  4. Ventilateur
  5. Bouche d’extraction
  6. Conduit

L’air est introduit naturellement dans les classes par des ouvertures en façade et évacué mécaniquement (en tout ou en partie) dans les sanitaires.


Exemple de ventilation double flux – Cas d’un immeuble de bureaux

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Bouche d’extraction
  7. Conduits
  8. Grille de transfert

L’air est pulsé dans les bureaux évacué mécaniquement (en tout ou en partie) dans les sanitaires.

Grilles de transfert

Grilles de transfert

Les dispositifs de transfert de l’air sont nécessaires pour permettre le passage de l’air entre les locaux dans lesquels l’air neuf est amené et les locaux dans lesquels l’air vicié est évacué.


Grilles dans les portes intérieures

   

Grille de transfert à placer dans une porte.

Le débit nominal de la grille est mentionné dans la documentation des fournisseurs pour une différence de pression de 2 Pa. Les grilles de transfert ne peuvent pas être réglées. Elles sont généralement composées de lamelles obliques formant écran à la vue.

Différentes possibilités de vision au travers d’une grille.

Sur le plan acoustique, les grilles intérieures courantes entraînent une diminution considérable de la valeur d’isolation de la porte. Il existe toutefois des modèles qui ont une meilleure valeur d’isolation acoustique. Elles sont composées d’une chicane enrobée d’une matériau absorbant.

Ouvertures de transfert acoustiques.

Grilles de transfert acoustiques.

Coupe dans une porte munie d’une ouverture de transfert acoustique garnie d’un matériau absorbant.


Grilles dans les murs intérieurs

Les grilles peuvent être encastrées dans les murs intérieurs mêmes. Comme ces derniers ont habituellement une épaisseur plus importante, ce genre d’ouverture de transfert offre plus de possibilités sur le plan des performances acoustiques. En outre, leur encastrement est plus esthétique et moins visible. Elles peuvent être disposées derrière un meuble, un radiateur. Leur inconvénient est qu’elles doivent généralement être prévues lors du gros œuvre.


Fentes sous les portes

Des simples fentes sous une porte peuvent également servir d’ouverture de transfert. La section nette de la totalité des fentes doit s’élever à au moins 70 cm² par local. Lors de l’installation de la porte, il importe de tenir compte du parachèvement du sol pour qu’en final subsiste une ouverture suffisante. Par exemple, lorsque le sol doit être ultérieurement recouvert de moquette, l’épaisseur du tapis à prendre en compte pour déterminer la hauteur de la fente est au moins de 10 mm (attention cependant à ce que ce relèvement de la porte ne soit considéré comme une erreur de finition !).

Schéma fentes sous les portes.

Les performances acoustiques des fentes sous une porte sont assez médiocres. Par exemple, une fente de 10 mm de hauteur correspond à une diminution de l’isolation acoustique de 11 dB.


Grilles coupe-feu

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Pour répondre à cette exigence, il existe des grilles dont les lames sont composées d’un matériau intumescent. Les lames gonflent lorsque la température s’élève (de l’ordre d’une centaine de degrés), obturant ainsi l’ouverture et fournissant une résistance au feu de l’ordre d’une heure.

Grille coupe-feu.

Salle d'opération

Analyser les besoins thermiques : une salle d’opération

Salle d'opération

Facture globale de l’hôpital

Afin de pouvoir estimer l’importance de la climatisation des salles d’opération par rapport à la consommation globale d’un hôpital, il est nécessaire de se référer à quelques ratios.

Consommations électriques

Le graphe suivant montre la consommation moyenne électrique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 9,5 MWh/lit.an ou 1,9  GWh/200 lits.an.

Consommations thermiques

Le graphe suivant montre la consommation moyenne thermique annuelle du secteur.

(Source ICEDD).

Dans le cas considéré, la consommation annuelle est de 17,7 MWh/lit.an ou 3,5 GWh/200 lits.an.


Besoins thermiques de la salle d’opération

1. Hypothèses

Un hôpital moyen comprend 200 lits. D’expérience, le nombre de salles d’opération est environ de 2 par 100 lits, ce qui signifie que l’on prend comme base un hôpital avec 4 salles d’opération.

Voici les prix moyens du kWh prix en compte dans la simulation

  • électrique : 11 c€/kWh,
  • thermique : 3,25 c€/kWh.

2. Apports

Les salles d’opération sont de plus en plus isolées et se rapprochent du concept des salles blanches rencontrées dans l’industrie :

  • les apports externes sont limités,
  • de par le développement de l’imagerie médicale dans les interventions chirurgicales, les apports internes deviennent importants,
  • si un taux élevé de renouvellement d’air est jugé nécessaire à la garantie de l’hygiène de la salle, les débits sont importants.

En pratique, on distingue des apports :

  • quelquefois solaires,
  • souvent internes (luminaires, occupation, monitoring, imagerie médicale, etc.),
  • faibles des parois (positifs ou négatifs selon la saison),
  • faibles de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance). Le local est en principe mis en surpression (ce qui annule les infiltrations), mais un régime en dépression peut aussi être choisi si le patient est infecté.

Suite à ces faibles besoins, la température de l’air pulsé sera très proche de la température de consigne ambiante. Dans l’exemple étudié, une température de pulsion d’air (18°C) seulement 2 degrés plus froide que l’ambiance (20°) suffit pour reprendre les charges.

Proportionnellement, c’est donc la demande thermique liée à la préparation de l’air neuf pulsé qui représente la source majeure de consommation.

3. Bilan thermique

Dans ce qui suit, on établit, de manière théorique, les consommations des équipements de climatisation de l’air de la salle d’opération.

Cette climatisation de l’air est variable au cours de l’année suivant les conditions climatiques extérieures et intérieures. Pour cette raison, on considère le fichier météo d’une année climatique-type (sans canicule et froid sibérien) à Uccle, par exemple.

Chaque point de la courbe représente une heure de l’année pendant laquelle on a relevé la température et l’humidité. Les 8 760 points-heures qui composent l’année peuvent alors être placés dans le diagramme de l’air humide.

Le fichier météo est ensuite divisé en 5 zones distinctes.

Pour amener l’air extérieur à une température (18°C) et une humidité de soufflage fixe (égale à celle de l’ambiance), pour les différents points-heures extérieurs il est nécessaire de :

O préchauffer et humidifier,
O préchauffer,
O refroidir, déshumidifier et post-chauffer,
O refroidir et déshumidifier sans post-chauffer,
O refroidir et humidifier.

Suivant les débits d’air mis en œuvre, l’intégration des différences d’enthalpies entre les différents points-heures de l’année et les conditions d’ambiance des salles constituent la consommation annuelle du système de traitement d’air, par chauffage, refroidissement, humidification et déshumidification.

On considère que les salles fonctionnent selon le profil d’occupation suivant:

Lundi
Mardi
Mercredi
Jeudi
Vendredi
Samedi
Dimanche
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
8-18
18-8
O O O O O
O O O O O O O O O

avec les débits d’air neuf suivants :

O 4 500 m³/h
O 900 m³/h

Les résultats pour les 4 salles sont repris dans le tableau et le graphique ci-dessous.

Besoin énergétique électrique (kWh/an)

Jour Nuit WE Total

Total électrique

29 399

7 597

5 361

42 357

Pour 4 salles

169 428

Besoin énergétique thermique (kWh/an)

Total thermique

36 014

14 288

9 203

59 505

Pour 4 salles

238 020

Comparaison (kWh/an)

Total 4 salles 407 448
Total consommation de l’hôpital 5 400 000
Ratio des salles d’op. 7,5 %

Soit 7,2 % de la consommation totale de l’hôpital.

4. Bilan économique

Le bilan économique est synthétisé ci-dessous dans le tableau et sous forme de graphique :

Coûts énergétiques électriques (€/an)p

salles d’opération

13 511

hôpital

209 000

Coûts énergétiques thermiques (€/an)

salles d’opération

9 670

hôpital

113 750

Les coûts globaux des consommations énergétiques pour la climatisation de l’ensemble des 4 salles d’opération représentent 6 à 7 % de la facture énergétique de l’hôpital.

5. Conclusion

Les zones à risque de contamination élevé sont des postes consommateurs d’énergie importants. Les grands débits d’air neuf traités et le contrôle de l’humidité en sont responsables. C’est pour ces raisons qu’il est impératif, en conception nouvelle ou en rénovation, d’étudier l’alternative qui consiste à recycler l’air et à laisser varier l’humidité ambiante dans une plage qui respecte les normes et les règlements en vigueur.

Concevoir

Pour en savoir sur la gestion des débits.

Concevoir 

Pour en savoir plus sur le contrôle de l’humidité.

Les consommations électriques des ventilateurs

Plusieurs approches sont possibles.

> sur base de la puissance électrique installée des ventilateurs :

Cons. transportair [kWh/an] = Nbre jours/an x Nbre heures/jour x Puissance vent. [kW]

> sur base du ratio Wh/m³ transporté :

En fonction de la qualité du ventilateur et des pertes de charge du réseau (de faibles diamètres de conduits entraînent des vitesses et des pertes de charge élevées), on aura :

Puiss. transportair [kW] =  0,4 … à … 1,1 [W/(m³/h)] x débit horaire [m³/h] / 1 000

Cons. transportair [kWh/an] = Puiss. transp. [kW] x Nbre jours/an x Nbre heures/jour

> sur base des caractéristiques de conception du réseau :

La consommation électrique du (des) ventilateur(s) s’estime par :

Cons. transportair [kWh/an] = qx  Δp x h / (ηx 3 600 x 1 000)

où,

  • q= débit d’air transporté [m³/h]
  • Δp = pertes de charge (pulsion + extraction) [Pa]
  • h = durée de fonctionnement [h/an]
  • η= rendement total du système de transport de l’air (moyenne entre pulsion et extraction).
Soit pour quatre salles d’opération dont la perte de charge de dimensionnement est de 1 200 [PA] et qui tourne avec un rendement global de 0,65 :

  • 2 600 heures par an à 4 500 [m³/h] en période d’occupation,
  • 2 520 heures par an à 900 [m³/h] en période d’inoccupation de WE,
  • 3 640 heures par an à 900 [m³/h] en période d’inoccupation de nuit.

4 x (2 600 x 4 500 + 2 520 x 900 + 3 640 x 900) x 1 200 [PA] / (0,65 x 3 600 x 1 000) = 35 372  [kWh/an].

Soit de l’ordre de 35 372 / 5 400 000 = 0,6 % de la consommation totale de l’hôpital.

Afin de compléter notre propos concernant la ventilation d’une salle d’opération, voici un article portant sur la classification des filtres à air.

Luminaires intérieurs pour tubes fluorescents

Luminaires intérieurs pour tubes fluorescents


Luminaires ouverts à ventelles

Luminaires ouverts à ventelles droites

Les ventelles d’un luminaire ont pour but de limiter la vue directe des lampes à partir d’un certain angle de vision appelé angle de défilement. Le contrôle de la diffusion de la lumière par ces ventelles (dans le sens longitudinal du luminaire) et par le réflecteur (dans le sens transversal) déterminera la luminance du luminaire, c’est-à-dire sa brillance, pour chacun des angles sous lequel on le regarde. La norme EN 12464-1 spécifie l’angle de défilement minimum en fonction de la luminance de la lampe.

Luminaires ouverts à ventelles paraboliques (basse luminance)

Pour limiter l’éblouissement via les écrans d’ordinateur, les luminaires performants présentent une luminance moyenne faible pour des angles ϒ supérieurs à leur angle de défilement (voir illustration ci-après). Ils sont caractérisés par des optiques en aluminium équipées de ventelles symétriques et de forme parabolique. Celles-ci permettent un contrôle de la lumière qui évite les réflexions sur les écrans d’ordinateur verticaux ou légèrement inclinés ; ce que ne permettent pas des ventelles planes. On les appelle généralement luminaire « basse luminance ».

Pour les luminaires éclairant des postes de travail avec équipement de visualisation , la norme EN 12464-1 spécifie que pour des angles d’élévation supérieurs ou égales à 65°, la luminance moyenne des luminaires ne doit pas dépasser les valeurs reprises dans le tableau suivant, et ce en fonction de la luminance moyenne propre des écrans concernés :

État de luminance élevé de l’écran

Écran à haute luminance
L > 200 cd.m-2

Écran à luminance moyenne
L ≤ 200 cd.m-2

Cas A

(polarité positive et exigences normales concernant la couleur et le détail des informations affichées, comme pour les écrans utilisés dans les bureaux, pour l’éducation, etc.)

≤ 3 000 cd/m²

≤ 1 500 cd/m²

Cas B

(polarité négative et/ou exigences plus élevées concernant la couleur et le détail des  informations affichées, comme pour les écrans utilisés pour le contrôle des couleurs en conception assistée par ordinateur, etc.)

≤ 1 500 cd/m²

≤ 1 000 cd/m²

Contrôle de la luminance par des ventelles .

Comparatif ventelles plates et paraboliques .

Ventelle parabolique.

Il existe également des luminaires équipés de ventelles « crantées ou en sapin ». Ce ne sont pas, à proprement parlé, des luminaires « basse luminance ». Ils constituent un compromis entre les luminaires à ventelles planes et les luminaires à ventelles paraboliques.

Photo ventelles "crantées ou en sapin".

De plus, un luminaire présente souvent ce que l’on appelle des luminances de crête. Celles-ci, gênantes lorsque l’on travaille de façon intensive sur ordinateur, sont dues à la réflexion de la lumière émise par la lampe sur le dos des ventelles.

Luminance de crête.

Pour prévenir ces taches lumineuses, certains fabricants prévoient des ventelles dont le dos profilé réoriente la lumière réfléchie pour éviter tout éblouissement.

   

  

Exemples de ventelles profilées.

Attention ! Les luminaires de qualité médiocre présentent parfois des ventelles dont le dos n’est pas fermé ou peint en noir. Dans ce cas, les luminances de crête sont éliminées, mais au prix d’une importante perte de rendement !


Luminaires « lumière douce »

Diffusion de la lumière
avec un luminaire lumière douce.

Photo luminaire lumière douce.

Le luminaire dit « lumière douce » n’est pas à proprement parler un luminaire basse luminance. Son intérêt réside dans l’absence de point lumineux à forte luminance. Il est caractérisé par une luminance également répartie dans toutes les directions (de l’ordre de 1 500 cd/m²). Il est composé d’un diffuseur perforé et d’un réflecteur qui assure une diffusion uniforme de la lumière sur toute la surface du luminaire. Ce type de luminaire se rapproche d’un luminaire de type mixte (composante directe et indirecte) car une partie du flux lumineux est dirigée via le réflecteur vers les murs et le plafond, générant une répartition agréable de la lumière vers les parois du local.
Le rendement total de ce luminaire atteint 70 %. Il se divise en un rendement inférieur de 50 % et un rendement supérieur de 20 %.

Photo luminaire lumière douce.

Leur gros inconvénient est que le diffuseur (appelé aussi paralume) devient rapidement un réceptacle à poussières et insectes morts. Il demande donc un entretien fréquent (ou une protection anti-mouche mais cette protection diminue encore le rendement du luminaire).

      

Répartition lumineuse dans un local avec luminaires direct
et avec lumière douce.

Remarque : certains luminaires présentant un diffuseur fermé en plexiglass peuvent procurer un résultat similaire à celui de  luminaires « lumière douce » :

 


Luminaires fermés

Pour leur garantir un degré d’étanchéité (classe IP) ou de protection au choc (classe IK) plus important, le luminaire peut être fermé par un diffuseur ou protecteur translucide. Celui-ci peut être en :

Méthacrylate.

Polycarbonate.

Verre trempé.

Le polycarbonate injecté ou le verre trempé sont nettement plus résistants aux chocs (résistance supérieure à 6 joules) que le méthacrylate (résistance de l’ordre de 0,225 .. 0,5 joules).

De plus parmi les diffuseurs en polycarbonate, le polycarbonate injecté (moulé par injection) sera nettement plus résistant que le polycarbonate thermoformé (moulé par emboutissage), ce dernier ne permet pas non plus un contrôle optimal de la transmission lumineuse.

Le polycarbonate jaunit avec le temps s’il ne possède pas de protection contre les UV. Le méthacrylate et le verre ont, quant à eux, la réputation de ne pas s’altérer.
Contrairement au passé (anciens luminaires à diffuseur opalin), les luminaires fermés actuels peuvent présenter des rendements supérieurs à 70 %, voire 80 %.


Mode de pose

Encastré

Les luminaires à encastrer sont utilisés avec un faux plafond démontable.

Pour chaque type de luminaire, il existe différents modèles pouvant s’adapter à différents types et dimensions de faux plafonds.

Luminaires encastrés dans un faux plafond en dalles de laine de roche.

Luminaires encastrés dans un faux plafond fixe (ex : faux plafond en plaques de plâtre).

Dans les plafonds fixes, l’emplacement des luminaires doit être prévu dès la conception. En rénovation, les luminaires encastrés ne seront donc utilisés qu’avec des faux plafonds démontables (ou si le nouveau luminaire a les mêmes dimensions ou couvre l’ouverture dans le plafond).

Apparent

Les luminaires de type apparent sont utilisés avec tous types de plafonds.

En  rénovation, ils sont en principe utilisés lorsqu’on ne dispose pas d’un faux plafond, ou lorsque le faux plafond est fixe (ex : faux plafond en plaques de plâtre).

Suspendu

Photo luminaire suspendu.

Les luminaires peuvent être suspendus au plafond soit par des câbles, soit par des tubes qui contiennent en même temps l’alimentation électrique.

 Cas particulier : les rails industriels

Photo rails industriels.

On trouve chez les fabricants, des luminaires précâblés pouvant se raccorder par encliquetage immédiat sur des rails modulaires. Ils conviennent aussi bien pour les lignes continues de luminaires (luminaires disposés les uns derrière les autres, sans espace entre eux) que pour les lignes discontinues.

LuminaireRail2.jpg (9262 octets)

Il existe des rails précâblés permettant une commande individuelle ou par groupe de luminaires, grâce à des modules adressables intégrés.


Matériaux utilisés pour le réflecteur et les ventelles

Les matériaux utilisés influencent les caractéristiques photométriques des luminaires (rendement, luminance).

D’une manière générale, grâce à un meilleur contrôle de la diffusion de lumière, les optiques miroitées ont des rendements lumineux nettement supérieurs et présentent moins de risques de réflexion sur les surfaces brillantes que les optiques peintes (en blanc ou gris). En effet, les optiques mates présentent une surface ne contrôlant aucune réflexion. Elles sont de ce fait caractérisées par une luminance plus importante.

Parmi les optiques miroitées, on rencontre les réflecteurs spéculaires (aluminium poli ou brillanté), ou semi-spéculaires (aluminium satiné ou martelé). Pour les réflecteurs en tôle peinte en blanc ou en matériau plastique, on parlera de réflecteur diffusant.

    Schéma principe réflecteurs spéculaires, semi-spéculaires.    

Aluminium brillanté

Photo luminaires aluminium brillanté.   

L’aluminium brillanté offre la plus faible luminance propre. Cependant, les réflexions parasites de l’environnement dans le luminaire (on s’y voit presque comme dans un miroir) peuvent être désagréables. En outre, son encrassement est plus rapidement perceptible.

Aluminium martelé

Photo luminaires aluminium martelé.

L’aluminium martelé est surtout utilisé dans l’industrie, car il est nettement moins sensible à l’encrassement que les deux matériaux cités ci-dessus.


Le prix des luminaires

Il nous est IMPOSSIBLE de donner le prix d’achat du matériel d’éclairage.

Le prix remis par le fabricant ou le grossiste sera différent s’il s’agit d’une petite ou d’une grosse commande. Il sera fortement réduit pour un bon client ou pour un client qui représente un marché potentiel important. Il pourra aussi être fort avantageux si le fabricant, en concurrence avec une autre marque, veut absolument le marché.

Si le client n’a pas d’équipe pour placer l’installation, il fait alors appel à un installateur, qui, de la même façon, aura de meilleurs prix pour une marque plutôt que pour une autre.

Dans cette politique de marché, les seuls prix comparables sont les prix bruts.

Les fabricants ont des prix bruts sur lesquels ils accordent une remise. Cette remise peut atteindre 50 %. Chaque intermédiaire prendra sa part sur cette remise. Le prix résultant sera le prix net accordé au client. Suivant le nombre d’intermédiaires, la différence entre le prix brut et le prix net sera plus ou moins importante.

Note : Le prix des luminaires doit toujours être mis en parallèle avec les frais d’entretien et les frais de consommation électrique dans une vision globale d’utilisation.


Les luminaires pour chambre d’hôpital

Le plus souvent, l’éclairage des chambres est réalisé à partir d’une gaine murale à usages multiples (matériel standard et modulaire chez les fabricants). Ce qui facilite l’utilisation de divers dispositifs requis à proximité du lit :

  • éclairage général indirect,
  • éclairage direct de lecture,
  • éclairage d’examen obtenu en combinant éclairage de lecture et général,
  • éclairage de veille,
  • courants forts,
  • courants faibles,
  • fluides médicaux.

Des luminaires semblables existent également non intégrés dans une gaine technique générale. Ils comprennent seulement un éclairage général indirect et une liseuse. Ceux-ci s’adaptent à des centres d’hébergement tels que des maisons de retraite.


Les luminaires pour ambiance explosive

Photo luminaires pour ambiance explosive.  Photo luminaires pour ambiance explosive.

Les luminaires pour ambiance explosive, dénommés aussi -luminaires sont équipés pour éviter des températures excessives et l’apparition d’étincelles à l’intérieur ou sur le matériel électrique ou encore pouvant supporter une explosion interne sans transmission à l’ambiance environnante.

Ces luminaires utilisent par exemple des lampes fluorescentes spéciales à un seul contact électrique de chaque côté de la lampe et fonctionnant sans starter.

Les luminaires doivent répondre aux exigences de la norme EN 50014 et disposer d’un certificat de conformité délivré par un organisme agréé. Les différents modes de protection sont définis par les normes européennes EN 50019, 50018 et 50017. Chaque luminaire doit être spécifiquement adapté à l’ambiance particulière rencontrée (type de gaz ou de poussières déflagrantes rencontrés). Il faut donc vérifier auprès du fabricant si le luminaire choisi répond bien aux besoins spécifiques.


Protection contre les bris de lampe

Dans certains espaces fonctionnels, par exemple des cuisines industrielles, il est souhaitable, pour des raisons de sécurité et d’hygiène, de se protéger contre tout risque de projection provenant du bris d’une lampe.

Cette protection peut être réalisée par exemple grâce à un film synthétique entourant les tubes fluorescents. En cas de bris de la lampe, les morceaux ne s’éparpillent pas. Ces lampes avec film synthétique (PET) ne sont cependant pas recyclables.

Une alternative est de prévoir des luminaires fermés, équipés de sources recyclables (p.ex. lampes fluorescentes sans film synthétique).

Améliorer la maintenance de l’installation frigorifique

Mise au point de la production de froid : GB Aywaille.

Machine frigorifique

Température à la Basse Pression : T°(BP)

La mesure directe de la température d’évaporation est très difficile. On réalise plutôt la lecture de la basse pression BP au manomètre, que l’on traduit la température d’évaporation en fonction du type de fluide utilisé.

Pour connaître la température d’évaporation à partir de la mesure de la basse pression, voici une table de correspondance entre la température et la pression relative mesurée à l’aspiration de la machine frigorifique pour quelques fluides frigorigènes :

Température Pression relative [bar]

[°C]

R22 R134A R404A

R407c

– 30 0,64 0.08 1,07 1,36
– 20 1,43 0,31 2,05 1,79
– 18 1,62 0,43 2,30 2,02
– 16 1,83 0,56 2,56 2,25
– 14 2,05 0,69 2,82 2,50
– 12 2,28 0,84 3,09 2,77
– 10 2,52 0,99 3,39 3,05
– 8 2,78 1,15 3,69 3,34
– 6 3,05 1,33 4,01 3,65
– 4 3,33 1,51 4,36 3,98
– 2 3,63 1,71 4,63 4,32
0 3,95 1,91 5,09 4,68
2 4,28 2,13 5,59 5,06
4 4,63 2,36 5,89 5,46

Détente directe

En détente directe, pour un évaporateur à air, si l’écart entre T°évaporation et la T°air sortie évaporateur > 6 à 10 K, il y a encrassement ou prise en glace permanente et donc chute de rendement. Il est donc nécessaire de procéder à un nettoyage ou un dégivrage.
Si l’écart subsiste après l’opération de maintenance, il faut envisager l’extension de la surface de l’évaporateur.

Détente indirecte par boucle frigoporteur

En détente indirecte, pour un évaporateur à eau glycolée par exemple, si l’écart entre T°évaporation et la T°eau sortie évaporateur > 4 à 6 K, il y a encrassement et donc chute de rendement. Si l’écart subsiste après le nettoyage (en général, un détartrage à l’acide), il faut envisager l’extension de la surface de l’évaporateur.

Quelques réflexions …

La mesure / lecture de la température  peut être effectuée sur le circuit secondaire par thermomètre digital au niveau de doigts de gant par exemple.

On rappelle ici que l’augmentation, si possible, du point de consigne de la température du fluide caloporteur augmente le rendement.

Mesure prise à l’emplacement du thermomètre à aiguille
dont la précision est parfois sujette à caution…

La mesure des températures de départ et de retour de l’eau glycolée est une indication intéressante. En effet, si, à puissance maximale, l’écart est inférieur à 5 K, le débit d’eau peut être réduit (économie électrique + diminution du risque d’érosion).

Intensité absorbée par le compresseur

A puissance nominale, mesurées sur chaque phase, les valeurs du courant à la pince ampèremétrique doivent être peu différentes et proches ou inférieures à celles de la plaque signalétique. On peut forcer le régime de la machine frigorifique pendant cette mesure (en abaissant la demande à l’évaporateur, par exemple).

Quelques réflexions …

L’idéal dans ce domaine est toujours de comparer d’une année à l’autre… Donc il faut noter les valeurs mesurées.

Il vaut en général mieux de ne pas faire confiance aux ampèremètres présents sur la machine.

Pour des compresseurs à plusieurs étages, si l’on passe d’un premier à un second étage et que le courant ne bouge pas, c’est qu’il y a des clapets cassés.

Pression et température de condensation à la Haute Pression : T°(HP)

Action …

La mesure directe de la température de condensation, comme celle d’évaporation, est très difficile. On réalise plutôt la lecture de la haute pression HP au manomètre, que l’on traduit en température de condensation en fonction du type de fluide utilisé. À l’heure actuelle, la double indication (pression-température) est souvent inscrite sur le manomètre pour différents fluides frigorigènes souvent employés.

Température Pression relative [bar]

[°C]

R22 R134A R404A

R407c

16 7,10 4,01 8,80 8,27
18 7,58 4,34 9,3 8,81
20 8,08 4,68 10 9,38
25 9,42 5,61 11,6 10,91
30 10,91 6,66 13,3 12,60
35 12,55 7,82 15,2 14,46
40 14,35 9,11 17,3 16,50
45 16,33 10,53 19,6 18,75
50 18,49 12,10 22 21,20
55 20,84 13,83 24,8 23,87
60 23,40 15,73 26,78
65 26,17 17,80 29,94

Quelques réflexions …

La valeur de la pression varie suivant le système, sauf compresseur à vis : HP-BP = 10 bar.

La variation de la Haute Pression (le plus bas possible, suivant la technologie de fabrication) réduit la consommation électrique.

Ecart de température entre le condenseur et le fluide refroidissant : T°(HP)

Action …

Mesurer l’écart entre la température de condensation et la température du fluide refroidissant. Pour un condenseur air, l’écart entre la température de condensation et la température de l’air à l’entrée doit être de l’ordre de 12 à 15 K à pleine charge. A charge partielle, le delta T° doit diminuer proportionnellement.

Quelques réflexions …

Si ces écarts sont dépassés malgré un détartrage régulier, c’est que le condenseur est trop petit. Or toute augmentation de 1° de cet écart entraîne 3% de consommation en plus.

Pour connaître la température de condensation, lire la haute pression, et se référer tableau de correspondance température/pression du fluide frigorigène (Exemple pour le R22, R134a et R407, …).

Sous-refroidissement

Action …

Mesurer la température de ligne liquide (T°liq), à l’entrée du détendeur, au moyen d’un thermomètre de contact, puis la comparer à la température de condensation T°(HP), en déduite de la valeur de la Haute Pression.

Quelques réflexions …

Sauf pour les détendeurs à capillaire, le sous-refroidissement (qui est la différence T°(HP) – T°(liq)) doit se situer entre 5 et 7 K.

Une augmentation du sous-refroidissement augmente la puissance frigorifique de la machine frigorifique et son efficacité énergétique. Le travail du compresseur reste en effet constant alors que la plage d’évaporation s’accroît. Concrètement, pour une situation type donnée, on a observé 0,8% d’accroissement du COP par degré d’augmentation du sous-refroidissement pour du R-22 et 1%/K pour du R-134a (source : Le froid efficace dans l’industrie – Ademe- France). Si une faible valeur est rencontrée, c’est l’indication :

  • soit d’un manque de fluide frigorigène (fuite ?),
  • soit d’un encrassement du condenseur (mauvaise condensation, donc peu de liquide ?).

S’il s’agit d’un détendeur à capillaire (petites installations du type climatiseur), le sous-refroidissement doit être plus faible car à l’arrêt, il y aura égalisation des pressions Haute et Basse; donc du liquide pénétrera dans l’évaporateur; donc risque de coup de liquide au démarrage si la quantité est trop importante.

Surchauffe

Action …

Mesurer température d’aspiration (T°asp) au moyen d’un thermomètre de contact.

Quelques réflexions …

Pour les détendeurs thermostatiques, la différence entre la T°évaporation(BP) et T°aspiration à l’entrée du compresseur = 6 K à 8 K.

Pour les détendeurs électroniques, la différence entre la T° BP et T° asp = 3 K.

Une réduction de la surchauffe permet une augmentation de la puissance frigorifique, mais :

  • une surchauffe trop faible peut provoquer des coups de liquide au compresseur,
  • une surchauffe trop forte entraîne une usure prématurée des compresseurs par élévation de leur température de refoulement.

Température de refoulement

Action …

Mesurer la température à la sortie du compresseur.

Quelques réflexions …

La température dépend du fluide (pour un condenseur à air : 60 … 70°C). Il est bon d’avoir les données du fabricant.

Si la température de refoulement en sortie de compresseur est élevée, c’est peut être qu’il y a présence d’incondensables (air, eau). Il y a alors risque de dégrader rapidement l’huile…

Test : si la machine est à l’arrêt, le condenseur se met entièrement à la température extérieure (condenseur à air). En mesurant à ce moment la pression, elle doit correspondre à la valeur théorique correspondant à la température du fluide. Si elle est plus élevée, c’est le signe qu’il y a des incondensables dans le circuit (par exemple, un nettoyage à l’azote qui n’aurait pas été bien tiré au vide).

Autres tests

Aspect extérieur des compresseurs et organes associés

Traces de condensation (isolation défectueuse ou pas d’isolation).

A protéger si risque de corrosion avec fuites (eau ou frigorigène) – Éviter les risques de rejet de rouille à l’égout public, etc.

Corps d’évaporateur

Dégradation éventuelle de l’isolation (passage de vapeur d’eau) + absence de corrosion de la surface.

Risque de perforation à long terme avec perte de fluide frigorigène.

Clapets cassés ?

Il s’agit de 2 tests comparatifs à réaliser d’année en année :

  • La mesure du temps de « pump down ». C’est le temps en seconde entre l’arrêt de la vanne magnétique avant le détendeur et l’arrêt du compresseur sur la Basse Pression. Si ce temps s’allonge, c’est l’indication qu’il y a des fuites aux clapets.

 

  • La mesure du temps pour que les pressions s’équilibrent à l’arrêt de la machine. Si les clapets sont cassés, la Haute Pression descend très vite.

Type de frigorigène

Vérification du type de fluide utilisé : CFC , HCFC, HFC, autre …? R 11, 12, R 502 (CFC) interdits / R 22 (HCFC) interdit en 2015 ou avant.

Circuit du frigorigène

Absence de fuites (pas de traces d’huile au sol, corrosion de brasures, etc). Défaut d’étanchéité soupape, perte de fluide à l’atmosphère, dégradation remplacer la soupape si risque de rupture de la couche d’ozone si CFC, HFCF + frais de remplissage.

Bombe aérosol et détecteur électronique.

pH du fluide frigorigène

Couleur de l’indicateur d’humidité sur ligne liquide / test d’acidité sur échantillon d’huile. Si pH acide, vérifier l’étanchéité du circuit, réparer les fuites, changer l’huile, remplacer la cartouche du déshydrateur (ou en installer une) et tirer au vide (de préférence avec de l’azote « R »).

Résistance de carter

Durant l’arrêt des compresseurs à pistons, la température de carter doit être env. 40 °C. En fonctionnement, le carter ne doit pas être froid, il ne doit pas condenser et encore moins givrer. On admet qu’il doit avoir à peu près la température ambiante du local. S’il est trop froid, un réglage s’impose par le frigoriste. Si le carter n’est pas chauffé, risque de grippage au démarrage du compresseur, avec destruction du bobinage du moteur.

Compteurs d’heures (h) compresseurs ou groupe frigo

Existence du compteur (sinon à placer), vérification du fonctionnement + relevés. Période ± 3 000 h/an , valeur courante de 1 250 h à 1 800 h en non modulant.

Compteurs de démarrage (d) compresseurs

Existence du compteur (sinon à placer), vérification du fonctionnement + relevés. Si le total est supérieur à 6 000/mois, vérifier la régulation.

Dimensionnement du groupe frigorifique

Calculer le cycle moyen (h/d) c-à-d quotient des deux valeurs ci-avant. Cela ne fonctionne pas sur les appareils modulants (compresseur à vis, par exemple). Si la valeur est inférieure à 10 minutes, la puissance est à réduire dans la mesure du possible ou la régulation de mise en cascade est mal réglée (voir technologie appliquée).

Niveaux

Ils sont surveillés plus que mesurés. Ce sont :

  • le niveau de frigorigène dans la bouteille accumulatrice de liquide, dans les séparateurs basse ou moyenne pression,
  • le niveau d’huile dans le système d’alimentation en huile de compresseurs en parallèle,
  • le niveau d’eau dans le bac de rétention d’eau de la tour de refroidissement ou du condenseur « évaporatif ».

On contrôlera également :

La qualité de passage du fluide frigorigène dans le voyant liquide : il ne doit pas y avoir de bulles. S’il y a des bulles, cela traduit, dans la plupart des installations, un manque de fluide et donc probablement une fuite.

La présence d’humidité dans le circuit frigorifique modifie la couleur dans le voyant (dry = sec, wet = humide).

La présence d’humidité peut gravement endommager le groupe froid, notamment par la corrosion des vernis sur les enroulements.

Une fuite de fluide provoque un fonctionnement prolongé du compresseur (mais à puissance moindre) et des ventilateurs du condenseur. Le rendement est donc dégradé. Dans les 2 cas, un dépannage rapide par le frigoriste est nécessaire.

Quels paramètres enregistrer ?

Lorsqu’une régulation numérique est mise en place, la question des points de mesure à relever pour la maintenance se pose. Reprenons ici les recommandations citées dans l’ouvrage Le froid efficace dans l’industrie publié par l’Ademe. Elle est donnée à titre de check-list car encore faut-il disposer du temps pour analyser les résultats…!

Pressions

  • pressions du frigorigène : d’évaporation, de condensation, intermédiaire (dans le cas d’un cycle biétagé),
  • pressions différentielles d’huile des compresseurs,
  • pressions de refoulement des diverses pompes : de frigorigène (circuit noyé), de frigoporteur, d’eau, etc.

Températures

  • Du frigorigène : à l’entrée des compresseurs, à la sortie de ceux-ci, à la sortie de la bouteille accumulatrice de liquide, à l’entrée des régleurs, à la sortie des évaporateurs, etc.
  • Des milieux refroidis :
    • températures des chambres froides des cuisines collectives,
    • températures de bacs à liquides refroidis,
    • températures d’entrée et de sortie de l’évaporateur de la boucle d’eau glacée
  • Des milieux de refroidissement : températures d’entrée et de sortie d’eau du condenseur, température de l’air entrant dans un condenseur à air, etc.
  • Du carter du compresseur

Débits

La mesure du débit du fluide frigorigène est peu courante, et c’est souvent dommage, les quelques mesures pratiquées le sont sur l’eau. Le coût relativement faible des capteurs est certainement une explication.

États logiques

  • état de marche ou d’arrêt d’un compresseur,
  • état d’ouverture ou de fermeture d’un robinet électromagnétique ou d’une vanne motorisée,
  • fonctionnement ou non du dégivrage de tel évaporateur, etc.

États analogiques (ou numériques)

  • position, exprimée en fraction de charge, du tiroir de réglage d’un compresseur à vis,
  • degré d’ouverture d’un robinet motorisé, d’un détendeur,
  • nombre de cylindres en fonction dans un compresseur, etc.

Puissances ou consommations électriques

  • de machines sur lesquelles on fait porter l’attention, par exemple pour en optimaliser le fonctionnement : compresseurs, pompes, ventilateurs, etc.

Temps

  • temps de marche d’une machine en vue de l’homogénéisation du temps de fonctionnement de machines en parallèle, etc.

Exemples d’utilisation de ces mesures

  1. La connaissance des pressions et des températures d’entrée et de sortie d’un compresseur sont des indicateurs de son bon fonctionnement. Les valeurs nominales devraient toujours se trouver à proximité de l’équipement, car si la température de refoulement est plus élevée, il y a un risque que les clapets ne soient plus étanches, ce qui nécessite une intervention.
  2. À partir des températures et du débit d’eau traversant le condenseur à eau, on peut déduire la quantité d’énergie échangée. En y ajoutant la température de condensation du fluide frigorigène, on peut connaître le coefficient d’échange thermique du condenseur et le comparer à sa valeur initiale. Si elle décroît fortement, ce sera l’indication d’un entartrage ou de présence de boues à éliminer par un nettoyage de l’échangeur.

Aéro-refroidisseurs ou condenseurs à air

 

Nettoyage des batteries

Dans les condenseurs refroidis à l’air, le principal problème est le nettoyage des batteries, car le genre de construction de ces appareils ne prévoit presque jamais de filtres anti-poussières.

Il est donc nécessaire de dépoussiérer et enlever régulièrement les feuilles mortes et autres déchets, faute de quoi, le débit d’air diminuant, les qualités d’échange diminuent aussi, ce qui entraîne une diminution de la puissance frigorifique et une augmentation de la puissance électrique absorbée. Le serpentin peut être nettoyé à l’aide d’un compresseur à air ou à eau à basse pression (travail à réaliser de préférence par un frigoriste car les ailettes sont peu résistantes mécaniquement).

Une augmentation de 5 K de la température de condensation (suite à l’encrassement) entraîne une augmentation de consommation électrique de 10 à 15 %.

Corrosion

L’habillage de l’équipement contre la corrosion est à protéger pour retarder la mise au rebut et ainsi limiter la production de déchets.

Régulation

Vérifier la bonne régulation de la pression de condensation (enclenchement de la cascade de ventilateurs, pour contribuer à abaisser le plus possible la pression de condensation).


Déclenchements du compresseur par forte température extérieure

Si le compresseur déclenche de temps en temps par période de forte chaleur, c’est suite au pressostat HP (Haute Pression) : la condensation se fait à un trop haut niveau de pression.

Le frigoriste risque malheureusement de diagnostiquer une insuffisance de puissance de l’installation (ce qui est exact) et de proposer un remplacement par un compresseur plus puissant. Mais la nouvelle installation sera alors surpuissante toute l’année…

Si le fabricant l’autorise, il vaut mieux augmenter le seuil de pression de déclenchement du compresseur. La machine frigorifique pourra alors continuer à fonctionner, tout en donnant temporairement une puissance frigorifique plus faible que sa valeur nominale dans des conditions extrêmes de température. Attention toutefois qu’en froid alimentaire il est primordial de respecter les températures de conservation; ce qui signifie que le déclenchement HP ne doit pas se manifester pour des températures classiques en période chaude sous nos latitudes.

On étudiera également si ce n’est pas le condenseur qui est sous-dimensionné par rapport au compresseur : une augmentation de surface de condensation améliorera le rendement toute l’année. Cette situation n’est tolérable que peut de temps sachant qu’une puissance froid insuffisante pendant un laps de temps prolongé entraine la perte des denrées.

Lors d’une panne d’une cascade de compresseurs, on pourra soit redémarrer l’installation avec un seul compresseur (bénéficiant de l’ensemble de la surface du condenseur, il verra la température de condensation fortement diminuer), soit arroser le condenseur…!


Nuisances acoustiques

Si la nuisance sonore est surtout importante aux basses fréquences, il est possible que les machines tournantes (ventilateur du condenseur, moteur du compresseur,…) soient mal équilibrées.

Ce défaut s’accentue avec l’usure des équipements.

Deux solutions pour améliorer la situation :

Diminuer le niveau sonore [Climatisation]

Diminuer le niveau sonore [Climatisation]


Plan d’action

Évaluer sa situation

Évaluer

Après l’analyse de la situation sur le terrain, la logique à suivre est basée sur le type de bruit.

Repérer le type de bruit

Soit le bruit est aérien

Puisqu’il est produit par l’écoulement de l’air et les turbulences qui y sont liées, on peut envisager de réduire la source du bruit, par exemple en diminuant la vitesse du ventilateur, en améliorant l’écoulement dans les bouches, dans les coudes,…

À défaut, puisque ce bruit dispose d’un spectre développé surtout dans les hautes fréquences, il possible d’absorber le bruit par des matériaux fibreux : silencieux, parois de gaines absorbantes,…

Si ce bruit est transmis entre deux locaux, c’est l’isolation phonique de ces parois qu’il faut améliorer.

Soit le bruit est solidien (bruit d’impact)

Puisque ce sont les vibrations des équipements qui sont transmises, la diminution de vitesse permettra également de réduire les vibrations. Certaines sociétés de maintenance peuvent enregistrer les vibrations émises à l’arbre d’un ventilateur et dire si un balourd serait responsable du bruit en cause.

A défaut, on cherchera à couper toute transmission du bruit par le placement d’un matériau résilient entre l’équipement et son environnement : plots antivibratiles, manchettes souples, plancher flottant,…

Idéalement, c’est la coupure du matériau qui empêchera le mieux la transmission du son.

A défaut, il faudra interrompre le matériau dur par un matériau plus souple (dit « matériau résilient « )

Agir à la source du problème

Agir à la source :

  • Placer des supports antivibratiles
  • Limiter le bruit des pompes

Agir à la transmission :

  • Limiter la transmission sonore des tuyauteries
  • Améliorer l’acoustique des conduits d’air
  • Placer un silencieux

Agir au niveau des locaux :

  • Modifier la disposition des locaux
  • Réaliser le doublage acoustique des parois
  • Renforcer l’isolation acoustique des baies vitrées

Placer des supports antivibratiles

Photo supports antivibratiles.

Pour réduire la propagation des vibrations de certains appareils (compresseurs, ventilateurs,…) à la structure du bâtiment, on insère des supports élastiques antivibratiles.

L’ensemble « équipement-support » constitue un système « masse-ressort », soumis aux lois de la mécanique des vibrations, et disposant dès lors d’une fréquence propre.

Pour dimensionner correctement les plots antivibratiles, il faut connaître

  • la fréquence excitatrice liée à la vitesse de rotation du moteur,
  • la masse de l’équipement et sa répartition sur la dalle.

Schéma supports antivibratiles. - 01.

Schéma supports antivibratiles. - 02.

Schéma supports antivibratiles. - 03.

Pour une bonne efficacité, la fréquence propre du système antivibratile doit être 3 à 4 fois inférieure à la fréquence excitatrice. Dans certains cas il sera nécessaire d’alourdir la dalle sur laquelle sont fixés les équipements afin « d’écraser davantage les ressorts » et de garantir ainsi un meilleur amortissement des vibrations.

Exemple.

un ventilateur tournant à une vitesse de rotation de 1 500 tours/minute provoque des vibrations de 25 Hz (puisque rotation de 25 tours/seconde). Les plots devront être calculés sur une fréquence propre de 6 à 8 Hz.

En pratique, on rencontre

  • des ressorts, utilisés pour toutes les fréquences propres mais surtout lorsqu’inférieures à 8 Hz,
  • des plots à base de poudre de liège mélangée à un élastomère, pour des fréquences propres supérieures à 8 Hz
  • des plots à base d’élastomères, pour les fréquences propres supérieures à 12 Hz
  • un système de « dalle flottante », c.-à-d. la construction d’un socle de béton sur un matelas de laine minérale ou de mousse plastique souple, pour les fréquences propres moyennes ou aiguës.

Ce dernier système de dalle flottante est assez difficile à réaliser puisqu’en aucun endroit il ne peut y avoir de contact (raccords de mur, écoulement de sols, tuyauteries, conduits, …). Devant la nécessité d’exercer un contrôle quasi permanent durant les travaux, on préfère parfois la technique des éléments antivibratiles…! Ou alors, un contrôle de la qualité acoustique de la dalle est imposé à la fin des travaux.

Exemples de ponts phoniques par le tuyau d’écoulement et la plinthe.

En général, il sera fait appel à un spécialiste de cette question pour le dimensionnement correct des plots.


Limiter le bruit des pompes

Origines du bruit des pompes

  • Les bruits d’origine hydraulique : c’est la source de bruit la plus importante. On remarque l’effet de sirène qui est dû à l’interaction entre les aubes et les parties fixes. Ce type de bruit est le plus gênant dans les bâtiments, car il se produit dans une zone de fréquences audibles.Lorsque la pression disponible à l’aspiration de la roue est trop faible, un bruit de cavitation apparaît. Il faut dans ce cas veiller à faire fonctionner la pompe avec une pression à l’aspiration suffisante. Lorsque de l’air s’introduit dans le fluide, il se crée des turbulences et des écoulements bruyants au niveau de la pompe. Il faudra veiller à purger correctement le circuit.
  • Les bruits d’origine électromagnétique : ces bruits proviennent du moteur qui transmet des vibrations aux équipements et structures environnantes.
  • Les bruits d’origine mécanique : ces bruits apparaissent au niveau des garnitures mécaniques et des paliers de la pompe, on les appelle balourds. Ils proviennent généralement d’une erreur de montage, d’équilibrage ou d’une erreur de conception de la pompe.
  • Les bruits d’origine aéraulique : ces bruits proviennent du passage de l’air, nécessaire au refroidissement du moteur, dans le ventilateur de la pompe. Il peut s’agir dans certains cas de la source de bruit la plus importante d’une pompe. Le fabricant de pompes doit correctement calculer les grilles d’aspiration et de refoulement de l’air qui peuvent être des obstacles au bon écoulement de l’air et donc générer du bruit.

Transmission du bruit

Une pompe transmet du bruit par trois voies différentes :

  • Par voie aérienne : le moteur de la pompe émet un rayonnement acoustique qui se propage dans le local technique puis dans locaux occupés adjacents.
  • Par voie hydraulique : la pompe génère des variations de pression dans le fluide qui sont transmises le long des canalisations et rayonnent sur les structures environnantes.
  • Par voie solide : les vibrations émises par la pompe se transmettent par contact direct aux différentes structures.

Le niveau de bruit des pompes

Le niveau de puissance acoustique d’une pompe dépend principalement de sa conception, de ses conditions de fonctionnement (débit et pression) et de sa puissance électrique. Aucune norme ne spécifie les caractéristiques acoustiques des pompes.
Il est possible d’effectuer un calcul approximatif du niveau de pression acoustique à 1 m :

Lp = 48 + 10 log Pe [dB (A)]

où,

    • PE est la puissance électrique du moteur [W]

Mise en œuvre

  • Il faut limiter la vitesse du fluide dans la pompe à 1,5 m/s.
  • Il faut soigner la fixation de la pompe en mettant en œuvre un dispositif d’assise souple : placer la pompe sur une petite dalle flottante de 15 cm d’épaisseur, reposant sur des supports élastiques. La dalle flottante aura à peu près trois fois le poids de l’équipement.
  • Il faut équiper l’aspiration et le refoulement des pompes de manchons antivibratoires.

Manchon antivibratoire.

  • Il est également important d’entretenir les pompes, de lubrifier les paliers. L’usure de certaines pièces peut conduire à des vibrations génératrices de bruits.

Limiter la transmission sonore des tuyauteries

Empêcher la transmission des bruits de vibration

Il est utile de réaliser des raccordements souples entre les conduits (fluides, gaz, électricité…) et la machine qui vibrent, afin d’éviter non seulement la transmission des vibrations, mais également le risque de rupture.

Schéma transmission des bruits de vibration.

Pour diminuer la transmission des vibrations des tuyauteries aux parois, on peut introduire des coquilles isophoniques entre la tuyauterie et le collier de fixation. Il est également possible d’utiliser des colliers avec caoutchouc isophonique mais ceux-ci sont moins efficaces que les coquilles isophoniques.

Exemple : pour la fixation des tuyauteries d’eau glacée aux parois du bâtiment, il est de bonne pratique de réaliser les 3 premières fixations après la pompe avec des fixations anti-vibratoires.

Autre exemple : lors du placement d’un split-system, un soin tout particulier doit donc être apporté à la sélection de l’emplacement du condenseur et à son mode de fixation : une coupure élastique doit être prévue entre l’appareil et le mur de fixation afin d’empêcher de mettre en vibration la structure du bâtiment (l’appareil doit bouger lorsqu’on le secoue !). De même, les tuyauteries doivent être raccordées via des raccords flexibles.

Il est également possible de suspendre élastiquement une tuyauterie à un plafond.

Par contre, il faut éviter de placer des tuyauteries sur des parois légères ou les parois séparant les locaux techniques des locaux occupés.

Limiter les bruits de dilatation

Lorsque la force de dilatation des tuyauteries devient trop importante, des frottements apparaissent entre les canalisations et les colliers de support. Ce phénomène de dilatation provoque des claquements bruyants.

Recommandations :

  • Prévoir des points fixes et des compensateurs entre les points fixes.

Compensateur de dilatation.

  • Éviter de bloquer les canalisations à la traversée des parois.

  • En cas de problèmes, desserrer légèrement certains colliers.
  • Éviter les variations brusques de température dans l’installation, par exemple en utilisant des vannes à 3 voies en mélangeuses.
  • Placer des matériaux souples entre les colliers et les tuyauteries, et entre les fourreaux et les tuyauteries.

Diminuer la production de turbulences

Les vitesses admissibles dépendent du tracé et des accessoires utilisés. Si des vitesses élevées peuvent être admises dans les tubes droits, on doit adopter des vitesses plus réduites dans les coudes, les réductions.

Une installation peut créer des turbulences suite aux placements mêmes des équipements : tuyauteries à angle droit, vannes placées trop près les unes des autres,…

Ce deuxième type de raccordement sera de loin préférable.

La présence de bulles d’air dans les circuits est également nuisible, il faut doter l’installation de dispositifs comme purgeurs (manuels ou automatiques), pots de dégazage, séparateur d’air tangentiel.


Améliorer l’acoustique des conduits d’air

Garnir les conduits aérauliques de matériau absorbant

Un conduit provoque toujours une atténuation du son qu’il transporte. Mais celle-ci doit parfois être renforcée par le placement d’absorbants sur les parois internes : généralement, il s’agit de panneaux de laine minérale.

On choisira des panneaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène, dont l’épaisseur ne doit pas dépasser 0,1 mm sans quoi le pouvoir d’absorption est diminué.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Dès lors, on limitera si possible le placement de ces panneaux absorbants au droit des changements de direction (coudes) : c’est là qu’il y a le plus de réflexions de l’onde acoustique sur les parois et que l’absorption sera donc la plus efficace.

Remarque : la gêne acoustique dans un local est souvent due aux mauvaises dimensions des gaines calculées avec des vitesses d’air trop élevées. La question d’une diminution de la vitesse (et donc du débit d’air) doit être posée.

Alternative, on introduira un silencieux acoustique.

Insérer une gaine absorbante entre local et source sonore

Le placement d’une gaine permet l’absorption des bruits par les parois.

Exemple.

Dans un home, les occupants se plaignaient de la transmission du bruit d’une salle de bain à l’autre. Les investigations montrèrent que chaque salle de bain était équipée d’un ventilateur, l’air évacué aboutissant dans une gaine commune. Cette liaison permettait le passage latéral des sons amenant ainsi l’isolement entre salle de bain à 42 dB.

A la place d’un tuyau flexible courant entre le ventilateur et la gaine, on a installé un tuyau flexible amortisseur de bruit. Vu le peu d’espace disponible, on ne put obtenir une réduction que de [TEXTE MANQUANT] dB. La différence était cependant sensible…

Placement de manchettes de compensation

Photo manchettes de compensation.

De même pour éviter la transmission entre le caisson de traitement d’air et les conduits, on pensera au placement de manchettes souples de compensation de part et d’autre du caisson.


Placer un silencieux

Schéma principe du silencieux.

Le placement de silencieux permet d’absorber le bruit véhiculé par le réseau. Si nous en parlons seulement ici, c’est parce qu’il génère des pertes de charge et donc une consommation permanente du ventilateur… Toutes les autres mesures doivent donc être prises au préalable.

Les silencieux doivent encadrer la source sonore (généralement le ventilateur), tant du côté réseau que du côté prise d’air extérieur. Afin d’éviter que le bruit du local technique ne « rentre » dans la gaine après le silencieux, celui-ci sera placé à la sortie du local.

Notons que l’installation d’un silencieux peut être difficile à réaliser sur un réseau de gaines déjà entièrement monté. Les silencieux doivent être placés dans des longueurs rectilignes (trémies, faux plafonds en gyproc) qui sont parfois devenues inaccessibles du fait de l’architecture intérieure du bâtiment. On ne pourra donc pas toujours équiper correctement une installation bruyante déjà existante.

Idéalement, on choisira un silencieux à large bande spectrale, à faible perte de charge et à production de bruit (provoqué par l’écoulement interne de l’air) aussi faible que possible.

Règle de bonne pratique.
On dimensionnera le silencieux de telle sorte que la vitesse de l’air soit limitée à 10 m/s lors du passage entre les baffles acoustiques du silencieux. Si la section d’ouverture du silencieux est de …30 %… à …50 %…, cela induit que la vitesse faciale à l’entrée du silencieux devrait être de …3 m/s… à …5 m/s… environ.

Remarques.

  • Par défaut, on est parfois tenté de placer des silencieux exagérément dimensionnés (donc plus onéreux), qui génèrent tout au long de leur vie des pertes de charge et donc une consommation supplémentaire du ventilateur… Une mesure du niveau sonore existant et une évaluation du niveau à atteindre permettra de dimensionner le silencieux de façon nettement plus précise.
  • Dans le même ordre d’idée, il ne faut pas imposer à l’installateur de conditionnement d’air un niveau de bruit trop sévère dans les locaux, car l’installateur installera simplement un silencieux plus important à la sortie du groupe … et c’est l’installation qui consommera davantage, toute sa vie durant, suite aux pertes de charge excessives…

Modifier la disposition des locaux

De par la localisation des fonctions dans un immeuble, une grande part de l’isolement peut déjà se créer

  • disposition de locaux tampons entre locaux bruyants et locaux calmes (ex : couloir),
  • rassemblement des locaux bruyants (ex : locaux sanitaires et de services),

Dans un bâtiment existant, le déplacement du local de traitement d’air est difficilement réalisable, mais certaines réorganisations internes d’activité sont possibles.

Mais un bâtiment vit, des parois se déplacent,… les critères acoustiques peuvent parfois rentrer en compte dans le choix de la nouvelle disposition des locaux ?


Réaliser le doublage acoustique des parois

Si le son perturbateur est créé par du bruit aérien traversant une paroi, il est possible de doubler celle-ci. On pense tout spécialement aux locaux techniques dont on souhaiterait renforcer l’isolation par rapport au reste du bâtiment.

Si la faute correspond à une insuffisance des éléments de construction, il est possible d’améliorer la situation jusqu’à 10 dB environ, à l’aide d’un panneau rapporté (plafond suspendu constitué de plâtre dépourvu de joint, panneaux de carton-plâtre rapportés devant les parois). Pour que le doublage placé devant le mur puisse faire son effet de cloison double, on privilégiera une fixation indépendante et des joints élastiques. À défaut, une fixation par colle. Au pire une fixation par clous,…

Schéma doublage acoustique des parois.

Exemple.

Une paroi de séparation entre un local technique et un bureau était constituée d’un mur en briques modulaires de 17,5 cm enduit sur les deux faces. Son isolement acoustique initial (frein apporté par la paroi au passage du son) était de R = 48 dB. Le doublage au moyen de panneaux de carton-plâtre avec supports en profilés métalliques (pose indépendante du mur) a permis d’améliorer l’isolement jusqu’à 56 dB.


Renforcer l’isolation acoustique des baies vitrées

Si l’objectif est de se protéger d’un bruit extérieur (bruit de condenseur sur une plate-forme, par exemple), une amélioration de la qualité acoustique des baies peut être envisagée. Et le premier regard doit se porter sur l’étanchéité à l’air (davantage que sur la vitre elle-même). En effet, le bruit passe essentiellement par l’inétanchéité des joints. C’est ce qui fait la médiocre qualité des fenêtres coulissantes…

Le choix des travaux à réaliser sur les ouvertures d’un bâtiment dépend du niveau d’isolement acoustique que l’on désire obtenir.

Conservation des fenêtres existantes

Si l’on ne recherche pas un isolement de façade supérieur à 30 dB(A) et s’il n’y a pas d’entrée d’air spécifique en façade, il suffit la plupart du temps de mettre en place des joints d’étanchéité entre les ouvrants et les dormants.

Remplacement des fenêtres

Il existe une valeur seuil d’isolement au-delà de laquelle on doit changer les fenêtres, ce qui induit un surcoût important. Cette valeur seuil dépend de la surface des fenêtres. Elle se situe généralement aux alentours de 33 dB(A).

Une solution couramment adoptée consiste à conserver les anciens dormants en leur appliquant un traitement ou un renforcement éventuel. On pose alors une nouvelle fenêtre souvent en PVC, en fixant les nouveaux dormants sur les anciens, après la pose de joints préformés et, si nécessaire, l’ajout d’un joint en silicone. La nouvelle fenêtre est munie de double vitrage acoustique et d’une entrée d’air insonorisée. Cette technique a cependant l’inconvénient de réduire la surface vitrée. Ainsi, on obtient un isolement acoustique supérieur à 35 dB(A), à condition d’avoir effectué un traitement acoustique des bouches de ventilation et une mise en œuvre correcte.

Toutefois, pour certaines fenêtres particulières, le remplacement est indispensable quel que soit l’objectif d’isolement. Par exemple, pour une fenêtre coulissante, le simple changement des vitrages n’est souvent pas suffisant pour atteindre l’objectif d’isolement acoustique fixé.

D’autre part, pour les portes-fenêtres, les objectifs d’isolement sont plus difficiles à atteindre, même en cas de remplacement. En effet, la valeur de l’isolement acoustique d’une porte-fenêtre est en général inférieure à celle d’une fenêtre. On observe assez fréquemment un écart moyen de 2 dB(A). En effet, la surface de jointures, et donc de fuites possibles, est plus importante dans le cas d’une porte-fenêtre.

Photo baies vitrées.

Obtention d’un isolement de 40 dB(A) avec une seule fenêtre

L’obtention de cette valeur d’isolement nécessite toujours le remplacement des fenêtres par des fenêtres de très bonne qualité acoustique.

Le vitrage doit avoir un indice d’affaiblissement acoustique de l’ordre de 40 dB(A). Ce vitrage est obtenu à l’aide d’un feuilleté acoustique spécial. La menuiserie de la fenêtre doit comporter une triple barrière d’étanchéité entre l’extérieur et l’intérieur du logement pour les fenêtres en PVC. Un double rang de joints de bonne qualité doit être posé entre l’ouvrant et le dormant.

Pour une pièce aux dimensions standard, c’est-à-dire dont la surface est d’environ 25 m² , avec une fenêtre de 1,5 à 2 m² un isolement de 40 dB(A) est délicat à obtenir s’il y a une entrée d’air. Quelques précautions doivent alors être prises :

  • Les entrées d’air choisies doivent être insonorisées. La valeur de leur coefficient d’affaiblissement acoustique doit être la plus grande possible. Toutefois, il est difficile du trouver sur le marché des entrées d’air de faible encombrement, pouvant être placées dans la menuiserie, ayant une valeur du coefficient d’affaiblissement acoustique supérieur à 42 dB(A). La zone de fonctionnement de la bouche d’entrée d’air choisie doit permettre d’atteindre le débit nominal. En effet, certains systèmes intégrés dans une fenêtre ont une surface d’entrée d’air trop faible pour obtenir le débit nominal imposé par les systèmes d’extraction actuels.
  • L’étanchéité entre le gros œuvre et le dormant doit être de qualité. L’amélioration de l’étanchéité, obtenue par la pose d’un joint mastic de type silicone ou polyuréthane, augmente la valeur de l’isolement acoustique.
  • Il est utile de vérifier et de remettre en état les joints de façade des grands panneaux préfabriqués, surtout s’il y a des entrées d’air parasites.

Pose de survitrage

La pose de survitrage ne conduit pas à une amélioration significative de la performance acoustique. Dans certains cas, le gain obtenu par le survitrage peut atteindre de 2 à 3 dB(A). Il y a lieu de veiller à une bonne étanchéité entre le survitrage et la fenêtre. De plus, la présence de joints de qualité entre l’ouvrant et le dormant de la fenêtre est toujours nécessaire.

Pose de double fenêtre

C’est pratiquement la seule solution technique si l’on veut obtenir un isolement supérieur à 40 dB(A). La pose s’effectue le plus souvent au nu extérieur de la façade, avec ou sans conservation des volets existants. La nouvelle menuiserie est généralement de type vantaux coulissant, en aluminium ou en PVC. Cette solution permet d’atteindre, dans certaines configurations, des isolements proches de 50 dB(A).

Elle est également satisfaisante sur le plan thermique en hiver, mais présente cependant quelques inconvénients :

  • la difficulté de nettoyage, surtout de la face extérieure de la nouvelle fenêtre,
  • les difficultés d’ouverture de la nouvelle fenêtre et d’accès aux persiennes,
  • la nécessité de remplacer les éventuels volets existants, ce qui induit un surcoût important,
  • une certaine diminution de l’éclairage naturel,
  • la difficulté éventuelle d’obtenir les autorisations urbanistiques.

Il faut prohiber la pose d’entrées d’air insonorisées en regard l’une de l’autre pour limiter la création de pont phonique.

Fermeture de balcons et réalisation de loggias

La réalisation de loggias est unanimement appréciée en raison de l’amélioration très nette de l’isolation acoustique et de l’accroissement de la surface utile du bâtiment. Ce type de travaux est facile à réaliser. Mais, une loggia peut conduire à une surchauffe en été.

Le problème de surcharge de la structure et d’un surcoût important. L’aspect de la façade est alors complètement modifié.

21-08-2008 : comparaison du contenu ok ! [sylvie]
Dans la partie « Améliorer l’acoustique des conduits d’air », partie exemple, dernière phrase, le nombre de décibel n’est pas déterminé dans la partie source non plus (version 5).

Free-chilling

Free-chilling


Principe de base

Le principe de base est simple

Lorsque la température extérieure descend sous les 8 à 10 °C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête. Étudions cela en détail.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liée à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.
Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Schémas de réalisation

Différents systèmes de refroidissement par free-chilling sont possibles :

  • via un aérorefroidisseur à air spécifiqueDeux schémas sont possibles :
> Soit un montage en série avec l’évaporateur, où l’aérorefroidisseur est monté en injection (la température finale est alors régulée par la machine frigorifique, qui reste en fonctionnement si la température souhaitée n’est pas atteinte).

> Soit par un montage en parallèle avec basculement par une vanne à 3 voies en fonction de la température extérieure (aucune perte de charge si la machine frigorifique est à l’arrêt mais fonctionnement en tout ou rien de l’aérorefroidisseur).
  • via un appareil mixteCertains fabricants proposent des appareils qui présentent 2 condenseurs : un échangeur de condensation du fluide frigorifique et un aérorefroidisseur pour l’eau glacée, avec fonctionnement alternatif suivant le niveau de température extérieure (attention à la difficulté de nettoyage des condenseurs et aux coefficients de dilatation différents pour les 2 échangeurs, ce qui entraîne des risques de rupture).
  • via la tour fermée de l’installationDans le schéma ci-dessous, l’installation fonctionne sur base de la machine frigorifique. Lorsque la température de l’air extérieur est suffisamment froide, la vanne 3 voies bascule et l’eau glacée prend la place de l’eau de réfrigération du chiller. Dans une tour fermée, l’eau n’est pas en contact direct avec l’air extérieur; c’est un circuit d’eau indépendante qui est pulvérisée sur l’échangeur et qui refroidit par évaporation. Mais le problème de la protection au gel reste posé : il est difficile d’envisager de mettre du glycol dans tout le réseau d’eau glacée (échange thermique moins bon, densité plus élevée donc diminution des débits, …) .
  • via la tour ouverte de l’installationDans ce cas, l’eau glacée est pulvérisée directement face à l’air extérieur. Elle se charge d’oxygène, de poussières, de sable,… Ces impuretés viennent se loger dans les équipements du bâtiment (dont les vannes de réglage des ventilos !). Les risques de corrosion sont tels que cette solution est à proscrire.
  • via un échangeur à air placé devant les orifices d’aspiration d’une tour de refroidissement Ceci permet de réutiliser les ventilateurs de la tour mais crée une perte de charge permanente.
  • via un échangeur à plaques traditionnel L’échangeur se place entre le réseau d’eau glacée et le circuit de la tour de refroidissement. Cette solution est simple, elle minimise la présence du glycol dans le circuit de la tour mais, en plus de l’investissement à réaliser, elle entraîne un écart de température supplémentaire de minimum 2°C dans l’échangeur entre l’eau glacée et l’eau de la tour, ce qui diminue la plage de fonctionnement du refroidissement par l’air extérieur. C’est le choix qui a été fait au Centre Hospitalier du Bois de l’Abbaye.

L’installation de free-chilling au Centre Hospitalier du Bois de l’Abbaye

Monsieur Tillieux, gestionnaire technique de l’hôpital, avait conscience que des besoins de froid existaient durant toute l’année, donc également pendant l’hiver :

  • des cabinets de consultation installés dans les niveaux inférieurs à refroidir en permanence.
  • ainsi que des locaux techniques utilisant le réseau glacée en hiver (salle de radiographie, blocs opératoires, salle informatique,…).

Profitant de la rénovation d’une tour de refroidissement, il adopta la technique du free-chilling sur le circuit d’eau glacée. Il adapta également les émetteurs pour que ceux-ci puissent travailler au régime 12-17°C. Il favorisa le refroidissement nocturne des locaux, ce qui ne crée pas d’inconfort pour les occupants et valorise mieux le free-chilling puisque la température est plus basse la nuit.

En collaboration avec la société de maintenance, il adopta le schéma de principe suivant :

Le schéma de gauche représente le circuit classique de refroidissement de l’eau glacée dans l’évaporateur. L’eau du condenseur est refroidie dans la tour de refroidissement.

Schéma groupe frigo en fonctionnement.Schéma groupe frigo à l'arrêt et free-chiling.

Sur le premier schéma, le groupe frigo est arrêté et l’eau glacée est by-passée dans un échangeur. L’eau de refroidissement est envoyée directement dans la tour de refroidissement.

Un jeu d’électrovannes permet le basculement d’un système à l’autre, dès que la température extérieure descend sous les 8°C. Le dimensionnement de la tour a été calculé en conséquence.

Problème rencontré lors de la mise en route

Lorsque le système basculait du mode « free-chilling » vers le mode « machine frigorifique », celle-ci déclenchait systématiquement !

Pourquoi ? Un condenseur traditionnel travaille avec un régime 27/32°C par 10° extérieurs. Or en mode free-chilling, la température du condenseur est nettement plus basse. La pression de condensation aussi. Le détendeur ne l’accepte pas : il a besoin d’une différence de pression élevée (entre condensation et évaporation) pour bien fonctionner et laisser passer un débit de fluide frigorifique suffisant vers l’évaporateur. Le pressostat Basse Pression déclenche…

Solution ? Une vanne trois voies motorisée a été installée : lors du ré-enclenchement de la machine frigo, le débit d’eau de la tour était modulée pour s’adapter à la puissance de refroidissement du condenseur.

Quelle rentabilité ?

Faute d’une mesure effective, nous allons estimer l’économie réalisée par l’arrêt du groupe frigorifique de 300 kW. Si le fichier météo de Uccle annonce 3.550 heures sous les 8°C, on peut estimer que le refroidissement effectif se fait durant 2.000 heures.

Sur base d’un COP moyen de 2,5, c’est donc 120 kW électriques qui sont évités au compresseur. Une consommation supplémentaire de 5 kW est observée pour le pompage de l’eau au travers de l’échangeur et dans la tour. Soit un gain de 115 kW durant 2 000 heures. Sur base de 0,075 €/kWh, c’est 17 000 € qui sont économisés sur la facture électrique.

L’investissement a totalisé 60 000 €, dont moitié pour la tour fermée de 360 kW, le reste en tuyauteries, régulation et génie civil.

Le temps de retour simple est donc de l’ordre de 4 ans.

Séquences de régulation de la tour

  • si T° < 2°C, échange eau-air non forcé.
  • si 2°C < T°ext < 4°C, échange eau- air forcé.
  • si T°ext > 4°C, échange eau-air humide par pulvérisation.

Réduire les besoins d’eau chaude sanitaire

Réduire les besoins d'eau chaude sanitaire

Le technicien améliore sans cesse la performance,
et l’usager augmente sans cesse les besoins…


Réduire le temps d’utilisation

La réduction de la durée d’utilisation peut être directe : une robinetterie à fermeture automatique (= bouton poussoir) dans les installations publiques permet de diminuer drastiquement la consommation d’eau.

Elle peut être aussi indirecte : une robinetterie thermostatique peut entraîner un gain de temps par un réglage plus rapide de la température de l’eau mitigée.

Le réglage optimum du débit avant celui de la température

Il semble que le facteur numéro 1 de consommation d’énergie soit la quantité d’eau utilisée, avant la température. Donc il faut d’abord chercher à ce que le robinet fournisse juste le débit d’eau nécessaire, et dans un deuxième temps à ce que l’adaptation de la température souhaitée entraîne le moins de consommation d’eau chaude.

L’ergonomie des différents robinets mérite donc une attention particulière, au regard de l’occupation des mains de l’utilisateur. Dans certains cas, les mains étant occupées par un objet (lavage, …), il peut être utile de sélectionner une robinetterie dans l’ouverture est commandée par le genou ou le pied (pédale).

Mitigeur mécanique ou thermostatique ?

Le gain théorique du thermostatique est moins élevé qu’il n’y paraît car la qualité de l’appareil, la méconnaissance de l’utilisateur ou la mauvaise performance de la régulation d’eau chaude peut réduire l’avantage (étude du CSTB-France). Il semble que le mitigeur thermostatique de douche apporte surtout des économies lors du deuxième usage rapproché (rinçage, par exemple). Sur base d’un surcoût moyen de 45 €, le CSTB annonce un temps de retour de 4 ans dans un usage familial. En usage tertiaire, le temps de retour est donc nettement plus faible.

De plus, les thermostatiques intègrent une fonction de sécurité grâce à un bouton « stop » qui limite la température de l’eau mitigée en sortie à 38°C et permet ainsi d’éviter les risques de brûlure (très utile en milieu fréquenté par des enfants).

Pour augmenter les économies, certains thermostatiques sont équipés d’un bouton « éco » : un geste spécifique est nécessaire pour obtenir un débit plus élevé.

Photo bouton bouton "éco".

Une amélioration du confort

Le thermostatique amène un confort supplémentaire en terme de stabilité de température, même lorsque la production instantanée entraîne des fluctuations de température de l’eau chaude.

Le placement de mitigeurs thermostatiques est donc à recommander, mais sans oublier d’informer l’utilisateur de son usage.

Comportement des usagers

Il ne faut pas perdre de vue en effet que ces mélangeurs peuvent demander une sensibilisation de l’utilisateur.

Sont-ils au courant du budget de l’eau chaude du bâtiment (en moyenne 5 € par m³ ? Connaissent-ils le principe du mitigeur thermostatique ? …

Une sensibilisation des usagers sera toujours la bienvenue, en se rappelant que Coca-Cola nous bombarde toujours de publicité alors que nous sommes bien au courant de la merveilleuse saveur de ce breuvage. Ils connaissent l’effet de répétition.

A nous de nous en inspirer pour ne pas nous décourager dans nos campagnes !

Pour favoriser l’usage préférentiel de l’eau froide pour se laver les mains, il est plus aisé de n’ouvrir que l’eau froide avec un mélangeur qu’avec un mitigeur. Aussi, certains fabricants proposent des mitigeurs avec une manette un peu particulière. En effet, la tête céramique est conçue pour que la position centrale corresponde en fait à la position « pleine eau froide » au lieu de la position « eau mitigée ».


Réduire la pression

Une pression trop importante donne naissance à une vitesse excessive qui provoque une consommation importante, du bruit dans les canalisations et une fatigue prématurée des équipements (d’où un risque accru de fuites).

Le placement d’un réducteur de pression permet de réduire la pression à un niveau voulu. Il se place chaque fois que la pression statique d’alimentation dépasse 3 bars dans une adduction domestique (à l’entrée de l’installation, après le compteur).

Réducteur de pression d’eau.

En théorie, le gain en débit varie comme la racine carrée de la pression : si la pression chute au quart, le débit chute de moitié. Mais en pratique, si la pression est forte, l’usager réduit de lui-même le débit d’eau, si bien que l’économie est moins importante.

Remarque : attention au cas où la production d’eau chaude serait réalisée par un petit appareil gaz instantané. Il est parfois nécessaire d’avoir un débit d’eau suffisant pour enclencher le chauffage de l’eau et la réduction des pressions risquerait d’empêcher ce fonctionnement. On testera au préalable la sensibilité de l’appareil à ce niveau.

La protection des équipements contre les fortes pressions et donc la limitation des fuites est par contre bien réelle.

« Réduire la pression nous paraît essentiel, pour éviter le gaspillage, bien sûr ».

Réduire le débit

Remplacement des anciennes robinetteries

Les débits des anciennes robinetteries de puisage sont de 30 à 50 % supérieurs à ceux de modèles modernes. Les investissements consentis s’amortissent dans une période de 5 à 10 ans, suivant la fréquence d’utilisation. Si l’ancienne robinetterie n’est pas étanche, le temps de retour sera encore plus cour

On peut encore trouver des vieilles pommes de douches à …30… litres/minute. Un tel équipement sera remplacé par des pommes modernes du type …8… litres/minute.

Placement de mitigeur avec butée

Ce type de robinetterie s’utilise comme un mitigeur classique. Toutefois, un point « dur » ou une butée délimite les 2 zones de fonctionnement : une zone économique (de 0 à 6 litres/min environ) et une zone de confort (jusqu’à environ 12 litres/min).

Photo mitigeur avec butée.

Le surcoût de cette technique est négligeable et donc le temps de retour est immédiat.

Placement de « mousseurs »

Il s’agit d’un régulateur de débit qui réduit la section de passage en fin de robinetterie et/ou qui crée un mélange air/eau. Il participe en même temps à la performance acoustique du robinet. Il permet par exemple de réguler un débit maximum de 6 ou 8 litres/minute. Un mousseur revient environ à 5 €.

Photo "mousseurs".

Il reste à juger de l’opportunité de réduire le débit en fonction de l’usage : réduire le débit à un lavabo, oui, mais réduire le débit à l’évier de la vaisselle où le personnel mettra alors plus de temps pour remplir une casserole d’eau chaude, peut-être pas …

On rencontre aussi ce type de réducteur de débit dans des « douchettes économes » : soit une manette permet de réduire le débit, soit un effet de « nuage d’eau » est créé. Attention au fait que ce type de douchette peut accélérer le phénomène d’aérosolisation, et donc une sensibilité plus grande à la contamination par la légionelle.

Photo "douchettes économes".

Attention également au fait que ces équipements terminaux modifient la courbe de réglage en température. La mise en place d’une perte de charge supplémentaire diminue « l’autorité » de la vanne. Si l’évolution est au départ linéaire, la perte de charge finale limite la zone de réglage de la température sur une bonne partie de la plage angulaire.

Problème commun à tous ces équipements : le calcaire !

L’entartrage de ces équipements est un problème si l’eau est particulièrement chargée en calcaire. Un entretien régulier des équipements (vinaigre, produit de type « Viakal », …) ou un adoucissement de l’eau avant son chauffage peut être nécessaire.

Les douchettes avec picots sont donc à privilégier : un simple grattage des picots permet alors de décoller les dépôts.


Réduire les fuites

Dans la Région de Charleroi, une commune a placé tous ses bâtiments (administration, écoles, …) en télégestion par un installateur de la commune. Comme une entrée libre est souvent disponible sur le régulateur numérique de l’installation de chauffage, le signal du compteur d’eau de chaque bâtiment y a été greffé. Un suivi automatique était dont réalisé sur la consommation d’eau. Si deux jours de suite, la consommation de nuit était jugée anormale par l’ordinateur, le service technique de la commune en était informé.

Une diminution drastique de la consommation d’eau s’en est suivie, particulièrement dans les écoles !

La fuite d’eau la plus courante est liée aux WC. Elle est généralement visible par le filet d’eau liée au trop plein dans le réservoir. À défaut, il est possible de fermer le robinet d’arrêt pour observer si le niveau d’eau diminue dans le réservoir.

Mais elle n’entraîne pas de consommation énergétique. Il n’en est pas de même au niveau de certains équipements :

Mélangeur sensible aux impuretés

L’élément sensible est généralement la tête, qu’elle soit à clapet (attention au serrage trop fort lors de la fermeture) ou céramique (sensible aux impuretés). On détecte le problème par le goutte-à-goutte persistant, même lorsque le robinet est fermé.

Remplacement de la cartouche.

Idéalement, il faudrait poser un filtre en amont de l’installation pour éliminer les particules qui pourraient nuire au bon fonctionnement de la robinetterie.

Pour ce qui est du remplacement, une tête céramique coûte en moyenne 10 € et un joint pour une tête à clapet coûte en moyenne 3 €. On vérifiera l’état du siège pour faire un rodage éventuel.

Robinet d’arrêt

Les robinets d’arrêt sont également assez sensibles au tartre. Il est conseillé de les manœuvrer régulièrement (1 fois par mois) afin d’éviter l’apparition de fuites (généralement situées au niveau du joint presse étoupe) lors d’une action après une longue période sans manœuvre.

Groupes de sécurité des ballons électriques

Ces appareils doivent être situés à l’amont immédiat des ballons électriques qu’ils protègent. Ils permettent d’éviter une montée en pression à l’intérieur du ballon due à la dilatation de l’eau provoquée par une élévation de température. Des évacuations ponctuelles de petites quantités d’eau sont donc normales lors de la période de chauffage. Il faut par contre surveiller que la soupape ne soit pas bloquée en position ouverte à cause de particules de tartre. L’évacuation automatique vers l’égout peut masquer longtemps ce problème…

Si tel est le cas, il faut vidanger le ballon pour procéder au nettoyage ou au remplacement du groupe.

D’une manière générale, il est conseillé de les manœuvrer régulièrement pour éviter le risque d’entartrage (1 fois par mois).

« Repassage » de l’eau froide dans l’eau chaude

Il arrive régulièrement que lors d’une défectuosité de la tête des mitigeurs ou des mélangeurs, l’eau froide, pour une question de pression, passe dans la conduite d’eau chaude et refroidisse la boucle d’eau chaude (présente dans le tertiaire). Il s’ensuit :

  • Une augmentation de la consommation d’énergie pour rattraper la perte de température de l’eau chaude.
  • Un risque de prolifération des légionelles vu que la température de la boucle d’eau chaude risque de se trouver dans la zone de température de développement optimal des méchantes bestioles (25-45°C).

Pour pallier à ce problème, il y a lieu d’essayer d’égaliser les pressions d’eau chaude et froide à tous les étages du bâtiment et d’essayer de détecter les émetteurs défectueux (en général, la sous-boucle d’eau chaude devient de plus en plus froide au fur et à mesure des soutirages d’eau chaude par les émetteurs voisins à celui défectueux).


Supprimer l’eau chaude dans les sanitaires de bureaux

Dans la conception des immeubles récents, il est très fréquent de ne plus apporter d’eau chaude dans les sanitaires des espaces bureaux, logistiques, où l’activité est peu salissante.

Alors, pourquoi ne pas déconnecter les installations existantes ?

Si de plus une boucle de circulation est associée à ce réseau, une économie très importante s’en dégagera.

Si l’option est prise de déconnecter l’eau chaude d’un point de puisage, attention toutefois à la création de bras mort où des foyers de légionelles peuvent se développer.

Il est impératif d’appliquer l’une des deux méthodes suivantes :

Conservation de la conduite d’amenée d’eau chaude

Le placement d’une vanne de sectionnement le plus près possible du collecteur d’eau chaude ou de la boucle secondaire (si présente) permet d’éviter la création d’un bras mort tant redouté.

Enlevement de la conduite inutilisée

La suppression pure et simple de la conduite d’alimentation en eau chaude du point de puisage paraît excessive (coûts important). En effet, il faut :

  • de toute façon vidanger une partie de l’installation et placer une vanne de sectionnement;
  • enlever la conduite depuis le point de puisage jusqu’à la vanne d’arrêt.

Cependant, dans les grandes installations sanitaires, le démantèlement ordonné des conduites des points de puisage permet de garder une certaine clarté par rapport à la maintenance du réseau hydraulique (à étudier au cas par cas selon la modularité de l’activité tertiaire).

De toute façon, quelle que soit la méthode adoptée, il faut utiliser un code de repérage à la fois sur site et sur les plans hydrauliques de manière à garder une situation bien à jour.

Améliorer la production d’eau chaude sanitaire

Renforcer l’isolation du ballon de stockage

Autrefois, comme mesure d’économie d’énergie, on aurait proposé de diminuer la température de l’eau pour limiter les pertes de tout le réseau. Passer de 60°C à 45°C permet de diminuer les pertes de l’ordre de 30 %. De plus, avec des températures d’eau inférieures à 60°C, les risques d’entartrage et de corrosion diminuent fortement.

Mais la gestion de la légionelle impose aujourd’hui de privilégier un stockage à une température minimale de 60°C, surtout si des douches sont présentes sur le réseau (la légionelle se transmet par inhalation de micro-gouttelettes).

Tout particulièrement, on examinera si le fond du ballon est isolé (parfois l’isolation ne couvre que les parties verticales), car à cet endroit, la stagnation d’eau tiède est propice au développement de la bactérie. Une isolation urgente s’impose

A priori, un stockage à haute température ne génère pas en soi une consommation énergétique élevée… pour autant qu’une isolation renforcée limite drastiquement les pertes.

Évaluer

Pour plus d’infos sur la rentabilité de l’isolation d’un ballon accumulateur.

Concevoir

Pour plus d’infos sur le choix de l’isolation d’un ballon accumulateur. !

La mise en œuvre nécessite un certain soin. Dans une campagne de mesures sur site, l’EDF a constaté que les pertes réelles dépassent souvent le double de la valeur obtenue par calcul théorique. La mise en œuvre pas toujours aisée de l’isolation en jaquette souple génère des courants convectifs non contrôlés (c.à.d. un effet de cheminée entre le ballon et l’isolant). Le calorifuge sous tôle galvanisée est plus hermétique.

Et les pertes augmentent avec le vieillissement de l’isolant.

L’intention de départ était louable…


Améliorer la stratification des températures

Il est difficile d’améliorer la stratification des températures dans un ballon existant (voir techniques d’évaluation de la stratification). En pratique, une intervention ne se justifie que dans un cas assez critique : celui d’un ballon placé horizontalement.

Il est cependant également possible de renforcer l’isolation des tuyauteries de raccordement et de la boucle de circulation, pour limiter les thermo-circulations d’eau parasites.


Réduire le volume du réservoir d’eau chaude

Lorsque la capacité des ballons est trop élevée et qu’il en existe plusieurs, la mise hors service d’un ballon est alors justifiée pour limiter les pertes par les parois.


Si une telle situation se rencontre systématiquement en fin de journée,
il y a intérêt à couper l’alimentation du 3ème ballon.

Calculs

Pour évaluer les pertes énergétiques d’un ballon non utilisé.

Concevoir

Pour dimensionner l’installation nécessaire,

Décentraliser la production d’eau chaude

Pour 2 litres d’eau utiles, 4 restent dans la tuyauterie…

S’il existe des points de puisage à faibles besoins et forts éloignés de la production centrale, il peut être avantageux de prévoir des petits chauffe-eau individuels : soit des instantanés gaz, soit des petits accumulateurs électriques. Cela permet d’augmenter le confort (diminution du temps d’attente) et de diminuer les pertes (pertes de l’eau chaude « qui reste » dans les tuyauteries).

Évaluer

Pour évaluer la rentabilité de la décentralisation.

Produire près du consommateur…

L’arrivée des préparateurs instantanés gaz avec cheminée « ventouse » permet aujourd’hui de reposer la question de l’emplacement du préparateur d’eau chaude sanitaire. Production en centrale de chauffe en sous-sol, à grande distance des utilisateurs, avec une chaudière surdimensionnée en été ? Ou au contraire, des préparateurs décentralisés proche des points de soutirage. On peut sans danger faire circuler une conduite de gaz dans le bâtiment.

On peut ainsi imaginer, lors d’une rénovation du système, que des productions différentes soient réalisées pour des groupes d’utilisateurs différents (un réseau « cuisine et buanderie », un réseau « sanitaires », par exemple). Cela permet notamment de générer des réseaux avec des températures différentes.

Il est également possible de disposer d’accumulateurs électriques décentralisés. Mais attention, dans le bilan, on tiendra compte qu’il s’agit souvent de courant électrique de jour (dont le prix du kWh est 2 à 3 fois plus élevé que le prix du kWh thermique…), sauf si une horloge est placée sur son alimentation.

...mais multiplier la puissance installée.
La décentralisation apporte un inconvénient : la puissance de chauffage totale à installer sera augmentée puisqu’en chaque lieu de puisage, on doit prévoir le débit d’eau maximum. Lorsque l’installation est centralisée au contraire, un effet de foisonnement a lieu. Par exemple, un ballon de stockage centralisé fournira l’eau des douches à un autre moment que l’eau de la vaisselle : les volumes à stocker ne doivent pas être additionné.


Placer un capteur solaire à eau chaude

La pose des capteurs solaires pour préchauffer l’eau chaude sanitaire est aujourd’hui une technique qui est arrivée à maturité; maturité technique et financière.

Les applications solaires les plus intéressantes économiquement se retrouvent parmi les établissements consommant de grandes quantités d’eau chaude : les hôpitaux, les piscines et les établissements d’accueil social (maisons de repos, centres d’accueil pour personnes handicapées, …), les internats, grands hôtels, centres de vacances, immeubles de plus de 15 logements, restaurants d’entreprise,…

A tout le moins, si une rénovation de la production d’eau chaude sanitaire est à l’ordre du jour, si une toiture plate ou à inclinaison sud est disponible, une étude de préfaisabilité s’impose. Des petits logiciels Excel vous permettent de faire le point rapidement.

Concevoir

Pour plus de détails sur les coûts, la rentabilité d’un projet, les outils d’aides à la décision.

Études de cas

Pour parcourir un exemple audit solaire établi pour le home La Charmille à Gembloux.

De nouveau, on prendra en compte que le chauffage de l’eau chaude sanitaire par un système solaire risque de ne pas être suffisant pour élever la température moyenne de l’eau sanitaire à une valeur suffisante (55-60°C) afin d’éviter de se trouver dans la plage de prolifération des légionelles. Il est donc nécessaire de considérer les systèmes solaires comme un moyen de préchauffage de l’eau sanitaire en complément d’une production classique.


Produire l’eau chaude avec une pompe à chaleur ?

Il est possible de produire de l’eau chaude sanitaire au moyen d’une pompe à chaleur. Différentes technologies sont possibles. De la chaleur « gratuite » sera extraite d’une source (air extérieur, nappe phréatique, …) et sera communiquée au ballon d’eau chaude.

L’avantage est mesuré par le COP (Coefficient de Performance) de la pompe à chaleur : un COP de 3 signifie qu’il faut donner 1 kWh électrique au compresseur pour fournir 3 kWh de chaleur dans le ballon d’eau chaude. Au passage, 2 kWh auront donc été pompés sur la source.

Rentabilité du projet ?

Une telle amélioration est surtout rentable si la situation de départ est une installation de production d’ECS électrique. La consommation électrique pourra être divisée par le COP. Ainsi, dans le programme de promotion des économies d’énergie suisse « Ravel », on annonce un COP annuel de 3 pour une pompe à chaleur Air-Eau et de 4,5 si la pompe capte l’énergie dans le sol (ce dernier chiffre nous paraît exagéré puisqu’une campagne de mesure faite par l’Université de Mons sur des installations de chauffage de bâtiments révèle des COP annuels de l’ordre de 2,5 à 2,9).

Mais attention, ces chiffres ne s’appliquent que si le chauffage de l’eau est limité à 50°C. Si le stockage est prévu à 60°C, une batterie électrique doit fournir le complément avec de l’électricité directe (–> COP = 1); ce qui est le cas lorsqu’on considère qu’une température de production d’eau de 60 °C est nécessaire pour éviter la prolifération des légionelles.

Imaginons le chauffage d’1 m³ de 10 à 60°C par une pompe à chaleur air-eau.

L’énergie nécessaire au chauffage de 10 à 50°C par la PAC sera de :

Énergie = 1 m³ x 1,163 kWh/m³ x (50 – 10) / 3 = 15,5 kWh

L’énergie complémentaire pour passer de 50 à 60°C sera de :

Energie = 1 m³ x 1,163 kWh/m³ x (60 – 50) = 11,6 kWh

Le COP moyen annuel est alors de :

COP = Energie produite / Energie fournie
= [1 m³ x 1,163 kWh/m³ x (60 – 10)] / [15,5 + 11,6]
= 2,15

On sera donc très attentif aux instructions fournies par le constructeur. Ceci d’autant plus qu’il n’existe pas de standard de mesure des performances d’une PAC, du moins pour en évaluer son rendement saisonnier. Il faut bien analyser

  • Pour quelle température de la source le COP est fourni ?
  • Jusqu’à quelle température l’évaporateur peut extraire la chaleur de la source ?
  • Jusqu’à quelle température le condenseur peut chauffer le ballon ?

On aura également tout intérêt à conserver une température d’eau dans le ballon la plus basse possible (45°C par exemple). Mais ceci suppose un réservoir suffisamment grand. Par ailleurs, cela peut aller à l’encontre de la protection anti-légionelle. Au minimum, on prévoiera une montée temporaire de chauffage à 70°C par une résistance électrique toutes les semaines ou tous les 15 jours.

Sources particulières

Le placement d’une pompe à chaleur doit surtout s’envisager s’il existe une source particulière de chaleur disponible dans le bâtiment (air extrait ? process ? four ?…). Par exemple, refroidir (et déshumidifier par la même occasion) une buanderie surchauffée et produire ainsi de l’eau chaude sanitaire : coup double !

Il faut par contre éviter de placer une pompe à chaleur pour « récupérer la chaleur disponible en cave » :

  • D’abord, parce qu’il est plus logique d’éviter les pertes qui sont à l’origine de cette chaleur (chaudière, tuyauteries, …) que de les récupérer (il suffira d’ailleurs de changer de chaudière pour perdre la source !).

 

  • Ensuite, parce qu’un niveau de température élevé ne traduit pas forcément une quantité de chaleur importante (cela peut traduire une mauvaise ventilation de la cave, par exemple).

 

  • Enfin, parce qu’une partie de cette chaleur est déjà récupérée par le plancher du rez de chaussée.

Concevoir

Pour plus d’info sur le choix et la mise en place d’une pompe à chaleur pour la préparation d’eau chaude sanitaire.

Désolidariser chauffage de l’eau chaude et chauffage du bâtiment ?

Dans certaines installations, le chauffage de l’eau chaude sanitaire est combiné au chauffage du bâtiment.

L’eau chaude sanitaire est alors un utilisateur au même titre que la batterie de chauffe du groupe de préparation d’air. Elle bénéficie du rendement de production saisonnier de l’ensemble, ce qui est bénéfique.

En dehors de la période de fonctionnement du chauffage, la question se pose de l’opportunité de découpler ce système et de passer, par exemple, à un système de production d’eau chaude indépendant à l’électricité ?

Il est difficile de trancher ce débat dans l’absolu. Voici les arguments de part et d’autres.

Arguments favorables au découplage

Le rendement de production de l’eau chaude sanitaire peut se dégrader en été :

  • si la chaudière est maintenue en température en permanence sur son aquastat,

 

 

  • si la chaudière est beaucoup trop puissante par rapport aux besoins de l’eau chaude sanitaire (les cycles de fonctionnement du brûleur seront courts et les démarrages fréquents, ce qui est synonyme de mauvaise combustion),

 

  • si l’ensemble du réseau primaire doit être maintenu en température uniquement pour le chauffage de l’eau sanitaire.

Un rendement inférieur à 20 % est alors tout à fait possible…

On peut envisager la possibilité de greffer une résistance électrique sur le ballon accumulateur. Tout particulièrement si les besoins d’eau chaude sont faibles (mais peut-être qu’alors un simple ballon près de la cuisine suffit ?).

En rénovation, tout dépendra des performances de la production combinée existante.

Par exemple, l’association CEDICOL a réalisé une mesure sur site (source : magazine « L’entreprise », mars 90) dont il ressort un rendement saisonnier annuel de production d’eau chaude de 71 % et un rendement d’été de 49 % :

La production de cette installation domestique est, en été, de 186 litres d’eau chaude par jour.

L’installation comprend une chaudière au fuel de 27 kW alimentant un ballon de stockage de 160 litres. La chaudière est régulée en température glissante avec une priorité sanitaire. Cela signifie qu’entre deux demandes du ballon, la chaudière redescend en température.

Durant l’été 88, la chaudière à consommé 189 litres de fuel (soit 1 880 kWh) pour produire 24 180 litres d’eau chaude (soit 939 kWh). Le rendement de production en été est donc de 939 / 1 880 kWh = 49 %.

Pour l’ensemble de l’année, le système produit 42 150 litres d’eau chaude avec un rendement saisonnier de 71 %.

Séparer la production d’eau chaude en été, et produire cette dernière au moyen de l’électricité permettrait de gagner :

1 880 [kWh] x (1 – 49 % / 93 %) = 890 [kWh]

Le gain financier est de :

  • Facture d’été en production combinée : 189 [litres] x 0,2116 [€/litres] = 40 [€]
  • Facture d’été en production séparée électrique : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Perte : 4 [€/an]

On se trouve dans la situation la plus favorable de production combinée, avec une chaudière fonctionnant en température glissante. Dans le cas d’une ancienne chaudière restant à température constante tout l’été (de 70°C, par exemple), il n’est pas rare d’avoir des rendements de production inférieurs à 20 % en été !

Dans ce cas, le bilan serait alors le suivant :

  • Consommation en fuel d’été : 1 880 [kWh] x 49 [%] / 20 [%] = 4 606 [kWh] ou 460 [litres fuel]
  • Gain énergétique : 4 606 [kWh] x (1 – 20 % / 93 %) = 3 616 [kWh]
  • Facture d’été en production combinée : 460 [litres] x 0,2116 [€/litres] = 97 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Gain : 53 [€/an]

La solution du ballon électrique est cependant à éviter s’il existe une boucle de circulation mal isolée générant des pertes permanentes élevées :

En effet, l’eau froide de retour perturbe la stratification des températures dans le ballon. Plusieurs situations peuvent se produire : soit l’eau chaude n’est plus assurée, soit le thermostat s’enclenche pour réchauffer le ballon, soit un réchauffage de boucle maintient la température à son niveau. Mais ceci génère un chauffage électrique de jour assez coûteux.

Arguments favorables au maintien de la production combinée

Si la chaudière est suffisamment performante, la question du maintien de la production de chaleur combinée se justifiera la plupart du temps. Après tout, le prix de l’énergie électrique est double de celui de l’énergie thermique, en moyenne.

On peut dès lors envisager des alternatives :

  • La première est de limiter au maximum la puissance de chaudière utilisée :
    • vérifier le bon fonctionnement en cascade des chaudières et en particulier des vannes d’isolement motorisées des chaudières,
    • si les chaudières ne sont pas équipées de vannes d’isolement motorisées, mettre les chaudières inutiles en été à l’arrêt et fermer manuellement leur vanne d’isolement,
    • vérifier la bonne régulation des allures de brûleur de manière à favoriser le fonctionnement de la chaudière en petite puissance.
  • La deuxième consisterait à fractionner la puissance de chauffe et à installer une petite chaudière en cascade dont la puissance convient pour le chauffage de l’eau chaude sanitaire en été. Elle sera utile également pour les relances de début de journée en mi-saison, évitant ainsi la mise en température de la chaudière principale.
Exemple théorique.

Comparons les pertes d’une installation combinée et d’une chaudière propre à la production d’eau chaude sanitaire.

Hypothèse : il s’agit d’une installation équipant un home pour personnes agées. La consommation globale en eau chaude du bâtiment est estimée à 1000 m³ d’eau à 60°C par an. Le besoin énergétique pour chauffer cette eau est de :

1,16 [kWh/m³.°C] x 1000 [m³/an] x (60 [°C] – 10 [°C]) = 58 000 [kWh/an]

dont 38 400 [kWh/an] durant la saison de chauffe et 19 600 [kWh/an] en été.

Installation combinée : une chaudière de 650 kW moderne ayant un coefficient de perte à l’arrêt (à 70°C) de 0,3 % de la puissance chaudière. Cette chaudière reste en permanence à une température de 70°C, été comme hiver, pour produire l’eau chaude sanitaire. Elle alimente en permanence un collecteur de distribution de 20 m (DN 100). En été, son rendement de combustion baisse de 2 % suite à un fonctionnement par de nombreux cycles courts (la puissance de l’échangeur sanitaire étant nettement inférieure à la puissance de la chaudière). Il passe de 92% à 90%.

Installation séparée : une chaudière de 500 kW pour le chauffage et une chaudière de 150 kW pour la production d’eau chaude sanitaire. A 70°C, ces deux chaudières ont le même coefficient de perte à l’arrêt que la chaudière de 650 kW. La chaudière de chauffage est régulée en température glissante (température moyenne de 43°C) et arrêtée en été. Ses pertes à l’arrêt sont ainsi réduites à 0,1 %. La chaudière de 150 kW est, elle maintenue à 70°C toute l’année.

Pertes

Installation combinée
[kWh/an]

Installation séparée
[kWh/an]

Différence
[kWh/an]

En hiver (5 800 h/an)

Pertes de combustion 38 400 [kWh/an] x (1 – 0,92)
= 3 072 [kWh/an]
0 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 3 925 [h/an] / 0,92
= 8 320 [kWh/an] (*)
0,001 x 500 [kW] x 4 000 [h/an] / 0,92 = 2 174 [kWh/an] 6 146 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 5 500 [h/an] / 0,92 = 2 055 [kWh/an] – 2 055 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92
= 2 106 [kWh/an]
7,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92 = 971 [kWh/an] 1 135 [kWh/an]
Pertes d’hiver 3 072 [kWh/an] + 8 320 [kWh/an] + 2 106 [kWh/an] = 13 498 [kWh/an] 3 072 [kWh/an] + 2 174 [kWh/an] + 2 055 [kWh/an] + 971 [kWh/an] = 8 272 [kWh/an] 5 226 [kWh/an]

En été (2 960 h/an)

Pertes de combustion 19 600 [kWh/an] x (1 – 0,90)
= 1 960 [kWh/an]
19 600 [kWh/an] x (1 – 0,92)
= 1 568 [kWh/an]
392 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 2 935 [h/an] / 0,90
= 6 359 [kWh/an]
6 359 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 2 860 [h/an] / 0,92 = 1 399 [kWh/an] – 1 399 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 2 960 [h/an] / 0,90 = 1 098 [kWh/an] 1 098 [kWh/an]
Pertes d’été 1 960 [kWh/an] + 6 359 [kWh/an] + 1 098 [kWh/an] = 9 417 [kWh/an] 1 568 [kWh/an] + 1 399 [kWh/an] = 2 967 [kWh/an] 6 450 [kWh/an]

Sur l’année

Bilan global – pertes totales 22 915 [kWh/an] 11 239 [kWh/an] 11 676 [kWh/an] ou 1 168 [m³gaz/an]

L’installation d’une chaudière combinée entraînerait donc une surconsommation d’environ 1 200 m³ de gaz par an ou une dépense complémentaire d’environ 275 € par an.

(*) Justification des heures prises en compte :
La saison de chauffe dure 5 800 [h/an]. La chaudière de 650 kW tourne 1 800 h/an pour le chauffage et 100 h/an pour l’eau chaude sanitaire (75 en saison de chauffe et 25 en été). La chaudière reste donc chaude sans que son brûleur ne fonctionne durant 3 925 h/an. La chaudière de 500 kW tourne 1 800 h/an pour le chauffage et est en attente chaude 4 000 h/an. La chaudière de 150 kW tourne 400 h/an (dont 100 h en été.

  • La troisième consisterait à limiter l’enclenchement de la chaudière dans le temps. En effet, si la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, une horloge peut imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de multiples remises en route de la chaudière tout au long de la journée !
  • Enfin, puisqu’il s’agit de besoins d’été, ils peuvent également être couverts presque totalement par une installation de capteurs solaires. Le moment est alors bien choisi pour étudier la faisabilité d’un tel investissement. Mais il faudra s’assurer que le système de chauffage dispose Dun mode « veille » très économe lorsque le soleil est actif.

Une campagne de mesure ?

On le voit, le choix est totalement dépendant de la situation locale.

Il est possible d’évaluer plus précisément sa situation en mesurant la consommation de combustible l’été et la quantité d’eau chaude consommée. À défaut de disposer d’un compteur d’eau spécifique sur le départ d’eau chaude, on pourra faire une évaluation grossière sur base des débits des équipements sanitaires (autant de douches à 40 litres/douche, etc…).

Très approximativement, on retrouvera le rendement de production de l’eau chaude par les formules :

Énergie utile [kWh] = Nbre de m³ à 60°C x 1,163 [kWh/m².K] x (60 – 10) [K]

Energie fournie [kWh] = Nbre de m³ de gaz ou de litres de fuel x 10

Rendement = Energie utile / Energie fournie

Exemple : s’il a fallu 6 500 m³ de gaz pour produire 220 m³ d’eau chaude à 60°C, le rendement de production est de :

220 x 1,163 x (60 – 10) / 6 500 x 10 = 20 %

A comparer avec les rendements de production des systèmes neufs et avec le coût d’un nouveau système.

En général, décider de désolidariser l’eau chaude sanitaire sous entend de se poser la question d’une rénovation plus fondamentale de la production de chaleur.

Concevoir

Pour plus d’informations sur la conception d’une installation d’eau chaude sanitaire.

Intégrer une priorité eau chaude sanitaire

Conflit entre chauffage du bâtiment et chauffage de l’eau chaude sanitaire

Si la chaudière réalise à la fois le chauffage du bâtiment et le chauffage de l’eau chaude sanitaire, un conflit de température apparaît :

  • Pour augmenter le rendement d’une chaudière, il est intéressant de travailler à basse température, surtout s’il s’agit d’une chaudière récente (dite à « très basse température » ou à condensation). Par exemple, la température de l’aquastat sera adaptée en fonction de la température extérieure afin de ne chauffer qu’à la température minimale nécessaire.
  • Pour réchauffer l’eau chaude sanitaire, une température minimale d’eau de chauffage à 65 ou 70°C est nécessaire (par exemple pour réchauffer un ballon de stockage à 60°C). Temporairement, par mesure de précaution anti-légionelle, une montée de l’eau du ballon de stockage à 70°C est même parfois organisée.

Régulation avec « priorité eau chaude sanitaire »

Pour éviter de maintenir en permanence les chaudières à haute température, il est possible de mettre en place une régulation du type « priorité eau chaude sanitaire » : la chaudière ne monte en température qu’au moment du réchauffage du ballon. En principe, le ou les autres circulateurs des circuits de chauffage peuvent alors éventuellement être arrêtés (l’inertie du bâtiment est suffisante).

C’est une technique courante dans le domestique. On comprend qu’elle ne puisse s’appliquer dans le tertiaire que si la production d’eau chaude sanitaire est faible par rapport au chauffage du bâtiment :

  • Ce sera tout particulièrement le cas lorsque l’eau chaude est stockée dans un ballon dont la contenance en eau est telle que la chaudière n’est sollicitée que 2 ou 3 fois par jour.
  • À l’opposé, on ne pourra appliquer cette technique en présence d’un échangeur à plaques instantané qui doit pouvoir réagir au quart de tour !

L’intérêt de la « priorité sanitaire » est d’autant plus important :

  • Que la chaudière présente des pertes à l’arrêt élevées. On pense ici tout particulièrement aux chaudières gaz atmosphériques dont l’échangeur est en communication ouverte avec la cheminée. Il faut que ces chaudières soient toujours maintenues à la plus basse température possible (température définie par leur conception et donc par le fabricant).

  • Que la chaudière alimente le ballon d’eau chaude aussi en été. Dans ce cas, la régulation permettra d’arrêter totalement la chaudière (température retombant à 20°C) sauf durant les périodes de chauffage de l’eau sanitaire.

Des relances intempestives du chauffage de l’eau sanitaire à limiter par une horloge

Si l’on constate que la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, il est utile, en plus de la priorité sanitaire, de greffer une horloge sur la régulation pour imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de remettre la chaudière en route pour le puisage d’un seau d’eau ! C’est surtout avantageux en été, bien sûr, mais ce l’est également en hiver puisque la température moyenne d’une chaudière régulée en fonction de la température extérieure est de 43°C sur la saison de chauffe.

Cette technique a fait l’objet d’une simulation sur une installation ECS domestique (consommation de 45 m³ à 55°C). Voici les rendements obtenus (source « Chauffage et production d’ECS » – M. Rizzo – Éditions Parisiennes) :

Chauffage de l’ECS constant

Chauffage de l’ECS programmé

Été

44 % 66 %

Hiver

69 % 80 %

Année

59 % 75 %

Soit un gain moyen annuel de 21 % sur la consommation relative à la production d’eau chaude.

On peut tester manuellement cette technique en été, en coupant la chaudière au matin et en observant « jusque quand » la réserve d’eau chaude assure les besoins du bâtiment.

Alternative

S’il est difficile de planifier les périodes de chauffage de l’eau chaude, il est possible d’obtenir un effet similaire en régulant le ballon au moyen d’un thermostat à fort différentiel situé en partie haute (au moins au 2/3 de la hauteur). Ce thermostat arrête la pompe de circulation du réchauffeur quand on atteint la valeur désirée, généralement 60 à 65°C et remet le chauffage en service quand l’eau tombe à 40/45°C.


Remplacer la veilleuse par un allumage électronique ?

La veilleuse consomme en pure perte environ 120 m³ de gaz par an, soit un coût d’environ 40 € par an. On a même parlé de veilleuse consommant 300 m³/an, mais alors il s’agit d’un très vieux chauffe-eau dont la veilleuse ressemble à un chalumeau !

Un allumage électronique est certainement plus performant, mais l’investissement n’est sans doute pas rentable sur des appareils existants.

À défaut, on peut imaginer (?) de couper cette veilleuse durant les périodes où la consommation d’ECS est nulle (WE, vacances,…).


Récupérer l’énergie au condenseur de la machine frigorifique ?

La machine frigorifique évacue de la chaleur vers l’extérieur. Or la production d’eau chaude sanitaire demande une fourniture de chaleur, au contraire. L’idée de récupérer la chaleur de l’un au bénéfice de l’autre est attirante.

En pratique, pour le groupe frigorifique, chauffer l’eau sanitaire de 10 à 30°C est très efficace, effectivement. Par contre, chauffer l’eau de 30 à 60°C est difficile. Sous prétexte de récupération, la machine frigorifique finit par avoir un très mauvais rendement : le compresseur doit augmenter son taux de compression pour atteindre les hautes températures !

Cette technique est donc à privilégier pour les installations où la demande d’eau chaude sanitaire est très importante (hôtels, restaurants, hôpitaux, homes,…) et pour lesquels on assurera le préchauffage de l’eau sanitaire, sans perturber le cycle de la machine frigorifique. De l’ordre de 20 à 25 % de la puissance frigorifique peuvent être alors récupérés.

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude.

Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir. L’échangeur est équipé d’une double paroi de sécurité, selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Un appoint en série est prévu (2).

Schéma 3 : en présence d’une boucle de distribution

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

Améliorer

Motivé ? Alors, découvrez plus de détails sur le fonctionnement côté machine frigorifique en cliquant ici !

Supprimer les pertes vers l’égout du groupe de sécurité

En amont d’un chauffe-eau, un groupe de sécurité est prévu, équipé d’une soupape de sûreté. Il se peut que cette soupape laisse échapper de l’eau chaude vers l’égout.

Il peut être utile de placer un récipient entre l’échappement et l’égout pour évaluer l’importance de ce phénomène car il est fortement amplifié la nuit, ce qui est plus difficile à percevoir.

Si l’accès est impossible, peut être est-il possible de s’en rendre compte via le compteur d’eau la nuit ?

Si l’écoulement est sporadique

Cet écoulement correspond à la dilatation de l’eau lors du chauffage : la pression monte et l’excédent d’eau est évacué vers l’égout. A chaque remontée en température du ballon (soit pratiquement chaque nuit pour un ballon électrique), 1/30 de la capacité du boiler est évacuée par la soupape de sécurité. Par tranche de 100 litres de réservoir, cela représente annuellement plus d’un m³ d’eau chaude expédiée à l’égout.

Si la soupape de sécurité est ainsi constamment sollicitée, elle finit par s’entartrer et perdre, dans un goutte à goutte permanent, une quantité d’eau chaude 10 à 20 fois plus importante.

D’autant plus que, sur le plan réglementaire, un groupe de sécurité qui est chaque jour sollicité ne peut plus être considéré comme un organe de sécurité, mais bien comme un organe de régulation. Par souci de sécurité, il devrait donc être complété par une deuxième soupape de sécurité. Cela peut faire sourire, mais le directeur de l’école de Court St Etienne qui a vu son ballon d’eau chaude traverser la toiture et retomber près de la gare ne souriait pas !

Il s’agit là d’un mauvais usage d’un équipement de sécurité.

Nous pensons qu’il est très utile de placer un vase d’expansion hermétique sur l’arrivée d’eau froide sanitaire. Ces vases sont disponibles en capacités de 8 à 500 litres, à sélectionner via les tables fournies par les constructeurs.

Exemple de dimensionnement pour un ballon de 100 litres.

Hypothèses : eau froide à 10°C, eau chauffée à 65°C, pression d’alimentation en eau à 4 bars max, pression de tarage de la soupape de sécurité à 7 bars, facteur de pression 0,375 entre 4 et 7 bars (formule de Boyle-Mariotte).

Dilatation de l’eau entre 10 et 65°C : 0,0195 litre/litre

Volume du vase d’expansion :

0,0195 x 100 / 0,375 = 5,2 litres

On installera donc un ballon de 8 litres prégonflé à 4 bars.

(source : Installateur 02/99).

Si l’écoulement est permanent

Les soupapes de sécurité sont tarées à 7 bars. Si la pression du réseau dépasse cette valeur (fond de vallée, remontée classique de la pression du réseau durant la nuit), ou si le réglage de la soupape est défectueux, il est possible que ces pertes soient pratiquement permanentes.

La solution consiste à placer un réducteur de pression sur l’arrivée d’eau. C’est bien sur l’arrivée générale de l’eau dans le bâtiment qu’il faut le placer car son montage sur la seule production d’eau chaude sanitaire entraînerait un déséquilibre des pressions entre les réseaux d’eau froide et d’eau chaude, empêchant alors le bon fonctionnement des robinetteries.


Si chauffage électrique, chauffer l’eau la nuit

Étant donné le coût de l’électricité, une horloge ou une télécommande sur le réseau du distributeur commanderont la charge durant les heures creuses (la nuit ou le WE).

Ceci suppose que le volume de stockage est supérieur au puisage journalier. À défaut, on risque de tomber à court d’eau chaude en fin de journée, lors de puisages très importants.

Pour éviter cela, il est possible :

  • Soit d’augmenter la température de l’eau du ballon (ce qui implique des pertes permanentes supplémentaires et la nécessité d’un bon mitigeur à la sortie pour éviter tout risque se brûlure).

 

  • Soit de dédoubler le ballon (l’avantage de l’électricité est de pouvoir décentraliser la production). Si certains points de puisage sont fort éloignés du ballon, on y gagnera à réaliser cette solution.

 

  • Soit d’équiper l’appareil d’une deuxième résistance : l’élément chauffant inférieur assure la charge nocturne à bas tarif, alors que l’élément chauffant supérieur couvre les demandes de pointe en eau chaude durant la journée, soit environ le 1/3 supérieur du ballon. L’enclenchement simultané des deux résistances n’est généralement pas autorisé en raison de la puissance cumulée.


Si chauffage électrique, délester le chauffage de l’eau en période de pointe

Si le fonctionnement de jour est malgré tout nécessaire, le placement d’un délesteur interdira l’enclenchement de l’appareil en période de pointe.

Le ballon d’eau chaude électrique est l’équipement électrique idéal pour un délestage : il représente une puissance assez élevée et sa coupure ne gêne pratiquement pas la production d’eau chaude. Il faut se rendre compte que le délesteur n’intervient que 2 à 3 fois par jour, au moment de la pointe de puissance du bâtiment (généralement entre 11 et 13 heures). Il coupera par exemple l’alimentation électrique durant 5 minutes sur le quart d’heure. L’essentiel est qu’il soit coupé lorsque la friteuse fonctionne, par exemple.

Comme il ne s’agit pas d’une production instantanée, l’utilisateur ne s’apercevra de rien.

Techniques

Pour plus de détails sur le placement d’un délesteur.

Découvrez l’amélioration de la production d’eau chaude sanitaire qui a été réalisée au centre de Hemptinne.

Évaluer l’efficacité environnementale et énergétique de la distribution

Évaluer l'efficacité environnementale et énergétique de la distribution 


Impact environnemental et sur la sécurité

Impact environnemental

L’utilisation des fluides frigorigènes dans les bâtiments n’est pas sans risque sur la santé et la sécurité des occupants. En effet, ils peuvent représenter un risque en raison de leur :

Norme NBN EN 378-1

La norme NBN EN 378-1 traitant des « Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité
et d’environnement – Partie 1: Exigences de base, définitions, classification et critères de choix » est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.


Détente directe pour groupe incorporé

Le refroidissement par détente directe intervient lorsque le transfert de chaleur « utile » au niveau de l’évaporateur terminal est assuré par le fluide frigorigène lui-même.

Le groupe frigorifique incorporé consiste en un regroupement des différents constituants de l’installation frigorifique au sein ou à la proximité immédiate du meuble réfrigérant, de la chambre froide, … En d’autres termes, les organes principaux tels que le compresseur, le condenseur, le détendeur et naturellement l’évaporateur font partie de la même entité. Cette solution est intéressante plus spécifiquement pour les commerces de détail. Ce sont en général des petites puissances. (quelques centaines de W à quelques kW de puissance au compresseur par exemple).

Environnement

Les groupes frigorifiques incorporés ont besoin, pour fournir leur puissance frigorifique, de peu de fluide frigorigène vu la proximité des équipements et, par conséquent, la faible quantité de tuyauterie de distribution.

L’impact sur l’environnement est donc réduit !

Énergie

Les meubles frigorifiques à groupe incorporé ne sont en général pas équipés de systèmes d’optimisation du cycle de froid par exemple de détendeur électronique ou de compresseur à vitesse variable; leur coût serait trop important par rapport à la puissance frigorifique fournie. De plus, les condenseurs incorporés ne fonctionnent pas de manière optimale puisque dans une ambiance chaude (placée dans la zone de vente ou cloisonnée dans un espace insuffisamment ventilé).


Détente directe pour production centralisée

La détente directe n’implique pas nécessairement la proximité du compresseur par rapport aux condenseurs, détendeur et évaporateur. Dans les superettes, les moyennes et grandes surfaces, on retrouve souvent des installations à détente directe avec :

  • une production centralisée (ensemble compresseur-condenseur) sur le toit ou dans un local annexe à la surface de vente.

  • et l’ensemble détendeur-évaporateur au sein du meuble frigorifique.

  

En production centralisée, la détente directe nécessite une mise en œuvre, une exploitation et une maintenance professionnelle. En effet, les distances entre la production et les équipements consommateurs de froid peuvent être importantes. Le risque d’impact négatif avec l’environnement et l’efficacité énergétique croît fortement avec cette distance.

Environnement

Cela va de soi, plus les longueurs de tuyauterie de distribution sont importantes, plus la quantité de fluide frigorigène est importante. Il en résulte que le risque de fuites de réfrigérant est important. À titre d’exemple, le Ministère de l’Écologie et du Développement Durable Français a établi le tableau qui suit en matière d’émissions fugitives de fluide frigorigène dans l’atmosphère.

Installations concernées 0 Type d’installation Taux d’émissions fugitives en fonction de la charge nominale
2001 2002 2003 2004
Hypermarchés Détente directe 30 % 30 % 30 % 22 %
Supermarchés 22 % 22 % 25 % 18 %
Commerces de proximité Groupe de condensation 10 % 10 % 10 % 10 %
Groupe hermétique Méthodologie non applicable

Source : Méthodologie spécifique pour les projets de Réduction des émissions de HFC par substitution de fluide et/ou changement d’installation frigorifique dans le froid commercial, agroalimentaire, …; ÉcoSecurities/CITEPA pour le compte du Ministère de l’écologie et du développement durable français.

Énergie

Pertes de charge dans l’installation : description

Dans les commerces où la production centralisée est présente, l’efficacité énergétique de la distribution se résume à réduire au maximum les pertes de pression (ou perte de charge) en ligne entre :

  • le condenseur souvent situé en toiture et le détendeur du meuble frigorifique (on parle de conduite liquide) dans la zone de vente;
  • l’évaporateur du meuble et l’aspiration du compresseur situé, lui aussi, en toiture ou dans un local annexe.

Les pertes de charge existent de par :

  • l’importance du nombre de coudes, raccords, prises de pression, filtres, … qui constituent la distribution (on parle de pertes de charge « singulières »;
  • les grandes longueurs de tuyauterie de la distribution (on parle ici de pertes linéaires dues au frottement du fluide dans les conduites).

La trop grande importance des pertes de charge de distribution entraîne, entre autres, une chute de la production frigorifique et une baisse de rendement du compresseur.

Pertes de charge dans l’installation : conduites d’aspiration

Outre les problèmes de retour d’huile dans les conduites d’aspiration vers la production (optimisation de la vitesse des gaz de retour vers le compresseur), les pertes de charge doivent être limitées pour ne pas augmenter le travail du compresseur et, par conséquent, dégrader le COP de la centrale de froid.

Isolation des conduites d’aspiration (après l’évaporateur).

Dans la pratique, on considère que les valeurs des pertes de charge doivent être limitées en fonction de la température d’évaporation suivant l’application. Le tableau suivant reprend des valeurs pratiques de référence :

Température d’évaporation [°C] Pertes de charge [kPa]
– 10 20
– 30 15
– 40 5

L’augmentation des pertes de charge oblige le compresseur à fournir un travail de compression plus important.

En plus de la limitation des pertes de charge, il est souhaitable d’isoler les conduites d’aspiration surtout lorsque les lignes « gaz » sont très longues. En effet, les conduites non isolées au contact de l’air ambiant de la zone de vente vont échanger plus de chaleur et nécessairement la température des gaz d’aspiration sera plus élevée provoquant aussi une augmentation du travail du compresseur.

Le manque d’isolation de la conduite d’aspiration oblige le compresseur à fournir un travail de compression plus important.

Pertes de charge dans l’installation : conduites de liquide

De manière à éviter le phénomène de « flash gaz », entre d’autres termes la revaporisation partielle du liquide à la sortie du condenseur par réchauffe au contact des températures d’ambiance de la zone de vente, il est nécessaire de bien isoler les conduites liquides. Cette mesure permet aussi de ne pas dégrader le COP des machines frigorifiques dans le sens où l’échange thermique de l’évaporateur se trouve limité (voir le schéma ci-dessous).

Le manque d’isolation de la conduite liquide passant dans des ambiances chaudes augmente le risque de « flash gaz » et réduit la puissance frigorifique disponible à l’évaporateur.


Circuits frigoporteurs

Le refroidissement est indirect lorsque le transfert de chaleur « utile » n’est pas directement assuré par le fluide frigorigène. En d’autres termes, l’échange de chaleur entre le meuble, la chambre ou l’atelier frigorifique et l’évaporateur de la centrale de production de froid s’effectue par l’intermédiaire d’une boucle de fluide frigoporteur. Les fluides frigoporteurs les plus utilisés sont l’eau glycolée (34 %), le CO2, l’ammoniac NH3, …

     

Centrale de froid source : DelHaize.

Environnement

Avantages

De par les réglementations de plus en plus draconiennes, quant aux taux de rejet des fluides frigorigènes dans l’atmosphère, des solutions comme l’utilisation de boucles intermédiaires de fluides frigoporteurs sont une approche intéressante. Le fluide frigorifique étant confiné au niveau de la centrale de production, sa quantité (charge en fluide frigorigène) est limitée et le taux d’émissions fugitives réduit.

Installations concernées 0 Type d’installation Taux d’émissions fugitives en fonction de la charge nominale*
2001 2002 2003 2004
Hyper ou supermarchés Frigoporteur 10 % 10 % 12 % 8 %
* pour les systèmes à frigoporteur: on considère la charge nominale en fluide frigorigène.

Énergie

Avantages

  • Comme la production peut être centralisée en dehors de la zone de vente (zone publique), l’utilisation de fluides frigorigènes énergétiquement plus efficaces mais toxiques et/ou inflammables tels que l’ammoniac ou le propane est possible.
  • Le dégivrage par fluide frigoporteur des évaporateurs des évaporateurs terminaux est sensiblement simplifié. Quant au temps de dégivrage, il est réduit; ce qui permet d’améliorer le bilan énergétique global de l’installation.
  • De par la taille faible du circuit frigorifique, les pertes de charge étant réduites, l’énergie consommée à la production s’en retrouve réduite.

Inconvénients

  • La production de froid par frigoporteur fait appel à un évaporateur intermédiaire; ce qui suppose deux chutes de température. Pour en tenir compte, le fluide frigorigène doit avoir une température d’ébullition plus faible que dans une application à détente directe.
  • Des pompes sont nécessaires pour assurer la circulation du fluide frigoporteur. La mise en mouvement du fluide par les pompes demande de l’énergie qui se transforme en chaleur cédée au frigoporteur. Sachant que la puissance absorbée par une pompe est définie par la formule ci-dessous, on peut estimer à quelle valeur s’élèvera la perte d’énergie non seulement en consommation au niveau du moteur électrique de la pompe mais aussi au niveau de la chaleur cédée par la pompe au fluide qu’il faudra refroidir.

Ppompe  = q volumique x Δp [W]

Où :

  • q volumique : débit volumique [m³/s];
  • Δp : la hauteur manométrique totale [N/m² ou Pa]

Débits de ventilation dans les locaux annexes

Débits de ventilation dans les locaux annexes


Suivant les fabricants

Les débits indiqués ci-dessous sont soit des débits à extraire, soit des débits à pulser selon que le local présente des risques d’odeurs ou est considéré comme un local « sale » (selon l’arrêté royal relatif à l’hygiène générale des denrées alimentaires) ou non.

Ils nous ont été communiqués par un fabricant.

Local

Taux de renouvellement horaire (1/h) Débit (m³/h)

Préparation froide

3 à 5

Légumerie

5 et 10 (*)  –

Pâtisserie

15  –

Boucherie

10  –

Stockage produits secs et boissons

3  –

Réserve vin

1  –

Stockage vaisselle

1  –

Local déchets

5 à 7  –

Local entretien

5  –

Self-service : comptoir bain-marie

100

Self-service : par chariot chauffant

50

Restaurant

6 à 8

Cafétéria

8  –

(*) : Pour les cuisines industrielles, il est demandé un extracteur à 2 vitesses assurant en temps normal un taux de renouvellement de 5 et en cas d’épluchage d’oignons un taux de 10.


Suivant la norme prEN 16282

Zones Débits [m3/h par m2]
Préparation de la viande 25
Préparation du poisson 25
Préparation de la volaille 25
Préparation des légumes 25
Réserve sèche 6
Réserve à pain 6
Réserve non-alimentaire 6
Pièces pour le personnel Voir annexe C3 de la PEB
Vestiaires, WC et douches Voir annexe C3 de la PEB
Local à poubelles 6
Distribution des repas chauds 60

Choisir un système de toiture plate

Choisir un système de toiture plate


Quels sont les critères de qualité d’une toiture plate ?

Une toiture plate de bonne qualité doit :

Etre étanche (même au droit des raccords) à la pluie, à l’air et à la neige

  • La membrane d’étanchéité doit avoir été correctement posée par des spécialistes et suivant les prescriptions du fabricant.
  • La membrane d’étanchéité sera de préférence multicouche.
  • Les raccords doivent être conformes aux règles de l’art, et les remontées d’étanchéité doivent être suffisamment hautes.
  • Les pontages des joints actifs doivent être adaptés aux mouvements.

concevoir 

Pour choisir la membrane d’étanchéité, cliquez ici !

Evacuer les eaux de pluie et de fonte de neige

  • Les pentes doivent être suffisantes.
  • Les évacuations des eaux pluviales doivent être correctement dimensionnées.
  • L’eau de pluie doit pouvoir déborder sans risque et visiblement en cas d’obstruction des évacuations.

Isoler thermiquement les locaux et la structure du bâtiment

  • L‘isolation doit être suffisamment performante (épaisseur et résistivité thermique).
  • L’isolation doit être continue.

concevoir 

Pour choisir l’isolant thermique, cliquez ici !

Résister aux contraintes mécaniques au niveau de toutes les couches (support, isolant, étanchéité, protection)

  • La toiture doit résister aux charges d’utilisation (charges permanentes, charges mobiles, charges localisées, charges réparties).
  • La toiture doit être capable de supporter la neige.

concevoir 

Pour déterminer la résistance à l’écrasement de l’isolant existant, cliquez ici !
  • La toiture doit être prévue pour son usage (circulable pour les véhicules, pour les piétons, pour l’entretien, …)

concevoir 

Pour déterminer la protection nécessaire, cliquez ici !
  • La toiture doit résister au vent.

concevoir 

Pour déterminer l’accrochage nécessaire, cliquez ici !

Résister aux agents physiques et chimiques extérieurs

  • La membrane d’étanchéité doit résister à l’érosion éolienne et hydraulique.
  • La toiture doit résister aux chocs thermiques et au gel.
  • La membrane d’étanchéité doit résister aux rayonnements ultra-violets (UV) ou être protégée de ceux-ci.
  • La membrane d’étanchéité doit être adaptée pour résister à la pollution chimique acide de l’environnement extérieur auquel elle est exposée.

Techniques

Pour connaître les caractéristiques des différentes membranes d’étanchéités, cliquez ici !

Ne permettre aucune condensation interne

  • Le pare-vapeur doit être continu.
  • La toiture doit être étanche aux courants d’air.

concevoir 

Pour vérifier le bon choix et la bonne pose du pare-vapeur, cliquez ici !

Etre facile à entretenir et à réparer

améliorer 

Pour savoir en quoi consiste l’entretien de la toiture plate, cliquez ici !

Subsidiairement, isoler phoniquement les locaux de l’environnement extérieur


Quand réaliser une toiture chaude ?

Lorsque l’isolant est pris en sandwich entre 2 étanchéités (le pare-vapeur en dessous et la membrane au-dessus), on appelle cela une toiture chaude.

Schéma toiture chaude.

A utiliser le plus souvent possible
C’est actuellement la technique la plus utilisée.

On préférera la toiture chaude à la toiture inversée pour sa facilité d’entretien, particulièrement lorsque l’environnement est fortement boisé (chute des feuilles, germination et développement de plantes).

On préférera également la toiture chaude lorsque le lestage du complexe isolation-étanchéité n’est pas possible à cause du manque de portance du support.

Avantages

  • Risque de condensation interstitielle facilement maîtrisable par le choix d’un pare-vapeur adéquat et pour les cas les plus difficiles d’un isolant étanche à la vapeur d’eau (verre cellulaire).
  • Possibilité d’utiliser des matériaux isolants à la conductivité thermique  très faible (ex : PUR)
  • Entretien facile.
  • Charge pondérale réduite (pas besoin de lester).
  • Remontées verticales d’isolant possibles autour des obstacles.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection et préservation de l’isolant par la membrane de l’étanchéité.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…)

Inconvénients

  • Encombrement important pour des niveaux d’isolation élevés.
  • Séchage impossible de l’isolant en cas d’infiltration.

Quand réaliser une toiture inversée ?

Lorsque l’on pose l’isolant au-dessus d’une toiture existante, on réalise une toiture inversée.

Schéma toiture inversée.

Le principal avantage de la toiture inversée est la protection thermique de la membrane d’étanchéité et l’absence de dégradation importante de l’isolant en cas de fuite.

Alors que la toiture chaude est réalisable dans tous les cas, la toiture inversée n’est possible que :

  • Lorsque les rives du toit sont suffisamment hautes pour déborder d’au moins 5 cm la face supérieure de l’isolant.

  • Lorsque la forme de la toiture n’est pas trop compliquée (impossibilité de réaliser des remontées de l’isolant d’une toiture inversée).

  • Lorsque le support a une masse d’au moins 300 kg/m² (+/- 13 cm de béton armé) afin de parer au risque de condensation du fait de l’eau de pluie froide.
    L’eau qui s’infiltre sous l’isolant entraîne des déperditions calorifiques. Le déphasage entre le début des précipitations et la chute maximale de la température en sous-face du plafond augmente en fonction de l’inertie thermique qu’offre le support. Si celle-ci est importante, la suspension de la fonction isolante ne se fait sentir que très progressivement et retarde l’apparition de la condensation de surface. Dans le cas contraire, le risque augmente.
    Les toitures inversées de type léger (tôles profilées par exemple) sont sujettes après quelques minutes à des phénomènes de condensation en sous-face lorsque des précipitations coïncident avec des humidités relatives élevées à l’intérieur du local.

Avantages

  • Pas de risque de condensation interstitielle (l’isolant doit être posé en une seule couche)
  • Protection de la membrane d’étanchéité des variations thermique et des rayons UV. (NB : les membranes d’étanchéité actuelles résistent parfaitement à ces contraintes)
  • L’isolant (étanche à l’eau) ne risque pas d’être gorgé d’eau en cas de fuite à travers la membrane d’étanchéité.
  • Si le support de toiture est massif, l’inertie thermique est préservée.
  • Protection du bâtiment (contraintes thermiques, dilatation, gel,…).

Inconvénients

  • Performances thermiques de l’isolant réduites (mouillé). Nécissité donc d’augmenter l’épaisseur d’environ 20% pour compenser.
  • Encombrement encore plus  important que la toiture chaude pour des niveaux d’isolation élevés. Dans ce cas on préconisera plutôt la toiture mixte : superposition  toiture chaude + toiture inversée.
  • Les remontées verticales autour des obstacles ne sont pas possibles. À ces endroits la technique de la toiture chaude doit être appliquée.
  • Poids important dû au lestage que doit supporter la construction.
  • Entretien difficile à cause du lestage. Pente maximale de 5°.

Quand réaliser une toiture combinée ?

Lorsqu’une isolation est rapportée au-dessus d’une première couche isolante, on parle de toiture combinée .

Schéma toiture combinée.

On adoptera cette technique lorsqu’une valeur d’isolation élevée est exigée et que l’épaisseur de l’isolant à mettre en place est importante.

La couche inférieure d’isolant sert également sur certains supports à faciliter la pose de l’étanchéité.

Avantages

  • Protection de la membrane d’étanchéité contre les chocs thermiques et le rayonnement ultraviolet, et de ce fait, ralentissement de son vieillissement.
  • Diminution des risques de condensation sous la membrane d’étanchéité en cas de précipitation lors de conditions climatiques intérieures sévères.
  • Protection du bâtiment des variations de température, et par conséquent, des dilatations et contraintes thermiques, du gel et des condensations.

Inconvénients

  • Ce système n’est conseillé que lorsque des couches d’isolation très épaisses sont nécessaires.
  • Entretien plus difficile que pour une toiture chaude non lestée.

Quand isoler par l’intérieur ou isoler le faux plafond ?

Toiture froide.

Isolation sous le support.

Faux plafond isolant.

A éviter !

La pose d’un pare-vapeur continu est difficile, si bien que la vapeur d’eau de l’ambiance risque de former de la condensation dans la toiture. De plus, le support est soumis aux chocs thermiques.

Enfin, il sera très difficile d’éviter les ponts thermiques au droit des murs de support de la toiture.

Schéma ponts thermiques.

Avantages

Aucun.

Inconvénients

  • Condensation : l’isolation d’une toiture plate par ce système provoque presque inévitablement de la condensation interne. Cette condensation peut entraîner l’altération de l’isolant et la suppression de son efficacité, la pourriture des planchers, le gel des matériaux, le décollement ou le ramollissement des matériaux agglomérés, le développement de moisissures, etc.
  • Chocs thermiques : un toit plat sans isolation thermique est déjà fortement sollicité par les variations de la température en sa partie supérieure. Les tensions thermiques sont cependant tempérées par la chaleur provenant de l’intérieur du bâtiment. À cause de la position de l’isolant du côté intérieur, les variations thermiques sont augmentées, et le support ou le béton de pente subissent donc des chocs thermiques importants et peuvent se fissurer. Il peuvent également entraîner des désordres dans les parois latérales contiguës et dans la membrane d’étanchéité.
  • Ponts thermiques : la pose de l’isolant sous la toiture sans interruption est difficile à cause des murs porteurs intérieurs. Les interruptions provoquent des ponts thermiques qui entraînent l’apparition de condensation de surface locale.

Quand réaliser une toiture légère isolée à l’intérieur de la structure ?

Schéma toiture légère isolée à l'intérieur.

Cette technique est délicate et nécessite une bonne maîtrise des phénomènes de condensation par un choix adéquat du freine vapeur et du matériau isolant. Cette technique ne convient pas pour des climats intérieurs très humides (Classe IV). La toiture ne peut pas être lestée ou à l’ombre pour permettre un séchage de l’isolant en été.

Avantages

  • Encombrement réduit. L’espace occupé par la structure est utilisé pour placer l’isolant. Cela permet donc d’augmenter l’épaisseur de la couche isolante.
  • Utilisation possible de matériaux hygroscopiques organiques comme de la cellulose

Inconvénients

  • Gestion délicate de la condensation interstitielle.
  • Faible inertie thermique de la toiture

Que faire si un faux plafond est nécessaire ?

Si le faux plafond est ajouré et n’est pas isolé, il ne contribue en rien à l’isolation thermique du complexe de toiture. Il ne provoquera aucun problème de condensation.

Schéma condensation.

Si le faux plafond est muni d’un matelas isolant, il risque d’y avoir de la condensation sur la face inférieure du support de la toiture dans certaines conditions d’utilisation des locaux sous-jacents. L’isolation du faux plafond doit idéalement être évitée.

Schéma, isolation du faux plafond doit idéalement être évitée.

Toutefois, si pour des raisons d’efficacité acoustique le matelas isolant ne peut être évité, on s’arrangera pour que son épaisseur soit la plus faible possible, et on rapportera sur la toiture une épaisseur d’isolation supplémentaire pour déplacer le point de rosée au-dessus du pare-vapeur.

La somme des résistances thermiques des couches situées sous le pare-vapeur ne peut excéder 30 % de la résistance thermique globale, sinon le point de rosée risque de se trouver sous le pare-vapeur avec comme conséquence, de la condensation interne.

Connaître les paramètres principaux [ventilation]


Débits

Annexe C3 de la PEB

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779:Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation.  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

Finalement, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par wc ou urinoir ou 15m²/h par m² de surface si le nombre de wc n’est pas connu lors du dimensionnement. un débit de 5m³/h par m² est à définir pour les douches et salles de bain avec un minimum de 50m³/h

L’Arrêté royal fixant les exigences de base générales auxquelles les lieux de travail doivent répondre (anciennement RGPT)

La dernière version de cet Arrêté royal ne prescrit plus un renouvellement d’air minimum par travailleur mais stipule que la concentration de CO2 doit resté inférieur à 900 ppm dans des locaux de travail normaux. Ainsi, l’exigence est placée sur le résultat attendu et plus le moyens. Pour atteindre ce résultat, si on considère qu’une personne expire 20 litres de CO2 par heure cela induit une renouvellement d’air de 25 m³/h par personne pour un air extérieur à 400 ppm de base. Les débits « exigés » sont donc assez bien augmentés ! Mais attention à tenir compte du taux d’absence, pour une salle de réunion par exemple.

litre de CO2 émis par personne

Source : SPF Emploi, Directive pratique « Qualité de l’air intérieur dans les locaux de travail », version du 2 mai 2019 ((https://emploi.belgique.be/sites/default/files/content/documents/Bien-être%20au%20travail/Fichiers%20thémes/Directive%20pratique%20Qualité%20de%20l’air%20intérieur%20dans%20les%20locaux%20de%20travail%20%281%29.pdf))

Équilibre amenée d’air neuf – évacuation d’air vicié

Le débit total pour l’alimentation correspond à la somme des débits d’alimentation de conception du bâtiment et, de même, le débit total pour l’évacuation correspond à la somme des débits d’évacuation du bâtiment.

Dans les bâtiments tertiaires (immeubles de bureaux, écoles, …), on retrouve souvent une grande quantité de locaux dits « à pollution non spécifique » (bureaux), par rapport au nombre de sanitaires. Dans ce cas, le débit d’air neuf à introduire dans le bâtiment est nettement plus important que les débits à extraire recommandés dans les sanitaires.

Ni la norme NBN D50-001 (relative aux logements), ni la réglementation wallonne n’imposent d’équilibrer les débits d’extraction et d’amenée d’air. C’est cependant le moyen de garantir que les débits d’air neuf prévus soient effectivement introduits dans le bâtiment : l’air ne rentrera pas s’il ne peut sortir !

La norme et la réglementation doivent donc être considérées comme une ligne de conduite reprenant les exigences minimales à respecter. Les débits de conception doivent être au minimum identiques au débits exigés mais peuvent être augmenter pour équilibrer le système.

On peut par exemple fixer des débits d’extraction supplémentaires, pour correspondre au débits d’alimentation, dans des espaces sans débits minimum recommandés comme les cagibis, dressing, locaux techniques, réserves et stockage, etc.).

Dans la mesure du possible, il faut donc essayer d’équilibrer les débits d’amenée et d’évacuation d’air, tout en laissant un léger surplus d’amenée d’air par rapport à l’extraction pour maintenir le bâtiment en surpression et éliminer les entrées d’air parasites. Pour donner un ordre de grandeur, on peut imaginer le critère suivant, fixant un rapport entre le débit de pulsion et d’extraction à atteindre :

(débit de pulsion – débit d’extraction) < (n x volume du bâtiment)

où n est le taux d’infiltration d’un bâtiment. On peut alors imaginer que l’excès de pulsion d’air pourra s’échapper du bâtiment par les inétanchéités.

Il faut cependant éviter de trop surdimensionner les extractions sanitaires sous peine de risque de courants d’air et d’inconfort dans ces derniers. On peut, dès lors :

  • Disposer des évacuations d’air complémentaires dans les circulations ou des locaux annexes comme des réserves, …

Extraction dans les sanitaires et les couloirs.

  • Équiper les locaux demandant des débits d’air neuf plus importants (salles de séminaire, salles de réunion) de leur propre extraction.

Extraction dans les sanitaires et les salles de réunion.

Ces deux pistes ont également comme avantage de permettre un meilleur contrôle de la distribution de l’air dans le bâtiment et de s’assurer que le cheminement de l’air ne soit pas aléatoire.

En dernier recours, un déséquilibre peut être assumé. Pour autant qu’il n’excède pas trop la capacité d’évacuation d’air par les inétanchéité, il n’aura pas d’impact majeur sur la capacité du réseau de pulsion à assurer le débit minimum attendu. La distribution d’air dans le bâtiment sera par contre difficile à prévoir, puisqu’elle dépendra de la distribution des inétanchéités de l’enveloppe. Des phénomènes de courant d’air peuvent aussi survenir lors d’ouvertures de portes ou fenêtres.

Études de cas

Un tel système de ventilation sans équilibrage a été mis en œuvre dans le bâtiment PROBE du CSTC à Limelette.

Perte de charge de base

La méthode principale de dimensionnement des réseaux de ventilation mécanique consiste à fixer une perte de charge linéaire constante (par exemple : 1 Pa/m) dans le tronçon le plus défavorisé.

À partir de cette valeur, en tenant compte du débit véhiculé par chaque branche du réseau et de la pression nécessaire au niveau des bouches, on pourra calculer pour chaque tronçon :

  • la section du conduit,
  • la vitesse de l’air,
  • la perte de charge.

Les pertes de charge de tout le réseau (conduits rectilignes, coudes, tés, …) sont alors additionnées aux pertes de charge des accessoires (batteries, filtres, prise d’air, ….) pour dimensionner le ventilateur.

Remarquons que, pour simplifier le calcul des réseaux complexes, on peut aussi se fixer une perte de charge dans tout le réseau et en déduire directement les diamètres des conduits. Le réseau ainsi constitué ne sera pas directement équilibré et devra être équipé d’organes de réglage.

Améliorer

Pour en savoir plus sur l’équilibrage des réseaux de distribution : cliquez ici !

Comme on le voit, c’est le choix de la vitesse ou de la perte de charge de départ qui conditionne le diamètre des conduits, donc, les pertes de charge totales, la consommation du ventilateur et l’investissement final.

Un compromis doit être trouvé entre consommation et investissement.
Exemple : le réseau suivant doit véhiculer un débit total de 12 600 m³/h.

Concevoir

Pour visualiser le dimensionnement complet de ce réseau suivant les méthodes de la perte de charge et de la vitesse constante, cliquez ici !

Voici les résultats du dimensionnement du réseau suivant la méthode de la perte de charge linéaire constante et suivant la méthode de la vitesse d’air constante :

Méthode de la perte de charge linéaire constante dans le tronçon le plus défavorisé (de A à a)

Perte de charge linéaire de base choisie [Pa/m]

0,5 1 1,5
Vitesse d’air max [m/s]. 6,7 8,85 10,4
Vitesse d’air min [m/s]. 4,49 5,93 6,97
Hauteur manométrique du ventilateur [Pa]. 176 208 240
Consommation (pour un fonctionnement de 3 000 h/an) [kWh/an]. 2 835 3 352 3 869
Facture énergétique  (à 0,16 €/kWh) [€/an]. 453,6 536,3 619
Surface de conduits [m²]. 114 101 94
Investissement (à 27,5 €/m²) [€]. 3 122,6 2 773 2 589,9
Coût sur 10 ans [€]. 7 658,6 8 136 8 779,9
Coût relatif entre les solutions. 100 % 106 % 115 %

Par cet exemple, on constate que la valeur de 1 Pa/m choisie comme base de dimensionnement, peut être considérée comme une valeur maximum que l’on peut préciser dans le cahier des charges, les 6 % de différence avec la solution basée sur 0,5 Pa/m étant tempérée par le coût de l’argent sur 10 ans, qui n’est pas pris en compte ici.

Ordres de grandeur et recommandations

Un moyen de vérifier la qualité énergétique du dimensionnement est de comparer les vitesses d’air ou les pertes de charge obtenues dans les différents tronçons aux valeurs suivantes :

  • Vitesses maximums couramment admises pour limiter la production de bruit dans les conduits :
Vitesses maximales admissibles au niveau du bruit dans un réseau de distribution d’air [m/s]
Types de local Conduit principal* Dérivation Grille, bouche Entrée d’air
Chambre. 7 2-4 0,5-2 1
Bureau. 7 2-4 1-2 1

* dépend de la distance des locaux occupés par rapport à la gaine principale.

  • Vitesse maximum de l’air dans les conduits de ventilation imposée, dans certains cantons suisses, pour des raisons d’économie d’énergie. Notons que ces vitesses correspondent à une perte de charge de base inférieure à 1 Pa/m :
Vitesse maximum de l’air autorisée dans le canton de Zurich
Débit maximum Vitesse maximum de l’air
< 1 000 [m³/h] 3 [m/s]
< 2 000 [m³/h] 4 [m/s]
< 4 000 [m³/h] 5 [m/s]
< 10 000 [m³/h] 6 [m/s]
> 10 000 [m³/h] 7 [m/s]
  • Pertes de charge maximum recommandées par SIA (Société suisse des ingénieurs et architectes) pour l’ensemble d’un réseau de ventilation, ce qui comprend la pulsion, l’extraction et l’éventuelle récupération de chaleur :
Recommandations SIA V382/3 : pertes de charge totales du système
Pour toutes les installations. 1 200 [Pa]
Pour les installations énergétiquement très performantes. 900 [Pa]
À titre de comparaison, en moyenne dans les anciennes installations. 1 500 à 2 000 [Pa]

Paramètres de confort

Dans un nouveau projet, il est également important d’émettre des exigences en terme d’acoustique, de vitesse et de température d’air à respecter dans les zones de travail pour éviter que l’occupant ne condamne la ventilation pour des raisons d’inconfort. Ces exigences ont notamment une influence importante sur le choix des bouches de pulsion.

Bruit

Pour se prémunir des désagréments acoustiques liés aux installations de ventilation mécanique, il faut préciser dans le cahier des charges de la nouvelle installation, les exigences acoustiques que l’on désire obtenir dans les locaux, sachant que plus elles sont élevées, plus le silencieux sera important et donc les pertes de charge également.

Les exigences acoustiques peuvent être symbolisées par le niveau NR (Noise Rating) :

Exigences acoustiques
NR 20 – 30 Condition de séjour, de repos, de sommeil dans les chambres, …
NR 30 – 35 Bonnes conditions d’écoute dans les bureaux de direction, consultation, …
NR 35 – 40 Conditions d’écoute normales dans les grands bureaux, restaurants calmes, …
NR 40 – 45 Conditions d’écoute modérées dans les laboratoires, restaurants, …

On peut également imposer, dans les locaux, le niveau de pression acoustique maximum généré et/ou transmis par le système de ventilation. Voici les critères de conception proposés par la NBN EN 13779 (2007): Ventilation dans les bâtiments non résidentiels – Exigences de performances pour les systèmes de ventilation et de conditionnement d’air : suivant le type de bâtiment ou de local :

    Type de bâtiment Type de local  

Niveau de pression acoustique en dB(A)

Plage type
Valeur par défaut
Résidentiel salle de séjour 25-40 32
chambre 20-35 26
Établissements dédiés aux enfants
écoles maternelles, crèches 30-45 40
Lieux publics auditoriums 30-35 33
bibliothèques 28-35 30
cinémas 30-35 33
tribunaux 30-40 35
musées 28-35 30
Lieux commerciaux magasins de détail 35-50 40
grands magasins 40-50 45
supermarchés 40-50 45
grandes salles d’ordinateurs 40-60 50
petites salles d’ordinateurs 40-50 45
Hôpitaux couloirs 35-45 40
salles d’opération 30-48 40
salles de consultation 25-35 30
chambre de nuit 20-35 30
chambre de jour 25-40 30
Hôtels accueil 35-45 40
salles de réception 35-45 40
chambres (pendant la nuit) 25-35 30
chambres (pendant le jour) 30-40 35
Bureaux petits bureaux 30-40 35
salles de conférence 30-40 35
bureaux paysagés 35-45 40
bureaux compartimentés (cabines) 35-45 40
Restauration cafétéria 35-50 40
restaurants 35-50 45
cuisines 40-60 55
Écoles salles de classe 30-40 35
couloirs 35-50 40
gymnases 35-45 40
salle des professeurs 30-40 35
Sport stades couverts 35-50 45
piscines 40-50 45
Général toilettes 40-50 45
vestiaires 40-50 45

Vitesse et température d’air

Pour éviter les sensations de « courant d’air » ou de « masse d’air » dans la zone d’occupation, la diffusion de l’air doit respecter les performances suivantes (issues de la norme DIN 1946 et de la pratique) :

Grandeurs à respecter

Où ?

Combien ?

Vitesse de l’air. Zone d’occupation
(à 1,8 m de haut).
max : 0,2 m/s.
Le long des murs
(à 1,8 m de haut).
max : 0,4 m/s.
Écart de température dans l’ambiance. Zone d’occupation. max : + 1,5°C (chauffage).
Zone d’occupation. max : – 1°C (en refroidissement).

Hydraulique

Hydraulique


A quoi sert un circulateur ? Notion de perte de charge

Pour que de l’eau avance dans une conduite, il faut qu’elle soit soumise à une différence de pression.

On peut dire que la pression plus forte au point A « pousse » l’eau vers la pression plus faible au point B.

Le déplacement de l’eau va s’accompagner de frottements qui engendre une perte de pression. On peut dire que la chute de pression entre les points A et B correspond aux frottements du fluide sur les parois de la canalisation. Elle est appelée la « perte de charge » du point A au point B.

Dans un circuit fermé, l’eau circule de A vers B parce que la pression au refoulement de la pompe est supérieure à la pression à l’aspiration.

PA – PB = perte de charge du réseau entre A et B = hauteur manométrique du circulateur.

Le gain de pression ainsi fourni par le circulateur est appelé sa « hauteur manométrique« . Cette hauteur manométrique du circulateur ne peut que correspondre à la perte de charge entre A et B.


Répartition du débit entre plusieurs circuits – Notion d’équilibrage

Le débit fourni par le circulateur doit se répartir entre 3 circuits identiques (dont les débits nécessaires sont les mêmes). On imagine également pour le calcul que la perte de charge dans chaque tronçon (AC, CD, DE, FG, GH et HB) est de 1 mCE (ou 0,1 bar) (dans un dimensionnement de réseau, on choisit une perte de charge constante par m de tuyau).

Si au point A, la pression est de 2,6 bar, elle sera de 1,9 bar au point B, pour que l’eau se mette en mouvement avec le débit voulu.

Si l’eau circule de A à F, c’est qu’il règne une différence de pression entre ces 2 points de 0,4 bar. Si l’eau circule de D à G, c’est grâce à une différence de pression de 0,3 bar.

Voici une première incohérence : dans le radiateur 1, la perte de charge est de 0,1 bar, ce qui lui donne son débit correct, mais elle est de 0,3 bar dans le radiateur 2. Il y a donc plus de débit dans le radiateur 2 que dans le radiateur 1, alors que les 2 radiateurs sont identiques. Le circuit est déséquilibré et il y aura surchauffe dans le local 2 ou manque de chaleur dans le local 1.

Il faut donc ramener la chute de pression dans le radiateur 2 à 0,1 bar pour que celui-ci délivre la même puissance que le radiateur 1. Cela s’effectue au moyen d’un robinet d’équilibrage sur lequel on créera une perte de charge de 0,2 bars.

Une situation semblable se pose pour le radiateur 3 pour lequel le robinet d’équilibrage devra créer une perte de charge de 0,4 bar.

Ce réseau est ainsi correctementéquilibré et un débit identique passe dans chaque radiateur.


Courbe caractéristique du réseau de distribution

La résistance du réseau de distribution dépend d’une part de sa configuration (longueur et forme des conduits, changements de direction, obstacles comme les vannes, les corps de chauffe, les filtres, …) et d’autre part de la vitesse de l’eau qui y circule. En effet, la résistance, ou autrement dit les pertes de charge, représente le frottement de l’eau dans les conduits. Ce dernier augmente avec la vitesse de l’eau.

Pour chaque type de circuit, on peut ainsi tracer une courbe qui représente la perte de charge en fonction du débit d’air, image de la vitesse.


Point de fonctionnement

Si l’on branche un circulateur sur un circuit de distribution, il stabilisera son débit à une valeur pour laquelle la pression qu’il fournit équivaut à la résistance du circuit. Ce point est le seul point de fonctionnement possible. Il correspond à l’intersection de la courbe caractéristique du circulateur et du circuit. Il définit la hauteur manométrique et le débit fournis par le circulateur lorsque, fonctionnant à une vitesse donnée, il est raccordé au circuit considéré.


Règles de similitude

Variation des grandeurs caractéristiques d’un circulateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume [m³/h]

n = vitesse de rotation [tr/min]

p = gain de pression [mCE ou bar]

P= puissance sur l’arbre [kW]

p/ p= (n1 / n2)² = (q1 / q2
Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Choisir le système de dégivrage de la machine frigorifique d’une chambre froide

Précautions à prendre au niveau du choix de l’enceinte et du groupe d’une chambre froide

Au niveau de la configuration de l’enceinte et pour éviter au mieux la formation de givre sur l’évaporateur, il est préférable que celui-ci soit situé loin de l’entrée par laquelle est amené l’air chaud et humide.

Exemple.

La chambre froide est installée chez un grossiste en fruits et légumes. L’évaporateur de la chambre froide se situe comme sur le dessin ci-après :

La porte est ouverte toute la journée pour permettre aux clients (des petites supérettes) de venir faire leurs achats, des bandes en plastique sont installées pour limiter les pertes frigorifiques.

La température d’évaporation étant de -8° un dégivrage est nécessaire. La proximité de la porte favorise les entrées d’air à température moyenne de 20°. Cet air chaud est aspiré par l’évaporateur et du givre apparaît très vite sur la batterie.

Un dégivrage est nécessaire toutes les deux heures alors que dans d’autres conditions seuls 3 à 4 dégivrages par 24 heures seraient suffisants.

Pour éviter des consommations importantes d’électricité et une régulation qui apporterait toujours des soucis, il a été prévu d’arrêter la production frigorifique toutes les deux heures tout en laissant tourner les ventilateurs de l’évaporateur. On dégivre 10 minutes uniquement grâce à la température ambiante de l’air.

En ce qui concerne l’installation, pour faciliter et optimiser les opérations de dégivrage, on choisit, de préférence, une installation avec :

  • Une vanne magnétique sur le circuit frigorifique (juste avant l’évaporateur).
    Cette vanne va permettre d’arrêter le cycle du fluide frigorigène lors d’un dégivrage : lors d’un dégivrage, l’alimentation électrique de la vanne magnétique est coupée. La vanne se ferme. La Basse Pression au compresseur descend et le compresseur s’arrête dès que le niveau réglé sur le pressostat Basse Pression est atteint.
    Quand il n’y a pas de vanne magnétique, le compresseur est directement arrêté électriquement (contacteur). Mais dans ce cas, une migration de réfrigérant peut se produire et encore continuer à s’évaporer, ce qui peut poser problème.
  • Des manchons souples placés à la sortie du ventilateur de l’évaporateur si la technique de dégivrage produit de la chaleur sur l’évaporateur. Lors d’un dégivrage, lorsque la ventilation est à l’arrêt, ce manchon retombe et se rabat sur la surface de pulsion du ventilateur. Une barrière physique est ainsi créée autour de la chaleur produite dans l’évaporateur pour dégivrer l’évaporateur.
    Ces manchons souples en fibre polyester sont encore appelés « shut up ».


Précautions à prendre au niveau de l’utilisation de l’enceinte d’une chambre froide

Une organisation rationnelle des interventions dans les chambres froides peut être source d’économies d’énergie substantielles. On peut regrouper les interventions et laisser les portes ouvertes pendant un temps le plus court possible.

Il y aura ainsi moins d’air humide qui entrera à l’intérieur de l’enceinte. Au niveau économies d’énergie, on gagne ainsi sur trois plans :

  • au niveau de l’énergie nécessaire pour dégivrer,
  • au niveau de l’énergie nécessaire au refroidissement et au séchage de l’air humide qui entre dans l’enceinte,
  • au niveau de l’énergie nécessaire pour éliminer les quantités de chaleur accumulées dans les évaporateurs au moment des dégivrages, dont le nombre et la durée peuvent diminuer.
Exemple.

Soit une chambre froide négative de dimensions intérieures :
L = 4 m, l = 4 m, h = 3 m.

L’air à l’extérieur de la chambre a les caractéristiques suivantes :
t° = 28°C, HR = 80 %.

L’air intérieur a les caractéristiques suivantes :
t° = -18°C, HR = 50 %.

La chambre est « sollicitée » pendant 12 h/jours.

Il y a 10 interventions par heure, pendant chacune d’elle la porte est laissée ouverte pendant 30 secondes.
Avec cette utilisation, l’énergie électrique nécessaire pour le dégivrage est de 15,6 kWh/jour.

Avec une meilleure organisation, le personnel n’ouvre plus la porte que 5 fois par heure et ne la laisse plus ouverte que 6 secondes par intervention.
L’énergie électrique nécessaire pour le dégivrage n’est plus que de 3,9 kWh/jour soit une économie de 11,7 kWh/jour.
Avec un prix moyen de 0,11 € du kWh, cela représente une économie de 11,7 [kWh] x 0,11 [€] 260 [jours], soit 350 € par an pour une seule chambre froide.

Il faut ajouter à cette économie, l’énergie gagnée sur le refroidissement et le séchage de l’air entrant dans la chambre froide, ainsi que sur le givrage de la vapeur qu’il contient.
En effet, dans le premier cas, le renouvellement d’air de la chambre est de 61 volumes par 24 h; l’énergie frigorifique nécessaire pour traiter cet air est de 109,6 kWh pour le refroidissement et le séchage, dont 46,9 kWh pour le givrage.
Dans le second cas, le renouvellement n’est plus que de 6,2 volumes par 24 h et l’énergie nécessaire n’est plus que de 11 kWh (refroidissement et séchage), dont 4,7 kWh pour le givrage.

Avec un COP global moyen de 2,5 et un coût moyen de 0,115 € du kWh électrique, cela représente une économie supplémentaire de :

((109,6-11) [kWh] / 2,5) x 0,11 [€] x 260 [jours], soit 1179 € par an.

Dans cet exemple, on n’a pas diminué le nombre de dégivrages dans le cas où il y a moins de vapeur qui entre dans la chambre. Cela représente, en fait, une économie supplémentaire, car il faut moins d’énergie pour refroidir les masses métalliques des évaporateurs, chauffées lors des dégivrages.

Remarque : vu la remarque ci-dessous, cet exemple sert plus à montrer qu’il y a de grosses possibilités d’économies par une utilisation rationnelle de la chambre froide qu’à donner des chiffres exacts. En effet, la masse de l’évaporateur ainsi que le nombre de dégivrages ont été encodés de manière arbitraire.

Calculs

Si vous voulez estimer vous même les possibilités d’économiser de l’énergie grâce à une utilisation rationnelle de votre chambre froide, cliquez ici !

Mais ATTENTION : ce tableau doit être utilisé avec beaucoup de précautions !

En effet, les résultats dépendent de paramètres introduits par l’utilisateur. Or ces paramètres ne sont pas toujours connus et dépendent eux-mêmes du résultat des calculs.

Par exemple :

  • La masse des évaporateurs est une donnée arbitrairement introduite par l’utilisateur. Or elle dépend d’une série de paramètres qui ne sont pas dans le tableau (et notamment la puissance frigorifique totale). Il est donc a priori très difficile de choisir une valeur correcte pour la masse des évaporateurs.
  • Le nombre de dégivrages est aussi une donnée arbitrairement introduite par l’utilisateur.
    Or, il dépend de la masse de givre piégée sur les ailettes des évaporateurs, de l’écartement de ces ailettes, de la surface d’échange des évaporateurs (c’est-à-dire de leurs dimensions) qui conditionne l’épaisseur moyenne de givre déposé sur les ailettes.

Il faut aussi se rappeler que le rendement d’un évaporateur baisse au fur et à mesure que du givre vient se placer dans les interstices entre les ailettes.
Cela veut dire que si on diminue artificiellement le nombre de dégivrages, on diminue évidemment l’énergie nécessaire pour les dégivrages parce qu’il faut moins souvent chauffer les masses métalliques, mais on diminue aussi le rendement des évaporateurs (et donc de la machine entière) avec le grand danger d’avoir des évaporateurs bourrés de glace, ce qui provoquera finalement l’arrêt de la machine.

En fait, cela revient à dire que le calcul des machines frigorifiques doit être un calcul intégré où les éléments du bilan frigorifique ne peuvent pas toujours être envisagés séparément, comme c’est le cas ici avec ce tableau…; il s’agit d’un calcul itératif !


Choix de la technique de dégivrage

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons :

  • par résistance chauffante,
  • par introduction de vapeurs refoulées par le compresseur,
  • par aspersion d’eau sur la surface externe, givrée, de la batterie,
  • par circulation d’air.

Les deux premières méthodes citées ci-dessus sont les plus courantes :

Par résistance chauffante

Des résistances chauffantes sont imbriquées dans les tubes en cuivre qui composent la batterie de l’évaporateur. Leur position et leur puissance sont étudiées par le fabricant de manière à répartir uniformément la chaleur produite à l’ensemble de la batterie.

Avantages, inconvénients et choix

C’est une méthode simple, très répandue pour les unités de puissance moyenne.
Elle n’est pas dénuée de divers inconvénients : la consommation se fait en électricité directe, et donc à un prix élevé en journée, surtout si la période de dégivrage a lieu durant la pointe quart-horaire du mois.

Précautions

Dans les équipements frigorifiques des grandes cuisines, la place disponible fait souvent défaut et la tendance des architectes est de sélectionner du matériel très compact. D’autre part, les budgets sont de plus en plus étroits, ce qui ne facilite pas la sélection de matériel de qualité.

Cependant pour assurer un bon fonctionnement du dégivrage à long terme, certaines précautions sont à prendre :

  • Les résistances n’ont pas une durée de vie éternelle. Elles doivent être remplacées en cas de défaillance. Lors de l’installation de l’évaporateur, il ne faudra donc pas oublier de tenir compte de leur longueur (généralement la longueur de l’évaporateur) et laisser l’espace nécessaire pour permettre de les extraire de leur  » doigt de gant « .
  • Toutes les résistances sont fixées à l’aide de fixation ad hoc dans la batterie. Il importe de fixer également les nouvelles qui seraient introduites après un remplacement.En effet, si les résistances ne sont pas bien fixées, les dilatations produites lors du chauffage et du refroidissement peuvent faire bouger les résistances et les faire sortir de leur position avec comme conséquence de ne plus chauffer uniformément la batterie.

Par introduction de vapeurs refoulées par le compresseur

Cette technique, encore appelée dégivrage par « vapeurs chaudes » ou par « gaz chauds », consiste à inverser le cycle et à faire fonctionner l’évaporateur, le temps du dégivrage, en condenseur.

Avantages, inconvénients et choix

L’inversion de cycle est très économique, notamment car les vapeurs chaudes sont directement introduites dans les tubes avec des températures très élevées. Les temps de dégivrage sont donc très courts : parfois quelques secondes suffisent.

Néanmoins, cette méthode complique le réseau des conduites frigorifiques : des éléments supplémentaires tels que la vanne à 4 voies (qui sert à l’inversion de cycle), vannes magnétiques pour couper les circuits, etc. viennent s’ajouter à l’installation.

Ainsi, elle est surtout utilisée dans les installations industrielles.

Dans les équipements frigorifiques des grandes surfaces, il n’y a que les machines à glaçons (lit de glace en poissonnerie), quand il en existe, qui sont parfois munies d’un système d’inversion de cycle pour démouler les glaçons.

Par aspersion d’eau sur la surface externe, givrée, de la batterie

Avantages, inconvénients et choix

Cette technique est parfois utilisée pour des enceintes froides à des températures voisines de 0°C et pour des enceintes demandant une humidité élevée (chambres de conservation de fruits). La consommation d’eau, fluide de plus en plus coûteux, est un inconvénient.

Par circulation d’air de la chambre

De l’air provenant soit de l’intérieur de la chambre même, soit de l’extérieur, est envoyé sur l’échangeur. Dans le premier cas, le dégivrage est très lent. Dans le second, il faut isoler l’évaporateur de la chambre, ce qui n’est pas pratique.

Avantages, inconvénients et choix

L’inertie des produits stockés doit être suffisante à maintenir l’ambiance dans une fourchette de température acceptable. C’est donc une technique qui n’est pas à utiliser pour des chambres froides qui sont quasi vides juste avant le réapprovisionnement.

La première de ces méthodes a l’avantage de récupérer totalement l’énergie frigorifique stockée dans la glace. De plus, seule une horloge est nécessaire pour interrompre la production frigorifique. Elle ne tombe donc jamais en panne.

En général, cette méthode est utilisée avec une température de chambre supérieure à 0°C et lorsque les enceintes ne sont pas trop sollicitées par des ouvertures de portes. Mais la pratique montre que certains régulateurs « intelligents » utilisent également ce système lorsque la température est fortement négative, grâce au fait qu’en dessous de -5°C la structure de la glace est très différente (beaucoup plus poudreuse et donc moins collante : une sublimation est alors possible).

Remarque : cette technique est celle utilisée par un fabricant qui propose une régulation intelligente des dégivrages.


Choix de la régulation du dégivrage

Le dégivrage est une source de consommation d’énergie :

  • Par l’apport de chaleur nécessaire à la fusion du givre (effet utile).
  • Suite à l’échauffement, suivi du refroidissement, de la masse métallique de la batterie (effet nuisible).
  • Par le réchauffement partiel, suivi de la remise en température de la chambre froide, une partie de la chaleur que nécessite le dégivrage ayant été perdu dans cette enceinte (effet nuisible).

Il existe donc une fréquence optimale de dégivrage pour minimiser l’énergie dépensée par cette opération :

  • Trop fréquents, ils sont effectués alors qu’une faible quantité de givre s’est déposée sur la surface froide, l’effet utile est insuffisant devant les effets nuisibles qui l’accompagnent.
  • Trop peu fréquents, la masse excessive de givre présente sur la batterie diminue l’efficacité énergétique de la machine frigorifique.

Choix du type de régulation

Pour les petites enceintes, une régulation par horloge peut suffire. Mais mal utilisée, cette régulation peut conduire à des aberrations énergétiques : qu’il y ait présence ou non de glace, le dégivrage est enclenché à l’heure programmée, la durée du dégivrage est fixe, quelle que soit la présence effective de glace.

Ainsi, en fonction des conditions d’exploitation des enceintes froides (peu ou beaucoup d’ouvertures de portes), les agents d’exploitation devront modifier la fréquence des dégivrages par le réglage des horloges, et une sonde de fin de dégivrage doit permettre à l’installation de redémarrer plus rapidement que la période fixée.

Cependant ils ne doivent, en aucun cas, intervenir sur la séquence. Certaines d’entre elles, interne des opérations de dégivrage si elles sont mal conduites, peuvent créer des écarts de pression intolérables entre l’intérieur et l’extérieur des chambres froides.

Pour les plus grandes enceintes, il est indispensable, au niveau énergétique, que la séquence des dégivrages réels se rapproche au mieux de la séquence utile. On utilise pour cela une régulation électronique intelligente de dégivrage. De tels systèmes permettent des économies substantielles.

Il en existe au moins deux sur le marché :

  • Le premier système de régulation électronique intelligent permet d’espacer la séquence de dégivrages initialement programmés s’il n’a pas détecté de phase de fusion suffisamment longue durant les 10 dernières opérations de dégivrage programmées.
  • Le second système de régulation électronique intelligent détecte la présence de glace à partir de deux sondes de température (l’une mesure la température ambiante de la chambre, l’autre est placée dans les ailettes de l’évaporateur). L’explication de ce principe ne nous a pas été détaillée.Chez ce fabricant, le critère d’arrêt du dégivrage classique est une température d’évaporateur de 10°C. Cela semble élevé, mais c’est, semble-t-il, une sécurité par rapport à l’absence totale de glace.En plus de cette détection de givre, ce système choisit un dégivrage par circulation d’air de la chambre chaque fois que la température intérieure le permet. Ce qui est très intéressant au niveau énergétique puisque non seulement il ne faut pas produire de la chaleur pour le dégivrage, mais qu’en plus, toute l’énergie latente contenue dans la glace sera restituée à l’ambiance.Un dégivrage classique par résistance chauffante n’aura lieu que lorsqu’il n’est pas possible d’attendre la fusion de la glace par l’air ambiant.

Quel que soit le système de régulation intelligente, la souplesse de ces appareils par rapport aux thermostats mécaniques permet d’affiner les réglages et de proposer des fonctions complémentaires :

  • alarmes,
  • possibilité de faire fonctionner le congélateur avec une consigne abaissée de 5°C la nuit (pour bénéficier du courant de nuit),
  • possibilité de délester durant la pointe 1/4 horaire,

D’après le fabricant du second système ci-dessus, l’investissement (+/- 1 625 €) est amorti en moins d’un an.

Exemple.

Une chaîne de supermarchés belge a adopté ce système pour l’ensemble de ses chambres froides depuis 2 ans. Un des responsables techniques nous a confirmé que l’investissement a largement été amorti sur cette période en regard des économies d’énergie apportées (plus de 20 % de la consommation de la chambre). Une généralisation de ce système à l’ensemble des points de vente est programmée.

De plus, ces systèmes peuvent tout à fait s’adapter sur des installations existantes.

Lors de la pose d’un système de régulation de dégivrage, il est important de l’adapter au mieux à la chambre froide et à son utilisation. Il appartient au frigoriste de bien poser au client les questions pour comprendre son mode de travail et de câbler la régulation la plus appropriée.

Autres précautions…

Pour optimiser le dégivrage, le frigoriste ne doit pas oublier de prévoir deux temporisations dans les étapes de dégivrage :

  • Après l’opération de dégivrage proprement-dite, il faut prévoir une temporisation avant l’ouverture de la vanne magnétique (permettant à la production frigorifique de reprendre). Cette précaution permet d’assurer l’égouttage.
  • Ensuite, il faut prévoir une deuxième temporisation avant la remise en fonctionnement des ventilateurs de l’évaporateur. Cette temporisation permet à la batterie d’atteindre une température moyenne inférieure ou égale à celle de l’enceinte. À défaut, la remise en route prématurée des ventilateurs peut envoyer de la chaleur dans la chambre froide et/ou des gouttelettes d’eau encore présentes.

Il veillera aussi à prévoir un système de sécurité qui arrête le dégivrage dès qu’une température ambiante excessive est atteinte. Cette sécurité doit, par exemple, être accompagnée d’une alarme qui prévient le personnel du problème.

Cette précaution est d’autant plus importante que les produits stockés sont coûteux.

Exemple.

Il est déjà arrivé qu’un contacteur qui commandait les résistances électriques de dégivrage d’une enceinte stockant des crustacés, du caviar, etc. reste bloqué et que du chauffage soit diffusé toute la nuit dans la chambre avant que le personnel ne s’en aperçoive le lendemain matin.


Évacuation des condensats

Il faut prévoir un raccordement de décharge pour l’évacuation des condensats ou des eaux de dégivrage.

Dans les chambres froides négatives, pour éviter le gel, les tuyaux qui évacuent les condensèrent doivent être calorifugés, voir chauffés. L’évacuation par le haut à l’aide d’une pompe de relevage offre l’avantage d’éviter les passages de tuyaux à l’intérieur de l’enceinte (en général, l’évaporateur est suspendu au plafond). De façon générale, il faut chercher à sortir les condensats par le chemin le plus court de la chambre froide vers l’extérieur de manière à éviter tout souci.

L’exploitation devra toujours veiller à la bonne évacuation des eaux de dégivrage, et donc maintenir toujours libre de givre non fondu le bac de collecte de ces eaux. Elle doit également veiller au bon état de la conduite d’évacuation et de son système de chauffage (pour les chambres à températures négatives).

L’écoulement des condensats est primordial pour assurer de parfait dégivrage. Un bac de condensats qui ne se vide pas va provoquer très rapidement la prise en glace de la batterie par simple conduction entre l’eau et les ailettes.

Mesurer la tension électrique

Mesurer la tension électrique


Le voltmètre

Un voltmètre mesure la tension existante aux bornes d’un appareil. On branche donc le voltmètre en le plaçant en parallèle (ou en dérivation) à l’appareil.

Dans un réseau monophasé, on mesure entre la phase et le neutre une tension d’environ 220 à 240 Volts.

Dans le réseau triphasé, elle est également de 220 V entre une phase et le neutre (ou la mise à la terre), mais entre deux phases elle est de 380 à 415 Volts.


Le contrôleur de tension

Un testeur (parfois monté sur un tournevis) permet bien de contrôler la présence d’une tension, mais non sa valeur. Le principe consiste à faire passer un faible courant au travers d’une lampe. Mais cette lampe ne s’allume qu’à partir de 80 à 100 V.

Schéma principe contrôleur de tension.

Partout où l’on peut s’attendre à une tension de retour (par exemple dans les câblages de commande d’une armoire électrique), il faut employer le voltmètre.


Appareil intégré à l’installation électrique

Bien sûr il est possible d’intégrer un voltmètre traditionnel à une installation fixe mais l’idée est plutôt ici d’utiliser des appareils délivrant un signal analogique standard de type 4 – 20 mA ou 0 – 10 V, proportionnel à la tension mesurée. Ces appareils peuvent alors être raccordés à la régulation d’une installation, et permettre un suivi en continu.

    

Le convertisseur (ou transducteur)

Pour la mesure sur des réseaux de forte puissance, il est associé à un transformateur de tension.

L’ analyseur de réseau

La mesure de la tension n’est alors qu’une des grandeurs électriques fournies par cet appareil. Il intègre un microprocesseur permettant l’affichage de valeurs moyennes ou la mémorisation des valeurs de pointe.

Il fonctionne de manière autonome mais peut être raccordé à une régulation locale.

Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
24-09-2008 : WinMerge ok – Sylvie

Réparer la protection de l’étanchéité

Réparer la protection de l'étanchéité


Comment réparer les protections légères ?

Les protections légères sont fixées directement sur la membrane d’étanchéité, ce sont :

  • soit une couche de paillettes d’ardoise,
  • soit une couche de peinture,
  • soit une feuille métallique.

Elles peuvent avoir été usées ou altérées.

Évaluer

Pour évaluer l’état de la protection légère.

Il est essentiel que cette protection reste en bon état pour éviter une dégradation de la membrane elle-même.

Le tableau ci-dessous indique en fonction du type de protection, les réparations possibles.

Type de protection

Réparations possibles

Paillettes d’ardoise Petites surfaces abîmées : collage de nouvelles paillettes
Grandes surfaces abîmées : brossage des paillettes non adhérentes et application d’une couche de peinture anti-UV compatible avec la membrane.
Peinture Nouvelle couche de peinture
Feuille métallique Petites surfaces abîmées : collage de rustines en membrane surfacée métallique
Grandes surfaces abîmées : enlèvement des parties mal fixées et application d’une couche de peinture anti-UV compatible avec la membrane.

Comment réparer les protections lourdes ?

Comme les protections légères, les protections lourdes protègent la couverture des rayons UV. En outre, par sa masse, elle assure la résistance au vent de celle-ci et la protège des agressions mécaniques.

Ce sont :

  • soit du gravier,
  • soit des dalles sur plots,
  • soit des dalles complexes isolantes,
  • soit des chapes en béton ou en mortier recouvertes ou non de dalles,
  • soit de l’asphalte coulé.

Il est donc essentiel que la protection lourde couvre toute la surface à protéger. Elle doit également rester propre pour éviter le développement en son sein d’organismes nuisibles pour la toiture elle-même ou l’environnement. En outre, elle ne peut en se dégradant, devenir elle-même une menace de blessure pour les membranes (dalles ou chapes cassées)

Évaluer

Pour évaluer l’état de la protection lourde en gravier.

Le tableau ci-dessous indique en fonction du type de protection, les réparations possibles.

Type de protection

Réparations possibles

Gravier Remise en place, nettoyage, enlèvement des végétations.
Dalles sur plots Remplacement des dalles ou des plots cassés, nettoyage sous les dalles, réglage des niveaux.
Dalles drainantes Remplacement des parties cassées ou manquantes.
Dalles complexes isolantes Remplacement des parties cassées ou manquantes.
Chape avec ou sans dallage Ragréage des joints et parties abîmées.
Asphalte coulé Ragréage des joints et parties abîmées.

Rénover partiellement ou complètement l’installation ?

Rénover partiellement ou complètement l'installation ?


Avant tout définir ses objectifs

Diminuer les consommations On cherche d’une part à diminuer la puissance installée tout en garantissant un éclairement suffisant. Le choix se portera sur le type d’éclairage et sur le matériel (lampe, luminaire, ballast) ayant la meilleure efficacité énergétique. D’autre part, la fourniture d’éclairage sera adaptée aux besoins réels en fonction de l’occupation et de l’apport en éclairage naturel.
Diminuer le coût d’entretien Les performances des lampes et luminaires doivent rester valables le plus longtemps possible. Le choix des lampes à longue durée de vie est une chose mais il faut que le luminaire garantisse les performances dans le temps (c’est crucial en éclairage extérieur). De plus, un entretien rapide peut être exigé afin de diminuer les coûts importants liés à la main-d’œuvre.
Améliorer le confort et la sécurité des occupants Le confort traduit la sensation de bien-être et donne à un aménagement son aspect convivial ou purement fonctionnel. Le choix et l’implantation des luminaires sont les facteurs principaux qui agissent sur le confort visuel ; mais il ne faut pas écarter la couleur de la lumière émise, le niveau d’éclairement et la couleur des parois.

Si l’objectif de la rénovation est l’amélioration d’un confort lumineux, il est possible que les consommations électriques ne diminuent pas suite à la rénovation.

La puissance installée peut rester sensiblement identique mais la meilleure efficacité des lampes ou des luminaires et un emplacement plus adéquat de ces derniers permettra d’atteindre le niveau d’éclairement recommandé et d’éliminer les problèmes de réflexions, d’ombres ou d’éblouissement.

En fonction du type de local, les choix technologiques liés à la rénovation seront guidés par les priorités suivantes :


Se donner les moyens : rénovation complète ou rénovation partielle ?

Le choix entre ces deux modes de rénovation résulte d’un compromis entre le coût d’investissement, l’économie escomptée et l’amélioration du confort.

Rénovation partielle : remplacer les organes énergivores

Il s’agit de remplacer les éléments peu performants : soit les lampes, soit les ballasts, soit les optiques sans trop « toucher » à l’installation existante. En d’autres termes, tant que l’on ne démonte pas les luminaires, leurs câbles d’alimentation, leur commande/gestion, la rénovation peut être considérée comme partielle.

En ce qui concerne le remplacement des lampes, ce mode de rénovation est peu onéreux et rapide. Cependant, il n’est pas forcément le plus rentable. Il ne permet pas de prendre en compte tous les critères d’un éclairage de qualité (consommation minimum et confort maximum). De plus, pour certaines sources lumineuses comme les LED, la photométrie de la lampe n’est pas nécessairement adaptée au luminaire.  Par exemple, le remplacement d’un tube fluorescent par un tube LED, indépendamment d’une efficacité lumineuse controversée, ne garantit aucunement la même distribution du flux lumineux que l’ancien luminaire. C’est sans compter que le tube LED risque aussi de rendre les ailettes de défilement inefficaces et, par conséquent, de générer un éblouissement non négligeable. Enfin, actuellement, le placement d’un tube LED dans un luminaire existant (originalement prévu pour lampe fluorescente) a comme conséquence que les marquages ENEC  et CE ne sont plus valables.

Donc attention et prudence ! A prendre au cas par cas.

Une installation d’éclairage professionnelle nécessite une solution professionnelle.

Le remplacement des ballasts, des optiques, …, n’est pas nécessairement un gage de « success story » ; du moins pour les rénovations dans des bâtiments de faible taille. Cette opération demande souvent une main d’œuvre non négligeable qui annihile la rentabilité escomptée.

Pour les bâtiments de grande taille où les installations d’éclairage sont proches ou semblables, le « relighting » peut être envisagé. Il est impératif de s’adresser à des bureaux d’étude spécialisés ou directement à des fabricants capables de proposer une solution sur mesure.

Par exemple, un fabricant pourra proposer de remplacer des luminaires à tube fluorescent d’ancienne génération par une platine entièrement équipée :

  • du tube type T5 ;
  • du ballast électronique « dimmable » ou pas ;
  • du pré câblage.

Seule la connexion en la platine et l’alimentation dans le luminaire est à réaliser ; donc peu de main d’œuvre nécessaire.

Remarque : en éclairage extérieur, remplacer seulement une partie des luminaires (lampe, optique ou ballast) s’applique très peu.  En effet, les réflecteurs des luminaires extérieurs sont généralement conçus pour une position bien précise du brûleur de la lampe. Un changement de lampe peut donc réduire le rendement du luminaire. De plus, les anciennes installations ne présentent plus nécessairement les qualités requises en matière de sécurité électrique, d’étanchéité et de rendement.


Rénovation complète

Le remplacement complet des luminaires est plus onéreux, mais conduit généralement à une plus grande économie d’énergie. Il permet d’élargir la sélection des appareils et de réaliser des choix mieux adaptés aux besoins.
Des contraintes subsistent toutefois :

  • Si on modifie le faux plafond, tout est permis ou presque.
  • Si on ne peut modifier le plafond, le nombre de luminaires, leur dimension et leur forme sont souvent figés figés (éventuellement une « carrosserie » adaptée sur mesure à prévoir en fonction des ouvertures existantes).
  • Si on peut modifier le réseau électrique, l’insertion de commandes/gestions supplémentaires permet de prendre en compte des besoins locaux différents.
    Note : Il existe des systèmes de gestion qui ne nécessitent pas de câblage supplémentaire  (gestion par luminaire, interrupteurs infra-rouge…).

Concevoir

Pour savoir comment concevoir un nouveau projet d’éclairage.

Calculs

Divers programmes de calcul permettent une comparaison économique sommaire des différentes possibilités de rénovation.

Découvrez ces exemples de « relighting » : les cours de tennis du tennis club de Waterloo, la rénovation de l’ILV, le bâtiment principal du CSTC à Limelette et deux locaux (bureaux) au CSTC.

Choisir un système convectif sur boucle d’eau froide : ventilo-convecteurs ou poutres froides

ventilo-convecteurs ou poutres froidesventilo-convecteurs ou poutres froides


Domaine d’application

Les émetteurs convectifs sur boucle d’eau sont parmi les systèmes de refroidissement les plus fréquemment rencontrés. On rencontre aujourd’hui particulièrement 2 technologies : les ventilo-conveteurs et les poutres froides.

On rencontre le ventilo-convecteur comme émetteur :

  • Dans les installations de climatisation devant assurer à la fois des besoins de chaleur en hiver et des besoins de refroidissement en été; ainsi, on les rencontre classiquement en allège de fenêtre des locaux, pour casser le froid du vitrage en hiver et compenser les apports solaires importants en été dans les bureaux, les commerces, les restaurants, les salles informatiques, les chambres d’hôtel,…
  • Dans les installations de chauffage pour lesquelles on souhaite une relance très rapide; une salle des fêtes, une salle de conférence, … dont le chauffage est intermittent, seront utilement équipés de ventilo-convecteurs.
  • Dans les installations de chauffage irriguées par de l’eau à basse température; les circuits raccordés à une source géothermale, à une pompe à chaleur, à un capteur d’énergie solaire,… sont valorisés par les ventilo-convecteurs qui augmentent la puissance de l’échange.

On rencontre plus particulièrement le ventilo-convecteur « 4 tubes » dans les bâtiments dont les besoins simultanés sont différents d’un local à l’autre : une cafeteria, un local informatique, des bureaux, des salles d’archives,… et le tout sur une même façade !

Le ventilo « 2 tubes – 2 fils » est une solution qui peut à la limite convenir lorsque le bâtiment est neuf et particulièrement bien isolé. Les apports internes (éclairage, bureautique, personnel,…) sont tels que le chauffage ne doit être enclenché qu’en période de gel, par exemple. Mais il sera utile de demander au bureau d’études une évaluation précise des coûts d’exploitation prévus pour le bâtiment…

C’est souvent la solution choisie par les promoteurs : le prix de revient du bâtiment est moindre. Quant à l’exploitation, ce n’est plus leur affaire … !

La possibilité de faire du chaud et du froid avec le même appareil, son prix de revient très raisonnable suite aux faibles surfaces des échangeurs, la facilité de la régulation local par local, l’efficacité du transport thermique par eau, … fait du ventilo-convecteur un best-seller de nos bâtiments climatisés !

Les poutres froides sont, en quelque sorte, des convecteurs de chauffage qui ont été placés au plafond pour faire du froid !

Photo poutres froides.  Photo poutres froides.

Il s’agit de tuyauteries parcourues par de l’eau glacée, serties d’ailettes pour favoriser l’échange convectif. Elles sont placées au plafond ou intégrées dans le faux plafond.

On distingue les poutres « actives » ou « dynamiques » (effet d’induction créé par l’air neuf) des poutres « passives » (convection naturelle uniquement) . Cet échangeur travaille sous un faible écart de température, suite à la condition de non-condensation. Sa puissance frigorifique varie selon la largeur de la poutre, la présence d’induction, l’écart de température,…

Ce produit étant à la mode, la Belgique voit son parc de poutres froides s’agrandir d’année en année, principalement dans les bureaux. Cette technique s’adapte à la construction nouvelle, mais aussi en rénovation grâce au fait de ne pas devoir percer des parois pour le passage de gainages d’air volumineux.

Les éjecto-convecteurs, sorte d’intermédiaire entre les deux précédents, est une technique des années 70 qui n’est plus guère rencontrée aujourd’hui.

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des ventilo-convecteurs, cliquez ici !

Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des éjecto-convecteurs, cliquez ici !

 Techniques

Pour connaître en détail les caractéristiques technologiques et le fonctionnement des poutres-froides, cliquez ici !

Avantages des émetteurs convectifs sur boucle d’eau

Ventilo-convecteurs et poutres froides partagent certains avantages, mais se distinguent pas d’autres.

Dans les deux cas, on bénéficie de :

  • La séparation entre la fonction ventilation des locaux (air neuf hygiénique) et l’apport thermique (apport de froid) est un gage de bonne régulation.
  • La possibilité de faire du chaud et du froid avec le même appareil, et avec une puissance relativement élevée.
  • Le système ne demande que le percement de trous pour le passage de tuyauteries d’eau. En rénovation de bâtiments, on évite ainsi l’encombrement des gainages à air de grandes dimensions… De plus, il est possible de récupérer l’ancienne installation de chauffage.
  • Une efficacité du transport thermique par eau :. Le transport du froid vers les locaux par de l’eau glacée (pompe) est environ dix fois moins énergétique que le transport par de l’air froid (ventilateur).
  • Une facilité de régulation, local par local, et donc un bon confort pour les utilisateurs : une régulation souple puisque réalisée tant via le débit d’eau que le débit d’air. un arrêt possible de l’équipement, localement, un mode de régulation très accessible par les utilisateurs, une liaison possible des différents appareils par bus de communication, ce qui permet une régulation globale de qualité par GTC.
  • Ces systèmes ne font intervenir qu’un seul corps de métier. Le plafond froid combine lui deux compétences : la pose de faux plafonds et la pose de tuyauteries. L’ensemble est plus complexe à gérer, d’autant que l’oeil est très sensible à la planéité des plafonds.

Le ventilo-convecteur a en outre comme avantage :

  • Un prix de revient raisonnable, surtout pour le système 2 tubes-2 fils, suite aux faibles surfaces des échangeurs à débit d’air forcé, et au faible coût de pose, (à noter que le prix de l’appareil dépend peu de la taille de l’échangeur et qu’il est donc possible de le surdimensionner au départ pour tenir compte d’un éventuel accroissement des charges futures).
  • Une facilité de placement : placement aisé en allège lorsque les hauteurs sous plafond ne permettent pas l’intégration d’un faux plafond, la possibilité de placer le ventilo en hauteur et de libérer la place au sol.
  • Une intégration possible d’une prise d’air neuf à l’arrière de l’équipement.
  • Une fiabilité de l’appareil (qui constitue un grand classique de la climatisation) et donc une longue durée de vie; ce n’est pas la Rolls de la clim, … mais une bonne Peugeot, quoi !
  • Dans le cas des systèmes 4 tubes :
    • La souplesse d’utilisation est totale puisque chaque ventilo est autonome : un local peut être refroidi lorsque son voisin est chauffé…
    • La possibilité de récupérer la chaleur extraite dans un local pour la fournir au local en demande.
    • Plus de circuits de zones, de vannes de commutation, … la régulation est plus simple et le service de maintenance ne s’en plaindra pas !

Par contre, la poutre froide a l’avantage de :

  • Le bruit est limité, pour autant que l’air neuf ne soit pas pulsé à trop haute vitesse (attention aux systèmes actifs).
  • La préparation d’eau glacée à une température de 15°C environ permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »). Cette propriété n’est tout à fait effective que si une machine frigorifique est spécifiquement prévue pour l’alimentation en eau froide des plafonds. Elle est en partie perdue si la même machine frigorifique est utilisée pour préparer l’air neuf déshumidifié …
  • Cette température élevée permet d’imaginer, durant une bonne partie de l’année, un refroidissement direct de l’eau glacée dans un aéro-refroidisseur ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique. Cette technique est généralement appelée « free-chilling ». La consommation liée au froid se résume à l’alimentation des pompes de circulation ! La présence d’une source d’eau froide naturelle peut également être mise à profit (rivière, lac, …).
  • L’encombrement au sol est nul !

Désavantages des émetteurs convectifs sur boucle d’eau

En termes d’inconvénients, dans les deux cas :

  • L’hygrométrie n’est pas contrôlée dans les locaux, ce qui peut poser problème d’un air trop sec en hiver.
  • La difficulté d’assurer un confort thermique correct est réelle, notamment sans courants d’air dans la zone de travail,… Une poutre statique génère une « coulée » d’air froid très désagréable sur les personnes situées sous les poutres. Elle ne peut a priori se placer que dans les locaux de grande hauteur. Par contre, la poutre dynamique semble plus confortable, car elle induit un mélange avec l’air ambiant plus élevé et donc une température de l’air plus homogène. Cependant, à l’intersection entre les flux d’air créés par deux poutres voisines parallèles, les deux flux d’air risquent de tomber sur la tête d’un utilisateur ! Le ventilo-convecteur quant à lui peut générer des courants d’air froids.
  • Curieusement, la facilité de fabrication et de pose peut devenir un inconvénient, surtout en marché public où le prix constitue le critère de sélection : la qualité des équipements fournis et la qualité de l’installation sont très variables !

 Le ventilo-convecteur a en outre comme désavantage de :

  • Lorsqu’un appareil de mauvaise qualité est installé (sous-dimensionnement des échangeurs, vitesse élevée du ventilateur, …), le bruit sera l’élément le plus négatif de cet équipement. Le niveau sonore peut être compris entre 35 et 65 dB, selon la qualité constructive, la vitesse du ventilateur et l’âge de l’équipement.
  • Le ventilo dont une prise d’air est réalisée en façade est une solution peu adaptée aux critères de confort actuel ! Ses performances thermique et acoustique sont faibles. Sans oublier le risque de gel…
  • Dans le cas des systèmes 2 tubes : Les besoins doivent être similaires dans les différents locaux d’une même zone; autrement dit, le nombre de zones doit être suffisamment élevé, si on ne souhaite pas de conflits en mi-saison pour le passage du chaud au froid !
  • Dans le cas des systèmes 4 tubes :
    • Le coût d’installation est plus élevé puisque les ventilos contiennent deux échangeurs, les circuits sont dédoublés, de même que le nombre de vannes, de circulateurs,…
    • L’encombrement est également plus important (ventilos plus volumineux et gaines techniques plus larges).
    • Durant toute une partie de l’année, il faut maintenir en fonctionnement les deux réseaux; les pertes énergétiques de ces réseaux ne sont pas négligeables…
  • Dans le cas des systèmes 2 tubes – 2 fils : Le coût d’exploitation est certainement le point noir de ce système…

La poutre froide a, elle, comme désavantages :

  • Le coût d’installation est élevé, du moins en rapport à la puissance frigorique fournie.
  • La puissance frigorifique reste limitée par rapport aux systèmes traditionnels. Ou du moins, placer des poutres dans les plafonds risque de générer des problèmes d’inconfort si bien que la densité maximale admissible reste faible.
  • Dans le cas des poutres dynamiques, il est courant de pulser un débit d’air supérieur à celui strictement nécessaire pour assurer l’air neuf hygiénique dans les locaux. Autrement dit, pour assurer la puissance de refroidissement demandée par le local, l’air primaire pulsé passe bien souvent de 1 renouvellement horaire à deux renouvellements. Le débit d’air total brassé est alors de l’ordre de 5 (3 renouvellements d’air secondaire sont induits). Or c’est de l’air neuf qui est ainsi doublé, ce qui va générer une consommation supplémentaire très élevée durant la vie du bâtiment.
  • La poutre dynamique est très semblable à l‘éjecto-convecteur dans son mode de fonctionnement. On peut donc lui faire les mêmes nombreux reproches. Il est d’ailleurs très curieux que l’éjecto-convecteur, écarté du marché, car ne convenant plus aux besoins de souplesse des locaux, revienne aujourd’hui, sous une forme plus complexe encore en matière de maintenance : dans le plafond ! Le prix d’investissement justifie-t-il de refaire les mêmes erreurs ?
  • L’encrassement des poutres demande un entretien régulier, pas toujours aisé lorsqu’on ne souhaite pas interrompre l’activité des personnes.


Choix du régime d’eau

Dans le cas des poutres froides, le circuit est alimenté au régime aller-retour de 15°C – 17°C (on parle d’eau froide), pour limiter les risques de condensation dans l’émetteur. Dans le cas des ventilo-convecteurs par contre, le régime peut être plus bas (6°C-12°C – on parle d’eau glacée).

Choisir une température d’eau glacée la plus haute possible

Plus la température de l’eau glacée est basse, plus l’inconfort des occupants augmente (température d’air très basse). De plus, la consommation des ventilos-convecteurs augmente :
Car la chaleur latente de l’air captée augmente.
En effet, si la température de la boucle d’eau glacée est inférieure à la température de rosée de l’ambiance et l’humidité de l’air se condenseront inutilement.

Il est donc utile de dimensionner les ventilos sur base d’un régime de température élevé. Par exemple : départ 12°C – retour 16°C, départ 12°C – retour 18°C, …

Dimensionner les installations avec un régime 6°C – 12°C va permettre de sélectionner des échangeurs plus petits (delta T° plus élevé par rapport à l’ambiance), donc moins chers à l’investissement, mais nettement plus coûteux à l’usage.

En fait, lorsque le bureau d’études dimensionne au régime 6°C – 12°C, il voit dans le catalogue du fabricant la part de chaleur latente captée par rapport au sensible.

Exemple : la sélection d’un ventilo-convecteur.

Le catalogue d’un fabricant prévoit :

Régime 6/12°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 3,40 kW
Puissance frigorifique sensible : 2,35 kW

On constate que 1,05 kW est consacré à la déshumidification de l’air ambiant, soit 31% de la puissance totale. À ce moment, la consommation de l’appareil est majorée de 31 % !

Voyons pour le régime 12/18 (pour le même appareil) :

Régime 12/18°C, ambiance à 27°C et 46 % HR :

Puissance frigorifique totale : 1,58 kW
Puissance frigorifique sensible : 1,58 kW

La déshumidification n’a plus lieu. Mais l’échangeur ne produit plus que 1,58 kW utile… Il faudra augmenter la surface d’échange de 49 % pour atteindre les 2,35 kW du régime 6/12.

On rétorquera que la déshumidification est parfois nécessaire en plein été. Effectivement, mais c’est le rôle du groupe de préparation d’air hygiénique de déshumidifier l’air, avec un contrôle basé sur la sonde de reprise d’air. Le ventilo agit lui sans aucun contrôle. On le voit bien puisque le catalogue part d’une humidité ambiante de 46 %, qui n’est pas à déshumidifier. Le ventilo le fera quand même !

De plus, suite à la condensation sur les ailettes, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.

> Car le rendement (ou COP) de l’installation frigorifique diminue.

Au régime 7°C – 12°C, la température moyenne de l’évaporateur est plus basse qu’au régime 12° – 17°C. Le compresseur a plus de mal à travailler et le COP de l’installation en est légèrement dégradé. En moyenne, on considère que le COP diminue de 3 % par degré d’abaissement de la température d’évaporation.

Si la machine frigorifique alimente à la fois le réseau d’eau glacée et la batterie froide du caisson de traitement d’air (par exemple, au régime 7°C – 12°C), l’impact est plus faible mais l’intérêt de travailler à haut régime de température reste et l’on essayera d’organiser la mise en série hydraulique des batteries.

> Car il est alors possible de récupérer la chaleur captée par l’eau glacée pour préchauffer l’air neuf hygiénique.

Évaluer

Chiffrer l’investissement et le coût d’exploitation pour le régime à haute température.

Problème des locaux à forte chaleur sensible dégagée

Dans les locaux informatiques, par exemple, on n’arrive pas toujours à travailler avec des ventilos alimentés à haute température (12°C – 17°C). La puissance frigorifique délivrée n’est pas toujours suffisante.

Dans ce cas, il est plus intéressant de créer un réseau spécifique pour l’eau du local informatique. On peut y travailler à température plus basse puisque l’air ne contient pas d’humidité (donc pas de consommation par le latent).

De plus, un tel réseau indépendant est souvent adéquat parce que le travail y est réalisé 24h/24 et alimenté sur secours, ce qui implique une gestion autonome.

Généralement, les besoins d’apport d’air neuf sont faibles, la ventilation se fait par transfert d’air venant des couloirs et extraction dans le local.

Possibilité de free-chilling

Les ventilos-convecteurs alimentés par de l’eau froide à « haute température » (régime 12°C – 17°C) pourront valoriser tout particulièrement la technique de free-chilling qui consiste à by-passer le groupe frigorifique et à refroidir directement l’eau de 17 à 12°C par l’air extérieur.

Concevoir

Pour en savoir plus sur la mise en place d’un free-chilling, cliquez ici !

Puisque cette possibilité existe dès que la température extérieure est inférieure à 10°C, cette technique sera particulièrement intéressante si des besoins de refroidissement des locaux existent en période d’hiver.

C’est l’analyse des besoins du bâtiment en fonction de la température extérieure qui devra le dire.


Combinaison avec la ventilation hygiénique

Trois combinaisons entre les émetteurs convectifs et le réseau de ventilation sont possibles :

Contrôle de température et ventilation totalement séparés

Illustration sur le contrôle de température et ventilation totalement séparés

Dans ce cas, air neuf et contrôle de la température sont complètement séparés. L’air est amené par un réseau de ventilation mécanique optimisant les récupérations d’énergie sur l’air extrait et la valorisation du free cooling.

Éventuellement, l’air neuf est traité en centrale pour fournir un apport de chaleur ou de froid « de base » dans les locaux. L’unité terminale sert alors de correction locale. Attention ! Dans ce type de configuration, il existe un risque de destruction d’énergie entre le traitement centralisé et l’unité terminale.

On rencontre cette configuration dans le cas des poutres froides statiques et de la plupart des installations de ventilo-convecteurs.

L’émetteur combiné à la gaine de pulsion d’air

C’est la configuration typique des poutres froides dynamiques, qui utilisent la pulsion d’air hygiénique pour générer un effet d’induction sur l’échangeur de chaleur.

De même, lorsque le ventilo est placé en faux plafond, on a souvent tendance à insérer l’apport d’air neuf dans le plénum constitué par ce faux plafond. Le ventilo aspire un mélange d’air du local et d’air neuf.

Illustration sur l’émetteur combiné à la gaine de pulsion d'air

Un tel système demande la présence d’un organe autorégulant à l’entrée de chaque ventilo pour ne pas perturber le débit lorsque des ventilos voisins se mettent à l’arrêt.

On peut également se demander ce que devient l’apport d’air neuf dans le local lorsqu’il n’y a pas de demande de chaud ou de froid, c’est-à-dire lorsque le ventilateur du ventilo est mis à l’arrêt. En effet, le ventilateur principal n’a, en principe, pas été dimensionné pour vaincre la résistance des batteries du ventilo.

Pour garantir un apport d’air neuf permanent, le ventilateur du ventilo doit fonctionner en permanence, avec une puissance d’environ 60 W.

Une telle configuration sous-entend un préchauffage central minimum de l’air en hiver, puisqu’il est impensable, notamment pour des raisons de condensation, de faire circuler de l’air à – 10°C au travers du bâtiment.

Dans le cas d’un ventilo-convecteur placé en allège, la tuyauterie d’air neuf peut être intégrée dans le faux plafond du local inférieur, ce qui diminue le coût d’investissement.

On retrouve une telle intégration dans les MTA, Modules de Traitement d’Air.

Le ventilo-convecteur équipé d’une prise d’air neuf directe à l’arrière de l’équipement

C’est au départ une solution peu onéreuse car elle ne demande aucun réseau d’air pour la pulsion. En fait, on est face à une ventilation mécanique dont seule l’extraction est gainée.

Ce système n’entraîne aucun conflit entre apport thermique par le ventilo et apport thermique par l’air neuf (pas de destruction d’énergie), mais il interdit aussi toute gestion URE de la ventilation : récupération de chaleur sur l’air extrait et recyclage sont pratiquement impossible.

illustration sur le ventilo-convecteur équipé d'une prise d'air neuf

Quelques difficultés spécifiques à ce système :

  • Il demande une protection vis-à-vis du risque de gel,
  • Il réalise un pont thermique et acoustique avec l’extérieur,
  • Le débit d’air neuf sera mal contrôlé et fonction notamment de la pression du vent sur la façade, ce qui réduit son utilisation aux bâtiments peu élevés,
  • La filtration de l’air neuf est très grossière et insuffisante dans les milieux urbains pollués (filtre gravimétrique),
  • Si l’on veut respecter les critères de confort en plein hiver, elle impose d’intégrer une humidification de l’air dans l’appareil, ce qui est possible mais coûteux (systèmes ultrasoniques) et implique un réseau d’eau dans les locaux, et donc peut être, à terme, des problèmes d’hygiène.


Choix de la performance énergétique des échangeurs

A puissance thermique égale, en vue d’abaisser les coûts et de remporter le marché, le fabricant proposera un matériel plus compact. La qualité de la batterie en souffrira : ailettes plus fines, entraxes des ailettes diminuées, …

Plusieurs conséquences en résultent :

  • La perte de charge (et donc la consommation permanente du ventilateur) est augmentée.
  • Le by-pass factor est diminué, c’est-à-dire que beaucoup d’air rentrera en contact direct avec les ailettes, ce qui renforcera la condensation de l’humidité contenue dans l’air. Là encore, la consommation du ventilo sera inutilement augmentée.
  • Si la condensation augmente, les poussières adhèrent aux parois et l’échangeur s’encrasse plus rapidement.
  • Enfin, les fines ailettes seront très sensibles aux chocs et la pose et la maintenance en seront moins aisées.

Si la surface de l’échange est diminuée, le fabricant cherchera à augmenter la vitesse de passage de l’air et donc, dans le cas du ventilo-convecteur la consommation du ventilateur.

Un critère de performance peut donc être de comparer la puissance électrique du ventilo-convecteur à la puissance frigorifique sensible annoncée par le fabricant. Ce rapport doit être le plus faible possible. Pour que cette comparaison soit fiable, il faut cependant que les données constructeurs aient été mesurées suivant les mêmes conditions de fonctionnement. Ce sera le cas, si les appareils comparés sont certifiés « Eurovent ».

Il nous semble également qu’en exigeant une haute performance acoustique, l’on puisse obtenir un maximum de garantie d’une qualité globale du ventilo.

Remarque : si le projet est très important (1 000 ventilos, par exemple), il est alors utile de vérifier les performances annoncées par le constructeur auprès du laboratoire de Thermodynamique de l’ULg, par exemple.


Choix en fonction des critères d’exploitation

Il est utile de penser dès le départ :

  • À l’accessibilité des différents organes pour la maintenance (accès aux filtres, accès aux organes de réglage, facilité de démontage des panneaux d’allège, facilité de nettoyage des batteries et des bacs de condensats,…).
  • Au souhait de pouvoir intervenir hors de la présence des occupants (p.ex., localisation en couloir).
  • Pour les ventilo-convecteurs :
    • Aux qualités des parties mobiles : suspension du moteur, résistance à l’échauffement, …
    • A la tenue aux vibrations : usure du supportage, tenue des raccordements hydrauliques, étanchéité des flexibles, …
    • A la résistance des ailettes (déformations, chocs, …).

Choix de la régulation des productions de chaleur et de froid

Deux situations vont se présenter : si le bâtiment est homogène dans ses besoins, un seul réseau d’eau sera prévu et on choisira de l’alimenter en eau chaude en hiver et en eau glacée en été. C’est évidemment une solution très bon marché, mais c’est également la moins souple. Par exemple, la façade Sud est alimentée de la même manière que la façade Nord…

Si on souhaite alimenter différemment chacune des façades, ou même alimenter séparément la salle de réunion, on peut décomposer le bâtiment en différentes zones, et faire fonctionner simultanément le réseau d’eau chaude et le réseau d’eau glacée. Chaque zone utilisera le réseau qui lui convient en fonction des besoins du local.

C’est donc le bureau d’études qui va définir en accord avec l’architecte du degré de souplesse désiré pour les utilisateurs. Le coût de l’installation est directement lié à cette souplesse de fonctionnement.

Une alternative est de passer à une solution 4 tubes.

A signaler les critères énergétiques de qualité

  • l’adaptation possible dans certains cas de la température de départ de la boucle d’eau glacée,
  • la régulation de la température de départ de la boucle d’eau chaude,
  • un basculement froid/chaud (« change over ») avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Il est également possible d’installer une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale. La rentabilité d’une telle opération doit être étudiée. L’investissement est limité puisque c’est la même machine frigorifique qui devient pompe à chaleur. Toute la difficulté réside dans l’estimation de la performance saisonnière de la PAC et si cette valeur permet de compenser le coût plus important de l’énergie électrique. Si une source froide est possible (lac, rivière, forage, …), cette opération est fort intéressante.

La régulation optimale de la boucle d’eau glacée

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à un régime constant du type aller 6° – retour 11°, mais il y a là un potentiel d’énergie à récupérer : dans certains cas l’on peut faire varier ce régime de température et travailler à température plus élevée. La consommation du compresseur en sera diminuée d’autant !

Améliorer

Pour en savoir plus sur l’amélioration de la machine frigorifique, cliquez ici !

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace (ce n’est pas une économie d’énergie mais plutôt une économie financière résultant de la gestion de la pointe quart-horaire).

Améliorer

Pour en savoir plus sura mise en place d’un stockage d’énergie frigorifique, cliquez ici !

La régulation optimale de la boucle d’eau chaude

La production de chaleur se fait, par exemple, par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

Lorsque l’occupation du bâtiment permet d’imaginer que des besoins de chaleur et de froid pourront coexister, la production de chaleur peut alors être assurée par une machine frigorifique dont on récupère la chaleur au condenseur.  A ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer ! L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir. Une chaudière d’appoint reste nécessaire pour vaincre la pointe hivernale. C’est une possibilité à étudier lorsque les bâtiments sont constitués de larges plateaux : on peut penser qu’il faudra refroidir le cœur pour chauffer les bureaux périphériques.

Améliorer la pompe à chaleur

Amélioration du fonctionnement

Il semble que ce soit par l’optimisation du dégivrage que l’on puisse améliorer le plus sensiblement la performance de la PAC.

Si autrefois, les dégivrages étaient essentiellement commandés par une horloge, aujourd’hui différentes techniques existent pour ne procéder à la phase de dégivrage que lorsque c’est réellement nécessaire.

Concevoir

Pour parcourir ce qui peut être mis en place pour les évaporateurs des armoires frigorifiques, confrontés à un problème similaire.

Améliorations et développements dans le domaine des composants

La technique des microprocesseurs permet d’améliorer les coefficients des performances et offre une plus grande sécurité de fonctionnement : suppression des perturbations dues aux tubes capillaires, senseurs et régulateurs plus rapides pour surveiller aussi bien le côté température que le côté pression.

Les vannes de détente électroniques améliorent également les coefficients de puissance grâce à une meilleure surveillance des valeurs d’état permettant une diminution des possibilités de surchauffe et une meilleure utilisation de la surface de l’évaporateur.

Concevoir

Pour connaître les avantages du détendeur électronique par rapport au traditionnel détendeur thermostatique et parcourez le chapitre sur le choix de la régulation.

À l’avenir, le compresseur rotatif – en particulier le compresseur Scroll dans les petites puissances – remplacera progressivement le compresseur à piston (pourtant plus avantageux du point de vue prix), longuement et dûment éprouvé, mais techniquement dépassé. Les compresseurs autorisent une régulation continue de la vitesse, ce qui devrait optimaliser le besoin en énergie, bien que de nombreuses questions restent en suspens (fonctionnement du cycle lors des variations de débit, retour d’huile, influence du variateur de vitesse sur le réseau).

Concevoir

Pour connaître les évolutions en matière de compresseur.

Avec de nouveaux fluides, mélanges azéotropes de 2 composants, on obtiendra de meilleurs coefficients de performance. Des mélanges azéotropes sont des mélanges de liquides ayant la même composition tant dans leur phase liquide que dans leur phase gazeuse, rendant la séparation par distillation impossible. Autrement dit, tous les composants du mélange évoluent et changent de phase de la même façon lors des variations de température et l’on dispose à tout moment d’un fluide homogène.

Améliorer

Pour connaître les évolutions en matière de fluide frigorigène.

Organiser le recyclage de l’air

Organiser le recyclage de l'air


Organisation du recyclage de l’air

Le recyclage de l’air extrait du bâtiment par mélange dosé avec l’air neuf est énergétiquement très intéressant. En amélioration, il faut toutefois voir si techniquement c’est possible sachant que dans les bâtiments anciens l’extraction ne se trouve pas nécessairement à proximité immédiate de la pulsion. En effet, le recyclage de l’air n’est possible qu’avec un système double flux.

Imaginons une installation fonctionnant en « tout air neuf ».

Le coût d’une installation en « tout air neuf » est très élevé puisque le chauffage est assuré, en plein hiver, par de l’air extérieur qu’il faut réchauffer à grands frais.

Exemple.

pour apporter 1,5 kW de chaleur au local, un apport de 3,5 kW est demandé au caisson de traitement d’air : 2 kW pour porter l’air de 6° à 22°C, puis 1,5 kW pour l’amener à 40°C.

La température de 6°C correspond à la température moyenne de l’air extérieur.


Avantages

Le recyclage de l’air permet de réduire les débits d’air neuf et donc un groupe de ventilation plus petit peut être utilisé.

Par rapport aux systèmes de récupération d’énergie, le recyclage partiel de l’air extrait est très performant puisqu’il permet de valoriser aussi bien l’énergie sensible que l’énergie latente (chaleur et humidité).

Dans cette technique, il est toujours possible de moduler le débit d’air neuf en fonction de la présence effective des occupants du ou des locaux. Par exemple, une sonde CO2 placée dans le conduit d’air extrait peut moduler l’ouverture du registre d’air neuf. D’où une fameuse économie !

Si en mi-saison, un besoin de refroidissement se fait sentir et que la température extérieure est inférieure à la température intérieure, l’augmentation du taux d’air neuf permet de valoriser le pouvoir rafraîchissant de l’air extérieur.


Inconvénients

Technologiquement parlant, cette solution n’est possible que si les conduits de reprise sont très proches des conduits de pulsion d’air. À défaut, c’est vers des récupérateurs à plaques reliés par un circuit d’eau glycolée qu’il faut s’orienter.

De plus, cette solution présente l’inconvénient de mélanger et redistribuer de l’air extrait de locaux différents… Pour des raisons hygiéniques, elle sera exclue en milieu hospitalier par exemple. Dans les immeubles de bureaux, certains disent que le recyclage est à l’origine du « sick building syndrom », c.-à-d., en bref, de la propagation du rhume de la secrétaire à l’ensemble du personnel !

Ce qui est certain, c’est que si une telle installation est choisie, elle devra faire l’objet d’un entretien régulier et d’une attention toute particulière au niveau du système d’humidification et de filtration.

Finalement, un ventilateur supplémentaires (et donc des filtres et des silencieux) est généralement nécessaire !


Régulation

La régulation du taux d’air neuf est énergétiquement très importante. La régulation devra permettre de stopper l’arrivée d’air frais durant la période de remise en température du bâtiment, avant l’arrivée des occupants, de travailler en tout air neuf lorsque la température extérieure permet un rafraîchissement de l’ambiance, …

Locaux isolés, la salle de spectacles ou de conférences

Locaux isolés, la salle de spectacles ou de conférences


Analyse de la demande

Quelles sont les spécificités d’une salle de spectacles ou de conférences ?

Un grand volume unique
>
l’adéquation d’un traitement centralisé,
Une présence nombreuse d’occupants
>
un besoin important d’air hygiénique,
Une présence variable d’occupants
>
un besoin variable d’air hygiénique et un besoin de commander ce débit en fonction de la présence réelle des occupants,
Une occupation intermittente
>
un besoin d’assurer une température minimale en dehors des périodes d’occupation,
Peu de parois vitrées
>
des besoins de refroidissement liés essentiellement à la présence humaine et non aux apports solaires
Souvent, présence d’absorbants acoustiques sur les parois (et donc d’une couche isolante)
>
un mauvais accès à l’inertie des parois et donc une tendance à la montée en température rapide de l’air si les apports sont élevés.

Choix d’un système spécifique aux salles de conférence

De l’analyse de la demande, il apparaît un facteur clef : la quantité d’air neuf hygiénique est très élevée. Un système « tout air » paraît adéquat puisque le débit d’air neuf sera proche du débit requis pour le traitement de la charge thermique.

De façon simplifiée (seuls les besoins sensibles sont pris en compte) :

  • Une personne demande 30 m³/h d’air neuf.
  • Si cet air est pulsé à une température de 16°C dans une ambiance à 24°C, il apporte un refroidissement de :

30 [m³/h] x 0,34 [Wh/m³.K] x (24 – 16) [K] = 82 Watts

De plus, un système de climatisation « tout air » pourra répondre avec rapidité aux variations brusques des besoins.

Parmi les installations « tout air », il faut choisir entre une installation à débit d’air constant et une installation à débit d’air variable.

Il est clair qu’aujourd’hui le débit d’air neuf traité doit être adapté à l’occupation réelle. Si la salle est prévue pour 300  personnes, on ne peut pulser en permanence 9 000 m³/h (= 300 pers x 30 m³/h. pers), même si 20 personnes occupent en réalité la salle. Le coût du traitement d’air de 9 000 m³/h est élevé (sur base d’un fuel à 0,4 € du litre, on dépasse les 7,5 € de l’heure par 5°C extérieur). Et surtout, cela représente un gaspillage écologique non justifiable.

Mais le choix est plutôt :

  • solution 1 : pulser un débit d’air constant dans la salle et, dans ce débit, intégrer une quantité variable d’air neuf.
  • solution 2 : pulser un débit d’air variable lié à la présence des personnes et y intégrer un débit minimal d’air neuf.

Autrement dit, dans le schéma ci-dessous,

  • Soit le ventilateur est à débit constant, une sonde d’ambiance module le réglage des batteries de chaud et de froid, et une sonde de qualité d’air dans la reprise module l’ouverture du registre d’air neuf.
  • Soit le ventilateur est à débit variable en fonction de la présence effective des occupants, une sonde d’ambiance module le réglage des batteries de chaud et de froid, et une sonde de qualité d’air dans la reprise module l’ouverture du registre d’air neuf.

Un traitement d’air à débit constant

La première solution paraît plus claire à mettre en œuvre parce que chaque équipement est géré de façon indépendante par un capteur différent.

De plus, le débit d’air pulsé étant constant, une bonne distribution de l’air est maintenue en permanence. Certains modes de distribution (jets d’air à induction situés près des occupants) sont très sensibles à cet aspect : si le débit diminue, une « coulée » d’air froid inconfortable risque de se produire près des occupants.

Une telle installation permet une très bonne exploitation du free cooling, c’est-à-dire, du refroidissement par de l’air extérieur « gratuit » en hiver et en mi-saison. En été, rien n’empêche de refroidir également le bâtiment pendant la nuit (night-purge) grâce à l’air extérieur frais.

Le poste de traitement de l’air neuf, qui est sans conteste le poste consommateur principal (les déperditions par les parois sont proportionnellement très faibles dans un bâtiment isolé), est parfaitement maîtrisé grâce à l’injection d’air neuf liée à la dégradation de la qualité d’air.

En pratique, le régulateur choisira la valeur du débit d’air neuf maximum entre la demande de la sonde de qualité d’air et la demande de free-cooling pour refroidir l’ambiance.

Si le programme d’occupation de la salle est très élevé, un récupérateur de chaleur sur l’air extrait s’avère utile puisque peu d’air sera recyclé.

Concevoir

Pour trouver plus d’infos sur l’organisation d’un conditionnement d’air à débit constant.

Mais il reste un défaut : si seulement 20 personnes sont présentes dans la salle de 300 personnes, le ventilateur brassera les 9 000 m³ chaque heure (alors que 600 suffiraient), avec un bruit qui sera maximum lui aussi ! …Et lorsque tous les occupants seront partis, qui arrêtera l’installation ? et lorsque l’installation sera arrêtée, comment faire pour que la salle ne soit pas trop froide juste à l’arrivée des occupants ?

Suivant le type de bâtiment et son régime d’occupation prévisible, différentes solutions sont possibles en combinant :

  • Un ou plusieurs détecteurs de présence, pour arrêter l’installation après une période de temporisation.
  • Des ventilateurs à deux ou trois vitesses, pour réduire la puissance motrice en situation d’occupation réduite.
  • Des équipements statiques (= des radiateurs) pour gérer la période en dehors de l’occupation (maintien hors gel, relance à 16° au matin, …), ou pour gérer des ambiances différentes si plusieurs locaux attenants sont concernés.

Un traitement d’air à débit variable

L’avantage paraît clair : ne pulser que l’air nécessaire et ainsi limiter le bruit et la consommation du ventilateur.
En pratique :

  • se baser sur un chauffage de base statique (radiateur, convecteur),
  • apporter l’air neuf extérieur pour les occupants, si présents, ou pour rafraîchir l’ambiance (free-cooling),
  • apporter l’air froid pour refroidir le local en été.

La difficulté, c’est que l’on superpose une régulation de température et une régulation de débit d’air neuf sur le même équipement : le ventilateur. Cela ne peut fonctionner que si l’occupant est quasi la source unique d’apport de chaleur dans la salle (pas de projecteurs,par exemple). De plus, il faut trouver un capteur qui puisse commander la vitesse de rotation du ventilateur en fonction du nombre de personnes présentes.

C’est le cas d’une salle de cinéma d’aujourd’hui :

  • La commande des billets renseigne les spectateurs sur le nombre de places restantes.
  • Mais elle informe également le variateur de vitesse du ventilateur du nombre de personnes dans la salle et donc du débit d’air neuf à pulser (c’est le cas à ImagiMons).
  • Une sonde d’ambiance (dans la reprise, par exemple) module la température de pulsion dans la salle.

Avec un débit d’air minimal pour assurer un balayage de base, le confort peut tout à fait être garanti.

Un avantage supplémentaire réside dans le fait qu’il n’est pas nécessaire de recycler l’air, puisque seul l’air neuf est pulsé par le ventilateur. Par contre, un récupérateur de chaleur sur l’air extrait permettra de récupérer de l’ordre de 50 % de la puissance thermique.

Mais des risques de mauvaise distribution de l’air dans la salle apparaissent lorsque le débit est faible…

Concevoir 

Pour trouver plus d’infos sur l’organisation d’un conditionnement d’air à débit variable (attention : appliqué à un immeuble de bureaux).
Remarque.

En dehors du cas de la salle de cinéma, force est de constater que nous manquons d’exemples d’application de ce système.

Mais nos lecteurs connaissent peut-être d’autres solutions et nous serions très heureux d’en être informés et d’en faire profiter chacun dans une prochaine version d’energie+.

Reste, pour les deux solutions, à trouver la meilleure distribution de l’air. Il semble qu’une pulsion de bas en haut (soufflage par les gradins et reprise en partie supérieure) permet de mieux gérer la qualité de l’air pour les occupants. La création d’un plénum de distribution dans l’espace situé sous les gradins est souvent une solution facile à gérer.


Choix de la régulation du débit d’air neuf

Quel que soit le système de climatisation choisi, une modulation de l’apport d’air neuf devra y être intégrée.

On peut évidemment y adapter une gestion par horloge.

Cependant, lorsque l’horaire d’occupation est aléatoire et que le taux d’occupation est variable (une même salle peut être occupée par 20 ou 200 personnes), on peut envisager une gestion tenant compte du nombre d’occupants.

Dans ce cas, la sonde CO2 est la plus fiable. Elle reflète mieux la présence effective de personnes dans un local puisqu’elle est directement proportionnelle à leur respiration. Mais elle est chère (minimum 750 €). Sa rentabilité n’est donc possible que pour la gestion d’un débit nécessaire important et relativement aléatoire.

Sonde COV et sonde CO2.

Dans certains cas particuliers, on pourrait éventuellement envisager l’utilisation d’une sonde COV, sensible aux odeurs les plus diverses, et donc à la fumée de cigarette. La sonde COV (Composés Organiques Volatiles), encore appelée sonde de qualité d’air, n’est pas trop chère (+/- 225 €). Elle semble cependant difficile à paramétrer au départ (quelle valeur de consigne faut-il lui donner ?) et capricieuse dans le temps. Elle nécessite donc un étalonnage régulier et une bonne information de l’exploitant sur son principe de fonctionnement. Elle est généralement choisie pour le réglage du taux d’air neuf dans les locaux avec présence de fumeurs (la sonde CO2 détecte très mal l’odeur de cigarettes…). La sonde devra être entretenue (nettoyage et étalonnage périodique). Si cette maintenance est peu probable, ou si l’ambiance se révèle être trop chargée en poussières, on préférera une régulation à deux vitesses basée sur le dépassement d’un seuil critique, plutôt qu’une régulation analogique réglée sur le signal 0-10 V de la sonde.

Sonde COV ou sonde CO?

La comparaison des utilisations entre sonde COV et sonde CO2 apparaît clairement par l’expérience menée par le COSTIC en France :

Correspondance entre la mesure d’une sonde COV et la mesure d’une sonde CO2 dans un bureau de 32 m³, sans ventilation :

  • Phase 1 : une seule personne est présente dans le bureau durant 1 heure. Deux cigarettes sont fumées successivement, après 15 et 45 minutes.
  • Phase 2 : après ventilation de la pièce, six personnes sont introduites dans le bureau durant 10 minutes et il leur est interdit de fumer.

On observe très nettement la sensibilité de la sonde COV à la fumée de cigarette lors de la première phase. Par contre, la forte occupation de la phase 2 est mieux mise en évidence par la sonde CO2.

En conclusion, les sondes de qualité d’air, sensibles à la fumée de cigarette et aux composés organiques odorants, sont adaptées aux salles de réunion pour fumeurs, aux restaurants, … . Les sondes CO2, uniquement sensibles à la présence du dioxyde de carbone sont plus adaptées aux locaux dans lesquels la cause de la pollution est celle provoquée par l’occupation : salles de conférence, amphithéâtres, …

Études de cas 

La régulation de la ventilation d’une salle de conférence par sonde CO2.

Conditionnement d’air d’un immeuble de bureaux

Conditionnement d'air d'un immeuble de bureaux


Solution 1 : réseau « tout air neuf » à un conduit, à débit d’air constant

Le principe de base d’une installation « tout air » est double : fournir aux occupants de l’air neuf hygiénique et assurer le traitement thermique des locaux. L’air est donc préparé en centrale et distribué dans les différents locaux.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 01.

Un tel système est bien adapté au traitement d’une grande salle unique (salle de réunion, salle de conférence, …) mais s’adapte mal à un ensemble de bureaux dont les charges thermiques et les occupations peuvent être très différentes, notamment parce qu’ils seraient sur des façades d’orientations différentes.

A priori, ce n’est donc pas une bonne solution pour des immeubles de bureaux présentant beaucoup de locaux distincts.

De plus, l’encombrement apporté par les gaines est fort important.

1ère amélioration

Pour réduire l’encombrement, on peut réaliser des variantes à « haute pression » : on réduit les sections, on augmente la vitesse, la pression délivrée par le ventilateur augmente, … le bruit aussi ! L’insertion d’un caisson absorbeur acoustique s’impose.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 02.

Mais la consommation relative à l’énergie motrice (ventilateur) déjà élevée, en est encore augmentée puisque le débit d’air est véhiculé avec des pertes de charge accrues.

De plus, un problème majeur subsiste : dans les solutions ci-dessus, c’est toujours de l’air neuf qui est traité et pulsé dans les locaux. Une consommation énergétique importante en résulte !

2ème amélioration

Le recyclage d’air vicié est requis afin d’éviter le gaspillage d’énergie qu’entraîneraient le chauffage et le refroidissement de la totalité de l’air neuf mis en œuvre.

Schéma principe réseau "tout air neuf" à un conduit, à débit d'air constant - 03.

Cette solution est plus économe mais elle entraîne l’inconvénient de mélanger et redistribuer de l’air extrait de locaux différents… Pour des raisons hygiéniques, elle sera exclue en milieu hospitalier par exemple. Dans les immeubles de bureaux, certains disent que le recyclage est à l’origine du « sick building syndrom », c’est-à-dire, en bref, de la propagation du rhume de la secrétaire à l’ensemble du personnel !

Ce qui est certain, c’est que si une telle installation est choisie, elle devra faire l’objet d’un entretien régulier et d’une attention toute particulière au niveau du système d’humidification et de filtration. Si la filtration est de qualité, on pourra bénéficier au contraire d’un air plus pur que celui d’un bâtiment traditionnel, sans conditionnement d’air.


Solution 2 : réseau « tout air  » à un conduit, avec traitement terminal

Pour mieux réguler l’installation en fonction des besoins, une solution consiste à partir d’une installation monogaine (air globalement prétraité en centrale) sur laquelle des batteries finales ajustent la température de pulsion requise par zone ou par local individuellement. Mais si les besoins des bureaux ne sont pas globalement homogènes, on risque de « détruire de l’énergie » (par exemple, préparer de l’air froid en centrale, air qui sera ensuite réchauffé dans le caisson terminal…).

Shéma principe réseau "tout air " à un conduit, avec traitement terminal - 01.

Le recyclage entraîne un mélange de l’air provenant de différentes ambiances …

Pour l’éviter une autre solution est envisageable : l’air de chaque local peut être partiellement recyclé à l’entrée du caisson terminal.

Shéma principe réseau "tout air " à un conduit, avec traitement terminal - 02.

Mais ce n’est pas très performant.

Par exemple, imaginons la situation en été : de l’air est préparé à 16°C en centrale, il est mélangé à l’air du local à 24°. Une température moyenne résultante de 22°C en résulte, par exemple. La batterie de froid sera moins bien exploitée que si elle avait été mise directement en contact avec l’air à 24°C. Autrement dit, la batterie de froid devra être surdimensionnée légèrement. Autant séparer les fonctions : l’air du local est traité dans le caisson et de l’air neuf est apporté séparément au local. C’est finalement ce que réalise l’installation par ventilo-convecteurs de la famille « air + eau ».

Pour plus de détails, on peut consulter les installations « tout air » à débit constant monogaine.


Solution 3 : réseau « tout air  » à deux conduits

Pour assurer le traitement individuel, on peut également préparer et distribuer l’air via deux réseaux parallèles : un réseau d’air chaud et un réseau d’air froid (système à débit constant double gaine, ou « Dual Duct »). Chaque local (ou zone de locaux) sera alimenté via une boîte de mélange sous dépendance d’une sonde de température ambiante. Ce système est contraignant à plusieurs niveaux : financièrement (investissement), énergétiquement (risque de « détruire » de l’énergie à l’exploitation) et spatialement (encombrement dans les faux plafonds).

Schéma principe réseau "tout air " à deux conduits.

Ce type d’installation ne serait envisageable que si l’on peut regrouper les locaux en quelques zones homogènes, mais en pratique il ne s’installe plus aujourd’hui. On le rencontre encore dans des installations réalisées il y a une  vingtaine d’années.

Pour plus de détails, on peut consulter les installations « tout air », à débit constant, à double gaine.


Solution 4 : réseau « tout air  » à un conduit à débit variable

Reste des cas où l’installation « tout air » se justifie par la nécessité d’apporter beaucoup d’air aux locaux : un immeuble avec une large zone centrale, de larges plateaux intérieurs, de nombreuses salles de réunion, … Ce sont des zones à alimenter en air hygiénique et à refroidir toute l’année. C’est là que la climatisation par pulsion d’air froid se justifie le mieux, notamment parce que l’air froid sera distribué « gratuitement » durant une bonne part de l’année en utilisant l’air extérieur (free cooling).

Si l’on pressent que la présence des personnes sera fluctuante dans le temps, on pourra valoriser la technologie d’aujourd’hui qui adapte le débit d’air aux besoins : cette fois, la température de l’air est maintenue d’une manière uniforme toute l’année (par exemple 16°C) mais on fait varier le débit d’air introduit dans chaque local en fonction de ses besoins thermiques. Cet ajustement des débits est réalisé au moyen de boites terminales VAV (variable air volume) sous la dépendance des thermostats d’ambiance.

Schéma principe réseau "tout air " à un conduit à débit variable.

Les dimensions de la centrale de traitement d’air seront réduites par rapport à un système à débit d’air constant car on va profiter de la non-simultanéité des charges et des occupations des locaux qui se trouvent sur des façades différentes.

Mais des défauts résident :

  • dans la lourdeur technologique des équipements (clapet d’air, ventilateur à débit variable, …) et de leur régulation,
  • dans la mise au point de l’installation qui ne semble pas évidente
  • dans le coût d’investissement initial qui est élevé.
  • dans l’encombrement des conduits (comme tous les systèmes « tout air »),
  • dans le manque de souplesse pour répondre à des besoins variables à l’intérieur d’une même zone; la température de pulsion étant uniforme au sein d’une zone, si un local est à refroidir au sein d’une zone à chauffer… problème ! Or qui peut prévoir l’avenir de l’occupation des locaux ?

Cependant, si le système « tout air » est choisi pour la climatisation d’un immeuble de bureaux, le VAV est assurément la meilleure solution sur le plan énergétique, dans la mesure où le coût du transport est optimalisé (on ne transporte que le débit d’air nécessaire) et dans la mesure où la capacité de refroidissement de l’air extérieur est valorisée, tant en journée (free-cooling diurne en hiver et en mi-saison) que durant la nuit (free-cooling nocturne pour décharger le bâtiment durant la nuit en été). Les coûts d’exploitation seront donc réduits.

Le chiffre de 20 % d’économie thermique et électrique (ventilateur) est couramment cité, entre un VAV simple (sans réchauffage terminal) et un système unizone à débit constant.

Les locaux périphériques devront être équipés d’éléments chauffants pour assurer les besoins de chauffage durant les périodes froides de l’hiver : un réseau de radiateurs peut être prévu en façade ou des batteries de chauffe terminales peuvent compléter le réseau d’air.

Exemple d’une bonne application du VAV dans les bureaux

Si différentes salles de réunion sont prévues, l’architecte les disposera de telle façon qu’elles soient alimentées sur un même réseau de préparation d’air (par exemple une par étage, raccordée par une trémie verticale commune). L’ingénieur prévoira une climatisation à débit d’air variable, avec dans chaque local une bouche de pulsion commandée par détecteur de présence. Le ventilateur travaillera à vitesse variable en fonction de la demande réelle. Le groupe de préparation sera dimensionné avec un facteur de simultanéité (défini de commun accord avec le Maître d’Ouvrage) pour tenir compte du fait que toutes les salles ne seront pas occupées en même temps.

Pour plus de détails, on peut consulter :

Concevoir

Le choix du conditionnement d’air des « locaux intérieurs ».

Concevoir

Choisir une installation « tout air ».


Solution 5 : le ventilo-convecteur

Photo ventilo-convecteur.

Parmi la famille « air-eau », le ventilo-convecteur est sans aucun doute le système le plus fréquemment utilisé.

Des avantages incontestables

  • Une souplesse d’adaptation aux variations de la charge dans les locaux, puisqu’il permet une régulation local par local. Un arrêt de l’équipement est même possible localement, chose difficile à faire avec une installation par éjecto-convecteur ou plafonds froids, arrêt volontaire ou forcé (un contact d’ouverture de fenêtre peut imposer l’arrêt).
  • Une large gamme de puissance (par opposition aux systèmes par plafonds froids rayonnants qui sont limités à ce niveau).
  • Une bonne adaptation aux exigences actuelles en matière de découpage des zones périphériques des bâtiments à structure répétitive (un appareil par module de façade, par exemple). Mieux, rien n’empêche d’installer initialement un appareil pour deux modules et, moyennant les réservations nécessaires sur les collecteurs hydrauliques, de pouvoir ultérieurement greffer un échangeur supplémentaire si la puissance frigorifique augmente ou si une cloison est créée.
  • Un faible encombrement, permettant notamment aux appareils de prendre facilement la place des radiateurs en cas de rénovation du bâtiment.
  • Une possibilité de libérer le sol s’il est accroché au plafond ou intégré dans le faux plafond.
  • Un coût modéré à l’investissement, même si les exigences de qualité attendues en matière de régulation peuvent parfois faire augmenter les budgets.
  • Un coût modéré à l’exploitation, du moins s’il est comparé aux systèmes « tout air ». Il est toutefois battu sur ce plan par les installations par plafonds froids, par exemple, notamment suite aux fonctionnements des ventilateurs.
  • Une possibilité de valoriser la performance d’une chaudière à condensation en hiver puisque le réseau d’eau chaude peut fonctionner à très basse température.

Comme inconvénient, on notera :

  • L’impossibilité du ventilo-convecteur de contrôler le taux d’humidité de la pièce, mais ce n’est généralement pas un critère gênant pour un immeuble de bureaux puisqu’on peut réaliser cet objectif à partir de l’air hygiénique.
  • Le niveau de bruit qui est directement lié à la vitesse du ventilateur et à la surface du ou des batteries d’échange (il faut être très strict dans le niveau de bruit à imposer au cahier des charges).
  • La difficulté de réaliser une bonne intégration dans l’habillage et vis-à-vis de la grille de pulsion.
  • La difficulté d’assurer un confort thermique correct, notamment sans courants d’air dans la zone de travail,…
  • Les débits d’air hygiéniques sont constants et limités à 1 ou 2 renouvellements horaires du local. Il est donc impossible de réaliser du free cooling sur l’installation, c’est-à-dire de profiter de l’air frais et gratuit extérieur.

Solution 6 : le plafond rafraîchissant

Photo plafond rafraîchissant.

De l’eau froide circule dans des conduites fixées sur le faux plafond métallique du local.

Schéma principe plafond rafraîchissant.

Des avantages appréciés

  • Le confort est meilleur que dans les systèmes traditionnels (par ventilo-convecteurs par exemple) :
    1. Parce que l’apport de froid par rayonnement est plus stable (inerte) et mieux réparti spatialement que l’apport de froid par air. L’impression d’avoir « la tête au frais » est agréable.
    2. Par la diminution des courants d’air froid et des déplacements de poussières dans les locaux, puisque le débit d’air est limité au débit hygiénique. À noter que ce débit d’air neuf est souvent augmenté (doublé) pour pouvoir contrôler l’humidité en période estivale. Ce qui exige un soin tout particulier dans la façon de distribuer l’air.
    3. Par l’absence de bruit : fonctionnement statique, sauf débit hygiénique.
  • La préparation d’eau glacée à une température « élevée » de 15°C environ permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »). Cette propriété n’est effective que si une machine frigorifique est spécifiquement prévue pour l’alimentation en eau froide des plafonds. Elle est en partie perdue si la même machine frigorifique est utilisée pour préparer l’air neuf déshumidifié …
  • Cette température élevée permet d’imaginer, durant une bonne partie de l’année, un refroidissement direct de l’eau glacée soit dans un aéro-refroisseur, soit dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique. Cette technique est généralement appelée « free-chilling« . La consommation liée au froid se résume à l’alimentation des pompes de circulation ! La présence d’une source d’eau froide naturelle peut également être mise à profit (rivière, lac, …).
  • Le confort apporté par le rayonnement froid au dessus des occupants permet une augmentation de 2°C de la consigne de température ambiante des systèmes traditionnels (température max = 26°C ou 27°C, au lieu des 24 ou 25°C habituels pour des ventilos ou des poutres froides, par exemple). Il s’en suit une légère réduction de la puissance frigorifique nécessaire (entre 4 et 10 %) mais surtout une augmentation des capacités de travailler en free cooling nocturne puisque l’on peut davantage profiter de l’effet « tampon » du local qui peut démarrer sa journée à 21° et la terminer à 27°C.
  • Les coûts d’exploitation énergétiques sont plus faibles que dans le cas des systèmes traditionnels (ventilo-convecteurs par exemple). Une étude de cas réalisée par Tractebel Development Engineering précise ce facteur. On épargne la consommation des ventilateurs des ventilo-convecteurs, mais on augmente un peu la consommation des pompes de distribution de l’eau puisque qu’un delta T° aller-retour de 2 à 3 K est réalisé contre 5 à 6 K pour les ventilos.
  • La régulation est en partie auto-adaptative : une augmentation des charges du local provoque une augmentation de sa température et donc une augmentation de la puissance de refroidissement.
  • L’entretien est réduit.
  • L’encombrement au sol est nul, ce qui peut être également le cas avec des ventilos-convecteurs en plafond, mais ils génèrent alors nettement plus d’inconfort lié à la pulsion d’air.
  • Le traitement des zones internes par ce système est moins encombrant que par ventilo-convecteurs.

Des inconvénients qui peuvent limiter l’application des plafonds froids :

  • La puissance frigorifique reste très limitée par rapport aux systèmes à ventilo-convecteurs : de l’ordre de 90 W/m² de plafond actif. Si ce système doit vaincre des apports internes importants (bureautique, éclairage, occupants), la réserve disponible pour les apports solaires n’est que de l’ordre de 25 W/m². Ceci sous-entend que les apports solaires des vitrages soient limités :
    • soit par la conception du bâtiment créant des ombres portées,
    • soit par la mise en place de protections solaires extérieures,
    • soit par le placement de stores intérieurs clairs combinés à des vitrages performants,
    • soit par la configuration des lieux (bureaux paysagers, salles profondes).
  • Le coût d’installation est plus élevé que le système des ventilo-convecteurs, surtout en rapport à la puissance frigorifique fournie.
  • Ce coût est notamment lié à la régulation que l’on rend parfois assez sophistiquée pour éviter tout risque de condensation. Ce risque doit cependant être évalué à sa juste mesure.
  • Par rapport au ventilos, le chauffage en hiver reste à imaginer. Plusieurs solutions sont possibles :
    • soit un chauffage de l’air pulsé (mais les débits ne permettent de couvrir que peu de déperditions, le bâtiment doit donc être fort isolé au départ),
    • soit le chauffage par le plafond (mais inconfortable),
    • soit un chauffage par le plafond limité aux premiers panneaux situés en façade (plus confortable, mais limité en puissance),
    • soit un chauffage traditionnel par radiateur (solution généralement appliquée en rénovation puisque l’on peut récupérer l’installation existante).
  • Le système requiert une hauteur de faux plafond disponible, mais limitée (par exemple 160 mm). Les conduits d’air d’un diamètre de 150 mm (max) posent nettement moins de problèmes qu’avec un système « tout air ».
  • L’inconnue sur la tenue dans le temps de ce type de produit (problèmes hydrauliques, manque de performance dans les circuits mal éventés, …) diminue progressivement, l’expérience étant maintenant d’une bonne dizaine d’années. Ce risque peut être limité par un suivi de réalisation rigoureux.

Solution 7 : la poutre froide

Le complément aux plafonds froids…

Généralement, le plafond froid est perçu comme l’installation de grand confort. Mais la faible puissance spécifique est un frein majeur… Lors du dimensionnement, cela « coince » au niveau du local d’angle suite à l’ensoleillement sur 2 façades. C’est à ce moment que des poutres sont proposées en supplément du plafond, pour augmenter l’effet frigorifique (le fait que ces équipements travaillent à même régime de température d’eau est d’ailleurs un avantage).

… ou le système de refroidissement à part entière

Il est possible de prévoir le refroidissement complet du local uniquement par poutres froides, qu’elles soient statiques ou dynamiques

Des avantages

On retrouve beaucoup de qualités du plafond froid :

  • La préparation d’eau glacée à une température de 15°C environ qui permet la sélection d’une machine frigorifique avec un excellent coefficient d’efficacité frigorifique (ou « COP frigorifique »).
  • Durant une bonne partie de l’année, le refroidissement direct de l’eau glacée dans un aéro-refroidisseur ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique (« free-chilling« ).
  • L’encombrement au sol est nul !

Le prix est généralement très compétitif, surtout pour la poutre statique, bien sûr.

Des inconvénents

Le confort apporté par les poutres froides est objet à discussion

  • La poutre statique génère une « coulée » d’air froid très désagréable sur les personnes situées sous les poutres. Elle ne peut a priori se placer que dans les locaux de grande hauteur.
  • Par contre, la poutre dynamique semble plus confortable car elle induit un mélange avec l’air ambiant plus élevé et donc une température de l’air plus homogène.
  • Cependant, à l’intersection entre les flux d’air créés par deux poutres voisines parallèles, les deux flux d’air risquent de tomber sur la tête d’un utilisateur !

L’utilisation de poutres froides demande donc une plus grande vigilance que les plafonds froids en matière de vitesses d’air résiduelles et d’inconfort lié aux turbulences.

Il faut se rendre compte qu’avec une poutre dynamique on peut brasser jusqu’à 6 à 8 fois le volume d’air du local. Cela génère beaucoup de difficultés de distribution de l’air, amplifiées par la position de l’échangeur en plafond. Des astuces doivent être trouvées pour que l’air « coule » le long des parois avant de gagner le cœur du local. Mais on ne sait pas toujours quel sera le meuble placé le long de la paroi, ni si la paroi elle-même ne sera pas déplacée un jour…

De là, les solutions d’intégration au dos d’une armoire, sur le mur opposé à la fenêtre. C’est certainement une belle solution technique mais figée une fois pour toutes et donc peut-être démodée dans quelques années…?

En fait, la poutre dynamique développe la même configuration rigide que l’éjecto. C’est le débit d’air neuf qui va induire l’air du local et la puissance frigorifique lui sera liée. Pas de possibilité d’augmenter ultérieurement cette puissance comme on l’a avec les ventilos.

Puisque l’air neuf est le moteur du système dynamique, et que l’air neuf est indispensable au local, le système ne peut jamais être arrêté, ce qui est un inconvénient par rapport aux ventilos qui peuvent profiter d’une plage neutre.

Le taux d’air neuf varie entre 1 et 2,5 Volume/heure, ce qui génère des consommations supplémentaires de chauffage de l’air capté à la température extérieure en hiver.

Tout cela cadre mal avec la mobilité de plus en plus recherchée dans les bureaux actuels.


Solution 8 : la pompe à chaleur sur boucle d’eau

Schéma principe pompe à chaleur sur boucle d'eau.

Le principe consiste à placer une boucle d’eau dans l’ensemble du bâtiment. Cette eau évolue à une température de l’ordre de 30 à 35°C.

Dans chaque local, une machine frigorifique réversible est greffée sur le circuit.

Si le local demande du refroidissement, elle fonctionnera en machine frigorifique et l’eau évacuera la chaleur du condenseur. Si le local demande à être chauffé, la machine travaillera en pompe à chaleur et refroidira la boucle d’eau.

S’il y a égalité entre les locaux en demande de chaud et de froid, c’est parfait, la boucle d’eau effectuera le transfert entre locaux. S’il y a excès de chaleur à extraire des locaux, un échangeur en toiture refroidira l’eau de la boucle. Si au contraire, la majorité des locaux sont en demande de chaleur, une chaudière traditionnelle fournira le complément.

Ce système est évidemment avantageux lorsque l’on pressent des demandes très variables et opposées dans le bâtiment. Mais en pratique, ce cas ne se rencontre qu’une petite partie de l’année. Le reste du temps, la performance globale ne semble pas très élevée. L’investissement initial reste très élevé. Et le coût d’exploitation reste élevé en hiver suite à l’énergie thermique électrique.

Une part de la mauvaise performance est liée à cette température intermédiaire de la boucle : 35°C, c’est finalement une température élevée pour un condenseur à eau, alors qu’en hiver ou en mi-saison l’air extérieur permet des températures plus faibles.
En pratique, on rencontre ce type d’installation dans les galeries commerciales : la boucle d’eau et les installations extérieures sont disposées en base, et chaque commerçant installe son propre équipement. Il est facile de répartir les consommations entre locataires.

Pour un immeuble de bureaux à charge très variable, avec souhait de récupération d’énergie entre locaux, la climatisation par Débit de Réfrigérant Variable (variante avec 3 tubes) apportera très certainement une solution plus souple.

Choisir le mode de préparation de l’eau chaude sanitaire

Installation centralisée ou décentralisée ?

La centralisation possède des avantages certains, …

En effet, regrouper la préparation d’eau chaude dans une seule chaufferie permet :

  • Un coût d’installation inférieur à la somme des coûts des installations individuelles qu’elle remplace.
  • Un encombrement plus faible (voire une nuisance acoustique plus faible dans certains cas).
  • Une meilleure fiabilité et durée de vie.
  • Un coût de maintenance plus faible (un seul appareil de production, un seul conduit d’évacuation des gaz brûlés).
  • Un rendement de production souvent supérieur à ceux des appareils décentralisés, dans le cas des installations à combustible.
  • Une possibilité de valoriser l’effet de foisonnement des demandes (simultanéité des besoins), d’où des puissances et des volumes de stockage moindres.

Mais des désavantages également …

  • Un rendement de distribution médiocre, avec parfois l’obligation d’installer une boucle de recyclage, ou un traçage des conduites. Le rendement est fonction de l’isolation de la conduite, mais il dépasse rarement 70 % dans ce cas.
  • Une difficulté de répartir la consommation en fonction des usagers (placement de compteurs et relevé possible mais plus lourd à gérer), et donc tendance à un « laisser-aller » dans les consommations puisqu’on ne les paye qu’indirectement…
  • Un manque de souplesse dans l’adaptation aux besoins des différents utilisateurs.

Qui sont donc des avantages pour la décentralisation !

L’installation peut être décentralisée auprès de chaque unité fonctionnelle du bâtiment :

Exemple.

La salle de sports d’une école peut avoir son ballon accumulateur, tandis que la conciergerie et le réfectoire peuvent être équipés chacun de préparateurs à eau chaude gaz indépendants.

L’installation peut même être décentralisée au niveau d’un point de puisage :

Exemple.
L’évier tout au bout du couloir, où le personnel d’entretien puise 1 ou 2 seau par jour, sera utilement équipé d’un petit préparateur à accumulation électrique.

Et énergétiquement parlant ?

La centralisation a pour désavantage d’éloigner les points de puisage du point de production de l’eau chaude, et donc de créer des pertes par tuyauteries, soit parce l’eau chaude met beaucoup de temps à parvenir, soit parce qu’un réseau de distribution doit être créé ce qui génère également des pertes.

1ère synthèse

Calculs

Pour chiffrer la perte liée à l’eau chaude « bloquée » dans un tuyau lors de la fermeture du robinet, cliquez ici (page générale) !

Calculs

Pour calculer la perte énergétique annuelle d’une tuyauterie, cliquez ici (page générale) !

Le tableau ci-dessous, extrait d’une publication EDF, peut aider le choix :

Besoins Distance entre production et points de puisage Foisonnement
(simultanéité des besoins)
Solution
Importants faible bon centralisé
mauvais (1) centralisé
grande bon centralisé
mauvais (1) décentralisé
Faibles faible semi-centralisé (2)
grande décentralisé

(1) Le foisonnement est mauvais quand les appels maximaux sont, par nature, à peu près simultanés : hôtellerie, restauration, douches d’entreprises, …

(2) Un système semi-centralisé est caractérisé par le regroupement géographique de plusieurs postes : une production commune à plusieurs points de puisage rapprochés. C’est un compromis qui vise à la fois à limiter le nombre d’équipements de production d’ECS et à réduire la longueur du réseau.

Un exemple de comparaison des consommations

Une étude réalisée dans le cadre du programme Ravel (Suisse) compare 3 façons de préparer de l’eau chaude sanitaire pour 32 appartements répartis en 3 bâtiments :

  • un boiler électrique dans chaque appartement,
  • une préparation centralisée par bâtiment,
  • une préparation centralisée pour l’ensemble des 3 bâtiments.

Sur le plan énergétique, malgré la multiplicité des ballons (et donc des surfaces de déperditions), c’est la 1ère solution qui est la plus favorable (rendement total annuel de 79 %), et c’est la production centralisée et combinée au chauffage des bâtiments qui est la plus génératrice de pertes (55 %).

Mais sur le plan de l’énergie primaire consommée (en centrale), cette conclusion s’inverse suite au fait de l’énergie électrique. Cela veut dire aussi que la première solution restera la plus chère à l’exploitation. Rien n’est simple…!


Production indépendante ou combinée ?

Faut-il une préparation d’eau chaude indépendante ou combinée avec la chaudière qui assure le chauffage du bâtiment ?

Installation combinée

Une installation à double usage permet d’alléger le prix d’investissement, le poste « production de chaleur » étant commun au chauffage des locaux et à la production d’eau chaude sanitaire. Il est seulement parfois nécessaire d’augmenter légèrement la puissance installée pour le chauffage des locaux, si la puissance de l’eau chaude dépasse 25 % de la puissance du chauffage du bâtiment.

Circuit équipé d’une chaudière à condensation et d’une chaudière classique en appoint.

Mais il y a quelques inconvénients :

  • Le principal est que le système de production de chaleur doit rester en service en mi-saison et en été. À ce moment, le rendement est alors dégradé suite aux pertes à l’arrêt des chaudières, aux pertes du collecteur et au plus mauvais rendement de combustion des brûleurs qui fonctionnent souvent en cycles courts. Des rendements de production de l’eau chaude inférieurs à 50 % sont fréquents.
  • Par ailleurs, durant la saison de chauffe, la performance de la chaudière « basse température » sera dégradée par la nécessité de remonter périodiquement la température de sortie de l’eau chaude. S’il s’agit d’une chaudière à condensation, elle requiert de l’eau de retour à basse température. Or, si la production d’eau chaude sanitaire à 60°C lui est aussi demandée, elle devra, au moins à certains moments, travailler à plus haute température… et donc perdre un peu d’efficacité liée à la condensation (en fonction du type de chaudière et du régime de dimensionnement de l’échangeur).

Une solution peut consister à fractionner la puissance de chauffe et à installer une petite chaudière dont la puissance convient pour le chauffage de l’eau chaude sanitaire en été. Durant la saison de chauffe, cette chaudière peut-être connectée en parallèle sur le réseau de chauffage et dédicacée à la production d’eau chaude sanitaire en été. Elle peut ainsi être également utile pour les relances de chauffage de début de journée en mi-saison, évitant la mise en température de la chaudière principale.

Exemple théorique.

Comparons les pertes d’une installation combinée et d’une chaudière propre à la production d’eau chaude sanitaire.

Hypothèse : il s’agit d’une installation équipant un home pour personnes âgées. La consommation globale en eau chaude du bâtiment est estimée à 1000 m³ d’eau à 60°C par an. Le besoin énergétique pour chauffer cet eau est de :

1,16 [kWh/m³.°C] x 1000 [m³/an] x (60 [°C] – 10 [°C]) = 58 000 [kWh/an]

dont 38 400 [kWh/an] durant la saison de chauffe et 19 600 [kWh/an] en été.

Installation combinée : une chaudière de 650 kW moderne ayant un coefficient de perte à l’arrêt (à 70°C) de 0,3 % de la puissance chaudière. Cette chaudière reste en permanence à une température de 70°C, été comme hiver, pour produire l’eau chaude sanitaire. Elle alimente en permanence un collecteur de distribution de 20 m (DN 100). En été, son rendement de combustion baisse de 2 % suite à un fonctionnement par de nombreux cycles courts (la puissance de l’échangeur sanitaire étant nettement inférieure à la puissance de la chaudière). Il passe de 92% à 90%.

Installation séparée : une chaudière de 500 kW pour le chauffage et une chaudière de 150 kW pour la production d’eau chaude sanitaire. A 70°C, ces deux chaudières ont le même coefficient de perte à l’arrêt que la chaudière de 650 kW. La chaudière de chauffage est régulée en température glissante (température moyenne de 43°C) et arrêtée en été. Ses pertes à l’arrêt sont ainsi réduites à 0,1 %. La chaudière de 150 kW est, elle maintenue à 70°C toute l’année.

Pertes

Installation combinée
[kWh/an]

Installation séparée
[kWh/an]
Différence
[kWh/an]

En hiver (5 800 h/an)

Pertes de combustion 38 400 [kWh/an] x (1 – 0,92)
= 3 072 [kWh/an]
0 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 3 925 [h/an] / 0,92
= 8 320 [kWh/an] (*)
0,001 x 500 [kW] x 4 000 [h/an] / 0,92 = 2 174 [kWh/an] 6 146 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 5 500 [h/an] / 0,92 = 2 055 [kWh/an] – 2 055 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92
= 2 106 [kWh/an]
7,7 [W/m] x 20 [m] x 5 800 [h/an] / 0,92 = 971 [kWh/an] 1 135 [kWh/an]
Pertes d’hiver 3 072 [kWh/an] + 8 320 [kWh/an] + 2 106 [kWh/an] = 13 498 [kWh/an] 3 072 [kWh/an] + 2 174 [kWh/an] + 2 055 [kWh/an] + 971 [kWh/an] = 8 272 [kWh/an] 5 226 [kWh/an]

En été (2 960 h/an)

Pertes de combustion 19 600 [kWh/an] x (1 – 0,90)
= 1 960 [kWh/an]
19 600 [kWh/an] x (1 – 0,92)
= 1 568 [kWh/an]
392 [kWh/an]
Pertes à l’arrêt de la chaudière « chauffage » 0,003 x 650 [kW] x 2 935 [h/an] / 0,90
= 6 359 [kWh/an]
6 359 [kWh/an]
Pertes à l’arrêt de la chaudière « eau chaude » 0,003 x 150 [kW] x 2 860 [h/an] / 0,92 = 1 399 [kWh/an] – 1 399 [kWh/an]
Pertes du collecteur « chauffage » 16,7 [W/m] x 20 [m] x 2 960 [h/an] / 0,90 = 1 098 [kWh/an] 1 098 [kWh/an]
Pertes d’été 1 960 [kWh/an] + 6 359 [kWh/an] + 1 098 [kWh/an] = 9 417 [kWh/an] 1 568 [kWh/an] + 1 399 [kWh/an] = 2 967 [kWh/an] 6 450 [kWh/an]

Sur l’année

Bilan global – pertes totales 22 915 [kWh/an] 11 239 [kWh/an] 11 676 [kWh/an] ou 1 168 [m³gaz/an]

L’installation d’une chaudière combinée entraînerait donc une surconsommation d’environ 1 200 m³ de gaz par an ou une dépense complémentaire d’environ 275 € par an.

(*) Justification des heures prises en compte :
La saison de chauffe dure 5 800 [h/an]. La chaudière de 650 kW tourne 1 800 h/an pour le chauffage et 100 h/an pour l’eau chaude sanitaire (75 en saison de chauffe et 25 en été). La chaudière reste donc chaude sans que son brûleur ne fonctionne durant 3 925 h/an. La chaudière de 500 kW tourne 1 800 h/an pour le chauffage et est en attente chaude 4 000 h/an. La chaudière de 150 kW tourne 400 h/an (dont 100 h en été).

Concevoir

Pour plus d’informations sur le choix des systèmes de chauffage, cliquez ici !

Installation indépendante

Une préparation spécifique d’eau chaude permet de séparer les deux fonctions (chauffage des locaux et chauffage de l’eau) lorsque les profils de demande sont trop différents. On requiert par exemple à un ballon accumulateur électrique, à un accumulateur au gaz, à un préparateur instantané gaz, …

Cela permet de concevoir et de dimensionner au mieux chaque installation, sans réaliser de compromis … où l’énergie se trouve souvent mal valorisée.

Avec l’arrivée des critères anti-légionelles, la demande de haute température pour la production de l’eau chaude sanitaire apparaît contraire à l’évolution basse température que vit le monde du chauffage.

Cette séparation permet également l’usage de 2 énergies différentes (gaz et électricité, par exemple).

Ballon mixte  ?

On pourrait aussi prévoir un système mixte avec un serpentin d’eau chaude pour l’hiver et une résistance électrique pour l’été.

Schéma explicatif sur le ballon mixte.

  1. Thermomètre.
  2. Tube plongeur pour sonde de thermostat.
  3. Anode en magnésium.
  4. Tube de retour de circulation.
  5. Cuve (acier galvanisé, cuivre ou acier).
  6. Thermovitrification / émail / plastique.
  7. Capot de recouvrement.
  8. Thermostat de réglage et de sécurité.
  9. Corps de chauffe électrique.
  10. Prise d’eau froide.
  11. Brise-jet.
  12. Tube plongeur pour sonde de thermostat.
  13. Pieds réglables.
  14. Calorifuge (laine minérale, polyuréthane sans CFC).
  15. Retour chauffage.
  16. Serpentin.
  17. Aller chauffage.
  18. Prise d’eau chaude.

Reprenons le bilan de l’exemple précédent :

Exemple théorique (suite) :

Installation combinée
[kWh/an]

Ballon mixte

En été (2 960 h/an)

Besoin pour le chauffage de l’eau 19 600 [kWh/an] 19 600 [kWh/an]
Pertes d’été 9 417 [kWh/an]
Consommation 19 600 [kWh/an] + 9 417 [kWh/an] = 29 017 [kWh/an] 19 600 [kWh/an]
Prix du kWh 0,023 [€/kWh] 0,044 [€/kWh nuit]
Facture 29 017 [kWh/an] x 0,023 [€/kWh] = 667 [€/an] 19 600 [kWh/an] x 0,044 [€/kWh nuit] = 862 [€/an]

(On ne considère pas les pertes des ballons qui resteront constantes quel que soit le système).

Le bilan est donc plutôt en défaveur de la solution mixte, du fait du coût de l’électricité. Le bilan est également défavorable à la solution mixte si on l’établit en tenant compte de la consommation en énergie primaire puisque le rendement actuel de production de l’électricté est d’environ 38 %.

Chaque cas est cependant un cas particulier.

Le bilan doit donc être fait au cas par cas en fonction de la demande. Il sera notamment fonction du fait que le ballon mixte puisse couvrir l’ensemble des besoins de la journée ou non (le coût du kWh électrique de jour est double de celui de nuit).

En rénovation, tout dépend également des performances de la production combinée existante. Par exemple, l’association CEDICOL a réalisé une mesure sur site (source : magazine « L’entreprise », mars 90) dont il ressort un rendement saisonnier annuel de production d’eau chaude de 71 % et un rendement d’été de 49 % :

La production de cette installation domestique est, en été, de 186 litres d’eau chaude par jour.

L’installation comprend une chaudière au fuel de 27 kW alimentant un ballon de stockage de 160 litres. La chaudière est régulée en température glissante avec une priorité sanitaire. Cela signifie qu’entre deux demandes du ballon, la chaudière redescend en température.

Durant l’été 88, la chaudière a consommé 189 litres de fuel (soit 1 880 kWh) pour produire 24 180 litres d’eau chaude (soit 939 kWh). Le rendement de production en été est donc de 939 / 1 880 kWh = 49 %.

Pour l’ensemble de l’année, le système produit 42 150 litres d’eau chaude avec un rendement saisonnier de 71 %.

Séparer la production d’eau chaude en été, et produire cette dernière au moyen de l’électricité permettrait de gagner :

1 880 [kWh] x (1 – 49 % / 93 %) = 890 [kWh]

Le gain financier est de :

  • Facture d’été en production combinée : 189 [litres] x 0,2116 [€/litres] = 40 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Perte : 4 [€/an]

On se trouve dans la situation la plus favorable de production combinée, avec une chaudière fonctionnant en température glissante. Dans le cas dune ancienne chaudière restant à température constante tout l’été (de 70°C, par exemple), il n’est pas rare d’avoir des rendements de production inférieurs à 20 % en été !

Dans ce cas, le bilan serait alors le suivant :

  • Consommation en fuel d’été : 1 880 [kWh] x 49 [%] / 20 [%] = 4 606 [kWh] ou 460 [litres fuel]
  • Gain énergétique : 4 606 [kWh] x (1 – 20 % / 93 %) = 3 616 [kWh]
  • Facture d’été en production combinée : 460 [litres] x 0,2116 [€/litres] = 97 [€]
  • Facture d’été en production séparée : 990 [kWh] x 0,044 [€/kWh] = 44 [€]
  • Gain : 53 [€/an]

En tout cas, si l’on prévoit de conserver le mode de production combinée l’été et que la demande peut être couverte facilement par une ou deux relances de la chaudière sur la journée, il sera utile de greffer une horloge sur la régulation pour imposer les plages horaires durant lesquelles le réchauffage du ballon est autorisé. Par exemple : de 5 à 7 heures du matin et de 16 à 18 heures en fin de journée. Ainsi, on évitera de remettre la chaudière en route suite au puisage d’un seau d’eau !

Attention aux installations avec boucle de distribution

La solution du ballon mixte est à éviter s’il existe une boucle de circulation mal isolée générant des pertes permanentes élevées : les retours « froids » de la boucle de circulation perturbent la stratification des températures dans le ballon et la température de fourniture de l’eau diminue.

Schéma du ballon mixte avec boucle de circulation mal isolée.

Les solutions ne sont guère performantes : soit le thermostat s’enclenche pour réchauffer le ballon, soit un réchauffage de boucle maintient la température à son niveau. Mais ceci génère un chauffage électrique de jour assez coûteux.

Les capteurs solaires sont aussi une solution pour l’été

Les capteurs solaires apportent également une solution « mixte », prenant le relais en période ensoleillée. Mais il faudra s’assurer que le système de chauffage dispose d’un mode « veille » très économe lorsque le soleil est actif.


Production instantanée ou à accumulation ?

Les besoins d’eau chaude varient dans le temps. Et le préparateur doit s’y adapter en permanence !

Imaginons deux situations extrêmes :

  1. Les vestiaires du club de foot de Frouchy-les-Bains-de-Pieds : 6 douches pouvant débiter 12 litres/min chacune, utilisées 3 fois par semaine après les matchs.Le chauffage instantané de l’eau demanderait une puissance de 175 kW !
    À titre de comparaison, le chauffage d’une habitation domestique demande 20 kW par – 10°C extérieur…Solution : la petite chaudière du local produira et accumulera de l’eau chaude durant les 6 à 8 heures qui précèdent les matchs… et le réservoir sera vidé dans l’heure qui suivra le coup de sifflet de l’arbitre.
  2. L’hôpital de 1 200 lits, avec restauration et buanderie incorporée : il y a toujours un robinet d’eau chaude ouvert quelque part !Les besoins sont permanents et le système de préparation doit y répondre en temps réel, avec une modulation de la puissance en fonction des moments de la journée. Stocker les besoins journaliers d’eau chaude est inimaginable…Solution : un échangeur (à plaques ou tubulaires) rapide, raccordé à la chaudière, produisant instantanément l’eau chaude en fonction du besoin.

En réalité, la solution idéale est toujours en équilibre entre ces deux extrêmes  :

  • Dans les vestiaires, la chaudière peut déjà recharger le ballon pendant le puisage des douches, pour les cas où deux matchs se suivraient la même après-midi. On parle de semi-accumulation.
  • Dans l’hôpital, un réservoir d’appoint permet de mieux fournir l’important débit de pointe demandé au matin. On parle de semi-instantané.

En fait, « semi-accumulation », « semi-instantané », c’est la même chose : un juste équilibre à trouver dans le dimensionnement du préparateur entre ces 2 modes de production. Et une même méthode de dimensionnement.

La préparation instantanée « pure »

On distingue essentiellement le préparateur instantané gaz et l’échangeur instantané à plaques.

préparateur instantané gazéchangeur instantané à plaques

Les avantages d’une préparation instantanée sont liés à l’absence de stockage :

  • Le faible encombrement
    C’est un argument-clef si la place disponible est particulièrement réduite.
  • La faible charge au sol
    C’est un argument si la chaudière est prévue sous toiture.
  • L’absence de pertes par stockage
    Cet argument tend à devenir négligeable, vu l’isolation poussée des ballons récents.
  • La bonne performance hygiénique
    L’eau chaude ne stagnant pas dans le préparateur, les risques de propagation de la légionelle sont réduits.
  • Le faible coût d’investissement
    Cette technique est relativement peu onéreuse à installer.

Mais les inconvénients du préparateur instantané sont aussi nombreux :

  • la fluctuation de la température de l’eau au niveau de l’utilisateur
    Malgré une régulation fine (PID) (à prévoir absolument), on reste limité par le temps de réponse des éléments mécaniques de l’installation qui rend les fluctuations inévitables. Il est déconseillé d’utiliser ce type de système dans un bâtiment ayant un profil de puisage discontinu.

  • Le rendement de production dégradé de la chaudière
    Avec une chaudière combinée chauffage-ECS, il est indispensable de maintenir la chaudière en permanence à température élevée (min 70°C) pour garantir un temps de réponse minimum lorsqu’une demande apparaît. Ceci interdit une régulation en température glissante des chaudières et n’est donc pas optimum énergétiquement, principalement avec les anciennes chaudières ou même avec des chaudières gaz atmosphériques récentes dont les pertes à l’arrêt sont importantes.
  • Le fonctionnement du brûleur en cycles courts
    Étant donné l’absence de réservoir tampon, chaque puisage va entraîner la mise en route de l’installation pour des temps très courts. Les temps de fonctionnement du brûleur seront donc brefs, ce qui est défavorable pour le rendement de combustion et la pollution atmosphérique.
  • La puissance élevée du générateur
    La production instantanée demande généralement une puissance de générateur très importante. Dans le cas d’une production d’ECS combinée au chauffage, il peut être nécessaire de surdimensionner la chaudière uniquement pour l’ECS.
  • La puissance des circulateurs
    La perte de charge des échangeurs instantanés demande des pompes plus puissantes dont la consommation électrique n’est pas à négliger.
  • La fragilité de certains équipements
    Les préparateurs instantanés au gaz sont fortement soumis à l’entartrage et sont sujets à percer parfois rapidement. Cet effet est renforcé dans les chaudières murales où la compacité entraîne également l’utilisation d’un matériel plus léger que les chaudières au sol, ce qui limite la durée de vie.

La préparation en accumulation « pure »

Le ballon de stockage est un tampon permettant de dissocier le rythme de la production des variations brusques de la demande. Il lisse les pointes et réduit le coût de la puissance. Il permet parfois d’utiliser de l’énergie moins chère la nuit (accumulateur électrique).

Généralement, le principe de l’accumulation offre la possibilité de changer plus facilement le vecteur énergétique (gaz, fuel, bois, …) de l’unité de production de chaleur, et même d’intégrer une production solaire ou par pompe à chaleur.

Mais par contre, il nécessite un investissement supplémentaire, en euros (son propre coût) et en m² (son encombrement). Il génère également une perte d’énergie par les parois.

Ce mode de production sera logiquement d’application :

  • Si la source d’énergie est électrique
    Il est alors presque inimaginable de recourir à un système instantané, vu l’importance de la puissance nécessaire (un préparateur 12 litres/minute requiert une puissance de 24 kW, soit une ligne de 100 A environ !). Un système par stockage s’impose pratiquement. Cela permet d’ailleurs de valoriser le courant de nuit, moins onéreux.
  • Si les consommations présentent des pointes très importantes
    En effet, une masse d’eau chaude est immédiatement disponible, sans devoir développer une puissance considérable.

La préparation semi-instantanée ou en semi-accumulation

La production d’ECS en semi-accumulation ou en semi-instantanée (échangeur + ballon de stockage) est la plus appropriée au mode de consommation d’ECS dans la plupart des applications tertiaires.
Elle combine les avantages des deux systèmes :

  • Le confort
    Grâce au ballon d’eau chaude, les temps de réponse sont courts et les fluctuations de température réduites.
  • L’encombrement
    L’encombrement est plus réduit qu’en accumulation pure.
  • La puissance
    La puissance de production à installer est plus réduite qu’en instantané pur.
  • Le rendement de production
    Avec une chaudière combinée chauffage-ECS, le fonctionnement en température glissante ne pose pas de problème, la chaudière pouvant fonctionner en basse température pour le chauffage des locaux et rehausser sa température de consigne lorsqu’il y a demande du ballon d’ECS.

Le schéma ci-dessous paraît être le bon compromis assurant la production à la demande, et donc en limitant les pertes de stockage, tout en ayant un ballon stabilisateur de température au démarrage d’une demande de pointe.

Concevoir

Pour plus d’informations sur le choix des ballons de stockage, cliquez ici !

Concevoir

Pour plus d’informations sur le choix des préparateurs instantanés au gaz, cliquez ici !

Concevoir

Pour plus d’informations sur le choix des échangeurs à plaques, cliquez ici !
Pour info, les ingénieurs Français distinguent :

  • les préparateurs semi-instantanés comme ceux dont la capacité d’accumulation est calculée pour vaincre les besoins en ECS de l’heure de pointe, mais ne pouvant absorber les pointes de 10 minutes sans surdimensionner l’échangeur,
  • des préparateurs à semi-accumulation dont le volume de stockage est capable d’absorber les pointes de 10 minutes, avec une puissance de génération limitée aux besoins horaires.

Production combinée et chaudière à condensation

Si le chauffage de l’eau sanitaire est assuré par une chaudière à condensation, il y a lieu d’adapter le réseau hydraulique pour valoriser sa performance. En pratique, il faut assurer le retour le plus froid vers la chaudière.

Or nous sommes en présence d’un paradoxe

  • L’eau sanitaire est très froide (10°C) à son arrivée. Elle devrait dès lors permettre de valoriser l’efficacité énergétique d’une chaudière à condensation.
  • L’eau chaude sanitaire doit être portée à haute température (généralement 60°C pour gérer le problème de la légionellose). Le circuit de chauffage monte donc environ à 75°C, et génère des retours à 65°C en fin de période de chauffage du ballon ! Par rapport aux circuits « basse température » dont nous sommes aujourd’hui coutumiers en chauffage, c’est donc un régime « haute température »… et cela supprime toute possibilité de condensation.

Deux solutions apparaissent :

1° – Il existe deux raccordements de retour à la chaudière à condensation. Le retour de l’eau chaude sanitaire peut être raccordé à l’entrée « haute température ». On a abandonné alors tout espoir de condenser avec le réseau d’eau chaude sanitaire. C’est adéquat lorsque les besoins d’eau chaude sont fort importants, voire permanents (hôpital, abattoir, …).

schéma de raccordements de retour à la chaudière à condensation.

2° – On décide au contraire de valoriser au maximum la condensation. Sachant que la température de retour doit être inférieure à 53°C, on décide de travailler avec un circuit d’eau de chauffage du ballon à la plus basse température de retour possible. Lors du dimensionnement de la puissance de l’échangeur de production d’eau chaude, un retour à 40 .. 45°C est choisi, par exemple via un régime 70° – 40° ou 90° – 45° au lieu d’un traditionnel régime 90° – 60°.

schéma de raccordements de retour à la chaudière à condensation.

Cette formule n’est quasiment possible qu’en présence d’un échangeur instantané. En effet, la température de retour de 40 .. 45°C ne pourra réellement être atteinte que lorsque la température de l’eau froide est de 10°C.

Lorsque l’échangeur instantané alimente une boucle de distribution et qu’aucun puisage n’est effectué, l’échangeur est alimenté par de l’eau à 55°C, ce qui rend impossible un retour d’eau de chauffage vers la chaudière à 40°C. En cas de puisage, il y a mélange entre l’eau froide de ville et l’eau chaude de la boucle. L’eau alimentant l’échangeur est donc à une température supérieure à 10°C. Cependant le débit de boucle étant en pratique réduit, la quantité d’eau froide appelée sera la plupart du temps suffisante pour que la température d’alimentation de l’échangeur soit assez basse pour permettre la condensation.

Techniques

Pour plus d’informations sur les circuits hydrauliques favorables à la condensation, cliquez ici !

Quelle régulation pour la production combinée ?

Il est recommandé d’avoir une régulation de la température de départ de chaudière basée sur le principe de la « priorité sanitaire » : la haute température ne soit être appliquée que lorsqu’il y a demande de production d’eau chaude sanitaire.

Imaginons un ballon réglé sur 60°C :

  • En temps normal, la chaudière est gérée par une régulation à température glissante.
  • Lorsqu’il y a demande d’eau chaude sanitaire (T°ballon = 57,5°C), la température de départ chaudière augmente et les vannes mélangeuses des différents circuits de chauffage peuvent se fermer quelque peu.
  • Dès la satisfaction du ballon (T°ballon = 62,5°C), la température de chaudière revient à la valeur calculée par le régulateur en fonction de la température extérieure.

Cette régulation sous-entend l’absence d’un préparateur instantané (échangeur à plaques) qui lui doit pouvoir réagir au quart de tour, et qui demandera une température de chaudière toujours élevée.

Elle montre aussi toute l’importance d’un surdimensionnement du serpentin installé dans le ballon :

T°chaudière = T°ballon + X°

X sera d’autant plus petit que la puissance de l’échangeur sera grande.

L’intérêt d’une telle régulation est d’autant plus important que la chaudière alimente le ballon d’eau chaude aussi en été. Dans ce cas, la régulation permettra d’arrêter totalement la chaudière (température retombant à 20°C) sauf durant les périodes de chauffage de l’eau sanitaire. Ces périodes seront définies par une horloge qui limitera la charge du ballon de stockage à un nombre limité de périodes de la journée. Cela permet d’éviter que la chaudière ne démarre pour des faibles puisages, avec pour conséquence :

  • un maintien quasi permanent de la chaudière à une température moyenne relativement élevée,
  • un fonctionnement du brûleur par cycles courts, synonyme de mauvaise combustion et d’émissions polluantes.

Remarque.
À noter que certains constructeurs proposent une régulation tout à fait optimisée :

  • Lorsque la température dans le ballon atteint 61 ou 62°C, la chaudière est déjà coupée. La circulation d’eau chaude est maintenue de telle sorte que le ballon monte à 62,5°C mais sans prolonger inutilement le maintien en température de la chaudière.
  • Certains ballons sont régulés via 2 sondes plongeuses : si le puisage est faible, la première sonde est froide mais la deuxième reste chaude. L’installation ne réagit pas, elle se base sur la température moyenne entre les 2 sondes. Si le puisage est important, des remous vont déstratifier la température dans la cuve, la deuxième sonde sera rapidement touchée par le flux d’eau froide : une réaction immédiate de l’installation de chauffage est programmée. Cette astuce permet de ne pas faire réagir trop vite la chaudière et d’attendre qu’un volume d’eau important soit à réchauffer, ce qui augmente la durée de la période de condensation.


Choix du vecteur énergétique

Rien n’est simple…

Poser la question du choix du combustible pour chauffer l’eau chaude sanitaire, c’est aussi parfois comparer des équipements qui ont des performances différentes … en fonction du combustible choisi !

Par exemple, si les besoins se résument à 10 seaux d’eau par semaine pour le nettoyage des locaux de bureaux, et que le gaz naturel n’est pas disponible, le fuel est un choix technologiquement impossible.

Mais procédons par étape pour dégager les lignes de force :

L’énergie solaire

  • couvre 40 à 50 % des besoins, sans générer ni CO2 ni autres polluants. Ceci n’étant vrai que lorsqu’ils sont utilisés pour un bâtiment donc les consommations sont simultanées et également fortes en été comme les piscines, les homes, hôpitaux, l’hôtellerie, les logements collectifs… Les écoles, fermées en juillet et aout sont, par exemple, peu compatible avec ce type de vecteur,
  • c’est un « combustible gratuit » mais qui coûte essentiellement par l’investissement initial dans l’installation, son prix ramené au kWh fourni dépasse légèrement le prix du gaz naturel. Cette source d’énergie est difficilement rentable en moins de 20 ans,
  • est mieux valorisé pour les bâtiments bas (rapport m² de toiture/consommation ECS plus favorable),
  • est source d’énergie instable qui doit être complétée par un autre combustible d’appoint,
  • est porteur d’image de marque car il témoigne que l’investisseur veut promouvoir un autre type de consommation,
  • pari sur l’avenir puisqu’on peut penser que les prix énergétiques ne feront qu’augmenter.
  • dans le cadre de la lutte contre les légionelles, le chauffage de l’eau sanitaire par l’énergie solaire présente des risques liés à l’inconstance de la température de chauffe. En considérant que la fourchette de température de 25 – 45°C est idéale pour le développement des bactéries, avec un système tel que le chauffage solaire, on risque de s’y retrouver régulièrement au cours de l’année; ce qui signifie que le chauffage solaire ne doit être utilisé que comme moyen de préchauffage.
  • l’installation doit plutôt être orientée plein sud,
  • le solaire thermique produit 40% d’énergie primaire en plus que le solaire photovoltaïque mais coute presque 3 fois plus cher au m²,
  • c’est un système encombrant qui prend la place d’éventuels panneaux solaire photovoltaïques souvent bien plus rentables à tous points de vue,

Le gaz naturel

  • sans conteste le combustible traditionnel qui présente le plus de qualités environnementales : absence de soufre, faible taux de CO2 par kWh produit, faible taux de NOx,
  • facile à distribuer dans le bâtiment (un préparateur peut être facilement rapproché des consommateurs par circulation d’une conduite gaz),
  • facile à réguler grâce à la souplesse de la flamme gaz, permettant de produire en instantané et avec une puissance modulée,
  • mais aussi, requérant un conduit d’évacuation de fumées, au minimum de type ventouse,
  • nécessitant une bonne sélection de l’équipement (limitant les pertes à l’arrêt et, si possible, valorisant l’énergie de condensation de la vapeur d’eau contenue dans les fumées),
  • non disponible sur tout le territoire,
  • d’un coût au kWh en moyenne plus élevé que celui du fuel, sauf en période de crise internationale.

Évolution des prix du fuel et du gaz depuis 1996. En moyenne, de 1996 à 2001, le gaz a été 8 % (tarif ND2) plus cher que le fuel (au tarif officiel). Si l’institution parvient à obtenir une ristourne de 5 % sur le prix officiel du fuel, cette différence serait de 13 %.

Le fuel

  • Combustible engendrant des émissions polluantes plus importantes au niveau de l’utilisateur final (taux de CO2 et taux de NOx plus élevés (pour les chaudières de plus de 70 kW) que pour le gaz, présence de soufre). Le risque de pollution au cours de son transport reste important (marée noire),
  • Le coût est l’argument de vente principal, même s’il peut subir de fortes fluctuations.
  • La combustion requiert des puissances minimales élevées, ce qui force une production combinée entre chauffage et sanitaire, … et crée des mauvais rendements en été.

L’électricité

  • Source d’énergie presque parfaite lors de son utilisation : propre, de rendement proche de 100 %, d’investissement faible dans l’équipement, avec comme seul défaut une puissance limitée qui oblige à prévoir des ballons accumulateurs d’eau chaude,
  • Mais source d’énergie chère qui provoque de plus la controverse par sa production !
Développons :

La qualité écologique des rejets

  • Soit l’électricité est produite par énergie nucléaire, les rejets en CO2 sont nuls mais les déchets nucléaires sont difficilement gérables.
  • Soit l’électricité est produite par un combustible traditionnel et les émissions en CO2, NOx, SO3, … sont en moyenne élevées (les fortes émissions des anciennes centrales au fuel ou au charbon ne sont que partiellement compensées par la qualité des centrales TGV qui valorisent le gaz).

L’efficacité énergétique de la production

  • De façon simplifiée, il faut brûler 3 kWh de combustible (dit « primaire ») pour obtenir 1 kWh électrique, les 2 autres kWh étant perdus en chaleur autour de la centrale. Chaque tasse de café au bureau génère 2 tasses d’eau chaude dans la Meuse à Tihange… L’électricité, fabuleuse pour l’éclairage, pour l’électronique,… ne peut se défendre pour produire de la chaleur.
  • Seule la pompe à chaleur (PAC) peut justifier sa place comme corps de chauffe, puisqu’elle replace le bilan au point de départ : 1 kWh électrique au compresseur génère 3 kWh de chaleur utilisable. Idéalement, la PAC pourrait refroidir l’eau de la Meuse et produire les 3 tasses de café !

Mais la haute température de l’eau chaude sanitaire handicape fortement cette application.

Non, je n’ai pas dit qu’il faut d’abord filtrer la Meuse pour améliorer le goût du café, cela n’a rien à voir !…

Conclusions

  • Si une chaleur régulière peut être récupérée dans le bâtiment, elle doit être étudiée en priorité (machine frigorifique, buanderie, process, …).
  • L’étude d’un préchauffage par énergie solaire doit être intégrée dans tout nouveau projet.
  • Le gaz est alors le vecteur le plus adéquat pour produire l’appoint du chauffage de l’eau chaude sanitaire.


Critères de l’efficacité énergétique

Une évaluation difficile

Ce rendement est difficile à évaluer. Beaucoup de facteurs interviennent et les hypothèses d’exploitation modifient fortement le regard.

Pour s’en convaincre, il suffit de prendre un exemple simple d’un ballon de préparation électrique de 200 litres :

  • performant… si le puisage est de 150 litres chaque jour,
  • catastrophique … si le ballon alimente 3 lavabos deux étages plus haut, avec des utilisateurs qui, en pratique, n’attendent pas que l’eau soit chaude pour se rincer les mains !

Rendement de production des préparateurs d’eau chaude

Le Recknagel fournit quelques valeurs :

Chauffe-eau électrique à accumulation Chauffe-eau électrique instantané Préparateur instantané gaz Chaudière murale gaz Chauffe-eau gaz à accumulation Chaudière double service
0,99 0,99 0,84 0,86 0,86 0,90

Rendement d’exploitation

Cette fois, c’est l’ensemble du système de production d’eau chaude qui est étudié. Les pertes par tuyauteries, les pertes de stockage du ballon, … interviennent dans le bilan.

Pour avoir une idée des performances des différents systèmes présents sur le marché, voici d’abord les chiffres de rendement saisonnier que propose le VITO dans le cadre d’un diagnostic d’une installation domestique (programme SAVE BELAS).

Rendement
exprimé en énergie locale

Rendement
exprimé en énergie primaire

épaisseur d’isolant du ballon éventuel 2,5 cm 5 cm 10 cm

2,5 cm

5 cm

10 cm

Ballon combiné à une chaudière
(1 enveloppe commune)
ancienne chaudière à T°constante 0,46 0,52 0,56 0,46 0,52 0,56
nouvelle chaudière à T°constante 0,61 0,69 0,74 0,61 0,69 0,74
nouvelle chaudière à T°glissante 0,69 0,78 0,83 0,69 0,78 0,83
Ballon combiné à une chaudière
(2 enveloppes distinctes)
ancienne chaudière à T°constante 0,41 0,48 0,54 0,41 0,48 0,54
nouvelle chaudière à T°constante 0,54 0,64 0,72 0,54 0,64 0,72
nouvelle chaudière à T°glissante 0,61 0,72 0,81 0,61 0,72 0,81
Instantané gaz
(combiné ou non avec le chauffage)
0,90 0,90 0,90 0,90 0,90 0,90
Accumulateur gaz 0,69 0,78 0,83 0,69 0,78 0,83
Accumulateur électrique 0,76 0,87 0,93 0,29 0,33 0,35

Les hypothèses de calcul sont les suivantes :

  • demande annuelle d’ECS : 43 litres/pers.jour à 40°C pour une famille de 4 personnes.
  • volume de stockage éventuel de 150 litres
  • rendement moyen de la production d’électricité en Belgique : 0,38

Voici également les valeurs proposées par le Recknagel :

Rendement
exprimé en énergie locale

Rendement
exprimé en énergie primaire

Ballon combiné à une chaudière
à fuel 0,45 0,45
à gaz 0,45 0,45
Echangeur à plaques combiné à une chaudière à fuel 0,60 0,60
à gaz 0,60 0,60
Ballon électrique à accumulation de nuit 0,70 0,27
instantané 0,95 0,37
Chauffe-eau à accumulation à fuel 0,50 0,50

Conclusion

Même si quelques imprécisions subsistent (le rendement du préparateur gaz instantané nous paraît fort élevé dans l’étude du VITO, de même que celui de l’accumulateur gaz), les systèmes à gaz instantanés sortent clairement du lot et sont donc à conseiller. Attention : ces conclusions sont tirées d’études sur des installations domestiques !

Pour comparer la performance des différents systèmes pour une application particulière, nous proposons un petit logiciel d’évaluation.

Calculs

Pour analyser le rendement global d’une installation particulière, cliquez ici !

Un préchauffage par capteurs solaires ?

Une technologie aujourd’hui maîtrisée

photo capteurs solaires.

Arrivé à un haut niveau de maturité technique, le solaire thermique est une solution de choix dans les défis énergétiques. Il est une substitution immédiate et directe à l’usage des combustibles fossiles. Pour les grandes installations, il permet de manière aisée une réduction de 20 à 50 % des besoins énergétiques pour la production d’eau chaude sanitaire. Il présente un intérêt d’autant plus élevé pour des applications tertiaires collectives où les consommations d’ECS sont élevées.  Cette technique montre de nombreux avantages :

  • Utilisation d’une énergie propre et disponible gratuitement : pas de rejet de CO2 ni d’autres gaz à effet de serre ;
  • Anticipation de la raréfaction voire de l’épuisement des gisements d’énergie fossile ;
  • Coût de fabrication peu onéreux : technique simple ;
  • Rendement élevé : technique efficace ;
  • Investissement sûr ;
  • Indépendance énergétique et non dépendance vis-à-vis de la fluctuation des prix de l’énergie ;
  • Durée de vie importante : environ 25 ans ;
  • Entretien léger ;
  • Augmentation de l’image verte d’un établissement, d’une société ;

Les besoins en ECS étant généralement répartis de manière presque constante au fil de l’année, le (pré)chauffage de l’eau chaude sanitaire est une application particulièrement adaptée au solaire thermique.

schéma corrélation entre consommation ecs et apport solaire.

Trois facteurs majeurs influencent directement l’efficacité et  la rentabilité d’une installation :

  • La consommation d’eau chaude : trop faible, inconstante ou concentrée sur les mois d’hiver, elle constitue souvent le facteur limitant de la productivité du système, d’où l’intérêt de la mesurer.
  • L’emplacement des capteurs : une orientation ou une inclinaison défavorables, un ombrage excessif diminuent l’efficacité, donc la rentabilité du système solaire.
  • La régulation solaire et la gestion de l’appoint : le principe de base consiste à assurer une température de retour vers les capteurs la plus basse possible, afin de récupérer le maximum d’énergie solaire.

Le chauffe-eau solaire mis en service en 2001 à la résidence Vieux-temps à Fléron est composé de 56 m² de capteurs à tubes sous vide et d’un volume de stockage solaire de 6 600 litres. L’énergie solaire couvre 47 % des besoins en eau chaude de l’établissement.

À l’évidence, l’impact visuel des capteurs est limité.

 > Plus d’infos sur le choixd’un préchauffage par capteur solaire

Les étapes de la réalisation d’un projet solaire thermique ont été balisées par le programme « Soltherm » de la Région Wallonne :

Études de cas Parcourir l’audit solaire établi pour :

– le home La Charmille à Gembloux !

– la piscine d’Herstal !

– la piscine de l’Hélios à Charleroi !


Récupérer l’énergie au condenseur de la machine frigorifique ?

La machine frigorifique évacue de la chaleur vers l’extérieur. Or la production d’eau chaude sanitaire demande une fourniture de chaleur, au contraire. L’idée de récupérer la chaleur de l’un au bénéfice de l’autre est attirante.

En pratique, pour le groupe frigorifique, chauffer l’eau sanitaire de 10 à 30°C est très efficace, effectivement. Par contre, chauffer l’eau de 30 à 60°C est difficile. Sous prétexte de récupération, la machine frigorifique finit par avoir un très mauvais rendement : le compresseur doit augmenter son taux de compression pour atteindre les hautes températures !

Cette technique est donc à privilégier pour les installations où la demande d’eau chaude sanitaire est très importante (hôtels, restaurants,…) et pour lesquels on assurera le préchauffage de l’eau sanitaire, sans perturber le cycle de la machine frigorifique. De l’ordre de 20 à 25 % de la puissance frigorifique peut être alors récupéré.

Schéma 1 : un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude.

échangeur thermique

Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir.

L’échangeur est équipé d’une double paroi de sécurité, selon DIN 1988.

Schéma 2 : un ballon intermédiaire à double échange est intégré comme interface.

On peut également prévoir un système à double échange : deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Schéma ballon intermédiaire à double échange

Un appoint en série est prévu (2).

Schéma 3 : en présence d’une boucle de distribution.

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

 Concevoir

Motivé ? Alors, découvrez plus de détails sur le fonctionnement côté machine frigorifique en cliquant ici !

Critère anti-légionelles

Toute zone « morte » de l’installation est une zone propice au développement de la légionelle. Ces bactéries adorent se développer dans une eau entre 35 et 45°C. Ce sont surtout les grandes installations qui sont les plus sensibles. Une étude du CSTC à mis en évidence que 40 % des grandes installations étaient contaminées : immeubles à appartements, piscines, homes, hôpitaux…

D’une manière générale, les principes à poursuivre pour combattre la légionelle sont les suivants :

  • éviter la stagnation (bras morts des réseaux),
  • forcer une T° > 55°C dans la boucle de circulation,
  • éliminer les zones tièdes au fond des ballons de stockage.

Voici les recommandations du CSTC :

  • « L’eau chaude doit être produite à une température de 60°C; on évitera qu’elle reste durablement dans le chauffe-eau à une température moindre.
  • L’eau doit être maintenue à 55°C au moins en tout point du réseau principal.
  • Dans un système de distribution avec recirculation, la température de retour ne peut jamais être inférieure à 55°C. Par ailleurs, la chute de température entre le point de départ et le point de retour à l’appareil de production d’eau chaude ne peut dépasser les 5°C : si l’eau quitte l’appareil de production à 60°C, la température de retour devra être de 55°C au moins.
  • Il est interdit de laisser stagner de l’eau chaude ou de l’eau froide : les branchements « morts » sur le réseau de distribution (y compris les vases d’expansion sanitaires, par exemple) sont donc « à risque ». Ils ne pourront dépasser 5 m et avoir un volume d’eau supérieur à 3 litres.
  • Les installations doivent être entretenues régulièrement; à cet effet, les appareils de production d’eau chaude seront dotés des ouvertures nécessaires. »

Source : CSTC magazine (hiver 2000).

À ce titre, les accumulateurs d’eau chaude sont-ils plus ou moins performants que les préparateurs instantanés ? Difficile à dire, … pour supprimer tout risque, il est recommandé une température de 60°C durant 30 minutes ou 70°C durant 4 minutes. Les préparateurs instantanés ne vérifient pas ces critères, mais avec ce système, il n’y a pas de stagnation, donc pas de développement possible (il faut un minimum de 2 jours de stagnation entre 25 et 45°C pour générer la prolifération bactérienne).

Ce qui est certain, c’est que la température de production est plus élevée qu’autrefois, que l’isolation thermique doit être renforcée et … qu’il faut investir dans des mitigeurs de qualité qui ne craignent pas trop le calcaire (risque de brûlure !).

Précisons enfin que la transmission de la légionelle se réalise par inhalation d’aérosols (gouttelettes de 1 à 5 microns) et par la contamination des poumons. On pourra donc être contaminé en prenant une douche mais pas en buvant un verre d’eau ! Ceci implique que la préparation à haute température est importante dans une piscine mais pas forcément dans une école.


Traitement de l’eau ?

Pour assurer la fiabilité des systèmes de douches (absence de dépôt dans les surfaces d’évaporation dont les pommeaux, de blocage des boutons poussoirs,…), il faut passer très souvent par la réduction de la teneur en carbonates de l’eau de distribution.

Techniques de traitement

Trois techniques de traitement de l’eau sont possibles :

  • Mettre en place un adoucisseur par résines échangeuses d’ions, avec rinçage de l’installation; ce procédé est d’une efficacité reconnue.
  • Traiter physiquement grâce à un champ magnétique; l’efficacité de ce type de solution est variable en fonction des conditions de fonctionnement de l’installation (comme par exemple la vitesse de l’eau traitée). On consultera les études du CSTC et du CSTB à ce sujet.
  • Dissoudre des cristaux de polycarbonates qui jouent le rôle d’inhibiteurs; cette solution s’applique pour des températures inférieures à 60°C.

Mesure de la dureté de l’eau

On commencera par analyser le TH de l’eau, Titre Hydrotimétrique, qui caractérise la dureté totale de l’eau dans la région du bâtiment à concevoir. Ce TH exprime la somme des ions Calcium Ca++ et Magnésium Mg++, responsables de la dureté de l’eau.

L’unité de mesure est le degré français °F. Ainsi, 1° F = 10 mg CaCO3/litre. L’échelle suivante permet de juger de la tendance de l’eau à déposer des sels :

eau très douce : < 7,5°F
douce : 7,5 à 15°F
assez dure : 15 à 20°F
dure : 20 à 30°F
très dure : > 30°F

La compagnie des eaux peut fournir cette valeur. Sinon, il existe des kits de mesure que les sociétés de maintenance utilisent et qui sont en vente chez les marchands d’adoucisseurs. Un pharmacien peut également faire cette mesure

Dimensionnement de l’installation

Partons d’une eau dont le TH est de 30°F (soit 0,3 kg de CaCO3/m³).

  1. On convient de limiter le TH à une valeur de 15°F, c.-à-d. de retirer 15°F/m³ d’eau à traiter. Il n’est pas nécessaire d’adoucir davantage : la consommation de sels augmenterait alors qu’un très léger dépôt de calcaire protège le réseau de tuyauteries de la corrosion par l’oxygène.
  2. On estime la consommation journalière. Par exemple : 3 000 m³/365 = 8,2 m³/jour. Il nous semble que le traitement de l’eau chaude est suffisant puisque c’est lors du chauffage de l’eau que le problème se pose. Le traitement de l’eau froide ne se justifie que pour une raison de confort.
  3. La capacité de traitement sera de 8,2 x 15 = 123 m³.°F/jour.
  4. Considérant le prix des appareils (un adoucisseur plus petit est moins cher), on peut raisonnablement choisir un appareil de capacité nominale de 250 m³.°F/jour par exemple.De cette manière, la saumure de régénération a au moins un jour pour se reconstituer. À ce sujet, il faut considérer une consommation annuelle de sel de l’ordre de 2 000 à 3 000 kg (0,6 à 1 kg/m³). Cela entraîne la nécessité de prévoir un bac à saumure suffisamment grand pour éviter une trop grande fréquence de manipulation.Il faut aussi prévoir une mise à l’égout (environ 10 litres d’eau évacuée/litre de résine à régénérer).
  5. Choisir un dispositif de régénération volumétrique, beaucoup plus économique qu’un programmateur horaire.

L’analyse comparative de « Test-Achats »

Les résultats de l’analyse comparative publiée dans Test-Achats de juin 2000 concernent bien entendu le secteur domestique. Les coûts de l’énergie sont également ceux en vigueur dans le domestique. Toutefois, il nous a semblé intéressant d’y faire écho ici parce que le secteur tertiaire à parfois des besoins en ECS très limités, comparables à ceux d’une habitation.

Les coûts annuels repris dans le tableau englobent le coût d’investissement dans l’appareil (amorti en 15 ans) et le coût d’exploitation. Hypothèse : consommation de 180 litres d’eau chaude/jour (5 à 6 personnes)

Coût annuel
(amortissement + exploitation)

Chaudière murale au gaz naturel
(tarif B, sans veilleuse)

189 €

Chaudière murale au gaz naturel
(tarif B, avec veilleuse)

189 €

Chauffe-bain au gaz naturel
(tarif B, sans veilleuse)

251 €

Chauffe-bain au gaz naturel
(tarif B, avec veilleuse)

269 €

Boiler électrique 200 l
(tarif exclusif nuit)

321 €

Boiler au gaz naturel 145 l
(tarif B)

339 €

Boiler sur chaudière à mazout 120 l

355 €

Boiler sur chaudière au gaz naturel 120 l

366 €

Boiler électrique 200 l
(tarif bihoraire)

387 €

Chauffe-bain au propane en réservoir

428 €

Boiler au propane en réservoir

587 €

Chauffe-bain au propane en bouteilles

615 €

Boiler électrique 150 l
(tarif jour).

729 €

Boiler au propane en bouteilles 145 l

849 €

Le préparateur instantané gaz se révèle le plus économique. Tandis que le préparateur au propane gagne a être remplacé !

Brûleurs gaz

Brûleurs gaz

Les différentes technologies de brûleurs gaz sont revues selon un ordre chronologique :

  • Au départ, on trouve les brûleurs atmosphériques associés aux chaudières atmosphériques au gaz. À l’heure actuelle, on ne conçoit plus de nouvelles installations au départ de cette technologie. En effet, les autres types de brûleurs présentent des avantages majeurs par rapport aux brûleurs atmosphériques. Néanmoins, ceux-ci se rencontrent encore dans des installations existantes. C’est pourquoi ils seront traités ci-dessous.
  • Plus tard, les brûleurs à air pulsé ont fait leur apparition permettant d’obtenir de meilleures performances énergétiques, essentiellement grâce à un plus grand potentiel de modulation en puissance et un meilleur contrôle de l’excès d’air.
  • Ultérieurement, les brûleurs à pré-mélange avec ventilateur se sont développés. Ils permettent d’atteindre un plage de modulation plus large que les brûleurs à air pulsé, et ceci, dès les faibles puissances installées. En outre, ils sont moins chers que les brûleurs pulsés.
  • Néanmoins, pour les niveaux de puissance plus importants (Pn > 1-3 MW), il sera inévitablement nécessaire de travailler avec ces brûleurs à air pulsé  (technologiquement, il est difficile d’atteindre ces niveaux de puissance par des chaudières gaz à pré-mélange).
  • De manière générale, il faut aussi mentionner que le brûleur pulsé et la chaudière sont deux éléments qui peuvent être achetés indépendamment (à partir du moment où l’on respecte les règles de compatibilité entre les deux parties). Par contre, les chaudières atmosphériques et à pré-mélange sont essentiellement des chaudières de type « unit », c’est-à-dire un ensemble indissociable. Par conséquent, les brûleurs pulsés permettent de changer de combustible (gaz/mazout) tout en gardant la même chaudière : seul le brûleur doit être modifié.

Les brûleurs atmosphériques

Les brûleurs atmosphériques sont des brûleurs gaz dans lesquels l’alimentation en air ne se fait pas par un ventilateur. L’air est entraîné dans un venturi par le jet de gaz au niveau d’injecteurs.

Schéma principe brûleur atmosphérique.

Principe de fonctionnement d’un brûleur gaz atmosphérique.

Le rétrécissement dans le tube mélangeur augmente la vitesse du gaz (voir la chambre de mélange dans la figure ci-dessus). Cela crée une dépression qui aspire « naturellement » une partie de l’air comburant (appelée « air primaire ») et le mélange au gaz.

Le mélange airprimaire-gaz débouche au niveau d’une série de trous (circulaires, pentes, …) disposés sur une ou plusieurs rampes.

L’allumage du mélange se fait au moyen d’une veilleuse ou d’un système électrique (étincelle ou électrode incandescente). Le complément d’air nécessaire à la combustion (appelé « air secondaire ») est aspiré au niveau de la flamme par induction due à la force ascensionnelle (c’est-à-dire par convection naturelle).

Electrode incandescente d’allumage d’un brûleur atmosphérique.

Dans ce type de brûleur, le pourcentage d’air primaire varie de 40 à 50 %.

Toutes les parties du brûleur (injecteurs, tube de mélange, rampes, …) doivent être adaptées les unes aux autres pour permettre une combustion stable, sans décrochement et sans retour de flamme. C’est pourquoi les possibilités de réglage sur ce type de brûleur sont nulles.

Le gros avantage des chaudières équipées d’un brûleur atmosphérique (puissance jusqu’à 1 MW) est la simplicité du système. Les gros désavantages sont :

  • l’absence de fermeture automatique du foyer à l’arrêt du brûleur. Il en résulte des pertes à l’arrêt importantes pour les chaudières ;
  • l’excès d’air trop important provoquant un mauvais rendement de combustion ;
  • la manque de modulation (fonctionnement en « tout ou rien »)
  • une production importante de NOx.

Composants d’un brûleur gaz à air pulsé

Schéma composants d'un brûleur gaz à air pulsé.

Brûleur gaz à air pulsé

  1. Moteur.
  2. Boîte de contrôle.
  3. Transformateur.
  4. Pressostat mini air (brûleur 1 allure).
  5. Pressostat mini air (brûleur 2 allures).
  6. Electrodes.
  7. Moteur volet d’air.
  8. Electrovanne (2ème allure).
  9. Electrovanne de sécurité.
  10. Pressostat mini gaz.
  11. Electrovanne (1ère allure).
  12. Régulateur de pression.

Le brûleur gaz à air pulsé a pour fonction de fournir, dans des proportions correctes, l’air comburant et le gaz pour permettre une combustion efficace. Le gaz et l’air comburant sont mélangés au niveau de la tête de combustion, un peu en aval de la combustion. Il n’y donc pas véritablement de pré-mélange. L’alimentation en air est assurée par un ventilateur qui puise l’air ambiant de la chaufferie. L’alimentation en gaz est assurée par une électrovanne et des régulateurs de pression.

Principe de fonctionnement d’un brûleur gaz à air pulsé.


Composants d’un brûleur gaz à air pulsé : vannes gaz et réglage du débit

Le Champ magnétique créé par le bobinage sous tension attire le noyau mobile qui porte le clapet de fermeture.

Électrovanne hors tension (fermée).

Électrovanne sous tension (ouverte).

  1. Bobinage.
  2. Armature concentrant le champ magnétique.
  3. Noyau mobile.
  4. Clapet de fermeture.
  5. Siège du clapet.
  6. Corps de vanne.
  7. Ressort.
  8. Partie métallique non conductrice de champ magnétique.

La pression d’alimentation de gaz est constante, le réglage du débit nominal se fait, par étranglement, avant l’entrée dans la tête du brûleur :

  • soit par un « té » de réglage indépendant de la vanne gaz ;
  • soit par un boisseau incorporé à la vanne gaz ;
  • soit par un limitateur de déplacement du clapet de la vanne gaz.

Dans les brûleurs à deux allures, les électrovannes sont composées de deux bobinages et de deux noyaux mobiles.

Il existe également des vannes hydrauliques dont le clapet est manœuvré par un piston à huile. L’avantage de ce système est une ouverture plus progressive liée à la vitesse de la pompe et une fermeture plus rapide liée à la pression du ressort plus importante que pour les électrovannes. Un démarrage plus lent peut être obtenu au moyen de deux vannes magnétiques montées en parallèle. Les vannes gaz comportent un contact de fin de course qui interdit le démarrage du brûleur si le clapet n’est pas correctement fermé.

La puissance du brûleur

La puissance « P » du brûleur dépend du débit « qgaz » de gaz. Celui-ci peut être mesuré au niveau du compteur gaz. En première approximation, en négligeant l’influence de la pression et de la température sur le débit ainsi que la variation du pouvoir calorifique du gaz distribué, on peut déterminer la puissance du brûleur par :

P [kW] = qgaz [m³/min] x 60 [min/h] x 10 [kWh/m³]


Composants d’un brûleur gaz à air pulsé : l’alimentation en air

L’air nécessaire à la combustion est amené dans le brûleur au moyen d’un ventilateur centrifuge. Ce ventilateur doit assurer le débit d’air nécessaire à la combustion en vainquant la résistance que rencontre l’air jusqu’à la flamme, la résistance que rencontrent la flamme et les fumées dans la chambre de combustion.

Le ventilateur tournant à vitesse constante, un registre d’air permet de régler le débit d’air nominal garantissant une combustion correcte (il faut 10 .. 13 m³ d’air pour brûler 1 m³ de gaz). Ce registre peut être installé à l’aspiration ou au refoulement du ventilateur. Dans le cas d’un brûleur pulsé une allure, la puissance est constante et égale à la puissance nominale. Le débit d’air nécessaire reste égal au au débit d’air nominal réglé par le clapet. Comme on ne doit pas changer de débit d’air, aucun dispositif supplémentaire n’est nécessaire pour modifier celui-ci.

Le réglage manuel du registre d’air d’un brûleur une allure se fait souvent au moyen d’un secteur gradué.

Pour limiter le balayage du foyer de la chaudière lorsque le brûleur est à l’arrêt et donc l’évacuation de sa chaleur par tirage naturel vers la cheminée (ce que l’on appelle les pertes par balayage), les fabricants prévoient sur les brûleurs une fermeture automatique du registre d’air lorsque le brûleur est à l’arrêt :

  • soit avec un servo-moteur électrique assurant l’ouverture et la fermeture ;
  • soit avec un contrepoids (qui peut être le propre poids du registre) ou un ressort. Dans ce cas, la dépression ouvre le registre et le flux d’air le maintient en position ouverte.

Clapet par servomoteur qui assure la fermeture de l’arrivée d’air à l’arrêt.

Dans les brûleurs pulsé 2 allures, il faut adapter le débit d’air aux deux niveaux de puissance. La détermination de la position du registre d’air peut, entre autres, être réglée au moyen de cames dans le cas d’un système de réglage mécanique.

La came bleue commande la fermeture totale à l’arrêt,
la came orange commande l’ouverture en première allure,
la came rouge commande l’ouverture en deuxième allure,
la came noire commande l’ouverture de la vanne gaz de deuxième allure.
Un disque repère situé en bout d’arbre permet de visualiser les différentes positions d’ouverture.

Notons en outre que pour des raisons de sécurité, la pression d’air est contrôlée en permanence avant la tête de combustion par un (brûleur une allure) ou deux pressostats (brûleur 2 allures). En cas de défaut, le coffret de commande stoppe l’alimentation de gaz.

Dans le cas d’un brûleur pulsé modulant, le débit d’air est adapté de manière continue au débit de gaz (suivant le niveau de puissance souhaité). Cela peut se faire par un déplacement continu du registre d’air ou par une régulation basée sur la vitesse du ventilateur.


Composants d’un brûleur gaz à air pulsé : la tête de combustion

La tête de combustion du brûleur pulsé est constituée d’un embout ou gueulard qui guide la flamme. Celle-ci est allumée au moyen d’électrodes alimentées en haute tension, créant un arc électrique. La flamme est maintenue en position grâce au déflecteur. En effet, le flux d’air autour de ce dernier crée une dépression qui maintient la flamme en position.

     

Tête de combustion d’un brûleur gaz (gauche) et déflecteur (droite).

Le réglage de la tête de combustion, c’est-à-dire de la distance entre le déflecteur et l’embout, est essentiel au bon fonctionnement du brûleur en répartissant les débits d’air primaire (passant au centre du déflecteur) et d’air secondaire (passant à la périphérie). Il s’agit d’obtenir une vitesse de mélange air/combustible correcte. Une vitesse trop importante entraîne des difficultés d’allumage et d’accrochage de la flamme. Une vitesse trop lente provoque une combustion oscillatoire. Dans les 2 cas, il y a des risques d’accumulation de gaz dans la chaudière et donc d’explosion.

Photo brûleur gaz à air pulsé.

Les modèles de brûleur gaz à air pulsé se différencient pas la forme de la tête de combustion. On retrouve ainsi des tubes percés de trous ou de fente, des tubes à gaz, des dispositifs tourbillonneurs, des accroche-flammes à fentes ou trous, …


Composants d’un brûleur gaz à air pulsé :  dispositif de sécurité

Un contrôle continu de la flamme du brûleur est nécessaire pour arrêter ce dernier immédiatement en cas de défaut :

  • si la flamme n’apparaît pas quand le combustible est libéré ;
  • si la flamme disparaît en cours de fonctionnement ;
  • si une flamme parasite apparaît alors que le brûleur est en phase de démarrage.

De plus, le défaut doit être signalé par une alarme, qui avertit un technicien chargé du dépannage. Le but est d’éviter d’admettre du gaz dans une chaudière sans le brûler. L’allumage intempestif de ce gaz pourrait provoquer une explosion. Comme élément de détection de la flamme on utilise :

  • un thermocouple sensible à la chaleur de la flamme (système de détection lent utilisé sur les chaudières atmosphériques de moins de 70 kW ;
  • un détecteur infrarouge également sensible à la chaleur de la flamme ;
  • une cellule UV qui émet un signal électrique grâce à l’ionisation d’un gaz contenu dans la cellule, sous l’effet des rayons UV émis par les flammes gaz ;
  • une sonde d’ionisation. Cette sonde est sensible à la présence d’ions et d’électrons dans toute flamme. Il suffit dès lors d’essayer de faire passer un courant dans la flamme. Si le courant passe, c’est qu’il y a une flamme.

Composants d’un brûleur gaz à air pulsé : 1, 2 allures et modulant

On répertorie 4 modes de fonctionnement des brûleurs gaz pulsés :

  • en tout ou rien ;
  • en 2 allures ;
  • en tout ou peu progressivement ;
  • en modulation.

Brûleur pulsé « tout ou rien » (Pn < 100-150 kW)

On parle de brûleur tout ou rien lorsque pour toute demande de chaleur, le brûleur s’enclenche, fournit sa pleine puissance, et s’arrête lorsque les besoins sont satisfaits.

Les brûleurs tout ou rien se différencient par leur mode de démarrage : en pleine puissance, à débit limité et à petite allure.

Démarrage à pleine puissance

Ce type de brûleur est utilisé pour les puissances inférieures à 100 .. 120 kW. Lors de la demande de chaleur, le brûleur démarre directement à pleine puissance.

Démarrage à débit limité

Lors d’une demande de chaleur et grâce à un jeu d’électrovannes (2 vannes magnétiques ou bien d’une seule vanne à 2 étages), le brûleur démarre avec une puissance de l’ordre de 75 % et passe à sa pleine puissance après le temps de post-allumage. Cela permet d’atténuer l’onde de choc provoquée par l’allumage du combustible. Comme dans ce type de brûleur, le réglage du registre d’air est manuel, la phase initiale du démarrage se produit avec un excès d’air trop important et donc une combustion médiocre.

Démarrage à petite allure

Ce mode de démarrage repose sur le même principe que dans le cas précédent. Il s’en différencie cependant par la réduction plus importante de la puissance au démarrage. Il s’agit en fait de brûleurs 2 allures mais dont la commande ne permet pas le choix de l’allure en fonction des besoins. Le temps séparant l’allumage du passage à la deuxième allure est fixé (relais programmable).

Brûleur pulsé 2 allures (Pn entre 100-250kW)

En cas de demande de chaleur, le brûleur est enclenché en première allure (qui représente entre 40 et 60 % de la puissance nominale). Après un délai déterminé (relais programmable), le brûleur passe à pleine puissance sauf si le régulateur signale que cette pleine puissance n’est pas nécessaire. Dans ce dernier cas, la première allure est maintenue.

Lorsque le brûleur fonctionne en deuxième allure, il est possible que le régulateur estime que la pleine puissance n’est plus requise et le brûleur repasse en première allure. Si la puissance requise est inférieure à la puissance en allure réduite, le brûleur s’arrête. Dans le cas inverse, il repasse en deuxième allure.

Brûleur gaz 2 allures.

Brûleur gaz modulant.

Le brûleur 2 allures présentent des avantages énergétiques indéniables :

  • L’adaptation de la puissance aux besoins allonge le temps de fonctionnement du brûleur et diminue le nombre de cycles d’allumage source d’imbrûlés et d’émissions polluantes.
  • Les temps d’arrêt de la chaudière et donc les pertes du même nom sont moindres.
  • La diminution de la puissance du brûleur par rapport à la puissance de la chaudière augmente le rendement de combustion. En effet, la taille de l’échangeur augmente par rapport à la puissance de la flamme et donc les fumées sortent plus froides de la chaudière. Un gain de rendement de combustion de 2 .. 2,5 % est ainsi possible entre la petite allure (60 % de la puissance nominale) et la grande allure.

Brûleur pulsé « tout ou peu progressif »

Le principe de fonctionnement de ce type de brûleur est semblable à celui d’un brûleur 2 allures. Ce brûleur ne permet que 2 allures. Le passage de la première à la deuxième allure n’est cependant plus brutal, mais progressif (en un temps minimum de 30 secondes).

Si la demande de chaleur est inférieure à la puissance en première allure, le brûleur se met à l’arrêt. Si elle y correspond, le brûleur maintient son fonctionnement en première allure. Si elle en est supérieure, le brûleur passe progressivement en deuxième allure.

Brûleur pulsé modulant (Pn > 150kW)

Avec un brûleur modulant, toutes les allures de fonctionnement sont possibles, au-delà d’un minimum souvent de l’ordre de 30 %. Les débits d’air et de fuel sont réglés en continu en fonction de la puissance de chauffage requise, ce qui permet un fonctionnement quasi continu.

Brûleur gaz modulant.

Les avantages du brûleur modulant sont du même ordre que ceux du brûleur 2 allures. L’adaptation de la puissance est cependant encore plus fine, ce qui limite encore les temps d’arrêt d’un brûleur. La modulation a cependant ses limites. En effet, à basse puissance, le réglage de l’excès d’air devient difficile. C’est pourquoi les brûleurs modulants ne peuvent descendre en dessous d’une puissance de l’ordre de 30 % et à ce moment.


Brûleurs à prémélange (prémix)

Pour éviter les imbrûlés et la production de CO, les brûleurs atmosphériques doivent fonctionner avec un excès d’air important. Il en résulte une production importante de NOx.

L’évolution technologique de ces brûleurs conduit à ce qu’on appelle les brûleurs à prémélange. Dans ces brûleurs, l’air est mélangé au gaz dans une chambre de prémélange, avec ou sans l’aide d’un ventilateur. Dans le cas d’un brûleur à prémélange, le mélange est ensuite réparti sur une surface d’accrochage (par exemple, en treillis métallique) où se développe la flamme. Si tout l’air de combustion est fourni durant le prémélange (air primaire), on parlera de prémélange total tandis que si une fraction doit encore être fournie plus loin en aval (air secondaire), on parlera de prémélange partiel.

Brûleur à prémélange sans ventilateur

Brûleur à prémélange sans ventilateur et sa chaudière.

La technique de prémélange permet d’affiner le dosage entre l’air et le gaz et donc de diminuer l’excès d’air. De plus, la surface d’accrochage peut être étudiée pour augmenter la surface des flammes et diminuer leur longueur. Il en résulte une augmentation du rendement de combustion et une diminution des émissions polluantes (NOx).

  

Flamme d’un brûleur atmosphérique à prémélange, en forme de trèfle.

Brûleur à prémélange avec ventilateur

On pense essentiellement à ce type de brûleur lorsque l’on évoque les chaudières gaz à prémélange. On sous-entend que le brûleur fonctionne avec un ventilateur. La présence du ventilateur permet :

  • d’améliorer le mélange air/gaz par un meilleur contrôle du débit d’air ;
  • de vaincre les pertes de charge des brûleurs et des foyers dont l’échange est optimisé (notamment pour les chaudières à condensation) ;
  • de moduler la puissance du brûleur en faisant varier la vitesse du ventilateur ou en freinant le mélange air/gaz par un clapet. Typiquement, on peut atteindre des plages de modulation continue de puissance qui vont de 20 à 100 % de la puissance nominale. La plage est donc un peu plus large qu’avec les brûleurs à air pulsé.

Principe d’un type de brûleur à prémélange dans une chaudière à condensation. Dans ce cas-ci, le mélange air/combustible se fait en aval du ventilateur. Le clapet de régulation gaz piloté par un régulateur de pression permet d’adapter la quantité de combustible à la quantité d’air pulsée par le ventilateur. Une fois le mélange devenu homogène, la combustion a lieu dans la chambre.


Brûleurs low-NOx

Les derniers développements en matière de brûleur ont principalement visé à diminuer les émissions polluantes comme les imbrûlés, CO, NOx.

Idéalement lors d’une réaction de combustion, l’azote N2 contenu dans l’air comburant, est rejeté tel quel sans être modifié. Cependant, sous certaines conditions, il se combine avec l’oxygène pour former des NOx.

Non seulement ceux-ci peuvent être directement toxiques pour la santé, mais contribuent à la formation d’ozone, de smog et de pluies acides. Ils font également partie des gaz à effet de serre. Leur émission doit donc être réduite au minimum. On peut consulter la législation belge pour les performances minimales à atteindre pour les nouvelles chaudières en termes d’émission de NOx.

Les paramètres favorisant la production de NOx sont :

  • la température élevée de la flamme (supérieure à 1 200 °C) ;
  • l’excès d’air, c’est-à-dire la présence importante d’oxygène (O2) n’ayant pas réagi dans les fumées ;
  • le temps de séjour des atomes d’azote (N) dans la zone chaude de la flamme ;
  • une concentration plus élevée du combustible en N2.

Les deux premiers paramètres dépendent de la conception du brûleur, le troisième dépend de la conception de la chaudière.

Evolution de la production de NOx en fonction de la température de la flamme.

Brûleur pulsé « Low-NOx » par recyclage des gaz

Les technologies appliquées sont semblables pour les brûleurs pulsés gaz ou les brûleurs pulsés fuel.

Pour les brûleurs pulsés (fuel ou gaz), la technique la plus courante pour diminuer les émissions d’oxyde d’azote est le recyclage des gaz de combustion dans la tête du brûleur.

En fait, cela consiste à mélanger une partie des gaz de fumée à l’air comburant, dans le but de :

  • diminuer la température de la flamme, car même avec plusieurs centaines de degrés, les gaz brûlés sont plus froids que la flamme ;
  • réduire la concentration en oxygène du mélange ;
  • favoriser la vaporisation des combustibles liquides et de modifier favorablement les conditions de combustion.

La configuration aéraulique pour réaliser cette re-circulation des gaz varie selon les constructeurs. D’une manière générale, c’est l’impulsion de l’air de combustion en mouvement qui sert de force motrice au recyclage : un passage plus étroit au niveau de la tête de combustion provoque une accélération du flux de gaz. Cela génère une dépression et amorce la re-circulation des gaz de combustion.

On peut également encore descendre la température de la flamme en élargissant le front de flamme. Dans ce cas, on recherche ainsi à avoir une flamme en forme d’entonnoir, ce qui augmente sa surface de refroidissement et donc diminue sa température.

Par rapport au brûleur « classique », le brûleur Low-NOx à re-circulation interne des gaz de combustion présente les inconvénients suivants :

  • La re-circulation demande de l’énergie. La comparaison entre un brûleur à pulvérisation traditionnel et un brûleur Low NOx (le ventilateur et la chambre de combustion étant identiques) montre que la dépression au niveau la tête du brûleur Low NOx réduit la puissance calorique maximale et modifie les caractéristiques intrinsèques du brûleur.
  • La vitesse d’écoulement élevée suscite des turbulences à hauteur du venturi. Il peut en résulter un accroissement du niveau sonore.
  • La re-circulation des gaz de combustion dans la tête du brûleur entraîne un encrassement plus rapide des électrodes d’allumage. Un entretien préventif est dès lors nécessaire.

En revanche, un brûleur Low-NOx produit de 20 à 50 % d’émissions NOx en moins qu’un brûleur traditionnel.

              

 Brûleurs Low NOx (ici en version fuel) basés sur le principe de recirculation : la re-circulation s’effectue dans le foyer à hauteur de la tête de combustion. Une zone de dépression aspire à nouveau les gaz de combustion et les mélange à la flamme. La re-circulation peut également être externe.

Brûleurs à prémélange radiants ou rayonnants

Bien que la transition d’un brûleur atmosphérique à un brûleur à prémélange réduit considérablement l’émission de NOx (essentiellement, par un meilleur contrôle de l’excès d’air), les brûleurs rayonnants ou radiants vont encore plus loin dans l’optimalisation des émissions. Le but est de réduire au maximum la température de la flamme. Si la surface d’accrochage de la flamme est en matériau réfractaire (céramique ou acier inoxydable réfractaire), elle va absorber une partie de la chaleur de réaction et la restituer par rayonnement au foyer. La température de combustion s’en trouve abaissée sous 1 200 °C, ce qui réduit fortement la production d’oxydes d’azote (NO< 15 mg/kWh).

Exemple de brûleur radiant :

 

Une application de cette technologie est le brûleur hémisphérique radiant. Il est composé d’une grille en forme de demi-sphère. La grille est en acier inoxydable spécial réfractaire. Elle rougeoie et recède sa chaleur par rayonnement.

Schéma brûleur hémisphérique radiant.

Brûleur hémisphérique radiant (existe aussi en version plane) : le mélange air-gaz réparti sur la surface de combustion avec une vitesse très faible puisque cette surface est nettement plus importante que pour les brûleurs atmosphériques traditionnels. Le mélange brûle alors directement, pratiquement sans flamme visible et cède une partie de sa chaleur directement à l’élément réfractaire.


Synthèse sur la modulation en puissance pour les brûleurs gaz

Le potentiel de modulation des différentes approches a été évoqué précédemment. Néanmoins, pour des questions de clarté, ces propriétés sont résumées dans le tableau ci-dessous.

Puissance nominale Brûleur gaz atmosphérique Brûleur gaz à air pulsé Brûleur gaz à prémélange avec ventilateur
Pn < 100 – 150 kW Tout ou rien, voire deux allures

 

Tout ou rien Modulant (10 – 20 à 100 %).

 

Pn < 150 – 250 kW Deux allures
Pn >  150 – 250 kW Modulant (30 – 100 %)
Pn > ~ 1 MW Chaudières en cascade Chaudières en cascade.
Pn > ~ 3 MW Techniquement trop complexe Techniquement trop complexe.

On voit que pour les puissances faibles, le brûleur à air pulsé fonctionne en « tout ou rien » alors que le brûleur à prémélange offre déjà une large plage de modulation, de l’ordre de 10-20 % à 100 %. Pour les puissances plus élevées, typiquement au-delà d’~1 MW, il est techniquement difficile de réaliser des chaudières à prémélange. Par conséquent, pour pouvoir augmenter la puissance installée au-dessus de ce seuil, on travaille avec plusieurs chaudières à prémélange en cascade. En outre, ceci va améliorer les capacités de modulation de l’ensemble de l’installation et une meilleure sécurité d’approvisionnement. Néanmoins, au-delà de 3 chaudières montées en cascade, les installations deviennent difficiles à piloter et maintenir. À partir de 3 MW, on ne trouvera donc plus raisonnablement d’installations basées sur des chaudières/brûleurs à prémélange. En fait, les chaudières et brûleurs à air pulsé vont progressivement prendre le relais à partir des installations de 1-3 MW.

Exemple d’évolution du rendement avec la modulation en puissance : 

Évolution du rendement de combustion des brûleurs actuels en fonction de la modulation de sa puissance.

Pour les brûleurs pulsés modulants traditionnels (fuel ou gaz) (de 30 à 100 %) : dans un premier temps, lorsque la puissance du brûleur diminue (à partir de 100 % de puissance), la température des fumées diminue et le rendement augmente. À partir d’un certain moment, la diminution de la quantité de particules de combustible et leur dispersion imposent d’augmenter l’excès d’air pour éviter les imbrûlés. Le rendement diminue de nouveau.

Pour les nouveaux brûleurs gaz modulant à prémélange avec ventilateur  (de 10 ou 20 à 100 %) : le contrôle de la combustion permet de maintenir un excès d’air correct, sans production d’imbrûlé, sur toute la plage de modulation. On obtient donc une plage de modulation plus grande (~ 10 à 100 %) avec une qualité de combustion constante et des fumées qui se refroidissent de plus en plus (pour arriver à la condensation).

Pour les brûleurs gaz atmosphérique 2 allures (sans ventilateur) (50 % / 100 %) : l’air de combustion est amené dans la chaudière naturellement. L’excès d’air n’est donc pas contrôlé. Si la puissance du brûleur diminue de moitié, ce n’est pas le cas de la quantité d’air aspirée. L’excès d’air augmente donc et le rendement chute.

   

Exemple de nouveau brûleur pulsé modulant (10 à 100 %) à prémélange : la modulation se fait, par exemple, grâce à un cylindre coulissant découvrant progressivement la tête de combustion.

Liaison chaude

Liaison chaude


Principe

En liaison chaude, les plats sont préparés en cuisine centrale et consommés dans les deux heures. De la cuisson à la consommation, pour éviter la prolifération des germes, la température des mets ne doit jamais être inférieure à 65 °C.

Deux cas peuvent se présenter :

  • Le self-service est contigu à la cuisine.
    Dans ce cas, après cuisson, les récipients sont maintenus au chaud à plus de 65 °C. À l’heure voulue, les mets sont conditionnés soit en portions individuelles, soit en plats collectifs, puis distribués immédiatement.
  • Des restaurants satellites plus ou moins éloignés sont à desservir.

Dans ce cas, dès la fin de la cuisson, les mets cuisinés sont conditionnés, soit en portions individuelles, soit en plats collectifs, puis disposés en containers isothermes. Un maintien à une température supérieure à 65 °C est obligatoire pendant toute la durée du stockage et du transport. Dans les restaurants satellites, le maintien à 65 °C est assuré par des équipements spécifiques : bain-marie, étuves, armoires de maintien en température. A l’heure voulue, les mets sont distribués.


Avantages

Les équipements sont relativement peu nombreux.

La cuisine n’engendre pas de changements dans les habitudes alimentaires des gens habitués à la cuisine traditionnelle.
Tout peut être préparé (steak, frites…)


Inconvénients

Il y a un risque de prolifération microbienne.

La consommation doit se faire un peu après la confection. Ce qui engendre des contraintes d’organisation et la capacité des équipements doit correspondre au nombre maximum de repas à préparer en deux heures avec un remplissage non optimal.

Tous les repas qui ne sont pas consommés dans la journée doivent être jetés.

Salamandre électrique

Salamandre électrique


Principe

Des résistances radiantes cuisent par rayonnement, comme au-dessus de la braise.

La salamandre gratine rapidement des plats souvent en finition.


Description

Une salamandre comporte :

  • Des résistances électriques blindées et des résistances électriques nues disposées dans des tubes de quartz qui sont placés en voûte,
  • des briques infrarouges,
  • des réflecteurs généralement en acier inoxydable assurant une bonne répartition des rayons infrarouges,
  • une grille coulissante ou non, réglable en hauteur permettant différents types de finition,
  • un plateau amovible ou non recueillant les déchets et les graisses.


Commande et régulation

La commande de l’appareil est assurée par un commutateur à plusieurs positions.


Gamme

Elle est peu étendue. La puissance installée varie de 3 à 10 kW pour une surface de cuisson de 17,5 à 35 dm2.


Utilisation

Les salamandres sont réservées aux finitions des plats à glacer, à dorer, à gratiner.

Cet appareil est généralement utilisé en restauration commerciale.

En restauration rapide, on peut utiliser des appareils combinés (grill-salamandre, rôtissoire-salamandre).

Picto ascenseur

Améliorer la performance énergétique des ascenseurs

Picto ascenseur   

Diminuer la consommation de la motorisation

1. Généralités

Le parc machine au niveau du secteur tertiaire comporte, en grande majorité, des ascenseurs à traction à câble. Quelquefois, pour des faibles courses et des charges importantes, on trouve des ascenseurs hydrauliques.

Une partie importante de la consommation et de l’appel de puissance des ascenseurs est due à la motorisation. On retrouve essentiellement des motorisations :

  • hydrauliques (moteur asynchrone à démarrage étoile-triangle),
  • à moteur-treuil à vis sans fin (moteur asynchrone à deux vitesses),
  • « gearless » (moteur synchrone sans réducteur et commandé par un variateur de vitesse par exemple),

Le tableau suivant donne une idée des consommations et des appels de puissance en fonction des courants nominaux et de démarrage :

Type de motorisation Courant nominal Courant de démarrage
– à traction à deux vitesses In 2,5 à 3,5 In
– hydraulique classique 3 In 6 à 18 In
– à traction avec variateur de fréquence 0,8 In 1,6 In

Sur base de ce tableau, on peut déjà se faire une première idée des appels de puissance au démarrage et en régime normal ainsi que les énergies consommées.

Évaluer

Pour en savoir plus sur l’évaluation des consommations et des appels de puissance de la motorisation.

2. La motorisation hydraulique

Origine des consommations et de l’appel de puissance

La motorisation hydraulique classique est très gourmande en énergie et en appel de puissance; ce qui signifie que la facture est malmenée non seulement au niveau énergie (kWh) mais aussi au niveau de la pointe quart-horaire. Ceci n’est pas nécessairement dû au type de motorisation mais plutôt au fait que l’ascenseur hydraulique est sans contre-poids et, par conséquent, le moteur de la pompe doit vaincre la charge totale de la cabine.

Démarrage étoile-triangle

La motorisation hydraulique est souvent démarrée par un dispositif étoile-triangle qui permet de réduire par 3 le courant de démarrage et, par conséquent, l’appel de puissance par 3. L’ennui, c’est que le couple de démarrage est divisé par 3 (le dimensionnement du moteur prend toute son importance).

Le démarrage étoile-triangle n’a d’utilité que pour limiter les appels de puissances au démarrage en réduisant les perturbations sur le réseau électrique. Le couple de démarrage étant réduit, le moteur mettra plus de temps pour démarrer; ce qui signifie que la consommation électrique n’est pas réduite de manière probante (l’appel de puissance réduit au démarrage se prolongeant pendant un temps plus long, le produit de la puissance par le temps reste plus ou moins constant).

Couplage étoile, schéma de câblage et couplage triangle.

Kit de démarrage à semi-conducteur

Une manière de réduire le courant de démarrage de la motorisation des ascenseurs hydrauliques est de remplacer le démarreur direct ou étoile-triangle classique par un démarreur à semi-conducteur. Certains fabricants prévoient des kits de remplacement au niveau du tableau de commande de puissance. Ce type de démarreur est un variateur de vitesse simplifié.

Kit de démarrage par variateur de vitesse.

Économies d’énergie

Des courbes de démarrage de moteur asynchrone de motorisation hydraulique n’ont pu être trouvées pour mettre en évidence l’intérêt du placement d’un variateur de fréquence. Cependant, des courbes présentées ci-dessous :

  • La courbe du courant de démarrage direct de la motorisation hydraulique est bien une courbe mesurée.

 

  • La courbe du courant de démarrage par variateur de fréquence est déduite de la courbe de puissance mécanique pour une pompe hydraulique. Cette puissance est une fonction de la vitesse au cube. Comme le variateur de fréquence est capable de « coller » à la puissance demandée par la pompe hydraulique, le profil de la courbe de puissance électrique demandée par le système est, au rendement près, similaire. A tension du réseau constante (400 V par exemple), la courbe du courant « suit » celle de la puissance.

Les courbes de démarrages ci-dessus montrent que l’appel de puissance du moteur hydraulique est énorme par rapport à celui d’une motorisation hydraulique à variateur de fréquence.

À titre de comparaison, une estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’une motorisation à vis sans fin équipée d’un moteur asynchrone, met en évidence une économie de l’ordre maximum de 30 %. En d’autres termes, le placement d’un variateur de fréquence commandant une motorisation hydraulique, permettrait de réduire davantage les appels de puissance et les consommations.

Évaluer

Pour en savoir plus sur l’estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’un moteur asynchrone à deux vitesses.

3. La motorisation à traction à câble à courant continu

Le groupe Ward-Léonard

Il existe encore de vieilles motorisations à courant continu absolument dépassées au niveau de la performance énergétique. Ce sont notamment les groupes Ward-Léonard qui ont connu un franc succès au début de l’ère des variateurs de vitesse pour moteur à courant continu.

Seulement, le gros inconvénient de ce système est :

  • sa consommation d’énergie supérieure due au fonctionnement à vide du moteur asynchrone et de la génératrice à courant continu qui continue de fonctionner même lorsque la cabine n’effectue pas de trajet,
  • sa complexité (moteur asynchrone, génératrice à courant continu, moteur à courant continu, treuil),
  • son encombrement,
  • la nécessité d’un entretien important,

Remplacement du groupe Ward-Léonard par un variateur de vitesse statique

Pour éviter tous les inconvénients cités ci-dessus, on le remplacera avantageusement, tout en conservant le moteur à courant continu, par un démarreur et variateur de vitesse statique (redresseur à niveau de tension variable).

Conservation du moteur à courant continu et variateur de vitesse avec inversion du sens de rotation.

Pratiquement :

  • L’inducteur du moteur dc est généralement alimenté par un redresseur monophasé ou triphasé.

Économie d’énergie

Le remplacement de tout le système de variation de la tension continue (moteur asynchrone d’entraînement et génératrice à courant continu) permet de réduire les consommations car le système moteur synchrone – génératrice à courant continu est supprimé et, par conséquent, il n’y a plus de pertes énergétiques à vide lorsque la cabine n’effectue pas de trajet.

Primaire.

Variateur de vitesse.

Secondaire.

Moteur.

4. La motorisation à traction à deux vitesses et les variateurs de vitesse

Moteur-treuil à vis sans fin

La motorisation à deux vitesses, équipée d’un réducteur à vis sans fin, est la configuration la plus classique des bâtiments tertiaires construits dans les années 1960-80. Le moteur asynchrone à deux vitesses qui équipe cette motorisation permettait d’obtenir un grand confort de course de cabine pour l’époque.
Les consommations énergétiques de ces systèmes sont importantes par le fait que :

  • le rendement du réducteur à vis sans fin est de l’ordre de 65 %;
  • l’optimisation des courants de démarrage n’est pas adéquate puisque directe.

Commande du moteur-treuil à vis sans fin adaptée à un variateur de vitesse

La commande et la régulation du moteur asynchrone à deux vitesses peut être modernisée par la mise en place d’un variateur de vitesse sur les connections des enroulements statoriques de la seconde vitesse (vitesse nominale).

  

Démarreur à deux vitesses et variateur de vitesse.

Le variateur de vitesse travaille en variateur de fréquence et de tension, et commande la vitesse du moteur en fonctionnement U/f (scalaire) par exemple pour maintenir un couple constant en fonction de la vitesse comme le montre la figure suivante :


Démarrage à couple constant par variateur de fréquence.

Ce couple constant en fonction de la vitesse convient bien au fonctionnement des ascenseurs à traction.

Économie d’énergie et réduction de l’appel de puissance

Une estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’une motorisation à vis sans fin équipée d’un moteur asynchrone, met en évidence une économie de l’ordre maximum de 30 %.

Évaluer

Pour en savoir plus sur l’estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’un moteur asynchrone à deux vitesses.

4. La motorisation à traction à deux vitesses et les variateurs de vitesse

Moteur-treuil à vis sans fin à deux vitesses remplacé par un système « gearless »

Le moteur-treuil à vis sans fin à un rendement global de l’ordre de 55 %. On peut améliorer l’installation en remplaçant ce moteur par un moteur « gearless » (sans réducteur). Indépendamment du gain de place, cette opération améliore non seulement le rendement mais aussi la consommation et les appels de puissance.

 

Moteur-treuil à vis sans fin et moteur « Gearless ».

Le passage d’un système à l’autre améliore le rendement global de l’installation de 55 à 77 %; soit une amélioration de 22 %.

Économie d’énergie et réduction de l’appel de puissance

Une analyse comparative de la consommation effectuée par le CADDET (Centre for the Analysis and Dissémination of Demonstrated Energy Technologies) a permis de mettre en évidence des différences importantes au niveau du bilan énergétique annuel.
Le tableau suivant résume cette analyse (à noter que la traction classique est un moteur-treuil à vis sans fin à deux vitesses) :

Type de motorisation
Paramètres Traction classique Gearless
Vitesse de déplacement de la cabine [m/s] 1 1
Charge de l’ascenseur [kg] 630 630
Puissance du moteur électrique [kW] 5,5 3,3
Calibre de la protection moteur [A] 35 16
Quantité d’huile nécessaire [litres] 3,5
poids de la motorisation [kg] 430 230
Niveau acoustique [dB] 65-75 50-55
Nombre de courses pour 3 mois 27 444
Consommation électrique pour 3 mois [kWh/3 mois] 958 447
L’économie d’énergie est importante (de l’ordre de 53 %)

Évaluer

Pour en savoir plus sur l’estimation des économies d’énergie faites par le placement d’un variateur de vitesse pour la commande d’un moteur asynchrone à deux vitesses.

Réduire la consommation de l’éclairage et des auxiliaires

L’éclairage

Dès l’instant où l’éclairage, par mesure de sécurité, reste en permanence allumé, que ce soit la nuit ou le week-end, lorsque le bâtiment est inoccupé, une consommation électrique non négligeable s’installe et peut devenir dominante dans le cas où la motorisation a subi un « lifting » (c’est le cas de le dire !) par le placement d’un variateur de fréquence pour commander la motorisation par exemple, ou que l’usage de l’ascenseur est faible (immeuble d’appartements, par exemple).

Une étude réalisée en Suisse a montré que des économies substantielles pouvaient être réalisées en considérant que l’éclairage pouvait être coupé lorsque la cabine n’effectuait pas de course.

Voici les résultats :

Dans ce cas, on voit que la consommation totale d’électricité est réduite de 42 %.

Évaluer

Pour en savoir plus sur l’estimation des économies  d’énergie faites par la gestion de l’éclairage de la cabine d’ascenseur.

Les auxiliaires

On entend par auxiliaires, les équipements de cabine (moteur de porte, ventilation éventuelle, …) mais surtout les équipements de salle des machines (ventilateurs d’armoire de commande, de moteurs, de variateur de vitesse, …, et les consommations propres à la commande et à la régulation de l’installation).

Ces consommations sont difficilement maîtrisables et dépendent surtout du trafic.

Situer sa consommation par rapport au secteur

Situer sa consommation par rapport au secteur

On retrouve, ci-après, une série de valeurs de comparaison qui permettent au concepteur d’un nouveau bâtiment ou au gestionnaire d’un bâtiment existant d’évaluer globalement l’ampleur de sa consommation actuelle ou future et la qualité énergétique de ses installations.

Cette page a été mise à jour en octobre 2023. Si vous souhaitez aller plus loin dans l’analyse des consommations, nous vous conseillons de parcourir le rapport « Bilan énergétique de la Wallonie de l’année 2020 : Bilan du secteur domestique et équivalents » qui a été mis à jour en mars 2023. Les données portent principalement sur les bâtiments résidentiels.

 


Établir les ratios de consommation d’un bâtiment

Relever le coût total des consommations électriques : C € / an
Relever le total annuel des kWh consommés (voir facture) : Q kWh / an
Déterminer la surface de référence des locaux :
(il s’agit de la surface brute de plancher, mesurée par l’extérieur des murs, cages d’escaliers et couloir compris.
Si la surface nette du plancher est connue, on peut la majorer de 10 %. Les chaufferies et garages sont exclus du calcul).
S

Ratio financier : C / S [€ / m² x an]

Ratio de consommation : Q / S [kWh / m² x an]

Remarque.
Suivant le secteur d’activité, il peut être intéressant d’établir les ratios par unité représentative de l’activité : consommation par occupant, par élève, par lit, par repas, …

Calculs

Dans le cas d’un bâtiment neuf ou à construire, dont on ne dispose pas des factures électriques, il est possible de simuler la consommation.

Les ratios ainsi obtenus permettent par comparaison avec la moyenne du secteur de se faire une première idée de la qualité des nouvelles installations électriques prévues.


Comparer aux moyennes du secteur

Comparer les consommations de différents bâtiments et donner des valeurs moyennes de consommation se révèle très complexe. En effet, la consommation d’un bâtiment dépend de nombreux facteurs. Outre les qualités de son enveloppe (isolation, surface et qualité de vitrages, orientation, etc.), la consommation dépend fortement de l’usage du bâtiment (son affectation, ses horaires de fonctionnement, le taux de présence dans le bâtiment, l’équipement bureautique,…) ainsi que des systèmes techniques installés (chauffage, ventilation, climatisation, production d’eau chaude).

On trouve néanmoins dans la littérature, des valeurs moyennes ou des intervalles de consommation au m² pour différents types de bâtiments. Pour obtenir des consommations spécifiques (/m², /lit, /élève, …) et l’évolution de ces consommations sur les cinq dernières années, cliquez sur :

Remarques.

  • De quel type de consommation parle-t-on ? S’agit-il d’une demande thermique brute, d’une consommation tenant compte des rendements des équipements, d’une consommation d’énergie primaire ?
  • Quelles consommations particulières sont incluses dans la valeur ? La consommation des auxiliaires tels que pompes, ventilateurs, etc. est-elle comprise ? les équipements accessoires du bâtiment tel que ascenseurs sont-ils compris ?
  • Quelle est la surface de référence ? S’agit-il d’une surface brute hors tout, d’une surface nette, ou d’une surface occupée? Reprend-elle ou non les garages, les couloirs, les sanitaires,… ?


Comparer aux valeurs optimales en rénovation

On trouvera dans le tableau ci-dessous les valeurs de consommation optimales à atteindre après rénovation, établies en Suisse par la SIA (Société des Ingénieurs et Architectes).
Pour information, on trouvera également en parallèle dans ce tableau des valeurs de consommations de référence (valeurs atteintes actuellement par un tiers environ des bâtiments en Suisse, ces bâtiments existants ne présentant pas de grands défauts en matière énergétique).

On pourra en déduire :

  • le pourcentage d’économie possible,
  • l’économie financière possible,
  • le budget d’investissement disponible en fonction d’un temps de retour donné.
Exemple d’utilisation des données pour un hôtel :

Ratio actuel de l’hôtel 130 [kWh/m² an]
Ratio optimal « Eél » pour un hôtel 70 [kWh/m² an]
Économie 130 – 70 = 60 [kWh/m² an]
Coût moyen du kWh 0,5 [€/kWh] (attention : tarif 2023)
Économie financière 0,5 x 60 = 30 [€/m² an]
Surface de référence 10 000 [m²]
Temps de retour accepté par l’institution 7 [ans]
Valeur actualisée* des économies sur 7 ans
(taux d’actualisation de 8 %, taux d’évolution des prix de l’énergie de 3 %)
facteur 5,82
Budget d’investissement potentiel 30 x 10 000 x 5,82 =
1 746 000 [€]

Question

Ce budget permet-il de faire chuter la consommation du bâtiment jusqu’au seuil optimal de 70 kWh/m² an ?

*L’actualisation des coûts signifie que les économies faites dans 7 ans ont moins de valeur que celles d’aujourd’hui, suite à la dépréciation de l’argent… C’est ce qui fait que l’économie totale vaut 5,82 fois l’économie annuelle.

Consommation finale du secteur tertiaire

Source : Bilan énergétique de la Wallonie 2020 

En 2020, la consommation finale du secteur tertiaire atteint 13,0 TWh en baisse de 2,5% par rapport à l’année précédente, et en hausse de 52,6% par rapport à 1990.

Indices de dépense d’énergie électrique « Eél » recommandés par la SIA, Société suisse des Ingénieurs et Architectes – Bâtiments existants après amélioration

Affectation

Consommation
de référence
[kWh / m² x an]
Consommation
optimale
[kWh / m² x an]
Villas et maisons pour deux familles

  • production d’eau chaude par chaudière combinée,
  • production d’eau chaude par dispositif électrique séparé.
 

 

  • 33
  • 47*

 

 

 

  • 28
  • 42*

 

Immeubles à appartements

  • production d’eau chaude par chaudière combinée,
  • production d’eau chaude par dispositif électrique séparé.
  • 36
  • 50*
  • 33a
  • 47*
Foyers pour personnes âgées, pour enfants, pour jeunes
  • 41
  • 35
Hôtels
  • 83
  • 70
Bâtiments administratifs

  • à ventilation naturelle,
  • à ventilation mécanique dans de grandes parties du bâtiment,
  • à climatisation, (p. ex. banques, sans les centres d’informatique).
 

  • 35*
  • 69*
  • 97*
 

  • 28*
  • 63*a
  • 83*
Écoles

  • jardins d’enfants, écoles primaires, écoles secondaires,
  • écoles secondaires supérieures, écoles, professionnelles et professionnelles supérieures.
 

  • 14*
  • 42
 

  • 11*a
  • 35
Magasins simples (sans ventilation ni appareils frigorifiques)
  • 56*
  • 42*
Entrepôts, ateliers, salles de sports
  • 35*
  • 28*
Hautes écoles

Grands magasins (à climatisation et froid artisanal)

Établissements de soins

Hôpitaux (généraux)

  • 83
    a
  • 278
    a
  • 56
    a
  • 70
  • 70
    a
  • 222
    a
  • 49
    a
  • 63
Piscines couvertes

  • de dimensions moyennes et grandes,
  • de petites dimensions (SR inférieure à 3 000 m² environ).
 

  • 97
  • 125
 

  • 83
  • 110

* Dans ces exemples, les indices de dépense d’énergie comprennent la production d’eau chaude sanitaire électrique ; dans les autres exemples (sans * ), la production d’eau chaude se fait par chaudière combinée.
Source : SIA 380/1.  L’énergie dans le bâtiment.

Les indices de dépense d’énergie indiqués ci-dessus sont destinés à aider le maître de l’ouvrage, l’architecte et le concepteur des installations du bâtiment lors de l’élaboration d’un projet de rénovation.

Grâce à des méthodes actuellement connues et éprouvées, et moyennant des investissements raisonnables, ces valeurs qui se fondent sur de nombreuses études et expériences pratiques pourront être atteintes à condition de prendre des dispositions appropriées lors de l’étude du projet et de sa réalisation. Ces dispositions ne portent d’ailleurs pas atteinte au confort dont les utilisateurs ont l’habitude.

Des écarts plus importants par rapport à ces valeurs de comparaison peuvent apparaître, notamment lorsqu’un ouvrage abrite des équipements techniques particuliers (par exemple un nombre d’équipements en informatique supérieur à la moyenne, un éclairage particulier ou des machines frigorifiques spéciales) ou lorsque la durée d’occupation d’un immeuble est supérieure ou inférieure à la moyenne admise, ou encore lorsque la demande d’eau chaude diffère de celle prise en compte dans les conditions normales d’utilisation. Celles-ci sont résumées dans le tableau ci-dessous.

Conditions normales d’utilisation (ayant servi de base à l’élaboration des valeurs optimales)

Type d’utilisation : Villa Immeuble à appartem. Foyer Bâtiment administr. École Industrie en général
Température moyenne de l’air ambiant ti [°C] 20 20 22 20 20 18
Renouvellement de l’air extérieur (ventilation naturelle) n [h-1] 0,4 0,6 0,6 0,8 0,6 0,6
Demande d’énergie nécessaire à la production d’eau chaude [MJ/Pers.an] 3 000 3 000 3 000 500 500 500
Occupation par des personnes [m²/Pers.] 50 30 30 20 20 20
Temps d’utilisation [h/jour] 12 12 16 12 8 12

Comparer aux valeurs optimales en construction nouvelle

On trouvera dans le tableau ci-dessous les valeurs de consommation accessibles (valeurs cibles) pour un nouveau bâtiment, établies en Suisse par la SIA (Société des Ingénieurs et Architectes).

Indices de dépense d’énergie électrique « Eél » recommandés par la SIA, Société suisse des Ingénieurs et Architectes – Bâtiments à construire

Affectation

Consommation cible
[kWh / m² x an]
Villas et maisons pour deux familles

  • production d’eau chaude par chaudière combinée,
  • production d’eau chaude par dispositif électrique séparé.
  • 22
  • 36*
Immeubles à appartements

  • production d’eau chaude par chaudière combinée,
  • production d’eau chaude par dispositif électrique séparé.
 

  • 28
  • 32*
Foyers pour personnes âgées, pour enfants, pour jeunes
  • 28
Hôtels
  • 56
Bâtiments administratifs

  • à ventilation naturelle,
  • à ventilation mécanique dans de grandes parties du bâtiment,
  • à climatisation, (p. ex. banques, sans les centres d’informatique).
  • 22*
  • 49*
  • 70*
Écoles

  • jardins d’enfants, écoles primaires, écoles secondaires,
  • écoles secondaires supérieures, écoles professionnelles et professionnelles supérieures.
  • 8*
  • 28
Magasins simples (sans ventilation ni appareils frigorifiques)
  • 28*
Entrepôts, ateliers, salles de sports
  • 22*

Hautes écoles

Grands magasins (à climatisation et froid artisanal)

Établissements de soins

Hôpitaux (généraux)

  • 56
  • 167
  • 42
  • 52
Piscines couvertes

    • de dimensions moyennes et grandes,
    • de petites dimensions  : SR (
  • surface de référence) inférieure à 3 000 m² environ.
  • 70
  • 100

* Dans ces exemples, les indices de dépense d’énergie comprennent la production d’eau chaude sanitaire électrique; dans les autres exemples (sans *), la production d’eau chaude se fait par chaudière combinée.
Source : SIA 380/1. L’énergie dans le bâtiment.

Les indices de dépense d’énergie indiqués ci-dessus sont destinés à aider le maître de l’ouvrage, l’architecte et le concepteur des installations du bâtiment lors de l’élaboration d’un projet.

Grâce à des méthodes actuellement connues et éprouvées, et moyennant des investissements raisonnables, ces valeurs qui se fondent sur de nombreuses études et expériences pratiques pourront être atteintes à condition de prendre des dispositions appropriées lors de l’étude du projet et de sa réalisation. Ces dispositions ne portent d’ailleurs pas atteinte au confort dont les utilisateurs ont l’habitude.

Des écarts plus importants par rapport à ces valeurs de comparaison peuvent apparaître, notamment lorsqu’un ouvrage abrite des équipements techniques particuliers (par exemple un nombre d’équipements en informatique supérieur à la moyenne, un éclairage particulier ou des machines frigorifiques spéciales) ou lorsque la durée d’occupation d’un immeuble est supérieure ou inférieure à la moyenne admise, ou encore lorsque la demande d’eau chaude diffère de celle prise en compte dans les conditions normales d’utilisation. Celles-ci sont résumées dans le tableau ci-dessous.

Conditions normales d’utilisation (ayant servi de base à l’élaboration des valeurs optimales).

Type d’utilisation :

Villa Immeuble à appartem. Foyer Bâtiment administr. École Industrie en général
Température moyenne de l’air ambiant ti [°C] 20 20 22 20 20 18
Renouvellement de l’air extérieur (ventilation naturelle) n [h-1] 0,4 0,6 0,6 0,8 0,6 0,6
Demande d’énergie nécessaire à la production d’eau chaude [MJ/pers an] 3 000 3 000 3 000 500 500 500
Occupation par des personnes [m²/pers.] 50 30 30 20 20 20
Temps d’utilisation [h/jour] 12 12 16 12 8 12

 

Découvrez cet exemple de suivi des consommations énergétiques au CH Psychiatrique du « Chêne aux Haies ».

Evaluer la qualité des parois [éclairage]

Evaluer la qualité des parois [éclairage]

La lumière est en partie absorbée par les parois du local. Pour atteindre un niveau d’éclairement donné, il faut une puissance installée plus importante si les murs sont de couleur foncée.

Il faut donc examiner la teinte des murs et leur état de propreté.

Exemple.

Niveaux d’éclairement atteints dans un local de 5 x 6 x 3 m, équipé de 6 luminaires directs comprenant chacun un tube fluorescent de 58 W (rendement lumineux du luminaire = 68 %, angle de défilement = 60°). 

Couleur des parois Éclairement moyen
en lux
Puissance spécifique (avec ballast électronique) en W/m²/100 lux
Murs Plafond
Papier peint très clair

ρ = 0,70

Plafonnage
propre
ρ = 0,70
608 1,99
Papier peint très clair

ρ = 0,70

Plafonnage
usagé
ρ = 0,40
587 2,07
Papier peint foncé

ρ = 0,20

Plafonnage propre

ρ = 0,70

500 2,42

Dans les chambres, on rencontre principalement de l’éclairage indirect, dirigé vers le plafond. Dans ce cas, la couleur de ce dernier aura une importance primordiale. Il doit absolument être de couleur claire et mate, cette dernière caractéristique pour éviter les taches lumineuses trop éblouissantes.

Concevoir 

Rénover le recouvrement des parois.
Eté 2008 : Brieuc.
22-08-2008 : 1er passage de mise en page [liens internes, tdm, en bref !, rapide passage général sur la mise en page de la feuille] – Sylvie
07-10-2008 : WinMerge ok – Sylvie
30-03-2009 : Application des nouveaux styles de mise en page. Julien.

Délesteurs de charges électriques

Délesteurs de charges électriques


Principe du délesteur

Le délesteur de charge est un automate programmable qui maintient la pointe quart-horaire en-dessous du seuil fixé à l’avance.

Si la puissance appelée dépasse le seuil fixé, il y a délestage des équipements qui sont raccordés au délesteur durant des périodes courtes.

Cette mise à l’arrêt ou au ralenti n’est effectuée que lorsque la puissance totale prélevée, intégrée sur la période de mesure, risque de dépasser le seuil limite de puissance fixé.

Les équipements sont délestés selon un ordre de priorité qui a été établi préalablement et mémorisé par l’automate. Par exemple, des niveaux de priorités seront donnés afin que l’appareil dont la coupure risque le plus d’être ressentie soit interrompu en dernier lieu.

Quand la demande faiblit et que se reconstitue une réserve de puissance disponible, il y a « relestage ».

Pour garantir l’impact du délesteur sur la facture électrique, il est évident que sont fonctionnement doit pouvoir être synchronisé au compteur réseau.

Le délesteur peut avoir beaucoup d’autres fonctions :

  • On peut lui imposer des temps minimums de fonctionnement d’un équipement, des temps maximums d’attente, des temps minimums d’arrêt.
  • Il peut tenir compte de plages où certains appareils ne peuvent être délestés.
  • L’automate peut avoir une fonction « horloge » qui coupe des équipements à horaire fixe. Cette fonction est couramment utilisée avec le chauffe-eau à accumulation chauffant l’eau durant 8 heures au tarif de nuit. Elle peut également être utilisée  pour des matériels de cuisson et le chauffage.
  • Une dérogation à la programmation peut être commandée par le gestionnaire en fonction de besoins ponctuels. Celle-ci doit être annulée automatiquement au début du cycle suivant afin de lui conserver son caractère exceptionnel.
  • Certains appareils « dialoguent » avec les équipements qui y sont raccordés de manière à connaître leur état et à agir en conséquence.
  • Le délestage d’un matériel peut être total ou partiel (à condition que ce délestage partiel soit prévu par le constructeur).

L’automate programmable sera appelé délesteur de charge ou optimiseur selon son degré de sophistication (selon le nombre de fonctions qu’il intègre, selon la richesse des paramètres dont peut tenir compte l’appareil pour choisir les appareils à délester, …).

Les délesteurs se distinguent entre-eux par :

  • le nombre total d’entrées impulsionnelles,
  • le nombre total de sorties de délestage,
  • l’algorithme de gestion de la puissance,
  • la possibilité de créer des points de mesure fictifs,
  • la capacité de stockage d’informations,
  • la programmation de la période d’intégration,
  • le nombre de périodes tarifaires qui peuvent être créées,
  • les capacités des logiciels de gestion (sur l’appareil même et sur le PC de gestion),
  • les modes de communication avec le PC de gestion,


Raccordement

Dans les installations électriques traditionnelles, l’installation d’un délesteur de charge demande de tirer un câble entre le module du délesteur et chaque appareil raccordé. Pour certains appareils, le délesteur peut agir sur plusieurs parties. Dans ce cas, il faudra tirer autant de câbles.

Au niveau des équipements, des connexions sont parfois prévues par les fabricants. Si elles ne le sont pas il est toujours possible de la réaliser a posteriori.

Le raccordement est évidemment nettement plus simple si on conçoit une installation gérée par bus de terrain. Dans ce cas, il est rapide et facile de modifier les équipements délestables (par réadressage) en fonction des résultats acquis durant l’exploitation.

Principe de raccordement du délesteur dans une installation électrique traditionnelle.


Gestion du délestage

Algorithme de délestage

graphe algorithme de délestage.

Avec

i =

période d’échantillonage (multiple de 1 minute)

td

 

=

temps mort exprimé (en multiple de 1 minute)

Ei

 

=

énergie consommée après la période i [kWh]

Pmax

 

puissance maximale admissible, fonction de la période tarifaire [kW]

=

Emax / (15′) [kWh]

=

Emax x 4 [kW]

Emax

 

=

demande d’énergie maximale en 15′.

Ein

 

=

énergie limite d’enclenchement (0… 99 % de Emax)

Eout

 

=

énergie limite de déclenchement (0…99 % de Emax)

Une valeur maximale de pointe (Pmax) est fixée et indiquée au délesteur.
Les appareils raccordés au délesteur demandent de la puissance. Au début de chaque impulsion de changement de quart-d’heure d’Electrabel, le délesteur ne réagit pas. Il « observe » comment la demande de puissance évolue. Après un certain temps fixé (td), le délesteur va agir : si la puissance demandée est telle qu’après 1/4 d’heure, elle risque de dépasser la valeur maximale de pointe (Pmax), il coupe des charges.

Pour avoir déclenchement d’un circuit, il faut que les 3 conditions ci-dessous soient remplies après chaque intervalle de temps « i » :

  • des circuits sont enclenchés,
  • E> (Emax – Eout) x (i / 15′) + Eout (c’est-à-dire que l’énergie totale demandée après l’intervalle i ne peut dépasser la droite Eout .. Emax),
  • i > td (c’est-à-dire que le délesteur ne réagit pas dans un premier temps).

Pour avoir enclenchement d’un circuit, il faut que les 3 conditions ci-dessous soient remplies après chaque intervalle de temps « i » :

  • des circuits sont déclenchés,
  • E< Emax x (i / 15′) – (Emax – Ein) (c’est-à-dire que l’énergie totale demandée à l’intervalle i ne peut descendre sous la droite E0 (= 0) .. Ein),
  • i > td.. (c’est-à-dire que le délesteur ne réagit pas dans un premier temps).

Une valeur Eout est fixée > 0 de manière à permettre l’augmentation rapide d’énergie en début de 1/4 d’heure. En effet une grosse puissance en début de 1/4 d’heure peut être appelée sans conséquence néfaste sur la pointe quart-horaire si celle-ci est compensée par une puissance appelée beaucoup plus faible dans la suite du quart-d’heure.
L’écart entre les deux droites Eout .. Emax et E0 .. Ein permet de ne pas avoir une succession trop rapide d’enclenchement/déclenchement. Cet écart est plus faible en fin de 1/4 d’heure (c’est-à-dire qu’on accepte mieux les oscillations) pour pouvoir profiter de la pointe quart-horaire maximale.

L’algorithme va donc gérer l’énergie consommée en 15 minutes de manière à ce que, si elle est importante, elle augmente en oscillant entre deux droites fixées « menant » à l’énergie maximale autorisée en fin de quart-d’heure.
L’énergie peut légèrement dépasser ces limites à cause de la période d’échantillonage « i « qui est multiple de la minute.

Le quart d’heure suivant l’énergie est comptabilisé en repartant de 0 kWh (= E0).

Séquence de déclenchement/enclenchement

Voici un exemple de séquence de déclenchement de 5 équipements dont les 2 derniers ne peuvent être coupés qu’en cas limite. La priorité de déclenchement des 3 premiers équipements s’y passe de façon cyclique :

  • 1 ère période : ordre de déclenchement 1 – 2 – 3 – 4 – 5
  • 2 ème période : ordre de déclenchement 2 – 3 – 1 – 4 – 5
  • 3 ème période : ordre de déclenchement 3 – 1 – 2 – 4 – 5
  • 4 ème période : ordre de déclenchement 1 – 2 – 3 – 4 – 5

Pour respecter l’ordre des priorités, le dernier équipement déclenché est le premier à être réenclenché. Les équipements 4 et 5 sont des appareils détestables en derniers recours.

Notons que certains automates prévoient les besoins à venir en fonction de l’historique et anticipe les réactions des matériels afin d’obtenir une réponse optimale pour l’ensemble des usages contrôlés, tout en limitant la puissance globale appelée ou le coût de l’énergie consommée. Cette fonction est dite « intelligente », car elle est liée à une mémoire continuellement remise à jour qui induit une réponse adaptée à la sollicitation présente, mais aussi à celle qui lui succède.
Le choix de répartition de l’énergie est donc effectué dans l’instant et non pas de façon pré-établie.

Autoadaptation de la consigne

L’algorithme d’évaluation de la pointe quart-horaire sera auto-adaptatif en fonction des paramètres de mesure, de manière à délester le maximum de puissance sans nuire au confort et en respectant les impositions du distributeur.

Par ailleurs, si malgré l’action du délesteur le seuil critique fixé en début de mois est dépassé, cette pointe atteinte est automatiquement choisie comme nouveau seuil pour le restant du mois.

Exemple :
En début de mois, le délesteur est réglé pour une pointe maximale de 250 kW. Le 9e jour, la pointe atteint 275 kW à 11h30. Cette valeur sera conservée comme nouvelle consigne puisque de toutes façon, ces 275 kW seront facturés en fin de mois !

Suivi du fonctionnement du délesteur

Lorsqu’un système de gestion de la puissance est mis en place, le suivi des résultats est impératif :

  • actions du délesteur et historique des équipements déclenchés,
  • suivi de la puissance prélevée au réseau, …

Ce suivi permettra de s’assurer du bon fonctionnement de l’installation d’une part et, d’autre part, d’en optimiser les paramètres, rendant ainsi son utilisation plus rentable encore ou moins gênante pour certains équipements.

Le suivi peut se faire au sein du délesteur même qui possède une mémoire interne et la possibilité de dresser des historiques ou au travers d’un PC au moyen d’un logiciel de suivi (communication par modem possible).

Exemple de possibilités d’un logiciel de suivi, via les enregistreurs du délesteur (ces données peuvent être accessible sous différentes formes selon le logiciel) :

  • diagrammes de charge (sur une journée, sur un mois, etc.),
  • simulation de la facture pour différents tarifs,
  • rapport entre les consommations des heures pleines et creuses,
  • consommation, consommation réactive,
  • les économies réalisées grâce au délesteur de charge.

Exemple de résultat fourni par le logiciel de suivi d’un délesteur.


Cas particulier des cuisines

Certains systèmes d’automates sont des optimiseurs plus spécifiques pour cuisine collective.

Ce type de délesteur est composé d’une unité centrale (qui concentre toutes les fonctions de calcul et de stockage des données) et de différents modules de commandes (nécessaires au dialogue et au pilotage des différents consommateurs).

 

Unité centrale et modules des commandes (pour 2 fours et 2 friteuses).

Chaque module peut être connecté 2 fois, soit à 2 appareils différents (ex : un four statique et une marmite), soit un seul appareil avec deux résistances à commander (ex : une connexion vers la résistance de chauffage de l’eau de lavage d’un lave-vaisselle et l’autre vers la résistance de l’air de séchage).

Un « dialogue » permanent est maintenu entre l’unité centrale et les appareils qui y sont raccordés.
L’unité centrale questionne, au rythme de la seconde, chaque appareil raccordé, sur son état de fonctionnement :

  • arrêt / marche ?,
  • demande du thermostat (enclenchement / déclenchement) ?,
  • phase de préchauffage ou de cuisson ?,
  • comptabilise chaque seconde d’utilisation.

Évidemment, l’appareil doit obligatoirement être branché sur la prise qui contient le câble destiné à gérer sa consommation énergétique. Le concept de cuisine mobile contraint donc à marquer chaque prise femelle pour reconnaître, sans se tromper, la fiche mâle qui lui correspond.

Gestion complète d’une cuisine avec écran de supervision.

Le délestage se fait toujours au moment où le thermostat commande une remise en route de la résistance. Le délesteur demande à la résistance de postposer son action de quelques secondes. Ce délestage ne se fait jamais en période de montée en température.

Évolution de la température dans un appareil de cuisson avec ou sans délestage : le délesteur ne peut jamais couper l’appareil avant qu’il n’atteigne la température de coupure de la résistance, faute de quoi, la température moyenne chuterait trop fort.

Pour connaître le temps de montée en température, le délesteur mesure le temps entre la mise en route d’un appareil et le premier arrêt commandé par le thermostat.

L’automate, à partir de l’information des divers thermostats, procède ainsi à une analyse et à une répartition des charges en fonction des besoins de chaque matériel et des priorités enregistrées dans sa mémoire.

Il existe des modules particuliers qui sont utilisés pour raccorder les machines frigorifiques, par exemple.
Avec ces modules, il n’y a pas de « dialogue » entre l’appareil et le délesteur. Ce dernier décide du délestage sans tenir compte de l’état de la machine frigorifique.

Le délesteur a aussi une « fonction horloge ». Pour chaque équipement, on peut fixer certaines plages horaires où le fonctionnement est interdit. Dans les plages « autorisées », le matériel ne fonctionne que si la régulation (thermostat, pressostat) le demande. En déplaçant les périodes de fonctionnement de certains équipements, l’automate diminue la puissance instantanée appelée sans perturber leur fonctionnement.

De même, on peut imposer des plages où certains appareils ne peuvent être délestés.

L’unité centrale est synchronisée sur le compteur réseau.

Si le respect des critères de réglage est impossible, le système émet un signal d’avertissement (message d’alarme).

Le délesteur permet également de raccorder des sondes de température qui mesurent la température de manière continue.

Il peut également être utilisé avec un système qui permet la traçabilité de toutes les températures (permet de prouver le respect de l’HACCP). Ces systèmes bien que présents sur le marché belge ne sont quasi pas utilisés.

Remarquons que ce type de délesteur ne se limite pas à optimiser les puissances des appareils de cuisson même si c’est sa spécialité. Il peut également gérer les systèmes de chauffage, de climatisation, de réfrigération, etc.

Concevoir le raccord entre versant isolé et pignon

Concevoir le raccord entre le versant isolé et le pignon - Quelques exemples


Isolation entre chevrons

Schéma Isolation entre chevrons- 01.

Rive non débordante – étanchéité par tuile de rive.

    1. Isolation
    2. Chevron ou fermette
    3. Isolation ou bloc isolant
    4. Mortier de scellement
    5. Sous-toiture
    6. Contre-latte
    7. Latte
    8. Rejet d’eau
    9. Tuile de rive
    10. Isolant entre chevrons
    11. Pare-vapeur
    12. Finition intérieure

Schéma Isolation entre chevrons- 02.

Rive en surplomb – étanchéité par tuile de rive.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile de rive
      8. Isolant entre chevrons
      9. Pare-vapeur
      10. Finition intérieure

> Continuité de l’étanchéité à la pluie (= fonction de la couverture)

La couverture a pour objectif d’arrêter l’eau et de l’évacuer vers la gouttière. Les mesures ci-dessous indiquent comment assurer cette étanchéité au niveau du raccord mur pignon – toiture :

1. Étanchéité assurée par des tuiles de rive

Les tuiles de rive sont posées sur les liteaux de façon à déborder d’environ 2 cm de la face extérieure du pignon ou à affleurer la face extérieure de la planche de rive du débordant. Une rive non débordante peut parfois être munie d’une planche de rive par choix esthétique. Si nécessaire, les débordants de toiture permettent en choisissant leur porte-à-faux, d’adapter la largeur d’un versant étroit au module horizontal des tuiles.

2. Étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet

Schéma étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet.

Rive non débordante – étanchéité par tuiles à double bourrelet.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Mortier hydrofugé
      5. Sous-toiture
      6. Contre-latte
      7. Latte
      8. Tuile de rive
      9. Assise de maçonnerie en saillie
      10. Isolant entre chevrons
      11. Pare-vapeur
      12. Finition intérieure

La finition entre le haut du pignon et la couverture peut être réalisée d’un côté par des tuiles ordinaires de l’autre par des tuiles à double bourrelet.

La tuile ordinaire ou à double bourrelet est scellée au mur avec un mortier hydrofugé et repose ou non sur une assise de maçonnerie en saillie.

Un débordement de la tuile de 20 mm au moins doit être prévu pour éviter l’écoulement des eaux sur le parement extérieur.

Schéma étanchéité assurée par tuiles ordinaires et tuiles à double bourrelet.

Rive en surplomb – étanchéité par tuiles à double bourrelet et chéneau d’évacuation.

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile de rive
      8. Chéneau encastré avec pattes de fixation
      9. Agrafure et patte de fixation
      10. Pare-vapeur
      11. Finition intérieure

Un petit chéneau est fixé au-dessus de la sous-toiture. L’eau qui y est recueillie est acheminée vers la gouttière. La largeur du chéneau est fonction de celle du recouvrement de la tuile, de la longueur du versant et de son inclinaison. Cette solution est déconseillée dans un environnement poussiéreux (sable à la côte) ou arboré car elle présente un risque d’obstruction.

3. Étanchéité assurée par planche de rive et bavette métallique

Schéma étanchéité assurée par planche de rive et bavette métallique.

Rive revêtue d’une bavette en plomb .

      1. Isolation
      2. Chevron ou fermette
      3. Isolation ou bloc isolant
      4. Sous-toiture
      5. Contre-latte
      6. Latte
      7. Tuile
      8. Bavette en plomb
      9. Pare-vapeur
      10. Finition intérieure

Une bande métallique recouvre la planche de rive et une partie de la rangée de tuiles attenante. La malléabilité du plomb facilite la liaison entre les éléments. L’étanchéité à la pluie des rives réalisée de cette façon ne nécessite pas de tuiles spéciales; la dernière rangée de tuile doit éventuellement être meulée pour s’ajuster à la planche de rive.

Lorsque la rive est achevée par une tuile entière, la bavette en plomb doit se prolonger jusqu’à l’emboîtement; dans le cas de tuiles meulées, elle doit recouvrir toute la tuile.
Ce type de raccord entre pignon et couverture est nécessaire lorsque le pignon n’est pas parallèle à la ligne de pente.

     

Bavette rigide sur tuile entière.        Bavette rigide sur tuile meulée.

4. Généralités (tous types d’étanchéité)

Pour assurer l’étanchéité en tout temps et vu la pression du vent particulièrement importante sur les bords de la toiture, il est conseillé de fixer mécaniquement les tuiles couvrant ces bords.

Continuité de la sous-toiture

La sous-toiture est prolongée jusqu’au mur de parement ou jusqu’à la planche de rive.

Continuité de l’isolation

La couche isolante doit être continue pour éviter les ponts thermiques.

La continuité de l’isolation exige une bonne coordination entre les corps de métier. En effet, dans le cas d’une isolation entre chevrons, l’isolant de toiture est posé après la sous-toiture et la couverture. Or, la jonction de l’isolant entre le mur et la toiture ne peut être correctement réalisée que si elle est réalisée avant la pose de la sous-toiture (par l’extérieur); en effet, celle-ci condamne l’accès à cette zone.

Continuité du pare-vapeur et raccord de la finition intérieure de toiture avec celle des murs

Le pare-vapeur doit être correctement raccordé contre la face intérieure du pignon. La finition fixée sous le pare-vapeur est raccordée de manière étanche avec la finition intérieure du pignon de façon à supprimer tout risque de courant d’air à travers la toiture (voir détails ci-dessus).


Toiture « Sarking » – Étanchéité à la pluie réalisée par tuiles de rive

Schéma toiture "Sarking" - étanchéité à la pluie réalisée par tuiles de rive.

Rive à fleur de mur.

  1. Mur intérieur porteur
  2. Isolation du mur extérieur
  3. Chevron ou fermette
  4. Sous-toiture
  5. Panneau isolant
  6. Contre-latte
  7. Latte
  8. Tuile
  9. Pare-vapeur
  10. Finition intérieure

Schéma toiture "Sarking" - étanchéité à la pluie réalisée par tuiles de rive.

Rive en surplomb.

  1. Mur plein
  2. Isolation du mur extérieur
  3. Parement extérieur
  4. Chevron ou fermette
  5. Panneau isolant
  6. Sous-toiture
  7. Contre-latte
  8. Latte
  9. Tuile
  10. Planche de rive
  11. Ardoises
  12. Plafond de rive
  13. Latte de support de finition intérieure
  14. Pare-vapeur
  15. Finition intérieure

Continuité de l’étanchéité à la pluie (= fonction de la couverture)

L’étanchéité à la pluie des rives des toitures « Sarking » est réalisée de la même manière que celle des toiture isolées entre chevrons.

Continuité de la sous-toiture, de l’isolant, de l’écran étanche à la vapeur et à l’air

En général, les panneaux isolants de la toiture « Sarking » assument à eux seuls 3 fonctions de la toiture, à savoir, celle de la sous-toiture, celle de l’isolant et celle de l’écran étanche à l’air et à la vapeur. Ainsi, pour autant que les panneaux soient posés correctement, la continuité à ces 3 niveaux est assurée.
Cependant, dans le cas d’une rive en surplomb, l’isolant de toiture doit être prolongé au-delà de la jonction avec l’isolant du mur de manière à assurer la continuité de la fonction de la sous-toiture sur la largeur du surplomb.

legionnelle - eau chaude sanitaire

Légionellose

legionnelle - eau chaude sanitaire

La « legionella pneumophila » : sa vie, sa mort

Il s’agit d’une bactérie. Sa transmission se réalise par inhalation d’aérosols (gouttelettes de 1 à 5 microns) et contamination des poumons. On pourra donc être contaminé en prenant une douche mais pas en buvant un verre d’eau, puisque la bactérie ne survit pas dans l’estomac !

Les pathologies

Dans moins de 5 % des cas, elle provoque une pneumonie avec un taux de mortalité de 10 à 20 %, mais dans 90 % des cas, on parlera d’une grippe, ce qui est plus bénin.

En Belgique, en 1999, 195 cas ont été rapportés, dont 2 cas majeurs : 5 morts parmi plus de 100 personnes hospitalisées après une visite à la foire de Kapellen (contamination par les émanations d’un bain à bulles) et 1 mort parmi les 7 personnes contaminées par le réseau d’eau chaude sanitaire d’un hôtel en Ardennes.

Croissance et température

Au départ, il y a une bactérie par m³ qui entre dans le bâtiment par le réseau d’eau de ville.

La croissance de la bactérie est nulle sous 20°C (état latent). La croissance a lieu entre 25 et 45°C, avec un optimum entre 32 et 42°C : à cette température, leur nombre double toutes les 3 à 4 heures ! On considère que pour de l’eau maintenue entre 25 et 45°C, la contamination est sans risque durant les 2 premiers jours, de risque faible entre 2 jours et une semaine, de risque élevé au delà d’une semaine.

On notera que l’on ne détecte pas de légionelles pour T°eau >= 58°C en permanence (Journal of Hospital Infection, Vol. 37, Issue 1, p 7-17).

L’unité de mesure est le CFU/l = le nombre d’unités formant colonies par litre d’eau (de l’anglais Colony Forming Units par litre).

Destruction

Théoriquement à 50°C, 90 % des bactéries présentes meurent dans les 2 à 6 heures. A 60°C, 90 % des bactéries présentent meurent dans les 5 minutes. A 80°C, 90 % des bactéries meurent dans les 30 secondes. Du moins, dans les conditions de laboratoire (= en suspension dans l’eau).

Mais en réalité, elles peuvent exceptionnellement résister jusqu’à 80°C. En effet, elles créent des colonies dans les amibes, plus résistantes à la chaleur. Et les installations d’eau chaude sanitaire sont tapissées d’un dépôt visqueux, le biofilm, composé de micro-organismes, dont les amibes… Au sens strict, un choc thermique n’est donc totalement efficace qu’à partir de 80°C.

Les désinfectants quant à eux ne sont jamais efficaces à 100 %.

Enfin, le temps de réinfection d’un système sain est inconnu. Les mesures de prévention sont donc cruciales.


Légionelle et équipements techniques

Les équipements responsables

Sont considérés comme des équipements à risque : les installations d’eau chaude sanitaire (via les douches), les tours de refroidissement des installations de climatisation (via la pulvérisation de microgoutelettes d’eau), les bains à remous et jacuzzis, …

Toutes les zones où l’eau à tendance à stagner sont critiques : zone inférieure des grands ballons de préparation (surtout si pas d’isolation du fond), bras morts des installations de distribution, …

Les systèmes d’humidification du conditionnement d’air (« bacs laveurs« ) ne sont par contre pas concernés car leur température est trop basse (10 à 15°C).

Si les chauffe-eau électriques domestiques sont parfois contaminés, ce sont les grandes installations qui sont généralement les plus sensibles (étude CSTC : 40 % des grandes installations, de type immeubles à appartements, piscines, homes, hôpitaux,…). Le problème est beaucoup moins fréquent en domestique (une étude hollandaise a montré que 6 % des installations étaient contaminées)…

Les réservoirs à basse température

Certains systèmes sont particulièrement concernés : pompe à chaleur et chauffe-eau solaire puisque la performance de ces systèmes sous-entend de travailler à basse température.

Il faut sans doute privilégier les installations avec doubles réservoirs en série, le premier assurant un préchauffage de l’eau, le deuxième assurant la montée à la température de 65°C minimum. Mais il faut que l’eau reste dans ce deuxième ballon un temps suffisant. Il ne faudrait pas qu’en période de soutirage de pointe, le post-chauffage de l’eau soit trop bref et que de l’eau contaminée soit envoyée dans le réseau.

Question (à laquelle nous n’avons pas de réponse) : que se passe-t-il si l’eau préchauffée est envoyée dans un préparateur instantané ? Le temps de chauffage dans le préparateur est-il suffisant pour tuer les légionelles ? … Il faut probablement post-chauffer à une température de 70°C ou 80°C pour éviter tout risque. Ou alors contrôler très régulièrement la teneur en légionelle du ballon de préchauffage.

L’influence de la corrosion des tuyauteries

La bactérie croît en présence de nutriments : fer, calcium, carbone (AOC), manganèse, magnésium, …

Elle se loge tout particulièrement dans certains « habitats » :

  • dépôts de boues, de calcaire, de produits de corrosion,
  • biofilm (micro-organismes) sur la face interne des réservoirs et tuyauteries,
  • eau stagnante.

On en déduit qu’un réseau de tuyauterie d’acier rouillé devient une installation « à risque » (la sortie « d’eau brune » au robinet après un arrêt de l’installation est un signe de corrosion de l’acier galvanisé).


Les recommandations du CSTC pour l’eau chaude sanitaire

Les principes à poursuivre sont les suivants :

  • Eviter la stagnation (bras morts des réseaux).
  • Garder en continu les systèmes à une T° > 55°C.
  • Eliminer les zones tièdes dans les ballons de stockage.

Voici les recommandations du CSTC :

  • L’eau chaude doit être produite à une température de 60°C; on évitera qu’elle reste durablement dans le chauffe-eau à une température moindre.
  • L’eau doit être maintenue à 55°C au moins en tout point du réseau principal.
  • Dans un système de distribution avec recirculation, la température de retour ne peut jamais être inférieure à 55°C. Par ailleurs, la chute de température entre le point de départ et le point de retour à l’appareil de production d’eau chaude ne peut dépasser les 5°C : si l’eau quitte l’appareil de production à 60°C, la température de retour devra être de 55°C au moins.
  • Il est interdit de laisser stagner de l’eau chaude ou de l’eau froide : les bras morts (y compris les vases d’expansion sanitaires, par exemple) ou peu utilisés sont donc à éviter.
  • Les installations doivent être entretenues régulièrement; à cet effet, les appareils de production d’eau chaude seront dotés des ouvertures nécessaires.
  • Les branchements « morts » sur le réseau de distribution ne pourront dépasser 15 m et avoir un volume d’eau supérieur à 3 litres((Lutte contre le développement des légionelles dans les installations sanitaires neuves – Meilleurs techniques disponibles – décembre 2021 » du CSTS/Buildwise  (voir P15) )).
  • Le fond des ballons doit être correctement isolé. Si nécessaire, un dispositif de recyclage interne du ballon doit être organisé (réinjection dans le bas du ballon de l’eau chaude extraite en partie supérieure). À défaut, une purge régulière de l’eau stagnante du fond peut être organisée.

Une remontée périodique de la température ?

Pour limiter la consommation énergétique tout en évitant la contamination, il pourrait être question d’appliquer des augmentations temporaires et périodiques de la température. Certains fabricants de matériels de régulation proposent par exemple des régulateurs dont la fonction anti-légionelle prévoit une montée en température à 70° ou 80°C une fois par semaine.

Peut-on pour autant abaisser la température de production ?

Les dernières études du CSTC((B. Bleys, O. Gerin, K. Dinne,THE RISK OF LEGIONELLA DEVELOPMENT IN SANITARY INSTALLATIONS, Rehva 2018 Conference)) sur le sujet montrent que :
– partant d’une température de production de 45°C, une remontée hebdomadaire d’une heure à 60°C ne permet pas de maintenir le développement des bactéries sous 1.000 kve/l.
– partant d’une température de production de 45°C, une remontée hebdomadaire d’une heure à 65°C n’a donné des résultats positifs que moyennant un rinçage simultané d’une demi-heure de tous les points de puisage du circuit pendant la remontée. Ce rinçage est très gourmand en eau et en énergie, et requiert potentiellement une puissance de chauffe supérieure aux capacités de l’installation.

Ces résultats ont été obtenus sur une installation de production d’eau chaude sanitaire réelle mais en conditions favorables (dimensionnement adéquat, absence de bras morts, usage régulier de tous les points de puisage,…). Il est raisonnable de croire qu’ils sont plus favorables que ce qui peut être observé dans des installations anciennes ou moins bien conçues.

Les études continuent pour déterminer les températures minimales adéquates pour garantir l’efficacité de ces remontées périodiques de température dans des scénarios d’abaissemetn des temépratures de production. En attendant, la prudence demande de respecter une température de production suffisamment élevées (départ > 60°C, retour > 55°C).


Traitements de désinfection

La désinfection thermique de choc (« heat and flush »)

Il s’agit d’un rinçage de chaque point d’eau avec de l’eau à une température de 60°C durant 30 minutes ou 70°C durant 4 minutes. C’est une technique relativement simple si l’eau peut être chauffée à température et si les pertes de chaleur dans les conduits restent limitées. Cela nécessite du personnel qualifié et demeure difficile à mettre en œuvre dans les homes et hôpitaux à cause du fonctionnement 24h/24 (risque de brûlure). Il n’est pas toujours techniquement possible d’y arriver : si tous les robinets sont ouverts, le débit risque d’être trop grand et la production ne pourra plus suivre. également, il y a lieu de vérifier au préalable si cela ne va pas entraîner de dégâts à l’évacuation (résistance limitée à la chaleur des tuyauteries d’évacuation …). Il reste à vérifier l’inexistence de bras morts dans le réseau.

Cette technique peut être automatisée dans certains types de bâtiment (piscines, complexes sportifs, douches au travail, …) : chaque soir le réseau est porté automatiquement à haute température, avec un rinçage par ouverture de robinets commandés à distance.

  1. Régulateur.
  2. Compteur.
  3. Soupape de sécurité.
  4. Clapet anti-retour.
  5. Robinet de douche normal.
  6. Robinet de désinfection actionné par la régulation.

À noter qu’un tel recours fréquent à une décontamination thermique de choc dans des installations en acier galvanisé augmente le risque de corrosion lorsque les températures sont nettement supérieures à 60°C.

On sera attentif au fait que la boucle de circulation soit correctement équilibrée (branches mal desservies…).

La désinfection chimique de choc

Il s’agit d’un rinçage avec un produit de désinfection : produit à base de chlore (hypochlorure de sodium, dioxyde de chlore, …). Il se fait avec une concentration élevée (de 30 à 50 mg de chlore libre/litre), pendant 12 à 24 heures à tous les points (ce qui nécessite un boucle de désinfection).

Cette méthode est efficace pour autant qu’elle soit réalisée de façon correcte, par un personnel expérimenté (attention à la contamination par le chlore !). Pendant la désinfection, l’installation est hors service, ce qui est difficile à réaliser dans les homes et hôpitaux. L’évacuation de l’eau chlorée demande une dilution avant la décharge (attention à l’impact sur les fosses septiques ou les centrales d’épuration).

L’ionisation Cuivre/Argent

Il s’agit cette fois d’un traitement chimique en continu. Des ions de cuivre (0,2 à 0,4 ppm) et d’argent (0,02 à 0,04 ppm) sont introduits dans l’eau par ionisation (en fonction du débit). Les ions positifs s’accrochent aux parties négativement chargées de la paroi cellulaire de la bactérie, ce qui entraîne sa mort.

Selon la littérature, ce traitement compte parmi les plus efficaces. Le traitement agit avec une certaine rémanence. Mais il n’est pas compatible avec l’acier galvanisé car Cu et Zinc forment un couple galvanique corrosif. Et l’utilisation régulière de tous les robinets reste requise.

Le dioxyde de chlore

Il s’agit d’un traitement chimique en continu à l’aide de ClO2, injecté dans l’eau avec un dosage fonction du débit. Mais un dosage « normal » ne permet pas de tuer toutes les légionelles présentes dans le biofilm. Un bon résultat n’est atteint … qu’avec un taux de concentration inadmissible (> 5mg/l) ! Le traitement ne présente pas de rémanence et provoque un risque de corrosion (qui peut être résolu par un traitement anti-corrosion approprié).

L’électrolyse

Il s’agit d’un traitement chimique en continu par l’hypochlorite (HClO – 0,1 à 0,3 ppm en chlore libre) par décomposition de l’eau par courant continu. L’avantage est de ne pas devoir ajouter de substances dans l’eau, sauf du sel NaCl. Cette technique est appliquée avec succès. Elle mise sur une tuyauterie en by-pass, avec désinfection surtout la nuit. Cette technique est cependant très coûteuse.

Le traitement UV

L’eau est soumise à des rayons ultraviolets d’une longueur d’onde de 254 nm, avec une dose de 160 J/m² minimum, souvent 400 J/m². Cette irradiation endommage l’ADN des bactéries qui ne se reproduit plus…

A nouveau, l’avantage est de ne pas devoir ajouter de produits chimiques dans l’eau. Mais il n’y a pas d’effet sur les micro-organismes piégés dans le biofilm situé en aval. L’eau doit être filtrée préalablement pour ne pas avoir de particules en suspension. Il est essentiel que les lampes restent propres (entretien régulier). D’une manière générale, le CSTC considère que l’UV ne se justifie que pour protéger une unité bien déterminée ou une zone restreinte de l’installation.


Les exigences réglementaires

Le règlement « piscines » en Wallonie (janvier 2003)

Les documents de référence sont les différents arrêtés du Gouvernement wallon du 13 juin 2013 (M.B. 12/07/13)((21 DECEMBRE 2006. – Arrêté du Gouvernement wallon modifiant l’arrêté du Gouvernement wallon du 4 juillet 2002 arrêtant la liste des projets soumis à étude d’incidences et des installations et activités classées et divers arrêtés du Gouvernement wallon déterminant les conditions sectorielles et intégrales)), ainsi que les exigences prsentes dans les permis d’environnement pour les installations de refroidissement par dispersion d’eau dans un flux d’air.

Quelques éléments sur cette réglementation « piscines » :

  • Pour les bassins de natation couverts, la température de production d’eau chaude devra être à 65 °C minimum.
  • Le mélange avec l’eau froide devra se faire le plus près possible de la distribution d’eau des douches.
  • Un contrôle deux fois par an dans l’eau d’un pommeau de douche devra vérifier que la concentration ne dépasse pas 1 000 CFU/l.

Un règlement « bâtiments publics » en Flandre (arrêté du Gouvernement flamand du 09 février 2007 – M.B. 04/05/07)

L’exploitant doit établir un « plan de gestion » de la légionelle : description de l’installation, analyse du risque et mesures de prévention.

Quels sont les seuils d’intervention ?

On distingue d’abord 2 niveaux de concentration en Legionella : le Lspp (tous les groupes) et le Lpn (seulement la Légionella pneumophila), d’application dans deux types d’installation :

Pour les systèmes d’eau froide et chaude

  • Si Lspp < limite de détection (environ 50 CFU/l) : pas d’actions
  • Si Lspp > limite de détection : peu de contamination –> vérifier si le système de préparation d’eau froide et chaude suit les recommandations en matière de température. Si oui, analyse tous les 3 mois, et si 4 x négatif, alors analyse 1 x par an. Si non, analyse tous les mois.
  • Si Lspp > 1 000 CFU/l : il y a contamination –> procéder à un nouvel échantillonnage et, si confirmation, à une désinfection de choc; dans les hôpitaux et les homes, surveillance des légionelloses.
  • Si Lspp > 10 000 CFU/l : il y a contamination importante –> fermeture de l’installation, désinfection de choc, analyse de de l’eau. Si Lspp reste > 1 000 CFU/l : fermeture et assainissement. Ensuite, analyse toutes les 2 semaines. Si 3 x de suite le résultat est négatif, contrôle tous les 3 mois. Si 4 x de suite l’analyse des 3 mois est négative, contrôle 1 x par an.

Pour les tours de refroidissement

On procède à l’analyse des Germes Totaux GT.

Si GT > 100 000 CFU/l ou si légionellose, alors analyse de la Legionella pneumophilia :

  • Si 1 000 < Lpn < 10 000 CFU/l, on procède à une nouvelle analyse et, en cas de confirmation, on analyse le risque.
  • Si Lpn > 10 000 CFU/l, on procède à un nettoyage complet et à une désinfection.

Mettre en place un stockage d’énergie frigorifique [Climatisation – concevoir]

Mettre en place un stockage d'énergie frigorifique


Choix entre les différentes technologies

L’objectif est de fabriquer et de stocker l’énergie frigorifique avant son utilisation, par exemple la nuit.

Deux types de technologie existent sur le marché :

  • soit des réservoirs d’eau très froide, sortes d’énormes ballons « tampon », qui sont des réservoirs à « chaleur sensible« .
    Le bac constitue une réserve d’eau à 5°C, un tampon mis en série dans l’installation. On pourra en disposer facilement au moment de la pointe. Mais la capacité de stockage est faible… L’objectif est seulement de délester le groupe frigorifique durant quelques minutes sur le quart-d’heure critique.
  • soit des réservoirs de glace, sous forme de barres de glace ou sous forme de nodules, qui sont des réservoirs à « chaleur latente« .

    L’installation (et sa régulation) est plus coûteuse mais nettement plus efficace ! Il est possible de stocker 80 fois plus d’énergie dans un litre d’eau qui gèle que dans un litre d’eau que l’on refroidit d’1 degré ! Le projet est alors véritablement de diminuer l’équipement frigorifique (au lieu de deux machines de 300 kW, c’est une machine de 300 kW et un stockage de glace qui est installé) et de réaliser un écrêtage de la puissance électrique durant plusieurs heures.


Avantages et inconvénients

Avantages

  • Le kWh frigorifique produit la nuit et/ou en dehors des heures de pointe revient nettement moins cher.
  • Si la réserve est utilisée au moment de la pointe ¼ horaire du bâtiment, les compresseurs peuvent être délestés, ce qui permet de réelles économies financières sur le coût de la pointe.
  • Nouvelles installations : diminution de la puissance frigorifique installée, par étalement de la charge dans le temps, et donc diminution de l’investissement initial en machines frigorifiques et équipements annexes.
  • Installations existantes : augmentation de la charge frigorifique sans augmentation de la puissance électrique installée (c’est intéressant pour des bâtiments en rénovation dont on souhaite augmenter l’équipement bureautique, sans devoir augmenter la puissance du transformateur).
  • Diminution de l’encombrement des tours de refroidissement en toiture.
  • Augmentation de la durée de fonctionnement des compresseurs (à la limite, fonctionnement 24h/24), ce qui améliore leur rendement moyen.
  • Possibilité d’un secours partiel (quelques heures seulement…) en cas de panne de la machine frigorifique ou d’interruption de la fourniture d’énergie électrique, seules les pompes étant alimentées par le groupe de secours. C’est une sécurité parfois recherchée pour les salles informatiques.
  • Pour les grands bâtiments, le réservoir d’eau obligatoire pour la protection incendie peut parfois être utilisé comme bâche d’eau glacée.

Inconvénients

  • Aucun gain sur le bilan énergétique thermique ! Même plutôt quelques pertes de frigories durant le stockage … C’est essentiellement une opération tarifaire, financière et non énergétique.
  • Lorsque la machine frigorifique « fait de la glace », la température à l’évaporation descend. Elle travaille avec un moins bon rendement que lors du régime normal de préparation de l’eau glacée ! Ceci est partiellement contrebalancé par le fait que la température de condensation va également pouvoir diminuer, suite aux températures plus fraîches de la nuit.
  • La puissance de la machine frigorifique descend à 60 % … 70 % de sa valeur nominale lorsqu’elle prépare de l’eau glacée.

Par exemple, voici l’évolution pour une machine particulière : la puissance lors de la charge de nuit est donc réduite à 324 kW / 458 kW = 71 % de la valeur nominale.

  • L’installation est plus complexe et nécessitera une régulation pour la gestion des cycles charge-décharge.
  • Le stockage thermique est volumineux et sera donc généralement limité à une part de la consommation journalière.

La démarche à suivre

Le choix de la mise en place d’un stockage de froid nécessite d’analyser correctement le profil de consommation du circuit froid.

Fixer les objectifs du stockage

De multiples combinaisons entre capacité de stockage, puissance de déstockage et puissance frigorifique sont possibles.

Il est donc utile de préciser les objectifs visés par le stockage : diminution de la pointe quart-horaire ? diminution de la puissance frigorifique installée ? réduction de l’encombrement des condenseurs/tours de refroidissement en toiture ? réserve stratégique de froid en cas de rupture de la machine frigorifique ?…

On distingue de multiples stratégies d’utilisation.

Par exemple :
Un stockage total de la charge frigorifique durant la nuit :

Un stockage partiel pour limiter la pointe frigorifique :

Un stockage partiel avec une utilisation spécifique à la gestion de la pointe quart horaire :

Seul un bilan financier global (coût d’investissement initial et coût d’exploitation associé) de chaque configuration peut permettre de sélectionner la combinaison optimale.

Vérifier l’encombrement

Les réservoirs de stockage sont parfois adoptés parce qu’ils permettent une diminution de l’encombrement des tours de refroidissement en toiture.

Par contre, ils nécessitent de la place à l’intérieur du bâtiment… Dans certains cas, le stockage est enterré dans le sol, devant le bâtiment ou sous celui-ci.

On tiendra compte également du poids supplémentaire sur la structure du bâtiment, ainsi que des pressions d’eau atteintes suivant la configuration du réseau.

Établir le profil des charges

Au contraire des systèmes de refroidissement classiques où il suffit de connaître la puissance de refroidissement maximale pour pouvoir faire son choix, l’accumulation de glace exige un profil de charge.

Il s’agit d’une présentation graphique (ou sous forme de tableau) de la charge de froid demandée en fonction du temps, et ce pour la journée de l’année où la charge de refroidissement est la plus importante (journée de référence, celle servant de base à la conception).

Le profil de charges est, en général, sous forme d’une courbe en cloche, dont la surface représente de 60 à 80 % de la surface du rectangle dans lequel la courbe s’inscrit. Ce pourcentage est appelé « facteur de simultanéité ». Plus ce facteur est bas, plus le rendement de l’installation sera défavorable.

Si la puissance maximale atteinte varie en fonction de la saison, la forme du diagramme reste relativement stable.

Etablir un scénario de charge et de décharge

Qui fait quoi et à quel moment ?

Voici 2 exemples :

  • L’objectif est de réduire la pointe électrique : le délesteur de charge arrête la machine frigorifique au moment critique et le réservoir prend le relais.
  • L’objectif est de garantir du froid en cas de panne du secteur : pour la sécurité du refroidissement du local informatique, un réservoir restera en permanence en glace, en stand-by pour le cas où… Dans ce cas, le groupe électrogène de secours doit seulement alimenter la pompe qui va envoyer l’eau glacée sur la glace.

Le dimensionnement des équipements et leur régulation sont fonction des objectifs recherchés…


La sélection du groupe frigorifique

Une machine frigorifique capable de préparer de la glace se distingue de celle destinée uniquement à la préparation de l’eau glacée :

  • La préparation de la glace requiert une température à l’évaporateur de plusieurs degrés sous zéro (de – 4° à – 10°C, en fonction du type de stockage choisi), alors que l’eau glacée se prépare généralement avec une température d’évaporation réglée sur + 2°C.
  • Si le stockage de l’énergie frigorifique est partiel, la même machine produira la glace la nuit et l’eau glacée le jour. Elle doit donc pouvoir s’adapter aux deux températures d’évaporation différentes.
  • La machine frigorifique travaillant de nuit, la machine doit être prévue pour pouvoir travailler avec une température de condensation réduite et profiter ainsi d’un coefficient de performance (« COPfroid » ou « efficacité frigorifique ») amélioré (les machines standards fonctionnent avec des températures de condensation élevées en permanence). En général, ceci suppose la présence d’un détendeur électronique, capable de s’adapter aux fluctuations de température de condensation.
  • Le système choisi requiert parfois la mise en place d’un fluide secondaire, type eau glycolée.

Même s’il est possible d’utiliser les machines standards, il sera toujours utile de procéder à une analyse spécifique pour ce type d’application. Notamment pour sélectionner le type de fluide frigorigène adapté à la fluctuation de température souhaitée, tant à l’évaporateur qu’au condenseur.

On sera particulièrement attentif à l’isolation des équipements : une isolation étanche à la vapeur pour éviter la condensation et la formation de glace. Cette isolation doit être scellée avant les essais.


La répartition des charges frigorifiques

La charge frigorifique doit être répartie entre la machine frigorifique et le stockage.

À titre d’exemple, considérons le profil de charge suivant :

Les besoins effectifs journaliers sont de 750 kWh. Une puissance maximale de 100 kW n’est requise que durant 2 heures sur un total de 10 heures d’exploitation.

On distingue deux principes de sélection des équipements :

Accumulation complète (Full Storage)

Dans le cas de ce système, on stocke dans la glace toute la quantité de froid nécessaire pour une journée complète. La machine frigorifique est arrêtée en journée et seule la glace en cours de fonte assure le refroidissement.

Il en résulte un système d’accumulation de glace très imposant, mais les coûts d’exploitation sont faibles (toute l’énergie est produite au tarif de nuit).

La puissance de la machine frigorifique est déterminée par le rapport entre l’énergie totale à accumuler (ici 750 kWh) et la durée de la période de production en Heures Creuses (ici 14 heures).

750 kWh / 14 h = 54 kW

Ce système est rarement appliqué, à cause du coût d’investissement et de l’espace disponible très élevés.

Accumulation partielle (Partial Storage)

Dans ce système, la même machine frigorifique réalise :

  • la préparation de glace durant la nuit,
  • le refroidissement partiel de l’eau glacée durant la journée, en étant alors secondée par la fonte de la glace.

La machine frigorifique fonctionnera donc 24 heures sur 24 lors de la journée de référence. Elle est alors dimensionnée en fonction de la charge de froid totale sur les 24 heures (ici 750 kWh en 24 heures) plutôt que sur la base de la charge de pointe (ici 100 kW).

En appelant :

  • Pc = puissance compresseur en direct
  • Pr = puissance réduite du compresseur la nuit = f x PC
  • f  = 3 % par °C d’abaissement de la température à l’évaporateur (valeur typique), soit une perte de puissance de 30 à 35 % en fonctionnement de nuit par rapport au fonctionnement de jour
  • En = énergie frigorifique journalière
  • Td = Temps de fonctionnement de la machine en direct
  • Ts = Temps de fonctionnement de la machine en phase de stockage de glace

La machine sera dimensionnée par :

en = Td x PC + Ts x Pr

d’où :

  • en = Td x PC + Ts x f x PC
  • PC = en / (Td + Ts x f )

Exemple de sélection

Pour expliquer la méthode de sélection, nous avons choisi de recourir à un exemple d’une installation selon le principe de fonte interne.

* A supposer

  • une charge de pointe de 1 000 kW
  • un régime de température de 12°C / 7°C
  • un refroidissement nécessaire entre 8 heures du matin et 18 heures (soit 10 heures)
  • une charge de refroidissement totale 8 000 kWh

* Il est demandé

La sélection d’un système d’accumulation de glace pour une machine frigorifique aussi petite que possible.

* Solution

La plus petite machine frigorifique est celle qui tourne 24 heures sur 24.

Pour faire de la glace, la machine frigorifique produira du glycol à une température négative (ex : – 5°C). Mais, pendant la journée, la machine frigorifique fonctionnera à des températures positives dans la mesure où elle devra seulement pré-refroidir le glycol à 12°. Sa puissance étant limitée, la glace assurera le post-refroidissement.

Les caractéristiques de fonctionnement de la machine frigorifique ne sont donc pas identiques pour la production de glace et pendant la journée. La nuit, lors de la fabrication de la glace, la machine présente une puissance de l’ordre de 65 à 70 % de la puissance nominale. Cette valeur de 70 % n’est qu’indicative et devra donc être vérifiée a posteriori avec les fournisseurs de la machine frigorifique en fonction des températures d’évaporation et de condensation réelles.

Dans notre exemple, nous avons un temps de fabrication de glace de 14 heures et un temps de fonte de 10 heures. La machine frigorifique fonctionnera donc 10 heures à 100 % de capacité et 14 heures à 70 % de capacité. La quantité totale de froid à fournir est de 8 000 kWh. Dès lors, si nous comparons le froid produit au froid nécessaire, nous obtenons :

(10 h x 100 % de cap.) + (14 h x 70 % de cap.) = 8 000 kWh

cap. x (10 + 14 x 0,7) = 8 000 kWh

cap. = 404 kW

La machine frigorifique fournira donc 404 kW pendant la fonte et 70 % de cette valeur pendant la fabrication de glace, soit 283 kW.

La puissance de stockage de glace nécessaire est alors égale au temps de fabrication multiplié par la puissance de production de froid pendant la fabrication, soit :

14 heures x 283 kW = 3 960 kWh.

On trouve la même puissance de stockage en soustrayant de la charge totale de froid de 8 000 kWh la puissance de froid fournie par la machine frigorifique pendant la fonte :

8 000 kWh – (10 h x 404 kW) = 3 960 kWh.

*Conclusions

Il faut un appareil d’accumulation de glace d’une puissance de stockage minimale de 3 960 kWh.

Si le réservoir présente une capacité de 50 kWh/m³, il faudra prévoir un stockage de :

3 960 / 50 = 80 m³

Attention à la température de restitution de la glace !

La méthode de sélection ci-dessus est une première approche simplifiée !

Ainsi, il faut également vérifier si l’appareil d’accumulation de glace peut garantir la puissance de fonte souhaitée à la température demandée (ce n’est pas tout d’avoir les kWh, encore faut-il qu’ils soient restitués à une température suffisamment basse !).

Pour des applications exploitant le principe de la fonte externe, cela ne pose généralement pas de problème dans la mesure où un réservoir peut être complètement fondu en 2 heures à une température d’eau de 1 à 2°C. Dans le cas de la fonte interne, en revanche, il est conseillé d’examiner cet aspect avec le fabricant, étant donné que la puissance de fonte est nettement inférieure et dépend en outre dans une large mesure de la quantité de glace restante. Généralement, on admet dans le cas de la fonte interne que la puissance de fonte restante est d’autant plus faible que la quantité de glace restante est petite. Mais cette situation est améliorée si une pompe à air pulse des bulles d’air au fond du réservoir. L’agitation est favorable à l’homogénéité des températures, notamment par bris de la glace en fin de fonte interne.

Dans notre exemple, la puissance de fonte la plus importante à fournir est de :

1 000 kW – 404 kW = 596 kW
(puissance de pointe – capacité de la machine frigorifique).

Comparé à la puissance de stockage de l’appareil d’accumulation de glace (3 960 kWh), il s’agit d’un temps de fonte « équivalent » de 6,2 heures. Avec les systèmes de fonte interne couramment utilisés, on peut alors s’attendre à des températures de fonte autour de 5°C. Cela convient donc pour la température demandée de l’ordre de 6°C.

Le fournisseur dispose de logiciels de dimensionnement plus élaborés qui vérifieront si la température lors de la décharge reste compatible avec la demande.

 Études de cas 

Un exemple d’analyse de l’évolution de la température, issue d’un logiciel de ce type, est donné dans les études de cas.

Le dimensionnement du réservoir de stockage

Capacité d’un stockage eau

La chaleur sensible de l’eau est de 1,163 kWh/m³.K.
La capacité de stockage dépend dès lors du régime de fonctionnement :

  • en régime 5°/12°C, un m³ d’eau stocké à 5° dispose d’un delta T° = 7°C, soit une réserve de 8,14 kWh/m³.
  • en régime 5°/15°C, un m³ d’eau stocké à 5° dispose d’un delta T° = 10°C, soit une réserve de 11,63 kWh/m³.

Pour stocker 1 000 kWh, il faudra 123 m³ sous un delta T° = 7°C, et 86 m³ sous un delta T° = 10°C.

Capacité d’un stockage glace

La chaleur latente de cristallisation de l’eau est de 93 kWh/m³ (en eau), soit de 84,5 kWh/m³ (en glace). en quelle sorte, on pourrait parler d’une capacité de stockage équivalente, en chaleur sensible, à un delta T° de l’ordre de 80°C ! Et cette propriété peut encore être renforcée par l’addition d’un sel eutectique dans l’eau.

Mais en pratique, l’entièreté d’un m³ de stockage ne se transforme pas en glace, ne fût-ce que pour pouvoir encore laisser passer le fluide caloporteur.

Aux valeurs de stockage en chaleur latente, on peut ajouter la chaleur sensible, en eau et en glace, fonction des niveaux de température atteints.

Les valeurs moyennes suivantes peuvent être prises :

Capacité de stockage

Volume pour 1 000 kWh

Bac à eau chal. latente 40 kWh/m³ 25 m³
chal. sensible et latente 50 kWh/m³ 20 m³
Bac à glace chal. Latente 48 kWh/m³ 21 m³
chal. Sensible et latente 58 kWh/m³ 17 m³
Nodules chal. Latente 40 à 50 kWh/m³ 25 à 20 m³
chal. Sensible et latente 50 à 60 kWh/m³ 20 à 17 m³

On constate que, en moyenne, un m³ de stockage en « glace » emmagasine 4 à 6 fois plus de froid qu’une bâche de stockage en « eau glacée ».

Ces valeurs permettent de dimensionner grossièrement le système. Les fabricants disposent d’outils de simulation permettant d’affiner ce calcul.

Études de cas

Un exemple de dimensionnement pour une installation de 500 kW frigorifique est donné dans les études de cas.

Les schémas d’installation

Stockage d’eau glacée

Les schémas d’installation diffèrent en fonction de la place relative du ballon par rapport au chiller.

 Techniques

Pour plus d’informations : cliquez ici !

Stockage de glace

Les schémas de principe sont basés sur trois types de configuration :

  • Stockage en série avec la charge, la machine frigorifique étant en aval des bacs de stockage.
  • Stockage en série avec la charge, la machine frigorifique étant en amont des bacs de stockage.
  • Stockage en parallèle avec la charge.

Voici différents schémas possibles extraits de l’ouvrage « Production de chaud et de froid » de Bouteloup chez Pyc Éditions :
Stockage de glace dans des réservoirs à faisceaux tubulaires

  Techniques 

Pour plus d’informations : cliquez ici !

Stockage de glace en parallèle avec réservoir à nodules

   Techniques 

Pour plus d’informations : cliquez ici !

Études de cas

Un exemple de schéma d’une installation existantes est donné dans les études de cas.

Régulation du système stockage-chiller

La régulation du système « stockage – machine frigorifique » est fonction de divers paramètres :

  • l’importance relative du stockage par rapport aux besoins journaliers,
  • la configuration du système (série amont, série aval, parallèle),
  • les objectifs stratégiques (puissance frigorifique minimale, gestion de la pointe ¼ horaire, conservation d’une réserve de froid permanente pour la salle ordinateur en cas de défaillance du groupe frigorifique,…),

Si le stockage est total, la gestion est simple : le stockage assure les besoins journaliers totaux. Une simple vanne trois voies motorisée ajuste l’offre à la demande. Dans certains cas, il est même possible de profiter des Heures Creuses du week-end pour précharger le stockage au maximum.

Si le stockage est partiel, on distingue deux possibilités :

  • Chiller prioritaire : la machine frigorifique assure la charge permanente de base, tout en disposant de l’appoint du stockage pour vaincre les pointes. Ce système permet de charger le compresseur de façon constante, ce qui est l’idéal pour son rendement.
  • Stockage prioritaire : la charge de base est couverte par la décharge du stockage. La machine frigorifique est prévue pour couvrir les pointes de la journée. Ce système, qui suppose une capacité de stockage plus importante, valorise davantage les kWh frigorifiques produits la nuit, mais pénalise la machine frigorifique dans son fonctionnement direct.

Quelques schémas d’installation pratiques sont proposés dans la publication « Production de chaud et de froid » de Bouteloup chez Pyc Éditions.

Exemples de scénarios possibles avec une GTC :

> « Stockage total » : pour les mois de novembre, décembre, janvier et février, le stockage a été dimensionné pour fournir seul les besoins de froid. L’installation fonctionnant en tarif horo-saisonnier, il est très important de limiter au maximum les pointes de puissance. La machine frigorifique sera donc délestée.
> « Priorité stockage » : en mi-saison, la priorité est donnée à la décharge du stockage, avec appoint de la machine frigorifique en fin de journée et durant les pointes.
> « Priorité chiller » : en été, c’est la machine frigorifique qui assure la base et le stockage est utilisé pour couvrir les pointes grâce à la rapidité de l’apport frigorifique qu’il permet. Lorsque vient la fin de la journée, le système bascule en mode « déstockage uniquement » afin de vider l’excédent. La décision de basculer est prise par la GTC en fonction de divers paramètres. Suivant les cas on prendra en compte : l’épaisseur de glace restante, la température extérieure, l’ensoleillement, l’heure dans la journée, l’historique des deux derniers jours, l’historique de l’année précédente,… Un tel modèle, mis au point progressivement, permet des économies importantes à terme. Toute la difficulté consistant à conserver une réserve de froid suffisante pour une pointe éventuelle !
> « Charge nocturne » : cette charge peut être démarrée « au plus tard », afin d’être juste suffisante en début de journée. Un historique peut permettre d’optimaliser le moment de la relance en fonction des besoins.
> Le fin du fin : si l’on prévoit quelques besoins de relance de chauffage dans le bâtiment en début de journée, une récupération de chaleur sur le condenseur de la machine frigorifique est possible; la préparation du froid de l’après-midi génère le petit coup de chaleur du matin, le stockage faisant office de réservoir tampon entre ces deux besoins !

Évaluation de la rentabilité

La rentabilité d’un stockage de glace s’établit par le rapport entre le surcoût au niveau de l’installation frigorifique et l’économie financière réalisée.

Le surcoût est estimé entre 20 et 30 % de l’installation frigorifique initiale. Cette estimation comprend :

  • Les bacs à glace : on peut compter 30 €/kWh de stockage pour une petite installation de 2 000 kWh, 25 €/kWh pour une installation de 5 000 kWh, 20 €/kWh pour une belle installation de 10 000 kWh.
  • Les équipements annexes : pompes, échangeurs,…
  • La déduction du prix de la machine frigorifique que l’on a pu économiser.

Ce qui est difficile à chiffrer et qui constitue un frein majeur du développement du stockage de nuit, c’est le volume nécessaire dans le bâtiment pour entreposer les bacs !…

L’économie financière est essentiellement résultante de l’écrêtage de la pointe quart-horaire. L’économie réalisée sur le coût moindre du kWh de nuit par rapport au kWh de jour est proportionnellement plus faible.

En effet, prenons le tarif « binôme A – Éclairage » :

Le prix du kWh de jour est de 6,25 c€/kWh (HTVA) contre 4,33 c€/kWh la nuit. En passant d’une production de jour vers une production de nuit, l’économie est donc de 31 %. Mais le fait de produire de la glace engendre un abaissement de la température d’évaporation, et le compresseur n’apprécie pas !

Ainsi, un compresseur qui voit la température d’évaporation passer de + 2°C à – 5°C voit son rendement baisser de 20 % environ. Si, parce qu’un échangeur intermédiaire supplémentaire est placé, la température d’évaporation passe à – 10°C, le rendement chute de 30 %… ! En y ajoutant quelques pertes inévitables par les parois des bacs, et les consommations des pompes,… tout le bénéfice est mangé !

Il n’empêche que les installations à – 5°C sont possibles et que l’on peut sélectionner des machines frigorifiques capables de valoriser la faible température nocturne (et donc la faible température de condensation).

Mais c’est sur le coût de la pointe de puissance que le gros de l’économie doit être trouvé (8 €/kW de pointe, chaque mois) ! Le temps de retour du projet pour une installation électrique de 500 kW et plus descend sous les 3 ans, d’après les fournisseurs.

Chaque scénario doit être étudié sérieusement. Ainsi, un bâtiment avec une prédominance de consommation électrique en été aura avantage à choisir le tarif horo-saisonnier. Dans ce cas, le délestage du groupe frigorifique durant les 4 mois d’hiver sera très rentable : 14 €/kW HTVA. Mais c’est également le moment où la demande de froid est la plus faible… L’équipement peut-il s’amortir sur ces mois d’hiver ?


La réception du matériel

Lors de la réception du matériel, il sera bon de vérifier :

Au niveau du circuit hydraulique :

  • la concentration en glycol à plusieurs endroits du circuit,
  • l’isolation des circuits et des vannes,
  • la stabilité hydraulique (équilibrage) dans tous les modes de fonctionnement du réseau, avant même d’enclencher le groupe frigorifique,
  • les débits et les pertes de charge dans diverses configurations (pour vérifier notamment si on a tenu compte de la viscosité du glycol lors de la sélection des pompes),
  • les points repris dans la régulation et la stratégie de commande choisie,
  • la protection du circuit secondaire éventuel (boucle d’eau glacée vers les ventilos, par exemple) contre tout risque de gel.

Au niveau du stockage :

  • le niveau d’eau dans le réservoir,
  • le débit et les températures lors de la charge et de la décharge.

Au niveau de la machine frigorifique :

  • la charge effective du stockage dans les conditions prévues et les températures d’évaporation spécifiées, et ceci dans le temps prévu.

Plusieurs essais sous des régimes différents seront nécessaires. On tiendra compte du fait que lors de la première mise en charge, la température initiale du bac est plus élevée que celle en régime (généralement autour des 5°C). Le premier temps de charge sera donc plus long.


La maintenance

La maintenance d’un stockage de glace est faible. On suivra les recommandations du fabricant, dont la vérification régulière de la concentration en eau glycolée.

La présence de vannes d’isolement doit permettre de démanteler facilement le réservoir de stockage sans interrompre le restant du circuit.

Si l’isolation doit être remplacée, on sera attentif à sécher au préalable soigneusement la zone traitée et à rétablir l’étanchéité au passage de la vapeur d’eau afin d’éviter la corrosion ultérieure des installations.

Courbe des températures cumulées et visualisation des performances d’un récupérateur

Pour illustrer l’importance des gains énergétiques, il est utile de pouvoir visualiser l’évolution des températures tout au long de l’année. C’est l’intégration de cette évolution des températures qui donne la courbe des fréquences cumulées degrés-heures (D°h), image des besoins en chauffage du bâtiment.

Les degrés-heures représentent la somme cumulée des écarts entre la température extérieure et une température de référence, à chaque heure de la saison de chauffe.

Par exemple pour Uccle et une température de 20°C, c’est l’aire entre l’isotherme 20°C et la courbe de fréquence cumulée des températures extérieures soit 89 248 degrés-heures (Dh).

Courbes représentant la fréquence d’occurrence des températures extérieures, comparée à la température de consigne intérieure.

Le graphe ci-après représente le fonctionnement d’un récupérateur dont le rendement est de 70 %, placé sur de l’air pulsé à 22°C.

Courbe de températures cumulées
illustrant l’énergie économisée par la présence d’un récupérateur
(T° sortie récupérateur = T° ext + ε x (T° int – T° ext), par exemple : 19° = 12° + 0,7 x (22° – 12°)).

Distribution de vapeur

Distribution de vapeur

La distribution de vapeur qu’elle soit centrale ou locale doit être bien pensée de manière à assurer les débits de vapeur à n’importe quel moment du cycle de stérilisation.


Les conduites

Photo stérilisation - conduites.

Le réseau de distribution est digne de celui d’une centrale électrique; les conduites vont dans tous les sens. Elles sont en acier inoxydable ou en cuivre.

Ce réseau véhicule de la vapeur à haute température (134 °C) et sous haute pression (3 bar). La mise en œuvre doit donc être très soignée. Thermiquement parlant, ces tuyauteries constituent autant de radiateurs; en d’autres termes, il faut les isoler correctement afin de réduire :

  • le risque de brûlure,
  • les déperditions au travers des parois vers l’ambiance,
  • la production de condensas qui, s’ils ne sont pas récupérés, constituent une perte énergétique non négligeable.

Un soin particulier doit aussi être pris pour la récupération des condensas: il est nécessaire de penser tout le réseau de distribution en pente douce:

  • soit vers le générateur,
  • soit vers les points de purges sachant qu’ils faut prévoir un système de récupération de condensas derrière.

Les vannes

Les vannes sont de construction robuste car elles travaillent dans des conditions difficiles. La commande des vannes côté vapeur s’effectue, en général, de manière pneumatique.
Il est nécessaire de les isoler aussi de manière à réduire les risques de brûlure par contact et les déperditions thermiques.

Photo stérilisation - vannes.

Consommation d’électricité en réfrigération

Consommation d'électricité en réfrigération


Armoire frigorifique

Consommation des chambres froides et armoires frigorifiques par mètre courant pour les magasins [kWh/(mc.a)]

Type

-18°C

-22°C

-18°C
avec fermeture la nuit

Zone îlot surgelés
Zone surgelés adossée
Cloison surgelés
Comptoir viande horizontal
Comptoir viande vertical
Comptoir légumes horizontal
Comptoir légumes vertical
Frigo avec portes vitrées
Boîte frigo avec couvercle
Frigo roulant (lait/yaourt)
Comptoir pâtisserie
Frigo portable traiteur

3 050
4 800
2 550
950
4 100
700
2 000
5 700
1 000
4 200
650
1 200

3 300
5 200
2 750
1 150
4 850
850
2 600




2 600
4 100
2 150
650
2 900
500
1 450




Remarque : utilisation par RV 60 % ; alimentation de nuit 14 heures/jour.

Source : Novem /TMO 1993.

Consommation moyenne des armoires frigorifiques [kWh/a]

Capacité totale
(litres)

Compartiment froid

Sans

*

**

***

60
125
250
350 (1)

250
350
275
365
400
330


290
365
660
340
465
365
(1) avec zone « cave ».
Source : Novem /Veen/energiewijzer.

Consommation moyenne des combinés frigo/congélateur [kWh/a]

Capacité nette
(litres)

Avec un thermostat

Avec deux thermostats

200
300
400

490
575
475

565
560

Source : Novem /veen/energiewijzer 1993.

Consommation moyenne des surgélateurs [kWh/a]

Capacité nette
(litres)

Surgélateur vertical
kWh/a

Bahut
kWh/a

50
100
200
300
450

380
400
445
645
1 200

365
420
385
406
585

Source : Novem /Veen/Énergiewijzer 1993.


Distributeur de boissons

Consommation électrique des distributeurs de boissons (kWh/an)

Boissons froides
Boissons chaudes pour un département de bureaux (1. kW)
Boissons chaudes pour une cantine scolaire (3 kW)

400

800

1 500

Source : Novem.
Remarques.

  • Un distributeur de boissons froides reste allumé 24h/24.
  • Un distributeur de boissons chaudes fonctionne à la demande.
  • Pour les distributeurs de boissons chaudes, le taux d’utilisation est de 5 % pendant les périodes de présence des utilisateurs et les pertes en mode stand-by sont de l’ordre de 5 % de la puissance installée.

Mesures d’économie pour distributeurs de boissons

Mesure

Économie maximale
%

Interruption en dehors du temps d’utilisation
Remplissage avec de l’eau chaude

70

10

Remarque : ces mesures ne peuvent être mises en application qu’après accord du fabricant.


Refroidisseur des pompes à bière

Consommation électrique des refroidisseurs à bière

Type

Consommation de base
kWh/a

Consommation par fût
kWh/fût

Monobloc
Split Unit*

150
200

0,6
0,8

* compresseur et évaporateur séparés.

Remarque : caisson froid isolé 40 x 40 x 74 cm, temps d’utilisation 8 760 h/a.

Source : Gamko/Novem  – 1993.


Perte des tuyauteries frigorifiques

Consommation électrique du compresseur en fonction de la non-isolation du système frigorifique (kWh/mct de tuyauterie).

Diamètre
T(°C)

25 mm

50 mm

100 mm

15
10
5
0
-5
-10
-15
-20

    4
11
25
48
81
127
186
259

  71
95
129
179
247
337
449
585

  334
409
503
623
778
969
1 200
1 473

Bases de calcul :

  • 8 760 h/a.
  • Rendement de Carnot du système de froid : 60 %.
  • Température de condensation : 40°C.
  • Température d’évaporation 10 K inférieure à la température de liquéfaction.
  • Pas de formation de glace (fortement compensée par les travaux d’isolation).
  • Y compris évacuation de la chaleur de la vapeur condensée sur les tuyauteries.
  • Température ambiante : 20°C.
  • Teneur en humidité absolue de l’air intérieur = extérieur.

Dégivrage

Dégivrage


Origine du givre et conséquences sur l’installation frigorifique

L’air ambiant autour de l’évaporateur contient de l’eau. Cette eau givre au contact des surfaces froides de l’évaporateur lorsque la température dans la batterie est inférieure à 0°.

Du côté de la chambre froide ou du meuble frigorifique

Le givre diminue le transfert thermique entre l’air et la surface extérieure de la batterie.
Le givre sur les tubes à ailettes de l’évaporateur gêne la circulation de l’air soufflé par le ventilateur. Le débit d’air diminue puisque la résistance à l’écoulement de l’air au travers de la batterie givrée s’accroît. L’apport de froid vers la chambre se fait moins bien. La température de la chambre froide monte quelque peu.

Du côté du circuit frigorifique

Les résultats de ces effets sont :

  • Suite à la résistance thermique qui se crée entre la batterie et l’air (c’est une « couche isolante » entre l’échangeur et la chambre froide), le réfrigérant ne s’évapore pas entièrement dans l’évaporateur.
  • La quantité de vapeur produite diminue, mais le compresseur continue d’aspirer puisque la température de consigne n’est pas atteinte. La pression à l’entrée du compresseur (BP) diminue. Si la pression diminue, la température d’évaporation diminue également. À court terme, cela augmente le froid donné à la chambre (l’écart de température « chambre-évaporateur » augmente), mais cela augmente l’effet de givrage.
  • Le détendeur va réagir : il constate que la surchauffe des gaz est trop faible, il imagine que c’est parce que la charge frigorifique dans la chambre a diminué et il diminue le débit de fluide. La quantité de vapeur produite diminue encore, la Basse Pression diminue également et le givrage s’accentue.
  • Au point que la conduite d’aspiration vers le compresseur peut complètement givrer. Quelques gouttes liquides de réfrigérant peuvent alors se retrouver à l’entrée du compresseur, avec le risque de créer des « coups de liquide » au compresseur.

Globalement, le compresseur de la machine frigorifique travaille avec une mauvaise efficacité énergétique : la couche de glace sur l’évaporateur peut être comparée à une couverture posée sur un radiateur (pour obtenir la même chaleur, il faudra augmenter la température de l’eau et diminuer le rendement en chaudière).


Les étapes du dégivrage

Voici la séquence de dégivrage la plus utilisée :

1. Arrêt du fluide frigorigène dans la batterie à dégivrer

On coupe l’alimentation électrique de la vanne magnétique qui se trouve sur le circuit juste avant l’évaporateur. La vanne se ferme. La Basse Pression au compresseur descend et le compresseur s’arrête dès que le niveau réglé sur le pressostat Basse Pression est atteint.

Quand il n’y a pas de vanne magnétique, le compresseur est directement arrêté électriquement (contacteur). Mais dans ce cas, une migration de réfrigérant peut se produire et encore continuer à s’évaporer, ce qui peut poser problème.

2. Arrêt de la ventilation de l’évaporateur

En arrêtant la ventilation, on évite une diffusion dans la chambre froide de la chaleur dégagée par l’évaporateur en cours de dégivrage.

Des fabricants d’évaporateurs ont même imaginé des manchons souples en fibre polyester (encore appelés « shut up »), placés à la sortie du ventilateur de l’évaporateur et d’environ 50 cm de long. Lorsque la ventilation est à l’arrêt, ce manchon retombe et se rabat sur la surface de pulsion du ventilateur. Une barrière physique autour de la chaleur produite dans l’évaporateur est créée.

3. Réchauffage de la batterie jusqu’à une température supérieure à 0°C pour faire fondre la glace

Le positionnement d’une sonde de fin de dégivrage est nécessaire dans la batterie pour permettre le contrôle de la température à 0° et permettre à la production de froid de reprendre. En pratique, la position idéale de la sonde n’est pas facile à déterminer, car le givre n’est pas toujours uniforme sur l’évaporateur.

4. Remise en circulation du fluide frigorigène

Après disparition du givre et égouttage soigné de la batterie pour éliminer l’eau de fusion, le fluide frigorigène est remis en circulation pour refroidir la batterie.

Pour s’assurer du parfait égouttage, une temporisation est prévue entre la fin du dégivrage et l’ouverture de la vanne magnétique permettant à la production frigorifique de reprendre.

5. Remise en fonctionnement de la ventilation

C’est seulement après l’ouverture de la vanne magnétique et après une deuxième temporisation (permettant à la batterie d’atteindre une température moyenne inférieure ou égale à celle de l’enceinte) que les ventilateurs de l’évaporateur sont remis en fonctionnement (technique encore appelée « snap freeze »).

À défaut, la remise en route prématurée des ventilateurs peut envoyer de la chaleur dans la chambre froide et/ou des gouttelettes d’eau encore présentes.

6. Reprise du cycle normal de refroidissement


Les différentes techniques de réchauffage de la batterie

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons.

  • Par résistance chauffante
    Des résistances chauffantes sont imbriquées dans les tubes en cuivre qui composent la batterie de l’évaporateur. Leur position et leur puissance sont étudiées par le fabricant de manière à répartir uniformément la chaleur produite à l’ensemble de la batterie.
  • Par introduction de vapeurs refoulées par le compresseur
    Cette technique, encore appelée dégivrage par « vapeurs chaudes » ou par « gaz chauds », consiste à inverser le cycle et à faire fonctionner l’évaporateur, le temps du dégivrage, en condenseur.
  • Par aspersion d’eau sur la surface externe, givrée, de la batterie

  • Par circulation d’air de la chambre
    De l’air provenant soit de l’intérieur de la chambre même, soit de l’extérieur, est envoyé sur l’échangeur. Dans le premier cas, le dégivrage est très lent. Dans le second, il faut isoler l’évaporateur de la chambre, ce qui n’est pas pratique.
    L’inertie des produits stockés suffit à maintenir l’ambiance dans une fourchette de température acceptable.

Régulation du dégivrage

La régulation par horloge

C’est la méthode la plus simple : les opérations de début et de fin de dégivrage sont commandées par de simples horloges à contacts.

La régulation électronique intelligente

La programmation des opérations de dégivrage est plus délicate qu’il n’y paraît. La commande optimale de ces opérations exige que l’initiation du dégivrage soit commandée par la présence effective de givre déposée sur la batterie, et que la fin du dégivrage soit commandée par la vérification que tout le givre a disparu de sa surface. Encore faut-il disposer des capteurs adéquats.

Voici les principes de fonctionnement rencontrés chez deux fabricants.

Première technique

Initialement, une programmation horaire traditionnelle des dégivrages est organisée.

Le régulateur analyse la courbe de montée en température : s’il n’aperçoit pas de plancher horizontal lui indiquant une phase de fusion de la glace (pendant laquelle la température reste constante), il en déduit qu’il n’y avait pas de givre et ralentira la cadence des dégivrages ! En pratique, il enregistre le temps total de montée en température : si ce temps est très court, il sait qu’il n’y a pas eu de période de fusion. La programmation initiale reste, mais en fonction d’une statistique établie sur la mesure du temps des 10 derniers dégivrages, il décide de sauter ou non le dégivrage suivant. Le nombre de dégivrages diminue sensiblement.

La durée d’une période de dégivrage dépend :

  • de l’échauffement et du refroidissement de l’évaporateur (fixe),
  • de l’échauffement et de la fusion du givre (variable).

Seconde technique

Ce second système associe, en fait, une régulation de dégivrage proprement-dite à un choix d’une technique de dégivrage (dégivrage par résistance chauffante ou par circulation d’air de la chambre).

Au niveau de la régulation du dégivrage proprement-dite, une sonde sert à mesurer la température ambiante de la chambre (reprise d’air à l’évaporateur), l’autre est placée dans les ailettes de l’évaporateur. Cette dernière peut déduire des températures enregistrées la présence de glace, selon une technique qui ne nous a pas été détaillée.
Chez ce fabricant, le critère d’arrêt du dégivrage classique est une température d’évaporateur de 10 °C. Cela semble élevé mais c’est, semble-t-il, une sécurité par rapport à l’absence totale de glace.

Quant au choix de la technique de dégivrage, le système part d’un raisonnement fort intéressant :

En « temps normal », il ne faut pas faire fondre cette glace par une source de chaleur extérieure, mais bien par l’air de la chambre. Toute l’énergie latente contenue dans la glace sera restituée à l’ambiance. Le compresseur s’arrête et le ventilateur continue à pulser l’air ambiant sur la batterie.

  • Si la chambre est positive (stockage de fruit et légumes, de viandes, .), l’air à + 4 ou + 5 °C fera fondre la glace et restituera le froid vers l’ambiance. À noter que l’humidité est également restituée, entraînant une teneur en eau plus forte dans la chambre, ce qui est favorable à la conservation des victuailles.
  • S’il s’agit d’un congélateur à – 20 °C, la glace présente sur l’échangeur est une glace à – 25.- 27 °C, glace fort poudreuse qui ne « colle » pas fortement à l’évaporateur. Il semble que l’air de la chambre à – 20 °C va alors provoquer la sublimation de la glace (passage de l’état solide à l’état vapeur).

Par contre, si une entrée importante de marchandises est organisée, un dégivrage classique par résistance chauffante aura probablement lieu : il n’est pas possible d’attendre la fusion de la glace par l’air ambiant, le compresseur fonctionnant à pleine charge.

Quel que soit le système de régulation intelligente, la souplesse de ces appareils par rapport aux thermostats mécaniques permet d’affiner les réglages et de proposer des fonctions complémentaires :

  • alarmes,
  • possibilité de faire fonctionner le congélateur avec une consigne abaissée de 5°C la nuit (pour bénéficier du courant de nuit),
  • possibilité de délester durant la pointe 1/4 horaire,

Climatiseur individuel

Climatiseur individuel


Principe de fonctionnement

Un climatiseur de local est une machine frigorifique prévue pour extraire la chaleur des locaux et la rejeter à l’extérieur.

Schéma principe climatiseur de local

Le fonctionnement d’un climatiseur est basé sur le changement de phase d’un fluide frigorigène :

  • dans l’évaporateur, le fluide capte la chaleur dans l’air du local et s’évapore;
  • dans le condenseur, le fluide redevient liquide car il est refroidi par l’air extérieur.

Le compresseur a pour rôle de comprimer le gaz, opération accompagnée d’une forte élévation de température qui permettra au fluide frigorifique de céder sa chaleur à l’air extérieur.

Le détenteur relâche la pression, opération accompagnée d’une forte diminution de température nécessaire à l’échange de chaleur avec l’air ambiant.


Typologie des climatiseurs de locaux

On distingue plusieurs types de climatiseurs :

Le climatiseur mobile

C’est un appareil à faible puissance frigorifique (max 2,5 kW), principalement destiné à un usage local. Il impose de laisser un ouvrant entrouvert, ce qui diminue l’étanchéité du local à l’air et aux bruits extérieurs !

Ce système est de moins en moins utilisé. Son emploi se limite souvent aux situations provisoires.

Photo climatiseur mobile.Schéma principe climatiseur mobile.

S’il est monobloc, l’air de refroidissement du condenseur peut être pris soit dans la pièce (perte de puissance jusqu’à 30 % par rapport à la puissance frigorifique annoncée), soit à l’extérieur (cas le plus favorable). Il est rejeté systématiquement à l’extérieur par une gaine flexible;

Photo climatiseur mobile séparé.Schéma principe climatiseur mobile séparé.

S’il est séparé, pour des raisons de mobilité de l’unité extérieure, le compresseur est situé dans l’unité intérieure. La distance entre les deux unités est généralement limitée à 2 m.

Le « Window Unit » ou climatiseur de fenêtre

Le climatiseur de « fenêtre » (« window »), est un climatiseur monobloc installé dans un percement effectué dans une paroi extérieure (mur ou baie).

Schéma principe climatiseur de fenêtre - 01.Schéma principe climatiseur de fenêtre - 02.

Généralement, un seul moteur entraîne simultanément le compresseur et les deux ventilateurs. Si bien que tous les bruits de fonctionnement sont fournis en prime dans le local ! Seuls les amateurs de polars américains (où il y a toujours un window qui vrombit à l’arrière de l’inspecteur, celui-ci basculant sur sa chaise, les deux pieds sur son bureau…) peuvent apprécier ce type de confort … !

Le « split system »

« Split System » signifie « climatiseur à éléments séparés », à savoir que l’unité de condensation est séparée de l’unité d’évaporation.

Avec un split, l’évaporateur est souvent situé dans le local à traiter, tandis que condenseur et compresseur sont situés à l’extérieur (en terrasse, au sol,…), ce qui permet de diminuer le bruit !

Schéma Le "split system" - 01. Schéma Le "split system" - 02. Schéma Le "split system" - 03. Schéma Le "split system" - 04. Schéma Le "split system" - 05. Schéma Le "split system" - 06.

Dans chacun des cas, les unités sont reliées par liaison frigorifique (fluide frigorigène) et cable électrique, dont les longueurs peut être adaptées au cas traité, ce qui autorise une grande souplesse d’installation.

Schéma principe "split system".

Remarque.

pour des raisons esthétiques ou de sécurité, il est également possible de ne pas disposer le condenseur à l’extérieur mais en cave. Ceci n’est uniquement possible que si on garantit une ventilation de la cave (pulsion-extraction) d’un débit au moins égal au débit d’air nécessaire pour le bon fonctionnement du condenseur. Éventuellement, une ventilation mécanique peut être asservie à un thermostat d’ambiance dans la cave pour garantir le débit nécessaire.

Le « multi-split system »

Les unités de condensation et d’évaporation sont séparées et reliées par des liaisons frigorifiques et électriques dont la longueur peut être adaptée au cas traité, ce qui autorise une grande souplesse d’installation.

Schéma multi-split system.

Les unités d’évaporation peuvent être posées diversement, y compris dans un local annexe avec des gaines de soufflage dans 1 ou 2 locaux.

Cas particulier : le Roof-Top

Schéma Roof-Top.

L’unité de condensation et d’évaporation sont intégrées dans le même appareil posé en toiture et relié par une gaine à un diffuseur d’air séparé.

Vue d’un roof-top posé sur une toiture.


Détails technologiques

L’unité d’évaporation

Un ventilateur centrifuge fait circuler l’air intérieur au travers d’un filtre, puis de l’évaporateur, avant de le rejeter au travers de grilles de diffusion dont l’inclinaison est réglable.

Divers emplacements sont possibles pour l’insertion de l’évaporateur :

Schéma insertion de l'évaporateur.

En voici quelques exemples :

En allège.

Au plafond.

En cassette insérée dans un faux plafond.

Remarque.

La vapeur d’eau contenue dans l’air ambiant risque de se condenser au contact de l’évaporateur très froid, aussi doit-on prévoir une conduite d’évacuation des condensats vers l’égout. Si l’écoulement naturel par gravité n’est pas possible, il faudra insérer une petite pompe de relevage des condensats.

L’unité de condensation

Le fluide frigorigène (à l’état vapeur) est comprimé par le motocompresseur hermétique, puis refroidit dans le condenseur, avant d’être détendu et de repartir vers le local.

Photo unité de condensation.

Les liaisons frigorifiques et électriques

Pour simplifier la tâche sur chantier (et rendre l’installation accessible à des non-frigoristes), les conduites de raccordement en cuivre sont préchargées en fluide frigorigène et équipées de raccords rapides. Lors du montage, les opercules sont automatiquement perforés.

Leur longueur ne dépasse pas 10 à 15 m généralement pour limiter les pertes de charge. La tuyauterie ramenant le fluide détendu vers l’évaporateur sera soigneusement isolée car l’échauffement du fluide dans le conduit,… c’est autant de puissance frigorifique perdue pour l’évaporateur. Et même si elle reste suffisante, c’est une perte qui diminue le rendement de la machine : son coefficient de performance.

Voici les connexions d’un multisplit : 3 évaporateurs sont reliés à un condenseur commun.

Le retour d’huile

L’huile est naturellement entraînée par le fluide frigorigène liquide vers l’évaporateur. Par contre, il est nécessaire d’organiser volontairement le retour de l’huile vers le compresseur lorsque le fluide est à l’état vapeur :

  • Soit le compresseur est situé plus bas que l’évaporateur, et la gravité fera le travail sur base d’une pente descendante de 1 cm par mètre.
  • Soit le compresseur est situé plus haut que l’évaporateur, et un siphon devra être prévu; on provoque alors volontairement un bouchon d’huile afin que la vapeur, en forçant le passage, entraîne l’huile avec elle. Comme ce système ne fonctionne que sur quelques mètres, un tel siphon devra être prévu au minimum tous les 5 mètres de dénivellation.

À défaut, c’est la lubrification du compresseur qui risque d’être insuffisante, et sa longévité aussi…


En option : la fonction « chauffage »

Si une fonction « chauffage » est recherchée, trois systèmes sont possibles.

Solution 1 : incorporer une résistance électrique d’appoint, en fonctionnement direct

Cette solution est coûteuse à l’exploitation, vu le prix du kWh de jour.

Solution 2 : incorporer une batterie d’eau chaude alimentée par le réseau de chauffage du bâtiment

Cette solution est peu utilisée car coûteuse à l’investissement. Un thermostat d’ambiance commande l’apport de chaleur, soit via une vanne trois voies modulant la température de l’eau, soit directement sur le ventilateur.

Solution 3 : sélectionner une machine frigorifique « réversible » capable de fonctionner en pompe à chaleur

Dans une machine frigorifique, le cycle peut être inversé grâce à l’utilisation d’une vanne à quatre voies à la sortie du compresseur : l’évaporateur devient condenseur et le condenseur devient évaporateur. C’est un climatiseur dit « réversible ».

On parle d’un fonctionnement en « pompe à chaleur » puisque c’est la chaleur de l’air extérieur qui est utilisée pour chauffer l’air du local.

Le surcoût de l’appareil est faible (de 15 à 25 %) et le prix de revient du kWh fourni est 2 à 3 fois plus faible que dans le cas du chauffage direct, … Hélas, la puissance de l’appoint de chaleur est le plus faible au moment où on en a le plus besoin, c.-à-d. par période de gel… Et à ce moment, le coefficient de performance frigorifique est assez dégradé.


En option : la fonction « ventilation »

Certains appareils disposent d’une prise d’air neuf permettant d’adjoindre une fonction ventilation au matériel.

A ne pas confondre avec le brassage d’air en recyclage total proposé par tous les appareils : dans ce cas, le ventilateur fonctionne seul et l’air du local passe simplement par le filtre sommaire qui retient les plus grosses particules en suspension. Il est, par exemple, impossible d’améliorer la qualité de l’air d’un local « fumeur » avec ce principe. Seule, une réelle dilution par de l’air neuf apportera l’amélioration recherchée.


La régulation du climatiseur

La régulation de la température ambiante

La température ambiante du local conditionné est régulée au moyen d’un thermostat d’ambiance agissant sur le fonctionnement du compresseur. Le ventilateur de soufflage fonctionne en même temps que le compresseur, ou fonctionne en continu. Ce deuxième mode de fonctionnement est plus favorable au confort car il entretient un brassage continu de l’air et prévient toute stagnation inconfortable d’air chaud ou froid.

photo télécommande.

Au simple contrôle de la température ambiante doivent s’ajouter des fonctions de programmation de l’occupation, avec arrêt et reprise (éventuellement anticipées) de manière intelligente.

La régulation du compresseur

Un climatiseur, dimensionné pour vaincre les apports thermiques maximum (solaires, par exemple), fonctionne très souvent à charge partielle. Le contrôle traditionnel par mode MARCHE/ARRET du climatiseur entraîne des fluctuations inconfortables de la température du local et des mauvaises conditions de rendement du compresseur.

Schéma régulation - 01.

Les climatiseurs équipés de compresseurs à vitesse variable peuvent adapter leur puissance frigorifique à la charge thermique du local. Ce mode de régulation est appelé « INVERTER ». Il permet une variation de vitesse du compresseur sans pertes importantes de rendement. Le démarrage du compresseur se fait alors à basse vitesse, ce qui réduit la pointe de courant au démarrage.

La technologie INVERTER présentait autrefois quelques inconvénients tels les parasites qu’elle induit dans le réseau électrique. Dans un très proche avenir, ces inconvénients devraient disparaître (utilisation de moteurs à courant continu pour les plus petites puissances, marquage « CE », …) et permettre au système « INVERTER » de couvrir le marché.

Schéma régulation - 02.

Lorsqu’une unité extérieure alimente plusieurs unités intérieures (système multi split), l’ambiance de chaque local doit pouvoir être régulée séparément (y compris la coupure en cas d’inoccupation). Dans ce cas, une régulation en vitesse variable du compresseur permettra d’adapter la puissance de production de froid en fonction des besoins totaux réels.

Suite à ce nouveau mode de régulation, la technique traditionnelle du compresseur alternatif (piston et vilebrequin), d’une fiabilité légendaire, est progressivement remplacée par :
>  le compresseur rotatif :

  • rendement similaire,
  • niveau sonore moindre,
  • fonctionnement à vitesse variable.

>  le compresseur scroll :

  • rendement plus élevé,
  • niveau sonore encore plus faible,
  • fonctionnement à vitesse variable.

La régulation du condenseur

Certains locaux à charges internes importantes (par exemple, les salles informatiques) doivent être climatisés en été, mais aussi en mi-saison ou encore en hiver. Dans ce cas, lorsque la température de l’air extérieur diminue, la capacité de refroidissement du condenseur augmente.

Paradoxalement, cette situation perturbe le fonctionnement correct de l’évaporateur et entraîne une perte de puissance de ce dernier dernier (voir détails dans la régulation de la machine frigorifique). Le confort dans le local n’est alors plus assuré. À l’extrême, le pressostat basse pression de sécurité de l’appareil peut commander l’arrêt de l’installation.

Pour remédier à ce problème, il faut que la puissance du condenseur soit régulée en fonction de la température extérieure. Si la température de l’air diminue, le débit d’air doit aussi diminuer afin de conserver un échange constant.

Idéalement, on choisira un ventilateur de condenseur à vitesse variable. Ainsi, un climatiseur devant fonctionner pour des températures extérieures inférieures à 17°C doit être équipé d’un ventilateur de condenseur à vitesse variable. La diminution de vitesse du ventilateur est alors commandée par un pressostat ou un thermostat placé sur le condenseur. La puissance d’échange de celui-ci est ainsi maintenue constante quelle que soit la saison.

À défaut, la vitesse sera modulée par paliers. Au minimum, le fonctionnement du ventilateur sera commandé en tout ou rien.

Choix et emplacement du thermostat d’ambiance

Au simple contrôle de la température ambiante doit s’ajouter, pour assurer un fonctionnement économique, des fonctions de programmation de l’occupation, avec arrêt et reprise éventuellement anticipés de manière intelligente.

De plus, idéalement, le climatiseur devrait pouvoir profiter d’une régulation de température de consigne compensée en fonction de la température extérieure. Ce lien, qui est automatisé dans les installations complètes de conditionnement d’air, doit être réalisé manuellement pour les climatiseurs.

Ainsi, un écart de 6°C maximum sera créé, afin de ne pas provoquer de « choc thermique » inconfortable lors de l’accès au bâtiment.

Il revient donc à l’occupant consciencieux de modifier manuellement la consigne de température en fonction de la température extérieure. Pour des raisons d’économies d’énergie et de confort, on ne peut maintenir une consigne de température à 22°C, par exemple, si la température extérieure est de 32°C. Dans ce cas la consigne doit être ajustée à 26°C au minimum.

Le ventilateur de soufflage est soit commandé en même temps que le compresseur, soit fonctionne en continu. Ce deuxième mode de fonctionnement est plus favorable au confort, car il entretient un brassage continu de l’air et prévient toute stagnation inconfortable d’air chaud ou froid. Mais il suppose que les aspects acoustiques soient soigneusement étudiés.

L’emplacement du thermostat joue un rôle important sur la consommation et sur le confort. Il doit être placé à un endroit représentatif de la température moyenne du local, c’est-à-dire éloigné des sources chaudes ou froides (lampe, fenêtre en été, zone ensoleillée, dans la zone de soufflage de l’appareil, …). Le placer dans le local sera donc préférable que de le placer dans la bouche de reprise. Par exemple, si la commande se trouve sur l’appareil au plafond, l’occupant ne prendra pas la peine d’ajuster la consigne de température !

Dans le cas contraire, il devra être étalonné.

Exemple.

Le thermostat est placé à l’extrémité d’un bureau, dans la zone d’influence du climatiseur, mais éloigné de la zone d’occupation habituelle. Lorsque celui-ci mesure 28°C, une température de 24°C règne à l’endroit où les personnes se trouvent.

Les occupants, croyant agir alors correctement, risquent d’abaisser le thermostat jusqu’à 24°C, entraînant une chute de la température ambiante inconfortable et des surconsommations inutiles.

La commande du thermostat doit donc être étalonnée pour être représentative de l’ambiance réelle.

Zones à proscrire pour l’implantation de la sonde de régulation

  1. Influence d’une source chaude.
  2. Influence de l’air extérieur.
  3. Influence de l’ensoleillement.
  4. h < 1 m.
  5. h > 2 m.
  6. Influence de l’air soufflé.

L’emplacement de la commande du thermostat et sa facilité de manipulation jouera un rôle sur la gestion efficace de l’ambiance par l’occupant. Par exemple, si la commande se trouve sur l’appareil au plafond, l’occupant ne prendra pas la peine d’ajuster la consigne de température…

 

Modèles d’isolation – plancher lourd sans aire de foulée

Modèles d'isolation - plancher lourd sans aire de foulée

L’isolation du plancher lourd de combles non circulables peut se faire par divers systèmes :


Matelas souple ou semi-rigide sur le plancher

L’isolant utilisé, en générale de la laine minérale, peut être souple (en rouleaux) ou semi-rigide (en panneaux). Les rouleaux peuvent éventuellement être revêtus d’un papier kraft et/ou d’un pare-vapeur.

Le pare-vapeur éventuel est déroulé soigneusement sur le plancher lourd.

L’isolant est ensuite déposé de façon continue, les panneaux ou rouleaux étant parfaitement jointifs. Si l’isolant est muni d’un pare-vapeur, celui-ci doit se trouver en dessous de l’isolant.

L’isolant sera correctement fixé sur les parties verticales ou inclinées.

Matelas isolant souple ou semi-rigide au-dessus d’un plancher lourd non circulable.

  1. Isolant.
  2. Pare-vapeur éventuel.
  3. Support lourd.
  4. Finition du plafond.

Panneaux rigides sur le plancher

L’isolant utilisé peut être de la mousse synthétique ou du verre cellulaire.

La face supérieure du plancher lourd doit être bien plane. Il faut donc, au besoin, l’égaliser à l’aide d’une fine chape ou de sable.

Le pare-vapeur éventuel est déroulé soigneusement sur le plancher lourd avant la pose de l’isolant.

L’isolant est ensuite déposé de façon continue.

Les panneaux en mousse synthétique sont munis de rainures et languettes, ils doivent être correctement emboîtés.

Les panneaux en verre cellulaire sont posés jointifs.
L’isolant doit être correctement fixé sur les parties inclinées ou verticales éventuelles.

Isolant rigide au-dessus d’un plancher lourd non circulable.

  1. Isolant.
  2. Emboîtement.
  3. Pare-vapeur éventuel.
  4. Egalisation éventuelle.
  5. Support lourd.
  6. Finition du plafond.

Flocons ou granulés d’isolant sur le plancher

Le matériau isolant utilisé est constitué de granulés de perlite ou de polystyrène expansé, ou de flocons de laine minérale posés en vrac sur le plancher lourd.

On sera attentif à ce que l’épaisseur soit régulière.

Lorsqu’un pare-vapeur est nécessaire, celui-ci est placé sur le plancher avant pose de l’isolant.

Isolant posé en vrac au-dessus d’un plancher lourd non circulable.

  1. Isolant en vrac.
  2. Pare-vapeur éventuel.
  3. Support lourd.
  4. Finition du plafond.

Isolant sous le plancher : une solution à éviter !

L’isolant est fixé sous le plancher lourd.

La fixation est difficile et dépend du type d’isolant.

Un pare-vapeur efficace indispensable (sauf en cas d’utilisation du verre cellulaire) est soigneusement placé sous l’isolant. Les joints seront particulièrement soignés. Il ne peut pas être déchiré.

La finition du plafond est ensuite réalisée en prenant toutes les précautions nécessaires pour éviter de blesser le pare-vapeur.

Aucune installation technique ne pourra être aménagée dans le plafond.

Le plancher lui-même ne pourra être percé.

Un espace technique pourrait éventuellement être aménagé entre le pare-vapeur et le plafond.

Toute cette mise en œuvre nécessite un soin parfait difficile à réaliser sur chantier.

Isolation en dessous du plancher lourd non circulable.

  1. Plancher lourd.
  2. Isolant.
  3. Pare-vapeur.
  4. Finition du plafond.

Évaluer l’utilisation des ordinateurs


Les profils d’utilisation

Le tableau suivant reprend pour un immeuble de bureaux, le mode d’utilisation des ordinateurs en fonction du type de travail (enquête réalisée auprès de 3 500 personnes) :

Utilisation régulière % Utilisation intermittente % Non utilisateur %
Direction 45 45 10
Dactylo 100 0 0
Employés 52 33 15
Dessinateurs 40 47 13
Comptables 78 7 15
Informaticiens 85 15 0

Un comportement irrationnel d’un point de vue énergétique consiste souvent à maintenir les équipements sous tension alors qu’ils ne sont pas utilisés.

Une attitude extrême, malheureusement souvent rencontrée, est la mise sous tension de son ordinateur le matin dès l’arrivée (pour relever le courrier électronique, taper une lettre, …). L’ordinateur est alors oublié pour la plus grande partie de la journée, mais reste en fonctionnement : « … si on l’éteint, cela prend du temps pour le relancer et il est possible qu’il serve encore durant la journée … »

Ces attitudes vont donc énormément conditionner les consommations énergétiques des équipements informatiques.

On se réfère aux modes d’utilisation décrit par ouverture d'une nouvelle fenêtre ! Energy Star. On retrouve une estimation du temps d’utilisation d’un ordinateur :

  • À domicile en se basant sur une activité liée à la navigation internet et au courrier électronique et ce pendant 300 jours en moyenne par an.
    Dans un bureau de taille moyenne en se basant sur la gestion du courrier électronique, la recherche occasionnelle d’information sur internet, le travail avec un traitement de texte et tous les outils de bureautique actuels pendant 240 jours (en tenant compte des WE et des congés).
  • Dans un bureau avec grande activité (des heures supplémentaires, ça existe encore ?)
  • Jamais éteint la nuit (profil courant dans un bureau moyen) mais avec le mode « attente » activé.
  • Toujours actif, ce qui correspond au fonctionnement des serveurs ou des ordinateurs dont la gestion de l’alimentation est désactivée.

Dans le tableau suivant, on retrouve tous les profils d’utilisation :

Type d’utilisation de l’ordinateur Heures de fonctionnement
(
ouverture d'une nouvelle fenêtre !  source Energy Star)
Mode actif Mode attente Mode arrêt

À domicile

2 9 13

Bureau de taille moyenne

4 5 15

Bureau à grande activité

8 2 14

Jamais éteint

4 20 0

Toujours actif

24 0 0

Sous forme graphique, cela donne :


Gestion de l’alimentation électrique de l’ordinateur et de l’écran

On distingue trois façons de gérer l’alimentation électrique :

  • Gestion désactivée : l’utilisateur travaille en mode « toujours actif ».
  • Fonction normale : l’utilisateur configure sa machine pour un mode « attente » effectif après 30 minutes (par défaut sur les machines récentes).
  • Fonction économie d’énergie : ce mode de fonctionnement est similaire à celui d’un portable mais peut être appliqué à un ordinateur classique avec un mode « attente » effectif après 10-15 minutes.

En combinant ordinateur, écran, mode d’utilisation et type de gestion de l’alimentation électrique, on peut déterminer la consommation énergétique annuelle.

Exemple.

Cas 1

On prend un PC multimédia équipé d’un écran CRT de 17″ (tube cathodique classique) installé dans un bureau de taille moyenne et dont la fonction de gestion de l’alimentation électrique passe par les trois états suivants :

  • Gestion désactivée,
  • fonction normale,
  • fonction économie d’énergie.

L’encodage des données dans le calculateur Energy Star donne :

 

Gestion de l’alimentation électrique

 

Consommation d’énergie annuelle [kWh/an] ( ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode attente Mode arrêt Total

Désactivé.

86,4 388,8 91,8 567

Fonction normale.

86,4 64,8 91,8 243

Fonction économie d’énergie.

64,8 68,4 91,8 225

Sous forme graphique :

Cas 2

Tout en gardant le PC multimédia, on remplace l’écran CRT 17″ (à tube cathodique) par un écran de même taille mais de type plat LCD 17″ (à cristaux liquides).

Les résultats sont consignés dans les tableaux et graphiques ci-dessous :

Gestion de l’alimentation électrique  

Consommation d’énergie annuelle [kWh/an]
(ouverture d'une nouvelle fenêtre ! source Energy Star)

 

 

Mode actif Mode attente Mode arrêt Total

Désactivé.

69,6 313,2 79,5 462,3

Fonction normale.

69,6 54 79,5 203,1

Fonction économie d’énergie.

52,2 52 79,5 188,7

Cas 3

L’ensemble de l’installation est remplacé par un portable haut de gamme équipé d’un écran LCD de 17″.

De nouveau, les résultats sont consignés dans les tableaux et graphiques ci-dessous :

 

Gestion de l’alimentation électrique

 

Consommation d’énergie annuelle [kWh/an]
(
ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode attente Mode arrêt Total

Désactivé.

16,8 75,6 42,8 135,2

Fonction normale.

16,8 32,4 42,8 92

Fonction économie d’énergie.

12,6 34,2 42,8 89,6

Au vu de l’exemple pris ci-dessus, on peut en conclure que :

  • L’activation de la fonction « normale », et plus encore la fonction « économie d’énergie », permet de réduire de manière draconienne les consommations dans les espaces de temps où l’utilisateur ne travaille pas sur son ordinateur. Les nouvelles machines, en général, sont configurées par défaut avec la fonction « normale » qui, au bout de 30 minutes d’inactivité de l’ordinateur, le place en mode « attente » (coupure de l’alimentation de l’écran, du disque dur, …).
  • Visiblement, les écrans classiques CRT (à tube cathodique) sont très gourmands en énergie par rapport aux écrans LCD (à cristaux liquides), soit + 19 %.
  • Enfin, la venue du portable, vient encore plus bousculer les configurations classiques des ordinateurs. Les consommations sont bien plus faibles.

On divise par 4 les consommations !


Gestion sécurisée de l’alimentation électrique

Il ne faut pas oublier que l’emploi d’un onduleur (alimentation ininterrompue), pour palier aux micro coupures parfois présentes sur le réseau électrique, génère des consommations sachant que la puissance dissipée est, suivant le modèle et ses caractéristiques, de l’ordre de 8 à 25 W.

Exemple.

Un onduleur (UPS) alimentant un PC multimédia et un écran LCD 17″ (à cristaux liquides) fonctionnant toute l’année (8 760 heures) consommera de l’ordre de 87 [kWh/an].

 

Gestion de l’alimentation électrique

 

Consommation d’énergie annuelle [kWh/an]
(
ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode attente Mode arrêt Total

 

Avec onduleur.

 

86,4 151,8 91,8 330

 

Sans onduleur.

 

86,6 64,8 91,8 243


La climatisation

Pour être complet dans l’évaluation des consommations d’énergie, il faut inclure dans le bilan final les consommations qui proviennent de la climatisation (si présente) parfois nécessaire pour réduire les apports internes dus en partie à la bureautique.

Exemple.

On prend un climatiseur avec un COP (coefficient de performance de la machine) de 3 fonctionnant pendant 3 mois.

Le calcul tient compte de :

puissance électrique des équipements / COP x (nombre de mois de climatisation / 12).

 

Gestion de l’alimentation électrique

 

Consommation d’énergie annuelle [kWh/an]
(
ouverture d'une nouvelle fenêtre ! source Energy Star)
Mode actif Mode attente Mode arrêt Climatisation Total

 

Avec climatisation

 

86,4 64,8 91,8 20,2 263,2

 

Sans climatisation

 

86,6 64,8 91,8 0 243

Ambiances froides

Améliorer le confort thermique des ambiances froides

Ambiances froides

Fermer les ouvertures des meubles ouverts

Cela paraît tellement évident !

Le seul « hic » c’est que pratiquement une grosse majorité des commerçants et fabricants ont une démarche inverse, à savoir plus les ouvertures sont grandes, plus les produits sont accessibles aux consommateurs (question de marketing de vente dit-on !). Le confort naturellement s’en ressent vu que les échanges thermiques s’effectuent dans les deux sens :

  • par induction et convection, le rideau d’air échangé « rejette » une partie du froid créé à l’intérieur du meuble. Ce qui signifie que la température de l’air à proximité des meubles ouverts descend jusqu’à des valeurs de l’ordre de 16°C à 1,5 m du sol et bien moins à hauteur du sol si le rideau d’air est perturbé et se déforme au point que la bouche de reprise ne puisse assurer son rôle de récupération du flux du rideau d’air;

 

  • par rayonnement des parois froides intérieures au meuble et le corps humain.

Les meubles verticaux ouverts

Ce sont principalement ces meubles qui sont responsables de tous les problèmes que rencontrent les commerces alimentaires. Problèmes :

  • d’apports thermiques externes (l’ambiance du magasin interagit avec le meuble principalement par son ouverture. Le bilan énergétique pour maintenir les températures adéquates des denrées devient catastrophique tant au niveau environnemental que financier;

 

  • de confort vu l’importance des surfaces d’échange mises en jeu tant au niveau de l’induction que du rayonnement.

La surface d’exposition du meuble représente bien la surface d’échange :

  • du rideau d’air par induction;

 

  • vue par les clients au niveau du rayonnement.

Chauffer les allées froides

Après ce qui vient d’être dit plus haut, difficile à croire que la seule issue possible à l’inconfort des « allées froides » est leur chauffage.

Pourtant, on observe dans les commerces de grandes surfaces que les techniciens tentent de trouver des solutions pour réduire l’inconfort en chauffant l’air ambiant surtout en période chaude, ce qui est un paradoxe !

Si vous êtes convaincu que vous allez  perdre votre clientèle en fermant les ouvertures des meubles ouverts, alors tenter de placer un chauffage qui puisse vous garantir un confort relatif tout en limitant les dégâts énergétiques.

L’idée de beaucoup de spécialistes qui « planchent » sur le sujet est de tenter de récupérer la chaleur rejetée par les condenseurs des machines frigorifiques plutôt que de la répandre à l’extérieur.

Concevoir

Pour en savoir plus sur la récupération de chaleur.

Dans les démarches, on retrouve principalement la mise en place de chauffage :

  • de l’air de haut en bas vers les allées froides par des aérothermes ou par des bouches de pulsion de centrale de traitement d’air. Sans entrer dans les détails, ce type de chauffage apporte un confort relatif tout en augmentant :
    • les apports externes par le mélange de l’air chaud avec le rideau d’air des meubles;
    • les consommations des ventilateurs soufflant l’air vers le bas, surtout dans les espaces de vente de grande hauteur;
    • les consommations des machines frigorifiques puisque, dans le cas où on récupère la chaleur fournie par le condenseur, la température de condensation doit être de l’ordre de 50-70°C; ce qui dégrade la performance (COPfroid) du compresseur;

  • de l’air de bas en haut, ou du pied des meubles vers les allées froides comme le montre le schéma ci-dessous. Ce type de chauffage « devrait donner » intuitivement un meilleur résultat énergétique sachant que naturellement l’air chaud monte. Il est juste nécessaire de le mettre en mouvement sans trop de consommation du ventilateur et que la température peut être plus faible et donc contribuer à réduire les températures de condensation en cas de récupération de la chaleur du condenseur;

  • du sol par la récupération de la chaleur des condenseurs des machines frigorifiques. Ce système « pourrait avoir » des avantages :
    • en terme de confort, le chauffage au sol devrait apporter un plus par radiation;
    • en terme énergétique, puisque la température de condensation serait de l’ordre de 30 à 45°C et donc favorable au maintien de consommation électrique acceptable au niveau du compresseur.

Attention que l’on a très peu de recul par rapport au confort et à l’énergie mise en jeu au niveau de ces systèmes. Une valeur de puissance spécifique de plancher chauffant que l’on rencontre régulièrement est de l’ordre de 100 [W/m²]; ce qui reste relativement faible par rapport à d’autres systèmes de chauffage.

Si vous avez expérimenté ce genre de système, Énergie+ vous serait mille fois reconnaissant de nous faire part de votre expérience.


Cas particulier des ateliers

Dans les ateliers de boucherie, traiteur, …, les durées de travail peuvent être importantes. Il est dès lors nécessaire de pallier au manque de confort qui règne dans ces zones (des températures de maximum 12°C sont exigées pour garantir le maintien de la chaine de froid) par l’adaptation :

  • de l’habillement du personnel;
  • des vitesses d’air des systèmes de climatisation basse température.

Adaptation de l’habillement du personnel et des temps de pose

La récupération d’un certain confort de travail dans ce type d’ambiance passe naturellement par la mise à disposition de vêtements de travail adéquats afin d’éviter les premiers symptômes de refroidissement du corps.

L’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index) permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être satisfait lorsque la température est inférieure à 10°C. Un IREQ couramment rencontré est 2,6.

Aussi, l’évaluation de la « température cutanée du dos de la main » permet d’établir un seuil en dessous duquel la dextérité des mains se réduit; c’est le cas en dessous de 24°C. Dès cet instant, il est nécessaire d’adapter son temps de travail exposé et de choisir un type de gant adapté à la tâche.

Évaluer

Pour en savoir plus sur la récupération de chaleur.

Adaptation de la vitesse d’air des systèmes de climatisation à basse température

On admet couramment que la vitesse de déplacement de l’air ne puisse dépasser 0,2 m/s pour ne pas rendre le travail en milieu froid plus pénible encore.
L’utilisation des gaines textiles ou « manchons textiles » est un moyen intéressant d’allier basse température d’air avec vitesse d’air faible.

Manchon textile (source Prodeus).

(+)

  • L’homogénéité de la diffusion sur tout le réseau de gaines textiles apporte un confort thermique indéniable et permet d’éviter :
    • les courants d’air (vitesse de déplacement de l’air faible < 0,2 m/s);
    • les poches d’air froid ou d’air chaud caractéristique des installations offrant un piètre mélange de l’air diffusé avec l’air ambiant de par une mauvaise circulation d’air;
    • les risques de zones mortes existants sur les systèmes classiques.
  • la facilité d’installation dans une zone existante;
  • la facilité d’entretien (hygiène accrue);

(-)

  • leur coût d’achat plus élevé;

Le degré de confort et de l’uniformité est essentiellement fonction :

  • de la vitesse de diffusion ou le débit surfacique [m³/m² de tissu / heure];
  • et le T (différence de température entre la température ambiante et la température de soufflage).

Plus le T est élevé, plus il faudra assurer un débit surfacique faible.

À titre d’exemple, pour un  T de 4 °C, une vitesse de diffusion maximale de 0,1 m/s donnera des résultats satisfaisants.

De plus, lorsque la hauteur du local augmente, le T augmente aussi. Il faudra donc être vigilant sur le dimensionnement des gaines textiles, afin d’obtenir un débit surfacique aussi bas que possible.

Le site XPAIR ouverture d'une nouvelle fenêtre ! (http://www.xpair.com) explique plus en détail ce type de système de diffusion d’air à basse vitesse.

Connaître les détails techniques du mur creux

Connaître les détails techniques du mur creux


3 Principes de base

Remarque : il n’est pas possible de donner une liste exhaustive de tous les détails techniques corrects que l’on peut rencontrer dans les murs creux. Aussi, nous avons préféré expliquer les différentes fonctions à assurer au niveau thermique et montrer la façon d’y arriver dans quelques cas précis de manière à avoir « les outils » pour pouvoir évaluer l’efficacité de tout autre détail de conception.

Afin d’assurer confort et efficacité énergétique, le mur creux doit assurer 3 fonctions de base :

l’étanchéité à l’eau,
l’isolation,
l’étanchéité à l’air.

Ces fonctions doivent être assurées de manière continue. Pour ce faire, elles doivent l’être :

  • aussi bien au niveau des parties courantes des murs,
  • qu’au niveau des différents points particuliers c.-à-d. au niveau des différentes jonctions (avec un châssis, avec la fondation, avec un plancher, avec une terrasse, avec la toiture, etc.) (= « détails techniques« ).

L’étanchéité à l’eau

(contre les infiltrations d’eau de pluie, l’humidité ascensionnelle, les eaux de nettoyages, ….)

> Parties courantes : le principe même du mur creux permet d’assurer une bonne étanchéité à l’eau de pluie.
> Chaque interruption de la coulisse doit être drainée par une membrane d’étanchéité placée en escalier vers l’extérieur et des joints verticaux laissés ouverts de manière à rejeter l’eau qui a pénétré dans la coulisse.
> A chaque ouverture dans le mur (fenêtres, …), il faut veiller à ce que l’eau soit rejetée vers l’extérieur et ne puisse pénétrer à l’intérieur.
> Les matériaux doivent être protégés de l’humidité ascensionnelle, des eaux de nettoyage ou de toute autre source d’eau.

 L’isolation

> Dans les parties courantes du mur creux, l’isolation doit être continue dans la coulisse.

Une discontinuité dans l’isolation des parties courantes engendre des pertes de chaleur supplémentaires de deux types :

  • des pertes par convection  par circulation d’air autour des panneaux (principalement pour les murs à remplissage partiel de la coulisse). Un espace de 5 mm suffit pour provoquer une rotation spontanée de l’air.

Schéma isolation continue dans la coulisse.

> Au droit de chaque nœud constructif, il doit y avoir continuité de la coupure thermique. Cela suppose :

Schéma isolation et nœud constructif.

  1. soit la continuité de l’isolation (cas idéal),
  2. soit l’interposition d’un élément isolant ,
  3. soit l’équivalence de la résistance thermique par un allongement du « chemin » à faible résistance thermique.

 L’étanchéité à l’air

> Outre qu’elle diminue les déperditions thermiques, l’étanchéité à l’air est très importante car elle conditionne le bon fonctionnement de l’étanchéité à l’eau du mur creux.

Elle permet une mise en équilibre des pressions de part et d’autre de la maçonnerie de parement. En l’absence d’une barrière à l’air efficace, l’eau qui aurait traversé la maçonnerie de parement au droit d’une petite discontinuité pourrait être projetée au point d’atteindre la paroi intérieure lorsque celle-ci est exposée à des pluies accompagnées de vent.

     

Pas d’étanchéité à l’air côté intérieur.   Étanchéité à l’air côté intérieur.

Elle est assurée :

> Dans les parties courantes du mur creux, par un enduit appliqué sur le mur intérieur.
> Aux jonctions entre mur et châssis, par les joints d’étanchéité (fond de joint + mastic).

Partie courante et angle d’un mur

Schéma mur creux et étanchéité à l'eau.

L’étanchéité à l’eau

Le principe même du mur creux est d’offrir une barrière efficace à l’eau de pluie.

En effet, la lame d’air entre la maçonnerie de parement et le mur porteur intérieur constitue une interruption dans les matériaux qui permettent l’acheminement de l’eau. Elle empêche donc l’eau qui aurait pu passer au travers de la maçonnerie de parement, de continuer son chemin vers l’intérieur du bâtiment.
De plus, elle permet de récolter l’eau qui a réussi à traverser le mur de parement pour la renvoyer vers l’extérieur.

Pour que ce principe de barrière capillaire fonctionne bien, il faut cependant :

  • Que le mur intérieur soit étanche à l’air.
  • Que la coulisse (3) ait une épaisseur totale de 6 cm au moins de manière à former une véritable rupture capillaire.
    Remarquons qu’une coulisse remplie complètement d’un isolant non capillaire et hydrophobe reste une coupure capillaire.
    Dans le cas d’un mur creux isolé à remplissage partiel, la lame d’air restante doit être d’au moins 3 cm.
  • Que la coulisse soit drainée au bas du mur.
  • Que la maçonnerie de parement (1) soit, de préférence, réalisée au moyen de matériaux capillaires.
    En effet, une maçonnerie capillaire peut absorber l’eau qui a pénétré par les inévitables microfissures du parement et par les joints ainsi que l’eau qui ruisselle sur ses faces externe et interne. Ainsi des matériaux de parement capillaires engendrent des pénétrations d’eau dans la coulisse beaucoup moins rapides et abondantes que des matériaux peu capillaires.
  • Que, dans le cas d’un mur creux isolé avec remplissage intégral de la coulisse, l’isolant (4b) soit non capillaire et hydrophobe (c.-à-d. qu’il ne peut ni s’humidifier dans la masse, ni transférer l’eau qui aurait traversé la maçonnerie de parement.
  • Que les crochets (5a et 5b) soient inclinés vers l’extérieur (remplissage intégral d’isolant) ou munis de casse-gouttes (remplissage partiel d’isolant).

Précautions supplémentaires lors de l’exécution

Il ne peut pas y avoir de déchets de mortier dans la coulisse.

Les joints doivent être bien fermés, le mortier de bonne qualité.

Les joints entre les panneaux isolants doivent être fermés de manière à éviter le passage d’eau entre ceux-ci.

Dans le cas d’un remplissage partiel de la coulisse, les panneaux doivent être bien maintenus contre le mur intérieur par les rondelles de manière à empêcher tout contact entre le mur de parement et le mur intérieur càd de manière à garder efficiente la coupure capillaire que forme la coulisse.

L’isolation

  • Les panneaux isolants (4a et 4b) choisis doivent être rigides ou semi-rigides pour ne pas s’affaisser dans la coulisse.
  • Dans le cas d’un remplissage partiel de la coulisse, les rondelles doivent bloquer l’isolant contre le mur intérieur.

Précautions supplémentaires lors de l’exécution

  • Les panneaux isolants doivent être protégés et manipulés avec précaution sur chantier. Il faut éviter les écrasements, la boue, les déchirures, … afin de préserver leur structure qui est à l’origine de leur pouvoir isolant.

Schéma mur creux et isolation.

    • La surface du mur porteur doit être propre et plane de manière à assurer le contact entre mur porteur et isolant (1).
    • Les panneaux doivent être posés de manière jointive. Les joints sont, de préférence alternés. En surface on utilise des bandes adhésives pour recouvrir les joints et/ou des panneaux à emboîtement (2a). Les angles peuvent être recouverts à l’aide de bandes adhésives (2b).
    • Les crochets, qui servent, entre autres, au maintien de l’isolant contre le mur intérieur, dans le cas d’un remplissage partiel de la coulisse, doivent être en nombre suffisant : 5 par m² en surface (3a), 5 par mètre courant aux angles (3b) et 3 par mètre courant autour de la baie. Ils doivent être bien ancrés.
  • Pendant l’exécution du mur, la coulisse doit être protégé (utilisation de membranes et de voliges temporaires) contre la pluie.

L’étanchéité à l’air

L’étanchéité à l’air est assurée par un enduit (7) (plafonnage, le plus souvent) sur la face interne du mur intérieur. Celui-ci réduit fortement les infiltrations d’air dans le bâtiment.
S’il n’est pas possible d’appliquer l’enduit sur la face vue de la paroi intérieure (maçonnerie intérieure apparente), on applique un enduit de ciment du côté coulisse de ce même mur.

L’enduit est moins indispensable lorsque le creux du mur est pourvu de panneaux isolants peu perméables à l’air (tels que mousse de polyuréthane, polystyrène expansé, etc.) avec jonctions bien jointives.

Précautions supplémentaires lors de l’exécution

Les joints des maçonneries intérieures et extérieures doivent être bien fermés.


Pieds de façade

Cas d’un plancher sur terre-plein

Schéma isolation et plancher sur terre-plein.

  1. Mur de structure.
  2. Bloc isolant.
  3. Isolation sur dalle.
  4. Joints verticaux ouverts.
  5. Membrane d’étanchéité.
  6. Membrane d’étanchéité.
  7. Feuille d’étanchéité.
  8. Feuille d’étanchéité.
  9. Feuille d’étanchéité.
  10. Interruption de l’enduit.
  11. Enduit.

L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus de la fondation. Il faut donc la drainer à ce niveau pour renvoyer l’eau infiltrée à l’extérieur. Ce drainage est réalisé au moyen d’une membrane d’étanchéité (5) posée « en escalier » et des joints verticaux ouverts (4) (1 joint ouvert par mètre) dans la rangée de briques de parement juste au-dessus de la membrane.
    Remarque : ces joints ne servent donc pas à uniquement à ventiler la coulisse mais aussi à la drainer.
  • La membrane (6) et la feuille d’étanchéité (7) protègent le pied du mur et la dalle sur sol contre l’humidité ascensionnelle.
  • Les feuilles d’étanchéité (8) et (9) protègent l’isolant contre les eaux de nettoyage et contre l’humidité de construction de la dalle de sol.Remarque : l’utilisation d’un soubassement est tombée en désuétude ces dernières années. Or, en plus de sa fonction architecturale, ce soubassement protégeait la maçonnerie des éclaboussures.

L’isolation

  • L’isolant sur la dalle (3) freine le transfert de chaleur par conduction vers le sol.
  • La continuité entre l’isolation du mur (1) et celle du sol est assurée par un bloc plus isolant (2) que le reste du mur (bloc de béton cellulaire ou d’argile expansée).Remarque : dans certains cas, pour des raisons de stabilité, par exemple, un bloc isolant ne peut être utilisé. Il faut alors trouver un autre moyen de neutraliser le pont thermique : on place un isolant sur le trajet de la chaleur.

       

Sans correction du pont thermique et avec correction du pont thermique.

L’étanchéité à l’air

Interruption (10) de l’enduit (11) au-dessus de la membrane d’étanchéité (5) afin que l’humidité éventuelle ne contourne celle-ci.

Précautions supplémentaires lors de l’exécution

  • Ne pas encrasser le fond de coulisse (remplissage partiel).

Risque de transfert d’eau vers le mur intérieur.

  • Aux angles du mur, réaliser des jonctions étanches de la membrane d’étanchéité.

Pliage des membranes à l’angle du mur.

Remarque : il existe des profilés d’étanchéité qui assure un raccord étanche entre les membranes aux angles intérieurs et extérieurs.

  • Dans les parties courantes, assurer une jonction étanche entre les membranes (recouvrement (30 cm) ou collage); empêcher la perforation ou le déchirement des membranes.

Cas d’une fondation profonde ou d’un sol extérieur pavé

Sol extérieur pavé ou fondation profonde.

  1. Membrane d’étanchéité.
  2. Joints verticaux ouverts.
  3. Membrane d’étanchéité.

L’étanchéité à l’eau

L’eau qui pénètre dans le mur et arrive dans la coulisse est renvoyée vers l’extérieur un peu au-dessus du niveau du sol extérieur via une membrane (1) et des joints ouverts (2). Les quelques briques de parement qui se trouvent sous terre doivent être emballées sur 3 côtés par une membrane (3) de manière à empêcher l’eau d’arriver jusqu’à la coulisse.

Pour le reste, tout est identique au cas du plancher sur terre-plein.

Précautions supplémentaires lors de l’exécution

Il faut veiller à la continuité de l’isolant de part et d’autre de la membrane d’étanchéité.

Cas d’un plancher sur vide sanitaire

Schéma isolation et plancher sur vide sanitaire.

  1. Membrane d’étanchéité
  2. Joints verticaux ouverts
  3. Membrane d’étanchéité
  4. Bloc isolant
  5. Isolant sous dalle

L’isolation

  • L’isolant sous la dalle (5) freine le transfert de chaleur par convection vers le sol.
  • La continuité entre l’isolation du mur et celle du plancher est assurée par un bloc plus isolant (4) que le reste du mur (bloc de béton cellulaire, de verre cellulaire ou d’argile expansée).

L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus de la fondation. Une membrane d’étanchéité (1) posée « en escalier » et des joints verticaux ouverts (2) dans la rangée de briques de parement juste au-dessus de la membrane renvoient l’eau infiltrée à l’extérieur.
  • La membrane (3) protège le pied du mur contre l’humidité ascensionnelle.Remarque : même si l’isolant sous la dalle n’est pas étanche à l’eau, il n’a pas besoin d’être protégé.
  • contre l’humidité ascensionnelle car il n’est pas en contact avec le sol,
  • contre les eaux de nettoyage car la dalle du plancher le protège,
  • et contre l’humidité de construction car l’isolant est posé par dessous après séchage de la dalle.

Pour le reste, tout est identique au cas du plancher sur terre-plein.


Jonction avec un plancher

Schéma isolation et jonction avec un plancher.         Schéma isolation et jonction avec un plancher.

L’isolant du mur doit être continu au niveau du plancher. Le hourdi doit être placé au ras du mur intérieur.

Ainsi, les différentes fonctions de l’enveloppe sont assurées de la même manière que pour les parties courantes du mur.


Seuil de fenêtre

Schéma isolation et seuil de fenêtre.

  1. Seuil
  2. Châssis
  3. joint d’étanchéité
  4. Membrane d’étanchéité
  5. Isolant
  6. enduit
  7. Tablette
  8. Pattes de fixation

> L’étanchéité à l’eau

  • Le seuil (1) renvoie toutes les eaux qui ruissellent sur le châssis ou infiltrées dans la chambre de décompression vers l’extérieur « loin » de la maçonnerie de parement.
    Le châssis (2) doit donc être posé sur le seuil avec la sortie du conduit de drainage arrivant sur la face supérieure inclinée du seuil.

    Pour bien assurer ces fonctions, le seuil doit :
    • déborder à l’intérieur de la coulisse de 3 cm minimum (5 cm dans un cas avec volet),
    • avoir une pente minimale de 5 % sur sa face supérieure,
    • être muni d’un casse-goute permettant de maintenir les eaux à distance du parement extérieur,
    • être encastré dans la maçonnerie de manière à assurer l’étanchéité de sa jonction avec la maçonnerie (et pour des questions de stabilité),
    • être d’un seul tenant ou avec joints rendus étanches au mastic dans le cas de deux pierres consécutives.
  • Un joint d’étanchéité (3) (fond de joint + mastic) entre le seuil et le châssis empêche les infiltrations à ce niveau.
  • La coulisse est interrompue par le seuil. L’eau qui aurait pénétré par celui-ci ou entre ce dernier et le châssis est renvoyée vers l’extérieur par une membrane d’étanchéité (4) placée sous le seuil et sous la tablette intérieure « en escalier descendant vers l’extérieur ».
    Pour éliminer l’eau qui aurait pénétré dans les battées verticales, il est conseillé de prévoir une membrane d’étanchéité dans le bas de cette dernière (sous le seuil), ainsi que des exutoires de part et d’autre du seuil.

> L’isolation

L’isolant est accolé contre le dormant du châssis ainsi il y a continuité dans l’isolation. Cette disposition s’adapte particulièrement bien lorsque le châssis est placé dans le prolongement de la coulisse isolée, en battée contre la brique de parement.
Le seuil de fenêtre ne peut être en contact avec les blocs intérieurs, l’isolant (5) doit contourner celui-ci et continuer jusqu’au châssis.

> L’étanchéité à l’air

  • Un joint d’étanchéité (7) doit être prévu entre l’enduit et le châssis.

> La stabilité

Les pattes de fixation (8) reprennent les charges propres ou transmises par les menuiseries et les transmettent au mur porteur. À cette fin, de manière à avoir un bon ancrage des pattes de fixation, il faut remplir le creux des blocs de la rangée supérieure de l’allège et des pieds droits de baie avec du mortier ou du béton.
On considère en général que les supports inférieurs reprennent les charges verticales.

Remarque : en principe, des cales de support sont placées sous les montants verticaux des châssis, mais dans le cas d’un seuil en pierre, il faut éviter de trop charger celui-ci en flexion et il vaut dès lors mieux prévoir des pattes de fixation qui reprennent toute la charge.

Précautions supplémentaires lors de l’exécution

  • La membrane d’étanchéité doit être d’un seul tenant; à défaut, les joints doivent être collés ou soudés.
  • Eviter la perforation et le déchirement des membranes.
  • Les pattes de fixation doivent être bien ancrées.

Cas d’un appui métallique

> L’étanchéité à l’eau

Schéma isolation et appui métallique.

  1. Châssis
  2. Tablette.
  3. Joints d’étanchéité.
  4. Seuil métallique.
  • L’appui métallique est imperméable à l’eau, la membrane d’étanchéité sous l’appui est donc inutile.
  • Un joint d’étanchéité entre l’appui et la maçonnerie empêche les infiltrations au droit de cette jonction.

> Pour les autres fonctions, tout reste identique au cas du seuil de fenêtre en pierre bleue.


Ébrasement de baie

Schéma isolation et ébrasement de baie, étanchéité à l'eau.

> L’étanchéité à l’eau

  • Un préformé en mousse à cellule fermée (1) évite le contact du châssis avec la maçonnerie humide. Ce préformé sert également de fond de joint.
  • La pénétration de l’eau dans la coulisse par la jonction entre le châssis et le gros œuvre est empêchée par la battée et par le joint en mastic (2).
    En principe, la battée est de 7 cm pour les châssis bois, PVC et polyuréthane; 4 cm pour les châssis métalliques.
    Remarque : le joint d’étanchéité doit être suffisamment large pour pouvoir reprendre les mouvements entre le châssis et le gros-œuvre (minimum 5 à 8 mm pour un cas standard).

Schéma isolation et ébrasement de baie, étanchéité à l'eau.

> L’isolation

L’isolant arrive jusqu’au ras de la baie. Après la pose du châssis, on injecte un isolant expansé à cellules fermées (3) entre celui-ci et le gros œuvre Ainsi il y a une continuité parfaite dans l’isolation.

Remarque : Dans le cas d’une coulisse très large partiellement remplie, il faut remplir la coulisse intégralement sur 15 à 20 cm (sur tout le pourtour de la baie) afin de permettre, après pose du châssis, l’injection de l’isolant de raccordement.

Schéma isolation et ébrasement de baie et isolation.

> L’étanchéité à l’air

Un joint d’étanchéité à l’air doit être prévu entre l’enduit et le châssis.

> La stabilité

  • Les pattes de fixation (9) reprennent les charges propres ou transmises par les menuiseries et les transmettent au mur porteur. À cette fin, de manière à avoir un bon ancrage des pattes de fixation, il faut remplir le creux des blocs de la rangée supérieure de l’allège et des pieds droits de baie avec du mortier ou du béton.
    On considère en général que les supports latéraux reprennent les charges horizontales (vents, sollicitations dues aux manœuvres, …).

Linteau de baie

Schéma isolation et linteau de baie.

  1. Membrane d’étanchéité
  2. Joints verticaux ouverts
  3. Isolant
  4. Joint d’étanchéité

> L’étanchéité à l’eau

  • La coulisse est interrompue au-dessus du châssis, celui-ci constitue un barrage à l’eau qui s’écoule dans la coulisse. Une membrane d’étanchéité (1) posée « en escalier descendant vers l’extérieur » et des joints verticaux ouverts (2) dans la rangée de briques de parement juste au-dessus de la membrane renvoient l’eau infiltrée à l’extérieur.
    Afin d’éviter la formation de poche d’eau et la perforation de la membrane, l’isolant doit être coupé en biseau (3) de manière à servir de support à la membrane.
    Remarque : une autre solution consiste à placer une membrane juste au-dessus du châssis. Cette solution est parfois choisie lorsque lors du placement des menuiseries, on se rend compte qu’une membrane n’a pas été prévue dans le gros œuvre.

Schéma isolation et linteau de baie, étanchéité à l'eau.

  • Un joint d’étanchéité (4) (fond de joint + mastic) entre la maçonnerie de parement et le châssis empêche les infiltrations à ce niveau.
    Remarque : le joint d’étanchéité doit être suffisamment large pour pouvoir reprendre les mouvements entre le châssis et le gros œuvre (minimum 5 à 8 mm pour un cas standard).

Schéma isolation et linteau de baie, étanchéité à l'eau.

Précautions supplémentaires lors de l’exécution

  • La membrane d’étanchéité doit être d’un seul tenant; à défaut, les joints doivent être collés ou soudés.
  • Les extrémités de la membrane doivent, de préférence, être relevées.
    À défaut, l’eau qui a pénétré dans la coulisse par le mur de parement au-dessus de la baie, peut être drainée latéralement et être évacuée par les joints laissés ouverts en pied de façade.

  • On doit veiller à ce qu’il n’y ait pas de déchets de mortier dans le fond de la coulisse au-dessus de la membrane.
  • Éviter la perforation et le déchirement des membranes.

> L’isolation – l’étanchéité à l’air

Ces deux fonctions sont assurées de la même façon que pour l’ébrasement de baie.

Précautions supplémentaires lors de l’exécution

Il faut veiller à la continuité de l’isolant de part et d’autre de la membrane d’étanchéité.

– – – – – – – – – – – –

Remarque : cette feuille s’inspire des 3 documents suivants :

  • la NIT 188 : « La pose des menuiseries extérieures » du CSTC.
  • « L’isolation thermique des murs creux – Guide pratique du maçon et du menuisier » / FFC.
  • « L’isolation thermique des murs creux – Outil didactique / FFC.

Condensation de surface

Condensation de surface

L’air intérieur ayant une température, une humidité relative et une pression donnée, peut arriver en contact avec une surface de température plus faible. Au contact, l’air se refroidit et la température qu’il atteint dans le voisinage de la surface peut se retrouver en dessous du point de rosée. Il apparaît alors de la condensation dite de surface (la pression de vapeur dans l’air atteint la pression de saturation).

Exemple de représentation sur le diagramme de l’air humide.

La figure ci-dessous montre l’évolution de l’état de cet air sur le diagramme de l’air humide : pour un air à 20 °C, 50 % d’HR et 1013 hPa, la condensation apparaît lorsque la température est réduite à 10 °C ou moins (à pression constante).

Dans les bâtiments, la condensation de surface apparaît d’abord sur les vitres, les châssis métalliques sans coupure thermique, les conduites d’eau froide, et sur les parties froides de l’enveloppe. Cette condensation  lorsqu’elle est localisée en un endroit précis dénonce la présence d’un pont thermique. Celle-ci peut de plus entrainer l’apparition de moisissures.

Pour empêcher la condensation de surface, il faut :

  1. Avoir une qualité suffisante de l’isolation de l’enveloppe de façon à ce que la température de la face intérieure de celle-ci ne descende pas en dessous de 17.5 °C.
  2. Diminuer par ventilation complémentaire l’humidité relative de l’air intérieur.
  3. Chauffer la face intérieure des parois froides.

Si ces mesures ne sont pas applicables ou insuffisantes, la seule façon de limiter les dégâts est de traiter la surface des parois pour empêcher la pénétration de l’eau de condensation par capillarité dans les parois, et de pouvoir recueillir et évacuer l’eau condensée.

Lampes au sodium basse pression

Lampes au sodium basse pression


Comment fonctionne une lampe au sodium basse pression ?

La lampe au sodium basse pression fait partie des lampes à décharge. Son principe de fonctionnement est donc identique.

L’ensemble amorceur, ballast conventionnel et condensateur peut être remplacé par un ballast électronique.

Particularités

Cette lampe est constituée d’un tube à décharge en forme de « U » logé dans une ampoule extérieure.

Le tube à décharge contient un mélange de vapeur de sodium et de gaz tels que le néon et l’argon.

La lumière est émise, en majeure partie sous forme de rayonnements visibles, sa face interne n’est donc pas recouverte d’une couche de poudre fluorescente.


Caractéristiques générales

La lampe au sodium basse pression émet une lumière monochromatique jaune-orangée au maximum de la sensibilité de l’œil.

Cette lumière monochromatique lui confère la plus haute efficacité lumineuse de toutes les lampes communes (hors LED).

Mais c’est également cette caractéristique qui lui donne un très mauvais indice de rendu des couleurs (IRC).

Après une coupure du réseau, elle redémarre immédiatement.

Elle est principalement utilisée pour l’éclairage des autoroutes car l’efficacité lumineuse est très élevée et que le rendu des couleurs n’y est pas primordial.

Données

Pour connaitre les caractéristiques des lampes au sodium basse pression.

Données

Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Registres et clapets

Registres et clapets

Clapets de réglage des débits.


Registres de réglage

Ces registres servent

  • Au réglage de débit d’air, par création d’une perte de charge variable, qui n’est pas directement proportionnelle à l’angle de pivotement des volets : la variation du débit dépend essentiellement de la pente de la courbe débit-pression du ventilateur ; si cette pente est fortement descendante, le débit diminuera lorsque le registre sera près de la fermeture (avec un risque de bruits importants).
  • À l’isolement entre un conduit d’air et un ou plusieurs autres. Par exemple, pour remplacer une alimentation en air recyclé par une alimentation en air neuf ou pour isoler un échangeur de température. Une étanchéité rigoureuse n’est généralement pas demandée.

En général de section rectangulaire, ils comportent plusieurs lames ou volets pivotant autour d’axes parallèles, depuis une position « ouvert » où ils présentent leur tranche à l’écoulement de l’air, jusqu’à une position « fermée » où leurs bords se rejoignent : comme chaque volet a un effet directionnel, on les actionnent de manière à ce que leur sens de pivotement soit contraire d’un volet à l’autre. On évite ainsi que la déviation du flux d’air aval ne perturbe trop l’écoulement loin à l’aval du registre.

Dans le cas de sections circulaires, on utilise parfois (pour une facilité d’approvisionnement et de fabrication) des registres de section carrée, dont les coins débordent. Un registre de section ronde à un seul volet rond créerait une dissymétrie perturbant trop l’écoulement aval. Les registres à deux volets semi-circulaires sont préférables.

   

Volets de réglage.

Il est difficile de réaliser des registres très étanches. Néanmoins, il est possible de réduire les fuites en position fermée à quelques pour-cent du débit normal avec des bords de volet se recouvrant et munis de joints souples. Le jeu entre volets et parois doit être réduit au minimum tout en restant compatible avec un pivotement facile des volets.

Dans les régions froides, des résistances électriques peuvent être incorporées aux bords des volets placés à l’extérieur.


Clapets d’obturation

Il s’agit des dispositifs permettant la fermeture quasi parfaite d’un conduit. Ils peuvent être actionnés mécaniquement et même automatiquement dès que la vitesse de l’air diminue ou tend à s’inverser. Ils ne comportent généralement qu’un seul volet dont la section est supérieure à celle du conduit. Ils reposent par leur pourtour sur un siège souvent garni d’un joint souple laissant libre une section égale à celle du conduit.

  

Clapet anti-retour et clapet de fermeture.

De tels clapets se rencontrent souvent au refoulement de ventilateurs, fonctionnant en parallèle, afin d’éviter un retour en arrière à travers un ventilateur arrêté. Sans ce dispositif le ventilateur risque d’avoir des temps de démarrage plus long provoquant un échauffement important du rotor du moteur électrique. De tels clapets s’imposent également quand un conduit doit être isolé pour des questions d’entretien ou de sécurité (désenfumage en cas d’incendie).

On utilise également des clapets plus légers dits « anti-retour » comprenant souvent plusieurs lames comme les registres, ces lames retombant sous leur propre poids quand la circulation d’air s’arrête ou s’inverse.


Diaphragmes de réglage

L’utilisation de diaphragmes fixes ou réglables est parfois nécessaire pour modifier la perte de charge d’un circuit pour équilibrer les débits réels par rapport aux prévisions.

Diaphragme de réglage des débits.

Les diaphragmes sont des sources de bruit et créent des zones d’accumulation de poussières. Ils sont réalisés sous des formes différentes

  • Lame plane pénétrant dans le conduit entre deux brides d’assemblage, fixée au montage ou coulissante dans des rainures pour obtenir un réglage. Sa position peut être bloquée par pose d’une goupille.
  • Lame fixée contre un côté intérieur du conduit et pouvant pivoter par déformation sous la poussée d’une tige articulée ressortant de la paroi. La lame est solidarisée à la paroi après obtention d’un réglage correct.
  • Grille, grillage ou tôle perforée qui répartissent mieux la perte de charge et ont l’avantage de ne perturber l’écoulement aval que sur une courte distance et d’homogénéiser le flux d’air.

Clapets coupe-feu

Lorsqu’un conduit de ventilation traverse une paroi présentant une exigence de résistance au feu, il est obligatoire de prévoir des équipements qui pallient à la faiblesse ainsi crée et permettent de bloquer la distribution des fumées. On recours pour cela à différents équipements selon la section du conduit:

  • si la section du conduit est > 130 cm² : 1 clapet coupe-feu est placé au droit de la paroi de la trémie. Grâce à un fusible thermique, il se fermera soit quand la température de l’air dépasse une certaine température (typiquement 80°C). Pour éviter une propagation des fumées à des températures moindres, certains sont équipés également d’une détection de fumée.

Photo clapets coupe-feu.

  • si la section du conduit est < 130 cm² : Des grilles foisonnantes ou intumescentes sont placées au droit de la paroi entourant la trémie. Elles gonfleront sous l’effet de la chaleur et bloqueront le passage du feu (usage unique !).

Choisir parmi le différents systèmes de refroidissement

Choisir un système de refroidissement

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux et ébaucher des solutions classiques, mais nullement « passe-partout ».


Critères de choix technico-économiques

Une concertation dès l’Avant-Projet

Il serait prétentieux de prétendre énoncer en quelques lignes tous les critères constituants la démarche conceptuelle qui conduit au choix d’un système de climatisation d’un immeuble.

La solution résulte en effet de la concertation étroite entre le Maître de l’Ouvrage, l’Architecte, l’Ingénieur de bureau d’études et tous les partenaires qui forment l’équipe de projet. Cette concertation se situe lors de l’Avant-Projet de l’étude du bâtiment et résulte du meilleur compromis entre critères parfois contradictoires :
  • évaluation des besoins : apports (-> froid), déperditions (-> chaud), occupation (->débit d’air hygiénique),…
  • mobilité aux variations de programme (usage du bâtiment, un ou plusieurs locataires, …)
  • confort au sens large (climatique, acoustique, visuel,…),
  • coût d’investissement et d’exploitation,
  • optimalisation de l’usage des surfaces,
  • esthétique externe et interne (le bâtiment doit être beau à voir et à vivre !),
  • etc…
À noter qu’au plus tôt se constitue cette équipe de projet, au plus l’ensemble des contraintes sera pris en considération à temps.

Tout au plus pouvons-nous ici évoquer avec prudence les quelques critères principaux et ébaucher des solutions classiques, mais nullement « passe-partout » :


Le coût d’investissement

Considérons une base relative de 100 % comme valeur moyen d’une installation de climatisation. Une simple installation de chauffage est alors à 30 %. L’échelle des prix en fonction du type d’équipement et du niveau de régulation qui lui est associé peut être évalué comme suit :

Installations  « détente directe »

Investissement
par rapport à la référence

Window 60 – 75 %
Split system 80 – 160 %
Débit réfrigérant variable (2 tubes) 160 – 200 %
Débit réfrigérant variable (3 tubes) 240 – 300 %
Armoire de climatisation 60 – 6 000 %%
Roof-top 30 – 100 %

Installations « tout air »

Investissement
par rapport à la référence

Tout air-débit constant 120 – 170 %
Tout air-débit variable 120 – 180 %

Installations « sur boucle d’eau »

Investissement
par rapport à la référence

Ventilo-2 tubes 85 – 110 %
Ventilo-2 tubes/2 fils 90 – 125 %
Ventilo- 4 tubes 100 – 150 %
Pompe à chaleur sur boucle d’eau 80 – 170 %
Plafonds froids 110 – 160 %

Le coût des plafonds froids (plutôt élevé en regard à l’énergie frigorifique produite) est pénalisé notamment par la régulation qui doit permettre d’éviter tout risque de condensation. Mais, comme tout produit récent, son prix est progressivement en baisse sensible…


Le coût d’exploitation énergétique

Le coût d’exploitation est directement fonction des charges à vaincre : un immeuble fort vitré consommera beaucoup plus que son équivalent équipé de protections solaires extérieures, par exemple … C’est donc d’abord le bâtiment qui crée la consommation !

On peut cependant établir une échelle entre les systèmes suivant leur performance énergétique :

Installations  « détente directe »

Coût énergie

Window élevé
Split system moyen
Débit réfrigérant variable faible
Armoire de climatisation moyen
(Roof-top) (faible)

Installations « tout air »

Coût énergie

Tout air-débit constant élevé
Tout air-débit variable moyen

Installations « sur boucle d’eau »

Coût énergie

Ventilo-2 tubes moyen
Ventilo-2 tubes/2 fils moyen à élevé
Ventilo- 4 tubes moyen
Pompe à chaleur sur boucle faible à élevé
Plafonds froids faible

Quelques règles à suivre pour concevoir une installation à faible consommation énergétique :

  • Éviter de détruire l’énergie : en aucun cas, on ne doit concevoir une installation dont la régulation fonctionnerait par mélange entre fluides chauds et froids. Les installations « tout air » à doubles conduits sont particulièrement sensibles à ce phénomène.
  • Récupérer la chaleur extraite lorsque le bâtiment requiert du chaud et du froid simultanément : un grand local informatique refroidi en hiver, des plateaux très étendus et fort équipés dont il faut en permanence refroidir la partie centrale, … On aura intérêt à concevoir une installation qui peut récupérer la chaleur extraite de ces locaux pour la restituer dans les locaux en demande de chaleur (bureaux en périphérie). Les installations à débit de réfrigérant variable et les pompes à chaleur sur boucle d’eau sont performantes à ce niveau. Dans les installations plus classiques (ventilos), une récupération de chaleur au condenseur des groupes frigorifiques est également possible et moins contraignante.
  • Préchauffer l’air neuf en récupérant la chaleur soit sur l’eau en sortie des faux plafonds, soit sur le condenseur de la machine frigorifique.
  • Limiter les résistances chauffantes électriques qui peuvent entraîner des dépenses importantes vu le coût du kWh électrique par rapport au kWh thermique. On sera attentif à ne sélectionner une installation de ventilos 2 tubes/2 fils que dans un bâtiment très isolé (besoins de chaleur très limités suite aux apports gratuits). De plus une gestion des équipements devra superviser l’ensemble.
    Un petit outil de simulation
    permet de quantifier l’impact du choix du vecteur énergétique de chauffage.
  • Préférer un refroidissement à haute température : l’efficacité frigorifique d’une installation à eau glacée sera améliorée si le fluide est produit et circule à relativement « haute » température. De là, l’avantage du refroidissement par plafonds froids dont la boucle d’eau « glacée » fonctionne au régime 15°-17°. Cette température élevée permet également, durant une bonne partie de l’année, un refroidissement gratuit de l’eau glacée dans un aéroréfrigérant ou dans une tour de refroidissement en toiture, en by-passant ainsi la machine frigorifique (« free-chilling« ).  La présence d’une source d’eau froide naturelle peut également être mise à profit (forage, rivière, lac, …)
  • Préférer un refroidissement par rayonnement : pour les plafonds froids également, le confort apporté par le rayonnement froid au-dessus des occupants permet une augmentation de 2°C de la consigne de température ambiante (température max = 26°C ou 27°C, au lieu des 24 ou 25°C habituels pour des ventilos, par exemple). Il s’en suit une réduction de la puissance frigorifique nécessaire.
  • Transporter l’énergie par l’eau et pas par l’air : le transport de l’eau par pompes représente moins de 2 % de l’énergie transportée. Le transport de l’air par ventilateur représente de 10 à 20 % de l’énergie véhiculée ! Les systèmes « tout air » subissent donc un sérieux handicap. Le système à débit d’air variable (VAV) limite les dégâts à ce niveau.
  • Valoriser l’air frais extérieur gratuit : dans le cas d’une installation « tout air », une partie importante de l’énergie frigorifique peut être fournie par l’air extérieur (free cooling en hiver et mi-saison). Il semble y avoir conflit entre cet argument et le précédent ! En réalité, on choisira une installation « tout air » lorsque le bilan énergétique prévoit du refroidissement régulièrement en hiver et en mi-saison.
  • Enfin, ne pas raboter le budget régulation : la qualité de la régulation est déterminante ! on pense tout particulièrement au ventilo-convecteur qui est le pire ou le meilleur des équipements, … selon la régulation qui lui est associée !

Le coût de maintenance

Les prix donnés à titre indicatif ci-dessous (Source : « GIE – Climatisation et Développement » en France) correspondent à un contrat annuel de maintenance sur devis (les prix les plus bas correspondent aux surfaces traitées les plus grandes). Ces valeurs sont assez anciennes (années 2000), mais les variations entre les différentes installations peuvent être supposées toujours pertinentes. À ces prix s’ajoute celui du renouvellement périodique des équipements défectueux, lié à leur durée de vie. Ainsi, les installations en « détente directe » sont généralement plus fragiles, ce qui implique un remplacement plus fréquent des composants.

Installations « détente directe »

€/m2
Window très faible
Split system 3 – 7,5
Débit réfrigérant variable
Armoire de climatisation 2,25 – 9,25 (si gamme informatique)
(Roof-top) (1,5 – 3,25)

Installations « tout air »

€/m2

Tout air-débit constant 1,5 – 5
Tout air-débit variable 2 – 6,25

Installations « sur boucle d’eau »

€/m2

Ventilo-2 tubes 3 – 5
Ventilo-2 tubes/2 fils 3 – 5
Ventilo- 4 tubes 3 – 5
Pompe à chaleur sur boucle 3,75 – 6,25
Plafonds froids  

 


Le confort thermique

Installations  « détente directe »

Confort thermique
Window faible
Split system faible
Débit réfrigérant variable bon
Armoire de climatisation moyen
(Roof-top) (moyen)

Installations « tout air »

Confort thermique
Tout air-débit constant bon
Tout air-débit variable bon

Installations « sur boucle d’eau »

Confort thermique
Ventilo-2 tubes moyen
Ventilo-2 tubes/2 fils moyen
Ventilo- 4 tubes bon
Pompe à chaleur sur boucle moyen
Plafonds froids excellent
Remarque  : Le confort thermique des plafonds froids est meilleur que celui des systèmes traditionnels (ventilo-convecteurs par exemple)

  1. parce que l’apport de froid par rayonnement est plus stable (inerte) et mieux réparti spatialement que l’apport de froid par convection forcée,
  2. parce qu’il permet la sensation agréable d’avoir « la tête au frais »,
  3. parce que le confort est renforcé par l’absence de courant d’air froid, puisque le débit d’air est limité aux besoins hygiéniques,
  4. parce ces mouvements d’air limités entraînent peu de déplacement de poussières dans les locaux.


La puissance frigorifique

Le dimensionnement des installations de climatisation est généralement fonction de la puissance frigorifique maximale nécessaire en été.

À ce niveau, les plafonds froids sont relativement limités puisque la puissance de refroidissement n’atteint que de l’ordre de 80 W/m² de plafond actif. Ce système ne permet pas de refroidir seul une salle informatique, par exemple.

A puissance frigorifique égale, un système « tout air » entraîne des débits d’air véhiculés très importants et donc des gainages coûteux et encombrants !


Le confort acoustique

Pour atteindre les niveaux requis par les normes, il va de soi que les plafonds froids sont avantagés. Mais on peut également sélectionner des installations plus classiques de qualité (basse vitesse des ventilateurs, amortisseurs de bruit,…).

Ainsi, une installation « tout air » classique à laquelle on adjoint des bouches de diffusion par déplacement devient excellente sur le plan acoustique.

Installations  « détente directe »

Confort acoustique
Window faible
Split system bon
Débit réfrigérant variable bon
Armoire de climatisation moyen
(Roof-top) (bon)

Installations « tout air »

Confort acoustique
Tout air-débit constant bon
Tout air-débit variable bon

Installations « sur boucle d’eau »

Confort acoustique
Ventilo-2 tubes bon
Ventilo-2 tubes/2 fils bon
Ventilo- 4 tubes bon
Pompe à chaleur sur boucle faible
Plafonds froids excellent

La centralisation


Si la surface des locaux à climatiser est limitée (rénovation de quelques locaux,par exemple), un système à « détente directe » (voire plusieurs équipements décentralisés) sera suffisant et nettement moins coûteux.

Si une installation centralisée bénéficie de l’effet de taille en terme de prix d’investissement, il n’y a que peu d’effet majeur à l’exploitation (efficacité frigorifique meilleure pour les grosses puissances, mais pertes en ligne et pertes en régulation plus élevées…).


Le fluide caloporteur

L’effet refroidissant

Il peut être apporté aux locaux par de l’air, de l’eau, ou par le fluide réfrigérant lui-même.

L’air ayant une faible chaleur spécifique, un système « tout air » entraîne un encombrement très important (gaines volumineuses), et donc une perte d’espace utile pour l’aménagement des locaux. En rénovation, cette technique est souvent exclue (si on ne veux pas « tout casser » !). Si les locaux sont de toute façon demandeur d’air hygiénique en grande quantité (présence de nombreux occupants), le problème est vu différemment : il est alors logique d’associer les fonctions « ventilation » et « rafraîchissement »…

L’eau glacée est le choix le plus fréquent. La boucle d’eau pouvant se placer aussi bien en allège qu’en faux plafond.

L’idée de faire circuler le fluide réfrigérant directement dans les locaux est nouvelle. C’est certainement la formule la plus souple. Elle s’adapte bien aux locaux à très faible inertie (parois légère, tapis de sol, faux plafond) pour lesquels on peut parfois en mi-saison chauffer au matin, … mais refroidir sous le soleil de midi !

L’effet calorifique

Il peut être apporté par de l’air, de l’eau, par le fluide réfrigérant ou par l’électricité.

Le transport par air entraîne les mêmes conclusions en chaud qu’en froid.

Le chauffage par boucle d’eau peut se justifier par la présence d’autres besoins dans le bâtiment (eau chaude sanitaire, par exemple) : l’installation de production d’eau chaude sera commune.

Lorsque le fluide « réfrigérant » est utilisé pour chauffer : l’échangeur dans le local devient le condenseur de la machine frigorifique. C’est la solution la plus économique à l’exploitation si la chaleur est extraite de locaux refroidis. Si la chaleur est extraite de l’air extérieur (fonctionnement en pompe à chaleur), la performance diminue fortement avec la baisse des températures extérieures. Le chauffage est alors obtenu avec un prix de revient supérieur aux installations à combustible classique. Ce choix ne peut se justifier qu’au regard de la consommation globale (hiver + été) de l’installation.

Enfin, le chauffage par résistance chauffante ne doit être sélectionné que lorsque les besoins thermiques sont très limités. Le prix de revient du kWh électrique de jour est en effet 3 fois plus élevé environ que celui du kWh thermique (pointe de puissance comprise).


Le recyclage de l’air

Dans le cas d’une installation « tout air », l’apport de froid dans les locaux entraîne un débit d’air nettement plus élevé que celui nécessaire pour les besoins hygiéniques (4 … 6 fois, environ). Dès lors, plus des 3/4 du débit total est recyclé. Seul 1/4 du débit total est de l’air neuf hygiénique.

Bien que les débits hygiéniques soient largement respectés, le mélange avec de l’air recyclé est loin de faire l’unanimité. On parle de « Sick Building Syndrom ». En réalité, il est difficile de faire la part des choses entre les plaintes liées au mauvais entretien des installations et celles liées au recyclage proprement dit.

De là, la préférence donnée aux installations dans lesquelles apport d’air neuf et apports thermiques sont dissociés : le réseau d’air pulse le débit nécessaire au renouvellement hygiénique (cet air est ensuite expulsé sans recyclage).

Calculs

Dans les outils de calcul – rubrique « Climatisation » – vous trouverez un outil permettant de calculer les caractéristiques d’un mélange d’air


L’encombrement

Les installations de climatisation « tout air » sont fort encombrantes, local volumineux à prévoir pour la centrale de préparation d’air (chauffer, refroidir, humidifier l’air,..).

Gaines de volumes importants à placer. L’augmentation de l’épaisseur des faux plafonds qui en résulte peut entraîner un étage de moins sur un bâtiment de 10 étages !

Petit calcul approximatif pour avoir un repère …

Une personne requiert 30 m³/h d’air hygiénique. Sur base d’une vitesse de 5 m/s dans les conduits, cet apport d’air requiert 30 [m³/h] / 3 600 [s/h] / 5 [m/s] = 16 [cm²], soit un conduit de 4 cm sur 4 cm. Et ceci rien que pour une personne !
Si l’air est en même temps « porteur » de la charge thermique (air chaud en hiver et air froid en été), les débits d’air traités sont en moyenne multipliés par 6. La section des conduits aussi. On arrive alors à un ratio de 100 cm² par personne, soit 10 cm sur 10 !
À titre d’exemple : l’hôpital St Luc de Woluwé traite et distribue 300 000 m³ d’air par heure ! ! !

Photo technique des plafonds froids.

La technique des plafonds froids demande par contre une épaisseur de faux plafonds moins élevée.

Quant aux ventilo-convecteurs en allège, si les tuyauteries de raccordement sont discrètes, les convecteurs eux-mêmes peuvent occuper, au sol, de la place recherchée.


Le tableau de synthèse


Reprenons les différents critères :

Installations  « détente directe »

Investis.

Coût énergie

Confort acoustique Confort thermique
Window 60 – 75 % élevé faible faible
Split system 80 – 160 % moyen bon faible
Débit réfrigérant variable 160 – 200 % faible bon bon
Armoire de climatisation 240 – 300 % moyen moyen moyen
Roof-top 60 – 6 000 % faible (bon) (moyen)

Installations « tout air »

Investis.

Coût énergie

Confort acoustique confort thermique
Tout air-débit constant 120 – 170 % élevé bon bon
Tout air-débit variable 120 – 180 % moyen bon bon

Installations « sur boucle d’eau »

Investis.

Coût énergie

Confort acoustique confort thermique
Ventilo-2 tubes 85 – 110 % moyen bon moyen
Ventilo-2 ubes/2 fils 90 – 125 % moyen à élevé bon moyen
Ventilo- 4 tubes 100 – 150 % moyen bon bon
Pompe à chaleur sur boucle 80 – 170 % variable faible moyen
Plafonds froids 85 – 110 % faible excellent excellent

Stratégie de choix

Un système technique, notamment de refroidissement, ne devrait pas se choisir uniquement sur base de critères technologiques et économiques, même s’ils sont essentiels. Le choix doit intégrer toute la complexité du bâtiment, son programme, ses besoins énergétiques de chaud et de froid, son site, son occupation,…

Pour s’y retrouver, il est nécessaire de se donner une stratégie. Un exemple de stratégie de choix peut être d’identifier des groupes de critères jugés prioritaires sur base desquels faire une première sélection peut s’effectuer. Par exemple, dans une approche orientée vers la performance énergétique, on mettra en avant les critères liés :

  • Aux propriétés thermiques et constructives du projet : Quelle est l’inertie du bâtiment ? Quelles sont les puissances demandées et les besoins d’énergie en chaud et en froid, en fonction des charges internes et solaires, des performances de l’enveloppe ? Quels sont les débits d’air hygiéniques ? Quelle est la modularité envisagée (possibilité de modifier fréquemment les cloisons) ?
  • Aux ressources énergétiques disponibles sur le site : Dans notre climat, un bâtiment peut être rafraîchi la plus grande partie de l’été en ventilant naturellement le bâtiment par de l’air extérieur. Si le site est trop bruyant ou pollué, une ventilation mécanique adaptée utilisée en mode free cooling sera également efficace. L’air extérieur peut en outre être rafraichi par des aménagements paysagers (parcs, bassins) ou technologiques (humidification). Si l’air extérieur reste malgré tout chaud la journée, la température nocturne tombe suffisamment pour permettre de décharger la chaleur accumulée à l’intérieur. Si l’air extérieur n’est pas valorisable sur le site du projet, peut-être une ressource hydrique l’est-elle (sans aller jusqu’à solliciter la nappe phréatique, un étang par exemple constitue une masse d’eau fraiche impressionnante) ? La capacité thermique du sol peut également être sollicitée, si sa composition permet des forages à un coût raisonnable.
  • Au profil de l’occupant : Selon qu’il souhaite ou non avoir un rôle actif dans la conduite du bâtiment, les choix techniques ne seront pas les mêmes. Est-il disposé à ouvrir ses fenêtres en été ? Les choix dépendront également des profils d’occupation : sont-ils stables ou variables ? Enfin, les attentes de confort sont un critère majeur : les occupants exigent-ils une température constante réglable selon leurs envies, ou sont-ils prêts à accepter une évolution raisonnable, mais moins maîtrisée des conditions intérieures ?

Une fois que l’on s’est donné une liste de critères principaux, il faut faire l’inventaire des choix possibles, et s’orienter vers celui qui offre la meilleure performance énergétique. Cette première sélection doit ensuite être discutée sur base des autres critères : impact financier, contraintes d’entretien, risque de nuisance acoustique, etc.


Organigramme de sélection

L’organigramme ci-dessous propose un guide de sélection d’un système de refroidissement. Il s’appuie sur une stratégie de sélection partant des profils d’occupants, des caractéristiques du bâtiment et des ressources du site et va jusqu’à la sélection d’une technologie.

Concevoir

Pour en savoir plus sur les choix techniques détaillés et les principes d’économie d’énergie accessible pour chaque technologie, cliquer ici !

Cet organigramme s’applique surtout aux constructions neuves, mais peut globalement être repris pour des projets de rénovation également. Il s’agit d’un guide générique, qui peut ne pas s’appliquer à un cas particulier. Restez donc prudents et critiques dans son utilisation. Tous les embranchements sont référencés par une lettre (de A à Q). Un mot d’explication est donné sur chacun de ces choix en dessous de l’organigramme.

>> Les textes en italique dans le schéma sont cliquables et mènent vers des informations complémentaires.

Organigramme de sélection - 1 partie.

La ventilation intensive naturelle d’été La ventilation intensive naturelle d’été La ventilation intensive mécanique d’été

Organigramme de sélection - 2 partie.

Le système tout air, à débit variable (VAV) Le climatiseur de local Le refroidissement adiabatique La machine frigorifique à ab/adsorption La machine frigorifique à compression La dalle active Le free-chilling Les plafonds froids La géothermie et le géocooling La dalle active La géothermie et le géocooling La dalle active Le free-chilling Les plafonds froids La machine frigorifique à ab/adsorption Le système tout air, à débit variable (VAV) Le système tout air, à débit constant, mono-gaine Le système tout air, à débit variable (VAV) Le système tout air, à débit constant, mono-gaine Les plafonds froids La machine frigorifique à compression Les poutres froides Les ventilo-convecteurs

Quelques commentaires sur cet organigramme :

  • A à D : La première partie sert à identifier le profil de l’occupant : actif ou passif.
    • Si le profil est passif (c’est-à-dire lorsque que l’occupant ne peut intervenir sur son environnement par l’ouverture d’une fenêtre, la fermeture d’un store,…)., toutes les stratégies intégrant la notion de confort adaptatif sont caduques.
    • Si l’occupant est actif, on peut envisager d’aller vers une limitation acceptée de la puissance de refroidissement disponible. C’est le sens de la question « D. Température glissante ? »
      • Répondre oui signifie que l’on tolère une dérive limitée des températures intérieures en été, telle que définie par la norme NBN EN 15251. L’installation de refroidissement sera alors vue comme une aide limitée en cas de vague de chaleur exceptionnelle (on parle de top cooling) ou de besoins localisés (systèmes split).
      • Répondre non signifie que, malgré le comportement actif possible des occupants, on souhaite avoir la garantie du maintien de consignes strictes de température. On s’oriente alors vers un système de refroidissement capable de répondre instantanément aux besoins. Pour en savoir plus sur les profils d’occupants, voir la page « confort thermique ».
  • E à G : La question E se place dans le cadre d’une fluctuation contrôlée des températures. Une stratégie de free cooling est dans ce cadre indispensable, au moins en journée,  faute de quoi les charges internes et solaires ne peuvent être dissipées et le confort ne pourra être maintenu. Mais ce free cooling (diurne et/ou nocturne) est-il suffisant ? Une simulation dynamique du comportement du bâtiment peut être intéressante pour répondre à cette question. Différentes réponses sont envisageables :
    • 1/Oui, auquel cas il n’est pas nécessaire d’installer de système de refroidissement. Félicitation, votre consommation d’énergie thermique en été sera nulle ;
    • 2/Oui, sauf dans certains locaux, par exemple ceux avec des serveurs informatiques, ou une salle de réunion particulièrement exposée au soleil, ou les quelques locaux sous toiture,… Dans ce cas, une installation de refroidissement à détente directe, de type armoire de climatisation ou système split parait un bon choix. Éventuellement, la chaleur extraite de ces locaux pourrait être utile à d’autres ? Alors on s’orientera vers un système à débit de réfrigérant variable (VRV) ;
    • 3/ Oui, sauf en plein été. Dans ce cas, un appoint mécanique de type top cooling est pertinent, pour franchir confortablement les jours chauds sans investir dans un système de distribution spécifique au refroidissement ;.
    • 4/ Non, le free cooling est tout à fait incapable d’assurer le confort du bâtiment, malgré la bonne volonté et la coopération des occupants.
  • H à I : Un appoint d’été dans un bâtiment qui ne dispose pas d’autre système de refroidissement qu’un free cooling se base souvent sur le réseau de ventilation : l’air neuf hygiénique est refroidi en centrale avant d’être diffusé dans l’ensemble du bâtiment. Le débit d’air correspond au débit nominal du réseau de ventilation hygiénique, c’est-à-dire de débit nécessaire pour assurer la qualité de l’air des locaux en supposant une occupation de référence. Éventuellement, ce débit peut être augmenté légèrement si le groupe de pulsion le permet, mais avec précaution : les pertes de charge seront alors très élevées et la consommation électrique d’un ventilateur également (pour éviter cela, on peut surdimensionner le réseau de ventilation par rapport au débit hygiénique). Dans ces cas, le refroidissement de l’air peut éventuellement se faire au départ d’une source naturelle. Typiquement, si l’air extrait des locaux n’est pas trop humide, un refroidissement adiabatique peut être envisagé. Une climatisation solaire peut aussi être envisagée, si le besoin de froid est effectivement lié aux gains solaires, et non aux gains internes des locaux. Enfin, une machine frigorifique traditionnelle à compression sera choisie.
  • J : Cette question fait le constat d’une incompatibilité entre une stratégie ouverte à une remise en cause du confort et à la valorisation du comportement des occupants et les résultats attendus, déduits par exemple d’une simulation dynamique. Avant de conclure que, dans ce cas, le free cooling est une impasse et de basculer sur un système de refroidissement plus traditionnel, il peut être utile de creuser un peu les résultats de la simulation. Pourquoi le free cooling est-il à ce point insuffisant que même un appoint limité de type top cooling (climatisation uniquement à certains moments extrêmes (canicule par exemple) ne suffit pas ? C’est peut être justifié par le site : trop de bruit ou de pollution pour ventiler efficacement, ou par l’architecture : pas assez de protection solaire, ou pas de possibilité pour l’air de traverser le bâtiment en assurant un balayage efficace, ou pas assez d’inertie thermique, ou une trop grande dispersion des charges internes. Une fois la cause identifiée (il s’agira souvent d’un faisceau de causes partielles), les modifications à apporter au projet peuvent être envisagées. Peut-être sont-elles acceptables par le maître d’ouvrage et l’architecte ? Le rôle de l’ingénieur sera ici déterminant. À lui d’être créatif d’imaginer des propositions compatibles avec les souhaits des autres intervenants.
  • K à L : le slab cooling, ou activation de la dalle, est présenté comme première alternative au free cooling. Il présente en effet certaines similarités : valoriser l’inertie du bâtiment au travers d’un déphasage entre période de refroidissement effectif (la nuit) et période d’accumulation de chaleur (journée). Ce déphasage permet de valoriser une source de fraicheur fluctuante ou limitée, en particulier l’air extérieur (free chilling) ou un forage géothermique de puissance limitée (geocooling).
  • M : ici, on bascule du côté des émetteurs à puissance contrôlée, qui implique de disposer à tout moment d’une capacité de dissipation de la chaleur. Le choix des systèmes dépendra d’abord de la disponibilité ou non d’une ressource géothermique. Des essais de sol, ou l’examen de données géologiques permettent d’identifier le potentiel de valorisation thermique du sous-sol. La chaleur du bâtiment peut y être dissipée directement, au moyen d’un simple échangeur (géocooling), ou indirectement, au travers d’une machine frigorifique. Dans les deux cas, il est fortement recommandé de pouvoir travailler dans le bâtiment avec des émetteurs à « haute température », de type plafonds froids. En l’absence de ressource géothermique, on cherchera à valoriser l’air extérieur au travers d’une installation d’une dalle active (slab cooling). Cependant, un appoint « traditionnel », par exemple sur le réseau de ventilation sera nécessaire pour compléter la puissance et assurer une capacité de modulation locale et dans le temps de la dissipation de la chaleur. Enfin, si le besoin de refroidissement est directement lié à la course solaire, une climatisation solaire peut éventuellement être envisagée.
  • N à P : en l’absence d’une ressource naturelle, ou lorsque son exploitation est impossible, on se tournera vers une production traditionnelle de froid (machine frigorifique à compression). La question du système de refroidissement est alors limitée au choix du réseau de distribution. Si la puissance demandée dépasse largement celle que peut véhiculer le réseau de ventilation hygiénique, on optera pour une distribution par boucle d’eau. Eau froide si des émetteurs à haute température peuvent être choisis, eau glacée sinon. Si le réseau de ventilation peut, moyennant un surdimensionnement limité, assurer le refroidissement, on se dirigera vers des systèmes de conditionnement d’air VAV ou CAV selon le niveau de variabilité des besoins, et vers toutes les solutions intermédiaires possibles en termes de gestion des débits.

Concevoir

Pour plus d’informations sur la valorisation de la fraicheur de l’environnement, cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système de refroidissement tout air  (débit d’air constant, VAV), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système convectif sur boucle d’eau froide : (ventilo-convecteurs ou poutres froides), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système rayonnant sur boucle d’eau froide (plafond froid, dalle active, cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système à détente directe (climatiseurs et systèmes à Débit de Réfrigérant Variable), cliquer ici !

Concevoir

Pour plus d’informations sur le choix d’un système de ventilation intensive (free cooling), cliquer ici !

Osmoseur inverse

Osmoseur inverse


Principes fondamentaux de l’osmose et de l’osmose inverse

L’osmose

Au même titre qu’un caillou ne peut évoluer que d’une altitude plus élevée vers une altitude plus basse (différence de potentiel), un système chimique évoluera naturellement d’une enthalpie libre (rôle du potentiel) plus élevée vers une plus faible (premier principe de la thermodynamique). L’enthalpie libre d’un système chimique constitué d’un solvant (l’eau de ville à traiter) et de solutés (sel minéraux, matières organiques, …) est fonction de la concentration de chacun de ses constituants: le potentiel d’une solution saline est plus élevé que celui d’une solution moins saline.

Eau « pure ».

Eau + soluté.

Migration de l’eau.

 

Équilibre osmotique.

Si les deux solutions sont mises en contact par l’intermédiaire d’une membrane semi-perméable, les solutés (les sels) de la solution la plus concentrée ne pouvant la traverser, c’est le solvant (l’eau) de la solution la moins concentrée qui la traversera afin de réduire l’enthalpie libre et ce jusqu’à ce que le système soit en équilibre. Cet équilibre est atteint quand la différence de hauteur entre les deux solutions correspond à la pression osmotique (correspondance des deux concentrations de part et d’autre de la membrane).

La valeur de la pression osmotique est principalement fonction des solutés présents dans la solution (potentiel chimique) et de leur concentration.

L’osmose inverse

Schéma principe osmoseur inverse.

Si on fournit de l’énergie au système, le phénomène de l’osmose est réversible. En exerçant une pression inverse à la pression osmotique sur la solution la plus concentrée, l’eau uniquement retraversera la membrane en sens inverse: c’est l’osmose inverse.

Si seule l’eau d’une solution chargée en sel et en matières organiques traverse la membrane semi-perméable, on obtient un système de filtration ultra efficace.

En imaginant une eau de ville à épurer pour la stérilisation, envoyée contre une membrane semi-perméable au travers d’une pompe de mise en pression supérieure à la pression osmotique, à la sortie de l’osmoseur inverse, l’eau est débarrassée de ses impuretés. Cependant, à force d’épurer l’eau, la concentration en solutés en amont de la membrane augmente et risque d’empêcher l’eau de passer au travers. Pour cette raison, il est nécessaire de créer une fuite contrôlée vers l’égout de manière à réduire la concentration des solutés.

Généralement, on emploie les termes suivants :

  • l’alimentation est la solution à épurer;
  • le perméat est la solution qui traverse la membrane;
  • le concentrat est le rejet.

Technologie de l’osmoseur inverse

Avant toute chose, il est utile de préciser que dans le but de préserver l’osmoseur inverse et de « dégrossir » le travail, on trouve en amont un adoucisseur permettant de réduire la concentration en ions calcium et magnésium de l’eau.

Photo osmoseur inverse.

Sans rentrer dans les détails l’osmoseur inverse se compose principalement :

En amont des membranes

  • d’un filtre d’entrée;
  • d’un pressostat de sécurité;
  • d’un manomètre pour le réglage de la pression;
  • d’un pompe de mise en pression des membranes;
  • de membranes travaillant en alternance:
  • d’un contrôle des débits de perméat et de concentrat
  • d’un contrôle des pressions

En aval des membranes

  • d’un contrôle du débit de concentrat;
  • d’un conductimètre (mesure la qualité de l’eau en µSiemens);

Les membranes

Photo membrane.

Schéma membrane.

Pour la petite histoire, l’abbé nollet avait déjà observé à la fin du 17ème siècle qu’une membrane constituée d’une vessie de porc laissait passer un flux d’eau douce pour diluer une solution saline séparée de celle-ci par la membrane; probablement la première observation du phénomène d’osmose.

Depuis, la technique a quand même évolué et la venue des matières synthétiques sur le marché a permis de réaliser des membranes semi-perméables de manière industrielle.

On distingue plusieurs types de membranes :

  • Isotropes, où les propriétés structurelles sont constantes sur toute l’épaisseur de la cartouche.
  • Anisotropes, où les propriétés structurelles varient sur l’épaisseur de la cartouche.
  • Liquides.

En fonction de la nature des matériaux constituant les couches des membranes, on parle de :

  • Membranes organiques fabriquées à partir de polymères organiques tels que l’acétate de cellulose, de polyamides, …
  • Membranes minérales constituées de matériaux tels que les matières céramiques, le métal fritté et le verre. Ces matériaux résistent bien aux hautes températures et aux agressions chimiques.
  • Membranes composites caractérisées par la structure asymétrique d’une peau très fine et constituées de plusieurs couches différenciées par leur nature physico-chimique (organique, organo-minérale ou minérale).
  • Membranes échangeuses d’ions.

Suivant la géométrie des supports (modules) de ces membranes, on trouve sur le marché :

  • Les modules tubulaires qui utilisent une technologie simple, facile d’utilisation et de nettoyage mais de compacité réduite où la consommation d’énergie est important pour un faible débit de perméat.
  • Les modules composés d’un ensemble important de fibres creuses (grand débit de perméat).
  • Les modules plans où les membranes sont empilées à la manière d’un « mille-feuilles » séparées par des cadres intermédiaires qui assurent la circulation des fluides. On retrouve souvent dans les installations d’osmose inverse des modules spiralés.

La conductivité de l’eau

La conductivité électrique d’une eau correspond à la conductance d’une colonne d’eau comprise entre deux électrodes métalliques de 1 cm² de surface et séparées l’une de l’autre de 1 cm. L’unité de conductivité est le micro-siemens par centimètre (µS/cm). La conductivité traduit la minéralisation totale de l’eau. Sa valeur varie en fonction de la température. Elle est donnée à 20°C. Sa mesure permet de déceler immédiatement une variation de la composition de l’eau, par exemple :

  • Baisse de conductivité de l’eau d’un réseau de chauffage due à l’entartrage.- Réglage de la purge d’une chaudière ou d’un circuit de refroidissement pour limiter la concentration des sels dissous.
  • Contrôle de la production d’une chaîne de déminéralisation. Approximativement, la valeur en µS/cm correspond à la salinité en mg/l. On utilise également la résistivité, inverse de la conductivité, mesurée en ohms.cm : Résistivité (ohms.cm) = 1 000 000 / conductivité (en µS/cm)

Niveau guide de la conductivité à 20°C d’une eau destinée à la consommation humaine : 400 µS/cm

  • < 15 : qualité de l’eau de stérilisation;
  • 50 à 400 : qualité excellente;
  • 400 à 750 : bonne qualité;
  • 750 à 1500 : qualité médiocre mais eau utilisable;
  • > 1500 : minéralisation excessive.

Intermittence des cycles de stérilisation

Intermittence des cycles de stérilisation


Image de l’économie : la température intérieure

La consommation d’un stérilisateur est proportionnelle à la différence de température entre l’intérieur et l’extérieur des équipements sous pression de vapeur. Plus cette différence diminue, moins on consommera.

Graphiquement, on peut représenter la consommation de vapeur comme suit :

Images des déperditions sans intermittence et avec intermittence.

On voit donc que plus la température intérieure chute et plus le temps pendant lequel cette température est basse est important, plus l’économie d’énergie réalisée grâce à l’intermittence est importante.


Paramètres influençant l’économie par intermittence

Si l’installation est coupée pendant les intercycles, quelles seront les économies engendrées ? La figure ci-dessous résume les différents paramètres qui influencent le bilan thermique.

L’économie est fonction du degré d’isolation

Plus l’enveloppe extérieure est isolée moins le transfert de chaleur de la vapeur vers l’ambiance de la zone technique sera aisé. La température de la vapeur aura tendance à rester stable et les économies seront faibles.

L’économie est fonction de l’inertie du système

Imaginons un système très inerte : la température intérieure chutera peu durant la coupure d’intercycle car beaucoup de chaleur s’est accumulée dans l’acier inoxydable. Les économies seront faibles.

L’économie est fonction de la durée de coupure

Une coupure de nuit est beaucoup plus efficace qu’une coupure d’intercycle.

L’économie est fonction du sur-dimensionnement du générateur

Si l’installation est très puissante (générateur et double enveloppe de faible volume), la relance en fin d’intercycle pourra se faire en dernière minute et donc la température intérieure pourra descendre plus bas durant la coupure.


Température interne des équipements

Maintien d’une consigne de température au générateur

Le gain énergétique provient de la diminution des déperditions d’intercycle. Et donc, plus la température intérieure du système de stérilisation descendra, plus l’économie augmentera. Néanmoins, il ne faut pas descendre sous une température de 100°C (sauf pendant la nuit) afin de maintenir le système sous pression (aux alentours de 1 bar) et, par conséquent, de réduire l’alternance de régimes stables et transitoires qui nuit à la pérennité de l’installation (fatigue et stress du métal, risque de fuite aux connexions).

Coupure du générateur

Au début d’un intercycle, lorsque le générateur est coupé, la vapeur sous pression dans la double enveloppe (3 bar – 134 °C) se refroidit au contact des parois et des condensats se forment. La quantité de vapeur résiduelle diminuant dans un volume quasi constant, un vide s’installe. Des casse-vide sont donc nécessaires pour éviter de noyer les équipements par l’aspiration de l’eau du générateur. Cela se matérialise par l’entrée d’air ambiant (à 30 °C) qui contribue à refroidir d’avantage l’intérieur des équipements permettant de réduire les déperditions pendant l’intercycle.


Diffusivité et Effusivité des matériaux

En régime variable (dynamique), le comportement des matériaux accumulant et restituant la chaleur dépend, entre autres, de deux caractéristiques physiques liées à une combinaison de leur :

  • masse volumique ρ[kg/m³];
  • conductivité thermique λ [W/m.K];
  • chaleur massique c [kJ/kg.K]

Diffusivité thermique

La vitesse avec laquelle la température d’un matériau évolue est liée par la relation suivante :

a = λ / (ρ x c) [m²/s]

Plus sa valeur est grande, plus elle s’échauffe et se refroidit vite.

Effusivité thermique

La quantité de chaleur qu’il faut fournir au matériau pour élever sa température est liée par la relation suivante :

Eff = (λ x ρ x c)1/2 [J/m².K.s1/2]

Plus sa valeur est grande, plus il faudra de l’énergie pour parvenir à le réchauffer.

Quelques matériaux

Le tableau suivant donne quelques valeurs de diffusivité et d’effusivité pour différents matériaux :
Matériau ρ [kg/m³] a [10-7m²/s] Eff [J/m².K.s1/2]
Acier 7 800 148 11 700
laine minérale 30 13 36
Polystyrène extrudé
25 9 35
Le cas de l’acier est intéressant dans le sens où il possède à la fois une grande diffusivité a et une grande effusivité Eff :
  • À la réchauffe, il est capable de s’échauffer rapidement au contact de la vapeur (la température de la double enveloppe est vite à + 134 °C) et, par la même occasion, d’emmagasiner de l’énergie en condensant beaucoup de vapeur (la vapeur cède sa chaleur latente); il faut donc une quantité d’énergie importante pour réchauffer la double enveloppe mais cela se fait rapidement.
  • À l’inverse, lors de la coupure d’intercycle ou du soir, l’acier de la double enveloppe se comporterait, s’il n’y avait pas d’isolant extérieur, comme un gros réservoir d’énergie cédant sa chaleur rapidement à l’ambiance. La seule présence d’isolant ne fait que retarder le refroidissement de la double enveloppe.

Période de refroidissement et de réchauffe

Refroidissement

À l’instant t0 de fin de cycle, le couple vapeur-acier échange sa chaleur avec l’ambiance à travers l’isolant. Pour valoriser l’intermittence, c’est à ce moment que l’on décide de couper la source de chaleur du générateur. Il est difficile de dire quel sera le temps qu’il faudra au couple pour que sa température interne passe de 134 à 100 °C. La modélisation de ce temps devrait tenir compte :

  • de la variation d’enthalpie de la vapeur au court du temps;
  • de la chaleur massique de l’acier;
  • de l’importance de l’énergie interne de la vapeur (en fonction de sa masse) par rapport à celle stockée dans l’acier;

Dans l’exemple qui suit, on tente de simplifier le modèle :

Soit quelques données :

  • mdouble enveloppe  = 200 [kg];
  • Tde0 = 134 [°C];
  • cacier = 500 [J/kg.K]
  • h »vapeur à 3 bar 134°C  = 2 727 [kJ/kg];
  • déperditionsde = 2 100 [W] (ces déperditions tiennent compte de l’isolant autour de l’acier);
  • volume de la double enveloppe estimé à Vde = 0,047 [m³];
  • volume massique de la vapeur à 134[°C] v »134°C = 0,6 [m³/kg];
  • L’ambiance de la zone technique est à une température de l’ordre de Tamb0 = 28 [°C] et reste constante.

On considère que, suite à la coupure de la source de chaleur à l’instant t0, les déperditions vers l’ambiance de la zone technique entrainent le refroidissement de la masse de la double enveloppe et de la vapeur.

Comme représenté dans le graphe (s,T) suivant, la vapeur se refroidit à volume constant. Si on considère que l’on doit maintenir 100 [°C] dans la double enveloppe (réduire les contraintes thermiques et mécaniques), la vapeur est partiellement condensée après un certain temps et garde une enthalpie de l’ordre de 1 500 [kJ/kg]. Ce que nous ignorons, c’est après combien de temps elle sera dans cet état.

Si on compare l’enthalpie de la masse de vapeur présente dans la double enveloppe et l’énergie emmagasinée dans l’acier, on se rend compte que le problème se simplifie car l’acier a emmagasiné beaucoup plus d’énergie que la vapeur (dû à sa faible masse) :

L’énergie stockée dans l’acier est de l’ordre de :

Eacier =  cacier  x mdouble enveloppe  x  (Tde0 – Tamb0)  

500 [J/kg.K] x 200 [kg] x ( 134 [°C] – 28 [°C])

Eacier = 10 600 [kJ]

L’énergie de la vapeur est de l’ordre de :

Evapeur =  h »vapeur à 3 bar 134°C  x Vde / v »134°C

=

2 727 [kJ/kg] x 0,047 [m³] / 0,6 [m³/kg]

Evapeur = 213 [kJ]

Le rapport des énergies internes de la vapeur et de l’acier à l’instant t0 est de l’ordre de 50; ce qui signifie que l’état de refroidissement de la vapeur est dicté par la masse d’acier qui échange sa chaleur avec l’ambiance à travers l’isolant.

Ce refroidissement suit une loi exponentielle décroissante :

T(t) = Tamb + Δ T x e-t/τ

avec :

τ = mdouble enveloppe x  cacier /  (kS / Δ T)

(avec kS / Δ T =  déperditions de/ Δ T)

τ = 200 [kg] x 500 [J/kg.K] /  (2 100 [W] / 106 [°C])

τ = 5 048 [s]

ou τ = 84  [min]

La courbe suivante montre la décroissance de la température pendant la durée de l’intercycle :

Réchauffe

Il est intéressant de savoir quand il faut effectuer la relance avant un nouveau cycle. Cet intervalle de temps peut être évalué :

Soit les mêmes données :

  • Tde0 = 134 [°C];
  • mdouble enveloppe  = 200 [kg];
  • cacier = 500 [J/kg.K]
  • h »vapeur à 3 bar 134°C  = 2 727 [kJ/kg];
  • déperditionsde = 2 100 [W];
  • Puissance du générateur = 40 [kW];
  • volume de la double enveloppe estimé à Vde = 0,047 [m³];
  • volume massique de la vapeur à 134[°C] v »134°C = 0,6 [m³/kg];
  • L’ambiance de la zone technique est à une température de l’ordre de Tamb0 = 28 [°C] et reste constante.

La réchauffe en fin d’intercycle nécessite de fournir de l’énergie :

  • à la vapeur pour qu’elle atteigne à nouveau les 3 [bar] de pression.

Δh1 =  (h »vapeur à 3 bar 134°C – hvap_refroidie)  x Vde / v »134°C

(2 727 [kJ/kg] – 1 500 [kJ/kg]) x 0,047 [m³] / 0,6 [m³/kg]

Δh1 =  96 [kJ] 

  • à l’acier pour ramener sa température à 134 [°C] et assurer sa fonction de réchauffe de la chambre de stérilisation.

ΔE =  E acier à 134 °C  – Eacier à 100 °C = 10 600 [kJ] – 7 200 [kJ]

ΔE =  3 400  [kJ]

  • pour compenser les déperditions, soit 2 100 [W].

L’énergie doit être fournie par le générateur de 40 [kW] (valeur courante de puissance).

On en déduit que le temps de remontée en température dépend surtout du réchauffement de la double enveloppe :

T(t) = Tint + Δ T x (1-e-t/τ)

avec  :

  • Tint = 100 [°C];
  • Δ T =  34 [°C];
  • kS / Δ T =  (Pgénérateur – déperditionsde) /Δ T)

    kS / Δ T = (40 000 – 2 100) [W] / 34 [°C]) = 1 115 [W/K];

  • τ = mdouble enveloppe x  cacier /  (kS / Δ T) τ

    τ = 200 [kg] x 500 [J/kg.K] / 1 115 [W/K] = 90 [s]

La courbe suivante montre la croissance de la température à la fin de l’intercycle :

On voit que la réchauffe est très rapide et qu’il n’est pas nécessaire de trop anticiper avant le démarrage du second cycle.

Il serait intéressant, dans la pratique, de mesurer ces temps afin de se rendre compte de l’intérêt de couper le générateur de vapeur ou de maintenir la température d’intercycle légèrement au-dessus de 100 °C.