Objectifs d’une bonne toiture

Objectifs d'une bonne toiture


Objectifs d’une bonne toiture

La toiture sera stable et protégera les occupant des agresseurs extérieurs :

  • l’eau,
  • le froid,
  • la poussière,
  • le vent,
  • le bruit.

Assurant ainsi le confort des occupants à un coût énergétique avantageux.


Comment composer une toiture qui remplisse ces objectifs ?

Pour visualiser la composition d’une toiture inclinée, consulter la partie ci-dessous :


1. Le bâtiment sans toiture

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 0°
  5. Mur creux isolé

2. La toiture élémentaire

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –
  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 1°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

3. La toiture sans infiltration

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
  Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –
  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 5°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d’air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

4. Vers une toiture isolée

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d »inconfort.
– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 18°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes
  10. Pose d’un isolant thermique

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d’air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

L’isolation

  • Elle limite les pertes de chaleur.
  • Elle protège les occupants du bruit extérieur.

DANGER ! RISQUES DE CONDENSATION


5. La toiture isolée complète

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.

– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 20°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes
  10. Pose d’un isolant thermique
  11. Pose d’un écran étanche à l’air et à la vapeur
  12. Finition intérieure

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d »air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

L’isolation

  • Elle limite les pertes de chaleur.
  • Elle protège les occupants du bruit extérieur.

L’écran étanche à l’air et à la vapeur, et la finition intérieure

  • Ils suppriment les courants d’air.
  • Ils protègent la toiture des condensations internes et lui conservent son aspect, son efficacité thermique et sa stabilité.

Choisir la cheminée et la ventilation de la chaufferie

Étanchéité et alimentation en air

         

   

Distinction entre chaudières étanches (figures du bas) et non-étanches (figures du haut) ainsi que des chaudières à tirage naturel (figures de gauche) et à tirage forcé (figure de droite)

Étanchéité de la chaudière

On distingue les chaudières étanches et non-étanches. Les chaudières étanches ont des circuits de combustion étanches par rapport à l’enveloppe du bâtiment. Elles tirent leur air de combustion de l’environnement extérieur. À l’opposé, la chaudière non-étanche soutire son air de combustion de la pièce dans laquelle elle est installée. Cette distinction a une influence sur la stratégie de ventilation du local de chauffe. De manière générale, la ventilation a pour objectif de maintenir la température du local en-dessous d’un certain seuil (typiquement 40°C). En effet, la chaudière ainsi que les circuits hydrauliques associés sont sujet à des pertes de chaleur. Le but de ventilation est alors d’évacuer ces pertes. Dans le cas d’une chaudière non-étanche, la ventilation du local doit aussi amener l’air nécessaire pour une combustion correcte dans l’appareil. Cela aboutit à un dimensionnement différent, essentiellement en ce qui concerne l’amenée d’air neuf dans le local de chauffe.

Tirage naturel ou forcé

Une seconde distinction concerne la force motrice qui assure le mouvement des gaz dans le circuit de combustion. On trouve, d’une part, les chaudières munies d’un ventilateur. Si celui-ci est suffisamment puissant, il assurera la majeur partie du travail pour amener l’air neuf à la chaudière et pour évacuer les fumées. On parle alors de tirage forcé. D’autre part, on a les chaudières travaillant essentiellement par tirage naturel. En effet, l’air contenu dans la cheminée a une température plus élevée que la température ambiante si bien que la densité de l’air dans cette cheminée est plus faible. Du coup, cette colonne d’air a tendance à s’élever tout en appelant de l’air frais vers l’appareil de combustion.  De nouveau, cette distinction entre mode de fonctionnement conditionne le dimensionnement de la cheminée. Dans le cas du tirage naturel, celle-ci doit être dimensionnée de manière rigoureuse pour assurer une évacuation correcte des produits de combustion et amener une quantité suffisante d’air neuf à l’appareil et donc garantir une bonne combustion.


Cheminée

Le rôle de la cheminée est d’évacuer les gaz de combustion. Ces gaz contiennent principalement du CO2 et de l’eau mais aussi des composants toxiques comme le CO ou des oxydes d’azote (NOx).

Une mauvaise cheminée peut donc être dangereuse pour les occupants ou se détériorer sous l’effet de la condensation des fumées. Elle peut également perturber les performances de la chaudière, en tout cas pour les chaudières en dépression.

Le conduit de cheminée doit respecter 4 critères :

  1. être bien dimensionné,
  2. avoir le tracé le plus rectiligne possible,
  3. avoir un débouché à l’abri des perturbations du vent,
  4. avoir une faible inertie thermique et une bonne isolation.

Dans le cas des chaudières étanches, les conduits d’évacuation sont considérés comme faisant partie intégrante de la chaudière si bien que le couple chaudière et circuit a été conçu par le fabricant. Il faut se référer à ses spécifications pour garantir un fonctionnement correct de l’installation. Dans les cas des chaudières non-étanches, on doit les raccorder à un circuit d’évacuation qui doit être correctement dimensionné.

Dimensionnement de la cheminée

Le dimensionnement du conduit d’évacuation diffère selon que la chaudière est dotée d’une chambre de combustion non-étanche (ouverte) ou étanche.

Dimensionnement pour chaudières étanches

Dans le cas des chaudières étanches, les conduits d’évacuation sont considérés comme faisant partie intégrante de la chaudière si bien que le couple chaudière et circuit a été conçu par le fabricant. Il faut se référer à ses spécifications pour garantir un fonctionnement correct de l’installation.

Dimensionnement pour chaudières non-étanches

Dans les cas des chaudières non-étanches, il faut les raccorder à un circuit d’évacuation qui doit être correctement dimensionné. La chaudière ne peut fonctionner correctement sans cette cheminée adaptée. C’est pourquoi, la cheminée doit être choisie en fonction de la chaudière et non l’inverse.

Par exemple, une chaudière avec un ventilateur suffisamment puissant ne nécessite pas systématiquement un tirage naturel pour assurer la bonne évacuation des fumées. Dans ce cas de figure, le conduit d’évacuation peut être relativement court. En effet, dans le cas des chaudières où le tirage naturel joue un rôle prépondérant, la longueur de la cheminée doit être suffisamment longue pour assurer le tirage souhaité. À l’opposé, ce conduit ne doit pas être trop long si on veut éviter la condensation et ses désagréments. On l’aura compris, dimensionner un cheminée est question de spécialiste qui mérite un traitement rigoureux.

En outre, on distingue les foyers dits « pressurisés » et les foyers « à dépression ». La situation est encore différente avec une chaudière gaz atmosphérique. La puissance de la chaudière joue également un rôle important puisqu’elle conditionne le volume de gaz à évacuer. Cela est d’ailleurs une donnée importante en rénovation.

Exemple pour une chaudière à tirage naturel :

On remplace une ancienne chaudière à foyer en dépression (à tirage naturel) dont la température de fumée ne descendait pas en dessous de 220°C, par une chaudière à foyer en surpression (à tirage naturel) dont la température de fumée est de l’ordre de 160°C. De plus, le surdimensionnement de l’ancienne installation a été réduit. On est ainsi passé d’une puissance de 500 kW a une puissance de 300 kW.

Suivant la norme NBN B61-001, l’ancienne chaudière demandait une cheminée (pour une hauteur de 18 m) d’un diamètre de 48 cm. La nouvelle chaudière ne demande plus qu’un diamètre de 24 cm.

Si on raccorde la chaudière de 300 kW au conduit existant, la surface déperditive du conduit devient trop importante pour la masse plus réduite des fumées. Les risques de condensation sont alors importants. Le refroidissement des fumées le long du conduit peut également être tel qu’il réduit dangereusement le tirage.

Les mauvaises réactions, face à cette situation visent à tenter d’augmenter la température des fumées à la sortie de la chaudière :

  • enlever certains turbulateurs situés dans les tubes de l’échangeur pour accélérer les fumées dans la chaudière et diminuer l’échange de chaleur dans celle-ci,
  • modifier le réglage ou la régulation du brûleur (par exemple en « pontant » la première allure).

Cela a évidemment pour conséquence de diminuer le rendement de la nouvelle chaudière.

Le bon réflexe est d’accompagner le remplacement de la chaudière d’une modification de la section du conduit de fumée, par exemple, grâce à un tubage du conduit existant.

Dimensionnement pour chaudières non-étanches à tirage naturel

De manière générale, la section des conduits d’évacuation des chaudières à tirage naturel peut être évaluée au moyen d’abaques qui tiennent compte :

  • du type de chaudière,
  • de la hauteur de la cheminée,
  • de la puissance de la chaudière,
  • de la température des fumées à la sortie de la chaudière.

En fait le calcul d’une cheminée dépend d’autres paramètres comme :

  • la longueur du conduit de raccordement,
  • la hauteur de la cheminée,
  • la hauteur du conduit de raccordement,
  • les résistances locales comme les coudes, les tés, le couronnement de cheminée, …
  • la nature de la surface du conduit,
  • l’isolation du conduit,
  • l’inertie thermique du conduit,
  • le type de chaudière,
  • la puissance de la chaudière,
  • le rendement de combustion,
  • le taux de CO2 compris dans les fumées,
  • la température des gaz de combustion.

Lorsque les conditions réelles de fonctionnement s’écartent des conditions d’établissement des abaques, il faut procéder à un calcul plus précis. Pour simplifier celui-ci, les fabricants de cheminées ont établi des tableaux et graphiques relatifs à leur produit, en fonction des types de chaudière et des conditions de fonctionnement les plus courantes. Les abaques repris dans les normes peuvent cependant donner des ordres de grandeur de contrôle permettant d’éviter un surdimensionnement excessif.

Tracé de la cheminée

Coudes et changements de section

Quelque soit la force qui assure l’évacuation des fumées, c’est-à-dire un ventilateur et/ou le tirage naturel, l’objectif est d’atteindre le débit nominal d’échappement en vainquant les forces de frottement du conduit (les pertes de charge). Il faut donc veiller à ce que le circuit d’évacuation des fumées aie des pertes de charge compatibles avec la force motrice disponible.

Dans le cas du tirage naturel, la force dépend essentiellement de la hauteur de la cheminée et de la température des fumées : plus la température est élevée et la cheminée haute, plus le tirage est important (sans arriver pour autant à la condensation). Comme on souhaite travailler avec la température de fumées la plus basse et une cheminée la moins haute possible, on comprend que le tirage naturel est limité. Il est dès lors vital de limiter les frottements (les pertes de charge) au sein du conduit d’évacuation. On comprend aisément que la rugosité, les coudes dans le conduit vont créer des frottements complémentaires qui sont autant d’entraves au tirage. Il en va de même pour les changements de section ou de forme (comme le passage d’une section carrée à une percée de toit ronde). Pour que les changements de section et de forme ne présentent quasi pas de perte de charge, il faut ceux-ci se fassent progressivement sous en angle de 15°C. Idéalement, les virages devraient s’exécuter avec des coudes de 15°. Les coudes jusqu’à 30°C présentent des résistances encore tolérables.

Dans le cas du tirage forcé, c’est le ventilateur qui principalement assure le débit d’évacuation. Sur base des caractéristiques de ce ventilateur, on peut connaître les pertes par frottement qu’il est capable de vaincre. Typiquement, le constructeur peut donner la longueur maximale du conduit qu’il est possible de placer en aval de la chaudière ainsi que le nombre de coudes.  Ces coudes peuvent avoir des angles très élevés, voire même des angles droits. Spatialement parlant, les conduits des chaudières à tirage forcé sont plus faciles à intégrer que leur homologues à tirage naturel.

Raccordement de la chaudière

Le conduit de raccordement joint le bord externe du conduit de sortie de l’appareil de combustion au conduit d’évacuation.

Dans le cas où le tirage naturel joue un rôle important dans l’évacuation des fumées, le conduit de raccordement doit aussi assurer son rôle ou du moins, ne pas perturber ce processus.
À cette fin, le raccordement de la chaudière à la cheminée ne devrait pas présenter de contre-pente, voire idéalement ne pas se faire suivant un conduit horizontal mais plutôt au moyen d’un conduit ascendant. Typique, on prescrit une pente de 45°C, surtout si la cheminée est peu élevée.

Débouché de la cheminée

De nouveau, on fait la distinction entre tirage naturel et forcé.

Dans le cas du tirage naturel, les conditions météorologiques extérieures ont une influence sur ce tirage. On pense à la température mais aussi aux variations de pression statique induites par le vent. En l’absence d’obstacles, le vent induit une dépression au niveau du débouché de cheminée par effet Venturi et ce, même en l’absence de combustion. Si cette dépression n’est pas trop importante, elle contribue favorablement au tirage. En présence d’obstacles, par exemple à proximité du bâtiment, l’écoulement autour de ceux-ci peut engendrer des dépressions ou surpressions locales (suivant l’orientation du vent). Les surpressions peuvent réduire le tirage voire engendrer du refoulement. Il faut donc veiller à ce que le débouché de cheminée se trouve hors de la zone d’influence des différents obstacles. Par obstacle, on entend le bâtiment lui-même voire un bâtiment voisin. C’est pourquoi les normes NBN B61-001 et NBN B61-002 définissent des zones d’emplacement autorisées des débouchés de cheminées par rapport aux bâtiments et autres obstacles voisins.

De manière générale, le débouchés ne peuvent gêner les constructions voisines ou se trouver dans une zone inaccessible au personnel d’entretien ou aux pompiers. Si le fonctionnement de la cheminée ne doit pas être perturbé par son environnement (essentiellement, le vent), la cheminée ne peut elle non plus perturber son environnement. En effet, elle rejette des produits de combustion qui doivent être suffisamment dilués avant de rencontrer des ouvertures de bâtiments.

Forme de la cheminée

Toujours dans l’optique de contrôler le tirage, la cheminée idéale est ronde. C’est ainsi que pour une section donnée, la surface de paroi et donc les frottements sont les moindres. Les pertes de chaleur sont également les plus faibles. Une section carrée avec coins arrondis convient aussi.

Isolation de la cheminée et inertie thermique

Plus la cheminée est haute, plus il est important de l’isoler, afin d’éviter que les gaz de combustion ne se refroidissent trop, risquant de provoquer de la condensation non prévue. En effet, à partir de 70°C, le souffre contenu dans les combustibles (principalement de fuel) se transforme en acide liquide. Dans le cas du tirage naturel, un refroidissement risquerait de réduire significativement ce tirage. La résistance thermique minimale est 0.75 m².K/W pour la norme NBN B61-001 et de 0.4 m².K/W pour la norme NBN B61-002, plus récente.

Les produits isolants choisis doivent résister à des températures élevées (en cas de dérèglement de la chaudière), être imputrescibles et ne peuvent pas se tasser (les isolants en « vrac » sont interdits). Notons que l’isolation du conduit de cheminée limite également les nuisances sonores.

Plus la cheminée est chaude, plus le tirage est important et moins les fumées se refroidissent. Ainsi, plus le conduit de cheminée a une inertie thermique importante, plus le temps nécessaire pour parvenir au tirage maximal est long. On choisira donc de préférence un conduit de cheminée dont la paroi intérieure est légère (avec bien entendu la résistance mécanique requis

Matériaux

Différents matériaux peuvent être utilisés pour réaliser un conduit de cheminée :

  • les boisseaux en terre cuite ou en béton,
  • les conduits en inox, c’est-à-dire en acier inoxydable,
  • les conduits en aluminium,
  • les conduits en matériau synthétique (Polyvinyldène  Fluoride, PVDF, et Polypropylène, PP).

Les caractéristiques des produits de combustion des chaudières de chauffage central déterminent le choix du conduit de raccordement et d’évacuation. Il s’agit :

  • de la température des fumées,
  • de leur composition chimique,
  • du risque de la formation de condensation,
  • de la présence de suie,
  • du niveau de pression.

Des normes européennes (NBN EN 1443 et 1856-1) permettent de classifier les conduits suivant leur résistance à ces différentes caractéristiques. Ces classes, complétées d’information concernant l’épaisseur minimale de paroi, le débit de fuite maximal admis et les exigences de sécurité incendie, offrent la possibilité de faire le choix parfait pour les conduits de raccordement et d’évacuation à utiliser.

 

Exemple de marquage de conduit d’évacuation métallique : différentes « classe » par caractéristiques étudiées (classe de température, de résistance aux condensats, etc.).

Bien évidemment, ces caractéristiques des produits de combustion sont influencée par le type de combustible et le type de chaudière (par exemple, avec ou sans condensation).

Boisseaux en terre cuite et en béton.

Cheminée en inox double paroi et en PVDF.

Pour les conduits métalliques ou synthétiques, on parle de « système », c’est-à-dire que le conduit de raccordement, le conduit vertical et le débouché forment un ensemble constitué du même matériau. Le fonctionnement de ce système est de la responsabilité du fabricant de conduit. Le premier avantage de ces systèmes est la facilité de dimensionnement : chaque fabricant dispose d’abaques permettant de choisir le diamètre le plus approprié à la chaudière choisie.

Quelques remarques :

  • Différentes variantes d’acier inoxydables existent. Suivant ces différences de composition, ils peuvent être mis en œuvre avec différents types de chaudière. À titre d’exemple, l’acier ANSI 316 est interdit pour les chaudières fuel à condensation et pour les chaudières à combustible solide. L’acier ANSI 904L peut quant à lui être appliqué à tout type de chaudière.

 

  • Les conduits en aluminium ne conviennent que pour les chaudières au gaz.

 

  • Les conduits en matière synthétique ne peuvent être utilisés que si les températures des fumées ne dépassent jamais 80°C, typiquement pour des chaudières à condensation. Une protection doit garantir que cette température maximale ne sera pas dépassée (par exemple, un thermostat de sécurité). Les conduits synthétiques doivent quant à eux pouvoir tenir jusqu’à une température de 120° (correspond à la classe de température T120).

Régulation du tirage

Comme le tirage naturel dans la cheminée peut fortement influencer le rendement de combustion et que ce tirage est lui-même influencé par les conditions atmosphériques (température de l’air extérieur, vent), il faut équiper une cheminée d’un régulateur de tirage. Remarquons que les chaudières gaz atmosphériques sont, quant à elles, d’office équipées d’un coupe-tirage intégré qui remplit les mêmes fonctions que le régulateur de tirage. De manière générale, on ne place pas un régulateur de tirage si la chaudière est déjà équipée d’un coupe-tirage.

Régulateur (ou stabilisateur) de tirage.

Évaluer

Pour en savoir plus sur l’impact du tirage sur le
rendement de combustion.

Le régulateur de tirage présente également d’autres intérêts :

    1. Les brûleurs pulsés actuels (gaz ou fuel) sont équipés d’un clapet d’air qui se referme automatiquement à l’arrêt. Il n’y a donc plus de ventilation du conduit de cheminée quand la chaudière est arrêtée (pertes par balayage). La cheminée reste donc humide (condensation des fumées, pénétration d’eau de pluie). A l’arrêt, le régulateur de tirage maintiendra une certaine ouverture et une ventilation permanente de la cheminée par l’air de la chaufferie, permettant au conduit de sécher.
    2. Lorsque le clapet est ouvert, le mélange de l’air de la chaufferie et des fumées diminue la concentration en vapeur d’eau des fumées et diminue la température de rosée et donc les risques de condensation.

Nombre de conduits

Selon la norme NBN B61-001 et NBN B61-002, il y a lieu de prévoir un conduit par chaudière. C’est la règle générale qu’il faut retenir.

Il existe néanmoins deux exceptions qui s’applique aux chaudières atmosphériques à tirage naturel :

Premièrement, on peut utiliser des conduits collectifs pour des chaudières gaz atmosphériques si les dispositions locales ne permettent pas de disposer d’un conduit individuel. Dans ces cas, il faut se référer à la norme NBN D51-003 qui mentionne notamment que plusieurs chaudières peuvent être raccordées sur une même cheminée.

Notons que pour y voir plus clair, l’ARGB a édité un cahier des charges « Exigences pour les ensembles composés de chaudières en batterie et fonctionnant en cascade » qui permet de définir les critères à respecter en matière d’évacuation des produits de combustion. Pour le lecteur intéressé, l’ARGB a également édité un dossier technique « Installations alimentées en gaz combustible plus léger que l’air, distribué par canalisations » (février 2000), qui permet de s’y retrouver dans les méandres de la norme NBN D51-003 et de ses addenda 1 et 2.

Deuxièmement, dans le cas des chaudières non-étanches avec évacuation des produits de combustion par tirage naturel et de puissance inférieure à 70 kW, des chaudières de même type, montées en batterie et installées dans un même espace, peuvent être assimilées à une chaudière unique pour autant que :

  • les chaudières font partie d’un ensemble prévu pour fonctionner comme une seule unité (chaudières en cascade),

 

  • les chaudières sont équipées d’un collecteur de fumées spécialement conçu par le fabricant qui assure une évacuation correcte des produits de combustion et une combustion optimale dans n’importe quelle condition de fonctionnement,

 

  • le bon fonctionnement de l’ensemble a été contrôlé en laboratoire et certifié,

 

  • la puissance de démarrage à froid est, de minimum, 25 % de la puissance utile de l’ensemble des chaudières.

Il est en tout cas défendu de raccorder sur un même conduit, une chaudière gaz atmosphérique et une chaudière à brûleur pulsé.

Cas particulier des chaudières à condensation

Les produits de combustion issus d’une chaudière à condensation sont saturés en vapeur d’eau dont une partie va se condenser sur les parois de la cheminée. Cela exclut une évacuation par une cheminée traditionnelle en maçonnerie, car l’humidité provoquerait de graves dommages au bâtiment.

Les solutions possibles sont  :

  • La cheminée étanche à l’humidité, en acier inoxydable ou en matériau synthétique. Elle permet de maintenir une température inférieure au point de rosée sans que l’humidité ne la traverse et attaque la maçonnerie. Fonctionnant en surpression, elle est aussi étanche aux produits de combustion.

 

  • Le tubage, qui s’applique à une cheminée ancienne, doit être étanche, résistant à la corrosion et installé dans une cheminée. Le tubage doit pouvoir fonctionner en surpression dans toute sa longueur.

 

  • La cheminée en boisseaux pour peu qu’elle possède un agrément technique ATG pour fonctionner avec une chaudière à condensation.

En principe, dans une chaudière à condensation la température des fumées est supérieure à la température de l’eau entrant dans la chaudière d’environ 5°C. La température des fumées ne peut donc jamais dépasser 80°C (selon la norme NBN B61-002). Cependant pour pallier à un défaut de la régulation de cette dernière, un thermostat de sécurité coupant la chaudière si la température des fumées dépasse 120°C doit être prévu dans les raccordements vers la cheminée en matériau synthétique.

Il est important aussi de signaler que l’on ne peut raccorder sur un même conduit de cheminée, une chaudière traditionnelle et une chaudière à condensation.

Évacuation des condensats avec une chaudière à condensation : NIT 235 du CSTC

Une chaudière installée dans une maison unifamiliale moyenne produit approximativement 500 à 2000 litres de condensat par an. Il s’agit de rejets acides avec un pH compris entre 2 et 4 dans le cas du mazout pauvre en soufre (mazout extra) et entre 4 à 5 dans le cas du gaz naturel. Il est donc important que les matériaux qui entrent en contact avec les condensats présentent une bonne résistance à la corrosion : matières synthétiques, grès, fonte …

Il est vivement déconseillé d’évacuer les condensats sur des toitures comportant des éléments métalliques (couverture, avaloirs, gouttières, conduits d’évacuation, …) ou de les mettre en contact avec des matériaux de construction pierreux traditionnels ou des produits à base de ciment (tuyaux en fibres-ciment, par exemple).

A l’heure actuelle, il n’existe en Belgique aucune prescription spécifique applicable à l’évacuation de ces condensats acides. Il est conseillé de ne pas déversé ces condensats directement mais de les mélanger préalablement avec les eaux usées domestiques qui sont de nature plutôt basique (produits de nettoyage), donc apte à neutraliser l’acidité. Si l’on ne parvient pas à ramener le pH à un minimum de 6.5, il est alors recommandé de réaliser un traitement des condensats pour les neutraliser.

Si la chaudière à condensation fonctionne au mazout, il y a lieu de disposer, en amont du système neutralisant éventuel, un filtre à charbon actif dans le but de débarrasser l’effluent des dérivés huileux.


Remplacement de chaudière et adaptation de la cheminée

Le remplacement d’une ancienne chaudière s’accompagne presqu’inévitablement d’une diminution du débit et de la température des fumées à évacuer. En effet :

  • la puissance de la chaudière est revue à la baisse (souvent fortement),
  • l’échange de chaleur entre les fumées et l’eau est optimalisé dans la chaudière.

Suivant les prescriptions reprises ci-dessus, cela devrait nécessiter une modification de la section de la cheminée existante.

Dans tous les cas, si des condensations apparaissent dans le conduit de cheminée après la rénovation, il ne faut pas corriger le tir en détériorant les performances de la chaudière, c’est-à-dire :

  • en modifiant le réglage du brûleur pour augmenter la température des fumées (diminution du rendement de combustion),

 

Deux solutions permettent de limiter les risques de condensation sans modifier la cheminée :

  • isoler le conduit de raccordement entre chaudière et la cheminée pour augmenter la température des fumées à l’entrée de la cheminée,

 

  • maintenir, à l’arrêt, l’ouverture du régulateur de tirage pour assurer une ventilation de la cheminée à l’arrêt. Notons que la présence d’un régulateur de tirage diminue, en soi, les risques de condensation car la dilution des fumées dans de l’air diminue le point de rosée.

Si ces deux solutions n’apportent pas de résultat, le tubage de la cheminée pour adapter celle-ci à la nouvelle chaudière, devient inévitable.


Ventilation du local contenant les appareils de chauffe

La ventilation a pour objectif d’évacuer les pertes de chaleur des équipements de combustion afin de maintenir une température acceptable au sein du local contenant ces appareils. En outre, la ventilation assure la qualité de l’air en amenant l’air frais et en évacuant l’air vicié.

Dans le cas des appareils non-étanches, la ventilation doit aussi

  • assurer un apport d’air comburant suffisant au brûleur pour permettre un déroulement correct de la combustion,
  • maintenir constante la dépression entre la chaufferie et la cheminée.

Pour les installations de chauffage de puissance supérieure à 70 kW, les prescriptions en matière de ventilation des chaufferies sont reprises dans la norme NBN B61-001. Dans ce cas, il est nécessaire de travailler avec un chaufferie qui sera équipée d’une ventilation basse et d’une ventilation haute. Celles-ci sont directement en contact avec l’extérieur ou raccordées à des conduits suivant les indications de la norme.

Pour les installations de chauffage de puissance inférieure à 70 kW, les prescriptions en matière de ventilation des chaufferies sont reprises dans la norme NBN B61-002. Comme évoqué ci-dessus, une chaufferie spécifique n’est pas toujours nécessaire. A la base, un débit de 0.72 m³/h.kW avec un minimum de 25.3 m³/h doit être garantis pour maintenir la température du local inférieure à 40°C. Se superpose ensuite les contraintes inhérentes à la technologie des chaudières, à savoir si la chaudière est étanche ou pas. Si la chaudière est non-étanche, il faut garantir un débit d’air suffisant pour assurer la combustion optimale. Si l’on travaille sur base d’une ventilation naturelle, l’air est admis au sein du local de chauffe au moyen d’un orifice ou d’un conduit dont les caractéristiques sont prescrites par la norme. L’air vicié du local est évacué par un orifice de diamètre au moins égal au tiers de l’orifice d’admission.

Ventilation basse pour P > 70 kW

L’amenée d’air doit se faire au moyen d’un dispositif de ventilation basse situé le plus près possible du sol (au maximum au 1/4 de la hauteur du local).

D’une manière générale, pour les chaufferies de moins de 1 200 kW, la section à prévoir est de :

1 dm² par 17,5 kW, si la cheminée est plus haute que 6 m.

1,5 dm² par 17,5 kW, si la cheminée est moins haute que 6 m.

Cette section minimale augmente en fonction des accidents de parcours entre l’extérieur et la chaufferie (si la conduite d’amenée d’air comprend plus de 3 coudes). Dans ce cas et pour les chaufferies de plus de 1 200 kW, il faut se référer à la norme.

Exemples de ventilation basse pour une chaufferie en sous-sol.

1. première grille, 2. deuxième grille, 3. premier coude à 90°, 4. deuxième coude à 90°, 5. découpe en biais à 45°

Si un conduit d’amenée d’air est nécessaire dans la chaufferie, celui-ci sera coupé à 45°C, pour éviter une obstruction intempestive.

L’ouverture de ventilation basse ne doit pas forcément déboucher à l’extérieur. Elle peut communiquer avec un autre local, pour autant que celui-ci soit à son tour ventilé.

Ventilation haute pour P > 70 kW

L’air vicié éventuellement accumulé dans la chaufferie doit également être évacué à l’extérieur. À cet effet, une ventilation haute doit être prévue à la partie haute du local, du côté opposé à la ventilation basse pour permettre un bon balayage du local.

  • Le conduit de ventilation haute peut être un conduit parallèle à la cheminée. Dans ce cas, son débouché à l’extérieur doit se trouver entre 0,5 et 1,5 m sous le débouché de la cheminée.

Conduit de ventilation haute associé à la cheminée.

  • Cela peut également être un conduit plus court débouchant au-dessus de la toiture ou à un niveau intermédiaire. Dans ce dernier cas, le débouché doit être le plus éloigné possible des portes et fenêtres.

Cas particulier des chaufferies en ambiance polluée

L’air aspiré par le brûleur doit être exempt de produits corrosifs pour la chaudière.

Par exemple, si l’air de combustion risque d’être pollué par des composants halogénés en provenance, par exemple de firmes de nettoyage à sec, d’imprimeries, de teintureries, d’une piscine…, des précautions doivent être prises pour assurer une amenée d’air frais pur. Dans certains cas, l’utilisation de chaudières étanches avec prise d’air dans un endroit non pollué est à conseiller.

Chaudières gaz raccordées à une cheminée à ventouse (on parle aussi de combustion étanche) : l’air comburant est aspiré à l’extérieur par le conduit externe et les fumées sont évacuées par le conduit interne. Les deux conduits peuvent être séparés mais suffisamment proches pour être exposés à des conditions de vent identiques. Dans le cas, la ventilation basse de la chaufferie n’est plus nécessaire.

Les chaudières sont également très sensibles aux poussières. Celles-ci sont aspirées par le brûleur, encrassent le ventilateur, sont brûlées et se déposent dans la chaudière. Il en résulte une perte de rendement. C’est pourquoi, il faut partir du principe, pourtant rarement respecté qu’:

une chaufferie ne peut être un atelier !
Exemple.

Dans une institution hospitalière, une chaudière s’avère difficile à régler, tombe souvent en panne et s’encrasse rapidement.

La raison : la ventilation basse de la chaufferie est en communication directe avec la buanderie. Une quantité importante de pluches est retrouvée dans le ventilateur du brûleur !

Niveau E : niveau de consommation en énergie primaire

Niveau E : niveau de consommation en énergie primaire


Généralités

La méthode de calcul du niveau E est pour l’instant divisée en deux sous-méthodes : une méthode pour le résidentiel et une autre pour les bâtiments de bureaux et scolaires (d’autres méthodes devraient voir le jour).

Dans ces grandes lignes, le calcul du niveau E intègre, conformément aux impositions de la Directive européenne, les éléments suivants :

  • le site et l’implantation du bâtiment : (compacité, orientation,…) ;
  • les caractéristiques de l’enveloppe et les subdivisions internes (coefficient U et niveau global d’isolation K) ainsi que l’étanchéité à l’air du bâtiment ;
  • les équipements de chauffage, de refroidissement et pour le secteur résidentiel, les équipements d’approvisionnement en eau chaude sanitaire ;
  • la ventilation ;
  • le confort intérieur ;
  • pour le secteur non résidentiel, l’éclairage naturel et les installations d’éclairage ;
  • les systèmes solaires passifs et les protections solaires ;

D’autres éléments peuvent, le cas échéant, être pris en compte :

  • les systèmes solaires actifs et les autres systèmes faisant appel aux énergies renouvelables pour le chauffage et la production d’électricité ;
  • l’électricité et la chaleur produites par une installation de cogénération ;
  • les  systèmes de chauffage et de refroidissement collectifs ou urbains ;
  •  …


Le niveau E

Ce niveau de consommation d’énergie primaire est donné par le rapport entre la consommation caractéristique annuelle d’énergie primaire et une valeur de référence, le tout multiplié par 100 :

E = 100 . Econs / Eref

où :

  • E : Niveau de consommation d’énergie primaire ;
  • Econs : Consommation caractéristique annuelle d’énergie primaire  [MJ]  ;
  • Eref : Valeur de référence pour la consommation caractéristique annuelle d’énergie primaire [MJ]

Consommation caractéristique annuelle d’énergie (Econs)

Le non-résidentiel

Econs = Eéclairage + (Echauffage + Erefroidissement + Eauxiliaires – Ephotovoltaïque – Ecogénération)

  • Eéclairage : Consommation  annuelle d’énergie primaire pour l’éclairage [MJ]
  • Echauffage : Consommation mensuelle d’énergie primaire pour le chauffage [MJ]
  • Erefroidissement : Consommation mensuelle d’énergie primaire équivalente pour le  refroidissement [MJ]
  • Eauxiliaires : Consommation mensuelle d’énergie primaire des auxiliaires [MJ]
  • Ephotovoltaïque : Production mensuelle d’énergie primaire des systèmes d’énergie solaire photovoltaïque [MJ]
  • Ecogénération : Production mensuelle d’énergie primaire résultant d’une installation de  cogénération [MJ]

L’énergie primaire consommée est donc la somme sur les douze mois de l’année de la consommation des différents postes hormis l’éclairage qui est directement comptabilisé annuellement. Ces termes sont décrits de manière plus détaillée en annexe à ce chapitre.

Le résidentiel

L’annexe I de la réglementation, destinée au résidentiel, définit  la consommation d’énergie primaire par :

Econs  = (Echauffage + Eeau chaude sanitaire + Erefroidissement + Eauxiliaires – Ephotovoltaïque – Ecogénération)

La différence entre la méthode de calcul pour les immeubles de bureaux et écoles et celle pour le résidentiel réside donc dans la prise en compte de la consommation d’énergie pour l’éclairage Eéclairage et la non prise en compte de la consommation pour l’eau chaude sanitaire Eeau chaude sanitaire.

De plus, pour le résidentiel un critère sur le risque de surchauffe est aussi à respecter. Une probabilité d’avoir un refroidissement actif est calculée sur base d’un indicateur de surchauffe obtenu par le rapport entre les gains et les pertes de chaleur et dépendant de l’inertie thermique du bâtiment. Cet indicateur doit être inférieur à 17 500 Kh.

Consommation caractéristique annuelle d’énergie de référence (Eref)

La valeur de référence pour la consommation caractéristique annuelle d’énergie primaire dépend de :

– pour le résidentiel de :

  • la surface totale de plancher ;
  • la compacité (rapport entre le volume et la surface totale de toutes les parois qui enveloppent le volume protégé).

– pour le non résidentiel (bureau et écoles) de :

  • la surface totale d’utilisation ;
  • la surface totale de toutes les parois qui enveloppent le volume protégé ;
  • du débit d’alimentation de conception pour la ventilation ;
  • d’une variable auxiliaire (représentant l’éclairement) ;
  • du nombre conventionnel d’heures d’utilisation par an.

En résumé : ce calcul revient à comparer les consommations énergétiques caractéristiques du bâtiment conçu avec les consommations caractéristiques d’un bâtiment de référence (E100). Ce bâtiment est considéré d’une géométrie similaire, d’un niveau global d’isolation K45 et équipé d’installations standards.


Méthode de calcul

La méthode de calcul pour la détermination du niveau de consommation en énergie primaire est :

  • normalisée (et donc indépendante de l’utilisateur) ;
  • définie pour un usage standardisé du bâtiment (les paramètres liés à l’occupation (taux d’occupations,…) ont été définis de manière conventionnelle) ;
  • basée sur un calcul statique mensuel ;
  • basée sur les notions du K et du BE et intègre les différentes installations et vecteurs énergétiques.

Voici, de manière schématique, la démarche de calcul :

Le calcul est établi par étapes :

Concevoir le préchauffage par capteurs solaires

Concevoir le préchauffage par capteurs solaires

La non-simultanéité de la production et des besoins

Le problème essentiel du chauffage par capteurs thermiques est la non-simultanéité de la production solaire possible et la demande de chauffage du bâtiment. (À l’inverse, la climatisation solaire présente une adéquation relative entre les besoins et la disponibilité solaire. Mais le défi est de taille : faire du froid avec du chaud ! Cela se fait par l’intermédiaire d’une machine à ad/absorption).

Graphe ECS avec appoint chauffage.

Le graphe ci-dessus montre donc tout l’intérêt pour le chauffage de développer des technologies de stockage inter-saisonnier ! Si un jour les recherches aboutissaient en ce sens, il serait tout à fait possible de se chauffer gratuitement en hiver grâce à la récolte solaire estivale ! Mais avant cela, pensons d’abord à réduire nos besoins énergétiques !

À l’heure actuelle, le stockage d’énergie étant basé sur le réchauffement d’un ballon d’eau, on peu difficilement stocker l’énergie pour plusieurs semaines !
De plus, le système doit alors être dimensionné sur les besoins de mi-saisons voir plus tôt dans l’année. Les surfaces de capteurs nécessaires, considérables tout comme dans le cas d’installations solaires couvrant uniquement une grande partie des besoins d’ECS, seront donc superflues en été, diminuant le temps d’utilisation  des capteurs et leur production surfacique.

Cela rend, dans les conditions actuelles de prix, les installations collectives avec appoint chauffage difficilement viables économiquement par rapport aux systèmes plus traditionnels.

Néanmoins, certains cas seront plus favorables aux économies de chauffage possibles par le placement de capteurs solaires. La condition principale est une demande de chauffage bien  présente en mi-saison voire en été.

Cette condition est plus facilement rencontrée dans des bâtiments où la consigne reste importante en intersaisons (maisons de soins, maisons de repos,…) ou qui ne peuvent valoriser les gains solaires directs (via les fenêtres).

La première chose à faire sera donc d’identifier ses besoins de chauffage par rapport à la disponibilité solaire mensuelle.

D’un point de vue technique, les capteurs à tubes sous-vide de type heat pipe ainsi qu’un chauffage à basse température conviendront mieux à ce type d’applications.

Les cas de figure étant nombreux et tellement différents qu’une étude préalable au projet devrait confirmer la pertinence d’un tel système.

Mesurer et contrôler la production solaire thermique

Mesurer et contrôler la production solaire thermique

La comptabilité énergétique est essentielle au contrôle du bon fonctionnement de l’installation solaire et permettra rapidement d’identifier une dérive de l’installation due à un mauvais réglage ou une défaillance d’un composant. Elle nécessite cependant la pose d’un équipement spécifique et adéquat:

Les thermomètres à l’aller et au retour des capteurs

Très simples et peu coûteux, deux thermomètres placés sur l’aller et le retour entre les capteurs et le stockage permettent déjà de vérifier le fonctionnement correct de l’installation.

Un fonctionnement normal devrait montrer, lors du fonctionnement, des températures supérieures dans le circuit d’alimentation et des températures d’entrée et de sortie égales lorsque l’installation est à l’arrêt. Dans le cas contraire, un fonctionnement anormal souvent dû à un effet thermosiphon peut déjà être décelé.

Le débitmètre gravimétrique

Photo débitmètre gravimétrique.

Un débitmètre gravimétrique est un instrument de mesure du débit de fluide, souvent associé à une vanne de réglage du débit. Situé sous le circulateur, il permet de régler la vitesse de celui-ci pour assurer un débit minimum dans les capteurs. Il permet en plus un contrôle approximatif du débit de l’installation en fonctionnement.
À partir de ce débit et des températures, il est possible par calcul d’estimer très grossièrement la puissance instantanée du circuit.

Le débitmètre volumétrique

Pour la mesure de débit du circuit solaire on utilise généralement un compteur d’eau classique à impulsion bien plus précis. Celui-ci est muni d’un contact REED. À chaque tour, un aimant passant sur la couronne ferme le contact et l’impulsion est envoyée.

Photo débitmètre volumétrique.  Photo débitmètre volumétrique.

Certaines marques ont développé de petits modèles de débitmètre volumétrique…

Le compteur d’énergie

Schéma principe compteur d’énergie 

Un compteur intégrateur de chaleur appelé aussi calorimètre ou encore compteur d’énergie thermique est un dispositif comportant :

  • Un compteur volumétrique (placé généralement sur la conduite de retour (plus froide) vers les capteurs).
  • Deux sondes de température (au contact des conduites ou dans un doigt de gant). Leur placement est important pour une évaluation précise : idéalement à l’entrée et à la sortie de l’échangeur solaire.
  • Un calculateur à affichage numérique. Il propose généralement la comptabilité de l’énergie produite (en kWh), l’estimation de la puissance instantanée du système (en W), de la température aller/retour ainsi qu’un historique des données. Certains modèles proposent une gestion par réseau informatique Wifi, internet,..

Ce dispositif est le seul moyen précis pour calculer l’énergie réellement produite par l’installation. Idéalement, il devrait être réglable afin de prendre en compte les caractéristiques du fluide caloporteur utilisé.

Un calculateur est parfois intégré au système de régulation différentielle. Cependant, ce système reste très imprécis car il utilise les sondes de température propres aux besoins de la régulation (par exemple situées dans le ballon plutôt qu’à la sortie du fluide caloporteur).

N.B. : Les calculateurs spécifiques « chauffage » ne conviennent généralement pas pour les applications solaires, car, ils ne présentent pas la possibilité d’adapter la chaleur massique du fluide utilisé et ne supportent pas les hautes températures.

Rendement d’une installation solaire thermique

Rendement d'une installation solaire thermique


Rendement d’un capteur solaire

Schéma principe de rendement d’un capteur solaire.

Le rendement d’un capteur est le rapport entre la chaleur utile (Q3) transmise au fluide et le rayonnement solaire incident (E0) :

n = Q3 / E0 [-]

Cette chaleur utile Q3 est définie par le bilan des apports solaires utiles et des pertes thermiques :

Q3 = E0 – E1 – Q2 – Q1 [MJ]

Les apports solaires utiles : E0 – E1 [MJ]

Ils représentent la part du rayonnement solaire réellement absorbée par le capteur. Ils dépendent des propriétés optiques du capteur (telles que l’absportivité de l’absorbeur et la transmissivité du vitrage).

Ils s’expriment selon la relation :  E0 * ατ

Avec :

  • α [-] : facteur d’absorption de l’absorbeur.
  • τ [-] : facteur de transmission du vitrage.

Les pertes thermiques : Q1 + Q2 [MJ]

Dépendant des propriétés d’isolation thermique du capteur, elles sont définies par la relation: Qth = K* ∆T

Avec :

  • K [W/m²K] : coefficient de déperdition thermique du capteur.
  • ∆T : T°capt – T°amb.

Le rendement d’un capteur : n = Q3/E0 [-]

n = ατ- (K*∆T / E0) [-]

L’efficacité d’un capteur dépend donc de ses caractéristiques thermiques (diminution des pertes) et optiques (augmentation des apports solaires utiles).

Courbe de rendement normalisée

La norme européenne (EN 12975) définit le rendement d’un capteur sur base de trois paramètres permettant de qualifier le comportement thermique du capteur : Son rendement optique n0, et deux coefficients de déperdition thermique a1 et a2.

Rendement optique n0

Le rendement optique n0 représente le rendement maximum du capteur lorsque la température du fluide est à température ambiante (pas de pertes thermiques). Il s’agit donc de la partie maximale de l’énergie solaire qui peut être captée. Mesuré dans des conditions standardisées de test (spectre AM 1,5, 1 000 W/m², perpendiculaire au capteur), il dépend des propriétés du vitrage et de sélectivité de l’absorbeur. Cette relation est établie comme suit : n0 = ατF

Avec :

  • α [-] : facteur d’absorption de l’absorbeur, compris entre 0,9 et 0,96.
  • τ [-] : facteur de transmission du vitrage, compris entre 0,88 et 0,91.
  • F [-] : facteur de rendement du capteur, compris entre 0,92 et 0,97.
Exemple de rendement optique pour différents types de capteurs :

* 75-85 % capteur plan ;
* 90-95 % capteur non vitré ;
* 75-85 % tube sous vide à absorbeur sur cuivre ;
* 50-70 % tube sous vide à absorbeur sur verre.

À l’heure actuelle, les fabricants utilisent généralement des verres « anti-reflet » extra clairs. Pauvres en fer, ils présentent une meilleure transmission lumineuse.

Coefficients de déperdition thermique

Les coefficients de déperdition thermique dépendent de la qualité d’isolation des capteurs :

  • a1 [W/m². K] : coefficient linéaire de transfert thermique, généralement compris entre 1,2 et 4.
  • a2 [W/m². K²] : coefficient quadratique de transfert thermique, généralement compris entre 0,005 et 0,015.

Conformément à la norme, le rendement du capteur est alors donné par la formule suivante :

n = n0 – (a1*∆T / E0) – (a2* ∆T² / E0) [-]

Avec :

  • E0 : 1 000 W/m².
  • ∆T = T°capt – T°amb

Représentation de la courbe de rendement associée. (exemple avec un n0=0.8 ; a1= 4 [W/m². K];  a2 = 0.015 [W/m². K²])

N.B. : Sur cette courbe apparaît la température de stagnation du capteur (dans l’exemple 133°) définie comme la différence de température à laquelle les gains solaires ne peuvent compenser les pertes thermiques. À ce moment, le rendement du capteur est nul.

Calculs

La page calcul comprend notamment ce tableur permettant le calcul de la courbe de rendement théorique en fonction de la température d’un capteur solair en fonction de ses propriétés optiques

Influence de la puissance du rayonnement solaire

Les différentes courbes de rendement sont conventionnellement établies pour une puissance de rayonnement de 1 000 W/m². Or, en réalité, l’ensoleillement varie considérablement au fil du temps (de 0 la nuit à 1 000 W maximum en plein soleil). La courbe de rendement en est modifiée de la sorte :

Schéma influence de la puissance du rayonnement solaire.

Influence sur la courbe de rendement d’une variation de l’intensité du rayonnement solaire.

Influence du delta de température

La différence de température entre l’absorbeur et l’extérieur génère des pertes thermiques. Plus cette différence de température est importante, plus les pertes le sont aussi. Pour une puissance de rayonnement et une inclinaison donnée, le point de fonctionnement du capteur se situera donc sur une courbe dont la pente et la courbure sont déterminées par ses coefficients de déperdition thermique.

Schéma influence du delta de température.

Influence de l’angle d’incidence

Schéma influence de l'angle d'incidence.

L’inclinaison du capteur et la position du soleil influencent le rendement du capteur.  Selon l’angle d’incidence, la transmission du rayonnement solaire au travers du vitrage sera modifiée. En effet, au moins les rayons sont perpendiculaires au capteur, au plus la composante réfléchie du rayonnement est importante. Le rendement en est donc diminué.

Cette diminution est décrite par un facteur d’angle Kθ ou IAM, en général donné par les fabricants. En pratique, on constate que ce facteur varie relativement peu pour des angles d’incidence inférieurs à 50°.

Influence sur la courbe de rendement d’une modification importante de l’angle d’incidence par rapport à une situation de départ où l’angle d’incidence est perpendiculaire au capteur.


Rendement instantané

En fonctionnement, le rendement du capteur se déplacera donc continuellement (on parle alors de rendement dynamique) sur une multitude de courbes résultantes des différents phénomènes cités ci-dessus. Le schéma suivant illustre ce comportement :

Schéma rendement instantané.

En conclusion, on retiendra qu’un capteur est d’autant plus performant :

  • qu’il fonctionne à une température proche de la température ambiante (delta T° faible).
    ==> Travail à basse température idéal ;
  • que l’irradiation est importante
    ==>  Orientation et inclinaison adaptée.

Une étude allemande a montré qu’en fonctionnement,  le rendement annuel des capteurs pour l’eau chaude sanitaire peut atteindre 50 %.


Rendement d’une installation

Le rendement de l’installation complète ne dépend évidemment pas du seul rendement des capteurs.

Des pertes thermiques se produiront lors du stockage de l’eau chaude, lors des  transferts des fluides caloporteurs entre les capteurs et le ballon solaire, et entre le ballon et les différents points de puisage.

Ces différentes pertes sont considérablement influencées par différents paramètres comme la longueur et la section des tuyaux. On veillera donc à en limiter l’impact par des longueurs de tuyauteries minimisées et une isolation adéquate.
Différentes simulations dynamiques ont montré que le rendement moyen d’une installation bien conçue tourne autour de 30 – 40 %. Globalement, l’irradiation avoisinant en Belgique les 1000 kWh/m².an, on capte donc près de 300 à 400kWh/m².an soit l’équivalent énergétique de 30 à 40 litres de fuel par m² et par an. C’est notre puits de pétrole à nous!

L’influence de la fraction solaire

Le choix de la fraction solaire, fraction représentant la part de l’eau chaude sanitaire que l’on souhaite produire par le solaire, a une influence non négligeable sur le rendement global annuel de l’installation.

Le phénomène est le suivant :

Si l’on veut dimensionner une installation pour qu’elle puisse fournir de l’eau chaude les jours de luminosités réduites, les surfaces nécessaires peuvent être considérables. Parfois, principalement en hiver, la luminosité est même insuffisante pour permettre toute production. Dans ce cas, on n’a pas d’autre choix que le recours au système d’appoint utilisant une énergie conventionnelle.
Or, cette superficie nécessaire pour les jours de luminosité médiocre peut être superflue en été. En effet, une superficie plus importante permet d’atteindre plus vite la quantité d’eau à la température voulue. Mais que se passe-t-il une fois le ballon chargé ? Rien ! Le capteur ne fonctionne plus, il « chôme » ! Le temps de fonctionnement annuel des capteurs est alors réduit.
En résumé, plus la fraction solaire est élevée plus le taux d’utilisation, est lui, réduit.

Un taux d’utilisation réduit signifie aussi une production surfacique (kWh par m² de capteurs) réduite (pertes thermiques induites par le surdimensionnement par rapport aux besoins estivaux combiné, et un fonctionnement à haute température plus fréquent).

La relation entre la surface de capteurs et la productivité de l’installation n’est donc pas linéaire. La courbe qui suit illustre bien le phénomène : Les premiers kWh sont les plus faciles à produire alors qu’il sera presqu’impossible de rendre l’installation autonome (asymptote horizontale !).

Superficie de capteurs nécessaire en fonction de la fraction solaire et rendement correspondant.

En conséquence : au plus la fraction solaire voulue sera grande, au plus le rendement global de l’installation sera faible !
Cette conclusion ne doit cependant être prise telle quelle : il ne faut pas oublier que l’énergie solaire est une énergie gratuite, renouvelable et totalement non polluante !

Idée : On pourrait imaginer étendre la production estivale d’eau chaude à d’autres usages (piscine ou bassin extérieur,…) ou pour générer du froid (c’est l’idée des recherches actuelles sur la climatisation solaire). L’utilisation de ce surplus potentiel permettrait d’utiliser efficacement l’installation plutôt que de la laisser « chômer » !

Un autre moyen de valoriser ce surplus énergétique est le stockage intersaisonnier de l’énergie produite ! Actuellement, la recherche se tourne principalement vers des grands volumes de stockage (dans le sol par exemple) ou vers des matériaux à changement de phase.

Pluies

Pluies


C’est le vent qui chasse la pluie contre la façade.
En Belgique, ce sont les façades dont l’orientation est comprise entre le SSO et le OSO qui sont le plus exposées aux pluies battantes*.

* Pluie battante : pluie qui dévie de sa trajectoire verticale (pesanteur) sous l’influence du vent.

Produit de l’intensité** moyenne des pluies battantes par leur durée moyenne, au cours d’une année (1931 – 1960).

** Intensité de pluie : quantité de pluie exprimée en mm qui est tombée pendant 1 heure.

Humidité relative et pression de vapeur extérieure

Humidité relative et pression de vapeur extérieure


La pression de vapeur et l’humidité relative de l’air extérieur influencent directement la condensation interne et de surface ainsi que l’humidification et le séchage des matériaux mis en œuvre dans les bâtiments.
Par exemple, une humidité relative extérieure de 85 % va permettre le séchage d’un mur humide (humidité relative de 100 % puisqu’il contient de l’eau sous forme liquide).

Variation de la pression de vapeur et de l’humidité relative extérieure

Du point de vue climatique, la pression de vapeur et l’humidité relative de l’air extérieur varient durant la journée et durant l’année. Ainsi :
Au cours des variations de température d’une journée

  • la pression de vapeur (pe) varie peu,
  • l’humidité relative (φe) varie fortement

Par contre, au cours des variations de température d’une année (de mois en mois), c’est le contraire :

  • la pression de vapeur moyenne varie fortement,
  • l’humidité relative moyenne varie peu.
J F M A M J J A S O N D
φe (%)
91
87
85
81
77
80
79
83
83
91
91
91
Pe (N/m²)
730
668
857
935
1072
1520
1445
1618
1352
1194
856
694

Pression de vapeur et humidité relative moyenne mensuelle.

Cette différence s’explique par la lenteur de l’évaporation de l’eau. En effet :

Une hausse de température au cours d’une journée ne suffit pas à évaporer l’eau. La pression de vapeur reste donc identique. Or, l’air pourrait contenir plus d’eau. Par conséquent, l’humidité relative diminue. Ainsi une augmentation de température peut entraîner des humidités relatives momentanément très basses.

Par contre, avec une hausse de température plus longue (à l’échelle du mois), l’évaporation a le temps de se produire. Par conséquent, la pression de vapeur augmente. L’humidité relative reste, quant à elle, constante.

Néanmoins, lors de précipitations, l’eau se présente sous forme optimale pour s’évaporer facilement (principe du vaporisateur). L’humidité relative augmente rapidement jusqu’à 100 % indépendamment de la température.
Ensuite, si la température baisse, le point de rosée de l’air peut être atteint, du brouillard se forme.

De même, dans une région boisée ou alluviale, l’air sera toujours plus humide que dans un site urbanisé (microclimats différents).

Electricité verte

Electricité verte


Définition de l’électricité verte en Wallonie

Pour que l’électricité soit considérée comme « électricité verte », elle doit être produite à partir de sources d’énergie renouvelables (vent, eau, soleil, biomasse…) ou de cogénération de qualité.

La cogénération de qualité est une production simultanée de chaleur et d’électricité telle que l’ensemble de la filière de production (préparation du combustible et combustion éventuelle lors de la production d’électricité) permette de réduire de 10 % les émissions de CO2 par rapport aux émissions résultant d’une filière de production classique (pour une même production en KWh et en tenant compte de la chaleur produite).

Mécanisme des certificats verts

Des certificats verts sont attribués aux producteurs d’électricité verte garantie par un contrôleur agréé. Les certificats verts sont attribués sur base de l’économie de CO2 réalisée par la filière de production utilisée. Un certificat vert est attribué pour une économie de 456 kg de CO2, ce qui correspond à l’émission de CO2 de la centrale électrique de référence (une TVG) pour produire 1 MWh.

Les fournisseurs d’électricité peuvent, moyennant payement, acquérir ces certificats verts auprès des producteurs d’électricité verte.  Les fournisseurs doivent fournir à la CWaPE un certain quota de certificats verts en fonction de leurs achats. Parallèlement au marché physique de l’électricité, un marché virtuel de certificats verts apparaît donc. Le quota était de 3 % en 2003 et augmente de 1 à 5 % par an atteignant ± 35 % en 2018. En 2021, le quota baissera pour remonter ensuite jusqu’à 2024.

Graphe quota nominal des cv.

Exemple : en 2018, un fournisseur qui vend 100 MWh à des clients finaux doit fournir ±35 certificats verts à la CWaPE, certificats qu’il achète à un producteur d’électricité verte ou à un intermédiaire.

Le schéma suivant résume le principe des certificats verts.

Schéma principe des certificats verts.

Le système met ainsi en place des incitants au développement des installations à énergie renouvelable et/ou de cogénération, tout en laissant jouer le marché. Le système se basant sur le gain en CO2, indépendamment de la technologie utilisée, permettra l’émergence des technologies les plus performantes au moindre coût.

Pour plus d’info sur les certificats verts [PDF]

Acheter de l’électricité verte ?

Par le système mis en place, tout consommateur achète donc de l’électricité « verte », intégrée pour quelques pour cents dans le courant distribué. Mais il lui est aussi possible d’acheter directement son électricité à un fournisseur d’électricité verte, c.-à-d. à un fournisseur qui s’est engagé à ce que au minimum 50,1 % de son électricité soit verte (en pratique, ce ratio peut varier entre 50,1 et 100+ % de renouvelables : informez-vous auprès de votre fournisseur d’électricité). C’est la meilleure manière de soutenir le développement de ces techniques propres.

Rendement d’un onduleur

Rendement d'un onduleur

Comme toujours, le rendement est le rapport entre deux grandeurs. Dans le cas d’un onduleur, le rendement se mesure en comparant la puissance de sortie de l’onduleur par rapport à la puissance d’entrée.

La puissance fournie à l’onduleur dépendra des conditions météorologiques, de la surface de panneaux installés ainsi que de leurs puissances unitaires.

Comme le rendement varie en réalité en fonction d’un grand nombre de variables, une méthode de calcul simplifiée du rendement global (sur toute la plage de puissance de l’onduleur) permet de mieux tenir compte des conditions réelles, il s’agit du « rendement européen ». Ce dernier à ça de particulier qu’il caractérise l’efficacité à charge partielle de l’onduleur. Ce rendement sera plus faible que le rendement maximal (pic) mais plus proche des chiffres mesurés dans la pratique.

Les normes européennes définissent le rendement d’un onduleur comme étant une moyenne pondérée (en fonction de temps de fonctionnement estimé pour cette charge) de différentes mesures de rendements à charge partielle.

ηEuro = 0,03 * η5 % + 0,06 * η10 % + 0,13 * η20 % + 0,1 * η 30 % + 0,48 * η 50 % + 0,2 * η100.

Dans l’exemple de l’onduleur ci-dessous, le rendement maximum est de 95,4% et le rendement suivant la norme européenne est de :

0.003 * 84.9 + 0.06 * 90.8 + 0.13 * 93.8 + 0.1 * 94.8 + 0.48 * 95.4 + 0.2 * 95 = 94,46 %

En pratique, suivant le dimensionnement de l’onduleur (par rapport à l’installation et sa production), les temps de fonctionnement à charge partielle varient sensiblement.

Actuellement le rendement maximal (pic) des meilleurs onduleurs sur le marché atteint les 98%. Plus le rendement est élevé, plus la durée de vie de l’onduleur sera élevée (les onduleurs sont sensibles à la chaleur) et ses dimensions pourront être réduites (les systèmes de refroidissement ne seront plus nécessaires).

Rendement et puissance crête des cellules photovoltaïques

Rendement et puissance crête des cellules photovoltaïques


Le rendement d’une cellule ou d’un module photovoltaïque est le rapport entre l’énergie électrique produite par cette cellule ou module et l’énergie lumineuse reçue sur la surface correspondante :

n [%] = Pproduite[kW] / Pincidente[kW]

Le rendement réel varie donc continuellement, en fonction notamment de l’énergie solaire incidente.

Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

La puissance crête est définie comme la puissance électrique produite par la cellule (ou un panneau) lorsqu’elle est soumise aux conditions STC. Cette valeur est utilisée comme référence pour comparer les panneaux photovoltaïques entre eux.

On obtient alors le rendement par la formule suivante :

Nstc [%] = Puissance crête [W/m²]* / Puissance du spectre STC [W/m²]

Avec :

  • Puissance du spectre STC = 1 000 [W/m²].

Influence de l’éclairement

La luminosité influence considérablement les performances des cellules.

Comme le montre ce graphique, le courant de court-circuit (Icc) croît proportionnellement avec l’éclairement, alors que la tension à vide (Vco) varie très peu (environ 0,5 V).

Ainsi, au plus la couverture nuageuse est importante, au plus l’intensité du courant généré est faible.


Influence de la température

La température a une influence considérable sur le comportement de la cellule et donc sur son rendement. Cette influence se traduit principalement par une diminution de la tension générée (et une très légère augmentation du courant).

Suivant les modèles, ce comportement induit, par degré, une perte de 0.5 % du rendement par rapport au rendement maximum de la cellule. On comprendra donc tout l’intérêt d’une ventilation correcte à l’arrière des panneaux !

La perte de tension d’un module ou d’une cellule peut être estimée par la formule suivante :

U(T°) = U(25°C) + (ΔT°*a)

Avec :

  • ΔT : augmentation de température par rapport aux conditions STC (25°C)
  • a : coefficient de température Voc [mV/K], valeur fournie par le fabriquant

Limite de Shockley-Queisser pour le silicium

La limite de Shockley-Queisser est une limite physique bornant à ≈ 30 % le rendement atteignable par les panneaux solaires photovoltaïques courants (composés de cellules en Silicium à jonction simple).
Ce plafond de verre provient de deux phénomènes :

  • Le panneau photovoltaïque ne valorise pas l’entièreté du spectre d’émission solaire (une partie du rayonnement est systématiquement perdue par transformation en chaleur).
  • La seconde loi de la thermodynamique qui limite le rendement des « machines thermiques » en fonction des températures de la source chaude (soleil) et de la source froide (la cellule).

Actuellement, en fonction des installations et des technologies utilisées, le rendement de cellules se situe en moyenne entre 10 % et 20 % (avec un record en Labo à 26,6 %).

Pour s’affranchir de cette limite, des cellules multi-jonctions voient le jour permettant d’atteindre des plafonds théoriques de l’ordre de 80 % de rendement. Ce type de cellule, en condition laboratoire a déjà dépassé le cap des 40 % de rendement !

Caractéristiques électriques des cellules et des modules photovoltaïques

 

Caractéristiques électriques des cellules et des modules photovoltaïques


Sous un éclairement donné, toute cellule photovoltaïque est caractérisée par une courbe courant-tension (I-V) représentant l’ensemble des configurations électriques que peut prendre la cellule. Trois grandeurs physiques définissent cette courbe:

  • Sa tension à vide : Vco. Cette valeur représenterait la tension générée par une cellule éclairée non raccordée.
  • Son courant court-circuit: Icc. Cette valeur représenterait le courant généré par une cellule éclairée raccordée à elle-même.
  • Son point de puissance maximal: MPP (en anglais : maximal power point) obtenu pour une tension et un courant optimaux : Vopt, Iopt (parfois appelés aussi Vmpp, Impp).

Rem : Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

Actuellement, les cellules présentent des valeurs de l’ordre de 0.5V-3.5A-2.1 Wc.

Raccordement des cellules entre elles

Dans les conditions standardisées de test, la puissance maximale pour une cellule Si (silicium) de 100 cm² (10 sur 10) tourne aux alentours de 1,25 Watt. Cette cellule constitue donc un générateur de très faible puissance, insuffisant pour les applications électriques courantes. Les modules sont donc réalisés par association, en série et/ou en parallèle, de cellules élémentaires. La connexion en série augmente la tension pour un même courant alors que la connexion en parallèle augmente le courant pour une tension identique.
Pour que l’électricité générée soit utilisable pour nos applications électriques, il est donc nécessaire d’associer entre elles un grand nombre de cellules.

Les modules (généralement présentés sous forme de panneaux) sont constitués d’un certain nombre de cellules élémentaires placées en série afin de rendre la tension à la sortie utilisable.
Ces modules sont ensuite associés en réseau (série-parallèle) de façon à obtenir les tensions/courants désirés.

Association en série

Par association en série (appelée « String »), les cellules sont traversées par le même courant et la tension résultante correspond à la somme des tensions générées par chacune des cellules.

Association en parallèle

Par association en parallèle, les cellules sont soumises à la même tension et  le courant résultant correspond à la somme des courants générés par chacune des cellules.

Les caractéristiques globales d’une installation se déduisent donc d’une combinaison des caractéristiques des constituants des ns*np.

Les diodes de by-pass

Il arrive fréquemment que les cellules élémentaires qui composent le module ne présentent pas toutes la même courbe caractéristique au même moment. Les raisons peuvent être multiples : variété inévitable de fabrication, défaillance, différence d’éclairement ou de température (dues par exemple à un ombrage non uniforme du module, un encrassement,…).

Sous certaines conditions, la cellule la plus faible peut alors se comporter comme une cellule réceptrice, dissipant la puissance générée par la cellule la plus forte. Celle-ci peut même être détruite si la contrainte ou la température devient trop importante.

Pour éviter ce phénomène, on place des diodes de by-pass (empêchant tout courant ou tension inverses). Celles-ci sont placées en série lorsque les cellules sont connectées en parallèle et en parallèle lorsque les cellules sont connectées en série.
Les modules aujourd’hui commercialisés comprennent généralement des diodes de protection situées en parallèle des différents strings qui le composent.

L’utilisation de ces by-pass induit néanmoins des perturbations de la courbe caractéristique, modifiant le point de puissance maximal du module :

Pour ne pas induire inutilement ces pertes, il est donc très important que ces diodes de by-pass soient utilisées et placées en cohérence avec les ombres générées par l’environnement du module.

 

Contacter le facilitateur photovoltaïque

Contacter le facilitateur photovoltaïque

Le Facilitateur E-SER est chargé par la Région wallonne de mener des actions d’information, d’accompagnement, de sensibilisation et de conseil pour aider au développement harmonieux de la filière photovoltaïque en Wallonie.
Concrètement, le Facilitateur a pour objectifs :

  • d’assurer une veille technologique, réglementaire et statistique ;
  • de veiller à la coordination de la filière photovoltaïque ;
  • d’informer et de conseiller les investisseurs potentiels concernant le photovoltaïque.

Le Facilitateur vise le secteur public et les entreprises. Sans que cela ne soit une étape obligée, tout auteur de projet peut s’adresser gratuitement au Facilitateur afin de réaliser une étude de pertinence. Celui-ci conseillera l’auteur de projet quant à la pertinence économique, juridique et administrative d’un projet photovoltaïque dans sa commune ou dans son entreprise. La mission de Facilitateur E-SER ne couvre pas les installations photovoltaïques domestiques, qui relèvent du plan Qualiwatt. Pour les particuliers, les Guichets de l’Énergie jouent ce rôle de Facilitateur.

> Plus d’infos sur :

Choisir un label de qualité

Choisir un label de qualité

RESCert

Outre le matériel qui doit respecter les exigences fixées dans les normes européennes et les tests correspondants, il existe aussi en Belgique un label de qualité pour les installateurs appelé RESCert.

La Région wallonne, la Région flamande et la Région de Bruxelles-Capitale ont mis sur pied un système harmonisé pour la formation et la certification d’installateurs fiables et de qualité. Les technologies visées sont les systèmes d’énergie résidentiels/de petite taille.

Quelle est la différence entre un certificat de compétence et un certificat de compétence au titre de candidat ?

  • Un certificat de compétence est destiné aux installateurs ayant plus de 3 ans d’expérience (voir ici) et ayant réussi un examen.
  • Un certificat de compétence au titre de candidat est destiné aux installateurs ayant moins de 3 ans d’expérience (voir ici) et ayant réussi un examen.

Remarque : Le certificat de compétence au titre de candidat ne peut pas être utilisé pour les primes, et les personnes ayant un certificat de compétence au titre de candidat ne figurent pas sur la liste des installateurs certifiés. Le certificat de compétence au titre de candidat peut être ‘upgraded’ gratuitement en certificat de compétence une fois que les 3 ans d’expérience sont atteints.

Plus d’info sur :  https://rescert.be/fr


NRQUAL

NRQual : un label de qualité officiel pour les entreprises d’installation de systèmes d’énergie renouvelable en Wallonie

Logo NRQUAL

Afin de redonner confiance aux consommateurs et de leur garantir la qualité de leurs installations, la Wallonie a décidé de soutenir et de promouvoir les entreprises d’installation de systèmes renouvelables qui s’inscrivent dans un processus « qualité » en lançant le label wallon NRQual.

Pour les entreprises, se faire labelliser implique des garanties de qualité à plusieurs niveaux :

  • capacité de concevoir une installation : l’entreprise devra remettre au client un dossier reprenant les plans techniques de l’installation, les spécifications techniques des composants utilisés, les calculs de rendements énergétiques, les manuels destinés à l’utilisateur ;
  • capacité de placer un système renouvelable :
    • l’entreprise devra compter des installateurs certifiés parmi ses équipes en charge de l’installation des systèmes ;
    • un contrôle sera effectué via des audits aléatoires d’installations placées par l’entreprise labellisée ;
    • l’entreprise labellisée rédigera une déclaration de conformité à l’attention du client confirmant la conformité de l’installation avec les exigences de qualité imposées par le label.
  • conditions liées à la vente :
    • utilisation du contrat type publié sur le site de la DGO4 () ;
    • suivi des plaintes ;
    • l’entreprise devra disposer de tous les enregistrements, accès à la profession et assurances requis.

Trouver une entreprise labellisée NRQual :
http://www.questforquality.be/consommateurs/trouvez-un-installateur/


Solar PV

SOLAR PV est le label de qualité utilisé par les entreprises d’installation de systèmes photovoltaïques qui sont labellisés en Belgique par le BCCA sur base des référentiels développés par QUEST & CONSTRUCTION QUALITY. [questforquality.be]

QUEST et CONSTRUCTION QUALITY sont deux organismes indépendants aux missions distinctes. D’une part, QUEST est le garant de qualité des entreprises liées aux énergies renouvelables et, d’autre part, CONSTRUCTION QUALITY a pour mission de garantir les compétences professionnelles des entreprises actives dans la construction. Ces deux labels ont été réunis afin de créer le label SOLAR PV [energreen.be]

Logo Solar PV

Vous pouvez retrouver ce logo sur des devis, des déclarations de conformité, des autocollants, etc.

Prévoir la maintenance et la durée de vie d’une installation

Prévoir la maintenance et la durée de vie d'une installation


L’entretien nécessaire aux installations photovoltaïques est très limité. Un nettoyage occasionnel reste conseillé. Néanmoins, sa fréquence peut être influencée par de nombreux facteurs environnants : inclinaison, situation près de zone boisée, pollution,… Un des avantages de cette technique est que, via la présence de compteurs, la production est facilement comptabilisée. Cela permet de détecter rapidement un fonctionnement anormal de l’installation.

Un suiveur solaire nécessite par contre un entretien plus important (moteurs,…).

Un système photovoltaïque est un investissement à long terme puisque sa durée de vie est généralement supérieure à 25 ans et peut même atteindre 40 ans. Les fabricants, eux-mêmes, garantissent généralement qu’après 20-25 ans le module atteindra encore 80 % de sa puissance crête initiale. Un onduleur a par contre une durée de vie plus limitée (de 10 à 15 ans).

Considérer les aspects économiques d’une installation photovoltaïque

Considérer les aspects économiques d'une installation photovoltaïque

Les méthodes de production se sont considérablement améliorées et répandues ces dernières années. Les coûts de production et donc de vente des technologies photovoltaïques ne cessent de diminuer.

À l’heure actuelle, on considère des prix compris entre 0.8 à 2 € (HTVA) par Wc installés. Donc de  800 € à 2 000 € du kWc en fonction de la taille de l’installation.

Théories

La production électrique photovoltaïque est de plus récompensée par la certification verte.

Jusqu’au 30 juin 2018, en fonction de la puissance du champ de capteur installé, la production électrique donne droit à certains subsides. Les petites installations (< 10 kW) font l’objet de primes Qualiwatt. Les plus grandes installations (> 10 kW) donnent droit à un montant de certificats verts par MWh produit durant un certain nombre d’années.  Ce contexte d’aide, ainsi que les conditions de raccordement, influencent considérablement la rentabilité et les temps de retour sur investissement.

Néanmoins, pas d’inquiétude pour l’après Qualiwatt : la démocratisation et l’amélioration des performances globales des systèmes photovoltaïques ont rendu l’investissement suffisamment rentable pour qu’il n’ait plus besoin de soutien.

Vous trouverez plus d’infos sur les subsides sur le site de la CWAPE : ouverture d'une nouvelle fenêtre ! https://energie.wallonie.be/fr/facilitateur-energies-renouvelables-electriques-et-cogeneration.html?IDC=9546

Pour les petites installations (< 10kW), l’APERE a mis au point un simulateur financier. Il est disponible sur : ouverture d'une nouvelle fenêtre ! http://sifpv.apere.org/

> Pour estimer la rentabilité d’une installation photovoltaïque raccordée au réseau. XLS

N’en oublions pas pour autant les démarches URE !
L’énergie la moins chère et la moins polluante reste celle que l’on ne consomme pas !

Définir le raccordement au réseau de distribution

Définir le raccordement au réseau de distribution

Après avoir été transformé par l’onduleur en courant alternatif, le courant produit par une installation photovoltaïque alimente les différents circuits électriques de l’installation.
Si la production est inférieure à la consommation, l’ensemble de la production électrique photovoltaïque sera consommée sur place et le réseau fournira le complément nécessaire. Par contre, en cas de surproduction instantanée supérieure à la consommation, l’excédent pourra être injecté sur le réseau* de distribution et ainsi être utilisé par un autre consommateur.
Ce raccordement et la réinjection ne peuvent évidemment pas se faire n’importe comment ! Il faut donc avant toujours vérifier les conditions de raccordement au réseau dès les premières étapes du projet !

Différents types de raccordement sont en effet imposés suivant la puissance du champ de capteur. Ceux-ci se basent sur la notion de puissance nette développée (PND) définie comme étant le  minimum  entre la puissance crête du champ de capteur et la puissance maximale de sortie de l’onduleur (renseigné sur la fiche technique de l’onduleur). Elle est exprimée en kilovolt Ampère.

Voici en résumé les valeurs seuils et les exigences correspondantes :

De 0-10kVA :

La « compensation », le fameux compteur qui tourne à l’envers, est permis. Dans ce cas, un seul compteur établit le bilan annuel de consommation. Le producteur ne paiera annuellement que la consommation excédentaire. S’il produit plus qu’il ne consomme, son compteur est remis à 0. En quelque sorte, c’est comme  si le producteur valorisait l’énergie produite au même prix que celle d’achat, tant qu’il reste dans ses plages de consommation. Aucune revente de l’électricité excédentaire n’est permise dans cette configuration.

Jusqu’à 5 kVA, le raccordement monophasé est permis. Au-delà, le triphasé est obligatoire. Un équilibrage entre phases est imposé.

Au-delà de 10 kVA :

La compensation n’est plus permise. Le placement d’un compteur supplémentaire, dissocié du compteur de consommation, est imposé. Celui-ci comptabilise l’énergie qui est alors réinjectée sur le réseau (autrement dit qui n’est pas instantanément consommée par le producteur). L’électricité est alors revendue au fournisseur (le prix de vente se situe entre 3.5 et 5.5 c€ du kWh produit). Une étude de faisabilité est alors imposée par le gestionnaire du Réseau de distribution (GRD) (coût entre 2 000 et 10 000 €).

Dans un cas comme dans l’autre, l’installation devra répondre aux exigences,

De plus, des démarches préalables et postérieures à l’installation doivent impérativement être effectuées ! On contactera donc la commune, le GRD et la CWAPE en temps utiles !
Sur le site du facilitateur P.V. :
> Plus d’infos sur ouverture d'une nouvelle fenêtre ! les  aspects électriques.
> Plus d’infos sur ouverture d'une nouvelle fenêtre ! les exigences administratives relatives au photovoltaïque.
Sur le site de Synergrid :

> ouverture d'une nouvelle fenêtre ! Liste des questions les plus fréquentes concernant le raccordement réseau.

* Nous n’avons envisagé ici que les systèmes raccordés au réseau. Des systèmes autonomes fonctionnant sur batteries existent et constituent parfois la seule alternative pour des sites isolés.

Choisir un suiveur solaire

Choisir un suiveur solaire

L’avantage d’un système de tracking est incontestablement l’augmentation des performances qui en découle. Il permet ainsi de mieux exploiter les cellules dont on dispose.

Cependant, cette augmentation de production est compensée par un surcout engendré par la structure et le moteur du suiveur et la dalle de béton nécessaire à la stabilité. Un permis d’urbanisme est de plus nécessaire pour installer ce type de système. En pratique, il est donc important de mettre en balance les avantages liés à une meilleure production et le prix par kWc plus important.

Réglementations 

Plus d’infos sur la réglementation urbanistique (CWATUPE).

Au niveau de la production électrique, un suiveur à deux axes garantit une augmentation de la production électrique par rapport aux panneaux fixes d’au minimum 25 %. Des résultats de mesures sur cinq années ont par ailleurs permis au centre de recherche solaire allemand ZSW, d’estimer l’augmentation des performances par rapport à un système fixe pour Stuttgart (latitude de 48°, proche des 50° pour la Belgique) :

Source : New Energy (n° 3 de juin 2010 p 84-86).

Exemple : production d’électricité mensuelle d’1 kWc avec et sans traqueur installé au sud avec une inclinaison de 35° (Namur) sur une année moyenne.

(Pertes du système=14.0 %).

Fixe Traqueur 2 axes
[kWh] [kWh]
Moyenne mensuelle 70 88
Moyenne  journalière 2.3 2.9
Production totale annuelle 845 1 050

> Gains dans le cas considéré : 24.2 %.

Source : ouverture d'une nouvelle fenêtre ! PVGIS (Geographical Assessment of Solar Energy Resource and Photovoltaic Technology 2001-2007).

Remarquons que la différence de performance se marque donc plus en toute logique les mois les plus ensoleillés.

Pour évaluer les performances d’un système avec ou sans tracking dans un lieu précis : ouverture d'une nouvelle fenêtre ! cliquez ici !

Pour évaluer la rentabilité d’un suiveur solaire : cliquez ici ! XLS
Une autre technique complémentaire à celle du traqueur qui permet d’améliorer les performances des cellules est l’utilisation d’un concentrateur. Le principe est le suivant : augmenter la surface de captation sans augmenter la taille des cellules. Cette méthode est séduisante, car elle permet d’utiliser peu de matière semi-conductrice. Le problème reste sa difficulté de mise en œuvre et l’augmentation considérable de température de la cellule qu’elle induit, provoquant une chute de rendement importante. Il devient donc nécessaire de refroidir la cellule. Certaines recherches tentent actuellement de coupler des cellules photovoltaïques avec une application thermique (cellule PVT). L’idée est de récupérer la chaleur émise en chauffant un fluide (de l’eau glycolée par exemple). Pour l’instant, ces applications à concentration restent principalement répandues pour les applications spatiales (où l’échauffement des cellules ne pose pas de problème).

Choisir et placer un onduleur

L’onduleur est un organe primordial de l’installation qu’il ne faut pas négliger. La détermination de ses caractéristiques se fera naturellement en fonction du champ de capteur pris en charge.

Chaque onduleur possède en effet des plages de fonctionnement précises qui devront impérativement correspondre aux caractéristiques du courant continu généré par les modules.

Le choix et le dimensionnement de l’onduleur tiendront compte :

  • De la puissance maximale possible générée par les modules (on utilise généralement la puissance crête (conditions STC) minorée de 5 à 15 %).

 

  • Des tensions minimales et maximales (on utilise généralement comme tension maximale la tension générée en circuit ouvert (Uoc) à -10°C et comme tension basse, la tension à 70°C).

 

  • L’intensité maximum du courant

Suivant la taille de l’installation, il peut être nécessaire de démultiplier le nombre d’onduleurs. En général, un deuxième onduleur peut être prévu à partir de 5 kWc. Cette limite découle également des prescriptions Synergrid [Prescriptions C10/11 synergrid]

Une hétérogénéité (orientation, inclinaison, ombrage, utilisation de plusieurs types de modules, grande tolérance de fabrication sur la puissance des modules…) de l’installation peut aussi amener à opter pour plusieurs onduleurs. Plus l’installation est hétérogène, plus on aura intérêt en terme de performance à démultiplier les onduleurs (onduleur modulaire ou onduleur string). A l’inverse, pour une installation tout à fait homogène, il sera plus intéressant de limiter le nombre d’onduleurs (onduleur central). Il faudra suivant la situation trouver le bon compromis.  Les onduleurs multistring évitent également de démultiplier si on a une hétérogénéité dans l’installation.

  1. Générateur.
  2. Boitier de raccordement.
  3. Onduleur.

Techniques

Plus d’infos sur les différentes configurations possibles.

Le choix entre deux onduleurs correspondant à la configuration de l’installation peut être guidé par :

L’emplacement de  l’onduleur est aussi un facteur à prendre en compte lors de la conception d’un projet photovoltaïque.

Tout comme les cellules photovoltaïques, les composants électroniques internes de l’onduleur sont très sensibles aux hautes températures. Outre une chute de rendement, l’onduleur risque de se dégrader lors de fonctionnements continus à haute température. Certains onduleurs sont même équipés de refroidisseur actif (ventilateur). On comprendra donc ici tout l’intérêt de placer l’onduleur dans un local ventilé où la température est globalement contrôlée (attention aux combles sous toiture !).

Un onduleur fait aussi un certain bruit (généré soit par le transformateur et/ou par le ventilateur interne) qui peut parfois être gênant. Son poids (environ 10 kg/kW) peut aussi être un facteur déterminant pour le choix son emplacement.

Prédimensionner l’installation [photovoltaïque]

Prédimensionner l'installation [photovoltaïque]

En Belgique, 1 kWc, non ombré, exposé plein sud et incliné à 35° produit en moyenne 950 kWh/an. La surface nécessaire pour atteindre cette puissance crête dépendra du type de cellules choisies.

En première approximation, on considère généralement qu’il faut environ 7 m²/kWc.

La production électrique annuelle d’une installation non ombrée peut donc être estimée de cette manière :

Électricité produite annuellement [kWh]= Nombre de kWc*950 kWh *α

Avec,

  • α = facteur de correction prenant en compte l’orientation et l’inclinaison des capteurs.

Le tableau suivant reprend les valeurs de ce facteur correctif pour différentes configurations (d’inclinaison et d’orientation).

Sources des valeurs : EF4, facilitateur photovoltaïque.

Cette production sera bien entendu répartie au fil de l’année. L’exemple suivant illustre cette répartition :

Production d’électricité mensuelle d’1kWc installée au sud avec une inclinaison de 35° (Namur) sur base d’une année moyenne :

(Pertes du système = 14.0 %).
Moyenne mensuelle : 77.4 kWh.
Moyenne  journalière : 2.54 kWh.
Production totale annuelle 928 kWh.

Source  ouverture d'une nouvelle fenêtre ! PVGIS (Geographical Assessment of Solar Energy Resource and Photovoltaic Technology 2001-2012).

> Pour une estimation détaillée de la production électrique d’un système PV en un lieu donné : ouverture d'une nouvelle fenêtre ! PVGIS.

On notera que ces formules simplificatrices ne prennent pas en compte l’influence des ombres très préjudiciables pour le fonctionnement des modules photovoltaïques. Le meilleur moyen pour prédire de manière plus précise la production électrique est d’utiliser des logiciels de simulation dynamiques.

Prédimensionnement

Dimensionner une installation revient à déterminer la puissance crête à installer.
Ce dimensionnement peut se faire selon de nombreux critères :

  • Budget maximal.
  • La surface disponible et sa configuration (orientation, inclinaison, ombrage).
  • Couverture d’une fraction des consommations (pour évaluer ses consommations électriques : cliquez ici !
  • La rentabilité de l’investissement.

Dans les trois premiers cas, la formule (Nombre de kWc*950 kWh *α) permettra déjà de se faire une bonne idée du dimensionnement nécessaire. Le nombre de modules nécessaire est alors donné par :

N = Puissance crête de l’installation [Wc] /Puissance crête d’un module choisi [Wc]

Ex : Un fabricant propose un panneau de 125 Wc. Pour une puissance installée de 10 kWc il faudra donc : 10 000 / 125 = 80 panneaux.

Calculs

Pour accéder à une feuille de calcul donnant une estimation de la production d’une installation photovoltaïque. XLS

Dans le contexte actuel, les critères de faisabilité technico-économique (conditions de raccordement, subsides (certificats verts,…) et conditions de revente de l’électricité) conditionnent parfois le dimensionnement de l’installation.

Une base de données vivante et intéressante est disponible sur le site www.bdpv.fr.

Celle-ci comprend de nombreuses installations belges, on peut y voir leur production ainsi que des statistiques sur le matériel le plus installé.

Pour les systèmes autonomes, non abordés dans ce chapitre d’énergie+, le dimensionnement doit faire l’objet d’une analyse très détaillée de :

  • l’ensemble des consommations d’électricité du bâtiment ou de l’application,
  • du stockage de l’électricité, via des batteries (pouvant supporter des charges et décharges successives) et d’un système de secours.
Photovoltaïque et énergie grise
Une étude sur l’impact environnemental du photovoltaïque dans les pays de l’OCDE réalisée par Hespul avec le soutien notamment de l’ADEME et de l’AIE montre qu’il faut, en Belgique, 3,21 ans pour qu’un système sur toiture produise l’énergie nécessaire à sa fabrication. Cette durée est appelée temps de retour énergétique. Pour une installation en façade, elle est estimée à 4,68 ans. Si l’on estime la durée de vie d’une installation à 30ans, cela signifie que celle-ci aura produit 8,4 fois plus d’énergie que celle qui a été nécessaire à sa fabrication. Ce facteur appelé facteur de retour énergétique est de 5,4 pour les installations en façades.Sur sa durée de vie, une installation photovoltaïque de 1 kWc en toiture permet d’éviter jusqu’à 8,5 tonnes de CO2 (6,2 tonnes pour les installations en façade).
Source : IEA-PVPS Task 10, EPIA, European Photovoltaic Technology Platform.
Plus d’infos : facilitateur Energies renouvelables électriques :  http://energie.wallonie.be Dans le futur (après 2030), avec l’amélioration du rendement des cellules PV ou encore l’allongement de la durée de vie des panneaux, l’agence international pour l’énergie [IEA] prévois dans son scénario le plus optimiste une réduction du temps de retour énergétique à 1,7 ans. Dans son scénario le plus défavorable, l’étude avance le chiffre de 2,2 ans soit un an de moins qu’en 2018. [http://www.iea-pvps.org/index.php?id=314]

Choisir et raccorder les modules

Le choix du module (ou panneau pour les cellules cristallines) repose avant tout sur le type de cellule qui le compose. L’avantage majeur que possède le photovoltaïque est que technologies quelles que soient leurs provenances, ont été soumises à des tests sous les conditions STC (décrits dans les normes européennes). Cela permet une comparaison aisée via leur puissance crête !

Théories

Pour en savoir plus sur le rendement et la puissance crête d’une cellule.

Ce choix repose souvent sur la recherche d’un optimum économique parmi les possibilités suivantes (ou encore d’une contrainte de surface disponible en toiture par exemple) :

Plus une cellule est performante, plus elle est chère et plus la production surfacique (kWh/m²) sera grande.

Ainsi pour une puissance crête installée de 1 kWc, on aura besoin en moyenne  de :

  • 6 m² de cellules monocristallines (en considérant une puissance crête de 165 Wc/m²),
  • 8 m² de cellules polycristallines (en considérant une puissance crête de 125 Wc/m²),
  • 15 m² de cellules amorphes (en considérant une puissance crête de 66 Wc/m²).

En général, cette réflexion s’effectue directement au niveau du module :

Ex : Un fabricant propose un panneau de 125 Wc : il faudra donc huit panneaux pour obtenir une puissance installée de 1 kWc (1 000 Wc/125 Wc).

N.B. : les valeurs ci-dessus ne sont que des ordres de grandeur et peuvent varier sensiblement suivant le rendement des cellules considérées.

On choisira donc le type de cellule du module en fonction de la surface disponible, de la production souhaitée et du coût.

Techniques

Plus d’infos sur les différents types de cellules et leurs caractéristiques.

Le type de pose et l’effet esthétique peut aussi influencer le type de module choisi :

On pourra ainsi opter pour des modules verre-verre plutôt que des modules verre-tedlar traditionnels pour des applications où l’on recherche un effet translucide (verrière,…).

Techniques

Plus d’infos sur les différents types de modules.

Le raccordement des différents modules entre eux peut s’effectuer soit en série soit en parallèle en fonction du lieu d’implantation et des caractéristiques d’entrée de l’onduleur.

Le montage en série (addition des tensions générées) permet :

  • Un montage rapide et aisé.
  • Une utilisation de petites sections de câbles sans augmenter les pertes de transport du courant continu. (les pertes de puissance sont en effet fonction de l’intensité du courant au carré).

Il conviendra essentiellement pour les installations les plus homogènes (sans ombrage, orientation identique, faible tolérance de la puissance des modules,…). Dans ce cas, la défectuosité, l’ombrage,… affecteront l’entièreté de la production des modules raccordés en série.

Le montage en parallèle (addition des courants générés) conviendra à l’inverse plus particulièrement pour des installations plus hétérogènes (ombrage, inclinaison et orientation différentes,…) ou quand les tensions autorisées par l’installation  sont limitées.

En pratique, on essaie dans la limite du possible de  rassembler en série le maximum de modules de caractéristiques identiques (strings).

De manière générale, on veillera à limiter la longueur et à bien dimensionner le câblage  entre les modules. Un dimensionnement correcte du diamètre du câble permettra en effet d’éviter un échauffement trop important et par là des pertes de transports inutiles.

Suiveurs solaires

Suiveurs solaires


L’objectif d’un suiveur solaire est de pouvoir suivre le soleil tout au long des mois et de la journée. En suivant continuellement la position du soleil, ce système permet d’assurer une production électrique maximum.

Un suiveur solaire peut avoir deux degrés de liberté de rotation : horizontal pour régler l’inclinaison et vertical pour l’orientation. Il en existe différents types :

Simple axe longitudinal.

Simple axe vertical.

Simple axe transversal.

Double axe.

On distingue principalement le suiveur à un axe, qui permet (généralement) de suivre le soleil d’est en ouest, du suiveur à deux axes qui permet une modification de l’orientation et de l’inclinaison. Ce dernier cas nécessite l’intervention de deux moteurs.
Deux systèmes différents permettent le tracking :

  • Le système actif : muni d’une sonde d’éclairement, il permet une recherche instantanée de la position optimale. En cas de ciel couvert (rayonnement diffus), un tel système se met à l’horizontal, position dans laquelle la production est maximale par ce type de ciel.
  • Le système astronomique : la position est alors directement fonction du parcours solaire pré-programmé.

D’autres sondes (type anémomètre) permettent aux traqueurs d’adopter une position de sécurité en cas d’intempérie.

> Vers le choix d’un suiveur solaire.

Onduleurs

Onduleurs


Définition

La plupart de nos applications électriques actuelles fonctionnent en courant alternatif ; or une installation photovoltaïque produit un courant continu. Le premier rôle d’un onduleur sera d’assurer cette transformation. Mais son rôle ne s’arrête pas là.

Il doit permettre en plus :

  • La recherche du point de fonctionnement maximal (MPP tracker) par rapport à l’intensité et à la tension générée par les modules, par exemple, par modification d’impédance.
  • De se synchroniser avec le réseau du GRD afin de pouvoir réinjecter le courant généré. Pour cela, il devra adapter la tension (transformation), la fréquence et l’impédance.
  • De se découpler automatiquement en cas de chute de tension dans le réseau.
  • Le relevé et l’enregistrement des valeurs caractéristiques du fonctionnement nécessaire à la maintenance et au contrôle de l’installation.

Un onduleur possède des plages de travail bien définies :

  • Puissance maximale ;
  • Tensions minimum et maximum ;
  • Courant maximum.

Ces valeurs devront donc être en cohérence avec les caractéristiques du champ de capteurs pour éviter tout risque de mauvais fonctionnement voire de détérioration de l’appareil.

Un onduleur peut être caractérisé par son rendement « européen », obtenu sur base de rendement à charge partielle. Celui-ci atteint actuellement  95 %.

> Plus d’infos sur le fonctionnement de l’onduleur.

Différentes configurations sont possibles pour la position du ou des onduleurs par rapport aux modules photovoltaïques : sur chaque panneau, string, champ de capteurs,… La configuration idéale d’une installation (raccordement des modules en série parallèle et place de l’onduleur) dépendra essentiellement de l’homogénéité du champ de capteurs (ombrage, orientation et inclinaison, types de cellules, défaillance, encrassement,…).


Onduleur central : un onduleur gère l’ensemble de l’installation

  1. Champ de capteur (ou générateur).
  2. Boitier de raccordement.
  3. Onduleur.
  4. Compteur.
  5. Réseau.

Dans cette configuration,  l’onduleur ne perçoit pas les différences de caractéristiques entre les courants produits par les différents strings. Ils sont en effet couplés au préalable au niveau du boitier de raccordement. C’est à partir de ce courant (d’intensité égale à la somme des courants et de tension égale à la tension la plus haute des différents strings) réellement perçu par  l’onduleur est que celui-ci adaptera ses caractéristiques d’entrées pour faire fonctionner le générateur photovoltaïque à son point de puissance maximum.

Avantage

  • Coût.
  • Simplicité et rapidité de montage.

Inconvénient

  • La tension de sortie et donc la production énergétique est très facilement perturbée par un string plus faible (ombrage, nombres de panneaux, type de cellule,…).
  • Ce type de raccordement ne permet pas de travailler avec des strings de natures différentes sans altérer considérablement la production.

Note : Deux types  de raccordement sont possibles avec un onduleur central: à tension faible (peu de modules composent les strings) ou à tension élevée (beaucoup de modules par string). Le principe de fonctionnement est similaire.


Onduleur string : un onduleur par string (rangée de modules en série)

Dans cette configuration, chaque onduleur peut exploiter aux mieux chaque string.

Avantage

  • Recherche du point de puissance maximale (MPP) pour chaque string.

Inconvénient

  • Influence de la perte de rendement d’un module (du à l’ombrage, à la saleté, ou à une défaillance) sur les performances des modules du string (mais limitée à celui-ci !).

Onduleur Multistring : un onduleur gère différents strings en parallèle

Dans ce cas, combinant en quelque sorte les configurations « string et centralisées », les entrées sont équipées chacune de leur propre MPPT. Les différents courants continus générés sont d’abord synchronisés avant d’être transformés en courant alternatif.

Avantage

  • Association de string de natures différentes (types de cellules, orientation, nombres de modules,…) sans perturbation globale des performances.
  • Rendement nettement supérieur comparé à la configuration centralisée, en présence de string de natures différentes.

Onduleur modulaire : un onduleur par panneau

Avantage

  • Facilité d’emploi.
  • Pas de câblage en courant continu.
  • Indépendance de chaque module (l’ombrage d’un panneau et sa perte de rendement résultante n’affecte pas la production des autres panneaux. De même que la panne d’un onduleur n’influence pas les autres modules).

Inconvénient

  • Coût.
  • Maintenance : en général ce type d’onduleur est directement intégré au panneau. Sa défaillance entraine le remplacement du panneau (hors la durée de vie de celui-ci est normalement inférieure à celle du panneau).

Branchement d’onduleur

En charge partielle faible, c’est-à-dire lorsque le flux lumineux est faible, le rendement des onduleurs est plus bas.
Pour écourter le temps de travail en faible charge d’un seul onduleur, il est possible d’utiliser plusieurs onduleurs en communication.

Le principe est simple : Si l’éclairement est important, plusieurs onduleurs travaillent ensemble à pleine charge si par contre, l’éclairement est faible, un seul onduleur fait le travail !

Deux cas de figure sont possibles :

  • Suivant que les onduleurs s’allument et s’éteignent selon les besoins :  principe maitre esclave. Le raccordement est identique à la configuration centralisée.
  • Suivant que les strings soient répartis ou non sur différents onduleurs : principe team. Cette configuration est un prolongement de la configuration onduleur string.

Modules photovoltaïques

Modules photovoltaïques


Pour obtenir une tension électrique générée qui soit utilisable, on raccorde plusieurs cellules en série qui forment alors un string. Un module est composé de plusieurs strings.

L’association des cellules en modules permet :

  • D’obtenir une tension suffisante
  • De protéger les cellules et leurs contacts métalliques de l’ambiance extérieure (humidité,…)
  • De protéger mécaniquement les cellules (chocs,…)

Les modules les plus courants (communément appelés panneaux) sont généralement constitués :

Schéma principe du module photovoltaïque.

  • D’un cadre de support et un joint d’étanchéité (1 et 2).
  • D’une plaque de verre extra claire (favorisant la transmission lumineuse) (3).
  • De deux couches d’Ethylène-Acétate de Vynile (EVA) qui enrobent les cellules assurant leur protection contre les intempéries et l’humidité. (4)
  • Des différents strings de cellules (5).
  • D’une feuille de tedlar (ou éventuellement du verre) comme face arrière du module. Ce polymère à haute résistance aux UV et à la haute température assure au module sa résistance mécanique face aux chocs externes (vent, transport,…) (6).

Le type de module le plus courant, rencontré entre autres pour le montage en toiture est le module verre tedlar.
Il existe cependant d’autre type de module comme :
Les modules « verre-verre », utilisés pour leur propriété « translucide » : verrières, façade,…

Photo module modules "verre-verre".

Des modules tuiles/ardoises solaires où les cellules sont directement intégrées dans des modules de formes traditionnelles de toiture. Celles-ci sont cependant plus exigeantes en termes de main d’œuvre (chaque tuile doit être raccordée manuellement !)

D’autres modules de types « thin film » ont aussi récemment fait leur apparition sur la marché. Ils sont en général disposés sur un support souple (teflon,…).

Photo module de type "thin film".

Les modules sont connectés entre eux (en série ou parallèle) par des fils électriques. Ils forment alors un champ de capteurs (appelés aussi générateur).

Schéma principe du champ de capteurs.

Placement de capteurs solaires


Source : Apere, Prescriptions urbanistiques pour le placement de capteurs solaires, Économisons l’énergie, Service public de Wallonie, 23 juillet 2010. Plus d’infos sur : energie.wallonie.be.

En vertu du Code wallon de l’Aménagement du territoire, de l’Urbanisme, du Patrimoine et de l’Énergie (CWATUPE), le placement de capteurs solaires, thermiques ou photovoltaïques, n’est pas soumis à l’obtention d’un permis d’urbanisme (Art. 262, al. 2) pour autant que le dispositif :

1. est conforme à la destination de la zone1;

2. alimente tout bâtiment, construction ou installation situé sur le même bien immobilier2;

3. réponds à l’un des cas de figure suivants :

  • Lorsque les modules sont fixés sur une toiture à versants, la projection du débordement dans le plan vertical est inférieure ou égale à 0,30 m et la différence entre les pentes du module et de la toiture de ce bâtiment est inférieure ou égale à 15 degrés;

         

  • Lorsque le ou les modules sont fixés sur une toiture plate, le débordement vertical est de 1,50 m maximum et la pente du module de 35 degrés maximum;

  • Lorsque le ou les modules sont fixés sur une élévation (façade), la projection du débordement dans le plan horizontal est comprise entre 1,20 et 1,50 m et la pente du module entre 25 et 45 degrés.

 

Lorsque le dispositif ne répond pas à l’une de ces 3 conditions, un permis d’urbanisme est nécessaire, mais sa délivrance ne nécessite pas l’avis du fonctionnaire délégué (Art. 107, §1, 2ème partie, 2°, d). Cependant, si le dispositif n’est pas situé à une distance des limites mitoyennes au moins égale à sa hauteur totale, l’intervention d’un architecte (Art. 265, 8°) est requise.

Remarques

1. La dispense de permis n’est pas d’application si l’aménagement :

  • porte sur un bien :
    • inscrit sur la liste de sauvegarde,
    • ou classé,
    • ou situé dans une zone de protection visé à l’article 209,
    • ou localisé dans un site repris à l’inventaire des sites archéologiques visé à l’article 233,
    • sauf si ce bien est un élément du petit patrimoine populaire visé à l’article 187, 13° (Art. 84, §2);
  • nécessite des actes et travaux préparatoires soumis au permis d’urbanisme.

2. En vertu des dispositions du décret du 22 mai 2008 modifiant les articles 35 et 111 du CWATUPE (Annexe 8, Art. 3), l’interdiction de la pose de capteurs, solaires — ou la dérogation — auparavant imposée par d’autres dispositions légales, décrétales ou réglementaires (RRU, RCU, PCA ou permis de lotir) est abrogée3.

3. La couverture complète d’un pan de toiture par des  capteurs solaires relève, pour l’instant, des règles d’urbanisme relatives aux matériaux de couverture et non à celles qui régissent le placement de capteurs solaires.

4. En vertu des articles 35 et 452/34 bis du CWATUPE, le placement de capteurs solaires en zone agricole est conforme au plan de secteur pour autant que le dispositif :

  • ne remette pas en cause de manière irréversible la destination de la zone ;
    • alimente tout bâtiment, construction ou installation situé sur le même bien immobilier2;
    • soit destiné à un usage privé4.

Ces capteurs solaires peuvent :

  • alimenter une habitation implantée dans une zone d’habitat contiguë ;
  • être placés isolément à condition qu’ils ne soient pas visibles de l’espace public.

Notes

  1. Ne déroge pas au plan de secteur. Pour le cas des zones agricoles, voir page suivante le chapitre « Remarques ».
  2. Bien qui peut éventuellement comprendre plusieurs parcelles ayant des numéros cadastraux différents, à condition qu’il n’y ait pas de discontinuité entre elles. Cette disposition n’est toutefois pas applicable aux bâtiments :
    • repris à l’inventaire du patrimoine visé à l’article 192,
    • visés à l’article 185, et classés ou inscrits sur la liste de sauvegarde. (Art. 3 du décret du 22 mai 2008 modifiant les articles 35 et 111 du CWATUPE).
  3. Cette disposition n’est toutefois pas applicable aux bâtiments repris à la note 2.
  4. Ne sont donc pas autorisées, les installations collectives de modules de production et les installations publiques d’un réseau de distribution ou de production d’électricité (Art. 452/34bis du CWATUPE).

Effets photoélectrique et électroluminescent

Effets photoélectrique et électroluminescent


Un matériau semi-conducteur

Un matériau semi-conducteur est un matériau dont la conductibilité électrique peut varier en fonction des conditions dans lesquelles il se trouve.

C’est la mécanique quantique et la théorie des bandes qui permettent d’expliquer ce comportement. Schématiquement, le phénomène peut être représenté de la manière suivante :

Le niveau d’énergie d’un électron d’un atome ne peut prendre qu’un certain nombre de valeurs discrètes. Ces plages sont appelées « bandes d’énergie ». Suivant leur niveau d’énergie, les électrons peuvent soit se trouver dans une bande de valence ou dans une bande de conduction. Dans le premier cas, ils contribueront aux liaisons de l’atome, dans l’autre, à la conductibilité du matériau. Entre ces bandes, il existe des bandes dites « interdites », correspondant aux valeurs énergétiques que l’électron ne peut prendre.

Pour les matériaux conducteurs, cette bande interdite n’existe pas.  Les électrons de liaisons contribuent alors directement à la conductibilité. Pour les matériaux isolants, cette bande est quasi infranchissable tant l’énergie nécessaire est importante. Pour les semi-conducteurs, cette bande interdite est suffisamment petite pour permettre un passage aisé des électrons de la bande de valence à la bande de conduction.

Cette représentation permet d’expliquer la différence de comportement à la chaleur des conducteurs et des semi-conducteurs. Dans un métal, les électrons de valence soumis à la chaleur s’agitent, diminuant la zone conductrice de la bande d’énergie. Pour les semi-conducteurs, une augmentation de la température favorise le passage des électrons situés sur la bande de valence vers la bande de conduction, améliorant la conductibilité de l’atome (diminution de la résistance).

Remarque : le niveau de fermi représente le plus haut niveau d’énergie que les électrons peuvent prendre à une température de 0K.

Il est possible d’augmenter la conductibilité d’un semi-conducteur par un procédé chimique, appelé dopage, qui consiste à insérer des impuretés dans le semi-conducteur.

On réalise ainsi des semi-conducteurs de type n et des semi-conducteurs de type p.

Pour obtenir un matériau de type n, on dope le matériau semi-conducteur (généralement du silicium) avec un élément de valence supérieure (possédant plus d’électrons que le semi-conducteur), comme le phosphore, afin d’ajouter des électrons à la bande de conduction. La conduction est alors assurée par le déplacement de ces électrons.

Pour obtenir un matériau de type p, on dope le matériau semi-conducteur par un élément de valence moins importante, comme le Bore, afin de diminuer le nombre d’électrons de la bande de valence.  La conduction est  alors assurée par le déplacement de porteurs chargés positivement (trous correspondant au manque d’électrons).


Une jonction PN

Une diode électroluminescente ou une cellule solaire photovoltaïque est composée d’une jonction p-n, la couche supérieure étant un matériau de type n et la couche inférieure de type p. Pour fabriquer ces jonctions, on effectue un traitement de surface pour déposer un semi-conducteur de type n sur la surface externe d’un matériau de type p. 

La mise en contact de ces matériaux génère une barrière de potentiel à la base du champ électrique permanent. Cette barrière, appelée zone de déplétion, est formée par recombinaison du surplus de trous et d’électrons des zones p et n remise en contact. Le schéma suivant représente les niveaux d’énergie au voisinage de la jonction :

Si la température d’une telle jonction augmente, les électrons rempliront progressivement tous les états d’énergie, annulant la bande interdite et par là, l’effet de la jonction p-n.


Effet photoélectrique

Historique et principe

L’effet photoélectrique a été découvert par Alexandre Edmond Becquerel en 1839. Il est obtenu par absorption des photons dans un matériau semi-conducteur, lequel génère alors une tension électrique. Les cellules photovoltaïques produisent du courant continu à partir du rayonnement solaire qui peut être utilisé pour alimenter un appareil ou recharger une batterie. (Source : ouverture d'une nouvelle fenêtre ! EF4, facilitateur photovoltaïque).

Le rayonnement solaire est constitué de photons dont l’énergie est décrite par la relation suivante :

E [J] = hv = h . c/λ

Avec,

  • h : constante de Planck.
  • λ : longueur d’onde [m].
  • v : fréquence [Hz].

Quand un photon heurte la cellule, il transmet son énergie aux électrons des semi-conducteurs. Si l’énergie absorbée est suffisante pour permettre le passage de la bande interdite (hv > Egap = Éconduction – Evalence), ces électrons quittent leur bande de valence et entrent dans la bande dite de conduction. Cette émission d’électrons et des trous correspondants (on parle de paires électron-trou) due à l’action de la lumière est appelée effet photoélectrique interne (car les électrons ne sont pas éjectés en dehors de l’atome). Les propriétés physiques du matériau sont alors modifiées et celui-ci devient conducteur (photoconductivité). Si à l’inverse l’énergie du photon n’est pas suffisante, il traverse le matériau sans transmettre d’énergie.

Ainsi, un matériau semi-conducteur dont la bande interdite est comprise entre 0.7 et 0.4 eV est un matériau dit photovoltaïque du spectre solaire.

Le défi est de récupérer la paire électron-trou ainsi générée, car si celle-ci n’est pas récupérée suffisamment rapidement il y a recombinaison entre l’électron et le trou. Pour pouvoir valoriser le potentiel électrique de cet effet, on utilisera la différence de potentiel induite par une jonction pn.

Influence de l’éclairement

L’effet du rayonnement lorsqu’il fournit assez d’énergie (si celle-ci est supérieure à la largeur de la bande interdite) fait apparaître des paires supplémentaires d’électron trou porteur (apparition simultanée d’un porteur n et d’un porteur p) dans la jonction.

Les porteurs p ainsi créés ont tendance à migrer vers le matériau p et les porteurs n vers le matériau n, renforçant la barrière de potentiel. Une partie des porteurs générés par le rayonnement sera elle aussi soumise à divers phénomènes de recombinaison (disparition simultanée d’un porteur n et d’un porteur p).

L’éclairement a deux effets sur le fonctionnement :

Si le système fonctionne en mode récepteur (quadrant III) : la résistance diminue avec l’éclairement, c’est la photorésistance.

Si le système fonctionne en mode générateur (quadrant IV) : le courant « court-circuit » est proportionnel à l’éclairement et la tension à vide est celle de la diode en polarisation directe. C’est la cellule photovoltaïque à jonction PN. C’est sur ce quadrant IV que sont basées les caractéristiques des cellules :

Représentation théorique et équation d’une « cellule idéale ».

Avec,

  • Icc [A] : courant de court-circuit dû à l’éclairement E
  • Vco : tension en circuit ouvert.

Pour créer un courant, on place des électrodes sur chacun des matériaux et on les relie par un circuit électrique. Ces raccordements et leur fabrication provoqueront des effets résistifs parasites qui différencieront les caractéristiques réelles des cellules de ce comportement théorique.

Théories

Pour en savoir plus sur les caractéristiques des cellules.


 Effet électroluminescent

Historique

H.J. Round fut le premier à observer une émission de lumière par un semi-conducteur en 1907. La diode électroluminescente était née. C’est, en quelques sortes, l’inverse de l’effet photoélectrique qui caractérise les cellules photovoltaïques. Utilisée dans les LEDs, cette technologie n’a pas cessé de s’améliorer tant au niveau de l’étendue de la gamme de couleurs qu’à l’explosion des domaines d’application comme la signalisation et l’éclairage de puissance.

Principe

Lorsqu’on soumet une jonction PN à une source électrique à courant continu, la jonction présente un comportement différent si elle est soumise à une différence de potentiel dans le sens direct ou dans le sens inverse.

La polarisation directe de la jonction (en respectant les bornes) provoque un abaissement de la barrière de potentiel et permet un passage important d’un courant appelé courant de diffusion et dû aux porteurs majoritaires. La présence de ce courant de diffusion déséquilibre le système et aboutit à une croissance de la population des porteurs minoritaires dans chaque zone. Si la tension de polarisation directe est suffisante, la probabilité de recombinaison radiative n’est plus négligeable et des photons sont produits par la recombinaison dans la jonction.

À titre indicatif, la polarisation inverse provoque un renforcement de la barrière de potentiel (élargissement de la zone de déplétion par recombinaison) et un courant dû aux porteurs minoritaires (trous dans le type n et électrons dans le type p). Ce courant, très faible, varie peu en fonction de la tension.

Cette caractéristique est à la base des diodes, composant électronique qui ne permet le passage de courant que dans un sens.

Ce schéma montre la relation  typique entre l’intensité du courant et le potentiel d’un tel composant :

Couleur émise

La longueur d’onde λ, soit la couleur de la lumière émise, dépend du fameux saut d’énergie :

Egap = h.c / λ.

Avec,

  • h : constante de Planck
  • c : vitesse de la lumière
  • λ : longueur d’onde [m].

Liée aux matériaux et au taux d’impuretés de la diode, la lumière émise est quasi monochromatique, ce qui signifie que la couleur émise sera saturée.

Chaque recombinaison n’est pas radiative : il n’y a donc pas d’émission de photon à tous les coups, ce qui réduit l’efficacité de la Diode électroluminescente. Il est donc nécessaire pour les fabricants d’allier des matériaux et des moyens de conception qui permettent d’optimiser le rendement radiatif. Pour l’éclairage, les fabricants ont donc dû faire appel à leur imagination pour améliorer la performance de la jonction : on parle d’hétérojonctions multiples pour les LED de puissance contre des homojonctions pour les LED classiques de basse puissance.

Types de cellules

Types de cellules


Une cellule photovoltaïque est un composant électronique qui lorsqu’il est exposé au spectre solaire génère une tension électrique par effet photovoltaïque.

Toutes les cellules sont créées à partir de matériaux semi-conducteurs. La plupart du temps, c’est le silicium (Si) qui est utilisé mais on rencontre aussi le sulfure de cadmium (CdS), le tellure de cadmium (CdTE), des alliages de cuivre indium et sélénium (CIS),…

Trois technologies principales de cellules existent suivant leur mode de production :


1ère génération : cellules cristallines

Ces cellules, généralement en silicium, ne comprennent qu’une seule jonction p-n. La technique de fabrication de ces cellules, basée sur la production de « wafers » à partir d’un silicium très pure, reste très énergivore et coûteuse. La limite théorique de rendement de ce type de cellule est de ±27%. Les cellules les plus récentes s’approchent chaque année de plus en plus de cette limite.

Méthode de fabrication : le cristal formé par refroidissement du silicium en fusion dans des creusets parallélépipédiques est ensuite découpé en fines tranches appelées « wafers ». Les cellules sont alors obtenues après « dopage » et traitement de surface.

On distingue deux types de cellules cristallines :

Les cellules polycristallines

Photo cellules polycristallines.

Le refroidissement du silicium en fusion est effectué dans des creusets parallélépipédiques à fond plat. Par cette technique, des cristaux orientés de manière irrégulière se forment. Cela donne l’aspect caractéristique de ces cellules bleutées présentant des motifs générés par les cristaux.

Rendement

16-18 % (On obtient ainsi une puissance de 160 à 180 Wc par m²)
Ces cellules restent les plus utilisées du fait du rapport performance/prix plus intéressant que celui de leurs homologues monocristallins.

Avantage

  • Rapport performance/prix.

Inconvénient

  • Rendement faible sous éclairement réduit.

Les cellules monocristallines

Photo cellules monocristallines.

Ces cellules sont constituées de cristaux très purs obtenus par un contrôle strict et progressif du refroidissement du silicium.

Rendement

17-20 % (On obtient ainsi une puissance de 170 à 200 Wc par m²).

Sans entrer dans le détail, si aujourd’hui les cellules sont de type « Al-BSF » (aluminium back surface field) l’évolution vers des cellules « PERC » (passived emitter and rear cell) permettra prochainement de monter à ± 23 % tandis que les cellules à hétérojonctions promettent déjà d’atteindre les 26 %. (26.6 % déjà obtenu en laboratoire)

Avantage

  • Très bon rendement.

Inconvénients

  • Coût élevé.
  • Rendement faible sous éclairement réduit.

2ème génération : couches minces « thin films »

Photo cellule couches minces "thin films".

Dans le cas de « couches minces », le semi conducteur est directement déposé par vaporisation sur un matériau support (du verre par exemple). Le silicium amorphe (a-Si) (silicium non cristallisé de couleur gris foncé), le tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS) font notamment partie de cette génération. Ce sont des cellules de cette technologie que l’on retrouve dans les montres, calculatrices,… dites solaires !

Le silicium amorphe

Rendement

6 à 7 % soit 60-70 Wc/m².

Avantages

  • Moins coûteux que la première génération puisqu’elle consomme moins de matériau semi-conducteur.
  • Moins polluant à la fabrication (Ne nécessite pas de passer par l’étape de transformation du silicium en « wafers » (moins énergivores)).
  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.

Le tellure de Cadnium, Disélénium de cuivre indium (avec ou sans Gallium)

Il existe d’autres types de cellules « couches minces » : tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS),…

Le CdTe présente de bonnes performances, mais la toxicité du cadmium reste problématique pour sa production.

Rendement

11 à 15 % soit 110-150 Wc/m². En laboratoire, les cellules ont déjà atteint le rendement record [2017] de 21,7 % pour des cellules CIGS ! De quoi concurrencer les homologues cristallins !

Avantages

  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible en ce qui concerne les cellules commercialisées.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.
  • Durée de vie moins grande que les cellules cristallines.

3ème génération : Perovskites, multijonction, concentration, …

Pour améliorer les rendements des cellules, la recherche se tourne actuellement vers plusieurs pistes dont notamment :

  • Les Cellules Pérovskites sont des cellules composées d’un élément hybride organique-inorganique ayant une structure de pérovskite.

Schéma cellules Pérovskites.

  • Ces cellules sont apparues en 2000 avec un rendement de 3,8 %. Depuis, en 2016, le rendement est passé à 22,1 % ce qui en fait une alternative prometteuse ! Leur coût de production est faible. L’inconvénient de ces cellules réside dans leur instabilité et faible résistance aux agents extérieurs (eau, températures…). Néanmoins bon nombre de recherches prometteuses sont en cours et devraient finir de rendre ce type de cellules rapidement intéressantes.
  • Cellules multicouches : superposition de multiples cellules aux propriétés différentes (utilisant des bandes d’énergie différentes permettant un balayage plus large du spectre solaire). Ce type de cellules est déjà commercialisé, mais principalement pour des applications spatiales. Les rendements obtenus sous concentration sont très prometteurs (au délà de 30 %)..

    Schéma cellules multicouches.

      1. Sunlight spectrum ;
      2. Tunnel junctions ;
      3. Cell 1, cell 2, cell 3.

    Structure d’une cellule triple-jonction.

  • Cellules à concentration (permet d’utiliser des photons à basse énergie qui ne sont habituellement pas absorbés par la cellule).
  • Cellules organiques,…

Conclusion

  • Les cellules cristallines à jonction simple se rapprochent de leur performance ultime théorique (± 27 %).
  • Les TF-PV (ThinFilm PV) s’améliorent très rapidement et commencent à concurrencer les cellules cristallines en terme de rendement.
  • Les Cellules à Perovskites sont un nouveau matériau plein de potentie.
  • Les Tandems Silicones-Cristallins semblent être la voie à suivre pour atteindre des rendements supérieurs à 30 % à faible coûts.
    [imec]

Courtesy of M. Hermle, Fraunhofer ISE.

Choisir l’emplacement des capteurs [photovoltaïque]

 

Avant toute chose, il est nécessaire de se poser quelques questions :

  • Y a-t-il des surfaces inutilisées qui pourraient être valorisées énergétiquement ?
  • Au niveau du bâtiment ? du terrain ?
  • Ces surfaces sont-elles bien orientées ?
  • Sont-elles ombrées ?
  • En cas d’application en toiture, celle-ci est-elle encore en bon état ?

Le choix de l’emplacement des modules peut être fonction de plusieurs de ces facteurs :


Surface disponible

La surface disponible déterminera la puissance génératrice qu’il est possible d’installer en fonction du type de cellule choisi. Pour connaître la production électrique surfacique attendue :

> Plus d’infos sur la production électrique et le pré dimensionnement


Orientation et inclinaison

Dans nos régions, le sud est évidemment le maître choix pour les installations fixes. L’inclinaison optimale qui permet de maximiser les gains solaires annuels incidents (et donc la production) se situe à 35°. On tentera donc de se rapprocher le plus possible de cette orientation.

Attention, si théoriquement ceci est vrai, d’un point de vue économique, le but de toute installation photovoltaïque doit également de faire se rencontrer les périodes de production et de consommation pour favoriser l’autoconsommation. Ainsi, en l’absence d’un moyen de stockage de taille adapté, une orientation des panneaux dite Est-Ouest peut être optimale.

Figure 1:Panneaux photovoltaïques orientés Est-Ouest : Tritec-energy.com.

De plus, les températures hautes étant nuisibles aux performances des panneaux, on préférera généralement une orientation Est à Ouest (température plus basse le matin).

Théories

Plus d’infos sur la variation de l’irradiation solaire annuelle en fonction de l’inclinaison et de l’orientation!

> Plus d’infos sur l’influence de ce paramètre au niveau de la production électrique et du dimensionnement.

Cependant, comme le montre le schéma suivant, l’angle d’inclinaison optimale (perpendiculaire au soleil) varie au fil des mois et des heures.

Des systèmes de tracking appelés aussi suiveur solaire permettent d’adapter continuellement l’inclinaison et l’orientation des panneaux.


Type de pose

Plusieurs types de pose sont possibles :

En toiture

Pose en toiture inclinée

En toiture inclinée, les panneaux sont attachés à la structure du toit au moyen de pattes métalliques. Les modules peuvent être soit placés en surimposition soit intégrés à la toiture. Les modules remplacent alors la couverture de la toiture comme peuvent le faire des tuiles solaires.

L’échauffement possible des cellules est, dans ce cas, un problème dont il faut tenir compte. En effet, une perte de puissance (environ 0.5 % par degré) en fonctionnement est associée à la montée en température des cellules. Or, en cas d’intégration, la chaleur est plus difficilement dissipée par ventilation qu’en cas de surimposition. Des ajustements de la structure de la toiture sont dans certains cas indiqués pour améliorer la ventilation à l’arrière des modules.

     

Surimposition et intégration

Pose en toiture plate

En toiture plate, les panneaux sont généralement disposés sur une structure en métal ou en plastique. Celle-ci permet d’obtenir un angle d’inclinaison optimisant la production de la surface utilisée tout en assurant la ventilation de l’arrière du panneau. La ventilation de l’arrière des  panneaux photovoltaïques est par contre moins importante dans le cas des bacs en PVC. On n’oubliera pas le lestage nécessaire.

Il faut impérativement vérifier l’état de la toiture et du matériau de couverture au préalable. Il serait dommage de devoir démonter les panneaux quelques années plus tard ! De plus, il ne faut pas oublier le poids induit par la pose des panneaux et le lestage important (80 à 100 kg par m² de capteur) requis pour la pose en toiture plate (résistance à la prise au vent). Ce surpoids doit pouvoir être supporté par la charpente ! Lorsque l’on solidarise l’ensemble des panneaux via une structure métallique, la quantité de lestage peut diminuer et des valeurs de l’ordre de 50 kg/m² sont alors plus communes.

Certaines cellules de types « thin film » ont aussi vu le jour. Elles permettent une intégration directe à l’étanchéité d’une toiture plate et ne nécessitent donc pas le surpoids induit par le support.  Attirante d’un point de vue économique (cellule moins coûteuse et directement intégrée dans une étanchéité nécessaire), on notera que ces cellules sont caractérisées par de plus faibles rendements. Elles doivent de plus être implantées selon la configuration du support. Leur orientation et inclinaison seront donc généralement celles de la toiture, ce qui conditionnera leur productivité. Une légère pente reste néanmoins souhaitable pour favoriser l’écoulement des eaux de pluies et éviter l’encrassement des cellules.

  

Sur supports et intégré à la couverture.

En façade

Il est possible d’utiliser des modules photovoltaïques comme bardage de façade. Ce type de configuration entraine une perte de production importante due à une réduction de l’exposition solaire (30% de moins que dans les conditions optimales). Comme en toiture inclinée, l’intégration ou la surimposition est possible.

Ce qu’on appelle aujourd’hui le BIPV (Building Integrated Photovoltaics) est de prime abord moins productif et généralement plus cher que la pose classique en toiture. Néanmoins, les panneaux photovoltaïques peuvent se substituer au bardage et remplir ainsi une double fonction (bardage + production électrique solaire). Dans le cadre d’une telle installation, il faut en réalité se poser la question du surcoût par rapport au matériau « classique » qui est remplacé.

La technologie solaire étant de moins en moins cher et le coût de l’énergie augmentant continuellement, ces solutions ont tendance à devenir de plus en plus crédibles d’un point de vue économique, et ce malgré leur rendement réduit.

Dans les zones urbanisées, sous la pression immobilière et la nécessitée croissante de densifier, les concepteurs de bâtiments ont tendance à réduire l’emprise au sol des bâtiments (et corollairement leur surface de toiture) au profit d’un accroissement du nombre d’étages. Se faisant, la quantité de surfaces verticales augmente considérablement tandis que les surfaces de toitures sont réduites à peau de chagrin. Il y a donc un réel intérêt aujourd’hui à donner une plus-value à ces surfaces, et ce dès la conception des projets.

En verrière

Pour ces applications, on utilise des modules verre-verre qui permettent de garantir un passage lumineux. Attention au respect des normes d’isolation thermique !

Ce type d’installation peut également être utilisé pour des préaux, carports, vérandas, façade légère double-peau…

En protection solaire

Un module photovoltaïque peut aussi participer à la démarche bioclimatique du bâtiment en utilisant les gains solaires superflus au confort thermique du bâtiment.

Au sol

Il est tout à fait possible de disposer des panneaux photovoltaïques au sol (voire sur des traqueurs). En Allemagne, bon nombre de champs de ce genre ont été installés. Il faudra cependant s’assurer de la qualité du sol et de sa stabilité en fonction de la taille du projet. Ce type de pose est soumis a permis. L’avis de fonctionnaire délégué ainsi que l’intervention d’un architecte est requis.

 Réglementations

Plus d’infos sur la réglementation urbanistique (CWATUPE).


Ombrage

 

En l’absence d’optimiseurs ou de micro-onduleur, l’ombrage est le pire ennemi du photovoltaïque. L’effet de l’ombrage sur les cellules photovoltaïques est comparable à l’effet provoqué par la torsion d’une partie d’un tuyau d’arrosage : c’est le point faible qui détermine l’intensité générée !

Une cellule ombrée va donc limiter la puissance générée. Il est donc impératif de choisir un endroit qui soit le moins possible soumis aux ombres fixes provoquées par l’environnement (attention aux cheminées !).

Sur une toiture plate, on devra veiller tout particulièrement à l’ombrage généré par les panneaux entre eux. La formule suivante permet d’estimer l’espace nécessaire entre les panneaux. En général, on estime que la surface de panneaux correspond à environ un tiers de la surface de la toiture plate. (En tenant compte d’un recul imposé de 1,5m par rapport au bord).

Dimensionnement de l’entre-axe entre deux capteurs

L’entre-axe entre deux rangées de capteurs est défini par la formule suivante :

Entre axe = d + b = h (cos β+ sin β/ tg α)

où,

  • h =dimension du capteur.
  • α = hauteur solaire minimum (généralement prise le 21 décembre soit un angle de 16°).
  • β = inclinaison des capteurs.

En considérant des capteurs de 1,2 m de large, l’entre-axe des rangées de capteurs est de : 1,2 x (cos 35° + sin 35°/tg16°) = 3,38 m.

En pratique, sur toiture plate, on préfère incliner moins les modules, car on peut dès lors placer plus de modules et au final produire plus que si l’angle optimal avec été utilisé. En sus, en réduisant l’inclinaison, la prise au vent est également moins importante. Enfin, l’option de placer les panneaux en mode Est-Ouest permet une optimisation de la surface encore plus grande.

Si une ombre est inévitable, il est important que les modules soient correctement disposés afin de diminuer les pertes de productions. Les diodes de by pass servent à éviter les effets dits de « points chauds » détériorant les performances et peuvent dans ce cas limiter le nombre de cellules affectées par l’ombrage. L’ombrage doit être un paramètre important à prendre en compte lors de la conception et lors du raccordement des modules entre eux (en série ou en parallèle).

Dans l’exemple suivant, la configuration de droite permet de limiter l’effet de l’ombrage en by passant uniquement les strings ombrés. Dans la situation de gauche, l’ombre peut provoquer jusqu’à l’annulation complète de la production des modules.

L’influence de l’ombrage temporaire (feuille, saleté,…) n’est normalement que limitée, car une inclinaison de 15° suffit déjà à l’auto nettoyage du vitrage.

Mesurer la vitesse du vent

Mesurer la vitesse du vent


Mesure de l’amplitude de la vitesse

Schéma anémomètre.

Cette mesure est typiquement réalisée par un anémomètre à coupelle.  Une coupelle présente une résistance au vent différente suivant la direction du vent : du coté du dos profilé, la résistance est moindre qu’avec la partie creuse face au vent. Les trainées sur les différentes coupelles de l’anémomètre auront une même direction (orientée avec la vitesse du vent) mais une amplitude différente. Cela va mettre le rotor de l’anémomètre en mouvement. Naturellement, la vitesse de rotation sera d’autant plus importante que la vitesse du vent est grande. Il y aura donc une relation directe entre la vitesse de rotation et la vitesse du vent. Un peu d’électronique embarquée permet de faire cette conversion et de stocker les données mesurées pendant la période d’observation (data logger).

De nouveau, il existe des anémomètres de qualités différentes et donc, de prix différents. Dans le cas de projets éoliens plus modestes, il existe des anémomètres à des prix très abordables, c’est-à-dire avec des ordres de prix compatibles avec de petits projets.

Mesure de la direction du vent

La direction du vent peut se faire par une simple girouette. Celle-ci est souvent combinée à l’anémomètre comme il est illustré dans la figure ci-dessus.


Mesure au bon endroit et à la bonne hauteur

La vitesse du vent dépend fortement de l’emplacement, c’est pourquoi il est important de réaliser la mesure du vent le plus près possible du lieu de la future implantation des éoliennes. On peut se poser la question de savoir si au sein de la future parcelle de terrain, il est vital de placer le capteur à l’endroit exact des futures éoliennes. Cela doit dépendre fortement de la taille de l’éolienne et de la nature du terrain. Plus l’éolienne est petite et plus elle est sensible à des variations locales. De même, la nature du terrain a de l’importance. En effet, si on est en présence d’un terrain plat sans obstacles, la position de la mesure ne doit pas être très critique : l’évolution du champ de vitesse le long du terrain doit être régulière. Par contre, en présence d’irrégularités, comme des obstacles, le choix de la position de mesure doit être plus sensible. En conclusion, il est difficile de donner une règle précise, mais ces éléments de réponse devraient permettre de choisir le plus judicieusement possible ses points de mesure.

On a aussi mis en évidence la forte dépendance de la vitesse moyenne du vent avec la hauteur. Il est donc important de placer le capteur de mesure le plus prêt possible de la future hauteur du rotor de l’éolienne. On réalise cela au moyen d’un mât de mesure. Il faut être vigilant à la législation en vigueur, sur la possibilité d’ériger un tel mât sur votre terrain.

Que se passe-t-il si le mât n’est pas à la même hauteur ? Comme il a été expliqué dans la section relative sur la dépendance de la vitesse avec la hauteur, il y a moyen de déduire la vitesse à une autre hauteur, h, en fonction de la mesure de référence réalisée à la hauteur, h0. Cette relation n’est uniquement valable que si on est en présence d’un terrain plat, homogène et sans obstacle :

V(h) = V(h0) (h/h0)α

avec le coefficient « alpha » qui dépend de la rugosité du sol sur le terrain considéré. En fait, il s’agit de la rugosité du sol telle que vue par le vent, c’est-à-dire le type de couverture (eau calme, herbe, arbres, …). Les valeurs du coefficient « alpha » sont données ici à titre d’exemple.

Réglementation pour le petit éolien

Réglementation pour le petit éolien

Les éléments suivants sont extraits du CoDT (Code du développement territorial).


Demande de permis éolien

Dans le cas des petites éoliennes, la procédure de demande de permis d’urbanisme peut être sujette à des simplifications. Mais dans tous les cas l’installation d’une éolienne sera soumise à un permis d’urbanisme.

Le pôle « Aménagement du territoire » rend les avis pour les demandes de permis éoliens soumises à une étude des incidences sur l’environnement au sens du Code de l’Environnement.

Le permis est quant à lui délivré par le fonctionnaire délégué.

Adéquation avec le plan de secteur

Afin de ne pas demander de dérogation par rapport au plan de secteur lors de la demande de permis d’urbanisme, il est nécessaire d’avoir une concordance entre l’activité que l’éolienne est destinée à alimenter et l’affectation du sol. Les zones ci-dessous pourront accueillir une éolienne :

CoDT Art. D.II.28. Les zones d’activité économique

Les zones d’activité économique comprennent la zone d’activité économique mixte, la zone d’activité économique industrielle, la zone d’activité économique spécifique, la zone d’aménagement communal concerté à caractère économique et la zone de dépendances d’extraction.

Une zone d’activité économique peut […] comporter une ou plusieurs éoliennes pour autant qu’elles ne compromettent pas le développement de la zone existante.

CoDT Art. D.II.36. Les zones agricoles

La zone agricole est destinée à accueillir les activités agricoles c’est-à-dire les activités de production, d’élevage ou de culture de produits agricoles et horticoles […].

Dans la zone agricole, les modules de production d’électricité […] qui alimentent directement toute construction, installation ou tout bâtiment situé sur le même bien immobilier, sont admis pour autant qu’ils ne mettent pas en cause de manière irréversible la destination de la zone. Elle peut également comporter une ou plusieurs éoliennes pour autant que :

  • elles soient situées à proximité [< 1 500 m] des principales infrastructures de communication ou d’une zone d’activité économique  […] ;
  • elles ne mettent pas en cause de manière irréversible la destination de la zone.

Une éolienne est autorisée par propriété pour autant que le mât soit d’une hauteur maximale de vingt-quatre mètres.

CoDT Art. D.II.37. Les zones forestières

La zone forestière est destinée à la sylviculture et à la conservation de l’équilibre écologique.

Elle peut également comporter une ou plusieurs éoliennes pour autant [qu’] elles ne mettent pas en cause de manière irréversible la destination de la zone.

Le mât des éoliennes […] est situé :

  • en dehors du périmètre d’un site [de] conservation de la nature ;
  • à une distance maximale de 750 mètres de l’axe des principales infrastructures de communication […] ;
  • en dehors d’un peuplement de feuillus […].

Les infrastructures de communication :

Le réseau des principales infrastructures de communication est celui qui figure dans la structure territoriale du schéma de développement du territoire et qui comporte :

  • les autoroutes et les routes de liaisons régionales à deux fois deux bandes de circulation, en ce compris les contournements lorsqu’ils constituent des tronçons de ces voiries, qui structurent le territoire wallon en assurant le maillage des pôles régionaux ;
  • les lignes de chemin de fer, à l’exception de celles qui ont une vocation exclusivement touristique ;
  • les voies navigables, en ce compris les plans d’eau qu’elles forment.

Rendement des éoliennes

Rendement des éoliennes


 

La puissance instantanée du vent

Une éolienne est une machine qui, par définition, transforme l’énergie du vent en énergie mécanique. Pour débuter, il y a lieu de quantifier la source d’énergie dont on dispose, c’est-à-dire l’énergie associée au vent. Si le vent présente une certaine vitesse « V » à un moment donné et traverse une certaine surface « A », la puissance instantanée du vent est donnée par la relation suivante :

Pvent = 1/2 rho*A*V3,

où « rho » est la masse volumique de l’air, qui vaut approximativement 1.2 kg/m³ à 20°C, au niveau de la mer.

Néanmoins, cette relation met clairement en évidence :

  • que la puissance disponible du vent à un instant donné dépend du cube de la vitesse du vent. En conclusion, si vous avez un vent 2 x plus rapide, vous avez 8 x plus de puissance. On comprend dès lors tout l’intérêt de placer des éoliennes dans des sites venteux. Ce n’est donc pas un caprice de technicien puriste, on voit que le potentiel d’énergie dépend fortement de la vitesse du vent. C’est une condition nécessaire et non une option.
  • que la puissance disponible dépend directement de la surface traversée par le vent. Si on la considère équivalente à la surface balayée par le rotor d’une éolienne, la puissance instantanée du vent (telle qu’évaluée par la relation ci-dessus) représente le maximum de puissance disponible que l’éolienne peut convertir. On sait que la surface balayée par une éolienne dépend du rayon de son rotor (π*R²). Du coup, la puissance disponible dépend du carré du rayon de l’éolienne. En conclusion, si vous avez un rotor 2 x plus long, vous avez 4 x plus de puissance.
    [Découvrez ICI >> notre outil de pré dimensionnement éolien]

Diagramme illustrant le rapport entre le diamètre du rotor et la puissance maximale de l’éolienne :
Réalisé à partir des fiches techniques de 62 modèles d’éoliennes récentes

  • que la masse volumique de l’air a une influence sur la puissance disponible. On sait que la masse volumique de l’air dépend de la température, de  l’humidité et de la pression atmosphérique. Suivant ces paramètres, on peut obtenir des variations de 20 % de la masse volumique et donc de la puissance instantanée du vent.
    Ainsi, au niveau de la mer, par – 10 °C un mètre cube d’air pèsera 1,341 kg tandis qu’à 30 °C, il n’en pèsera plus que 1 164 kg.

L’énergie du vent

Connaître la puissance instantanée du vent est une chose, mais ce qui nous intéresse, c’est son énergie. Il y a donc une notion de temps qui va devoir intervenir quelque part. Pour connaître l’énergie du vent sur une période, il faut intégrer sa puissance sur cette même période. La connaissance de la vitesse moyenne du vent n’est pas suffisante, il faut disposer de l’évolution de la vitesse sur la période étudiée et sommer les contributions.

Prenons une période de 24h et comparons trois journées venteuses avec un vent moyen de 6m/s pour chacune mais un profil de distribution différent :

 

Si les vitesses moyennes sont bien les mêmes, le profil de distribution est lui très différent entre ces trois journées. Un simple calcul nous permet d’observer que la quantité d’énergie que le vent aura fournie sur 24h par m² pour chaque profil est drastiquement différente.

  • Jour1 : 24 [h] x 6 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 6 220 Wh = 6,22 kWh
  • Jour2 : 12 [h] x 12 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 24 880 Wh = 24,88 kWh
  • Jour3 : 6 [h] x 24 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 99 530 Wh = 99.53 kWh !!

Nous voyons donc clairement que nous ne pouvons pas moyenner la vitesse du vent et que la distribution du vent est déterminante dans le calcul de l’énergie dispensée par le vent sur une période et une surface données.

Nb : les éoliennes actuelles atteignant leur puissance maximale aux alentours de 10-15 m/s, les vents plus puissants ne seront pas pleinement exploités : l’éolienne sera freinée pour préserver son intégrité.

Explication avec quelques formules

Supposons que l’on dispose de mesures du vent à intervalles réguliers pendant une période de plus ou moins une année. L’intervalle entre chaque mesure est de « dt » secondes et le nombre d’échantillons est de « N » mesures. La durée de la période d’observation, « T », est donc N*dt. On obtient un échantillon de différentes vitesses, U1 jusque UN.  Il est donc possible d’estimer simplement la vitesse moyenne du vent, Um, pendant cette période de mesure :

Um = (1/N)*(U1+U2+ … + UN-1 + UN)

Pour obtenir l’énergie, il faut sommer les contributions des différentes mesures. Si la puissance du vent associée à une mesure de vitesse Ui vaut

Pi = 1/2*rho*A*(Ui)3

L’énergie du vent, Ev, vaut alors : Ev = (P1 + P2 + …. + PN-1 + PN)*dt. En fait, il faut connaître l’évolution de la vitesse du vent durant toute la période étudiée. Si on ne connaissait que la vitesse moyenne du vent, Um, cela ne suffirait pas pour déterminer l’énergie, Ev. En effet, on ne peut pas calculer l’énergie du vent au moyen de la vitesse moyenne (de la manière suivante) :

 Ev n’est pas égal à 1/2*rho*A*(Um)3*T

Cette différence sera chiffrée dans la section suivante et elle est loin d’être négligeable.


La distribution du vent : approche statistique

Dans la section précédente, nous avons intégré les différentes puissances pour obtenir l’énergie du vent sur la période étudiée. Il existe une autre manière de procéder qui présente en outre l’avantage de synthétiser les propriétés du vent sur la période investiguée. Il s’agit de la fonction de distribution du vent, que l’on nommera ici p(V).

Imaginons que l’on s’intéresse aux vitesses prises par le vent. Celles-ci varient entre la valeur zéro et la vitesse maximale rencontrée. On découpe cet intervalle en différentes petites plages de vitesses de largeur dV. Le produit p(V)*dV donne la probabilité que la vitesse du vent aie la valeur V durant la période d’observation (que l’on avait nommée, « T »). Cette valeur oscille entre « 0 » et « 1 ». La valeur est nulle quand le vent n’atteint jamais cette vitesse et la valeur « 1 » quand le vent est toujours à la vitesse V, ce qui, dans la pratique, n’arrive jamais. À titre d’exemple, si la probabilité p(V)*dV que la vitesse soit égale à V est de 0.5, cela veut simplement dire que l’on rencontre la vitesse V la moitié du temps de l’observation. Cela peut paraître assez abstrait, mais il est difficile de passer à côté de ce concept si l’on veut introduire les approches statistiques de l’évaluation de l’énergie du vent.

Une fois cette fonction connue, on peut déterminer la contribution de la vitesse V à l’énergie du vent de la manière suivante :

Ev(V) = 1/2*rho*A*V3*(p(V)*dV*T)

On obtient alors l’énergie du vent en sommant sur les différentes gammes de vitesse rencontrées. En d’autres termes, chaque gamme de vitesses se présente à une certaine fréquence pendant la période étudiée, « T », et correspond à une certaine contribution à l’énergie totale. Pour obtenir l’énergie du vent, il faut tenir compte de toutes les gammes de vitesse rencontrées et de leur contribution.

Comment obtient-on cette fonction de distribution ? La manière la plus consistante est d’utiliser les valeurs mesurées de vitesse et de regarder à quelle fréquence les différentes vitesses sont rencontrées. C’est la situation idéale.

Néanmoins, il arrive que l’on ne dispose pas de ces mesures ou, du moins, on dispose de mesures lacunaires qui ne permettent pas d’établir proprement la fonction de distribution. Par exemple, le potentiel de vent peut varier d’une année à l’autre si bien qu’il faut plusieurs années de mesure pour établir un comportement moyen. La littérature reprend souvent le chiffre de 10 années de mesure. On comprend dès lors qu’une évaluation du potentiel sur une période aussi longue ne soit pas toujours possible. Dans ce cas de figure, on peut faire une hypothèse sur la manière dont les vitesses sont rencontrées dans le temps. Dans le domaine de l’éolien, la fonction la plus courante est la fonction de distribution de Weibull.

Exemples de distributions de Weibull pour différents jeux de paramètres.

La fonction de Weibull est représentée dans le graphe ci-dessus. Elle ne comporte que deux paramètres : le facteur de forme, k, et le facteur d’échelle, c. Qu’est-ce que cela veut dire ? Cela veut dire que l’on sait à quelle fréquence sont rencontrées les différentes vitesses de vent, V, durant la période d’observation uniquement si l’on est capable de fixer la valeur de deux coefficients. Le but du jeu est de fixer ces deux coefficients sur base de données lacunaires dont on dispose. En d’autres mots, on est capable de reconstruire l’historique d’intérêt du vent sur la période étudiée uniquement si l’on est capable de fixer les deux paramètres de la fonction de Weibull : notamment sur base de la vitesse moyenne du vent et de sa variance. La qualité de cette méthode est correcte si, effectivement, la distribution du vent a, dans le site étudié, effectivement tendance à suivre une répartition de Weibull. Cela devient une question de spécialiste. On invite le lecteur à se référer à des ouvrages plus approfondis si cette thématique l’intéresse. À noter que l’on entend aussi parler de la fonction de distribution de Rayleigh qui est plus simple dans la mesure où elle ne comporte qu’un seul paramètre (c’est un cas particulier de la fonction de Weibull).

À titre d’exemple, commentons la figure ci-dessus représentant 5 jeux différents de paramètres pour la fonction de distribution de Weibull. On voit par exemple la courbe « rouge » représentant des vents de vitesse moyenne proche de 4.25 et qui oscille largement autour de cette valeur. La courbe « noire » quant à elle représente des vents de vitesse moyenne plus faible (proche de 3.5) et qui ont une variation nettement plus faible (proche de 3m/s) et qui ont une variation nettement plus faible autour de cette moyenne.

En conclusion, les fonctions de distribution du vent peuvent avoir deux utilités. D’une part, elles permettent de synthétiser les propriétés d’intérêt du vent en relation avec la production d’énergie et, d’autre part, si on utilise des fonctions prédéfinies comme la fonction de Weibull, elles permettent d’évaluer l’énergie du vent si on ne dispose que de données lacunaires concernant son évolution sur un site donné. Dans ce dernier cas de figure, il faut être conscient que la qualité de cette méthode est moindre qu’une campagne de mesure sur une dizaine d’années. Au mieux, les résultats auront une valeur identique.

Pourquoi ne pas directement évaluer l’énergie au moyen de la vitesse moyenne ? Ce n’est pas la même chose !

La puissance instantanée du vent est obtenue en prenant le cube de la vitesse. On obtient l’énergie sur la période de mesure en intégrant ces puissances. Mathématiquement parlant, c’est différent d’intégrer la vitesse sur la période puis de la mettre au cube. En d’autres termes, l’ordre dans lequel vous réalisez les opérations d’intégration et mise à la puissance 3 a une importante : on met d’abord la vitesse instantanée au cube puis on somme les différentes contributions durant la période analysée.

Fait-on une grosse erreur si on évalue l’énergie du vent au moyen de la vitesse moyenne ? Oui ! Sur base de cas rencontrés, on peut facilement faire une sous-estimation de 100 % voire plus.

On peut essayer de voir ce que cela donne avec la fonction de distribution de Weibull. Avant de rentrer dans le vif du sujet, on peut d’abord se faire une idée de l’évolution de la vitesse moyenne et de la variance en fonction de l’évolution des deux paramètres de la fonction de Weibull, le paramètre de forme, k, et le paramètre d’échelle, c.

On voit que la vitesse moyenne du vent dépend essentiellement du facteur d’échelle, c. La variance, quant à elle, dépend fortement des deux facteurs. Finalement, on représente maintenant le rapport entre l’énergie du vent calculée avec la fonction de Weibull et l’énergie du vent calculée de façon approximative par la moyenne de la fonction de Weibull. On connaît ce rapport sous le nom de facteur Ke,

Ke = Somme(1/2*rho*A*Ui³/N)/(1/2*rho*A*Um³) = (1/N Somme(Ui³))/(Um³)

   

Conclusion, le rapport, Ke, peut être très important, d’autant plus que le facteur de forme k est faible. On aura noté qu’il dépend uniquement de la valeur de ce facteur k. On reprend ci-dessous, un tableau avec des chiffres :

k Ke
1.2 3.99
2 1.91
3 1.40
5 1.15

Courbe caractéristique de puissance et rendement instantané

Le vent présente donc une certaine énergie pendant une période donnée. Cette énergie est convertie par l’éolienne en énergie mécanique et très certainement en énergie électrique. Cette transformation peut être décomposée en plusieurs étapes :

  1. L’énergie cinétique du vent est convertie en travail moteur à l’axe du rotor. Cette conversion est réalisée avec un certain rendement, le rendement aérodynamique.
  2. Le travail moteur au rotor est transmis vers l’axe de la génératrice avec un certain rendement, le rendement d’accouplement mécanique.
  3. La génératrice transforme le travail moteur à son axe en énergie électrique avec un certain rendement électrique.

Le rendement global est le produit des rendements de ces trois étapes. Il est difficile d’évaluer de manière simple ces trois rendements et donc d’estimer le rendement global. Le plus simple est de mesurer ce qui rentre et ce qui sort de l’éolienne pour avoir une idée de rendement global.

On définit le rendement instantané global d’une éolienne pour une vitesse de vent, V, comme étant le rapport entre la puissance électrique débitée par la génératrice, Pelec, et la puissance instantanée du vent, Pvent :

eta(V) = rendement instantané à la vitesse V = Pelec(V)/Pvent(V),

La puissance instantanée du vent a été définie au début de cette page. Il reste à connaître la puissance électrique débitée par l’éolienne en fonction de la vitesse V tout en sachant que le détail des pertes successives à chaque étape de transformation n’est pas explicité. En outre, si l’on peut connaître la puissance électrique débitée en fonction de la vitesse de vent, on peut évaluer la production électrique annuelle de l’éolienne sur base des mesures du vent réalisées in situ :

 Eelec = (Pelec(V)1 + Pelec(V)2 + … + Pelec(V)N)*dt.

La courbe caractéristique de puissance d’une éolienne donne la puissance électrique en fonction de la vitesse du vent. Généralement, ces courbes sont données par les fabricants d’éoliennes. Dans le cas de grandes éoliennes, la courbe caractéristique a été certifiée par un laboratoire et définie dans des conditions d’essai standard. On a donc une certaine assurance quant aux performances réelles de l’éolienne. La situation est plus critique pour les petites éoliennes produites par de relativement petits constructeurs. En effet, ils fournissent généralement la courbe caractéristique de puissance de leur appareil, mais ils font rarement certifier les performances. On n’a donc aucune ou peu d’assurance quant à la fiabilité des performances annoncées. Dans tous les cas, la certification des performances est un élément à bien garder à l’esprit lors de l’acquisition d’une éolienne, surtout s’il s’agit de concepts novateurs ou « potentiellement » révolutionnaires (pour ne pas dire fumants).

La courbe caractéristique de puissance comporte par trois grands paramètres (voir figure ci-dessous) :

  • La vitesse minimale de démarrage (cut-in wind speed) : il s’agit de la vitesse du vent à partir de laquelle l’éolienne commence à débiter une puissance utile (c’est-à-dire de la puissance électrique).
  • La vitesse maximale ou d’arrêt (cut-off wind speed) : il s’agit de la vitesse maximale acceptable par l’éolienne. Au-delà de celle-ci, la tenue mécanique de ces divers composants n’est plus assurée (ou simplement prévue). Si le vent présente une vitesse supérieure, l’éolienne est mise à l’arrêt, idéalement de manière automatique, pour préserver son intégrité.
  • La puissance nominale (rated power) : cette valeur est souvent égale à la puissance électrique maximale qui peut être extraite de l’éolienne. Elle n’a jamais lieu à la vitesse maximale acceptable du vent. En effet, peu avant d’atteindre la vitesse de mise à l’arrêt, des dispositifs sont mis en place pour freiner la vitesse du rotor (soit de manière dynamique, soit de manière aérodynamique), ce qui peut diminuer significativement les performances de l’éolienne.

En conclusion, on trouve typiquement des courbes de puissance ayant l’allure suivante.

 

Forme typique d’une courbe de puissance d’une éolienne : production électrique finale en kW en fonction de la vitesse instantanée du vent en m/s.

La puissance nominale d’une éolienne ne veut rien dire sur son efficacité si le constructeur ne mentionne pas à quelle vitesse de vent cette puissance électrique est obtenue. En effet, on n’est pas en mesure de déterminer la puissance instantanée du vent et donc d’établir son rendement global instantané.

Exemple : FairWind F64-40

À titre d’exemple, la société wallonne ouverture d'une nouvelle fenêtre ! FairWind établie à Seneffe commercialise des éoliennes à axe vertical dont les courbes de puissance sont disponibles sur leur site internet. En analysant leur modèle F64-40, voici les courbes obtenues :

 

 

Performances de l’éolienne à axe vertical Fairwind F64-40 suivant les données fournies par le constructeur.

On distingue clairement la vitesse minimale de 3 m/s, la vitesse maximale de 20 m/s ainsi que la puissance nominale de 40 kW obtenue à 15 m/s. Un simple calcul montre que le rendement instantané global ne dépasse pas 35 %.

Données générales FairWind F64-40
Puissance nominale (rated power) 40 kW
Vitesse du vent nominale 14 m/s
Vitesse du vent minimale (cut-in speed) 3 m/s
Vitesse de vent maximale (cut-out speed) 20 m/s
Vitesse de mise en sécurité 55 m/s
Diamètre du rotor 8 m
Longueur des pales 8 m
Surface balayée 64 m²
Hauteur du mât [12,24] m

L’estimation de la production d’électricité

Sur base de mesures

Sur base de la mesure du vent réalisée sur une période T et de la courbe caractéristique de puissance de l’éolienne, on peut évaluer la production électrique, Eelec, de l’éolienne durant cette période :

Eelec = (Pelec(V)1 + Pelec(V)2+ Pelec(V)3+ … + Pelec(V)N)*dt,

où on réalise une mesure de la vitesse toute les « dt » secondes, on possède ainsi « N » valeurs dans notre échantillon tel que T = N*dt. En bref, on suppose que la vitesse que l’on a mesurée à un moment, Vi, reste constante pendant tout l’intervalle de mesure, dt. Durant un intervalle, l’éolienne produit Pelec(V)i*dt.  On réalise finalement la somme sur tous les points de mesure pour obtenir l’énergie électrique finale.

Sur base de la distribution statistique

Une autre manière de procéder est de travailler sur base de la distribution statistique dont on connaît les paramètres (sur base de mesures ou de simulations) :

Eelec(V) = Pelec(V)*(p(V)*dV*T),

où, dans le membre de droite, le premier facteur est la puissance électrique produite à la vitesse V et le second facteur est le temps total durant lequel la vitesse est égale à V (pendant la période de mesure, T). L’énergie finale, Eelec, est obtenue en sommant sur toutes les vitesses rencontrées.

Certains constructeurs utilisent cette méthode pour communiquer une estimation de la production électrique annuelle de leur éolienne. En fait, ils fixent les paramètres de la fonction de distribution, p(V), et regardent ce que cela donne au niveau de la production. Quand vous entendez des estimations de la production électrique, il faut être conscient que le constructeur a fait des hypothèses sur la manière dont les vitesses sont rencontrées dans le temps. De manière générale, le vent sur votre site ne sera pas identique à celui qu’il a considéré dans son estimation. Pour être rigoureux, il faut veiller à ce que le constructeur communique ces paramètres. C’est la seule manière de pouvoir comparer différents matériels entre eux sur base d’estimation de la production électrique.

Estimation du rendement moyen global de l’éolienne

On peut aussi connaître le rendement moyen de l’éolienne sur la période d’observation, T. On peut estimer, d’un côté, l’énergie du vent qui était disponible (la source d’énergie), Event, et, d’un autre côté, l’énergie électrique produit par l’éolienne, Eelec (comme calculée ci-dessus). Le rapport de ces deux valeurs donne le rendement moyen :

Rendement moyen global = Eelec/Event,

Par global, on sous-entend que l’on s’intéresse à ce qui rentre et ce qui sort globalement de l’éolienne. On trouve typiquement, un rendement moyen de 20 % pour les petites éoliennes et de 35 % pour les grands modèles.

Nombre d’heures pleines de fonctionnement

La puissance débitée par une éolienne dépend de la vitesse du vent.  Par conséquent, la majorité du temps, l’éolienne ne fonctionne pas à puissance nominale (PN), le vent n’étant généralement pas suffisant pour garantir cela. C’est un des arguments des détracteurs des éoliennes. En effet, comparé à des centrales électriques traditionnelles basées sur les énergies fossiles (typiquement une centrale TGV) ou le nucléaire qui peuvent fonctionner de manière continue proche de leur puissance nominale, une éolienne fonctionnera principalement à une puissance inférieure à PN. Du coup, il faudra une puissance installée supérieure avec des éoliennes qu’avec des centrales classiques pour atteindre une même production d’énergie annuelle. C’est un argument assez controversé bien que techniquement très clair. Le but n’est pas de faire le point sur ce sujet. On reprend juste ici l’argument.

Une manière de chiffrer la production d’une éolienne est de rapporter sa production électrique annuelle en nombre d’heures de fonctionnement à puissance nominale. En d’autres termes, on calcule le nombre d’heures que l’éolienne doit tourner à puissance nominale pour débiter la même production électrique annuelle (avec un vent dont la vitesse varie).

Nombres d’heures équivalentes à puissance nominale = tN = Eelec/PN.

Valeur typique pour les grandes éoliennes en Wallonie : tN = 25% de l’année.

Valeur typique pour le petit éolien en Wallonie  tN = 11% de l’année.

Typiquement, la production annuelle électrique d’une grande éolienne en Wallonie correspond à 25 % du temps à puissance nominale. Il ne faut pas en déduire que l’éolienne ne tourne que 25 % du temps. Non, dès que la vitesse instantanée du vent dépasse la vitesse minimale de mise en fonctionnement (cut-in wind speed), l’éolienne débite de l’électricité.  En fait, les chiffres montrent que l’éolienne fonctionne 80 % du temps (source : ouverture d'une nouvelle fenêtre ! APERe). Néanmoins, elle produit à une puissance généralement inférieure à la puissance nominale, cette dernière étant souvent prise comme étant la puissance maximale.

Estimation rapide : Quick-scan

Dans certaines situations, notamment dans une étude de préfaisabilité, on souhaite pouvoir estimer grossièrement ce qu’un site va pouvoir donner comme production. On peut simplement se baser sur la vitesse moyenne du vent, Um, sur le site :

Estimation de la production = (rendement moyen global)*(1/2*rho*A*(Um)3),

où le rendement moyen est pris :

  • à 22 % pour le petit éolien (moins de 35 m de diamètre) ;
  • 30 % pour l’éolien moyen (35 à 100 m de diamètre) ;
  • et 35 % pour le grand éolien (> 100 m de diamètre).

Dans la réalité, on remarquera une tendance à un meilleur rendement pour les modèles d’éoliennes avec les pales les plus longues (> 30 m) :
Diagramme réalisé sur base de 62 fiches techniques d’éoliennes récentes.

On sait très bien qu’il s’agit d’une estimation limitée étant donné que l’effet des fluctuations de la vitesse autour de la moyenne n’est pas pris en compte. On peut montrer que cette manière d’estimer l’énergie du vent (le deuxième terme dans le membre de droite), est susceptible d’amener de grosses erreurs. On sous-estime le potentiel de vent. Néanmoins, si un constructeur prétend pouvoir produire, pour une vitesse moyenne donnée, une production électrique annuelle dépassant quatre ou cinq fois cette estimation simplifiée, vous pouvez clairement conclure que ce n’est pas une proposition honnête.


La limite de Betz

Le fabricant d’une éolienne doit faire certifier la courbe caractéristique des performances de son modèle. Cela doit être réalisé selon une méthode normalisée, idéalement par un laboratoire indépendant.

Dans la pratique, les modèles de plus faibles puissances ne bénéficient pas de cette certification. Le constructeur peut fournir une courbe de puissance, mais on n’a aucune garantie sur sa fiabilité, tout au plus, on peut se reposer sur la crédibilité du fabricant.

Comment détecter un produit farfelu ? Il n’y a malheureusement pas de méthode absolue (hormis tester le matériel). Néanmoins, certains chiffres communiqués par le constructeur peuvent être mis à l’épreuve. C’est le cas du rendement global instantané de l’éolienne tel que défini à la section précédente.

L’application des principes fondamentaux de la mécanique permet de déterminer la quantité maximale d’énergie du vent qui peut-être convertie en énergie mécanique (rotation du rotor). Ce rendement aérodynamique instantané, ou Coefficient de performance (Cp), ne peut dépasser 16/27 soit approximativement 59 %. Par conséquent, le rendement instantané qui tient aussi compte d’autres pertes (aérodynamiques, accouplement, conversion électrique, auxiliaires) doit être inférieur à cette valeur :

Rendement global instantané < rendement aérodynamique < 16/27

Cette limitation est mieux connue sous le nom de « limite de Betz » ou « théorie de Betz ». Pour arriver à ces conclusions, il a fallu introduire des hypothèses simplificatrices. Néanmoins, celles-ci sont tout à fait raisonnables.


Vitesse en bout d’aile et performance : tip speed ratio

On a vu que la limite de conversion de puissance du vent vers la puissance mécanique du rotor est théoriquement limitée à 16/27, soit 59 %, par l’approche de Betz. Par rapport à ce cas idéal, il existe une série d’imperfections qui empêchent d’atteindre cette limite. En d’autres termes, on a une série de pertes qui réduisent l’efficacité aérodynamique de l’éolienne :

  • Mise en rotation du sillage : Le vent avant de rencontrer l’éolienne ne possède pas de mouvement de rotation prononcé et cohérent. Du moins, c’est le cas s’il ne rencontre pas d’obstacles majeurs en amont de l’éolienne. Une fois que l’air est passé dans le rotor de l’éolienne, il en ressort avec une vitesse de rotation générale dans le sens opposé à celui du rotor. Cette vitesse de rotation qui n’existait pas au départ correspond à une certaine quantité d’énergie cinétique qui n’a pas pu être convertie pas l’éolienne. Il s’agit d’une première source de pertes.
  • Trainée des profils de l’aile : Lorsque l’on place une aile face au vent, il génère une force sur cette aile. C’est l’effet escompté. Cette force peut se décomposer en partie. Une force dite de portance qui est perpendiculaire à la direction du vent en aval de l’aile et une composante dite de trainée qui est parallèle à cette vitesse de vent. Dans le cas d’un avion, c’est la portance qui permet de vaincre la gravité et permet ainsi à l’avion de voler. La trainée freine l’avion, car cette force est opposée à la direction dans laquelle l’avion progresse. Pour permettre à l’avion de conserver cette vitesse, les moteurs de l’avion donnent la force nécessaire pour vaincre cette force de trainée.  Dans le cas d’une éolienne, on retrouve la même idée. Néanmoins, il faut alors tenir compte à la fois de la vitesse du vent, mais aussi de la vitesse de rotation de l’éolienne. Le problème est un peu plus complexe. Tout cela pris en compte, on se rend compte que c’est la portance des pâles de l’éolienne qui exerce une force utile dans le sens de rotation de l’éolienne. La trainée des pâles, par contre, a tendance à freiner la progression de ces pâles. C’est une deuxième source de pertes parce qu’une partie de l’énergie du vent sert à freiner l’éolienne. Fort heureusement, une aile d’éolienne est conçue pour avoir la trainée la plus faible possible pour une portance donnée. En gros, il s’agit d’une question de spécialistes dans la mesure où il s’agit de travailler sur l’aérodynamique de l’aile.
  • Nombre limité de pales : Le nombre de pales d’une éolienne est limité pour des questions de poids et de prix. Le rendement idéal considéré plus haut faisait l’hypothèse d’un nombre très important de pales. Dans la réalité, ce nombre ne sera jamais atteint. Cette limitation est source d’une troisième forme de pertes. D’un point de vue physique, ces pertes sont générées par la trainée induite. La trainée induite est d’autant plus faible que la portance est faible et le rapport entre envergure et corde moyenne de l’aile est important. Ainsi, une aile qui a une grande envergure par rapport à la corde aura une trainée plus faible. On peut s’en convaincre en comparant les ailes d’un planeur à celle d’un avion traditionnel : les ailes du planeur sont beaucoup plus allongées pour limiter la trainée, ce qui est souhaitable étant donné qu’il n’a pas de moteur. C’est une des raisons qui expliquent pourquoi une éolienne a des ailes allongées.

   

Analogie entre l’allongement (aspect ratio) des ailes d’un planeur et des pales d’une éolienne : limitation de la trainée.

Ces explications avaient juste vocation de montrer que le rendement idéal n’était jamais atteint, ceci étant dû à différentes pertes. Un facteur qui influence grandement ces pertes est le rapport entre la vitesse en bout de pale (induite par la rotation) et la vitesse du vent, le tip-speed ratio (TSR) en anglais,

Lambda = tip-speed ratio (TSR) = u/V = n.2*pi*R/V,

avec,

  • u, la vitesse en bout de pale qui peut être évaluée comme étant le produit
  • de la vitesse de rotation, n (en Hz),
  • par le rayon de l’éolienne, R, multiplié par 2*pi.
  • V est la vitesse du vent en amont.

La théorie confirmée par la pratique montre que les pertes sont minimisées pour un TSR donné. En d’autres termes, pour chaque vitesse de vent, il existe une vitesse de rotation qui maximise le rendement aérodynamique de l’éolienne, c’est-à-dire la quantité d’énergie du vent transférée au rotor. On peut s’en rendre compte sur base du la figure ci-dessous,

Évolution du rendement aérodynamique instantané en fonction du rapport entre la vitesse en bout de pale et la vitesse du vent (tip-speed ratio) : illustration des différentes sources de pertes par rapport au rendement idéal de Betz.

On peut comprendre le graphe de la manière suivante :

  1. On dispose au départ de la puissance instantanée du vent par m², ce qui correspond dans le graphe au niveau de 100 %.
  2. La théorie de Betz nous apprend que l’on peut dans le meilleur des cas récupérer jusqu’à 16/27, soit approximativement 60 %.
  3. Si l’éolienne tourne plus lentement pour une vitesse de vent donnée, on aura un couple aérodynamique important pour atteindre une même puissance et donc une forte déviation du fluide par les pales. Cela engendre une mise en rotation plus importante du sillage et donc des pertes plus importantes. On le voit clairement dans le graphe sous la dénomination « pertes de sillage ». En conclusion, plus l’éolienne tourne vite, moins les pertes par mise en rotation sont importantes.
  4. Si on considère un profil d’une pale d’éolienne, la force aérodynamique se décompose en une force de portance, mais aussi de trainée qui s’oppose dans la direction de rotation de l’éolienne (du moins pour les éoliennes dont le principe de fonctionnement est basé sur la portance). L’effet négatif sur le rendement aérodynamique est d’autant plus important que l’éolienne tourne vite. On peut s’en rendre compte dans le graphe ci-dessus sous l’appellation « trainée du profil d’aile » où les pertes augmentent avec le tip-speed ratio. Sur base des deux premiers termes de pertes (pertes de sillage et de trainée de profil), on voit apparaître un premier optimum à une vitesse de relative de bout d’aile entre 6 et 8.
  5. On voit apparaître enfin le dernier terme de perte induit par le nombre limité de pales. En fait, si on prend la courbe relative à un nombre donné de pales en pointillé (on considère ici 1, 2 ou 3 ailes), on voit que la courbe générale correspond à l’enveloppe de tous les maxima des courbes à nombre de pâles fixé.

 

Évolution du rendement aérodynamique en fonction du nombre de pales pour un modèle donné.

Au regard de la courbe ci-dessus, qui reprend l’évolution du rendement aérodynamique en fonction du nombre de pale pour un modèle donné, on voit que plus le nombre de pales est important, plus le rapport optimal de vitesse en bout de pale est faible.

En outre, l’analyse des rendements de 62 modèles récents d’éoliennes démontre qu’il y a  une tendance claire vers un meilleur rendement pour les éoliennes ayant une vitesse de vent nominale plus basse (comprises entre 10 m/s et 12 m/s.

On peut conclure cette section en faisant une description des différentes courbes caractéristiques de rendement aérodynamique pour chaque grand modèle d’éolienne. De manière générale, on voit que les éoliennes basées sur la portance, c’est-à-dire les éoliennes à axe horizontal ou à axe vertical de type Darrieus, ont un rendement aérodynamique supérieur aux éoliennes basées sur la trainée (typiquement, le rotor Savonius). L’influence du nombre de pales sur le rendement est aussi représentée. Si la vitesse de rotation diminue, il faut un couple aérodynamique plus important pour une même puissance mécanique. C’est pourquoi les éoliennes qui cherchent à produire du travail mécanique, notamment pour des applications de pompage, ont un nombre de pales important (illustré ci-dessous par l’éolienne américaine). Actuellement, les éoliennes de type Darrieus ont un rendement un peu supérieur à celui présenté dans le graphe ci-dessous.

Évolution typique du rendement aérodynamique en fonction du tip-speed ratio et du modèle d’éolienne.

Eoliennes

Eoliennes

Généralités

Une éolienne est une machine qui convertit l’énergie du vent en énergie mécanique. Pour être plus clair, on considère qu’il y a du vent quand l’air se déplace et donc quand l’air possède une certaine vitesse. À cette vitesse est associée une énergie, l’énergie cinétique. Le vent exerce une force sur le rotor de l’éolienne et le met en rotation : il exerce une certaine puissance. A proprement parler, cette force est transmise à un axe qui correspond à une certaine puissance. En langage d’ingénieur, nous sommes en présence d’une machine motrice.

Cette énergie mécanique peut être utilisée directement. Par exemple, on pense à l’actionnement d’une pompe à des endroits non desservis par le réseau électrique ou à nos anciens moulins à vent. Néanmoins, ces applications mécaniques sont assez marginales. Dans la majorité des cas, l’énergie mécanique du rotor de l’éolienne est transformée en énergie électrique via une génératrice. En tout cas, comme l’énergie mécanique est de « qualité » élevée (notion d’exergie), il est a priori regrettable de la transformer en chaleur, par exemple en utilisant l’énergie éolienne pour se chauffer.


Classification

On peut classifier les éoliennes suivant leur taille ou suivant leur principe de fonctionnement.

Classification selon la taille

On définit différentes classes de taille d’éoliennes. En théorie, il n’y a pas de relation directe entre la hauteur et la puissance de l’éolienne. En effet, cette puissance dépend essentiellement de la surface balayée par le rotor qui n’est pas toujours fonction de la hauteur de l’éolienne, mais du diamètre du rotor. Néanmoins, dans le cas des grandes éoliennes, une règle de bonne pratique veut que la hauteur du mât, L, soit égale au diamètre du rotor, D. Dans ce cas, il y a un lien indirect entre la hauteur du mât et la puissance. Dans le tableau suivant sont repris les dénominations de taille et les ordres de grandeur de puissances associées. Attention, il s’agit bien d’ordres de grandeur de puissance. Le but est uniquement de se donner une idée. En outre, cette puissance n’a de sens que si on a défini la vitesse de vent à laquelle elle est délivrée.

Graphe diamètre rotor / puissance

Illustration de la relation entre le diamètre du rotor et la puissance électrique de sortie basée sur les données techniques de 62 modèles récents d’éoliennes.

Dénomination Diamètre du rotor [m] Aire balayée [m²]  Puissance [kW]
Micro 0.5-1.25 0.2-1.2 0.1-0.4
Mini 1.25-3 1.2-7.1 0.4-2
Domestique 3-10 7-79 2-30
Petite commerciale 10-20 79-314 30-120
Moyenne commerciale 20-50 314-1963 120-750
Grande commerciale 50-100 1 963-7854 750-3 000
Géante commerciale 100-170 7 854-22 686 3 000-8 000

 Classification des éoliennes suivant la taille et ordre de grandeur associé.

Pour être plus parlant, on trouve classiquement ces éoliennes pour les applications suivantes :

  • Micro-éoliennes : en général pour couvrir des besoins très limités et sites isolés (par exemple, des sites de pèche, des bateaux, des caravanes).
  • Mini-éoliennes : essentiellement pour recharger des batteries sur des sites isolés du réseau, les plus puissantes peuvent servir pour l’alimentation domestique hors du réseau (maisons isolées).
  • Eoliennes domestiques : elles balayent un spectre assez large allant de rotors de 3 à 10 m de diamètre. C’est typiquement le genre d’éoliennes proposées pour les particuliers.
  • Petites éoliennes  commerciales : elles sont typiquement conçues pour les petites entreprises, les fermes, … mais il existe très peu de modèles produits dans cette gamme.
  • Moyennes éoliennes commerciales : elles sont typiquement utilisées pour les applications commerciales dans des fermes, des usines, des entreprises voire des petits parcs éoliens.
  • Eoliennes grands commerciales : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes, ce sont aussi les plus efficaces.
  • Eoliennes commerciales géantes : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes et également en offshore, elles sont très efficaces et issues des dernières générations technologiques.

Dans la course au gigantisme, l’éolien ne fait pas figure d’exception. Si les modèles de 9 MW sont déjà à l’ordre du jour, certaines sociétés n’hésitent pas à parler de diamètres avoisinant les 400 m (!) pour atteindre des puissances de 50 MW !!!

Classification selon le principe de fonctionnement

Eoliennes à axe horizontal ou vertical

Les plus connues sont les éoliennes à axe horizontal (HAWT, horizontal axis wind turbine).  Leur typologie est souvent identique. A la base, on a un mât sur lequel est placée la nacelle. Cette nacelle contient la génératrice ainsi que le système de transmission, c’est-à-dire les éléments d’accouplement mécanique entre le rotor et la génératrice. Celle-ci convertit l’énergie mécanique en énergie électrique.

Schéma principe éoliennes à axe horizontal ou vertical.   Photo principe éoliennes à axe horizontal ou vertical.

En suivant le sens de parcours du vent, le rotor peut être placé en amont ou en aval de la nacelle. Cette dernière configuration a été à la mode, mais devient anecdotique. Elle présentait l’avantage que la nacelle et le rotor se mettent automatiquement face au vent. Lorsque le rotor se situe en amont, il faut un dispositif particulier pour que l’éolienne se positionne correctement. Par exemple, on peut trouver une aile fixe verticale qui stabilise l’éolienne face au vent (même principe que la gouverne verticale d’un avion) ou un moteur qui réalise cette tâche. On parlera alors d’un dispositif de positionnement passif ou actif, respectivement.

Distinction entre éoliennes à axe horizontal avec le rotor placé en amont avec gouverne (figure gauche), en amont avec contrôle actif (figure centrale) et en aval (figure de droite).

L’avantage du rotor placé en aval est qu’il se positionne naturellement face au vent, c’est-à-dire de manière passive. Par contre, le vent est d’abord perturbé par la nacelle et le pylône avant d’agir sur le rotor. D’une part, le régime de vent devient non uniforme sur la surface balayée par le rotor. Cela engendre des contraintes mécaniques variables dans le temps ce qui provoque une usure prématurée du matériel (phénomène de fatigue mécanique). D’autre part, le vent perturbé vient impacter les ailettes de l’éolienne ce qui a tendance à générer beaucoup de bruit (bruit d’origine aérodynamique). Pour ces deux raisons, on préfère la configuration avec le rotor en amont. En effet, le vent est moins perturbé avant de rencontrer les pales de l’éolienne (à moins qu’un obstacle se trouve en amont, mais ce n’est idéalement pas le cas). Finalement, on peut dire que l’éolienne à axe horizontal avec le rotor en amont est devenue le standard, en tout cas pour les applications de puissance élevée.

On rencontre aussi des éoliennes à axe vertical (VAWT, vertical axis wind turbine) pour les applications de petite voire de moyennes puissances. Les avantages de cette configuration sont que l’éolienne est toujours bien positionnée par rapport au vent, que le dispositif d’accouplement ainsi que la génératrice se trouvent au niveau du sol ce qui facilite la maintenance. En outre, de par les diamètres de rotor inférieurs aux éoliennes à axe horizontal, les vitesses absolues sont plus faibles ce qui, du moins théoriquement, devrait engendrer moins de bruit.

Classiquement, on distingue deux grandes familles parmi les éoliennes à axe vertical. D’une part, on trouve les éoliennes basées sur la « portance » dont la plus connue est le modèle de « Darrieus » et, d’autre part, les éoliennes basées sur la « trainée » dont la plus connue est le modèle de « Savonius ». On invite le lecteur qui veut approfondir ces concepts à consulter des sites spécialisés. Retenons néanmoins que par le principe physique qui anime ces modèles, elles donnent peu de couple au démarrage. Par conséquent, elles ne démarrent qu’à une certaine vitesse de vent, ou il faut assurer mécaniquement le démarrage de l’éolienne pour qu’elle fonctionne.

Illustration des deux grands types d’éoliennes à axe vertical : les éoliennes de type Savonius en haut, basées sur la trainée, et les éoliennes de type Darrieus en bas, basées sur la portance. Les figures du haut montrent une coupe horizontale du rotor vue selon un axe vertical. Les figures du bas montrent une coupe horizontale du rotor d’éoliennes Darrieus. Le rotor peut avoir une forme en « phi », en « delta », en « H », etc.

  

Exemple d’éolienne Darrieus (à gauche) et Savonius (à droite).

Dans l’histoire des éoliennes, on trouve de manière cyclique un regain d’intérêt pour les éoliennes à axe vertical. Les nouveaux concepts proposés sont sensés dépasser les limites technologiques du standard actuel qui est l’éolienne à axe horizontal avec rotor en amont. Pour répondre de manière nuancée, voici quelques éléments de réflexion pour situer le débat sur ces VAWT :

  • En ce qui concerne les nouvelles éoliennes à axe vertical, il s’agit souvent de la redécouverte de vieux concepts.
  • De manière générale, on manque de retour d’expérience sur le comportement des nouvelles éoliennes à axe vertical, notamment en ce qui concerne leurs performances aussi bien techniques que d’un point de vue économique.
  • Beaucoup d’experts qui ont accumulé une longue expérience dans l’éolien sont sceptiques.
  • Beaucoup d’effets d’annonce sur les performances de ces nouveaux concepts sans pour autant les valider : absence récurrente de certification IEC (commission électrotechnique internationale) de la plupart de ces machines [APERe].

Pour résumer la situation, nous reprenons le point de vue nuancé de Paul Gipe : « Avec des éoliennes à axe vertical, on peut dans certains cas réaliser les mêmes performances technico-économiques qu’avec des éoliennes à axe horizontal, mais plus que probablement pas mieux« .

Propriétés des éoliennes à axe vertical par rapport aux modèles standards Avantages Inconvénients
Simplicité. Parfois oui, on peut arriver à un concept plus simple Parfois non, on n’aboutit pas systématiquement à plus de simplicité
Meilleure fiabilité. Peu probable, mais peu de retour d’expérience.
Positionnement. Toujours bien placé par rapport au vent.
Entretien. Equipement au niveau du sol.
Prix. Moins cher, mais le rendement est-il égal ?
Rendement mécanique (transformation énergie du vent). Meilleur rendement en vent turbulent/changeant. (Cas des implantations urbaines ou proches du sol). Peu de retour d’expérience.
Rendement économique. Peu de retour d’expérience.
Émission de bruit. Théoriquement moins bruyantes parce que les vitesses sont plus faibles.

Tableau récapitulatif des propriétés des éoliennes à axe vertical par rapport aux modèles conventionnels d’éoliennes.

Distinction selon le nombre de pales

On peut faire une distinction entre les éoliennes suivant le nombre de pales.

Distinction entre éoliennes à axe horizontal selon le nombre de pales.

         

Dans le cas des éoliennes à axe horizontal, la plupart des éoliennes ont 3 pales. En fait, il s’agit du meilleur compromis entre différentes contraintes. Une éolienne à 3 pales (ou plus) tourne plus régulièrement qu’une éolienne à 1 ou 2 pales, on a un meilleur équilibre du rotor. D’un point de vue esthétique, les effets de battement visuel sont plus importants pour les éoliennes à moins de 3 pales. Le rendement aérodynamique, c’est-à-dire la capacité à convertir l’énergie du vent en énergie mécanique (et donc, in fine, en électricité), est équivalent de 2 à 4 pales. Il augmente sensiblement à partir de 5. Le seul avantage d’avoir une éolienne à deux pales plutôt qu’à trois est qu’elle sera meilleur marché, mais elle tournera de manière moins régulière ce qui est synonyme de durée de vie plus courte. On ne monte pas au-delà de 4 pales à cause de la diminution de la tenue mécanique : en effet, la « corde » des pales diminue avec le nombre de pales.

Nombre de pâles 1 2 3 4 5
Équilibre du rotor + + +
Esthétique (effet de battement visuel) + + +
Rendement aérodynamique = = = +
Bruit et fatigue + + +
Tenue mécanique + = =

Tableau récapitulatif des propriétés des éoliennes à axe horizontal en fonction du nombre de pales.

Pour conclure cette rubrique, on peut mettre en garde contre certaines conclusions intuitives qui peuvent induire en erreur. Dans le cas des éoliennes à axe vertical, il existe des modèles avec un grand nombre d’ailettes donnant à l’ensemble un aspect très compact. Cette forte densité n’est pas nécessairement synonyme de meilleures performances (aérodynamiques). Comme il sera montré par la suite, la puissance dépend essentiellement de la surface balayée par le rotor. Or, cette surface ne varie pas en augmentant le nombre de pales. Tout au plus, on balaye cette surface de manière plus efficace. Néanmoins, on peut aussi alourdir inutilement la structure ce qui grève les performances.

Distinction selon la protection contre les vents importants

C’est un aspect fondamental. En effet, en présence de vents importants ou de rafales, il s’agit d’éviter les contraintes mécaniques trop importantes et les vitesses de rotation excessives, c’est-à-dire d’éviter la casse, d’assurer l’intégrité du matériel.
On distingue d’une part les stratégies de contrôle par l’aérodynamique. On joue sur l’orientation des ailes pour modifier leurs propriétés aérodynamiques et donc réduire la force exercée par le vent.

  • Soit on réduit l’angle d’attaque des pales qui présentent alors un rendement plus faible. On peut aller jusqu’à mettre les pales face au vent où elles seront soumises à une force nulle.
  • Soit on augmente l’angle d’attaque jusqu’au décrochage du profil (« stall control » en anglais).

Une autre manière de procéder est de placer directement un frein aérodynamique sur l’aile (mais cela est physiquement équivalent à chercher le décrochage).

Ces modifications des propriétés aérodynamiques peuvent être réalisées sur l’entièreté de l’aile ou sur seulement une fraction de celle-ci, par exemple sur le bout d’aile.

À noter que l’on peut jouer sur l’orientation de l’éolienne à axe horizontal. Dans ce cas de figure, il s’agit de réduire la surface présentée au vent par le rotor de l’éolienne en la décalant par rapport à la direction du vent. Comme cette surface est réduite, la puissance du vent est directement réduite. Typiquement, on décale l’éolienne à gauche ou à droite suivant son axe vertical, soit on place l’éolienne en « hélicoptère » en tirant le rotor vers l’arrière.

D’autre part, on trouve le freinage dynamique ou électrique. Dans ce cas, c’est un frein mécanique qui limite la vitesse de rotation. Cette fonction peut être réalisée par le génératrice électrique.

Le freinage aérodynamique est une stratégie dont on ne peut se passer pour les grandes éoliennes. On peut se limiter au freinage dynamique que pour les éoliennes de faible puissance.

Distinction selon le mode de régulation de la vitesse du rotor : vitesse constante ou variable

Le rendement aérodynamique instantané, ou coefficient de performance, d’une éolienne dépend du rapport entre la vitesse en bout de pales et la vitesse du vent (évaluée bien en amont de l’éolienne) :

Lambda = tip speed ratio (TSR) = u/V,

avec,

  • u, la vitesse en bout de pale induite par la vitesse de rotation du rotor,
  • et V, la vitesse en amont de l’éolienne.

Pour optimiser la conversion de la puissance du vent en puissance mécanique appliquée au rotor, il faut que se rapport Lambda ne soit ni trop faible, ni trop élevé.  Si la vitesse du vent change, la vitesse de rotation de l’éolienne devrait idéalement pouvoir s’adapter pour maintenir le TSR constant et donc toujours travailler avec les meilleurs rendements. Par conséquent, on distingue les éoliennes à vitesse de rotation constante des éoliennes à vitesse de rotation variable. Ces dernières permettent de suivre le régime de vent et d’obtenir de meilleurs rendements en adaptant la vitesse de rotation de l’éolienne.

Il existe une deuxième raison qui justifie de travailler avec une éolienne à vitesse de rotation variable. De part nature, la vitesse du vent est fluctuante. Si l’éolienne a une vitesse de rotation constante alors ces fluctuations de vitesse se traduisent par des fluctuations du couple mécanique exercé sur l’arbre. Nous sommes alors en présence de contraintes mécaniques fluctuantes qui peuvent accélérer l’usure de la transmission entre le rotor et la génératrice. Travailler avec un rotor à vitesse variable permet d’absorber les fluctuations de vitesse par une accélération de la vitesse du rotor.

Une éolienne à vitesse de rotation variable suppose d’avoir systématiquement recours à de l’électronique de puissance. Fort heureusement, cette technique a évolué très positivement ces dernières années ce qui permet de conserver un bon rendement  et un prix acceptable. Par conséquent, le choix d’une éolienne à vitesse de rotation variable est tout à fait abordable et cohérent. Néanmoins, il faut savoir qu’une éolienne à vitesse de rotation constante reste, théoriquement du moins, plus simple.


Positionnement et intégration

Placer une éolienne est une question de compromis. Par exemple, si l’éolienne est placée près de bâtiments, elle pourra subir leur interférence dans la mesure où ces bâtiments influencent globalement la trajectoire de l’air. Par contre, placer une éolienne loin d’un bâtiment pose la question de la ligne de transmission qu’il faudra tirer entre l’éolienne et le poste électrique compatible le plus proche.

Schéma positionnement et intégration.

Illustration de la structure de l’écoulement d’air autour d’un bâtiment et des zones d’influences.

La figure ci-dessus donne une idée de l’influence d’un bâtiment sur l’écoulement. On voit que le vent est perturbé par la présence du bâtiment avant que ce vent arrive à son niveau, c’est-à-dire en amont. Si l’obstacle placé sur un terrain plat a une hauteur « H », on considère que l’écoulement est influencé en amont à partir d’une longueur de l’ordre de « 2H ». En aval, le bâtiment influence significativement l’écoulement jusqu’à une longueur de l’ordre de « 20H ». C’est donc loin d’être négligeable. Il est important de comprendre que dans ces zones d’influence, l’écoulement est fortement perturbé, c’est-à-dire que l’air subit de fortes fluctuations de vitesse qui sont loin d’être négligeables devant la vitesse du vent en amont. En d’autres termes, il ne s’agit pas de faibles fluctuations qui se superposent au vent initial, comme un « bruit blanc ». Au contraire, le vent subit de fortes fluctuations de vitesse dans toutes les directions de l’espace. En outre, la vitesse moyenne de l’écoulement est réduite, à certains endroits parfois annulée voire même inversée.

La situation peut être particulièrement complexe dans un milieu urbain où le vent est perturbé par un ensemble de bâtiments. Comme les figures ci-dessous l’illustrent bien, il existe de grandes zones où la vitesse moyenne du vent est réduite. Le comportement du vent n’est pas aléatoire, il obéit à des lois physiques bien précises. Il n’en reste pas moins que son évolution en passant près de bâtiments est loin d’être intuitive. En effet, il est difficile de prédire les caractéristiques de tels types d’écoulement. Par exemple, les résultats ci-dessous ont été obtenus au moyen de simulations numériques complexes.

Types d'écoulement via simulation numérique- 01.

Types d'écoulement via simulation numérique- 02.

Types d'écoulement via simulation numérique- 03.

Norme de la vitesse dans un plan horizontal à 1.5  m du sol (1ere figure), à 4 m du sol (2ème figure) et dans un plan vertical (3ème figure), autour d’un quartier composé d’immeubles. Cette dernière figure illustre bien l’évolution de la vitesse avec la hauteur. Résultats obtenus au moyen de simulations numériques réalisées par Tatiana de Meester de Betzenbroeck (Architecture et Climat, UCL).

Eoliennes montées sur le toit : éviter les zones d’écoulement turbulent

Photo éoliennes montées sur le toit - 01.

Photo éoliennes montées sur le toit - 02.

Exemples d’éoliennes placées sur le toit d’un bâtiment. En premier lieu, le bâtiment Éole à Gosselies (Igretec) qui intègre deux éoliennes à axe vertical dans un immeuble de bureau. Dans ce cas-ci, on voit que les éoliennes font partie intégrante du concept architectural du bâtiment (un peu comme son nom l’indique).  En second lieu, un bâtiment avec une série d’éoliennes à axe horizontal placées sur un mât.

Dans certains cas, on souhaiterait mettre une éolienne sur le toit d’un bâtiment. Cela peut constituer une opportunité dans les zones urbaines où les zones dégagées, c’est-à-dire sans obstacles, sont peu ou pas existantes. L’idée est aussi de ne pas devoir investir dans un mât pour hisser le rotor à une certaine hauteur. Mis à part ces avantages, il reste de sérieux inconvénients à travailler avec une éolienne placée sur un bâtiment :

  • Comme la figure ci-dessus sur la zone de perturbation d’un bâtiment l’illustre bien, l’écoulement est aussi perturbé au-dessus du toit. Il est moins perturbé sur le bord amont du toit, mais on voit que cette zone grandit en progressant en aval. Si le rotor de l’éolienne est situé dans cette zone d’influence,  il rencontrera un vent de vitesse moyenne plus faible et il subira de fortes fluctuations de vitesse. Par conséquent, le rendement sera plus faible et les forces auxquelles l’éolienne sera soumise seront très fluctuantes. Ces charges dynamiques sur la structure et les équipements de l’éolienne peuvent accélérer son usure. Pour conclure, on peut atténuer cet effet en conseillant d’installer l’éolienne près du bord du toit dans la direction des vents dominants.
  • Les vibrations de l’éolienne, en plus d’être potentiellement plus importantes sur un toit, sont transmises à la structure du bâtiment. Il faut voir si le bâtiment peut supporter cela et voir dans quelle mesure ces vibrations peuvent être absorbées par un dispositif ad hoc. L’impact de la propagation de ces vibrations par les matériaux de construction sur le confort acoustique des occupants n’est pas à négliger non plus.
  • Les villes étaient généralement bâties dans des sites abrités du vent.
  • Assurer la viabilité de la structure en cas de tempête devient encore plus critique concernant la sécurité. En effet, que se passe-t-il si l’éolienne est arrachée ou tombe sur une façade, une personne ? On ne peut se permettre que l’éolienne puisse perdre des éléments par grand vent.
  • L’impact paysager, au vu de la production dérisoire de ces mini-éoliennes, pose question et pourrait nuire à l’image du secteur éolien dans sa globalité alors que ce secteur est plein de potentialités. [APERe]

Tous ces éléments font que l’intérêt d’installer des éoliennes sur le toit de bâtiments est loin d’être évident. On mentionne souvent que les éoliennes à axe vertical sont bien conditionnées pour fonctionner sur un toit dans la mesure où elles sont toujours bien orientées par rapport à la direction du vent. C’est déjà un bon point, mais il n’en reste pas moins que tous les désavantages cités ci-dessus restent d’application. En effet, quand on dit que le vent est perturbé, il ne s’agit pas simplement de dire qu’il change de direction par rapport à la vitesse non perturbée en amont du bâtiment. Non, le vent est aussi sujet à de fortes fluctuations d’amplitude et la direction locale du vent fluctue aussi rapidement dans le temps. Les forces aérodynamiques sur l’éolienne restent donc relativement instationnaires (c’est-à-dire, variables), même si l’éolienne est à axe vertical. Au minimum, il faut s’assurer que le constructeur à mis en œuvre des techniques spécifiques pour gérer cela.

Éoliennes intégrées au bâtiment

     Photo éoliennes intégrées au bâtiment - 01.  Photo éoliennes intégrées au bâtiment - 02.  Photo éoliennes intégrées au bâtiment - 03.

Exemples d’éoliennes intégrées au bâtiment : le bâtiment Strata en fin de construction à Londres (figures de gauche et centrale ) et le World Trade Centre de Barhain (figure de droite).

Plus délicate encore est l’intégration de l’éolienne au sein même du bâtiment. En d’autres termes, l’éolienne devient partie intégrante du concept architectural, de l’image véhiculée par le bâtiment. Effectivement, cette démarche donne une image, un style technologique et écologique au bâtiment. Par contre, mis à part ses qualités de vitrine de marque, on peut se poser de sérieuses questions sur l’intérêt d’intégrer des éoliennes directement au bâtiment. Il reste notamment la question de l’absorption des vibrations des éoliennes par le bâtiment. Si elles sont petites, cela ne pose pas de gros problèmes, mais, d’un autre côté, si elles sont petites, elles ne produiront alors qu’une infime fraction de la consommation du bâtiment. Si les éoliennes sont de tailles plus importantes, elles peuvent fortement perturber la structure du bâtiment.

On peut jouer sur la forme du bâtiment pour obtenir un effet d’accélération au niveau de l’éolienne (effet Venturi). Néanmoins, on ne peut pas déplacer le bâtiment en fonction de l’orientation du vent. En conclusion, l’intérêt ne semble pas évident.


Les éoliennes carénées

Certaines éoliennes sont munies d’éléments externes au rotor dont l’objectif est de concentrer le vent sur le celui-ci. On pense principalement aux éoliennes carénées où un conduit convergeant ou divergeant enveloppe le rotor de l’éolienne. Les designs peuvent être des plus variés, voire des plus futuristes :

Schéma principe éoliennes carénées.    Photo éoliennes carénées.

Certains de ces modèles présentent des puissances supérieures aux éoliennes traditionnelles non carénées. Il ne faut pas y voir pour autant un effet révolutionnaire. L’explication est relativement simple. Lorsque l’on définit la puissance instantanée du vent, il faut être vigilant à la définition de la surface rencontrée par l’éolienne que l’on utilise. Dans le cas d’une éolienne classique, il s’agit de la surface balayée par le rotor. Par contre, dans le cas de modèles carénés, il faut tenir compte de ces éléments supplémentaires extérieurs. Typiquement, il faut prendre la surface frontale de l’éolienne, carénage inclus. En gros, celui-ci augmente la puissance instantanée du vent en augmentant la surface exposée au vent. Les puissances plus élevées obtenues par ces éoliennes ne sont donc pas dues à un meilleur rendement, mais à une augmentation de la puissance du vent rencontrée, c’est-à-dire la source d’énergie.

Le carénage est-il pertinent?

La méthode n’est pas mauvaise, mais il faut savoir que c’est tout aussi simple d’augmenter la surface du rotor d’une éolienne classique pour qu’il soit équivalent à la surface au vent de l’éolienne carénée. En effet, dans le cas d’une éolienne carénée, ajouter cet élément externe a un certain coût. En outre, il faut pouvoir le maintenir par une structure et l’orienter correctement par rapport au vent. En ce qui nous concerne, nous pensons qu’il est plus simple d’augmenter la taille du rotor d’une éolienne traditionnelle. Un avantage néanmoins, il épargnerait les oiseaux grâce à l’absence de pièces mouvantes externes.


Dispositifs d’optimisation de l’aérodynamique

Quand on voit la complexité des ailerons acérés des Formules 1, c’est à se demander pourquoi les pales de nos éoliennes sont si minimalistes. Ni aurait-il pas moyen de pousser l’aérodynamique plus loin  ?  Si la réponse courte est OUI, la réponse longue impose de nuancer.

En effet, si une pale d’éolienne est loin de la complexité d’un aileron de formule 1, la raison se situe probablement dans une balance coût/bénéfice pour laquelle le point de vue n’est pas le même. D’un côté, en formule 1, on cherchera le bénéfice maximal, qu’importe le coût et la durée de vie ; de l’autre côté, celui de l’éolien, ce sera la solution proposant le meilleur rapport coûts/bénéfices tout au long du cycle de vie qui l’emportera. Ce dernier point de vue menant logiquement à des solutions simples, éprouvées, efficaces et durables avec « peu » de débauche de moyens. En résumé, cela revient moins cher de faire plus grand que de faire plus complexe.

Néanmoins, les techniques évoluent et les coûts associés également. Pour cette raison, certaines technologies que l’on retrouve dans le monde des sports moteurs, mais aussi de l’aéronautique deviennent suffisamment matures et abordables pour être intégrées dans le secteur éolien.

Les winglets

Photo winglets - 01.

Afin de réduire la traînée induite par les tourbillons de bout d’aile, certains dispositifs biomimétiques comme les winglets (petite ailette perpendiculaire à la pale située en bout d’aile) ont été développées pour permettre de limiter les turbulences en bout d’aile. En réduisant la trainée, c’est à la fois de rendement qui est amélioré (1 à 3 %)  mais également une réduction du bruit qui peut être observée. Ce type de dispositif est déjà très présent dans le monde aéronautique (on y voit même des doubles winglets aussi appelés « split winglets »).

Photo winglets - 02. Schéma principe winglets.

Les chevrons ou dentelures

Photo chevrons ou dentelures - 01.

Afin d’améliorer l’aérodynamique et le rendement, mais surtout l’acoustique qu’induisent les turbulences au niveau du bord de fuite, certaines sociétés s’inspirent du vol silencieux du hibou et étudient des solutions pour « adoucir » les perturbations.

Ainsi, par bio mimétisme, en s’inspirant des plumes d’hibou, des dentelures ou chevrons sont apposés au bord de fuite. Ces entreprises promettent une réduction de 5dB grâce à ce dispositif. Wait and see !

Photo chevrons ou dentelures - 02.

Les générateurs de vortex

Schéma principe générateurs de vortex - 01.

Accolés sur l’extrados de la pale, non loin du bord d’attaque, les générateurs de vortex, sorte de petites lames, permettent de contrer la séparation prématurée des flux et ainsi augmentent la portance de la pale. Se faisant, le bruit est réduit et le rendement, en poussant la limite de décrochage plus loin, est amélioré. Ce dispositif peut être placé a posteriori.

Schéma principe générateurs de vortex - 02.

Ecoulement de l’air avec générateurs de vortex.

Concevoir l’installation d’une éolienne

 


Un projet multidisciplinaire

Au-delà de la justification environnementale et économique, l’implantation d’une ou plusieurs éoliennes doit satisfaire à une série de contraintes. Celles-ci sont de natures fort différentes. Ces contraintes peuvent être vues comme des conditions nécessaires à remplir pour pouvoir édifier une éolienne, mais chaque contrainte séparée ne peut être vue comme une condition suffisante : il faut pouvoir répondre à toutes les contraintes. Naturellement, plus le projet est ambitieux en taille et plus les contraintes à respecter sont sévères ou plus la justification de leur respect doit être approfondie. À l’autre extrême, on trouve les projets de petites éoliennes où les contraintes sont relativement limitées.

Pertinence du projet

Au départ, le projet doit être intrinsèquement pertinent. On développe cette idée ci-dessous pour différentes dimensions du projet, c’est-à-dire des objectifs énergétiques, environnementaux et économiques. Ces dimensions ont été séparées pour des raisons de clarté et pour structurer le propos. Il faut être conscient qu’en réalité tous ces critères sont fortement liés et doivent être considérés ensemble.

Pertinence économique

Bien que l’impact sur la réduction de l’émission de gaz à effet de serre soit un atout indéniable, il n’en reste pas moins que la pertinence économique d’un projet éolien demeure un paramètre vital. À cet effet, il est important d’avoir une idée claire sur la rentabilité de son projet. En outre, il faut intégrer à ses calculs financiers la politique de soutien des autorités publiques pour la production d’énergie verte. En effet, ce dernier aspect améliore considérablement les performances économiques du projet.

Pertinence énergétique et environnementale

  • Maîtrise de la consommation énergétique : Si l’objectif est de répondre à la demande d’électricité d’un ou plusieurs bâtiments, d’autres approches que l’éolien peuvent être pertinentes, voire prioritaires. Produire son énergie avec des sources d’énergies renouvelables est une excellente initiative, ne pas consommer cette énergie est encore mieux. C’est un slogan que l’on rencontre systématiquement dans le contexte de l’utilisation rationnelle de l’énergie. Bien qu’un peu « bateau », il est tout à fait pertinent. Une condition préalable à l’investissement dans un projet éolien est la maîtrise de sa consommation énergétique. À l’échelle d’un bâtiment, cela doit être vu au sens large, c’est-à-dire en intégrant la consommation électrique, mais aussi la consommation de chaleur. On peut attaquer ces consommations sur deux fronts : le premier est de réduire les besoins de chaleur et d’électricité, le second est l’utilisation d’un matériel performant et en bon état de marche. Les différentes sections d’Énergie+ ont été développées pour vous accompagner dans cette démarche de maîtrise des consommations pour chaque poste-clef de votre bâtiment ou de votre parc immobilier.
  • Les ressources disponibles : Par définition, une éolienne est une machine qui transforme l’énergie du vent en énergie mécanique, c’est-à-dire la rotation du rotor. Finalement, cette énergie sera transformée en électricité via une génératrice. Comme toute machine, elle réalise cette conversion avec un certain rendement. Comme le bon vieux premier principe de la thermodynamique nous l’apprend, l’énergie est conservée : « rien ne se perd, rien ne se gagne ». Le rendement de l’éolienne ne dépasse donc jamais les 100 %. Tout cela pour dire que si le vent ne contient pas beaucoup d’énergie sur le site où vous voulez implanter votre éolienne, celle-ci ne pourra pas faire de miracles et produire plus que ce potentiel énergétique du vent. Avant de se lancer dans l’aventure, il faut donc connaître les ressources d’énergie éolienne dont on dispose. Cela peut se faire via une campagne de mesure sur site ou, dans la plupart des cas aujourd’hui, au moyen de logiciels de simulation numérique qui permettent de déterminer les grandes caractéristiques du vent en relation avec une éolienne. Une propriété importante est la puissance instantanée du vent qui traverse la surface balayée par l’éolienne. Cette puissance dépend du cube de la vitesse du vent (en amont de l’éolienne). Si la vitesse double, la puissance instantanée du vent est multipliée par huit. L’éolienne dispose alors de huit fois plus de puissance de vent à convertir en électricité. Sur base de ce constat, on comprend tout l’intérêt de placer son éolienne sur un site venteux. En outre, de par ses propriétés, le vent varie fortement d’un site à l’autre. Par conséquent, la pertinence énergétique d’un projet éolien dépend fondamentalement du potentiel local de votre site d’implantation.
  • Un large spectre d’énergies renouvelables : Comme expliqué ci-dessus, la pertinence énergétique dépend fortement du potentiel de vent de votre site d’implantation. Ce potentiel va donc aussi influencer la viabilité économique du projet. Toutes les sources d’énergies renouvelables ne sont pas aussi sensibles aux conditions atmosphériques ou météorologiques locales. Par exemple, lorsque l’on considère les techniques solaires, que ce soit le solaire thermique ou photovoltaïque, votre production sera essentiellement dépendante de l’ensoleillement ainsi que de la température extérieure (qui influence le rendement du matériel). Ces facteurs varient bien évidemment d’un site à l’autre, mais les variations, au sein d’un territoire restreint comme la Région wallonne, restent limitées. Par conséquent, ces techniques solaires souffrent moins de facteurs locaux, leur pertinence est donc plus facile à établir ou réfuter. Le choix d’une énergie renouvelable par rapport à une autre dépendra donc du potentiel de votre site. Si vous ne disposez pas de sites venteux, d’autres sources d’énergies  renouvelables seront peut-être plus indiquées. Dans certains cas, d’autres ressources d’énergies renouvelables sont peut-être plus facilement valorisables, tel le bois-énergie dans des régions où les forêts et les sous-produits de bois sont nombreux. En conclusion, il faut regarder la question de la manière la plus large possible en envisageant toutes les opportunités qui s’offrent.

Contraintes

Le but de cette section relative aux contraintes n’est pas de faire un état des lieux précis des contraintes auxquelles est soumise l’implantation d’une éolienne. L’objectif est de démontrer la diversité des questions et des disciplines rencontrées. Nous invitons le lecteur intéressé à consulter les documents de référence sur ces questions voir de rentrer en contact avec le facilitateur Électricité Renouvelable de la Région wallonne. Fort heureusement, pour les petits projets éoliens, la liste des contraintes est plus restreinte.

Contraintes urbanistiques

Une éolienne doit respecter une série de contraintes urbanistiques. Celles-ci seront d’autant plus sévères que l’éolienne sera grande. L’ensemble des règles concernant les zones capables en éolien sont reprises dans le Code du Développement Territorial (CoDT). En outre, il existe des zones protégées où l’installation d’une éolienne est en principe proscrite. On peut citer, à titre d’exemple, les zones Natura 2000, les réserves naturelles, les peuplements de feuillus,…

Les éoliennes pourront par contre s’établir, moyennant certaines conditions, dans les zones agricoles, zones d’activité économique, zone forestière à faible densité…

Contraintes électriques et de raccordement au réseau

Mis à part les situations d’auto-consommation, l’électricité qui sera produite par les éoliennes sera principalement injectée sur le réseau. Il faut que le réseau possède un nœud de connexion proche (cabine de tête) qui puisse accueillir le puissance électrique débitée par une ou plusieurs éoliennes. Cette capacité dépend de la puissance électrique que l’on souhaite faire transiter par le réseau et donc de la taille du projet éolien. Dans le cas où il faudrait tirer une nouvelle ligne de puissance vers une éolienne, il faut savoir que ce sont des travaux extrêmement coûteux. La topologie du réseau électrique à proximité du site d’implantation a donc un impact majeur. Ces questions sont traitées en collaboration avec le Gestionnaire du Réseau de Distribution (GRD) ou de Transport (GRT) suivant le niveau de tension du réseau auquel on veut se raccorder.

Actuellement, les meilleurs sites (sur les plans de l’exposition au vent et de la connexion au réseau) sont déjà équipés en éoliennes. Ce critère est donc moins évident à optimiser au fur et à mesure que les gisements de vents idéalement situés sont exploités.

Contraintes environnementales

L’implantation d’une éolienne peut perturber son environnement direct :

  • Les éoliennes émettent du bruit. Ce bruit peut être engendré par la vibration de la structure, voire aussi être d’origine aérodynamique. Il faut veiller à ce que le niveau de bruit émis par l’éolienne soit compatible avec l’occupation du voisinage. À ce titre, le législateur a mis en place un arrêté pour protéger le cadre de vie des riverains en exigent le respect de normes de bruits strictes en fonction des conditions sectorielles. http://environnement.wallonie.be/legis/pe/pesect074.html
  • L’impact de l’éolien sur l’avifaune est très limité. Il est d’autant plus limité que l’éolienne est de petite taille. Il existe pourtant des zones sensibles qu’il est souhaitable d’éviter, essentiellement pour les grands projets éoliens. Par exemple, on peut citer les couloirs de migration ou les zones de nidification. L’étude d’incidence analyse particulièrement ces impacts.

Contraintes de compatibilité

L’implantation d’une éolienne peut interagir négativement avec d’autres fonctions réalisées dans son environnement :

  • Les éoliennes émettent un rayonnement électromagnétique. Néanmoins, celui-ci n’est pas dans la même gamme de fréquences que celles utilisées par les radars. Ces éoliennes ne constituent donc pas des brouilleurs actifs. Par contre, l’éolienne peut avoir des surfaces importantes métalliques comme le mât ou les pâles qui peuvent refléter les rayons d’un radar. Potentiellement, cela peut créer de faux échos radars ce qui peut être dangereux pour l’aviation civile ou militaire. En outre, certaines parties de l’éolienne sont en mouvement. C’est, par définition, le cas du rotor. Un effet « Doppler » qui modifie le champ électromagnétique pulsé par le radar peut avoir lieu. Ce phénomène génère de forts échos radars. Il faut savoir que même les éoliennes avec un rotor de diamètre limité, comme une éolienne domestique avec un rotor de 2 m de diamètre, génèrent un écho perceptible sur les radars. Un faux écho radar peut être dangereux pour l’aviation, qu’elle soit civile ou militaire, c’est pourquoi certaines zones d’exclusion existent, notamment à proximité des aéroports ou de zones d’implantation de radars. Par contrer cela, des filtres (solutions software) sont actuellement en cours de développement de manière à permettre l’implantation d’éolienne dans certaines zones à proximité de radars.
  • Les grandes éoliennes peuvent constituer un obstacle dangereux pour l’aviation. A l’heure actuelle, les éoliennes dont la hauteur dépasse 60 m doivent être répertoriées.
  • Dans certains cas, l’éolienne peut interagir avec les ondes hertziennes parce que l’éolienne peut réfléchir ou diffracter ces ondes. Comme dans le cas du radar, il s’agit d’une perturbation passive et non pas d’un brouillage actif qui serait généré par les ondes électromagnétiques produites par l’éolienne. Le risque est que le signal envoyé par un émetteur soit « dévié » par une éolienne si bien qu’au niveau du récepteur du signal, on ait la superposition du signal direct et d’un signal dévié par une éolienne. La combinaison des deux contributions donne un signal perturbé. En pratique, une éolienne dont la hauteur totale correspond à la hauteur générale des obstacles naturels ou habituels ne créera pas de perturbation pour les faisceaux hertziens. Mais pas de panique, l’IPBT (Institut belge des services postaux et des télécommunications) et la RTBF sont systématiquement concertés dans le cadre de l’analyse des demandes de permis éoliens, de sorte que le risque de perturbation de votre programme télévisé préféré est aujourd’hui fortement minimisé.

Contraintes foncières

Dans bon nombre de cas, le développeur n’est pas propriétaire du terrain sur lequel il envisage une exploitation éolienne. Dans ce cas, l’exploitant passe un contrat avec le(s) propriétaire(s) du ou des terrain(s) pour pouvoir y réaliser leur projet éolien.

Dans un certain nombre de cas, des contraintes « de signature » peuvent grandement conditionner le projet. Les contraintes imposées par le(s) propriétaire(s) peuvent tant porter sur l’implantation des éoliennes que sur les caractéristiques du parc : nombre de turbines, puissance…


Les étapes d’un grand projet éolien

L’élaboration d’un grand projet éolien est un processus qui se réalise en plusieurs étapes. Au regard des différentes contraintes précitées et de l’importance du potentiel du vent, établir un projet complet demande beaucoup d’investissement en temps et en moyen, notamment pour réaliser les diverses études. Par conséquent, une première étape consiste à valider rapidement le bien-fondé de la démarche en évaluant une série de conditions de base que le projet doit au minimum respecter. Cela permet d’éviter d’engager trop de moyens dans un projet intrinsèquement non viable. Une fois cette étape de pré-faisabilité établie, on peut investir dans des études techniques plus poussées, c’est-à-dire des études de faisabilité, pour finalement aboutir à la finalisation du projet. Le projet ainsi défini, on passe au montage administratif qui donnera lieu à l’obtention d’un permis ou d’un refus d’implantation d’un parc éolien :

  1. Préfaisabilité
  2. Faisabilité
  3. Finalisation du projet
  4. Montage administratif
  5. Obtention ou refus du permis

Les diverses étapes jalonnant le projet sont notamment définies dans des documents de référence développés par le Facilitateur éolien,  ouverture d'une nouvelle fenêtre ! l’APERe. Nous reprenons ci-dessous une description un peu détaillée de la phase de définition du projet avant le montage administratif.

Étude de pré-faisabilité

  • Sur base de la vitesse moyenne du vent sur le site sélectionné, on estime rapidement la production électrique de la future éolienne. En parallèle, on peut aussi estimer l’impact de la topographie et d’obstacles locaux sur la qualité du vent : si l’on se trouve sur un terrain plat ou non plat, si des obstacles naturels ou artificiels sont présents.
  • On peut vérifier si l’implantation est compatible avec les contraintes urbanistiques, avec la présence de zones habitées proche, avec la présence de zones protégées, …
  • Une étude de faisabilité, appelée étude d’orientation, est commandée au gestionnaire de réseau électrique pour évaluer la possibilité de raccordement, la puissance qui peut être raccordée ainsi qu’une estimation du prix de raccordement. Il s’agit, suivant le niveau de raccordement, du gestionnaire du réseau de transport (GRT) ou de distribution (GRD).
  • Consulter les organismes dont l’avis risque d’être sollicité par les autorités qui délivrent le permis d’implantation de l’éolienne. On pense par exemple à Belgocontrol, la Défense Nationale, aux Fonctionnaires Délégués et Techniques. De cette manière, on peut s’assurer que le projet ne recevra pas un avis négatif de la part de ces organismes plus tard dans le processus d’obtention du permis. Encore une fois, on peut ainsi éviter d’engager trop de forces dans un projet qui ne risque pas d’aboutir. Il s’agit d’un avis indicatif qui ne garantit rien sur l’avis officiel qui sera donné ultérieurement par ces institutions durant la phase administrative du projet. À noter que certains organismes ne donnent pas d’avis indicatif.

Étude de faisabilité

  • Une étude plus approfondie sur le potentiel éolien du site est réalisée. Ce potentiel est évalué sur base d’une campagne de mesure sur site bien qu’aujourd’hui les simulations numériques (via un logiciel de simulation numérique des écoulements environnementaux) sont privilégiées.
  • Une étude de détail sera commandée au gestionnaire du réseau électrique afin qu’il établisse les spécifications techniques du raccordement de l’éolienne au nœud du réseau fixé par l’étude d’orientation. Sur base des ces informations techniques, on peut faire établir un devis par une société spécialisée en électrotechnique pour réaliser le raccordement du parc éolien projeté.

Finalisation de l’étude

  • On passe à la phase dite de « micro-siting« . Il s’agit de déterminer le nombre, le type et les caractéristiques des éoliennes qui seront installées ainsi que l’emplacement exact de chaque turbine sur le terrain. On tient à la fois compte des informations collectées sur le potentiel du vent et des contraintes urbanistiques.
  • Un plan de financement est réalisé. Sur base du potentiel du vent, on peut estimer la rentabilité économique du projet. Cette étude tient compte des frais déjà engagés, de l’investissement dans les différentes éoliennes, leur installation et les frais de connexion au réseau électrique. En outre, les frais de maintenance ne seront pas négligés.
  • L’étude est ainsi finalisée, on peut ainsi rentrer dans la phase du montage administratif et la réalisation de l’étude d’incidence environnementale du projet.

Les étapes d’un petit projet éolien

Dans le cas d’un petit projet éolien, le montage d’un projet est fort heureusement moins lourd. Nous résumons ci-dessous les grandes étapes d’un tel projet. On passe au travers ces différentes étapes de manière séquentielle : une fois que la démarche est réalisée, on peut seulement passer à l’étape suivante (processus « go/no-go« ).

Les étapes d’un petit projet éolien :

    1. Vérifier sa consommation électrique et la réduire. En amont de toute démarche, il faut maîtrise ses consommations par une utilisation rationnelle de l’énergie (URE). Énergie+ a typiquement été développé pour vous accompagner dans cette tâche.
    2. Vérifier le coût de l’électricité du réseau auprès des fournisseurs.
    3. Faire une estimation rapide de la production de l’éolienne, notamment sur base de la vitesse moyenne du vent sur le futur site d’implantation.
    4. Faire une estimation rapide de la rentabilité du projet en intégrant les incitants fiscaux. Sur cette base, faire une comparaison avec les autres systèmes d’énergies renouvelables.
    5. Vérifier si l’implantation d’une petite éolienne est compatible avec les prescriptions urbanistiques.
    6. Mesurer le potentiel de vent de son site, c’est-à-dire la vitesse du vent durant une période d’au minimum plusieurs mois à, idéalement, un an. Il faut en outre vérifier la « qualité » de l’écoulement du vent sur le terrain en repérant les obstacles qui risquent de le perturber ou les modifications de relief qui risquent d’accélérer ou décélérer le vent localement. Il faut se référer aux règles de bonne pratique pour avoir une idée de cet impact. Finalement, sur base des mesures, on peut faire une estimation de la production électrique réalisable.
    7. Choisir la taille de l’éolienne, son modèle ainsi que la hauteur du mât. La hauteur du mât est un aspect très important. C’est un point sur lequel il faut être particulièrement vigilant et intransigeant pour garantir le futur succès de votre installation éolienne.
    8. Demande et obtention du permis de bâtir.
    9. Suivant la puissance, notification ou demande de permis au Gestionnaire de Réseau de Distribution (GRD) pour la connexion au réseau électrique.
    10. Commander l’éolienne.
    11. Installation de l’éolienne.
    12. Réception des travaux, notamment au niveau électrique et de la connexion au réseau.
    13. Maintenance et surveillance du matériel durant toute sa durée d’utilisation.

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 1

La production frigorifique avec stockage de glace.

Schéma 1

L’équipement frigorifique peut être complété par un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace. Une vanne trois voies mélangeuse permet de réguler la température de l’eau glacée lors de la décharge du stockage.

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 0

La régulation du ventilo-convecteur deux tubes – deux fils.

> Schéma 0

Une sonde dans la prise d’air permet de commander soit le débit d’alimentation de la batterie froide, soit l’alimentation de la résistance électrique.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1]

Schéma 1

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

La production peut aussi être assurée par une machine frigorifique dont on récupère la chaleur au condenseur : à ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer! C’est la situation rencontrée en mi-saison. L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir.

En plein été, la dissipation de chaleur  se fait par un condenseur traditionnel (dit condenseur de rejet). En plein hiver, une chaudière d’appoint reste nécessaire pour vaincre la forte demande.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1]

 La régulation du ventilo-convecteur quatre tubes.

> Schéma 0 : schéma de principe d’une installation ventilos 2 tubes.

La production de chaleur se fait, par exemple, par la chaudière du bâtiment.

La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

La production d’eau glacée est réalisée par la machine frigorifique. On y rencontre généralement une distribution à un régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente).

Régulation du ventilo-convecteur quatre tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 4

La régulation vannes 2 voies (vitesse variable).

> schéma 4

La pompe travaille à vitesse variable, et maintient une pression constante dans le réseau. Ceci est nettement plus économique mais suppose qu’une protection des installations de production soit prévue lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.

Régulation du ventilo-convecteur quatre tubes – Schéma 3

Comment réguler le ventilo ?

– schéma 3 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 3

La régulation par vannes deux voies (soupape différentielle).

2° Régulation du circuit hydraulique

Dans les circuits sans vannes ou avec des vannes à trois voies, le débit hydraulique total de l’installation est constant.

Par contre, dans les installations avec vannes deux voies, deux solutions sont possibles

> schéma 3

Une vanne à décharge (encore appelée vanne à soupape différentielle) est placée en parallèle sur le réseau de distribution. La pompe est protégée, elle travaille à débit constant, mais la consommation est constante également !

Régulation du ventilo-convecteur quatre tubes – Schéma 2

Comment réguler le ventilo ?

– schéma 2 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 2

La régulation par réglage de la vitesse du ventilateur.

> schéma 2

Variante : il existe des appareils pour lesquels la sélection de la vitesse du ventilateur est réalisée automatiquement en fonction de l’écart de température par rapport à la consigne (ce sera par exemple le cas pour des appareils ne disposant pas de vanne de réglage sur le débit d’eau).

Si plusieurs ventilos sont prévus dans un même local, il est utile de les faire fonctionner en maître-esclaves, de telle sorte que l’un ne fasse pas du froid quand l’autre fait du chaud !

Régulation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 1

La régulation par vannes trois voies.

1°  régulation de la température

> schéma 1

Une sonde de température est insérée à la prise d’air. En fonction de l’écart à la consigne, on module l’ouverture d’une vanne à trois voies, et donc le débit d’eau chaude (hiver) ou d’eau glacée (été).  Il s’agit généralement d’un régulateur à action progressive. Ce régulateur peut commander plusieurs ventilos d’un même local.

On remarque la présence d’une zone neutre (minimum 2 degrés) pour laquelle l’installation n’est plus alimentée, évitant ainsi le pompage entre chaud et froid. Un agrandissement de cette zone neutre permet des économies d’énergie.

Ceci étant dit, l’occupant peut également agir sur la vitesse du ventilateur pour donner ou non de la pêche à l’émetteur. En pratique, il n’acceptera le bruit de la grande vitesse que pour la relance du matin en hiver ou pendant les canicules en été.

Régulation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 0

La régulation du ventilo-convecteur quatre tubes.

> schéma 0 : schéma de principe d’une régulation du ventilo-convecteur quatre tubes.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 6

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 6 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur propre).

> schéma 6 : découpage par zone et ciculateur par zone

C’est une variante du schéma précédent.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 5

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 5 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur commun).

2ème solution : alimentation chaud et froid

> schéma 5 : découpage par zone et circulateur commun

L’inconvénient des ventilos à deux tubes, c’est l’uniformité de la température de distribution de l’eau dans tous les bureaux. De là, le souhait de découper l’installation par zones : la zone en façade Sud, la zone de la salle de conférence,…
Des vannes de commutation sont alors placées à l’entrée et à la sortie de chaque zone. Des consignes différentes sont alors possibles pour chaque local, mais le passage de la distribution d’eau glacée à la distribution d’eau chaude est fait en même temps pour tous les locaux de la zone, … après accord syndical !

En pratique, un régulateur agit sur base d’une sonde de température extérieure, une sonde d’ensoleillement et d’une sonde de compensation d’ambiance dans un local témoin,…généralement chez le chef !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 4 »» [0] [1] [2] [3] [4] [5] [6]

 Production chaud/froid par machine réversible.

> schéma 4 : machine frigorifique réversible

La production peut aussi être assurée par une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 3

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 3 »» [0] [1] [2] [3] [4] [5] [6]

Production frigorifique avec stockage nocturne.

> schéma 3 : stockage de frigories

À l’équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 2

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 2 »» [0] [1] [2] [3] [4] [5] [6]

En hiver, alimentation en eau chaude.

> schéma 2 : situation hiver

La production de chaleur se fait souvent par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors très souvent modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

On sera attentif à ce que le basculement froid/chaud se fasse avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1] [2] [3] [4] [5] [6]

 En été, alimentation en eau glacée.

1ère solution : alimentation chaud ou froid

> schéma 1 : situation été

La commutation eau glacée/eau chaude est réalisée via deux vannes 3 voies de commutation, encore appelées « change over ». Elles peuvent être commandées manuellement ou automatiquement (en fonction de la température extérieure et de l’ensoleillement).

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente) !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1] [2] [3] [4] [5] [6]

La régulation du ventilo-convecteur deux tubes.

schéma 0  : schéma de principe d’une installation ventilos 2 tubes.

Régulation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 4

La régulation de pression du réseau par variation de vitesse du circulateur.

> schéma 4

Soit la pompe travaille à vitesse variable, en maintenant une pression constante dans le réseau. Ceci est nettement plus économique mais suppose une protection des installations de production lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.

Régulation du ventilo-convecteur deux tubes – Schéma 3

Comment réguler le ventilo ?

– schéma 3 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 3

La  régulation de la pression du réseau par soupape différentielle.

2° Régulation des débits

Dans les circuits sans vannes ou avec des vannes à trois voies, le débit hydraulique total de l’installation est constant (grâce à la vanne de réglage placée sur le bypass).

Par contre, dans les installations avec vannes deux voies, deux solutions sont possibles :

> schéma 3

Soit une vanne à décharge (encore appelée vanne à soupape différentielle) est placée en parallèle sur le réseau de distribution. La pompe est protégée, elle travaille à débit constant, mais la consommation est constante également !

Régulation du ventilo-convecteur deux tubes – Schéma 2

Comment réguler le ventilo ?

– schéma 2 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 2

La régulation par action sur la vitesse du ventilateur.

> schéma 2

La vitesse du ventilateur est cette fois réalisée automatiquement en fonction de l’écart de température par rapport à la consigne. La température de l’eau (froide ou chaude) est alors constante. Ce système est très bon marché.

L’avantage de ce système est de limiter le coût de fonctionnement du ventilateur. Mais l’inconvénient est de créer des trains d’air chaud/d’air froid, surtout si le ventilateur n’a qu’une seule vitesse (fonctionnement en tout ou rien)… un différentiel de 4° est alors parfois rencontré, ce qui n’est pas très confortable !

De l’eau trop chaude augmente ce différentiel ainsi que les pertes par convection naturelle lors de l’arrêt du ventilateur…

Dans ce schéma, il est utile de placer la sonde thermostatique dans l’ambiance : si elle était placée dans la reprise d’air, il faudrait laisser le ventilateur en 1ère vitesse même lorsque la température ambiante est en plage neutre…!

Régulation du ventilo-convecteur deux tubes – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 1

La régulation du débit par vanne trois voies.

1° Régulation de température.

>  schéma 1

Une sonde de température est insérée à la prise d’air. En fonction de l’écart à la consigne, on module l’ouverture d’une vanne à trois voies, et donc le débit d’eau chaude (hiver) ou d’eau glacée (été).

Il s’agit généralement d’un régulateur à action progressive, qui peut commander plusieurs ventilos d’un même local.

Astuce ! En hiver, plus le local est froid, plus il faut ouvrir la vanne d’eau chaude. En été, c’est l’inverse, c’est  la montée en température qui doit ouvrir la vanne d’eau glacée…

Pour commuter de la rampe « chaud » vers la rampe « froid », on agira via un thermostat d’inversion dont la sonde détecte « la saison » en fonction de la température de l’eau du réseau ! La rampe peut également être inversée par un commutateur manuel, ou par un signal de la Gestion Technique Centralisée du bâtiment.

Ventilo_2v3-fs.gif (1820 octets)

On constate la présence d’une zone neutre (minimum 2 degrés) pour laquelle l’installation n’est plus alimentée.

Ceci étant dit, l’occupant peut également agir sur la vitesse du ventilateur pour donner ou non de la pêche à l’émetteur.

En pratique, il n’accepte le bruit de la grande vitesse que pour la relance du matin en hiver ou pendant les canicules en été (« bruit ou sueur, il faut choisir » !…).

Régulation du ventilo-convecteur deux tubes – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 0

La régulation du ventilo-convecteur deux tubes.

Stockage de glace dans les bacs à nodules – schéma 4

Le stockage de glace dans les bacs à nodules – schéma 4 »» [1] [2] [3] [4]

> schéma 4 : déstockage seul
La machine frigorifique est arrêtée.

Stockage de glace dans les bacs à nodules – schéma 3

Le stockage de glace dans les bacs à nodules – schéma 3 »» [1] [2] [3] [4]

> schéma 3 : déstockage et production directe
La puissance frigorifique est inférieure à la puissance appelée par les batteries froides (en fin d’après-midi , par exemple).
Les deux pompes sont en service et la vanne trois voies régule pour maintenir une température de départ de l’eau glacée constante.
Puisque le débit de distribution est supérieur au débit de production, le solde est assuré par le passage du fluide au travers du stockage qui se décharge.

Stockage de glace dans les bacs à nodules – schéma 2

Le stockage de glace dans les bacs à nodules – schéma 2 »» [1] [2] [3] [4]

> schéma 2 : stockage et production directe
La puissance frigorifique est supérieure à la puissance appelée par les batteries froides (en début de journée, par exemple).
La pompe de distribution P2 est en service et la vanne trois voies régule pour maintenir une température de départ de l’eau glacée constante.
Puisque le débit de distribution est inférieur à celui pulsé par la pompe de production P1, le solde du débit de production remonte dans le réservoir de stockage.

Stockage de glace dans les bacs à nodules – schéma 1

Le stockage de glace dans les bacs à nodules – schéma 1 »» [1] [2] [3] [4]

4 régimes de fonctionnement sont proposés :

> schéma 1 : le stockage seul
Le réseau de distribution n’est pas demandeur (la nuit, par exemple). La pompe de distribution P2 est arrêtée. La vanne trois voies est fermée.
Le groupe frigorifique refroidit les nodules qui se cristallisent progressivement, de la périphérie vers le centre. La température à l’évaporateur reste stable.
La puissance frigorifique appelée par le réservoir diminue progressivement, suite au gel des nodules. Les nodules étant gelés, le groupe frigorifique va provoquer une diminution rapide de la température de la boucle de fluide refroidissant. Cette chute de température sera détectée par le thermostat de régulation qui va arrêter le groupe frigorifique, arrêter la pompe et fermer la vanne d’arrêt.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 3

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 3 »» [1] [2] [3]

> schéma 3
le circuit présenté au schéma 3 permet une autre solution : l’usage d’un réservoir à glace à la pression atmosphérique.
L’échangeur intermédiaire permet la séparation du circuit de distribution sous pression du circuit du bac à glace ouvert.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 2

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 2 »» [1] [2] [3]

> schéma 2

le schéma 2 présente la phase de fonte de la glace.

Un tel circuit permet à la fois le déstockage du réservoir et la production frigorifique instantanée.

L’échangeur intermédiaire permet de séparer le circuit de distribution rempli d’eau, du circuit de production rempli d’eau glycolée, ce qui diminue l’importance du volume de glycol à mettre en jeu.

On pourra également s’inspirer du schéma du stockage de glace dans les bacs à nodules qui permet plus de variantes dans la régulation.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 1

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 1 »» [1] [2] [3]

> schéma 1
Le schéma 1 présente la phase de prise en glace.

Stockage d’eau glacée – schéma 3

Le stockage d’eau glacée – schéma 3 »» [1] [2] [3]

schéma 3 
Le ballon de stockage est un élément tampon intermédiaire, séparant le circuit de production de l’eau glacée du circuit de l’utilisation.
» les deux circuits sont découplés hydrauliquement, chacun disposant de sa propre pompe. Le ballon se comporte comme une bouteille de découplage hydraulique (casse pression).

Stockage d’eau glacée – schéma 2

Le stockage d’eau glacée – schéma 2 »» [1] [2] [3]

schéma 2 
Le ballon de stockage est placé en série, sur le départ de l’eau glacée vers les batteries froides.
» la température de l’eau d’alimentation des batteries froides est stable.

Stockage d’eau glacée – schéma 1

Le stockage d’eau glacée – schéma 1 »» [1] [2] [3]

schéma 1 
Le ballon de stockage est placé en série, sur le retour d’eau glacée des batteries froides.
» le fonctionnement du groupe frigorifique est stable.

Exigences de base générales pour les lieux de travail

Exigences de base générales pour les lieux de travail

Depuis le 2 mai 2019, plusieurs articles du code du bien-être au travail ont été abrogés et remplacés par l’Arrêté royal fixant les exigences de base générales auxquelles les lieux de travail doivent répondre.

L’entrée en vigueur du nouvel Arrêté royal au 31 mai 2019, implique des modifications portant sur :

  • la définition du local de travail
  • sur les sources possibles de pollution et ses conséquences sur :
  1. le niveau de CO
  2. l’humidité
  3. les changements de température
  4. l’application de mesures de contrôle détaillées de la part de l’employeur

L’article 1er. L’article I.1-4 du code du bien-être au travail complète certains éléments comme la définition du « local de travail ». Il le définit par un local dans lequel se trouve un poste de travail.

Parmi les autres changements qu’implique cette modification, insistons sur les points qui concernent la ventilation aux articles III.1-34 et III.1-36 du code.

L’article III.1-34 précise désormais les sources possibles de pollution telles que :

  • la présence et l’activité physique de personnes
  • la présence de produits et matériaux dans les locaux de travail, tels que des matériaux de construction, le revêtement du sol et les décorations, le mobilier, les plantes et animaux, les équipements techniques, les appareils, outils et machines présents
  • l’entretien, la réparation et le nettoyage des lieux de travail
  • la qualité de l’air apporté par infiltration et ventilation, pollution et fonctionnement des systèmes de ventilation, de traitement de l’air et de chauffage.

Alors qu’il n’était imposé, lors de l’arrêté de 2012, qu’un renouvellement suffisant de l’air afin de garantir sa bonne qualité sur le lieu de travail, aujourd’hui, l’employeur est tenu d’analyser les risques de pollution de l’air et leurs sources via :

  • des inspections visuelles
  • le contrôle des installations et des documents avec la possible participation des travailleurs
  • des mesurages et / ou calculs si nécessaires

Alors que l’article 36 prévoyait uniquement que l’employeur prenne les mesures techniques et organisationnelles nécessaires pour que la concentration de CO dans les locaux de travail soit inférieure à 800 ppm, à moins qu’il ne puisse démontrer que c’est impossible pour des motifs objectifs et dûment justifiés et que, dans tous les cas, la concentration de CO dans ces locaux de travail ne peut jamais dépasser 1200 ppm, l’article 34 détaille désormais :

  • les limites de concentration de CO2 à ne pas dépasser, généralement inférieure à 900 ppm
  • le cas échéant, un débit de ventilation prescrit un minimum de 40 m3 d’air par heure et par personne présente
  • le type de mesures à prendre

En dérogation au premier alinéa, l’employeur est soumis à des exigences spécifiques s’il ne peut pas garantir une concentration de CO2 dans les locaux de travail inférieure à 1200 ppm ou qu’un débit minimal de ventilation de 25 3 par heure et par personne soit respecté :

  • 1° Il doit démontrer des résultats d‘analyse de risques. En effet, les travailleurs doivent bénéficier d’un niveau équivalent ou meilleur de protection en ce qui concerne la qualité de l’air intérieur, du fait que les sources de pollution visées au § 2, 2° à 4° soient éliminés ou considérablement réduits, par exemple par l’utilisation de matériaux à faible émission.
  • 2° L’employeur a demandé l’avis préalable du conseiller en prévention compétent et du comité.
    La concentration de CO2 dans les locaux de travail est considérée comme étant généralement inférieure à 900 ppm ou 1200 ppm respectivement, si la concentration de CO2 reste inférieure à cette valeur pendant 95 % de la durée d’utilisation, calculée sur une durée maximale de 8 heures, et en supposant une concentration extérieure de 400 ppm. Si les mesures indiquent que la concentration extérieure dépasse 400 ppm, la différence entre 400 ppm et la concentration extérieure réelle peut être prise en compte.

Le paragraphe 4 concerne les locaux de travail qui concernent des bâtiments ou parties de bâtiments, construits, transformés ou rénovés avec un permis de bâtir demandé après le 1er janvier 2020. Dans ce cas de figure, l’employeur prend les mesures techniques et/ou organisationnelles nécessaires pour satisfaire aux exigences fixées au § 3.

S’il ne savait pas correspondre aux exigences en question, l’employeur doit établir :

  • un plan d’action en collaboration avec le conseiller en prévention
  • des mesures à court, moyen ou ou long terme
  • un calendrier de mises en œuvre de ces mesures

Le but étant de veiller à améliorer la qualité de l’air et à satisfaire aux exigences fixées au § 3 à brève échéance. Les résultats de l’analyse des risques visée au § 2 et le plan d’action devront être repris dans le plan global de prévention.

L’article III.1-36 du code du bien-être au travail a également été modifié. Il ne suffit plus à l’employeur de veiller à des locaux de travail disposant d’air neuf en quantité suffisante. L’art. 36 se voit ajouter des mentions sur le taux d’humidité dans l’air :

Au paragraphe 2, les systèmes avec des installations d’humidification ou de déshumidification doivent garantir une humidité relative dans l’air sur une journée de travail comprise entre 40 et 60 % sauf si ce n’est pas possible pour des raisons techniques ou liées à l’activité professionnelle dans ce même local. Ces dernières raisons devront être dûment justifiées par l’employeur.

En effet, une exception permet donc que le taux d’humidité de l’air se situe entre 35 et 70 % à condition que l’employeur démontre que l’air ne contient aucun agent chimique ou biologique qui comporterait un risque pour la santé et la sécurité des personnes présentes sur le lieu de travail.

Tel que le prévoyait déjà la modification de l’arrêté de 2012, les articles suivants restent en vigueur :

Art. 37. L’aération se fait de façon naturelle ou au moyen d’une installation d’aération.

Art. 38. Si une installation d’aération est utilisée, notamment des installations de conditionnement d’air ou de ventilation mécanique, celle-ci doit répondre aux conditions suivantes :

1° elle est construite de façon à ce qu’elle disperse de l’air neuf, qui est répandu de façon homogène dans les locaux de travail ;

2° elle est construite de façon à ce que les travailleurs ne soient pas exposés à des nuisances dues aux fluctuations de température, aux courants d’air, au bruit ou aux vibrations ;

3° elle est conçue de façon à ce que l’humidité relative moyenne de l’air pour une journée de travail soit comprise entre 40 et 60 %, à moins que cela ne soit impossible pour des raisons techniques ;

4° elle est entretenue de façon à ce que tout dépôt de souillure et toute pollution ou contamination de l’installation soit évité ou que cette souillure puisse être éliminée rapidement ou que l’installation puisse être assainie, afin que tout risque pour la santé des travailleurs dû à la pollution ou à la contamination de l’air respiré soit évité ou réduit ;

5° un système de contrôle doit signaler toute panne ;

6° l’employeur prend les mesures nécessaires pour que l’installation soit contrôlée régulièrement par une personne compétente, de sorte qu’elle soit en tout temps prête à l’emploi.

L’humidité relative de l’air visée à l’alinéa 1er, 3° peut se situer entre 35 et 70 % si l’employeur démontre que l’air ne contient aucun agent chimique ou biologique qui puissent constitué un risque pour la santé et la sécurité des personnes présentes sur le lieu de travail.

Art. 39. Les dispositions des articles 36 à 38 ne portent pas préjudice à l’obligation de prévoir des systèmes de ventilation et d’aspiration spécifiques dans les cas visés dans les dispositions des autres arrêtés pris en exécution de la loi qui concernent des risques spécifiques.

Le RGPT précise toujours que :

Art. 52.10.7 Précaution contre les incendies, …
En cas d’incendie, les escaliers mécaniques et les installations de chauffage et de conditionnement d’air doivent être arrêtés.

Choisir un climatiseur individuel ou une armoire de climatisation

Choisir un climatiseur individuel ou une armoire de climatisation


Quand opter pour un climatiseur individuel ?

Un climatiseur paraît bien adapté lorsque l’on cherche un refroidissement localisé à peu de frais. Mais ce système présente d’importantes limites : il ne permet pas la maîtrise de l’humidité et risque de créer un inconfort lié au flux d’air froid.

Ce dernier point s’explique comme suit : en conditionnement d’air, on cherche à assurer un écart de soufflage limité (écart entre la température de l’air soufflé et la température du local). On peut aller jusqu’à 10 °C d’écart (soit une pulsion d’air à 14 °C si le local est à 24 °C) mais on utilise alors des bouches à haut taux d’induction pour être sûr que le mélange avec l’air ambiant soit maximal. Dans un climatiseur par contre, le fabricant cherche à fournir une puissance maximale dans un encombrement minimal. L’évaporateur est donc de petite surface, … et travaille à très basse température ! L’air du local est fortement refroidi à son contact. Une « coulée » d’air froid risque alors de gêner fortement les occupants…

Ceci dit, c’est une solution facile lorsque quelques locaux sont à traiter, particulièrement en rénovation. Et le confort limité peut être accepté si le climatiseur est utilisé sporadiquement pour vaincre des périodes de surchauffe.

Lorsque des puissances plus grandes sont nécessaires par exemple pour des locaux de serveurs, on s’orientera vers les armoires de climatisation.


Choix du type de climatiseur

En fonction de la puissance frigorifique

À partir de la puissance frigorifique requise, on réalisera une première sélection parmi la typologie des climatiseurs de locaux.

La puissance frigorifique nécessaire permet déjà d’écarter quelques équipements :

  • appareil mobile : maximum 2,5 kW,
  • appareil plafonnier : minimum 2,5 kW,
  • appareil en toiture + gaines (rooftop) : minimum 5 kW.

Lorsque la puissance des appareils présents sur le marché ne correspond pas à la puissance frigorifique calculée, il est toujours préférable de choisir un appareil ayant une puissance juste inférieure plutôt que celui qui a une puissance supérieure.

En effet, les conditions extrêmes de température extérieures n’apparaissent que durant quelques jours par an. On peut donc se permettre un très léger inconfort durant cette période. De plus, un appareil plus petit aura des durées de fonctionnements plus longs, et donc un meilleur rendement.

En fonction de la performance acoustique

Les climatiseurs monoblocs et les climatiseurs de « fenêtres » présentent souvent de mauvaises caractéristiques acoustiques puisque condenseur et compresseur sont directement en contact avec le local à climatiser.

Graphique performance acoustique

La performance acoustique va orienter le choix vers une configuration en split (le compresseur est à l’extérieur), puis vers un évaporateur en cassette (faux plafond), voire rechercher un placement de l’évaporateur dans un local annexe (couloir ?) afin de profiter en plus de l’absorption acoustique de la gaine.

À ce titre, on pourrait classer le choix en fonction de ses performances acoustiques de gauche à droite :

  Illustration plafonnier rapporté.  Illustration plafonnier intégré.  Illustration unité de plafond + gaine.

Mais ce critère sera affiné ci-dessous.

En fonction d’un éventuel découpage par zone

Il faut découper le local par zone, chaque zone étant desservie par une bouche de soufflage :

Si la surface du local est importante :

Illustration sur principe de surface du local.

Un phénomène d’irrigation incomplète des locaux apparaît lorsque la distance de pénétration du jet (mentionnée par le fournisseur) est inférieure à la dimension de la pièce (dans la direction de soufflage). Il se forme alors un mouvement d’air en sens contraire (boucle secondaire) dans le fond du local, zone mal rafraîchie.

Dans ce cas un découpage du local en plusieurs zones s’impose.

Exemple : découpage d’un local rectangulaire suivant les zones d’influence des diffuseurs plafonniers circulaires.

Si un obstacle se trouve au plafond

Lorsque l’air est soufflé à proximité d’une surface (ex : soufflage horizontal à proximité du plafond), il se produit un effet d’adhérence du jet à la paroi : c’est l’effet « COANDA » (augmentation de 30% de la portée).

Illustration sur effet "COANDA

L’effet Coanda est très utile quand on pulse de l’air froid, car il facilite la bonne pénétration du jet dans le local.

La présence d’un obstacle perpendiculaire au jet d’air (poutre, luminaire) peut faire dévier prématurément le jet vers la zone occupée et engendrer un courant d’air désagréable.

Illustration sur effet "COANDA

En conséquence :

  • il faut souffler soit à partir de l’obstacle, soit parallèlement à celui-ci et diviser le local en zones correspondantes,
  • l’éclairage au plafond doit être soit encastré, soit suspendu avec une longueur de suspension de 0,3 m minimum,
  • on tiendra compte de la présence éventuelle de colonnes qui ne pourront se situer dans la trajectoire du jet.

Si le local présente une forme de L

La distance de pénétration ne peut dépasser 4 fois la hauteur de la pièce. Dès lors, pour les locaux forts en longueur (et a fortiori pour les locaux en L), on prévoira une position centrale ou un dédoublement des bouches.

Si l’apport de chaleur est très localisé

Si la source de chaleur est concentrée (équipement, vitrage, …) dans une partie du local, il est judicieux de traiter spécifiquement cette zone.

Par exemple si la production des calories est éloignée de la façade (local profond), le souci d’économie d’investissement qui conduirait au choix d’un système « window unit » entraînerait un inconfort dans la zone à refroidir.

S’il y a présence de zones fumeurs et non-fumeurs

La zone à destination des fumeurs doit être traitée si possible indépendamment de la zone non-fumeurs, notamment en prévoyant l’extraction dans l’espace fumeurs.

En fonction de la centralisation ou non du traitement

Les zones étant définies, il est nécessaire de fixer le mode de traitement de l’air.

Un traitement centralisé et une distribution de l’air par gainage sont envisagés :

  • si les besoins des locaux ou des zones sont similaires, car l’air est distribué à même température dans les différentes pièces,
  • si les locaux ou les zones ont des charges thermiques trop faibles par rapport aux puissances des appareils sur le marché,
  • si le passage des gaines est possible (présence de faux plafond, de local annexe),
  • si les locaux de travail exigent des critères acoustiques sévères.

Dans ces différents cas, un seul appareil de traitement alimentera plusieurs zones via un réseau de gaines de distribution. Cette centralisation entraînera souvent le placement de l’appareil hors des locaux de travail et la possibilité d’une absorption acoustique par le gainage.

Climatiseur avec gaines.

Un traitement décentralisé est envisagé :

  • si les locaux ont des besoins différents (orientation des fenêtres, par exemple),
  • si les parois extérieures sont perçables de manière à faire traverser les liaisons électriques et frigorifiques, ainsi que la tuyauterie d’évacuation des condensats.

Illustration sur traitement décentralisé

On choisit dans ce cas, un traitement local par local au moyen d’appareils indépendants.

Photo sur traitement décentralisé

Un condenseur commun et plusieurs unités intérieures = multi-split.

Cette configuration n’exclut pas l’utilisation d’un système multi split.

Il est alors possible de diminuer la puissance à installer si on peut prendre en considération la non-simultanéité des besoins.


Choix d’ une armoire de climatisation

illustration sur armoire de climatisation

Tout comme les climatiseurs, les armoires de climatisation présentent, par rapport aux systèmes sur boucle d’eau ou d’air, l’avantage d’une très grande flexibilité d’implantation et de gestion. En termes de puissance frigorifique, on peut dépasser parfois la centaine de kW ce qui les différencie des climatiseurs de local. En termes de débit d’air, on atteint alors les 20 000 m³/h. Un des défauts majeurs est le bruit généré par cet équipement, à proximité des occupants…

Les armoires de climatisation se trouvent dans le traitement des salles informatiques, surtout lorsqu’elles constituent la seule demande du bâtiment. Lorsque le bâtiment comporte plusieurs armoires de ce type, il devient intéressant de les raccorder sur une boucle d’eau glacée, équipée d’un système centralisé d’évacuation de la chaleur. La même armoire peut climatiser plusieurs locaux (avec distribution de l’air traité par conduit) mais ces locaux doivent avoir des besoins semblables.

Techniques

Pour connaître plus en détail les caractéristiques technologiques et le fonctionnement des armoire de climatisation, cliquez ici !

Découvrez ces exemples concrets de système de climatisation : le Centre Hospitalier du Bois de l’Abbaye de Seraing et la climatisation et l’hôpital des Fagnes de Chimay.

Tableau récapitulatif des principales caractéristiques

Tableau récapitulatif des principales caractéristiques.

Types de
lampe
Puissances (W) Flux lumineux
(lm)
Efficacité lumineuse (sans ballast)
(lm/W)
IRC T°de
couleur

(K)
Durée de vie utile (h) Durée  de vie moyenne (h) Dimmable Domaine d’application
Incandescente normale 7 à 300 21
à
4 850
3 à 19 100 2 700
(2 600 à 3 000)
 Plus de 1 000** 1 000
(jusque 3 000 dans de rares cas)
oui Domestique essentiellement

Retrait du marché

Incandescente halogène * 5 à 500 60
à
9 900
12 à 28 100 3 000
(de 2 800 à 4 700)
Plus de 2 000** 2 000
(1 500 à 5 000)
oui Domestique essentiellement

Retrait du marché

Tube fluorescent 4 à 140 120

à

8 350

30 à 112 50 à 98 2 700

à

8 000

Plus de 20 000** 12 000

à

66 000

oui Éclairage général des commerces et bureaux, éclairage industriel, sportif
Fluo-
compacte culot à visser
5 à 30 150

à

2 000

30 à 67 82 à 85 2 700 Plus de 10 000** 10 000

(6 000 à 15 000)

oui certains produits spéciaux En substitution aux incandescentes
Fluo-
compacte culot à broche
5 à 120 250

à

9 000

42 à 82 80 à 98 2700

à

4 000

Plus de 10 000** 6 500

à

20 000

oui Éclairage domestique et tertiaire
Halogénures métalliques 20 à 2 100 1 300

à

225 000

37 à 118 65 à 95 2 600

à

5 600

Plus de 6 000** 15 000

à

24 000

non Éclairage tertiaire, accentuation dans les commerces, éclairage public, sportif et industriel
Sodium
haute pression
35 à 1 000 3 400

à

130 000

35 à 150 25 à 81*** 1 800

à

2 200

Plus de 30 000** 10 000

à

30 000**

oui Éclairage routier, industriel, horticole, des salles et terrains de sport
Mercure
haute pression
50 à 1 000 1 100

à

58 500

11 à 60 36 à 72 2 900

à

4 200

8 000** 20 000** non Éclairage industriel et extérieur
Sodium
basse pression
18 à 185 1 800

à

32 000

100 à 200 1 800 Largement supérieur à 16 000 non Éclairage autoroute
Induction 55 à 85

3 500

à

6 000

65 à 70 80 à 85

2 700

à

4 000

30 000

à

40 000

60 000 non Anciennement éclairage intérieur et extérieur quand l’accès est difficile
Lampe LED 1 à 18 140

à

950

30 à 120 80 à 90**** 2 700

à

4 000

Plus

de

15 000

25 000 à 30 000 oui si le driver le permet Éclairage domestique et tertiaire

* Parmi les lampes halogènes, quelques gammes présentent des puissances allant jusqu’à 2 000 W.  Le flux émis peut alors atteindre 50 000 (lm), avec une efficacité lumineuse de seulement 25 lm/W. Il faudra faire attention aux surchauffes…

** Selon CIE 97:2005

*** Seule de rares gammes atteignent de telles valeurs d’Indice de Rendu des Couleurs (81). En général, l’IRC maximal des Sodium haute pression est de 65.

**** Mauvais rendu des tonalités rouges

Voici, un comparatif des performances lumineuses de différentes sources permettant de se faire une idée de l’orientation que risque de prendre le marché :

Ce dernier tableau permet de comparer les différents lots de lampes entre eux. On voit tout de suite que les incandescentes (standards et halogènes) présentent une mauvaise efficacité énergétique initiale, et qu’en plus, celle-ci diminuera très vite en fonctionnement par l’augmentation du pourcentage de lampes hors service et par la diminution du flux qu’elles émettent.

Les lampes les plus intéressantes seront celles présentant une courbe la plus haute et la plus horizontale possible !

Les halogénures métalliques bien que présentant une efficacité lumineuse initiale élevée deviennent rapidement moins efficaces que les tubes fluorescents. Leur efficacité se rapproche d’ailleurs rapidement de celle des fluocompactes.

Si le but est de changer le moins souvent possible les lampes, et donc de limiter les frais de maintenance en même temps que les frais liés à la consommation d’électricité on optera alors pour les sodiums haute pression (ou pour les lampes à induction…). On fera particulièrement attention à l’Indice de Rendu des Couleurs (IRC) et à la température de couleur. En effet, ces lampes ne présentent pas les meilleures performances pour ces deux aspects. Pour obtenir un indice de rendu des couleurs suffisant, il faudra se tourner vers les iodures métalliques à brûleur céramique.

Calculs

Pour comparer l’efficacité moyenne en service de différentes lampes correspondant à une situation précise.

Techniques

Pour en savoir plus sur les caractéristiques des LED.

Répartition d’une consommation entre plusieurs entités

Répartition d'une consommation entre plusieurs entités


La situation de départ

Il arrive parfois que la même chaudière desserve des bâtiments occupés par des unités très différentes. Par exemple, une crèche et un centre sportif indépendants sont intégrés dans les bâtiments d’une école.

Comme il est toujours bon que chaque consommateur se sente responsable, il est utile de ventiler les consommations le plus fidèlement possible. Et puis cela évite les conflits…!

Quatre solutions

  • Si les circuits de distribution des radiateurs ne correspondent pas du tout au découpage des locaux par locataires, la solution la plus simple consiste à faire une répartition au prorata des m² chauffés. C’est simple, mais c’est forfaitaire… La motivation à « faire attention à ses consommations » n’est pas encouragée…
  • Si les bâtiments présentent des caractéristiques très différentes (un nouveau et un ancien bâtiment par exemple), il est possible de corriger quelque peu la méthode précédente. Partant du fait que  les déperditions se font par les parois, l’idée est de pondérer la consommation totale par un facteur proportionnel à la qualité thermique des parois (coefficient U) et à leur surface (S).Supposons deux entités. On totalisera pour chacune les produits U*S de toutes leurs parois extérieures. La consommation de la première entité sera de :

    Cons. 1 = Cons. totale x (U*S)1 / (U*S)total

    De même :

    Cons. 2 = Cons. totale x (U*S)2 / (U*S)total

    Si le résultat est plus conforme aux consommations réelles des bâtiments, il ne tiendra toujours pas compte du fait que les occupants sont peut-être très économes dans l’entité 1 et gaspilleurs dans l’entité 2 !

  • Il est plus précis de placer des compteurs individuels sur les radiateurs (appelé calorimètres) : ceux-ci sont basés sur l’évaporation de l’eau contenue dans un petit capillaire. Plus le radiateur chauffe fort et longtemps, plus l’eau s’évapore. Le placement et le relevé annuel sont réalisés par une société spécialisée. Une répartition de la facture proportionnellement à la chaleur délivrée par chaque radiateur est alors possible.

Relevé de l’index d’un calorimètre.

Compteur de chaleur à installer entre les conduites aller et retour d’un circuit de chauffage.

  • Enfin, si chaque entité possède son circuit de chauffage (ou de refroidissement) propre, il est possible de placer un compteur d’énergie thermique entre le départ et le retour de chaque circuit. Cet appareil mesure le débit d’eau et la différence de température entre le départ et le retour. Le régulateur intègre ces valeurs et affiche l’énergie thermique en kWh ou en MJ. Cette solution est certainement la plus fiable, mais demande parfois la modification des circuits hydrauliques. Si grâce à cela la régulation du bâtiment peut être améliorée, cela en vaut la peine !

Valoriser la fraîcheur de l’environnement [Esquisse du projet]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.
L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !
Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Queen’s Building de l’université de Montfort

Entrée (orientation nord-est).

Façade sud-est.

Façade nord-ouest .


Introduction

Le Queen’s Building est un bâtiment de la faculté d’ingénieur de l’université de Montfort regroupant auditoires, salles de cours, bureaux, laboratoires et ateliers. Les gestionnaires du bâtiment l’ont voulu faible consommateur d’énergie. Il a donc été conçu pour :

  1. limiter la consommation due à l‘éclairage artificiel :
    L’enveloppe du bâtiment est pensée pour apporter un maximum d’éclairage naturel à tous les locaux, soit directement par des fenêtres en façade et en toiture, soit indirectement par des fenêtres intérieures donnant sur l’atrium central.
    Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire.
    Éliminer les consommations de refroidissement et de ventilation.
  2. Les apports calorifiques d’été sont limités par la protection de certaines ouvertures extérieures.
    Une ventilation naturelle est organisée dans tout le bâtiment : l’air est introduit par les fenêtres et extrait, selon les locaux, par des fenêtres (en façade ou en toiture), ou par des cheminées. Dans un souci de simplicité, les équipements accessibles sont commandés manuellement. La ventilation est exclusivement diurne pour l’ensemble des locaux à l’exception des auditoires dans lesquels une ventilation nocturne est également organisée. L’inertie thermique du bâtiment combinée à cette ventilation permet de réduire la température de pointe en été.

Ces moyens ont réellement permis de limiter la consommation annuelle moyenne à 145 kWh/m², ce qui est un très bon résultat pour ce type de bâtiment en Angleterre.


Description

Le Queen’s Building regroupe différents locaux de la faculté d’ingénieur de l’université de Monfort : 2 auditoires, des salles de cour, des salles de séminaires, des bureaux, des laboratoires et des ateliers. Il est situé à Leicester, dans un site urbain, et fut mis en service au début du mois de décembre 1993. D’une surface totale de 10 000 m², il est susceptible d’accueillir simultanément 1 000 occupants, tandis que le nombre total d’utilisateurs se chiffre à environ 2 000 (étudiants et personnel).

Plan du premier niveau :
1. ateliers d’électricité 2. salles de cours 3. atrium
4. auditoires 5. laboratoire de mécanique.

Principes de conception

La conception du bâtiment repose sur :

  1. une étude approfondie de l’éclairage, naturel et artificiel;
  2. la ventilation du bâtiment de façon naturelle.

Éclairage

Éclairage naturel

Un maximum d’éclairage naturel est apporté à tous les locaux, afin de :

  • limiter la consommation directe d’éclairage artificiel,
  • de limiter les charges internes en été.

La forme complexe du bâtiment résulte de cette contrainte. En effet, contrairement à ce qui se fait couramment pour ce genre de bâtiment (bâtiment compact de forme simple, avec laboratoires aveugles au centre et bureaux éclairés naturellement en périphérie), les locaux s’articulent les uns aux autres pour aller chercher de la lumière, par les façades ou par la toiture.

 

Formes architecturales (puits de lumière, articulation des locaux)
pour capter un maximum de lumière naturelle.

En plus de ces apports de lumière directe, de nombreux locaux bénéficient d’un apport de lumière indirecte, par des fenêtres intérieures, donnant sur un hall de distribution central. Ce hall, sorte d’atrium, est fortement éclairé, notamment par la toiture.

 

Apport de lumière dans le hall central, sorte d’atrium.

Dans le hall, les circulations sont organisées à l’aide d’escaliers et de passerelles métalliques avec planchers de verre, afin de laisser passer un maximum de lumière vers les niveaux inférieurs.

 

Passerelles métalliques avec plancher de verre dans le hall central.

Des fenêtres intérieures transmettent la lumière de l’atrium vers les locaux périphériques.

 

 

Fenêtres intérieures dans l’atrium.

 

Exemple de laboratoire éclairé en partie naturellement :
fenêtres intérieures transmettant la lumière de l’atrium, et fenêtres extérieures

Éclairage artificiel

Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire. De nombreux luminaires (ateliers, atrium) fonctionnent avec des lampes industrielles à basse consommation.

Une gestion de l’éclairage par détection de présence avait été installée mais elle a été abandonnée suite à son fonctionnement « capricieux » : le matériel choisi n’était malheureusement pas de bonne qualité.


Ventilation naturelle

La ventilation du bâtiment est entièrement naturelle. L’air est :

  • introduit par les fenêtres ou par des grilles,
  • extrait par des fenêtres de façade ou de toiture, ou des grilles en tête de cheminée.

Les gestionnaires du bâtiment ont opté pour des équipements simples, avec aussi peu de maintenance que possible. Les fenêtres accessibles sont donc manipulées manuellement, tandis que seules les fenêtres non accessibles sont commandées automatiquement.

 

Ouverture des fenêtres manuelle et automatique.

La ventilation est exclusivement diurne (à l’exception des auditoires), pour deux raisons :

  1. les fenêtres ne sont pas protégées par des grilles, ce qui poserait des problèmes de sécurité si elles étaient laissées ouvertes toute la nuit.
  2. l’organisation d’une ventilation de nuit avec un système qui n’est pas totalement automatisé demande une participation des occupants difficile à imposer dans ce cas : les occupants sont très nombreux, et la population des étudiants change souvent.

Les différents types de ventilation naturelle possibles sont représentés dans le bâtiment :

  • Ventilation avec effet de cheminée : l’air réchauffé monte naturellement vers la sortie de la cheminée ou vers l’ouverture de toiture. Pour les cheminées, l’air extérieur passant dans la toiture de la cheminée renforce l’effet de tirage.

 

  • Ventilation transversale entre façades opposées, par exemple dans les deux ailes formant la cour d’entrée.
  • Ventilation unilatérale d’un local individuellement par une seule fenêtre verticale (l’air frais entre dans la partie basse de la fenêtre, se réchauffe à l’intérieur du local et ressort en partie haute).

Le bâtiment est compartimenté pour que les flux d’air soient canalisés autant que possible. Ce compartimentage a également un rôle au niveau acoustique en limitant la transmission de bruit et au niveau de la prévention incendie.


Refroidissement et chauffage

Refroidissement

Il n’y a pas de refroidissement mécanique dans le bâtiment.

Le pouvoir rafraichissant de l’air extérieur est exploité pour réduire la température de pointe en été : le bâtiment présente une importante inertie thermique, réalisée par de grandes surfaces de maçonnerie apparente, et une ventilation naturelle diurne est organisée.

Pour permettre ce fonctionnement, les apports solaires d’été sont limités par la protection de certaines baies.

Les types de protection sont les suivants :

  • avancée de toiture,
  • relief de façade,
  • ombre portée du bâtiment,
  • panneaux d’ombrage,
  • stores extérieurs fixes (toiture de l’atrium notamment).

Pour chaque baie, la protection a été choisie après comparaison des apports favorables d’hiver avec les apports indésirables de l’été.

 

Avancées de toiture.

 

Reliefs de façade.

Cour d’entrée ombragée naturellement :
elle constitue un réservoir d’air frais (- 2°C qu’ailleurs en été).

Remarque concernant l’encombrement :

Un système de conditionnement d’air peut prendre jusqu’à environ 20 % de l’espace d’un bâtiment (locaux techniques, réseau de ventilation,…). Ici, cet espace a été consacré à 12 cheminées de ventilation. Afin de limiter l’encombrement de ces cheminées, elles reposent sur des piliers, ce qui permet de libérer l’espace du rez-de-chaussée.

 

Support des cheminées des auditoires sur colonnes,
exploitation de l’espace sous les gradins.

Chauffage

Les équipements et l’occupation représentent une partie importante du chauffage des locaux, ainsi que les apports solaires par les vitrages, notamment en toiture. Certaines fenêtres ne sont d’ailleurs pas protégées pour bénéficier de ces apports gratuits, au détriment de la limitation des charges d’été (bilan comparatif réalisé entre apports d’hiver et d’été).

L’installation de chauffage regroupe un système de cogénération (gaz – 38 kW électrique et 70 kW chauffage), une chaudière à condensation et deux chaudières conventionnelles. La gestion de la fourniture de chaleur se fait en fonction des conditions de fonctionnement du bâtiment. La cogénération est choisie si la majorité de la production d’électricité et de chaleur est utilisée dans le bâtiment, et si, à ce moment, cela coûte moins cher que d’acheter l’électricité.


Fonctionnement

Atrium

Outre son utilité au niveau de l’éclairage, le hall central sert également de zone de transfert pour l’apport d’air frais dans certains locaux.

Par exemple, la salle informatique (destinée lors de la conception à être une salle de dessin) est ventilée de cette manière.

  
Entrée de l’air dans l’atrium et transfert vers la salle informatique.
  
Extraction par la toiture de la salle.

Auditoire

Les 2 auditoires de 150 places chacun sont ventilés naturellement. Ils sont gérés automatiquement par un système informatique (GTC : gestion technique centralisée).
Photo auditoire.
L’air extérieur est introduit dans le local via un absorbant acoustique et une batterie de préchauffe. Une partie est distribuée directement au niveau de l’orateur, l’autre partie est répartie sous les gradins et introduite dans l’auditoire par des grilles au niveau des pieds des auditeurs.

Il est extrait via deux cheminées de 13.5 m. Un ventilateur est prévu dans chaque cheminée pour aider la ventilation naturelle, mais aucun n’a jamais été utilisé à ce jour.

   

Grille d’amenée d’air avec absorbant acoustique et batterie de préchauffe.

Grille d’amenée d’air avec absorbant acoustique et batterie de préchauffe.

La gestion automatique règle le débit de ventilation naturelle et le débit d’eau chaude dans les batteries de préchauffe en fonction des mesures relevées continuellement par 7 capteurs (5 mesureurs de température et 2 sondes CO2).

En hiver, les auditoires sont maintenus à 20°C pendant les heures d’occupation et à 16°C le reste du temps.

En été, une ventilation nocturne est organisée afin de décharger le local des apports de chaleur de la journée et limiter la température de pointe pendant l’occupation.

Enfin, une attention particulière est portée sur la qualité  : la ventilation pendant l’occupation est réglée de l’air
pour limiter la concentration de CO2 à 600 ppm.

Les charges internes maximales du local sont les suivantes :

  • occupation 8 heures par jour,
  • 5 jours par semaine,
  • 100 W par occupant,
  • 150 personnes,
  • 15 W/m² pour l’éclairage
  • 500 W pour l’équipement

Soit des gains internes de 18.3 kW, ou 80 W/m².
Pour assurer en même temps le confort acoustique et thermique, un compromis a dû être trouvé entre les surfaces absorbantes acoustiques, et les surfaces destinées au stockage thermique.

Photo briques apparentes.

Les briques apparentes de la partie supérieure du mur assurent l’inertie thermique. La partie inférieure du mur est recouverte d’absorbant acoustique.

Les auditoires fonctionnent bien globalement. On constate néanmoins dans celui où l’orateur se trouve côté extérieur (et non du côté de l’atrium) des problèmes de courants d’air au premier rang de l’auditoire, et quelques problèmes de bruit provenant de la rue.

Laboratoire de mécanique

Laboratoire de mécanique.

Les activités du laboratoire peuvent être assez bruyantes. Les concepteurs ont donc pris des précautions acoustiques au niveau de l’introduction de l’air dans le local, pour éviter des nuisances aux bâtiments voisins.

L’air passe dans les contreforts verticaux en maçonnerie ajourée remplis d’absorbant acoustique avant d’être introduit dans le local.

  

Contreforts délimitant des espaces tampons acoustiques sur le passage de l’air entre l’extérieur et l’intérieur.

La gestion du débit d’air introduit se fait par ouverture manuelle de panneaux en bois.

Remarque : certains utilisateurs ont placé des meubles devant ces ouvertures, ce qui rend la ventilation partiellement non utilisable.

L’air est extrait par les fenêtres de la toiture, commandées par GTC.

Gestion du débit d’air introduit par des panneaux mobiles en bois.

Extraction de l’air par les fenêtres de la toiture.

Les charges internes du local (personnes + équipements) sont évaluées à 100 W/m². Les apports solaires d’été en façade sont limités par le prolongement de la toiture.

Le local est chauffé par des panneaux rayonnants suspendus à la toiture.

Laboratoires d’électricité

Les laboratoires d’électricité sont installés dans les locaux étroits des deux « ailes » entourant la cour d’entrée. Les locaux sont longs et étroits,ce qui permet un bon éclairage naturel réparti uniformément, et une ventilation transversale.

Laboratoire d’électricité.

Les fenêtres hautes et basses sont dimensionnées pour pouvoir éliminer les apports internes par ventilation : ordinateurs, autres appareils fonctionnant généralement en continu, et l’occupation, soit environ 85 W/m². En été, la cour d’entrée ombragée constitue un réservoir d’air frais qui aide au refroidissement efficace des locaux.

  

Cour d’entrée : fenêtres donnant sur les laboratoires d’électricité.

La lumière naturelle est en partie contrôlée par des « étagères à lumière » (light shelves) qui protègent les occupants de l’éclairage direct et réfléchissent la lumière vers le plafond afin de fournir au local un éclairage diffus.

  
« Étagère à lumière » dans un laboratoire d’électricité.

Le confort thermique des laboratoires semble satisfaisant. On note néanmoins, par moments, quelques problèmes de courants d’air…

Le fonctionnement devrait donc être mieux expliqué aux occupants pour leur permettre d’utiliser le système correctement.

Classes

Certaines classes sont ventilées par ventilation unilatérale, d’autres par effet de cheminée. Dans le premier cas, l’air est introduit par les fenêtres basses et extrait, après s’être réchauffé dans le local, par des fenêtres ou une grille de ventilation haute.

Dans le second cas, l’air est introduit par les fenêtres et extrait par une cheminée.

  

Classe ventilée par effet de cheminée.
Celle-ci se trouve derrière la grille ajourée de la photo de droite.

Bureaux

Les bureaux paysagers sont ventilés par effet de cheminée : l’air rentre par les fenêtres murales, et est extrait par la toiture.

Lors de la conception, la hauteur des meubles de séparation entre bureaux avait été définie pour que la ventilation soit efficace et confortable. À l’utilisation, les occupants ont désiré des séparations plus hautes, et même des cloisons délimitant des bureaux individuels : le service n’est pas adapté à un fonctionnement en bureau paysager (entretiens avec des étudiants qui demandent de l’intimité). Ces adaptations perturbent donc la ventilation, et le confort dans les locaux n’est pas atteint.

  

Bureau paysager : le meuble blanc de gauche a la hauteur idéale étudiée à la conception, les cloisons rouges ont été ajoutées par après.

Les caisses montrent la volonté des utilisateurs de créer des zones plus intimes.


Sécurité

Sécurité incendie

Le bâtiment est séparé en de nombreux compartiments, la plupart renfermant un seul local. Chacun a son ou ses issues de secours individuelle(s).

 

 

Issues de secours extérieures et intérieures.

Sécurité

C’est justement ce nombre important d’issues de secours qui pose certains problèmes d’intrusions. Ceux-ci ne viennent donc pas directement du système de ventilation.


Performance

Confort thermique

Le confort thermique semble atteint en été comme en hiver dans les divers locaux, à l’exception des bureaux paysagers cloisonnés dans lesquels la ventilation n’est pas efficace.

Consommation

La consommation annuelle moyenne actuelle est de 145 kWh/m², répartis comme suit :

  • 100 kWh/m2/an en chauffage : bonne valeur comparée à d’autres bâtiments du même type, et ce grâce aux apports solaires gratuits.
  • 45 kWh/m2/an en électricité : très bon niveau (un bon niveau en Angleterre est de 90 kWh/m²/an pour ce type de bâtiment) grâce à l’absence totale de climatisation, et à l’éclairage naturel qui limite l’éclairage artificiel.

(Il est possible de comparer ceci avec les consommations énergétiques moyennes rencontrées chez nous dans les écoles ou dans les bureaux).

Le budget d’investissement était de 845 £/m² soit environ 1318,2 €/m² au taux de 2002 (1,56 €/£).

  • Architectes : Short Ford & Associates
  • Ingénieurs stabilité : YRM Anthony Hunt
  • Ingénieurs techniques spéciales : Max Fordham Associates

Centre administratif du Powergen

Façade est .

Façade nord.

Façade sud.


Résumé

Le centre administratif de Powergen (compagnie de production d’électricité en Angleterre) se situe à Westwood, dans un site suburbain à proximité de Coventry. Il regroupe principalement des bureaux paysagers, sur trois niveaux, autour d’un atrium, ainsi que des salles de réunion et de conférence, une cafétéria et des locaux techniques.

Dans les bureaux paysagers, une ventilation naturelle (donc gratuite) de jour et/ou de nuit est organisée pour limiter la température intérieure en été et en mi-saison.

L’air entre par les fenêtres supérieures des bureaux, et est extrait par les fenêtres hautes de l’atrium. L’ouverture et la fermeture de ces fenêtres sont commandées automatiquement en fonction des conditions extérieures et intérieures.

  • En mi-saison, le refroidissement des locaux se fait par ventilation diurne, l’air extérieur étant plus frais que l’air intérieur.
  • En été, le refroidissement des locaux se fait principalement par ventilation nocturne. Les dalles de plafond en béton sont refroidies pendant la nuit par l’air frais extérieur. En journée, ces dalles agissent comme des « radiateurs de froid ».

Pour que le refroidissement par ventilation soit efficace, il a fallu réduire les apports du bâtiment.

  1. Limitation de l’éclairage artificiel :
    • L’apport de lumière naturelle de l’atrium permet de limiter le besoin en éclairage artificiel.
    • Les luminaires installés ont un très bon rendement et sont groupés, par plateau, en fonction de l’éclairage naturel disponible.
    • Une gestion automatique de l’éclairage artificiel permet d’éviter les gaspillages.
  1. Les équipements informatiques les plus importants (serveurs, imprimantes laser, etc.), ainsi que les photocopieuses, sont regroupés dans des locaux séparés, refroidis séparément.
  2. Les apports solaires sont limités grâce à des pare-soleil fixes sur la façade sud et des stores extérieurs sur les façades du volume vitré et sur les vitrages inclinés de l’atrium.

D’autres équipements URE sont prévus sur le reste des équipements. Par exemple :

  • En hiver, une ventilation mécanique complémentaire assure l’apport d’air hygiénique et le chauffage des bureaux paysagers. L’air est pulsé par des bouches de sol intégrées dans les faux-planchers, et extrait par 4 grandes bouches dans la partie supérieure de l’atrium. L’air extrait est récupéré jusqu’à concurrence de 90 % pour limiter la consommation d’énergie de chauffage.
  • Tout au long de l’année, les locaux à fortes charges internes (cuisine de la cafétéria, locaux avec ordinateurs, photocopieuses, etc.) sont refroidis mécaniquement. Tant qu’elle peut être utile dans le bâtiment, la chaleur dispersée au condenseur de la machine frigorifique est récupérée pour le préchauffage de l’air ou le chauffage de certains locaux.

Résultats

La ventilation naturelle permet de maintenir la température intérieure 3°C en dessous de la température extérieure et la consommation du bâtiment est inférieure de 20 % par rapport à celle du bâtiment voisin, de même type et équipé d’air conditionné.


Description

Powergen est une compagnie de production d’électricité en Angleterre. Son centre administratif se situe à Westwood, dans un site suburbain à proximité de Coventry.

Construit en 1994, le bâtiment est rectangulaire, étroit, orienté nord-sud, et a une surface brute totale de 13 600 m² sur 3 niveaux (12 700 m² net), pour une occupation d’environ 600 personnes. Dans le volume principal, chaque niveau réunit deux plateaux de 12 m de profondeur de chaque côté d’un grand atrium, chaque plateau étant divisé en 2 zones de bureaux paysagers. À l’est, un volume vitré regroupe le hall d’entrée, la salle de conférence et la cafétéria. À l’ouest sont concentrés les locaux techniques et informatiques.

Plan bâtiment.


Refroidissement par ventilation naturelle

La particularité de ce bâtiment réside dans le mode de refroidissement des bureaux paysagers, par ventilation naturelle, diurne en mi-saison et nocturne en été. La ventilation est organisée grâce à des fenêtres commandées automatiquement et permet de limiter la température intérieure grâce à l’inertie du bâtiment.

Principe de fonctionnement

Schéma principe de fonctionnement.

Ventilation naturelle.

Le principe de ventilation combine la ventilation transversale, d’une façade à l’autre (à partir d’une vitesse de vent de 2.5 à 3 m/s), et la ventilation par effet de cheminée utilisant l’atrium.

L’air est introduit par les fenêtres des bureaux. Celles-ci sont divisées horizontalement en trois parties : les fenêtres des deux rangées inférieures sont commandées manuellement pour une ventilation locale au niveau des occupants, et les fenêtres de la rangée supérieure sont commandées automatiquement pour la ventilation globale de jour ou de nuit.

L’air est extrait par les fenêtres hautes de l’atrium, autour de la coursive du quatrième niveau qui sont également commandées automatiquement.

 

Fenêtre des bureaux :

  • les grandes fenêtres des rangées inférieures sont ouvertes manuellement,
  • les petites fenêtres de la rangée supérieure sont commandées par la GTC

Photo fenêtres hautes d'extraction.  Photo fenêtres hautes d'extraction, détail.

Au 4 ème niveau, fenêtres hautes d’extraction, commandées par la GTC.

Une gestion technique centralisée (GTC) commande l’ouverture et la fermeture de ces fenêtres en fonction des températures extérieures et intérieures, ainsi que de la vitesse du vent et de la nébulosité. Elle intervient également dans la gestion de l’éclairage, du chauffage et du refroidissement, ainsi que dans la gestion des stores extérieurs.

Enfin, les dalles de plafond en béton, apparentes et de forme particulière, permettent un refroidissement efficace et confortable par ventilation.

L’absence de faux plafond permet l’accessibilité de la masse thermique aux charges internes. Elles fournissent donc une certaine inertie thermique au bâtiment. Celle-ci est particulièrement importante pour le refroidissement en été par ventilation nocturne : les charges internes de la journée sont stockées dans la dalle et évacuées la nuit par l’air frais extérieur de ventilation. La journée suivante, la dalle rafraîchie agit comme un « radiateur de froid ».

Les dalles présentent des creux de section elliptique qui guident l’air perpendiculairement aux façades et permettent d’éviter les courants d’air froid au niveau des occupants en ventilation diurne. Ces creux reçoivent un élément technique suspendu regroupant les équipements de plafond : luminaires, capteurs d’éclairement, détecteurs et alarmes incendie, sprinklers, et un absorbant acoustique.

Dalle de plafond.

Régulation de la ventilation

Ventilation nocturne

L’ouverture de toutes les fenêtres supérieures des bureaux et des fenêtres verticales de l’atrium (« 4 ème niveau ») est commandée par la GTC lorsque les conditions suivantes sont réunies :

  1. la température moyenne des bureaux à la fin de la journée dépasse 23°C,
  2. la température extérieure maximale de la journée dépasse 21°C,
  3. le système de chauffage est coupé.

Les fenêtres sont refermées, zone par zone, dès que la température des bureaux de la zone est redescendue à 18°C ou est inférieure ou égale à la température extérieure.

Certaines fenêtres sont également refermées en cas de pluie ou en fonction de la vitesse du vent :

  • En cas de pluie, les fenêtres de la façade face au vent sont fermées.
  • Si la vitesse du vent dépasse 5 m/s, les fenêtres sur la façade au vent sont progressivement refermées pour être complètement fermées quand la vitesse du vent atteint 15 m/s; au-dessus de 20 m/s, les fenêtres de l’autre façade sont également refermées.

Ventilation diurne

Quand le chauffage fonctionne, les fenêtres de bureau de la rangée supérieure sont fermées. Les occupants ont néanmoins la liberté d’ouvrir manuellement les fenêtres des deux rangées inférieures.

Quand le chauffage ne fonctionne pas, et que la température d’une zone dépasse 23°C, les fenêtres hautes de cette zone sont ouvertes automatiquement ainsi que les fenêtres de l’atrium qui leur font face. Les fenêtres sont refermées si la température extérieure est supérieure à la température intérieure et si la vitesse du vent est trop importante (2.5 m/s pour la façade au vent et 5 m/s pour l’autre)


Mesures prises pour limiter les charges internes

Pour que le refroidissement par ventilation garantisse un confort correct dans le bâtiment, les charges internes ont dû être limitées.

Apports internes

Éclairage

L’apport de lumière naturelle de l’atrium permet de limiter le besoin en éclairage artificiel.

Photo lumière naturelle de l'atrium.  Photo lumière naturelle de l'atrium.

Les luminaires suspendus sont conçus de façon à maximaliser le rendement de l’éclairage : 95 % de la lumière est dirigée vers le bas, et seulement 5 % vers le haut; ces 5 % sont récupérés par le local sous forme de lumière diffuse par réverbération dans les creux elliptiques de la dalle. Ils comportent chacun un tube fluorescent de 36 W (T8) et des lampes fluorescentes compactes biaxiales (2L) avec ballast électronique haute fréquence.

Pour augmenter la souplesse de gestion de l’éclairage, les luminaires sont groupés, par plateau, de chaque côté de l’atrium, en trois zones longitudinales :

  1. extérieure, près des façades vitrées,
  2. centrale, au milieu du plateau de bureau,
  3. intérieure, côté atrium.

On peut donc par exemple éteindre les luminaires près de la fenêtre où l’éclairage naturel suffit et les allumer plus en profondeur dans le bâtiment.

Luminaires intégrés dans les équipements suspendus.

Une gestion centralisée de l’éclairage artificiel en fonction des horaires élimine les gaspillages en dehors des heures d’occupation. De plus, l’éclairage est régulièrement éteint suivant les indications des détecteurs de présence. Enfin, certaines zones sont gérées en fonction de l’éclairage naturel disponible : bureaux proches des fenêtres extérieures, atrium, parkings et jardins. La possibilité de régler le niveau d’éclairement est néanmoins laissée aux occupants. L’économie réellement réalisée sur l’éclairage n’est donc pas aussi importante qu’elle ne pourrait l’être théoriquement.

Dans les salles de réunion, la commande de l’éclairage est manuelle.

À l’encontre de ces mesures, des arbres à l’intérieur de l’atrium sont éclairés par éclairage artificiel en dehors des heures de bureau (de 0h00 à 6h00) car ils ne reçoivent pas suffisamment de lumière naturelle. Cet apport d’énergie non indispensable est sans doute critiquable au niveau consommation d’énergie, mais il prouve qu’on peut faire des bâtiments à faible consommation énergétique tout en se permettant certaines « fantaisies architecturales ».

Arbres éclairés une partie de la nuit, dans l’atrium.

Equipements de bureau

Les équipements informatiques les plus importants (serveurs, imprimantes laser, etc.), ainsi que les photocopieuses, sont regroupés dans des locaux séparés, en dehors des bureaux paysagers. On peut donc traiter ces locaux séparément et diminuer la charge interne des bureaux.

Remarque : une étude sur la puissance réelle des équipements de bureaux type utilisés par Powergen a été réalisée. Les puissances relevées se sont révélées bien inférieures aux chiffres habituellement utilisés pour le dimensionnement des équipements de climatisation : environ 7 W/m² de bureau contre 30 W/m². Par mesure de sécurité, la valeur utilisée pour les simulations et le dimensionnement est de 14 W/m².

Apports solaires

Différents éléments participent à la limitation des apports solaires :

> L’orientation nord/sud des façades principales du bâtiment limite le problème posé par les apports de chaleur dus à l’ensoleillement :

  • Il n’y a pas d’apports sur la façade nord.
  • La façade sud, exposée à un soleil haut, peut être protégée efficacement par des éléments fixes.

> Les pare-soleils fixes de la façade sud : grilles métalliques horizontales.

Auvents métalliques fixes sur la façade sud.

> Les stores intérieurs déroulants :

  • Complètent les auvents dans leur le rôle de protection contre les apports de chaleur en façade sud.
  • Permettent d’éviter l’éblouissement des utilisateurs sur les deux façades.

Stores intérieurs déroulants.

> On trouve des stores extérieurs autour du volume vitré à l’est du bâtiment, ainsi que sur les vitrages inclinés de l’atrium.

  • Le volume est du bâtiment, reprenant le hall d’accueil, la cafétéria et la salle de conférences, est protégé par des stores déroulants sur les façades sud et est. Ils sont abaissés et remontés automatiquement en fonction de l’ensoleillement, du vent et des intempéries.

 

Stores extérieurs en façade est et sud,
pour protéger la cafétéria des apports solaires.

Volume vitré à l’est du bâtiment.

  • Les vitrages inclinés de l’atrium sont orientés au sud et sont protégés par des stores extérieurs à lamelles. Leur position sur la longueur du bâtiment est modifiée manuellement selon les saisons.

Stores extérieurs à lamelles au-dessus des vitrages
de l’atrium inclinés, orientés au sud.


Équipements

Ventilation

Une ventilation mécanique complémentaire assure :

  1. l’apport en air hygiénique,
  2. une partie du chauffage des bureaux en hiver,
  3. un apport de froid limité pour les journées de forte chaleur.

Le système de ventilation mécanique est divisé en 4 réseaux, chacun desservant le quart du bâtiment sur ses trois niveaux. L’air est préparé dans 4 locaux techniques, situés aux 4 coins du dernier étage. Il est pulsé par des bouches de sol intégrées dans les faux planchers (diamètre d’environ 25 cm), et extrait par 4 grandes bouches dans les parois des locaux techniques (environ 4 m²). Pour limiter la consommation d’énergie destinée au chauffage des bureaux, l’air extrait est récupéré jusqu’à concurrence de 90 %.

 

Bouches de pulsion et grille d’extraction intérieures.

Vue extérieure d’un des locaux de préparation de l’air,
avec sa grille de reprise et d’extraction d’air.

Chauffage

Le chauffage des bureaux est assuré par :

  1. le chauffage de l’air pulsé (batteries à eau dans les groupes de préparation de l’air, et post-chauffe électrique par étage),
  2. des résistances électriques de faible puissance sous les fenêtres,
  3. la dissipation de la chaleur du condenseur de la machine frigorifique dans les radiateurs de l’atrium.

L’atrium (lieu de réunion) et le hall d’entrée sont chauffés par le sol, la cafétéria est chauffée par des radiateurs traditionnels. Les salles de réunions sont chauffées et refroidies par des ventilo-convecteurs.

Remarque : Le chauffage est dimensionné pour un fonctionnement quasi continu, et tient compte des apports internes; Le bâtiment connaît donc un problème de relance en cas de fermeture exceptionnelle du bâtiment pendant un congé prolongé. Par exemple, lors de la semaine de congé à l’occasion du passage à l’an 2000 (fermeture exceptionnelle), les équipements n’ont été stoppés que quelques jours. Le chauffage a été relancé dès le milieu de la semaine de congé.

Refroidissement

Les locaux à fortes charges internes (cuisine de la cafétéria, locaux avec ordinateurs, photocopieuses, etc.) sont refroidis mécaniquement par des unités de traitement d’air une grande partie de l’année.

Les bureaux sont refroidis par ventilation naturelle comme décrit ci-dessus. En complément, pour les quelques journées les plus chaudes de l’année (utilisé jusque maintenant environ 5 jours par an), l’air pulsé dans les locaux peut être refroidit par une batterie à eau.

Préparation de chaleur et de froid

La boucle d’eau chaude peut prendre sa chaleur à trois sources différentes :

  1. récupération de chaleur sur le condenseur de la machine frigorifique,
  2. pompe à chaleur air/eau qui prépare de l’eau à basse température,
  3. chaudière au mazout pour les besoins exceptionnels de pointe.

Exemples.

  1. Lorsqu’il fait chaud, et qu’une ventilation naturelle est organisée, l’eau de refroidissement du condenseur de la machine frigo est utilisée pour chauffer l’eau sanitaire, et est ensuite refroidie dans les radiateurs de l’atrium. Ces radiateurs chauffent l’air devant les fenêtres d’extraction, pour améliorer l’effet de tirage et favoriser la ventilation. Le reste de la chaleur est évacuée dans des refroidisseurs à air.
  2. Quand des demandes de chaleur apparaissent, l’eau chauffée au condenseur sert :
    • au chauffage de locaux comme la cafétéria, la partie inférieure de l’atrium, le hall d’entrée, etc..,
    • au chauffage de l’air pulsé dans les bureaux,
    • au chauffage de la partie haute de l’atrium pour empêcher les coulées de froid.

Lorsque la demande de chaud augmente, la pompe à chaleur air/eau est mise en fonction et produit de l’eau à basse température qui vient en complément de l’eau du condenseur. Enfin, en cas de forte demande, la chaudière peut également fournir de la chaleur.

Equipement techniques extérieurs.

Radiateurs sous les fenêtres d’extraction de l’atrium : ils empêchent les « coulées de froid » en hiver, et favorisent l’effet de tirage quand les fenêtres sont ouvertes.

Encombrement du système

Le système de ventilation mécanique prend peu de place :

  • Il n’y a pas de gainage de reprise d’air grâce à l’atrium.
  • Les gaines de pulsion sont peu encombrantes : 4 gaines verticales aux 4 coins du bâtiment, le gainage horizontal de pulsion est inclus dans le faux plancher (hauteur de 45 cm, et il n’y a pas de gainage d’extraction, celle-ci étant réalisée via l’atrium.

L’installation pour le refroidissement mécanique est moins importante que dans un bâtiment climatisé.

Néanmoins, le 4 ème niveau (le niveau a une surface réduite par rapport au trois premiers niveaux puisqu’il se résume à une coursive) et l’atrium ont un encombrement non négligeable. Mais l’atrium participe également à l’apport de lumière naturelle, à l’aspect architectural global et au fonctionnement du bâtiment.

Le bilan comparatif du point de vue encombrement entre un bâtiment climatisé et ce bâtiment est donc difficile à faire.


Confort et sécurité

Températures

La ventilation naturelle permet de maintenir la température intérieure 3°C en-dessous de la température extérieure. Cela s’est vérifié même durant l’été très chaud de 1995.

Confort acoustique

Les éléments techniques suspendus aux plafonds ont des « ailes » qui sont des absorbants acoustiques. La forme elliptique des creux dans le plafond focalise les ondes sonores vers ces absorbants.

De plus, dans les zones où apparaît une source de bruit importante, une onde est diffusée pour noyer ce bruit, sorte de « bruit de fond parasite » non perceptible. Les diffuseurs, comme les autres éléments techniques de plafond, sont intégrés dans les éléments complexes suspendus.

Sécurité incendie

Le concept d’un seul et même espace pour la quasi-totalité du bâtiment est en principe contraire à la réglementation incendie en vigueur dans notre pays. En Belgique, chaque étage doit être séparé par des cloisons Rf 1 ou 2 heures en fonction des cas. Cependant, la nouvelle législation belge (AR de 97) prévoit la possibilité de contourner cette exigence si des moyens adéquats sont prévus pour assurer le désenfumage. Appliquer le concept de ce bâtiment chez nous demande donc une étude approfondie de la sécurité incendie, étude qui devra être approuvée par les pompiers. Il faudra, par exemple, être attentif à ne pas utiliser les balcons comme chemin d’évacuation, peut-être prévoir des écrans de fumée automatiques entre les étages, étudier correctement le désenfumage (amenée d’air de compensation, fermetures automatiques des amenées d’air naturelles, …), … En gros, il faudra convaincre les pompiers !

Dans l’exemple présenté ici, les équipements de sécurité incendie sont les suivants :

  • nombreux escaliers de secours extérieurs (trois par façade),
  • détecteurs de fumée,
  • système d’alarme incendie relié aux centrales de préparation d’air et aux commandes des fenêtres,
  • sprinklers.

En cas d’incendie, les fenêtres automatiques au niveau des bureaux sont fermées, le système de ventilation est coupé, mais les fenêtres hautes de l’atrium sont ouvertes pour évacuer les fumées.

 

Escaliers de secours sur la façade sud .


Coût et consommation

Coût global de 900 £/m² (hors mobilier de bureau) (environ 1 404 €/m²), soit parmi les plus bas pour un tel type de bâtiment de bureaux.

Coûts relatifs

£/m²

%

Fondations

19.5

2.2

Structure

383.9

42.6

Finitions internes

74.4

8.3

Mobilier

10.4

1.1

Équipements techniques

348.7

38.7

Divers

63.7

7.1

TOTAL

900.6

100

La consommation du bâtiment peut être comparée avec celle du bâtiment voisin, équipé d’air conditionné. Il est nouveau, de même type d’architecture et de même type d’occupation. La consommation annuelle au m² du bâtiment ventilé naturellement est inférieure de 20 % à celle du bâtiment conditionné.

Remarque : ce nouveau bâtiment, occupé pour le moment par Powergen, risque d’être loué ou revendu à plus ou moins long terme. C’est pour cette raison que le choix a été fait de le construire de façon plus traditionnelle, et de l’équiper d’air conditionné.

Nouveau bâtiment de Powergen.


Commentaires

Il semble que le choix de conception d’un bâtiment « basse énergie » résulte plus d’un souci d’image de marque de la société que d’une préoccupation énergétique.

Vont notamment à l’encontre de cette préoccupation énergétique

  • L’éclairage la nuit des arbres de l’atrium.
  • Le pompage de l’eau des étangs extérieurs pour maintenir les chutes entre les mares construites à différents niveaux.

 

Malgré tout, le bâtiment fonctionne bien : la consommation est inférieure à celle d’un bâtiment conditionné, les occupants semblent satisfaits, et l’aspect architectural n’a pas été négligé.

Il faut noter deux éléments importants qui ont permis la réalisation d’un tel projet, et qui font qu’il ne peut être généralisé partout :

  • L’organisation des bureaux est essentiellement paysagère, cette organisation ne peut convenir à tous les bâtiments.
  • Le site suburbain permet l’ouverture des fenêtres sans gêne pour les utilisateurs (bruit, pollution,…).

Remarque : si l’implantation sur un site à l’extérieur de la ville permet une ventilation naturelle de jour, elle entraîne une consommation en déplacements. Cet aspect devrait entrer dans une réflexion plus globale.


Conclusion

Avec des aménagements pour respecter la législation incendie en Belgique (ou des négociations…), la ventilation naturelle de bureaux paysagers dans des sites suburbains est une bonne solution pour diminuer la consommation d’énergie d’un bâtiment.

  • Architectes : Bennetts Associates
  • Ingénieurs stabilité : Curtins Consulting Engineers
  • Ingénieurs techniques spéciales : Ernest Griffith & Son Consulting Engineers

Le Queen’s Building est un bâtiment de la faculté d’ingénieur de l’université de Montfort regroupant auditoires, salles de cours, bureaux, laboratoires et ateliers. Les gestionnaires du bâtiment l’ont voulu faible consommateur d’énergie. Il a donc été conçu pour :

  1. limiter la consommation due à l‘éclairage artificiel :L’enveloppe du bâtiment est pensée pour apporter un maximum d’éclairage naturel à tous les locaux, soit directement par des fenêtres en façade et en toiture, soit indirectement par des fenêtres intérieures donnant sur l’atrium central.Une étude complète de l’éclairage artificiel a été réalisée afin de limiter la puissance installée au minimum nécessaire.
  2. Eliminer les consommations de refroidissement et de ventilation.Les apports calorifiques d’été sont limités par la protection de certaines ouvertures extérieures.Une ventilation naturelle est organisée dans tout le bâtiment : l’air est introduit par les fenêtres et extrait, selon les locaux, par des fenêtres (en façade ou en toiture), ou par des cheminées. Dans un souci de simplicité, les équipements accessibles sont commandés manuellement. La ventilation est exclusivement diurne pour l’ensemble des locaux à l’exception des auditoires dans lesquels une ventilation nocturne est également organisée. L’inertie thermique du bâtiment combinée à cette ventilation permet de réduire la température de pointe en été.

Ces moyens ont réellement permis de limiter la consommation annuelle moyenne à 145 kWh/m², ce qui est un très bon résultat pour ce type de bâtiment en Angleterre.
Pour découvrir le fonctionnement du bâtiment, consultez les détails du projet.

Des ascenseurs équipés d’un système de gestion de trafic

Des ascenseurs équipés d'un système de gestion de trafic


Introduction

Le Centre Hospitalier Universitaire André Vésale à Montigny-le-Tilleul compte un parc de 22 ascenseurs visiteurs et monte malades. En 1999, après 20 années de loyaux services, il était temps d’entreprendre une grande rénovation de la machinerie et des cabines. Lors de cette modernisation, l’équipe du service technique s’est penchée sur l’intérêt du placement de variateurs de fréquence associés à un système de gestion du trafic.


Quelques chiffres pour se donner des idées

On dénombre quelques 74 000 ascenseurs en Belgique dont 61% ont plus de 20 ans et 17% plus de 45 ans. Bref, il existe chez nous un grand potentiel en terme de rénovation et d’amélioration des équipements voire de renouvellement complet du système.

Au CHU André Vésale, on comptabilise :

  • 320 000 à 650 000 démarrages par an et par ascenseurs pour les ascenseurs visiteurs;
  • 268 000 à 385 000 démarrages par an et par ascenseurs pour les ascenseurs monte-malades. Soit un trafic important mais certes normal pour une institution hospitalière.


Les objectifs fixés lors de la rénovation

Prolonger la durée de vie de l’ensemble des ascenseurs via une modernisation des cabines et un remplacement des moteurs, améliorer le confort d’utilisation et les délais d’attente, réduire les coûts d’entretien via des équipements plus performants, mettre les installations en règle avec la dernière Directive Européenne et accessoirement diminuer la consommation d’énergie globale du poste ascenseurs. Tous ces objectifs furent atteints en final.


La variation de fréquence sur les moteurs

Aujourd’hui, en matière d’ascenseurs, toutes les nouvelles installations sont dorénavant équipées d’une variation de fréquence sur les moteurs entraînant les cabines. Les intérêts de la régulation en fréquence par rapport à la régulation en tension sont nombreux : précision d’arrêt au niveau des seuils d’étage, fonctionnement plus souple, réduction de l’usure mécanique, diminution des pointes de démarrage ainsi que de la consommation électrique globale.


La gestion de trafic

De plus en plus fréquemment, on verra implanter un système de gestion de trafic pour les ascenseurs fortement sollicités. L’intérêt de cette gestion est de réduire le temps d’attente des ascenseurs aux étages et de réduire la durée du parcours (en général, il y a de fortes chances qu’en se rendant du 1er au 6ème, l’ascenseur opère une halte à chaque étage).

Petite mise en situation pour expliquer le principe : sur un palier où traditionnellement un visiteur appuie habituellement sur les 3 boutons d’appel des 3 ascenseurs dans le but d’en obtenir un rapidement, il est demandé au visiteur de composer le numéro de l’étage auquel il souhaite se rendre. Le système de gestion, après évaluation, indique alors sous forme d’un affichage (A, B ou C) lequel des 3 ascenseurs le conduira dans les plus brefs délais à sa destination même si ce n’est pas le premier qui ouvrira ses portes au niveau du palier.


Énergie

Au CHU André Vésale, des mesures ont été effectuées sur 24h pour une journée type avant et après la rénovation afin de chiffrer l’intérêt en termes d’économie d’énergie de l’association des variateurs de fréquence au système de gestion de trafic.

  • Avant : pointes de démarrage de 140 ampères
  • Après : pointes de démarrage de 60 ampères
  • Avant : consommation journalière de 122,73 kWh
  • Après : consommation journalière de 61,15 kWh

On constate une économie d’énergie de l’ordre de 50 % sur le poste ascenseur suite aux travaux de modernisation effectués. Les variateurs de fréquence diminuent le niveau des pointes de démarrage par rapport à l’ancien système et le système de gestion de trafic permet une réduction du nombre de démarrage et une optimisation des déplacements des cabines.


En détail

Économique

Investissements consentis pour la rénovation des ascenseurs et la mise en place du système de gestion de trafic : 530 000 € TVAC.

Informations complémentaires

Dominique TESSE
Directeur Technique
ISPPC
Tél : 071 924 460
Email : dominique.tesse@chu-charleroi.be

Cette étude de cas provient des Sucess Stories réalisées par l’ICEDD, Institut de conseils et d’études en développement durable en 2004.

Circulateurs [ECS]

Circulateurs [ECS]


Les pompes in-line et les circulateurs à rotor noyé

Dans les installations de chauffage, on peut retrouver 2 types de circulateurs :

  • Les circulateurs à rotor noyé se retrouvent dans toutes les installations. Ils sont montés directement sur la tuyauterie. Le moteur est, en partie, directement refroidi par l’eau de l’installation. Ils sont sans entretien et de coût modeste. Leur rendement est cependant faible mais une partie de leur perte est récupérée par l’eau de chauffage.
  • Les pompes in-line sont aussi directement montées sur la tuyauterie mais le moteur n’est plus refroidi par l’eau du réseau de chauffage. Elles sont pourvues d’une garniture mécanique qui sépare la pompe du moteur. Le refroidissement est assuré par un ventilateur. Les pompes in-line se retrouvent principalement dans les grandes installations de chauffage ou dans les installations de refroidissement pour lesquelles la perte du moteur devient une charge calorifique supplémentaire à compenser.

Circulateur à rotor noyé et pompe in-line (les deux types de circulateur existent en version électronique).


Courbes caractéristiques

Les performances des circulateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants. Attention, les données ainsi reprises sont le résultat de mesures qui, faute d’une normalisation en la matière, peuvent différer d’un fabricant à un autre.

On retrouve, dans les courbes caractéristiques, la hauteur manométrique totale (en mCE ou en bar) que peut fournir le circulateur en fonction du débit, pour chaque vitesse possible du circulateur.

On peut retrouver en parallèle, la puissance électrique absorbée par le moteur, soit sous forme de graphe pour chacun des points de fonctionnement possibles, soit sous forme de tableaux, pour chaque vitesse. Dans ce dernier cas, il est difficile de savoir à quel point de fonctionnement correspond cette puissance (est-ce ou non pour la zone de rendement maximal ?). Il n’y a pas de norme et chaque fabricant peut adopter une règle différente.

Courbes caractéristiques d’un circulateur électronique. On y repère les courbes de régulation (ici, diminution linéaire de la hauteur manométrique avec le débit) et pour chaque point de fonctionnement, on peut établir la puissance électrique absorbée. On y repère les courbes caractéristiques correspondant au régime de ralenti (de nuit). Rem : P1 correspond à la puissance électrique absorbée par le moteur, P2, à la puissance transmise par le moteur à la roue et P3, à la puissance transmise à l’eau.

Courbes caractéristiques d’un circulateur standard à 3 vitesses.

Vitesse P1 [W] In [A]
3 960 1,8
2 590 1,05
1 250 0,47

Puissance et courant nominal absorbés par le circulateur en fonction de sa vitesse.


Les circulateurs standards

On entend par « circulateur standard », un circulateur à rotor noyé dont la vitesse de rotation est réglée manuellement et reste fixe quelles que soient les conditions d’exploitation de l’installation.

On retrouve des circulateurs à 1 ou plusieurs vitesses (3 ou 4), équipés d’un moteur monophasé ou triphasé.

Circulateur à trois vitesses.

Courbes caractéristiques d’un circulateur à 3 vitesses.

Certains circulateurs (c’est valable également pour les circulateurs électroniques) peuvent être équipés d’une coquille isolante sur mesure qui diminue ses déperditions calorifiques.

On peut également y joindre un « display » permanent qui permet de visualiser en temps réel les caractéristiques électriques de fonctionnement telles que la puissance absorbée, l’ampérage, la consommation et les heures de fonctionnement, …

Circulateur équipé d’un module d’affichage des caractéristiques de fonctionnement.


Les circulateurs électroniques ou à vitesse variable

Les circulateurs électroniques ou « à vitesse variable » sont des circulateurs dont la vitesse peut être régulée en continu en fonction de la variation de pression régnant dans le circuit de distribution.

Circulateur avec convertisseur de fréquence intégré.

La régulation de vitesse est intégrée directement dans le circulateur. Elle se fait par cascade d’impulsions pour les petits circulateurs ou au moyen d’un convertisseur de fréquence (technologie semblable à celle utilisée en ventilation) pour les circulateurs de plus de 200 W.

Mode de régulation

Lorsque sous l’effet d’apports de chaleur gratuits, les vannes thermostatiques (où les vannes 2 voies de zone) se ferment, la pression dans le réseau augmente avec une influence néfaste sur le fonctionnement des vannes restées ouvertes.

Les circulateurs électroniques vont automatiquement adapter leur vitesse en fonction de la fermeture des vannes de régulation (donc en fonction des besoins thermiques). Deux types de régulation sont possibles dans ce type d’équipement :

  • soit la vitesse de rotation du circulateur est adaptée automatiquement pour maintenir la pression constante dans le circuit, quel que soit le degré d’ouverture des vannes des régulations,
  • soit la vitesse de rotation du circulateur est adaptée automatiquement en fonction de l’ouverture des vannes de régulation, en diminuant de façon linéaire la pression du circuit. Cette deuxième option est énergétiquement plus intéressante. En effet, si des vannes thermostatiques se ferment, le débit circulant dans le réseau diminue, entraînant une baisse des pertes de charge dans les tronçons communs. Le circulateur peut donc diminuer sa hauteur manométrique,
  • soit la vitesse est commandée par la température extérieure ou la température de l’eau. Dans les installations à débit constant (sans vanne thermostatique), la régulation du circulateur diminue linéairement la pression du circulateur quand la température de l’eau véhiculée diminue. Ce type de régulation peut être utilisée pour accélérer la coupure et la relance de l’installation (notamment pour un chauffage par le sol).

Utilisation d’un circulateur à vitesse variable : le circulateur diminue sa vitesse automatiquement pour assurer le maintien d’une pression différentielle constante en un point choisi du réseau. La solution de la prise de pression entre le départ et le retour en un point du circuit n’est pas standard pour les circulateurs à rotor noyé. La plupart de ceux-ci ne sont, en fait, pas équipés de prises de pression. Le régulateur interne à l’appareil travaille en fonction d’une mesure du courant absorbé, image de sa hauteur manométrique.


Evolution du débit du circulateur lorsque les vannes thermostatiques se ferment : le point de fonctionnement passe de B à A. Si on diminue la vitesse du circulateur en maintenant une pression constante dans le réseau : le point de fonctionnement passe de B à D. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Evolution du débit du circulateur, si on diminue la vitesse du circulateur en diminuant linéairement la pression dans le réseau : le point de fonctionnement passe de B à E. La consommation électrique du circulateur étant proportionnelle à la surface (hauteur manométrique x débit) diminue proportionnellement au débit.

Théories

Pour en savoir plus sur la régulation de vitesse des circulateurs en fonction de la fermeture des vannes thermostatiques.

Régime jour/nuit

Certains circulateurs électroniques permettent également la programmation d’un régime jour et d’un régime nuit. Cette dernier correspond à une vitesse de rotation fortement réduite.

Pour les circulateurs électroniques traditionnels, la commande du régime de nuit se fait par la régulation centrale de l’installation. Pour les nouveaux circulateurs à aimant permament, la régulation est intégrée au circulateur. Celui-ci diminue sa vitesse s’il mesure, en son sein, une baisse de température d’eau de 10 .. 15°C pendant 2 h. Il revient au régime normal si la température de l’eau augmente d’une dizaine de degré.

Programmation et visualisation des paramètres

Les circulateurs électroniques peuvent être programmés par télécommande infrarouge : mode et paramètre de régulation.

Photo de télécommande infrarouge pour circulateurs électroniques.

Ces télécommandes permettent en outre un contrôle des paramètres de fonctionnement des pompes : hauteur monométrique, débit, vitesse de rotation, température de l’eau véhiculée, puissance absorbée, … .

Coût

Le coût d’un circulateur électronique dépend de la puissance installée : pour les circulateurs de moins de 200 W, la différence de prix, par rapport à un circulateur traditionnel est faible (de l’ordre de 40 %). dès 250 W, la variation de vitesse implique plus que le doublement du prix.

Prix des circulateurs de la marque « x » (à titre indicatif).


Les circulateurs à moteur synchrone ou à aimant permanent

Les circulateurs traditionnels sont équipés d’un moteur électrique asynchrone ayant un rendement souvent médiocre.

Il existe maintenant sur le marché des circulateurs à rotor noyé équipé d’un moteur synchrone à commande électronique.

   

Roue et moteur d’un circulateur à moteur synchrone.

Nous ne disposons actuellement pas d’information neutre concernant les performances énergétiques de ce type de matériel. De l’avis des différents fabricants, ce type de moteur couvrira dans quelques années tout le marché.

Exemple.

Pour un point de fonctionnement de 10 m³/h et 6 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque x, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

470 W

Circulateur électronique à aimant permanent

380 W

Soit une économie de 20 %.

Pour un point de fonctionnement de 15 m³/h et 5 mCE, voici la puissance électrique absorbée, mentionnée par les catalogues de la marque y, pour deux circulateurs de la même taille :

Circulateur électronique standard
(ancienne génération)

570 W

Circulateur électronique à aimant permanent

420 W

Soit une économie de 26 %. Notons que dans ce deuxième exemple, en plus du moteur, la configuration hydraulique de la roue du circulateur a également été optimalisée pour augmenter le rendement.

Chaudières à condensation [ECS]

Chaudières à condensation [ECS]

Principe de la chaudière à condensation : le retour de circuit de chauffage à basse température amène les fumées de combustion en dessous du point de rosée au sein de l’échangeur, une partie plus ou moins importante de l’eau contenue dans les fumées condense.


Principe de la condensation dans les chaudières

Pouvoir calorifique inférieur (PCI) et supérieur (PCS)

Les produits normaux d’une bonne combustion sont essentiellement du CO2 et de l’H2O. Juste après la réaction de combustion, cette eau issue du combustible se trouve à l’état gazeux dans les fumées. Notons que l’eau à l’état gazeux n’est pas visible, elle est transparente. D’ailleurs, l’air ambiant en contient toujours une certaine quantité.

Imaginons que nous puissions réaliser une combustion parfaite d’un combustible, libérant ainsi le maximum d’énergie sous forme thermique (énergie qui était initialement contenue sous forme chimique dans le combustible).  L’énergie libérée est transmise, d’une part, à la chaudière et, d’autre part, est contenue dans les fumées à température élevée. Si on peut aussi récupérer l’énergie contenue dans ces fumées en abaissant leur température jusqu’à la température ambiante, on dispose théoriquement de toute l’énergie que le combustible contenait initialement. Il s’agit du pouvoir calorifique. Néanmoins, comme évoqué ci-dessus, les fumées contiennent de l’H2O à l’état gazeux. En abaissant la température des fumées, l’eau peut passer à l’état liquide cédant ainsi une énergie, la chaleur de condensation ou énergie latente. Si on est capable de récupérer cette énergie, on parlera du pouvoir calorifique supérieur (PCS). Par contre, si, dans la phase de récupération de l’énergie des fumées, on ne sait pas la récupérer, alors on parlera de pouvoir calorifique inférieur (PCI).

Le pouvoir calorifique supérieur est par définition supérieur au pouvoir calorifique inférieur (PCS > PCI). En effet, on a récupéré la chaleur latente de la vapeur d’eau contenue dans les fumées. Voici les valeurs de pouvoir calorifique pour les combustibles liés à la technologie des chaudières à condensation :

  • Pour le gaz naturel (type L) : PCS = 9,79 kWh/m³N et PCI = 8.83 kWh/m³N, soit PCS = PCI  + 10.8 %
  • Pour le gaz naturel (type H) : PCS = 10.94 kWh/m³N et PCI = 9.88 kWh/m3N, soit PCS = PCI + 10.7 %
  • Pour le mazout (standard) : PCS = 12.67 kWh/kg et PCI = 11.88 kWh/kg, soit PCS =  PCI + 6.6 %

Dans le cas du gaz naturel ?

On voit que l’on peut récupérer jusqu’à 10 % de rendement supplémentaire si on peut condenser la vapeur d’eau des fumées et récupérer parfaitement cette chaleur. On voit donc que le potentiel d’une telle technique pour le gaz naturel est substantiel. À l’heure actuelle, on trouve des chaudières condensation gaz pour toutes les gammes de puissance.

Dans le cas du fuel ?

La technique de la condensation est principalement utilisée dans les chaudières gaz. Il existe également des chaudières fuel à condensation, mais leur utilisation est actuellement moins répandue, pour trois raisons :

  • Teneur en eau plus faible : La teneur en vapeur d’eau des fumées issues du fuel est plus faible que pour le gaz naturel. Il en résulte une différence plus faible entre le PCS et le PCI (pour le fuel : PCS = PCI + 6 %). La quantité de chaleur maximum récupérable est donc plus faible, ce qui rend moins facile la rentabilité du surcoût de la technologie « condensation ».
  • Point de rosée plus bas : Pour que l’eau à l’état gazeux dans les fumées se condense totalement, il faut que la température des fumées soit bien inférieure à la température dite de « rosée » (c’est-à-dire la température à partir de laquelle la vapeur d’eau des fumées se met à condenser, à ne pas confondre avec la température du « rosé » qui, lui, se sert bien frais). Si la différence n’est pas suffisante, autrement dit, la température des fumées pas assez basse, seule une fraction de l’eau condense. On perd donc en efficacité. Parallèlement, on peut difficilement descendre les fumées avec un échangeur en dessous d’un certain seuil. En effet, les chaudières ne possèdent pas des échangeurs de taille infinie. Typiquement, on peut descendre jusqu’à 30 °C dans de bonnes conditions. Le problème est que, dans le cas du mazout, la température à partir de laquelle les fumées condensent (point de rosée) est plus basse (d’une dizaine de °C) que dans le cas du gaz. Il faut donc descendre les fumées à une température relativement plus faible pour pouvoir bénéficier pleinement de l’avantage de la condensation. Or, la température de retour du circuit de chauffage qui assure le refroidissement des fumées dépend, d’une part, du dimensionnement, mais aussi des conditions météorologiques (la température de retour est plus élevée si la température extérieure est plus faible, et donc le besoin de chauffage grand). Dans ces conditions, il est possible que l’on ait moins de périodes où la chaudière condense avec une chaudière mazout qu’avec une chaudière gaz.

Température de condensation des fumées (point de rosée) de combustion du gaz et du fuel, en fonction de leur teneur en CO2. : pour les coefficients d’excès d’air typiques pour le gaz et le fioul, c’est-à-dire 1.2, la concentration en CO2 est de, respectivement, 10 et 13 % donnant une température de rosée d’approximativement 55 °C et 47.5 °C.

  • Présence de Soufre et acidité : Le fuel contient du soufre et génère des condensats plus acides (présence d’H2SO4), corrosifs pour la cheminée et l’échangeur. De plus, lorsque la température d’eau de retour du circuit de chauffage se situe à la limite permettant la condensation des fumées, la quantité d’eau condensée est faible, mais sa concentration en acide sulfurique est très élevée, ce qui est fort dommageable pour l’échangeur. Cela explique pourquoi les fabricants ont mis plus de temps pour le mazout pour développer des chaudières à condensation résistantes aux condensats.

Notons cependant que les gros fabricants de chaudières ont quasiment tous développé des chaudières à condensation fonctionnant au fuel. Néanmoins, ils ne proposent pas toujours ces produits dans toutes les gammes de puissance. L’acier inoxydable de l’échangeur a été étudié pour résister aux condensats acides.
Ainsi, l’existence d’un fuel à très faible teneur en souffre (« Gasoil Extra » avec une teneur en souffre inférieure à 50 ppm) officialisée par un arrêté royal publié le 23 octobre 02, peut ouvrir de nouvelles perspectives aux chaudières à condensation fonctionnant au fuel. Suivant la technologie de la chaudière à condensation au mazout, on est obligé de fonctionner avec un mazout Extra à faible teneur en Soufre ou, si la chaudière le permet, on peut fonctionner avec un mazout standard.

Dans le cas du bois ?

Certains fabricants de chaudières au bois proposent des chaudières à condensation. À l’heure actuelle, cela reste assez rare, mais cela existe. Manquant de retour et de références à ce sujet, nous ne donnerons plus d’information.


Intérêt énergétique d’une chaudière à condensation

Que rapporte une chaudière à condensation par rapport à une chaudière traditionnelle ?

Le gain énergétique réalisé grâce à une chaudière à condensation se situe à deux niveaux :

  1. Gain en chaleur latente : La condensation de la vapeur d’eau des fumées libère de l’énergie. Pour une chaudière gaz, ce gain maximum est de 11 % du PCI tandis qu’il s’élève à 6 % pour le mazout.
  1. Gain en chaleur sensible : La diminution de la température des fumées récupérée au travers de la surface de l’échangeur (de .. 150.. °C à .. 45 °C ..).

Pour comparer le rendement des chaudières à condensation et celui des chaudières classiques, il faut comparer leur rendement global annuel ou rendement saisonnier, qui prend en compte toutes les pertes de la chaudière (par les fumées, par rayonnement et d’entretien), en fonction de la charge réelle de la chaudière durant toute la saison de chauffe.

Ce gain réel obtenu par une chaudière à condensation est difficile à estimer d’une manière générale, car il dépend de la température d’eau qui irrigue la chaudière et qui est évidemment variable (elle dépend de la courbe de chauffe choisie et donc du dimensionnement des émetteurs).

Exemple pour le gaz naturel : 

 

Exemple pour le mazout :

Représentation du rendement utile (sur PCI et sur PCS) d’une chaudière gaz traditionnelle et d’une chaudière à condensation.

Par exemple pour le gaz naturel, avec une température d’eau de 40 °C, on obtient des produits de combustion d’environ 45 °C, ce qui représente des pertes de 2 % en chaleur sensible et des pertes de 5 % en chaleur latente (on gagne sur les 2 tableaux). Le rendement sur PCI est donc de :

((100 – 2) + (11 – 5)) / 100 = 104 %
(ce qui correspond à 93 % sur PCS)

Par exemple pour le mazout, des produits de combustion donnent des pertes de 2 % en chaleur sensible et des pertes de 2 % en chaleur latente. Le rendement sur PCI est donc de :

((100 – 2) + (6 – 2)) / 100 = 102 %

(ce qui correspond à 96 % sur PCS)

Un rendement supérieur à 100 % ?

Ceci est scientifiquement impossible.

Lorsque l’on a commencé à s’intéresser au rendement des chaudières, la technologie de la condensation n’existait pas. On comparait donc l’énergie produite par une chaudière à l’énergie maximale récupérable pour l’époque c’est-à-dire à l’énergie sensible contenue dans le combustible ou PCI (ou HI) du combustible.

De nos jours, ce mode de calcul a été maintenu même si, dans les chaudières à condensation, on récupère aussi une partie de la chaleur latente. On a alors l’impression de produire plus d’énergie que le combustible n’en contient. C’est évidemment faux.

Si l’on voulait être scientifiquement rigoureux, il faudrait comparer l’énergie produite par une chaudière à condensation au PCS (ou Hs) du combustible. Si on commet l’erreur de comparer avec les valeurs PCI d’autres chaudières, on aurait l’impression qu’une chaudière à condensation a un plus mauvais rendement qu’une chaudière traditionnelle, ce qui est aussi erroné.

Par exemple, un rendement utile de chaudière au gaz à condensation de 104 % sur PCI, correspond à un rendement de 93 % sur PCS.

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Le tableau ci-dessous indique pour les différents rendements exprimés en fonction du PCS, l’équivalence pour le fioul ou le gaz exprimée en fonction du PCI

Rendement PCS Rendement PCI
 Fioul Gaz naturel

79,0
80,0
81,0
82,0
83,0
84,0
85,0
86,0
87,0
88,0
89,0
90,0
91,0
92,0
93,0
94,0
95,0
96,0
97,0
98,0
99,0
100,0

84,4
85,5
86,6
87,6
88,7
89,8
90,8
91,9
93,0
94,0
95,1
96,2
97,2
98,3
99,4
100,4
101,5
102,6
103,7
104,7
105,8
106,9

87,6
88,7
89,8
90,9
92,0
93,1
94,2
95,3
96,4
97,6
98,7
99,8
100,9
102,0
103,1
104,2
105,3
106,4
107,5
108,6
109,8
110,9

Besoin d’une température de retour la plus basse possible et émetteurs de chaleur

Pour obtenir les meilleurs rendements, il faut que la température des fumées soit la plus basse possible. Du coup, il faut une température de retour du circuit de distribution de chauffage la plus basse. Cela s’obtient par une bonne conception du circuit hydraulique, essentiellement, en travaillant avec une température de départ plus basse et des émetteurs de chaleur qui travaillent à basse température. On pense naturellement au chauffage par le sol (basé sur le rayonnement). Néanmoins, les radiateurs ou convecteurs basse température peuvent aussi convenir pour atteindre cet objectif.

Rendement théorique utile des chaudières gaz et mazout à condensation en fonction de la température à laquelle on a pu descendre les fumées dans la chaudière : le coefficient d’excès d’air est pris égal à 1.2. On voit que le point d’inflexion où la chaudière au gaz commence à condenser se situe autour de 55 °C alors que ce point se déplace à 47.5 °C pour le mazout.

Quelles sont les conclusions de ce dernier graphe :

  • On voit que la température à laquelle débute la condensation (point de rosée) commence plus tôt pour le gaz (55 °C) que pour le mazout (47.5 °C). Physiquement, c’est dû à la composition des fumées.
  • On remarque que les gains de rendement potentiels grâce à la condensation sont plus faibles avec le mazout que le gaz. Physiquement, c’est dû à une moindre présence d’hydrogène dans le mazout donnant, après réaction, moins d’eau dans les fumées.
  • On remarque qu’il faut être bien en dessous de la température de rosée pour atteindre les meilleurs rendements. En effet, il ne suffit pas d’être à quelques degrés inférieurs à ce point critique. Il faut de l’ordre d’une dizaine de degrés pour assurer une augmentation significative. Encore une fois, la température des fumées dépendra des conditions climatiques et du dimensionnement de l’installation de chauffage.

Intérêt d’une chaudière à condensation pour améliorer une ancienne installation de chauffage ? Oui si régulation adaptée !

Il y a-t-il un intérêt de placer une chaudière à condensation sur un réseau de radiateurs dimensionnés en régime 90°/70 °C ? En effet, si la température de retour est de 70 °C, alors la chaudière ne condensera pas !
Pourtant, il y a bien un intérêt à placer une chaudière à condensation :

  • D’une part, la température de retour ne sera de 70 °C que pendant les périodes plus froides de l’année. En effet, le régime de radiateur 90°/70 °C correspond aux températures extérieures les plus basses, plus particulièrement à la température de dimensionnement de l’installation (en d’autres termes, la température de base qui varie suivant les régions, mais tourne autour de – 10 °C). Si la température de départ est adaptée à la température extérieure (régulation climatique ou glissante), la température de retour sera plus faible pendant les périodes moins froides de l’année pouvant finalement donner lieu à la condensation dans la chaudière.

   

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 90°/70° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~ – 10 °C et ~ – 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière. Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent sur une grande partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la troisième figure que la chaudière gaz à condensation condense 75 % du temps et la chaudière mazout approximativement 40 %.

  • D’autre part, même en l’absence de condensation, les rendements utiles minimum obtenus (95 %) sont supérieurs aux valeurs que l’on rencontre avec les chaudières traditionnelles haut rendement (92 … 94 %). En effet, les chaudières à condensation sont équipées d’échangeurs de chaleur avec une surface plus grande que les chaudières traditionnelles. À température de retour égale, la chaudière à condensation amènera les fumées à un niveau de température plus bas.

Sur base des arguments suivants, le potentiel d’une chaudière à condensation sur une ancienne installation dimensionnée en régime 90°/70° est justifié pour le gaz naturel. Pour les installations au mazout, l’amélioration induite par la condensation est bel et bien présente, mais moins importante : ceci est dû à la température du point de rosée qui est plus basse pour le mazout.

On voit au moyen des figures suivantes que la situation est encore plus favorable à la condensation en présence d’émetteurs dimensionnés en régime 70 °C/50 °C. Dans le cas de la chaudière au gaz, on peut potentiellement avoir une condensation quasi permanente de la chaudière. Pour le mazout, la condensation est aussi majoritairement présente. Par conséquent, pour s’assurer de l’efficacité des installations équipées de chaudières à condensation, il peut être intéressant de redimensionner l’installation en régime 70°/50 °C. C’est généralement possible, dans la mesure où, d’une part, les émetteurs des anciennes installations de chauffage sont souvent largement surdimensionnés en régime 90°/70 °C, et, d’autre part, que la rénovation d’une installation de chauffage va souvent de pair avec l’amélioration des performances de l’enveloppe (rénovation), ce qui réduit significativement la puissance nécessaire des émetteurs.

    

Sur la première figure, il s’agit de l’évolution de la température glissante de retour en fonction de la température extérieure pour une installation conçue en régime 70°/50° (à une température de dimensionnement de – 10 °C) : on voit que le point de rosée pour le gaz et le mazout est obtenu à des températures extérieures supérieures à  ~-10 °C et ~- 4 °C, respectivement.  Dans notre calcul, on a pris une température de retour limite à partir de laquelle commence la condensation de 5 °C inférieure à la température de rosée pour tenir compte de l’imperfection de l’échangeur de la chaudière . Sur base des conditions météorologiques rencontrées en moyenne (année standard), on voit sur la seconde figure que les chaudières gaz et mazout condensent la majeure partie de la période de chauffe. En termes d’énergie, en faisant l’hypothèse que les besoins du bâtiment sont proportionnels à la température extérieure, on voit avec la dernière figure que la chaudière gaz à condensation condense 100 % du temps et la chaudière mazout approximativement 93 %.

L’intérêt des chaudières à condensation démontré, il faut néanmoins savoir que le circuit hydraulique de distribution de chaleur devra être éventuellement modifié pour assurer une température de retour la plus faible à la chaudière.

Influence de l’excès d’air

L’excès d’air a une influence sur les performances d’une chaudière à condensation. En effet, plus l’excès d’air est important et plus la température de rosée diminue. Comme la température de retour du réseau de distribution de chaleur dépend de sa conception, mais aussi des conditions météorologiques, cette température de rosée devrait être la plus haute possible pour être certain que la chaudière condense efficacement le plus souvent. Autrement, le risque est d’avoir une température de fumée trop élevée et donc de l’eau qui reste à l’état de vapeur dans ces fumées. En conclusion, il faut que l’excès d’air soit le plus faible possible pour avoir une température de rosée la plus haute et de meilleures conditions de condensation.

Rendement utile d’une chaudière gaz de type L en fonction de la température des fumées (fonction de la température de l’eau) et de l’excès d’air (λ = 1,3 équivaut à un excès d’air de 30 %).

Remarque : ce schéma montre que les anciennes chaudières atmosphériques à condensation avaient de moins bonnes performances puisqu’elles fonctionnaient avec un excès d’air supérieur à 50 % (λ = 1,5).

Gains sur le rendement saisonnier

Le gain obtenu sur le rendement saisonnier et donc sur la facture énergétique en choisissant une chaudière à condensation plutôt qu’une chaudière traditionnelle haut rendement peut donc varier entre : 1 et 14 %.

Si on compile les informations de l’ARGB pour le gaz et le résultat des programmes de simulation de certains fabricants, on peut dire que 6 .. 9 % d’économie sur la consommation annuelle est un ordre de grandeur réaliste pouvant être utilisé pour guider le choix de la nouvelle chaudière (voir peut-être un peu plus pour les meilleures installations).


Constitution d’une chaudière à condensation

Type d’échangeur

Les chaudières à condensation actuelles sont composées de deux ou trois échangeurs en série. Ces échangeurs sont soit séparés sous une même jaquette, soit intégrés dans un ensemble monobloc.

Le dernier échangeur sur le circuit des fumées (ou la dernière partie de l’échangeur monobloc) est appelé « condenseur ». C’est dans ce dernier que les fumées doivent céder leur chaleur latente. C’est donc également au niveau de ce dernier que se raccorde le retour d’eau à température la plus basse possible. Cet échangeur est conçu en un matériau supportant la condensation sans risque de corrosion (acier inox, fonte d’aluminium).

Il est également possible d’utiliser un condenseur séparé, rajouté à une chaudière traditionnelle, de manière à en augmenter son rendement. Cela est en principe possible pour toute chaudière gaz et fioul existante. C’est la seule solution si on veut exploiter la condensation avec des chaudières de plus d’un MW.

    

Échangeurs-condenseurs s’adaptant à une chaudière traditionnelle.

Pour obtenir le meilleur rendement de l’échangeur-condenseur, il est important que l’évacuation des fumées se fasse dans le même sens que l’écoulement des condensats, c’est-à-dire vers le bas. Dans le cas contraire, les fumées s’élevant risqueraient de revaporiser les condensats, ce qui ferait perdre l’avantage de la condensation.

Évacuation des fumées dans une chaudière à condensation, dans le sens de l’écoulement des condensats.

Le rendement de combustion obtenu dépend entre autres de la qualité de l’échangeur. Un bon échangeur permettra d’obtenir des fumées dont la température à la sortie de la chaudière est au maximum de 5 °C supérieure à la température de l’eau de retour. Attention, sur les plus mauvaises chaudières à condensation, cette différence de température peut aller jusqu’à 15 °C.

Circuits retour

Certaines chaudières comportent deux branchements de retour : un retour « basse température » au niveau du condenseur et un retour « haute température » au niveau du premier échangeur. Cette configuration permet l’utilisation d’une chaudière à condensation même lorsqu’une partie des utilisateurs demandent une température d’eau élevée (production d’eau chaude sanitaire, batteries à eau chaude, circuits de radiateurs à différents niveaux de température, …). Les circuits qui leur sont propres sont alors raccordés du côté « haute température », les circuits pouvant fonctionner en basse température (circuits radiateurs basse température, chauffage par le sol, …) étant dédiés au retour « basse température ».

Il faut toutefois faire attention : le retour « froid » reste le retour principal de la chaudière.  Le retour chaud by-passe une partie de la surface d’échange.  Il est donc important de maintenir un rapport (60% min, 40% max) entre le retour froid et le retour chaud !

Si l’on place la production ECS sur le retour « chaud » , tout l’été, la chaudière va fonctionner dans de mauvaises conditions, car il n’y a pas de retour « froid ».  Il est donc préférable dans ce cas de surdimensionner la production ECS, de manière à revenir plus froid sur la chaudière, et n’utiliser qu’un seul retour, à savoir le retour « froid » dans ce cas !

Type de brûleur

En gros, en fonction du type de brûleur, on retrouve trois types de chaudière à condensation :

  1. Des chaudières dont le brûleur est un brûleur gaz pulsé traditionnel (souvent 2 allures) commercialisé séparément de la chaudière à condensation.
  2. Des chaudières dont le brûleur est un brûleur à prémélange avec ventilateur (rampe de brûleurs, brûleurs radiant, …), modulant (de 10 à 100 % de leur puissance nominale). La modulation du brûleur se fait soit par variation de vitesse du ventilateur, soit par étranglement variable de la pulsion d’air et de gaz.
  3. Des chaudières gaz à brûleur atmosphérique à prémélange, sans ventilateur. Ces brûleurs sont à une ou 2 allures. Étant donné la technologie assez basique appliquée (contrôle moindre de l’excès d’air, pas de modulation de la puissance), ces chaudières présentent généralement de moins bonnes performances que les 3 premières catégories ci-dessus.

Type d’alimentation en air

Dans certaines chaudières avec brûleur à prémélange, l’air comburant est aspiré le long des parois du foyer avant d’être mélangé au gaz. Il est ainsi préchauffé en récupérant la perte du foyer. Les pertes vers l’ambiance sont dès lors minimes.

Cette configuration liée à une régulation qui fait chuter directement la température de la chaudière à l’arrêt et à un brûleur modulant fonctionnant quasi en permanence en période de chauffe rend inutile la présence d’isolation dans la jaquette de la chaudière.

Chaudière sans isolation, dont l’air est aspiré le long du foyer.

Ces chaudières peuvent être équipées d’un système de combustion étanche (ou à ventouse) dans lequel l’air comburant est directement aspiré à l’extérieur du bâtiment.

Irrigation

Il existe de trois types de chaudière, en fonction du degré d’irrigation minimum exigé :

  • Sans irrigation imposée (chaudières à grand volume d’eau),
  • Avec irrigation faible ou moyenne imposée (chaudières à faible volume d’eau),
  • Avec irrigation importante impérative (chaudières à faible volume d’eau).

Le circuit hydraulique qui sera associé à la chaudière à condensation dépend des exigences suivantes :

  • Pour les chaudières avec faible ou moyenne exigence d’irrigation, c’est la régulation qui doit assurer un débit minimum en toute circonstance, par exemple, par action sur les vannes mélangeuses.
  • Pour les chaudières sans irrigation imposée, les circuits de distribution peuvent être extrêmement simples et optimalisés pour garantir une condensation maximale.

Dans les deux cas de figure, il est impératif d’avoir une régulation performante qui régule la température de départ chaudière en fonction des besoins et /ou de la température extérieure, afin d’optimiser les performances chaudières et limiter les pertes de distribution.

Pertes vers l’ambiance, pertes à l’arrêt et isolation

Certaines nouvelles chaudières gaz à condensation se caractérisent par l’absence d’isolation dans la jaquette. Et pourtant, leurs pertes vers l’ambiance sont très faibles.
Il y a plusieurs raisons à cela :

  • Ces chaudières sont équipées de brûleurs modulants dont la plage de modulation est grande. En journée, puisque le brûleur adapte en permanence sa puissance aux besoins. Celui-ci ne présente nettement moins de périodes d’arrêt.
  • Parallèlement à cela, l’air de combustion est aspiré par le brûleur entre le foyer et la jaquette de la chaudière. Durant le fonctionnement du brûleur, l’air lèche le foyer avant d’être mélangé au gaz. La perte du foyer est ainsi récupérée en grande partie par le brûleur.
  • Lorsque le brûleur s’arrête (par exemple, au moment de la coupure nocturne), la chaudière retombe directement en température (si son irrigation s’arrête). Elle ne présente donc plus de perte.

 Exemples de chaudière à condensation

Exemples de chaudières à condensation : 

Chaudière gaz à condensation, équipée d’un brûleur modulant 10 .. 100 % et d’un réglage automatique de la combustion par sonde d’O2.

Chaudière gaz à condensation à équiper d’un brûleur pulsé traditionnel.

Chaudière gaz à condensation avec brûleur modulant à prémélange et aspiration d’air le long du foyer en fonte d’aluminium.

 

Chaudière fioul à condensation avec brûleur à air pulsé.

Chaudière à pellets à condensation : le refroidissement des fumées s’opère en deux fois. Le premier échangeur correspond aux plus hautes températures tandis que la condensation s’opère dans le second. Cette séparation permet de récupérer le condensat efficacement sans polluer le cendrier de la chaudière.


Circuits hydrauliques associés à une chaudière à condensation

Une chaudière à condensation n’a ses performances optimales que si elle est alimentée avec une eau à basse température, en tout cas inférieure à la température de rosée des fumées (de 53 à 58 °C pour les fumées issues de la combustion du gaz naturel, environ 45 °C pour les chaudières au mazout). Plus la température d’eau de retour est froide, plus la quantité de fumée condensée est importante et meilleur est le rendement.

La configuration des circuits de distribution doit donc être adaptée en conséquence avec comme principes :

  • De ne jamais mélanger, avant le condenseur, l’eau de retour froide et l’eau chaude de départ,
  • D’alimenter le condenseur avec les retours les plus froids.

Cumul imaginaire des recyclages d’eau chaude possibles vers la chaudière. Situations à éviter.

Exemples : schémas hydrauliques proposés par les fabricants de chaudières. Remarque : d’autres schémas sont également proposés par certains fabricants. Il est impossible de les reprendre tous ici. Certains sont particulièrement complexes, pour ne pas dire « biscornus ». Nous ne critiquons pas ici leur efficacité énergétique. Nous pensons cependant qu’il est préférable de choisir les schémas les plus simples, pour des raisons de facilité de conception (diminution des erreurs de conception), de rationalisation de l’investissement et de facilité d’exploitation.

Chaufferie comprenant une chaudière à condensation pouvant fonctionner à débit variable

Exemple 1

La chaudière alimente des circuits de chauffage par radiateurs régulés en température glissante (garantis un retour le plus froid possible vers le condenseur) et une production d’eau chaude sanitaire. Les configurations de la régulation (où la température de départ de la chaudière peut rester constante) et du circuit primaire en boucle ouverte sont extrêmement simples (il n’y a pas de circulateur primaire). Des aérothermes devant fonctionner à haute température d’eau peuvent être raccordés de façon identique à la production d’eau chaude sanitaire.

ATTENTION : Le retour « haute température » by-pass une partie de la chaudière.  Pour l’ECS en été, la chaudière fonctionnera dans de mauvaises conditions !!!  Dans le cas de l’utilisation de deux retours d’eau, le retour « froid » doit rester le principal retour, avec min 60 % du débit contre 40 % max pour le retour « chaud », dans toutes les conditions d’exploitation.

Exemple 2

Le branchement de la production d’eau chaude sanitaire sur le retour « froid » de la chaudière est rendu possible par un dimensionnement de l’échangeur en régime 70°/40°. On peut également raccorder sur ce même retour froid, des batteries de traitement d’air dimensionnées en régime 70°/40° ou des ventilos-convecteurs dimensionnés en régime 55°/40°.

Exemple 3

La présence d’un circuit à très basse température comme le chauffage par le sol est à valoriser pour augmenter la condensation. La chaudière à condensation aura de bonnes performances si la puissance du circuit « basse température » équivaut au minimum à 60 % de la puissance thermique totale.

Chaufferie composée comprenant une chaudière à condensation pouvant fonctionner à débit variable, et une chaudière traditionnelle

Exemple 1

L’enclenchement des chaudières est régulé en cascade. Dans l’ordre d’enclenchement, la chaudière à condensation est prioritaire.

Exemple 2

Le fonctionnement de ce schéma est identique au précédent, mais avec une production d’eau chaude sanitaire fonctionnant en régime 70°/40°.

Exemple 3

La chaudière à condensation et la chaudière traditionnelle sont raccordées en série. La chaudière à condensation préchauffe l’eau de retour. Si la température de consigne du collecteur n’est pas atteinte, la vanne trois voies (1) bascule pour alimenter la chaudière traditionnelle qui se met alors en fonctionnement.

Chaufferie comprenant une chaudière à condensation devant fonctionner à débit constant : bouteille casse-pression et circulateur sur boucle primaire

La chaudière alimente en température glissante les circuits de chauffage par radiateurs.

Le débit constant dans la chaudière est obtenu au moyen d’une bouteille casse pression qui recycle une partie de l’eau de départ lorsque les vannes mélangeuses des circuits secondaires se ferment. Pour obtenir la condensation, malgré la possibilité de retour d’eau chaude de départ vers le condenseur (via la bouteille casse-pression), il est impératif que la température (1) à la sortie de la chaudière suive au plus près la température (2) des circuits secondaires et garantisse une ouverture maximale des vannes mélangeuses. Une régulation climatique peut assurer que la température des radiateurs est mieux adaptée aux besoins de chaleur et, donc, que les vannes mélangeuses sont plus ouvertes.

Ce type de schéma est plus complexe et risque de conduire à des performances moindres puisqu’il est quasi impossible d’empêcher le recyclage partiel d’eau chaude dans la bouteille casse-pression :

  • Les différents circuits n’ont jamais la même température de consigne,
  • Les circulateurs des circuits primaires et secondaires (et donc les débits mis en œuvre) ne sont jamais dimensionnés avec la précision voulue.

De plus, il n’est guère possible de combiner une production d’eau chaude sanitaire avec ce type de chaudière. En effet, celle-ci ne pourra, à la fois, suivre au plus près la température des circuits secondaires et produire de l’eau chaude à plus de 60 °C.

Une solution est de placer un circulateur primaire à vitesse variable. Celui-ci diminuera sa vitesse lorsque la demande des circuits secondaires diminue, empêchant le recyclage d’eau chaude dans la bouteille casse-pression. Il s’agit cependant de rester dans les limites de débit exigé par la chaudière.

Par exemple, la régulation de la vitesse du circulateur peut être réalisée comme suit : la vitesse est augmentée si la température en amont de la bouteille (T°G) est supérieure à la température en aval de la bouteille (T°D) augmentée de 2 K. Inversément, elle sera diminuée si la T°G est inférieure à T°D + 2 K. De la sorte, on est assuré du fait que l’eau de retour remontera en faible quantité dans la bouteille et que l’eau de chaudière ne sera jamais recyclée.

Chaufferie composée comprenant une chaudière à condensation devant fonctionner à débit constant et une chaudière traditionnelle

Dans un tel schéma, la chaudière à condensation est prioritaire dans l’ordre d’enclenchement de la régulation en cascade.
Pour réguler une installation de ce type en favorisant au maximum la condensation sans créer d’inconfort, il est impératif que la consigne de température des chaudières soit d’une part très proche de la température des circuits secondaires (pour éviter un retour d’eau chaude via la bouteille casse-pression) et d’autre part, que cette température soit mesurée en aval de la bouteille casse-pression (en 2 et non en 1, pour éviter une incompatibilité de débit entre le circuit des chaudières et les circuits radiateurs).

Le risque de retour d’eau chaude dans la bouteille casse-pression est moins grand que dans le cas d’une seule chaudière. En effet lorsque les besoins sont moindres et que les vannes mélangeuses des circuits secondaires se ferment, on peut imaginer que seule la chaudière à condensation est en demande. Le débit primaire est alors diminué par 2.

On peut aussi imaginer que, le raccordement du retour vers les chaudières se fasse séparément au départ d’une bouteille casse-pression verticale. Le retour vers les chaudières traditionnelles se raccordera plus haut que le retour des circuits secondaires, qui lui-même sera plus haut que le retour vers la chaudière à condensation. Cette façon de faire permet de diriger le recyclage éventuel d’eau chaude dans la bouteille casse-pression vers la chaudière traditionnelle.


Cheminées associées à la condensation

Les produits de combustion issus d’une chaudière à condensation sont saturés en vapeur d’eau dont une partie va se condenser sur les parois de la cheminée. Cela exclut une évacuation par une cheminée traditionnelle en maçonnerie, car l’humidité provoquerait de graves dommages au bâtiment. De plus, la température trop froide créé une dépression naturelle.

Des solutions particulières ont donc été mises au point pour évacuer les produits de combustion des chaudières à condensation. On rencontre ainsi principalement les deux techniques suivantes :

  1. La cheminée étanche à l’humidité, en acier inoxydable ou matériau synthétique. Elle permet de maintenir une température inférieure au point de rosée sans que l’humidité ne la traverse et attaque la maçonnerie. Fonctionnant en surpression, elle est aussi étanche aux produits de combustion.
  2. Le tubage, qui s’applique en rénovation à une cheminée ancienne. Il doit être étanche, résistant à la corrosion et installé dans une cheminée. Le tubage doit pouvoir fonctionner en surpression dans toute sa longueur. Il peut être réalisé en conduit rigide ou flexible. Dans le cas d’un tubage en conduit flexible, l’aluminium, même de qualité requise, est interdit. Le bas du conduit d’évacuation des produits de combustion doit être équipé d’une purge munie d’un siphon et reliée au réseau d’eaux usées par un conduit en matériau résistant aux condensats, le tube en PVC est réputé convenir pour cet usage.

Notons qu’il existe un agrément technique concernant les conduits de cheminée utilisables en combinaison avec une chaudière à condensation. Seuls ceux-ci peuvent être choisis.

En principe, dans une chaudière à condensation la température des fumées est supérieure à la température de l’eau entrant dans la chaudière d’environ 5 °C. La température des fumées ne peut donc jamais dépasser 110 °C qui est la limite de fonctionnement d’une chaudière. Cependant pour pallier à un défaut de la régulation de cette dernière, un thermostat de sécurité coupant la chaudière si la température des fumées dépasse 120 °C doit être prévu dans les raccordements vers la cheminée en matériau synthétique.

Il est important aussi de signaler que l’on ne peut raccorder sur un même conduit de cheminée, une chaudière traditionnelle et une chaudière à condensation.

Notons également qu’il existe des chaudières à condensation à combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se font par deux conduits concentriques (l’air est aspiré au centre et les fumées rejetées par le conduit extérieur). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical et 160 kW en conduit horizontal.

Chaudières raccordées à un système de combustion étanche (à « ventouse »).

Pour plus d’information concernant la conception des cheminées.


Évacuation des condensats

À l’heure actuelle, il n’existe pas de normes ou de prescription en vigueur pour l’évacuation des condensats. De manière générale, les condensats sont évacués vers l’égout au moyen d’un conduit.

Photo évacuation des condensats vers les égouts.

 Photo face isolée arrière d'une chaudière à condensation au gaz avec son tuyau d'évacuation des fumées.   Photo partie inférieure du conduit de cheminée munie d'un conduit d'évacuation des condensats.

La première figure montre l’évacuation des condensats vers les égouts, la deuxième figure montre la face isolée arrière d’une chaudière à condensation au gaz avec son tuyau d’évacuation des fumées et son conduit d’évacuation des condensats (en blanc), tandis que la dernière figure montre la partie inférieure du conduit de cheminée munie d’un conduit d’évacuation des condensats.

En régime permanent, une chaudière gaz à condensation de 250 kW produit en moyenne environ 14 litres/h de condensat. Ces condensats pour le gaz naturel sont légèrement acides (H2O + CO2). Le degré d’acidité est du même ordre de grandeur que celui de l’eau de pluie (pH : 4 .. 4,5). De plus, l’acidité de ceux-ci est souvent compensée par le caractère plutôt basique des eaux ménagères. Ceci explique qu’il ne soit pas obligatoire de traiter les condensats avant leur évacuation à l’égout. Pour les grandes installations où la production de condensat devient importante devant la quantité d’eau domestique, il peut être judicieux de traiter les condensats avant de les évacuer.

Graphe représentant différents niveaux d’acidité et comparaison avec les condensats des chaudières mazout et gaz.

Dans le cas du mazout, le niveau d’acidité est plus important et est dû à la présence plus importante du soufre au sein du combustible. Le mazout extra, pauvre en Soufre, permet de limiter l’acidité. Dans ce cas de figure, les remarques pour les condensats des chaudières gaz peuvent être appliqué pour la chaudière au mazout extra. Dans le cas du mazout standard, nous conseillons le lecteur de clarifier la situation avec l’installateur ou le bureau d’études. En effet, dans les grandes installations (Pn > ~100 kW), une neutralisation des condensats pourrait s’avérer nécessaire, par exemple, dans le cas d’une utilisation continue de la chaudières (ex. piscine) qui occasionnerait une plus grande production de condensat. Pour relever le pH des condensats, on peut utiliser un bac de neutralisation équipé de filtres de charbon actif : les filtres devront être remplacés de manière périodique pour maintenir l’efficacité.

Dans le cas d’une chaufferie en toiture, il est recommandé de ne pas faire couler les condensats sur la toiture ou directement dans les gouttières (légère acidité, risque de gel et de bouchage des évacuations). Un conduit en matière synthétique raccordé directement à l’égout est indiqué.

Chaudières traditionnelles [ECS]

Chaudières traditionnelles [ECS]

On parle de « chaudière traditionnelle » en opposition aux « chaudières à condensation« . Les « chaudières traditionnelles » sont conçues et exploitées de manière à éviter la condensation des fumées.

La chaleur latente de celles-ci n’étant pas récupérée, les « chaudières traditionnelles » auront toujours un moins bon rendement que les « chaudières à condensation ».


Chaudières gaz ou fuel à brûleur pulsé

Les chaudières à brûleur pulsé sont des chaudières dont le brûleur est choisi indépendamment de la chaudière. Celui-ci peut fonctionner au gaz ou au fuel.

Les chaudières actuelles de ce type sont dites « à foyer pressurisé », c’est-à-dire que le trajet des fumées dans la chaudière est assuré grâce à la pression fournie par le ventilateur du brûleur.

   

Chaudière à foyer pressurisé sans et avec son brûleur.

Types de foyer

En gros, il existe actuellement deux types de chaudière (de puissance > 70 kW) :

  • les chaudières « à triple parcours »,
  • les chaudières « à inversion de flamme ».

Chaudière triple parcours en acier : les fumées quittent le foyer par l’arrière et parcourent à trois reprises la longueur de la chaudière avant d’être récoltées au dos de celle-ci.

Elément d’une chaudière triple parcours en fonte. Les chaudières performantes de ce type possèdent un premier et un dernier élement (refermant le foyer) entièrement parcourus par l’eau, ce qui augmente les surfaces d’échange et diminue les pertes par parois sèches.

Chaudière à inversion de flamme en acier. Dans ces chaudières, souvent de grosse puissance, le foyer est « borgne ». Les fumées ressortent de celui-ci par l’avant (le long de la flamme) avant de parcourir des tubes de fumée. Dans ceux-ci, des turbulateurs (spirales, lamelles métalliques, …) ralentissent les fumées pour augmenter l’échange avec l’eau et doser celui-ci pour éviter les condensations.

La principale différence entre ces deux configurations se situe au niveau des émissions de NOx. En effet, les chaudières à « triple parcours » permettent un court temps de séjour des fumées dans la zone de combustion, contrairement aux chaudières à inversion de flamme dans lesquelles les fumées doivent retransiter par la zone de combustion. Rappelons que un long temps de séjour des fumées dans la zone à plus haute température est favorable à la formation des NOx.

Rendement

Pertes à l’arrêt

Les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont extrêmement faibles (de l’ordre 0,1 … 0,4 % de la puissance nominale de la chaudière).
Cela est la conséquence :

  • d’un degré d’isolation de la jaquette important, équivalent à une épaisseur de laine minérale de 10 cm enveloppant l’ensemble de la chaudière,
  • de la présence d’un clapet (motorisé, pneumatique, …) refermant l’aspiration d’air du brûleur lorsque celui-ci est à l’arrêt.

Isolation de la jaquette d’une chaudière à brûleur pulsé.

Rendement de combustion

Le rendement de combustion de ces chaudières est dépendant du choix du brûleur et de son réglage. Avec un brûleur finement réglé, un rendement de combustion de 93 .. 94 % est tout à fait possible dans les chaudières actuelles les plus performantes.

Rendement saisonnier

Les faibles pertes à l’arrêt et la possibilité d’obtenir des rendements de combustion les plus élevés (sans condenser), font des chaudières à brûleur pulsé les chaudières les plus performantes dans la catégorie des chaudières dites « traditionnelles »:

Exemple. Soit une chaudière correctement dimensionnée (facteur de charge (nB/nT) de 0,3) avec des pertes à l’arrêt (qE) de 0,2 % et un rendement utileutile )de 93 %.

Le rendement saisonnier de cette chaudière est estimé à :

ηsais = ηutile / (1 + qx (NT/NB – 1))

ηsais = 93 [%] / (1 + 0,002 x ((1/0,3) – 1)) = 92,6 [%]


Chaudières gaz atmosphériques

Les chaudières gaz atmosphériques sont des chaudières dont le brûleur ne possède pas de ventilateur.

Ces chaudières sont composées de rampes de brûleurs placés en dessous du foyer. L’aspiration d’air par le brûleur se fait naturellement par le gaz et les flammes. On parle de brûleur atmosphérique traditionnel quand une grande partie de l’air est aspirée au niveau de la flamme et on parle de brûleur à prémélange quand l’air est mélangé au gaz avant la flamme.

Chaudière gaz à brûleur gaz atmosphérique à prémélange.

Un coupe tirage (ouverture de la buse d’évacuation vers la chaufferie), placé à l’arrière de la chaudière annule l’influence du tirage de la cheminée sur la combustion en maintenant une pression constante à la sortie de la chaudière.

Chaudière atmosphérique :

  1. Corps de chauffe (en fonte)
  2. Échangeur à ailettes profilées
  3. Isolation
  4. Bouclier thermique
  5. Buse de fumée avec coupe-tirage intégré
  6. Tableau de commande
  7. Jaquette
  8. Porte d’accès (pivotante)
  9. Collecteur de départ
  10. Collecteur de retour
  11. Brûleur à prémélange (bas NOx)
  12. Rampe gaz
  13. Électrode d’allumage et sonde d’ionisation
  14. Transfo d’allumage
  15. Connecteurs électriques
  16. Vanne gaz à 2 allures
  17. Vanne de vidange

Avantages

  • Le prix moindre. Une chaudière atmosphérique de conception « bas de gamme » coûte moins cher qu’une chaudière équipée d’un brûleur gaz pulsé.
  • L’absence de bruit. Une chaudière atmosphérique ne comportant pas de ventilateur est nettement moins bruyante qu’un brûleur pulsé.
  • La facilité de montage et de réglage.

Inconvénients

  • Un rendement utile moindre. La gestion moins précise de l’excès d’air diminue le rendement utile des chaudières qui est voisin de 91 .. 92 % pour les nouvelles chaudières à prémélange et inférieur à 90 % pour les chaudières de conception plus ancienne (chaudières répondant juste aux exigences de l’AR du 18 mars 97 et encore vendues), alors que l’on peut espérer un rendement de 93 .. 94 % avec une chaudière moderne à brûleur pulsé bien réglée.
  • Une production importante de NOx. Les chaudières atmosphériques « bas de gamme » émettent généralement une quantité importante de NOx, à telle point que certains modèles ne peuvent plus être vendus qu’en Wallonie (émission de NO> 150 mg/kWh) où il n’y a pas de réglementation en la matière. Les technologies du prémélange et le refroidissement de la flamme au moyen de barres métalliques diminuent fortement les émissions de NOx (< 60 .. 70 mg/kWh) pour les rendre compatibles avec la plupart des labels européens.

Brûleur à prémélange « LOW NOx« .

  • Des pertes à l’arrêt plus importantes. Les chaudières purement atmosphériques (c’est-à-dire sans ventilateur) sont généralement parcourues à l’arrêt par un flux d’air continu provoquant des pertes par balayage. Par rapport aux anciens modèles de chaudière atmosphérique, celles-ci sont maintenant limitées : limitation des ouvertures de passage d’air dans les brûleurs à prémélange, ajout sur certains modèles d’un clapet sur les fumées se fermant à l’arrêt. Quelques importants fabricants de chaudières annoncent ainsi (d’autres ne donnent pas de chiffre) des pertes à l’arrêt de leurs chaudières atmosphériques de l’ordre de 0,8 .. 1,3 % de la puissance de la chaudière, sans clapet sur les fumées et de l’ordre de 0,6 .. 0,7 % avec un clapet d’obturation des fumées (pour une température d’eau de 60°C). À titre de comparaison, les pertes à l’arrêt des chaudières à brûleur pulsé modernes sont de l’ordre de 0,1 .. 0,4 %.

Pertes à l’arrêt d’une chaudière atmosphérique à prémélange actuelle de la marque « x » en fonction de la température de l’eau de chaudière.

Exemple.

Il existe sur le marché des chaudières gaz atmosphériques composées de deux ensembles brûleur-échangeur séparés, ce sous une même jaquette. Cette chaudière intègre également la régulation lui permettant de réguler en cascade les deux brûleurs. Des vannes d’isolement permettent également l’isolation hydraulique de l’échangeur à l’arrêt. Cette technique de construction permet donc, dans une seule chaudière, d’offrir les avantages de deux chaudières séparées régulées en cascade : réduction des pertes à l’arrêt, augmentation du temps de fonctionnement des brûleurs.


Chaudières gaz à prémélange avec ventilateur

On associe aussi aux chaudières gaz atmosphériques les chaudières à prémélange total mais équipées d’un ventilateur qui pulse le mélange air/gaz vers le brûleur ou placé sur l’évacuation des fumées, qui aide à vaincre la perte de charge de la chaudière. Le brûleur intégré à ces chaudières peut être un brûleur à rampes comme pour les chaudières atmosphériques ou un brûleur radiant.

Par rapport aux chaudières gaz atmosphériques (sans ventilateur), les chaudières gaz à prémélange avec ventilateur présentent les avantages complémentaires suivants :

  • Les pertes à l’arrêt sont légèrement moindres (0,5 .. 0,7 %, pour une température d’eau de 60°C), soit parce qu’un clapet d’air supprime le tirage au travers du foyer à l’arrêt, soit parce que la configuration du brûleur et du foyer est telle que le balayage d’air est moindre.
  • La technologie du brûleur radiant permet une diminution importante des émissions de NOx.
  • En outre, les brûleurs de ces chaudières sont souvent modulants, (jusqu’à 25 % pour les chaudières qui ne sont pas à condensation) ce qui implique une diminution du nombre de démarrages, donc des émissions polluantes, une diminution des temps d’arrêt de la chaudière, donc des pertes à l’arrêt et une augmentation du rendement utile à charge partielle.
  • Dans le cas d’atmosphère corrosive pour les chaudières, certaines de ces chaudières peuvent être équipées d’un système de combustion étanche (dites « à ventouse ») dont l’alimentation en air et l’évacuation des fumées se fait par deux conduits concentriques (l’air est aspiré par le conduit périphérique et les fumées rejetées par le conduit central). Une telle configuration est possible jusqu’à une puissance de 1 000 kW en conduit vertical.

Chaudières gaz reliées à un système de combustion étanche.

Il est ainsi possible d’atteindre, avec ces chaudières des rendements saisonniers proches de ceux des chaudières pressurisées à brûleur pulsé.


Les technologies « très basse température »

Actuellement, on retrouve sur le marché des chaudières traditionnelles dites :

  • « Basse température », dont la température moyenne d’eau interne ne peut descendre en dessous d’une certaine valeur, de l’ordre de 50 …60°C (on parle aussi dans la réglementation de chaudières « standards »).
  • « Très basse température », ne présentant aucune contrainte en ce qui concerne la température de l’eau.

La troisième catégorie de chaudières étant les chaudières à condensation conçues, elles, pour favoriser la condensation des fumées et fonctionnant avec les températures d’eau les plus basses.

Conception des chaudières « très basse température »

Pour éviter que les fumées ne condensent dans les chaudières « très basse température », les échangeurs de chaleur sont conçus pour qu’à aucun moment la température de paroi de l’échangeur du côté des fumées ne puisse descendre en dessous du point de rosée (.. 45°C .. pour le fuel et .. 55°C .. pour le gaz).

Exemple.

Pour certaines chaudières en fonte, le parcours de l’eau dans la chaudière est conçu pour que l’eau froide de retour n’entre pas en contact direct avec l’échangeur.

Thermographie infrarouge d’un élément en fonte d’une chaudière. l’eau de retour rentre dans l’élément par le dessus (rond bleu). Elle est dirigée vers l’extérieur de l’élément (couronne bleue, jaune et verte). Elle ne longe, ainsi, le foyer et les tubes de fumées qu’une fois réchauffée (zone rouge).

Dans les chaudières en acier, les fabricants utilisent, par exemple, des échangeurs « double parois ». Cela permet à la paroi de l’échangeur, côté fumée, d’être maintenue à une température supérieure à 60°C, même si la température de l’eau est très basse (l’échangeur se comporte comme un double vitrage).

Échangeur d’une chaudière très basse température : les fumées circulent dans les tubes doubles parois. L’absence partielle de contact entre le tube coté fumée et le tube coté eau permet aux fumées de ne pas condenser au contact de la paroi, quelle que soit la température de l’eau dans la chaudière. Sans la double paroi, la température du tube coté fumée serait presqu’égale à la température de l’eau,même si les fumées au centre du tube ont une température élevée, puisque le coefficient d’échange coté eau est nettement plus important que du coté des fumées. Les fumées condenseraient alors le long de la paroi si la température de l’eau descend sous 60°C.

Comparaison énergétique « basse température » et « très basse température »

Rendement de production

En théorie, les chaudières « très basse température » régulées en température glissante présentent un rendement saisonnier supérieur aux chaudières « basse température ». En effet, plus la température de l’eau est basse :

En pratique, la différence n’est pas aussi tranchée. En effet, le rendement de production d’une chaudière « très basse température » ne se démarque pas toujours énormément de celui d’une chaudière « basse température ».

En effet, dans les chaudières « très basse température », pour éviter que les fumées ne condensent au contact de parois de la chaudière irriguées avec de l’eau à température inférieure à 60°C, les constructeurs conçoivent des échangeurs dans lesquels l’échange de chaleur entre l’eau et les fumées est ralenti (par exemple, les tubes doubles parois).

Il en résulte un moins bon échange qu’imaginé théoriquement puisque la température de surface de l’échangeur ne descend pas sous 60° même si la température de l’eau est plus basse. La température des fumées n’est donc pas forcément plus basse pour une chaudière « très basse température » que pour une chaudière « basse température ». Pour limiter cet impact, les constructeurs augmentent la surface d’échange, ce qui augmente la taille des chaudières et leur coût.

Dans les chaudières « basse température », si la température de l’eau ne descend pas en dessous de 60°C, il n’y a aucun risque de condensation côté fumée, et on peut optimiser les surfaces d’échanges et ainsi entraîner une température de fumée plus basse et donc le meilleur rendement de combustion possible.

Pertes à l’arrêt

De plus, il est vrai que la chaudière « basse température » présente des pertes à l’arrêt légèrement supérieures mais celles-ci fortement limitées du fait d’une isolation renforcée et de la suppression des pertes par balayage avec les brûleurs pulsés (pour autant que le clapet d’air se referme effectivement à l’arrêt !).

Attention, cette conclusion n’est plus valable si on choisit une chaudière atmosphérique d’une ancienne conception, et/ou si l’installation est fortement surdimensionnée.

Pertes de distribution et de régulation

La diminution de la température moyenne de l’eau dans la chaudière, en fonction de la saison, n’a pas un intérêt énergétique que sur le rendement de la chaudière :

  • la limitation des pertes par distribution dans le collecteur primaire, dans le cas des circuits avec distribution secondaire possédant sa propre régulation de température (vannes mélangeuses),
  • la limitation des pertes de distribution dans l’ensemble du réseau de distribution dans le cas des installations sans circuit secondaire,

Cela permet également de simplifier la conception des circuits hydrauliques, puisqu’il ne faut plus faire attention à la température de l’eau qui alimentera la chaudière.

Emissions de polluants liée à la consommation énergétique

Emissions de polluants liée à la consommation énergétique


Émissions de CO2

Pour les combustibles fossiles, les émissions de CO2 sont proportionnelles à la consommation d’énergie primaire. Elles dépendent du type de combustible :

  • Gaz naturel : 0.198 kg CO2/kWh
  • Mazout : 0.264 kg CO2/kWh
  • Électricité : 0.29 kg CO2/kWh.

Pour être précis, le CO2 produit par une centrale électrique dépend du type de centrale, de la saison et de l’heure de la journée. En moyenne, pour le parc de production belge, on a en moyenne autour de 0.29 kg de CO2/kWh. Pour l’année 1998, on relève

  • Hiver, heures normales : 0,335 kg CO2/kWh élec produit.
  • Hiver, heures creuses : 0,269 kg CO2/kWh élec produit.
  • Mi-saison, heures normales : 0,342 kg CO2/kWh élec produit.
  • Mi-saison, heures creuses : 0,273 kg CO2/kWh élec produit.
  • Été, heures normales : 0,328 kg CO2/kWh élec produit.
  • Été, heures creuses : 0,264 kg CO2/kWh élec produit.

Avec,

  • Hiver = novembre, décembre, janvier, février.
  • Été = juillet et août.
  • Mi-saison = les autres mois.
  • Heures normales = entre 6h00 et 20h59 (pour les jours de la semaine).
  • Heures creuses = entre 21h00 et 5h59 (pour les jours de la semaine) et les jours de WE entiers. (en pratique, ces heures sont variables en fonction du distributeur).

Ces taux d’émissions de CO2 ont déterminé au niveau des centrales électriques du parc belge (selon le programme PROMIX) dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel- SPE. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Pour le calcul des émissions de CO2 du chauffage par pompes à chaleur, une valeur moyenne de 0,347 kg CO2/kWh élec produit peut être considérée, valeur pondérée selon le nombre d’heures normales, le nombre d’heures creuses, le nombre de jours d’hiver et de mi-saison compris dans la saison de chauffe.

À titre de comparaison, voici les émissions de CO2 publiées par d’autres sources. Certaines considèrent uniquement la phase de combustion, d’autres intègrent le cycle de vie complet du combustible (c’est-à-dire l’extraction, le transport, le conditionnement en plus de la combustion).

Type d’énergie

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (cycle complet)

Émission d’équivalent CO2 [g/kWhPCI] : valeur ADEME 2007 (combustion)

Émission d’équivalent CO2 [g/kWhPCI] : valeur Gemis 4.5 (cycle complet)

Émission de CO2 [g/kWhPCI] : valeur ADEME 1995 (combustion)

Émission de CO2 [g/kWhPCI] : valeur PEB (combustion)

Émission de CO2 [g/kWhPCI] : valeur CWaPE

Électricité réseau belge : niveau producteur

267

247

713 (ref = vieille centrale charbon)

456 (ref = centrale TGV)

Gaz naturel

231

202

235

180

202

251

Fioul lourd

319

281

280

Fioul domestique

301

271

327

270

263

306

Propane

275

231

240

Charbon

371

341

350

335

385

Bois pellets

0

46.7

0

0

45.6

Bois bûches

0

22.4

0

0


Émissions de NOx

Les émissions de NOx ne sont pas seulement liées au combustible, mais également au mode de combustion de celui-ci (taux d’excès d’air, température de flamme).

Les taux d’émission suivants peuvent être considérés :

Plage de valeurs NOx, Electrabel-SPE : mg/kWh

Valeur moyenne NOx, Electrabel-SPE : mg/kWh

Valeur NOx, Fondation Rurale de Wallonie : mg/kWh (combustion)

Valeur NOx, Gemis 4.5 : mg/kWh (cycle complet)

Ancienne chaudière mazout

…-200

200

Chaudière mazout non Low NOx

150 – 180

165

144

244

Chaudière mazout Low NOx

90 – 120

105

Ancienne chaudière gaz

150 – 200

175

Chaudière gaz atmosphérique

100 – 180

140

Chaudière gaz modulante

20 – 90

55

144

140

Électricité

420

420

459

Chaudière à bois bûches ancienne

180

Chaudière à bois bûches moderne

151

235

Chaudière à bois déchiqueté (plaquettes)

162

Chaudière à bois condensé (pellets)

344

Remarque sur les données

Les taux d’émissions de NOx des deux premières colonnes de résultats sont celles admises dans le cadre du Projet Connaissance des émissions de CO2 – Electrabel – SPE – 1998.

Pour les chaudières, les taux d’émission de NOx sont exprimés en mg par kWh thermique de combustible consommé (à l’entrée de la chaudière). Par contre pour l’électricité, les taux sont exprimés en mg par kWh électrique disponible à la sortie des centrales électriques (et donc en tenant compte du rendement moyen du parc des centrales électriques en 1998, soit 38 %). Comme on le constate, ce rendement s’améliore et cette progression continuera dans les années futures grâce au remplacement des centrales au charbon par des TGV (Turbine Gaz Vapeur) qui ont un rendement de 55 %. Ces taux doivent être multipliés par le facteur 1,109 pour les clients basse tension, pour tenir compte des pertes en ligne et en transformation.

Les valeurs récoltées par la Fondation Rurale de Wallonie (FRW) sur base de sources allemandes et reprise dans les fiches éco-construction de l’IBGE datant de 2007 négligent les productions de NOx induites par les phases de transformation et de transport du combustible.

Les valeurs reprises du projet Gemis 4.5 considèrent quant à elles tout le cycle du combustible, de son extraction, son conditionnement et son transport jusqu’à la combustion finale.


Émissions de SO2

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 800 mg SO2/kWh électrique. Ce chiffre est passé à 430 mg SO2/kWh en 1999.

Une grande marge d’incertitude existe au niveau de la production de SO2 liée à la combustion de fuel, production liée au type de fuel et à la qualité de la combustion.

Voici une série de valeurs issues du programme international Gemis 4.5 qui estime les différentes productions de polluants sur le cycle du combustible : extraction, conditionnement et transport. En outre, les valeurs reproduites dans les fiches éco-construction de l’IBGE datant de 2007 et collectée par la FRW sur base de sources allemandes sont aussi indiquées : ces valeurs ne tiennent pas compte du conditionnement et du transport.

Type de production

Production de SO2, valeur FRW : mg/kWh  (combustion)

Production d’équivalent SO2, Gemis 4.5 : mg/kWh (cycle complet)

Production de SO2, statistiques environnementales 1999

Chaudière au fioul

504

600

Chaudière au gaz

0

111

Électricité

392

430

Chaudière à bois bûches ancienne

36

Chaudière à bois bûches nouvelle

36

320

Chaudière à bois déchiqueté (plaquettes)

36

Chaudière à bois condensé (pellets)

472


Émissions de poussières

Dans le recueil des Statistiques Environnementales de 1998, on cite le chiffre de 61 mg de poussières/kWh. Ce chiffre est passé à 41 mg de poussières/kWh électrique en 1999.

Type de production

Poussières, valeurs FRW (sources allemandes) : mg/kWh (combustion)

Poussières, Statistiques environnementale 1999 : mg/kWh

Poussières, valeurs Gemis 4.5 : mg/kWh (cycle complet)

Chaudière fioul

18

27

Chaudière gaz

0

4.8

Electricité

41

15.4

Chaudière à bois bûches ancienne

252

Chaudière à bois bûches moderne

50

189

Chaudière à bois déchiqueté (plaquettes)

14

132

Degrés-jours [Théories – climat]

Window and snow with sleeping bag
Window and snow with sleeping bag

Principe des degrés-jours

« Quantifier le froid »

La consommation de chauffage est liée à l’écart de température entre l’ambiance intérieure et l’extérieur du bâtiment.

Or la température varie d’un lieu à un autre.

La notion de « degré-jour » a été introduite pour permettre la détermination de la quantité de chaleur consommée sur une période donnée et pour effectuer des comparaisons entre des bâtiments situés dans des zones climatiques différentes.

Le principe consiste à additionner, jour après jour, les écarts de température existants entre l’intérieur et l’extérieur. Par exemple, si, en moyenne de la journée, il fait 20°C à l’intérieur et 5°C degrés à l’extérieur, on parlera de 15 degrés-jours. De même 3 journées à 0°C extérieur seront comptabilisées comme 60 degrés-jours.

En additionnant tous les écarts de température entre intérieur et extérieur sur tous les jours de la période de chauffe, on obtiendra un nombre proportionnel au besoin de chaleur du bâtiment : les degrés-jours du lieu.

En généralisant :

Le nombre de degrés-jours d’une période de chauffage est égal au produit du nombre de jours chauffés multiplié par la différence entre la température intérieure moyenne du local considéré et la température extérieure moyenne.

DJ = nombre de jours chauffés x (T intérieure moyenne – T extérieure moyenne).

Qu’est-ce qu’une « température extérieure moyenne journalière » ?

Un bâtiment possède une certaine inertie. On a donc considéré que son besoin de chauffage était proportionnel à la température extérieure moyenne sur une journée (et non à la température la plus froide de la nuit). Il a été convenu de prendre comme référence la moyenne arithmétique entre la température minimale et maximale de ce jour.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7° à 15h00, va être comptabilisée comme une journée dont la température moyenne est de 1°C.

Degrés-jours « normaux » en base 15/15

La chaleur à fournir au bâtiment n’est pas rigoureusement proportionnelle à la différence entre la température extérieure moyenne et la température de confort du local. En effet, le bâtiment jouit de certains apports gratuits : le soleil, la chaleur produite par les occupants et les équipements (les gains internes).

L’expérience a appris que dans notre pays une température intérieure moyenne (moyenne sur l’ensemble des pièces et moyenne sur les 24 heures de la journée) de 18°C pouvait être considérée comme représentative de la température de confort désirée.

Et les apports gratuits (gains internes et externes) sont estimés en moyenne à environ 3°C.

Si bien que le système de chauffage ne doit plus chauffer que jusque 15°C (le soleil et l’occupation permettant la montée de la température jusque 18°C).

De même, s’il fait 15°C dehors, le chauffage peut être interrompu : on est en dehors de la saison de chauffe.

On parle alors de « degrés-jours en base 15/15 » comme étant l’indicateur représentatif des besoins de chauffage dans notre région.

Ainsi, une température minimale de -5°C à 3h00 du matin et +7°C à 15h00, va être comptabilisée comme 14 DJ en base 15/15.

Des moyennes de ces degrés-jours ont été établies par l’IRM sur les 30 dernières années : ce sont les degrés-jours Normaux. Ils servent de référence pour définir la rigueur moyenne de l’hiver et sont accessibles via cette adresse.

Pour plus d’informations sur ce que sont les températures normales, ainsi que la définition des périodes de référence (30 ans), vous pouvez vous rendre sur cette page.

Les degrés-jours 15/15 normaux (DJ 15/15) sont accessibles sur le site de la Région wallonne.

Les degrés-jours 15/15 sont également accessibles après chaque mois en contactant l’IRM. Adressez une demande par mail à climinfo@meteo.be en précisant la commune souhaitée (si c’est le cas).

Enfin, des degrés-jours 16,5/16,5 sont également communiqués sur le site de l’Association Royale des Gaziers de Belgique (ARGB) : http://www.gaznaturel.be.

Mais attention : leur base de référence est de 16,5°C ! Autrement dit, si la température moyenne journalière est de 5°, ils comptabiliseront 11,5 DJ, alors que 10 DJ seront comptabilisés en base 15°C. Peu importe, mais l’essentiel est de conserver une base de référence commune constante (ainsi, en base 16,5°C, les degrés-jours normaux annuels sont de 2458 !). Si la base 15 convient bien aux bâtiments administratifs ou scolaires coupés la nuit et le week-end, la base 16,5 est sans doute meilleure dans les bâtiments chauffés en permanence comme les lieux d’hébergement.

La durée de la saison de chauffe

S’il fait 8°C au petit matin en juillet et 18°C l’après-midi (donc température moyenne sur la journée de 13°C ( (8°C + 18°C)/2) ), faut-il comptabiliser 2 degrés-jours 15/15 ? Pour l’IRM : oui, bien sûr. Pourtant, on sait que la chaudière ne sera pas remise en route pour autant et qu’il ne faut donc pas comptabiliser ce « froid »-là.

L’Association Royale de la Technique du chauffage (ATIC) a donc défini des critères de début et de fin de saison de chauffe :

  • Le début de saison de chauffe est le premier jour, d’août, de septembre ou d’octobre, pour lequel simultanément la température maximum Tm n’a pas atteint 18°C et 2 DJ au moins ont été relevés sur la journée.
  • La fin de la saison de chauffe est le jour de mai ou juin à partir duquel simultanément la température maximum Tm est supérieure à 18°C et 2 DJ au plus ont été relevés sur la journée;

On notera que cela explique certaines différences trouvées entre tableaux de degrés-jours : certains sont basés sur les données strictes de l’IRM, d’autres sont basées sur les valeurs de l’ATIC où « l’été n’est pas comptabilisé ».


Degrés-jours « équivalents »

En toute rigueur, le calcul des degrés-jours repose sur le calcul des apports solaires propres à chaque bâtiment. Ainsi, un bâtiment fortement vitré bénéficiera d’un apport solaire hivernal important et ses besoins de chauffage diminueront d’autant.

De plus, un bâtiment bien isolé verra sa chaudière coupée plus tôt puisque les mêmes apports des équipements intérieurs (l’éclairage par exemple) feront monter plus vite la température intérieure.

La figure ci-dessous permet de visualiser la réalité :

  • La température extérieure moyenne décrit la courbe sinusoïdale jaune et présente son minimum en hiver.
  • La contribution des apports solaires permet de déterminer la courbe rouge, dite des « températures sans chauffage » SC : c’est le lieu des températures moyennes atteintes à l’intérieur sans apport de chauffage. La courbe rouge est au-dessus de la courbe jaune : les températures intérieures sont supérieures aux températures extérieures par l’action des gains solaires.
  • L’horizontale verte représente la température de confort (ici, par simplification 18 °C).
  • La droite horizontale bleue détermine le lieu des « températures de non-chauffage » NC, c’est-à-dire la température au-delà de laquelle il n’est plus nécessaire de chauffer, car le supplément de température permettant d’atteindre la droite des températures de confort est fourni par les gains internes (supposés constants).

La surface rectangulaire rouge représente donc les degrés-jours équivalents du mois de novembre (10,5°C x 30 jours = 315 DJ).

La surface hachurée comprise entre la courbe sans chauffage et la droite de non-chauffage représente les degrés-jours du bâtiment considérés sur la période de chauffage, encore appelés « degrés-jours équivalents ».

Ce calcul, qui fournit précisément les besoins du bâtiment est assez complexe, notamment parce qu’il suppose une évaluation de l’ombrage des bâtiments voisins sur les façades, parce qu’il intègre la notion d’inertie dans la récupération des apports solaires, etc…

La méthode de calcul détaillée est reprise dans la NIT 155 (Note d’Information Technique du CSTC).

Pompes à chaleur

Pompes à chaleur

Pompe air-eau à chaleur réversible.


Vous avez dit « pompe à chaleur » ?

Elle transfère de l’énergie d’un milieu à un autre

Source : ef4.

Une pompe à chaleur (PAC) est une machine dont le but est de valoriser la chaleur gratuite présente dans l’environnement : celle présente dans l’air extérieur, les rivières, le sol. En effet, tout corps, même « froid » contient une quantité importante d’énergie qui peut être récupérée.

Pratiquement, grâce à un fluide décrivant un cycle thermodynamique, la pompe à chaleur retire de la chaleur à une source dite « froide » et la rejette dans une source dite « chaude ». Ce transfert fait appel à un processus forcé, puisque chacun sait que la chaleur se déplace de façon naturelle d’une zone chaude vers une zone froide. C’est pourquoi, la PAC doit être entraînée par un compresseur qui lui amènera l’énergie nécessaire à son fonctionnement.

À titre d’exemple,  pompe à chaleur à placer sur la toiture d’un atelier industriel.

Il est important de préciser que l’on parle ici d’appareils réalisant un transfert, et non une création de chaleur. L’objectif visé – le coefficient de performance – se situe autour de 3 unités de chaleur fournies à la source chaude par unité injectée au compresseur. Cela signifie que pour un kWh consommé et payé, on en reçoit 3 gratuitement

Mais la PAC est un producteur de chaleur « dynamique » : contrairement à une chaudière, une PAC voit ses performances varier selon les conditions d’utilisation. Elle aura ainsi de très bonnes performances de chauffage … en été alors que ce n’est pas en cette période que le besoin de chauffage est présent ! La tâche la plus difficile pour le projeteur, consiste à prendre en considération ce comportement dynamique et à équiper l’installation de telle manière que les conditions limites de fonctionnement ne soient pas dépassées.

Un boom commercial

Il s’agit d’une technologie qui bénéficie d’un fort regain d’intérêt ces dernières années après un premier boom (et une déception…) lors de la crise pétrolière des années 70. Le marché est en pleine expansion :

Développement des ventes de pompes à chaleur en Europe 2005-2013, par catégorie.

Source : https://www.ehpa.org.

Un outil « propre » ?

La PAC permet d’utiliser l’énergie électrique à bon escient. La pompe à chaleur s’inscrit-elle alors dans la démarche « développement durable » ? Il convient de nuancer la réponse.

La pompe à chaleur en tant que telle est une machine intéressante dans la mesure où un kWh payé au niveau mécanique (pour faire tourner le compresseur), on produit 3 à 4.5 kWh d’énergie thermique (suivant la technologie utilisée et la qualité de la mise en œuvre). Néanmoins, toute la question de l’impact environnemental d’une pompe à chaleur se trouve dans la façon de produire ce kWh mécanique. La majorité des PAC utilisent de l’énergie électrique pour réaliser ce travail moteur. Les performances environnementales d’une PAC sont donc directement liées aux performances environnementales de l’électricité que l’on utilise. Prenons différents cas de figure :

  • Dans le cas, plutôt marginal à l’heure actuelle, où l’électricité serait produite par des énergies purement renouvelables, comme des éoliennes ou panneaux photovoltaïques, l’impact d’une PAC est remarquable dans la mesure où elle multiplie l’efficacité des énergies renouvelables pour la production thermique, et globalement, l’impact environnemental est nul. Dans ce cas de figure, il n’y a pas lieu de nuancer le propos : les PACs ont un impact positif.
  • Si l’on consomme l’électricité du réseau électrique belge, les performances environnementales des PAC sont alors à nuancer. À l’heure actuelle, la production électrique est largement dominée par les centrales nucléaires. Celles-ci réalisent autour de 60 % de le production électrique. Le restant de la production est essentiellement réalisé par des centrales travaillant avec les combustibles fossiles (gaz et charbon). Les centrales nucléaires sont caractérisées par des émissions d’équivalent CO2 relativement moindres que les centrales classiques (quoi que cet argument est parfois remis en cause). Du coup, si on fait un bilan global, travailler avec des PAC et l’électricité du réseau émet moins de CO2 que de brûler du gaz ou du mazout localement dans la chaudière de chaque habitation. Néanmoins, gros bémol, il reste la problématique des déchets nucléaires. Même si à court terme, la gestion ou du moins, l’entreposage des déchets nucléaires, est gérable, à long terme, cela peut engendrer de gros soucis. Si on s’intéresse à la consommation en combustible fossile, la PAC combinée à l’électricité du réseau est intéressante comparée à la combustion directe dans l’habitat uniquement si la pompe à chaleur à de bonnes performances, c’est-à-dire si l’on travaille avec du bon matériel, bien conçu par rapport au bâtiment et bien installé. En fait, les centrales utilisent 2 à 2.5 kWh de combustible fossile pour générer 1 kWh électrique. En intégrant les pertes du réseau électrique, il faut que la PAC produise plus de 3 kWh thermiques sur base de ce kWh électrique pour que le bilan environnemental soit intéressant.

Conclusion, l’intérêt environnemental de placer une pompe à chaleur est dépendant de la qualité de l’électricité qui est utilisée pour alimenter la PAC. Dans le cas du réseau électrique belge actuel, l’intérêt d’une PAC est présent sur les émissions de CO2 mais, en ce qui concerne la consommation en énergie primaire, uniquement si les performances thermiques des PAC sont optimisées.


Types de pompes à chaleur

 

Source : ef4.

Les pompes à chaleur sont désignées en fonction des fluides caloporteurs dans lesquels baignent les échangeurs de chaleur de l’évaporateur et du condenseur. Attention, il s’agit bien du fluide caloporteur au niveau de l’évaporateur et du condenseur et qui n’est pas toujours équivalent au type de source chaude ou froide (l’air, l’eau ou le sol). En effet, on peut trouver intercalé, entre le condenseur et la source chaude, ou entre l’évaporateur et la source froide, un circuit intermédiaire. Prenons à titre d’exemple, les PAC Saumure/eau. On trouve du coté évaporateur de l’eau glycolée, eau glycolée dans un circuit qui parcourt ensuite le sol afin d’en extraire la chaleur. Du coté condenseur, on trouve un circuit d’eau qui, par exemple, alimente un circuit de chauffage par le sol pour se décharger de son énergie.

Les principaux types de PAC

Désignation

Évaporateur

Condenseur

Boucle intermédiaire : source froide/évaporateur

Boucle intermédiaire : condenseur/source chaude

PAC Eau/ Eau

Eau

Eau

Non

Oui

PAC Air/ Eau

Air

Eau

Non

Oui

PAC Saumure/ Eau

Saumure

Eau

Oui

Oui

PAC Air/ Air

Air

Air

Non

Non

PAC Sol/Sol

Sol

Sol

Non

Non

Exemple de désignation abrégée :

Type : Eau/ Eau
Température entrée évaporateur : 10 °C
Température sortie condenseur : 45 °C
Désignation abrégée : W10/W45

L’expression W10/W45 signifie que la source froide est une eau à 10 °C et la source chaude une eau à 45 °C. C’est sous cette forme que les fournisseurs désignent leurs produits. Une source de chaleur telle une nappe phréatique ou une eau de surface sera désignée par « eau », l’air atmosphérique ou des rejets gazeux par « air », un mélange eau-glycol qui circule dans le circuit fermé entre une source de chaleur et l’évaporateur par « saumure ». De ce fait, les pompes à chaleur puisant l’énergie du sol seront parfois désignées sous le terme de « saumure ».

Les systèmes les plus répandus sont les systèmes Air/Eau puis Saumure/Eau dont la source de chaleur est souterraine. Les pompes à chaleur Eau/Eau sont souvent soumises à autorisation et sont donc moins courantes en Belgique.


Principe de fonctionnement d’une pompe à chaleur

     

Source : ef4.

Le principe de fonctionnement est le même que celui de la machine frigorifique mais l’application travaille en sens inverse.

Cette fois, l’objectif consiste à extraire la chaleur gratuite d’un milieu extérieur : l’eau d’une rivière, l’air extérieur, l’eau d’une nappe souterraine, … (on parle de « source froide »). Physiquement, l’air extérieur à 0 °C contient beaucoup d’énergie puisque sur l’échelle des températures absolues, l’air se situe en réalité à 273 K !

Schéma du principe de fonctionnement d’une pompe à chaleur.

L’évaporateur est à l’extérieur et la température du fluide frigorigène sera environ 5 à 8 °C inférieure à la température de la source froide. L’énergie thermique captée sera « remontée » à un niveau de température utilisable (pour le chauffage d’une maison, par exemple) via le compresseur : le condenseur est donc à l’intérieur.

Bien sûr, on choisira un émetteur de chaleur à une température la plus basse possible (par exemple, chauffage à air chaud, chauffage à eau chaude par serpentin dans le sol, …). L’écart de température entre l’entrée et la sortie du compresseur doit être en effet le plus faible possible pour limiter le travail du compresseur.

Exemple.

Refroidir l’eau d’une rivière initialement à 10 °C pour assurer le chauffage d’une habitation par de l’air à 35 °C. Le fluide frigorigène passera à 6 °C dans la rivière et à 40 °C dans l’échangeur de chauffage de l’air du bâtiment.


Différents coefficients de performance

SC = source de chaleur (source de froide),   Acc = accumulateur.

L’évaluation de la performance instantanée

On peut déduire le rendement d’une PAC (appelé « ε », indice de performance) sur base du rapport entre l’énergie thermique utile délivrée au condenseur par rapport à l’énergie électrique fournie (et payée) au compresseur.

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

Ce rapport peut être obtenu ou déduit du catalogue du fournisseur, à partir de mesures qu’il aura effectuées dans des conditions standards.

L’évaluation de la performance instantanée, auxiliaires compris

Cette fois, on parle d’un coefficient de performance « COP ».

C’est la norme européenne EN 255 qui définit le coefficient de performance en lieu et place de l’indice de performance présenté ci-dessus. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des dispositifs auxiliaires qui assurent le bon fonctionnement de la pompe à chaleur : le dispositif antigel, la commande/régulation et les installations mécaniques (pompe, ventilateur).

Toutefois, ces mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances particulières. Il ne faut pas perdre cela de vue lorsque l’on travaille avec le COP pour estimer les performances d’une PAC.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

L’évaluation de la performance annuelle, auxiliaires compris :

Le coefficient de performance annuel (« COPA ») est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produites et injectées pendant une année y sont comparées les unes aux autres. Il ne s’agit plus ici d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Imaginons que notre PAC exemple fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.

L’évaluation théorique de la performance annuelle :

Il s’agit du Facteur de Performance Saisonnier (« SPF »).

Alors que le COPA est le rapport entre les valeurs mesurées sur un an de l’énergie calorifique donnée utilement au bâtiment et de l’énergie (souvent électrique) apportée à l’installation, le SPF est le rapport de ces mêmes quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SFP comme ceci :

où,

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an].
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Un rendement qui dépasse 100 % !?

Quel bilan énergétique de la PAC ?

Qu’est-ce qui coûte dans l’exploitation d’une installation de pompe à chaleur ?

  • pas l’énergie de la « source froide » : elle est gratuite,
  • mais bien l’énergie électrique du compresseur.

D’où la notion de rendement donné par « ε », l’indice de performance :

ε = chaleur au condenseur/travail du compresseur = Q2 / W.

Or Q2 = Q1 + W = chaleur captée à la source froide + énergie développée par le travail du compresseur (loi de conservation des énergies).

Dès lors, Q2 est toujours plus grand que W et ε est toujours nettement plus élevé que 1.

Est-il normal de rencontrer une machine dont le « rendement » dépasse 100 % ?

En réalité, il ne s’agit pas ici d’une machine de conversion, de transformation d’énergie comme une chaudière (c’est-à-dire transformation d’énergie chimique en chaleur), mais bien d’une machine qui transfère une quantité d’énergie thermique d’un seuil de température à un autre. L’indice de performance n’est donc pas un rendement (de conversion) mais une évaluation de la performance du transfert.

Si l’écart entre les 2 seuils de température augmente, l’efficacité (ε ou COP) diminue.

Quel est le « ε » théorique d’une pompe à chaleur ?

Puisque W = Q2 – Q1, on écrit encore : ε = Q2 / (Q2 – Q1)

Si l’on considère un travail sans pertes, les lois de la thermodynamique établissent le lien entre l’énergie contenue dans un fluide (Q) et la température absolue de ce fluide (T), si bien que l’on admettra sans démonstration l’expression suivante du COP théorique :

ε théorique = T2 / (T2 – T1) [T étant exprimé en Kelvin]

Où :

  • T2 = température de condensation [K].
  • T1 = température d’évaporation [K].

Il faudra donc une température d’évaporation maximale et une température de condensation minimale. Attention cependant à ne pas confondre les températures T1 et T2 du fluide frigorigène avec celles des sources chaudes et froides, même si, par voie de conséquence, le coefficient de performance instantané est d’autant meilleur :

  • que la température de la source de chaleur (= la « source froide ») est élevée,
  • que la température du réseau de chauffage est basse (T2 proche de T1).

Alors que l’on ne peut guère influencer la température de la source de chaleur (la source froide), celle au départ du chauffage sera définie par le projeteur ! Par conséquent, il aura tendance à choisir un chauffage par le sol ou un chauffage à air chaud.

Exemple d’une pompe à chaleur AIR – AIR

Soit T°ext = 0 °C (= 273 °K) et T°chauff. = 40 °C

εthéor = (273 + 40) / (40) = 7,8 !

En théorie, la pompe fournira 8 x plus d’énergie au condenseur que d’énergie demandée au compresseur ! … (les 7/8 de la chaleur étant captés dans l’air extérieur).

Et quel COP pratique ?

En pratique, plusieurs éléments vont faire chuter la performance :

  • Il existe un écart de température entre le fluide frigorigène et les sources.
    Par exemple : si T°ext = 0 °C, T°évaporateur = … – 8 °C… Et si T°chauff. = 40 °C, T°condenseur = … 48 °C… D’où ε = (273 + 48) / (56) = 5,7.
    Le coefficient de convection entre l’eau et l’évaporateur étant nettement meilleur que le coefficient de convection entre l’air et l’échangeur, on aura tendance à privilégier les PAC eau/eau et eau/air. Encore faut-il avoir une rivière au fond de son jardin ou une nappe phréatique sur laquelle il est possible de puiser (autorisation obligatoire). En général, il faudra se résoudre à prendre l’air extérieur comme source froide.
  • Or dans ce cas, si la T°ext < 5 ° C, alors T°fluide évaporateur = 0 °C. Dès lors, du givre apparaît sur les ailettes, la glace bouche l’échangeur extérieur, d’où nécessité de dégivrer (soit un courant électrique est envoyé sur l’échangeur pour faire fondre la glace, soit le cycle est inversé et des gaz chauds sont envoyés dans l’évaporateur).
    Avec la consommation de dégivrage, l’indice de performance moyen diminue fortement.
  • Lorsque la température de l’air extérieur descend sous 0 °C, le compresseur a de plus en plus de mal à fonctionner : la puissance délivrée au condenseur de la pompe à chaleur devient très faible et il faut parfois ajouter des résistances de chauffage électrique directe à l’installation . Paradoxe malheureux, c’est quand il fait très froid que l’habitation demandera le plus de puissance et que la pompe à chaleur lui en donnera le moins!
  • Il y a nécessité de faire fonctionner les ventilateurs des sources froides et chaudes, d’où une consommation électrique supplémentaire de ces auxiliaires.

Exemple. Voici les spécifications techniques d’un climatiseur réversible présent sur le marché. En hiver, ce climatiseur peut fournir de la chaleur au local : il fonctionne alors en mode « pompe à chaleur ».

Unité intérieure

FHYB35FJ

Unité extérieure

RY35D7

Puissance frigorifique

kcal/h

3 100

Btu/h

12 300

kW

3,60

Puissance calorifique

kcal/h

3 500

Btu/h

14 000

kW

4,10

Puissance absorbée

rafraîchissement

kW

1,51

chauffage

kW

1,33

On y repère :

  • l’efficacité frigorifique, E.F., ou COPfroid (coefficient de performance en froid)

puissance frigorifique / puissance absorbée =
3,6 kW / 1,5 kW = 2,4
 

  • l’indice de performance au condenseur, ε

puissance calorifique (au condenseur) / puissance absorbée =
4,1 kW / 1,3 kW 
= 3,2

Attention ! Ce coefficient est obtenu dans des conditions très favorables ! En petits caractères, le fabriquant précise qu’il s’agit de valeurs obtenues pour 7 °C extérieurs… Cette performance va s’écrouler en période plus froide. En réalité, c’est le rendement moyen saisonnier qui nous intéresse… mais celui-ci n’est jamais donné puisqu’il dépend des conditions d’exploitation.


Pompe à chaleur sur boucle d’eau

Plusieurs pompes à chaleur sont connectées sur une boucle d’eau commune.

  • En été, elles fonctionnent en machine frigorifique dont le condenseur est refroidi par la boucle d’eau. Celle-ci se refroidit elle-même via par exemple une tour de refroidissement posée en toiture.
  • En hiver, elles fonctionnent en pompe à chaleur dont la boucle d’eau constitue la source « froide ». Celle-ci est elle-même réchauffée par une chaudière placée en série sur la boucle.
  • En mi-saison, ce système prend tout son sens : si simultanément des locaux sont refroidis et d’autres réchauffés, la boucle qui les relie permet le transfert d’énergie entre eux, avec une performance URE remarquable.

Ce système est optimalisé s’il dispose en plus d’un système pour stocker la chaleur et la restituer à la demande, en différé.

Ces PAC/climatiseurs sont constitués de deux parties :

  • Une partie traitement de l’air du local composée principalement d’un filtre, d’un échangeur Air/fréon et d’un ventilateur de soufflage.
  • Une partie circuit frigorifique constituée d’un compresseur, d’une vanne 4 voies d’inversion de cycle, d’un échangeur Eau/fréon raccordé à la boucle d’eau, d’un détendeur capillaire.

Suivant les cycles de fonctionnement, les échangeurs Eau/fréon et Air/fréon sont tour à tour le condenseur ou l’évaporateur du circuit frigorifique; ce basculement est rendu possible par la vanne 4 voies d’inversion de cycle canalisant les gaz chauds sous pression, en sortie du compresseur, vers l’un ou l’autre des échangeurs dans lesquels le fluide frigorigène sera alors condensé en abandonnant ses calories à l’eau ou l’air.


Impact sur l’environnement

Impact sur la couche d’ozone

Les pompes à chaleur récentes sont en général chargées avec des fluides frigorigènes  tels que les HFC, l’ammoniac, le CO2 ou le propane qui n’ont pas d’impact sur la couche d’ozone.

Impact sur l’effet de serre

Pour calculer l’impact sur l’effet de serre d’une pompe à chaleur, et donc la quantité d’équivalents CO2 qu’elle produit, on doit connaître les éléments suivants :

Éléments liés au fluide frigorigène

  1. Le potentiel de participation au réchauffement climatique sur 100 ans du fluide frigorigène choisi (le GWP100 en anglais). Voir ici  pour connaître ces valeurs en kg de CO2 par kg de fluide frigorigène.
  2. La quantité de fluide frigorigène chargée : m en kg, qui dépend du type de PAC. Il faut en effet dix fois plus de fluide frigorigène dans une PAC « sol/sol » à détente directe (à la source froide ET à la source chaude), par rapport à une PAC eau/eau ou eau glycolée/eau.
  3. La quantité annuelle de fluide frigorigène perdue à cause des fuites : L en kg/an que l’on estime à 3 % de la charge m de fluide frigorigène, si la pompe à chaleur est assemblée et testée en usine et non sur chantier. Si la PAC est assemblée sur chantier, on suppose que 10 % de la masse en fluide frigorigène est perdue par les fuites.
  4. Le taux de récupération du fluide frigorigène lors du démontage de la pompe à chaleur : αrecovery qui est estimé à 75 %.

Éléments liés à l’énergie primaire utilisée pour le fonctionnement de la pompe à chaleur et des auxiliaires

  1. La consommation électrique annuelle : E en kWh/an.
  2. Le coefficient d’émissions de CO2 dues à la production d’électricité : β = 0,456 kg de CO2/kWhélectrique si l’on considère que l’électricité est produite dans une centrale TGV.

Éléments liés à la l’utilisation de la pompe à chaleur

  1. Le nombre d’années d’utilisation : n.

Ces éléments entrent dans la formule du TEWI (Total Equivalent Warming Impact) en kg de CO2 :

TEWI = GWP100 x L x n  +  GWP100 x m x (1 – αrecovery)  +  n x E x β         (*)

Le tableau illustre les quantités de CO2 émises par différents types de PAC de 20 kW calorifiques, toutes chargées avec le fluide frigorigène R407C (GWP100 = 1 800 kg CO2/kg FF).

PAC air extérieur/eau
(A2/W35)
PAC eau/eau
(W10/W35)
PAC eau glycolée/eau
(B0/W35)
PAC sol/eau (évaporation directe)
(S-5/W35)
PAC sol/sol (évaporation et condensation directes)
(S-5/S35)
Puissance calorifique 20 kW 20 kW 20 kW 20 kW 20 kW
COP saisonnier moyen 3,5 4,5 4 4 4
Puissance électrique absorbée 20 kW / 3,5
= 5,7 kW
20 kW / 4,5
= 4,5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
20 kW / 4
= 5 kW
Consommation électrique E 5,7 kW x 2 000 h
= 1 1400 kWh/an
4,5 kW x 2 000 h
= 9 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
5 kW x 2 000 h
= 10 000 kWh/an
Consommation appoint 4 kW x 300 h/an
= 1 200 kWh/an
0 0 0 0
Quantité de FFm 6 kg 2,5 kg 2,5 kg 10 kg 18 kg
Quantité annuelle de FF perdue par les fuites L 3 % de 6 kg
= 0,18 kg/an
3 % de 2,5 kg
= 0,075 kg/an
3 % de 2,5 kg
= 0,075 kg/an
10 % de 10 kg
= 1 kg/an
10 % de 18 kg
= 1,8 kg/an
Premier terme de (*) 1 800 x 0,18 x 20
= 6 480 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 0,075 x 20
= 2 700 kg CO2
1 800 x 1 x 20
= 36 000 kg CO2
1 800 x 1,8 x 20
= 64 800 kg CO2
Second terme de (*) 1 800 x 6 x (1 – 0,75)
= 2 700 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 2,5 x (1 – 0,75)
= 1 125 kg CO2
1 800 x 10 x (1 – 0,75)
= 4 500 kg CO2
1 800 x 18 x (1 – 0,75)
= 8 100 kg CO2
Dernier terme de (*) 20 x (11 400 + 1 200) x 0,456
= 114 912 kg CO2
20 x 9 000 x 0,456
= 82 080 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
20 x 10 000 x 0,456
= 91 200 kg CO2
Émissions 124 092 kg 85 905 kg CO2 95 025 kg CO2 131 700 kg CO2 164 100 kg CO2
Annuelles de CO2 CO2
/ 20 ans
= 6 205 kg CO2/an
/ 20 ans
= 4 295 kg CO2/an
/ 20 ans
= 4 751 kg CO2/an
/ 20 ans
= 6 585 kg CO2/an
/ 20 ans
= 8 205 kg CO2/an

On voit que le troisième terme de l’expression (*) est de loin le plus important en ce qui concerne les 3 premières PAC de 20 kW étudiées : c’est l’électricité consommée par la pompe à chaleur et ses auxiliaires qui génère le plus de CO2 (entre 80 et 95 % des émissions totales). Les quantités de fluide frigorigène sont par contre tellement élevées dans les PAC à détende directe (les deux dernières colonnes), que les émissions de CO2 leur sont en grande partie dues.

Une pompe à chaleur de 20 kW calorifiques chargée au R407C (deux fois moins polluant que le R404A) génère ainsi entre 4 000 et 8 300 kg de CO2 par an en fonction du type de PAC. En comparaison aux chaudières à mazout (13 600 kg de CO2 par an pour une puissance calorifique de 20 kW) ou au gaz (11 200 kg de CO2 pour cette même puissance), la pompe à chaleur est beaucoup moins polluante.  Les PAC qui présentent l’impact sur l’effet de serre le moins important sont les PAC sur eau de surface, car il n’y a pas lieu de forer et leur COP est élevé.

Les pompes à chaleur à électricité d’origine renouvelable

Les émissions de CO2 générées par l’utilisation d’une pompe à chaleur sont très faibles si l’électricité nécessaire à son fonctionnement est produite par des panneaux photovoltaïques ou par une autre énergie renouvelable. L’impact sur l’effet de serre n’est plus alors causé que par les fuites de fluide frigorigène et par sa récupération en fin de vie de la PAC. Alors, si possible, il faut éviter les grandes quantités de fluide frigorigène, qui annuleraient tout l’effort d’économies de CO2 permis par la production renouvelable d’électricité…

Impact sonore

La pompe à chaleur est une technologie qui émet un fond bruyant. En effet, les pièces mécaniques en mouvement, la circulation d’air, etc., occasionnent un niveau sonore qui sera d’autant plus élevé que les conditions extérieures sont mauvaises (la PAC fonctionne au maximum de ses performances par temps froid). Les compresseurs et ventilateurs sont en l’occurrence, les éléments fautifs…

Une PAC émet entre 50 et 60 décibels à 1 mètre et environ 40 dB à 5 mètres. Une telle installation ne sera tolérable que si elle n’occasionne pas de gêne sonore pour les occupants de l’immeuble et pour le voisinage. Il faut donc l’installer suffisamment loin des fenêtres, des pièces de travail, de repos, etc. La PAC devra être posée sur un silent block (plots antivibratiles).

Autres impacts

L’installation d’une PAC eau/eau sur nappe phréatique montrera un impact non négligeable sur les eaux souterraines. Il existe des réglementations pour ce type de PAC, dont la sévérité dépend de la potabilité de l’eau extraite et du débit nécessaire.

Voir le site de la base de données juridique de la Région Wallonne pour connaître la réglementation concernant les prélèvements et les rejets d’eau souterraine : ouverture d'une nouvelle fenêtre !  wallex.wallonie.be : « Arrêté du Gouvernement wallon modifiant l’arrêté du Gouvernement wallon du 4 juillet 2002 arrêtant la liste des projets soumis à étude d’incidences et des installations et activités classées » du 22 janvier 2004.
L’injection d’eau refroidie dans les eaux de surface peut avoir un impact sur le milieu.

Grandeurs caractéristiques des ventilateurs

Grandeurs caractéristiques des ventilateurs


Diamètre nominal

 La plupart des ventilateurs ne sont pas construits à partir de dimensions arbitraires. Celles-ci sont normalisées, ce qui permet leur interchangeabilité et les comparaisons de prix.

Le diamètre nominal d’un ventilateur est le diamètre de la section de raccordement placée à l’aspiration dans le cas d’un raccordement direct à un conduit. Lorsque le ventilateur est équipé différemment (par ex.: présence d’un pavillon à l’aspiration), on se réfère au ventilateur équivalent en raccordement direct.

Diamètres nominaux en mm

63

71

80

90

100

112

125

140

160

180

200

224

250

280

315

355

400

450

550

560

630

710

800

900

1 000

1 120

1 250

1 400

1 600

1 800

2 000


Courbes caractéristiques

Les performances des ventilateurs sont répertoriées sous forme de courbes caractéristiques reprises dans la documentation des fabricants.

On retrouve dans les courbes caractéristiques :

  • la hauteur manométrique totale que peut fournir un ventilateur en fonction du débit (ou point de fonctionnement),
  • la vitesse du ventilateur pour chaque point de fonctionnement,
  • le rendement du ventilateur pour chaque point de fonctionnement,
  • la pression dynamique à la sortie du ventilateur,
  • la puissance absorbée à l’arbre du moteur.

Courbes caractéristiques d’un ventilateur centrifuge à aubes inclinées vers l’arrière.

Pour fournir un débit de 8 000 m³/h, le ventilateur délivre une pression dynamique de 45 Pa.

Pour un réseau ayant, avec ce débit une perte de charge de 955 PA, la hauteur manométrique
du ventilateur est de 1 000 PA Pour obtenir ce point de fonctionnement le ventilateur
doit tourner à 1 950 tr/min.
Pour ce point de fonctionnement, son rendement sera de 81 %
et la puissance à l’arbre sera proche de 2,8 kW.

Certaines courbes caractéristiques reprennent de façon semblable la puissance acoustique émise par le ventilateur pour chaque point de fonctionnement.

De même, si l’angle de calage des aubes du ventilateur (ventilateur hélicoïde) peut varier ou si le ventilateur est équipé d’un aubage de prérotation, on retrouvera sur les courbes caractéristiques les différentes performances du ventilateur en fonction du réglage choisi.

On peut également signaler que l’imprécision des mesures des caractéristiques en laboratoire a conduit à éditer des classes de tolérance permettant de se faire une idée de la qualité de la documentation technique fournie par le fabricant.

Classe de tolérance

0

1

2

3

Débit d’air

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Pression

+/- 1 %

+/- 2,5 %

+/- 5 %

+/- 10 %

Puissance absorbée

+ 2 %

+ 3 %

+ 8 %

+ 16 %

Rendement

– 1 %

– 2 %

– 5 %

Puissance acoustique

+ 3 dB

+ 3 dB

+ 4 dB

+ 6 dB


Sens de rotation et position de l’enveloppe

C’est la situation de la manchette de refoulement qui permet de différencier la position de l’enveloppe (0, 90, 180 ou 270 degrés avec parfois des angles intermédiaires comme 45, 135, 270 ou 315 degrés).

Quant au sens de rotation d’une roue, il se détermine comme suit : l’observateur se place face au ventilateur du côté du moteur (ou du manchon d’accouplement ou de la poulie) et regarde dans le prolongement de l’axe de rotation du ventilateur. Si l’observateur voit alors le ventilateur tourner dans le sens des aiguilles d’une montre, le ventilateur est dit tourner « à droite » ou dans le « sens direct » ; s’il le voit tourner dans le sens inverse des aiguilles d’une montre, le ventilateur est dit tourner « à gauche » ou dans le « sens inverse ».


Règles de similitude

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné.

Variation des grandeurs caractéristiques d’un ventilateur lorsqu’on modifie sa vitesse à partir d’un point de fonctionnement donné

q/ q= n1 / n2

Légende :

q = débit volume (m³/h)

n = vitesse de rotation (tr/min)

p = gain de pression (Pa)

P= puissance sur l’arbre (kW)

p/ p= (n1 / n2)² = (q1 / q2

Pw1 / Pw2 = (n/ n2)³ = (q/ q2

Variation du diamètre de l’ouïe d’aspiration pour un ventilateur tournant à vitesse constante

V/ V= (d/ d2

Légende :

d = diamètre de l’ouïe d’aspiration (mm)

p/ p= (d/ d2

Pw1 / Pw2 = (d1 / d2)5

Absorbeurs acoustiques

Absorbeurs acoustiques


Les silencieux à absorption

Le silencieux à absorption est le plus utilisé dans les installations de ventilation et de climatisation.

Physiquement, l’énergie acoustique du signal sonore est absorbée par les parois et convertie en chaleur.

  1. gaine d’écoulement.
  2. enveloppe perméable aux sons.
  3. matériau d’absorption acoustique.

Le principe consiste à faire circuler l’air entre des plaques de matériau absorbant, appelées baffles (garnie de plaques métalliques dans le cas des silencieux pour basse fréquence). L’atténuation acoustique d’un silencieux est fonction de l’épaisseur des baffles, de l’écartement entre deux baffles et de la longueur de ces derniers

  • Silencieux composés de cinq baffles.
  • Baffle pour silencieux efficace pour les hautes fréquences.
  • Baffle pour silencieux, recouvert en partie d’une tôle métallique pour les basses fréquences.

 

Tourelles d’extraction équipées d’un silencieux.

Il existe également des baffles cylindriques dans lesquels le matériau absorbant est recouvert d’un tube  perforé. Ceux-ci ne permettent pas une atténuation aussi importante que leurs homologues rectangulaires, mais provoquent moins de pertes de charges. Pour les plus grands diamètres, ce type de silencieux est en outre équipé d’un cylindre central (appelé bulbe) pour augmenter ses performances.

    

Silencieux cylindriques sans et avec bulbe.


Les silencieux actifs

L’absorption acoustique a comme principe de créer à l’aide d’un circuit électronique une onde déphasée par rapport à l’onde acoustique qui se propage dans le réseau, annulant cette dernière :

Le bruit incident dans la gaine est transmis par le microphone de détection (situé vers le ventilateur) au calculateur électronique. Celui-ci analyse ce signal entrant, le décompose, calcule le signal inverse et le restitue au haut-parleur. Ce dernier émet le bruit contraire ainsi créé dans le flux d’air qui interfère de manière destructive avec le bruit incident pour l’atténuer. Un microphone de contrôle (à l’opposé du ventilateur) transmet au calculateur le bruit atténué résultant pour qu’il corrige et optimise cette atténuation.

Silencieux actif.

L’énorme avantage de cette technique est de ne créer que peu de perte de charge, contrairement à tous les systèmes dits « passifs ».

Les silencieux actifs sont capables d’éliminer aussi bien des bruits complexes que des sons purs. Ils sont particulièrement efficaces dans l’atténuation des basses fréquence sans sélectivité.

Ils peuvent ainsi être complémentaire aux silencieux à absorption car leur association permet de réduire des niveaux de bruit sur de larges bandes allant des basses aux hautes fréquences.

Les silencieux actif s’insère directement sur un réseau de gaines circulaires mais, pour les gaines rectangulaires des pièces d’adaptation sont nécessaires.

Les turbulences au sein de l’écoulement d’air diminuent les performances de ce type de silencieux. Il faut donc être attentif à les placer dans une portion du réseau où l’air se répartit le plus uniformément sur toute sa section.


La manchette de compensation

La manchette de compensation, ou compensateur élastique, a pour mission de couper les bruits transmis par les solides, grâce à son élasticité.

Tout particulièrement, elle permet de stopper les vibrations générées par le ventilateur dans le caisson de climatisation.

Elle est réalisée en toile à voile, en tissu plastifié ou en matière synthétique.


Le revêtement absorbant de conduit

Un revêtement intérieur fibreux (généralement, il s’agit de panneaux de laine minérale) renforce l’atténuation du son transporté par un conduit d’air.

Il existe des matériaux avec protection contre la désagrégation (pour éviter un détachement des fibres du matériau acoustique), par exemple des panneaux de fibres minérales enduits au néoprène. Cet enduit ne doit pas dépasser 0,1 mm d’épaisseur, sans quoi le pouvoir d’absorption est diminué. Les panneaux pouvant émettre des fibres dans le réseau de ventilation sont, quant à eux, à éviter.

Ces panneaux ont pour avantage de créer simultanément une isolation thermique entre le fluide et les locaux traversés… mais ont pour désavantages d’augmenter les pertes de charge, de retenir les poussières et de favoriser le développement de milieux peu hygiéniques…

Exemple : imaginons un conduit de 0,15 m x 0,15 m de section, d’une longueur de 11 m, munie d’un revêtement absorbant sur 1 m. Quelle sera l’atténuation sonore totale ?

Voici l’atténuation du niveau sonore annoncée par un fabricant de panneaux absorbants [en dB/m] :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

4,5

4

11

16,5

19

17,5

0,30 m x 0,30 m

1,5

1,5

6

15

10

7

0,60 m x 0,60 m

1

1,5

5

12

7

4,5

Remarque.

On constate que l’absorption acoustique d’un matériau fibreux est nettement plus élevée pour les hautes fréquences (sons aigus) que les basses fréquences (sons graves). On constate également que le même absorbant est plus efficace dans un conduit de faible diamètre (la fréquence des chocs avec les parois est beaucoup plus élevée).

Voici l’atténuation linéaire [en dB/m] d’un conduit en tôle d’acier :

Section du conduit

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

0,15 m x 0,15 m

0,6

0,45

0,3

0,3

0,3

0,3

Additionnons les atténuations [en dB] sur les 11 m de conduit :

125 Hz

250 Hz

500 Hz

1 000 Hz

2 000 Hz

4 000 Hz

10 m sans revêtement

6

4,5

3

3

3

3

1 m avec revêtement

4,5

4

11

16,5

19

17,5

Atténuation totale

10,5

8,5

14

19,5

22

20,5

Conclusions : Il est très frappant de voir l’efficacité de 1 m de matériau absorbant par rapport à 10 m de tôle non couverte ! En fait, les conduits en tôle avec revêtement absorbant ne sont rien d’autre que des silencieux à absorption…

Eclairage naturel et ses variations

Eclairage naturel et ses variations

La lumière naturelle n’est ni fixe, ni toujours égale dans sa qualité et son intensité.


L’influence du type de ciel

La lumière naturelle traduit les fluctuations de l’état du ciel. Elle est composée de la lumière directe du soleil et de la lumière diffuse du ciel. Les stratégies à mettre en place pour accroître la luminosité intérieure d’un édifice doivent tenir compte de cette différence.

La lumière solaire directe dispense un flux considérable qui s’avère facile à capter et à diriger. Elle présente une dynamique intéressante et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement et ne provoque pas de surchauffe mais elle peut être considérée comme insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes.

Les résultats des simulations présentés ci-dessous mettent en évidence l’influence du type de ciel sur la quantité de lumière qui peut être captée par un local, le 15 mars à 9 heures universelles, pour une ouverture orientée au sud. Le ciel couvert fournit un éclairage parfaitement symétrique par rapport à l’axe du local, ce qui est dû au fait que la distribution des luminances de la voûte céleste d’un ciel couvert est symétrique par rapport au zénith. Ce n’est pas le cas d’un ciel clair. Ainsi, la répartition lumineuse d’un local éclairé naturellement par un ciel serein est très souvent fortement asymétrique. Les simulations réalisées pour un local orienté vers le sud sous un ciel clair et sous un ciel clair avec soleil, le 15 mars à 9 heures, présentent des niveaux d’éclairement nettement plus importants du côté ouest du local.

Par ciel couvert, les niveaux d’éclairement dans le module simulé varient d’environ 1 300 lx, à 50 cm de la fenêtre, à 70 lx au fond du local.

Graphe résultat simulation ciel couvert.

Par ciel clair, ces valeurs d’éclairement augmentent jusqu’à 4 300 lx près de la fenêtre et 300 à 400 lx au fond du local.

Graphe résultat simulation ciel clair.

La présence du soleil dans un ciel clair permet au rayonnement solaire direct d’entrer dans un local. Ainsi, dans la simulation d’un ciel clair avec soleil, le rayonnement solaire direct trace une zone extrêmement lumineuse sur le plan de travail, ce qui porte l’éclairement du côté ouest, à proximité de l’ouverture, à près de 20 000 lx. Dans ce dernier cas, l’éclairement au fond du local vaut environ 500 lx. La lumière solaire disponible diminue donc fortement lorsque le ciel se couvre.

Graphe résultat simulation ciel clair avec soleil.


L’influence du moment de l’année

Pour des conditions de ciel clair avec soleil, le 15 juin à 13 heures universelles, le niveau d’éclairement simulé dans notre cas de base atteint 55 000 lx à proximité de la fenêtre. Mais ces valeurs d’éclairement très élevées ne concernent qu’une bande étroite le long de la façade, ce qui est lié à la hauteur du soleil qui atteint 62° le 15 juin à 13 heures.

Graphe résultat simulation 15 juin.

Par contre, le 15 décembre, l’éclairement est compris entre 14 000 et 11 000 lx sur plus de la moitié du local. Au fond de l’espace, les valeurs atteintes sont de 750 lx le 15 juin et 1 600 lx le 15 décembre.

Graphe résultat simulation 15 décembre.

De l’été à l’hiver, le rayonnement solaire direct pénètre plus en profondeur dans le local mais le niveau d’éclairement à proximité de la fenêtre diminue progressivement.


L’influence de l’heure

Par ciel clair avec soleil, la répartition lumineuse varie fortement d’une heure à l’autre et d’un point à l’autre du local. La lumière disponible augmente jusqu’à la mi-journée, puis diminue.

Pour la journée du 15 décembre, par exemple, les valeurs d’éclairement obtenues à 9 huniv. sont comprises entre 2 600 lx près de la fenêtre et 400 lx au fond du local; tandis qu’à 13 huniv. , l’éclairement vaut 11 000 lx sur plus de la moitié du local et 1 600 lx au fond.

Le rayonnement solaire direct induit une tache de lumière qui évolue, au cours de la journée, depuis le mur ouest du local vers le mur est.

Graphe résultat simulation 9 heures.

Graphe résultat simulation 11 heures.

Graphe résultat simulation 13 heures.

Graphe résultat simulation 15 heures.

Graphe résultat simulation 17 heures.


L’influence de l’orientation de l’ouverture

L’organisation spatiale d’un bâtiment devrait toujours être pensée en fonction du moment d’occupation des locaux, de l’activité qui s’y déroule et de la course du soleil.

   

Il est préférable de placer les fenêtres de telle façon que le soleil puisse pénétrer à l’intérieur d’un local au moment où il est le plus utilisé. Ainsi, les locaux essentiellement occupés le matin devraient, dans la mesure du possible, être orientés à l’est, ceux occupés dans le courant de la journée, au sud et ceux où l’on se tient en soirée, à l’ouest. Pour une habitation domestique, on choisira, par exemple, une orientation est pour la cuisine, tandis qu’une orientation ouest convient davantage à un salon. Les locaux de service ainsi que les pièces de travail nécessitant une lumière constante et homogène sont de préférence localisés au nord.

L’apport de lumière naturelle est maximum sur la façade sud en hiver et en entre-saison. Par contre, en été, le rayonnement solaire est plus important à l’est pendant la matinée et à l’ouest durant l’après-midi.

Les ouvertures orientées au sud offrent donc la meilleure situation puisqu’elles captent un maximum de rayons solaires en hiver et durant l’entre-saison et qu’en été, il est plus facile de se protéger du soleil au sud puisqu’il est plus haut dans le ciel. La façade sud apparaît donc comme l’orientation privilégiée pour capter la lumière naturelle.

Lorsque le ciel est couvert, le rayonnement lumineux est diffusé dans toutes les directions. Les baies vitrées verticales captent donc la lumière de manière similaire, indépendamment de leur orientation. Par contre, lorsque le ciel est clair, l’orientation de la baie vitrée influence directement la quantité de lumière captée. Ainsi, une baie vitrée perpendiculaire aux rayons solaires captera beaucoup plus de lumière que les autres orientations.

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Pendant l’été, elles peuvent devenir une source d’éblouissement, difficile à contrôler car le soleil est bas. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, ce qui est préférable pour certaines activités comme un atelier de peinture, par exemple.

Les pièces orientées à l’est profitent du soleil le matin mais le rayonnement solaire est alors difficile à maîtriser car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin.

Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest assure une insolation directe en soirée. Il est très intéressant d’orienter à l’ouest les locaux où l’on souhaite un éclairage doux et chaleureux. Toutefois, il y a un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important.

De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler et d’un ensoleillement maximal en hiver, ce qui est souvent l’idéal.

En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans la maison tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.


L’influence de l’inclinaison de l’ouverture

La surface à prendre en compte pour étudier la lumière disponible est le plan dans lequel s’inscrivent les limites de la fenêtre. Ainsi, la photo ci-dessous correspond à une ouverture horizontale, même si les vitrages sont obliques.

Pour capter le maximum de rayonnement solaire direct, une ouverture doit être la plus perpendiculaire possible aux rayons du soleil. En revanche, par ciel couvert, les performances d’une fenêtre sont avant tout liées à la portion de ciel visible depuis l’ouverture. Ainsi, une ouverture zénithale horizontale couvre une partie de ciel plus importante qu’une fenêtre verticale et apporte donc une plus grande part de lumière naturelle diffuse dans le local qu’elle éclaire. De même, une fenêtre oblique tournée vers le ciel offre déjà un flux lumineux diffus plus important que la fenêtre verticale.

Les fenêtres de façade et les ouvertures zénithales ont un comportement radicalement divergent en ce qui concerne la sélection des pénétrations solaires.

Les ouvertures latérales ne voient qu’une partie du ciel. Par ciel couvert, ces ouvertures verticales ont donc des performances lumineuses nettement plus faibles que les ouvertures horizontales. En outre, la lumière pénètre latéralement dans les locaux, ce qui peut créer des situations de contre-jour ou d’éblouissement à proximité des fenêtres.

Cependant, les fenêtres latérales en façade sud transmettent un maximum de rayons solaires en hiver, ce qui favorise l’utilisation des gains solaires, tout en limitant les pénétrations estivales et les surchauffes qu’elles induisent.

Schéma fenêtres latérales en façade sud- 01.Schéma fenêtres latérales en façade sud- 02.
Schéma fenêtres latérales en façade sud- 03.

Les ouvertures zénithales s’ouvrent sur la totalité de la voûte céleste; elles induisent donc une large pénétration de lumière diffuse. La distribution lumineuse obtenue par une ouverture horizontale est aussi beaucoup plus homogène que celle produite par une fenêtre verticale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement.

Par contre, par ciel serein, les ouvertures zénithales captent mal les rayons solaires d’hiver alors qu’elles laissent largement pénétrer le soleil d’été, ce qui implique un mauvais comportement thermique.

Schéma ouvertures zénithales - 01. Schéma ouvertures zénithales - 02.
Schéma ouvertures zénithales - 03.

Le graphique donné ci-après présente les valeurs d’éclairement par ciel couvert d’un local comprenant, pour seule ouverture, une fenêtre zénithale horizontale de 1,5 m² de surface placée au centre du plafond, le 15 décembre à 13 heures universelles. Cette fenêtre zénithale donne de très bons résultats puisqu’elle procure un éclairage assez uniforme de l’espace, alors que la surface vitrée est faible. Le désavantage majeur d’une ouverture horizontale réside dans son mauvais comportement par rapport aux gains solaires, qui sont plus élevés en été qu’en hiver.

Graphe résultat simulation ciel couvert.


L’influence de l’environnement

Chaque lieu spécifique développe sa propre identité vis-à-vis de sa région et de son climat général. Le côté est d’une montagne offre de beaux levers de soleil et sa disparition rapide dans la soirée ; le versant ouest montre de superbes couchers mais un soleil qui se lève tard ; le creux de la vallée reçoit une période d’ensoleillement direct plus courte que le sommet de la montagne. La topographie, la végétation, la nature du sol et l’urbanisme influencent entre autres les données météorologiques d’un lieu: chaque site est caractérisé par un microclimat. Dès lors, travailler l’architecture d’un bâtiment en faisant abstraction de son environnement paraît impensable.

La lumière disponible dépend de l’environnement direct du bâtiment par le jeu de différents paramètres : le relief du terrain, les constructions voisines, le coefficient de réflexion du sol, la végétation,…. Ces éléments ne doivent pas être négligés; la présence d’un gratte-ciel, d’un lac ou d’un arbre peut radicalement transformer la lumière d’un espace.

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain peut provoquer de l’ombre sur un bâtiment ou au contraire favoriser son ensoleillement. L’éclairement d’un site en pente dépend de la géométrie solaire ainsi que de l’orientation et de l’inclinaison du terrain. Les pentes sud jouissent d’une meilleure insolation que les terrains plats. Il faut prendre en compte les caractéristiques naturelles du site et tirer profit du profil du terrain, que l’on pourra au besoin remanier localement.

On appelle « masque solaire » tout corps empêchant le rayonnement solaire d’atteindre une surface que l’on désire ensoleiller. En ville, en hiver, il est parfois difficile de capter quelques rayons solaires à cause des bâtiments voisins qui leur font écran.

La quantité d’énergie solaire reçue en un endroit dépend souvent de l’ombrage des bâtiments avoisinants. En Belgique, en hiver, le soleil est bas sur l’horizon. Tous les masques de l’environnement, immeubles ou grands arbres, qui interceptent le soleil pendant cette période gêneront grandement l’utilisation de la lumière naturelle.

Les simulations ci-dessous présentent la diminution du niveau d’éclairement intérieur de notre local suite à l’ajout d’un masque urbain formé par un bâtiment de 30 m de long et de 15 m de haut, placé parallèlement au local simulé, à 18 m de la fenêtre. Cet obstacle correspond à un angle horizontal d’obstruction de 40° et à un angle vertical d’obstruction de 37° depuis le milieu de la fenêtre. La quantité de lumière intérieure est fortement réduite à cause de cette construction: sous ciel couvert, le 15 décembre à 13 huniv., l’éclairement n’est plus que de 80 lx à 2 m de la fenêtre pour le local ombragé par le bâtiment alors que, sans ce masque urbain, il y a environ 200 lx.

Graphe résultat simulation sans bâtiment.

Graphe résultat simulation avec bâtiment.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Pour profiter au maximum de la lumière naturelle, il importe de ne pas négliger le facteur de réflexion des surfaces extérieures environnant le bâtiment. En effet, des surfaces claires et réfléchissantes augmentent la quantité de lumière qui peut pénétrer dans le bâtiment.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Les graphes ci-dessous montrent la variation de la lumière naturelle dans un bâtiment en fonction du coefficient de réflexion du sol qui entoure le bâtiment, le 15 juin à 13 heures universelles sous ciel couvert. Trois matériaux différents ont été simulés : la terre (r = 0,22), qui correspond au facteur de réflexion utilisé pour le sol extérieur de l’ensemble des simulations de ce chapitre, le béton neuf (r = 0,35) et la neige (r = 0,9). Le local est d’autant mieux éclairé que le coefficient de réflexion du sol extérieur est élevé.

Graphe résultat simulation sol extérieur en terre.

Graphe résultat simulation sol extérieur en béton.

Graphe résultat simulation sol extérieur couvert de neige.

L’emploi de matériaux réfléchissants peut également influencer l’exposition effective d’un bâtiment. Un édifice orienté au nord et doté de larges vitrages clairs pour tirer parti de la lumière naturelle peut se trouver dans une situation sud si on construit en face de lui un bâtiment équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement. A l’évidence, les conditions de confort du premier bâtiment sont profondément modifiées par la construction du second.

Des éléments liés au bâtiment lui-même, tels que des murs de refends, des surplombs, des light shelves,….peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La mise en place d’auvents ou de surplombs fixes destinés à réduire les problèmes d’éblouissement et de surchauffe pénalisera bien sûr la quantité de lumière captée par le bâtiment. En général, il est souhaitable en Belgique que les angles d’obstruction ne dépassent pas 45° pour l’angle horizontal et 25° pour l’angle vertical.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Annexe : les paramètres de simulation

Les simulations présentées ci-dessus proviennent du logiciel SUPERLITE, programme d’éclairage naturel faisant partie du progiciel ADELINE.

Elles sont toutes réalisées à partir d’un module de base de 7,2 m de profondeur, 4,8 m de largeur et 3 m de hauteur, éclairé par une fenêtre latérale de 4,58 m de large et de 1,13 m de haut, centrée horizontalement. Le plan de travail et le rebord inférieur de l’ouverture sont situés à 0,75 m du sol. La fenêtre couvre une aire de 5,2 m², ce qui correspond à 15 % de la superficie du plancher de ce local.

Schéma paramètres de simulation.

Les simulations tiennent compte d’un double vitrage, dont le coefficient de transmission lumineuse est de 78 %. Cette vitre est placée en retrait de 0,15 m par rapport au plan de la façade. Le module simulé est situé en site parfaitement dégagé, sans élément d’ombrage. Les coefficients de réflexion des parois intérieures valent 15 % pour le sol, 45 % pour les murs et 70 % pour le plafond.

Les données météorologiques utilisées pour les calculs sont celles d’Uccle (Bruxelles) : 50,8° de latitude (nord), – 4,4° de longitude (est) et 100 m d’altitude. Le moment de la journée simulé est toujours précisé en fonction des heures universelles. Chaque fois qu’un paramètre de ce module de base a été modifié dans une simulation, le changement effectué est clairement précisé.

Automatiser les protections mobiles ?

Trois modes de manipulation

Il existe trois degrés de manipulation des protections solaires amovibles :

  • Manuelle (par manivelle, cordon ou chaînette),
  • motorisée (commande avec bouton poussoir ou télécommande, commande groupée ou individuelle),
  • automatisée.

Quel est le rôle de la gestion automatique ?

Augmenter la protection

Lorsque des apports solaires risquent d’entraîner des surchauffes des locaux et une production de froid importante ou l’éblouissement des occupants, la régulation peut décider le déploiement de la protection.

Cette action peut être préventive et intervenir avant que l’inconfort réel n’apparaisse. En hiver, la nuit venue, la régulation peut prendre en charge l’ajout d’une isolation complémentaire aux fenêtres.

Diminuer la protection

En période de chauffe, des apports extérieurs sont les bienvenus. La régulation peut décider la suppression de la protection pour diminuer les frais de chauffage.

L’automatisation permet en outre de ne pas exposer les protections à des contraintes extérieures excessives (vent, pluie, vandalisme).

La libération automatique des fenêtres en cas d’incendie est également un point à considérer.


Pourquoi automatiser la protection ?

Le rôle de la gestion automatique pourrait être assuré manuellement par un occupant consciencieux. Cependant, il existe plusieurs objections à cela :

    1. L’optimalisation des dépenses énergétiques n’est généralement pas le souci premier des occupants des bâtiments du secteur tertiaire.Exemple : en hiver, qui pensera à baisser son store le soir avant son départ ?
    2. L’oubli de la protection et la non-surveillance des conditions extérieures.

Exemple : une protection extérieure restant déployée durant la nuit alors que le vent se lève risque de se détériorer.

    1. Ou tout simplement l’absence d’occupant dans un local, alors que celui-ci est chauffé ou refroidi.
      Exemple : les apports solaires dans les locaux orientés à l’est peuvent devenir importants avant l’arrivée du personnel. Dans les locaux orientés à l’ouest, les apports les plus importants se produisent en fin de journée. Qui pensera alors à protéger la fenêtre pour empêcher toute accumulation inutile de chaleur après le départ des occupants ? De même dans des locaux inoccupés, il faut prévenir toute accumulation de chaleur qui augmentera ultérieurement ou sur le moment même la nécessité de refroidissement. Ces exemples peuvent être transposés en période de chauffe lorsque les apports extérieurs sont alors les bienvenus.

En conclusion

L’automatisation des protections solaires mobiles permet donc de suppléer à l’absence des occupants ou à leurs carences en matière de gestion des apports énergétiques extérieurs. Cependant, une dérogation est toujours recommandée pour offrir à l’occupant une possibilité d’interagir sur son environnement. Cela lui permettra, en autres, de se protéger d’un éventuel inconfort (dû à l’éblouissement par exemple) ou de satisfaire un besoin d’intimité.


Quelles caractéristiques pour le système d’automatisation ?

Les grandeurs de référence

L’ensoleillement

Un capteur mesure l’intensité lumineuse et active le système de protection en cas de dépassement des valeurs programmées.

La température extérieure

Une sonde de température extérieure empêchera le déploiement des protections en dessous d’une certaine valeur.

La température intérieure

Un thermostat d’ambiance peut commander la protection en fonction de la température intérieure.

La vitesse du vent

Un anémomètre mesure la vitesse du vent et commande un retrait des protections extérieures en cas de menace de tempête.

La présence de pluie

Une sonde détecte la présence de pluie et entraîne le retrait immédiat de la protection.

La date et l’heure

Une horloge quotidienne et hebdomadaire commandera à heures fixes les protections.

Le danger d’incendie

Un détecteur de fumée commande le retrait des protections pour garantir l’accès aux fenêtres et une évacuation possible.

Toutes ces grandeurs ne doivent pas forcément être reprises. Pour les protections extérieures la protection au vent sera la configuration minimale. Son association avec une sonde d’ensoleillement sera aussi couramment rencontrée. La protection contre la pluie n’est importante que pour les protections extérieures horizontales (auvents). Par contre le vent et la pluie n’ont pas d’influence sur les protections intérieures.

Lorsque plusieurs grandeurs sont prises en considération, le régulateur actionnera (en tout ou rien ou en modulation) les protections en fonction d’un des paramètres considéré comme prioritaire ou en fonction d’une combinaison de paramètres.

La temporisation

La temporisation des commandes de l’automatisme est indispensable. En effet, de petites variations passagères des paramètres ne peuvent entraîner des modifications incessantes des protections.

Exemple : le passage d’un nuage, légères variations de température, …

Si tel était le cas, l’abandon de l’automatisme pour un mode manuel serait rapidement opéré par les utilisateurs.

Commande centralisée et dérogation

Une centralisation permet de commander une série de protections pour des locaux d’orientation identique.

Exemple : toute l’aile d’un hôpital, …

Dans ce cas, un local de référence devra accueillir la sonde de température ambiante éventuelle.

Malgré l’automatisation, une dérogation doit rester possible pour les utilisateurs d’un local particulier. Cette liberté sera, au même titre que la protection proprement dite, source de confort et donc d’efficacité pour les occupants. Cependant la dérogation et le fonctionnement en mode manuel ne peuvent rester permanents un retour au mode automatique est obligatoire si on ne veut pas perdre tous les avantages de l’automatisation. Ce retour peut se faire en fonction du temps de dérogation, d’un horaire précis ou de la variation d’un des paramètres. Les paramètres prévenant toute détérioration (vent, pluie) des protections seront prioritaires et indérogeables.

Protection du système

L’automatisation doit être munie d’un système permettant de détecter tout mauvais fonctionnement de la sonde de vent. Par exemple si le régulateur ne détecte aucun mouvement de l’anémomètre durant une période déterminée, il commande le retrait immédiat de la protection et bloque l’automatisme.


Quel est le coût du système de commande ?

Il est difficile de fixer dans l’absolu le surcoût relatif à la motorisation et à l’automatisation des protections mobiles.

Paramètres

Cela dépend  :

  • Du nombre de protections manipulables et gérables simultanément,
  • de l’orientation des locaux,
    Exemple : un local avec une façade vitrée au sud et une à l’ouest devra disposer de deux capteurs d’ensoleillement
  • du nombre de grandeurs prises en compte,
  • du précâblage existant dans le bâtiment,

Pour fixer les idées

D’une manière générale, on peut dire que l’installation de protections motorisées a un coût semblable à l’installation de protections à commande manuelle. Lorsque le nombre de protections gérables simultanément devient important, la commande électrique peut même devenir moins onéreuse que la commande manuelle, grâce à des commandes groupées et à une main d’œuvre nécessaire moins importante (le branchement électrique est plus facile à réaliser que le placement d’une manivelle au travers du châssis ou du mur).

Notons également que la commande électrique des protections sollicite moins les parties mobiles que la commande manuelle et donc leur garantit une durée de vie plus longue.

En fonction du degré de sophistication demandé, le coût d’une gestion automatique se situe dans une fourchette de 250 à 1250 €. Lorsque le nombre de protections gérées est important, on se rend compte que le surcoût relatif de l’automatisation devient nettement moins lourd.

De plus, certains capteurs du système de gestion peuvent déjà faire partie de l’installation de chauffage ou de climatisation comme capteur principal ou de compensation.

Un projet d’installation de protections solaires peut être planifié sur plusieurs années. Si le besoin se fait ressentir, des protections motorisées peuvent être équipées d’une gestion automatique a posteriori sans surcoût important par rapport à un projet initial complet.


Exemple d’automatisation d’une protection mobile

L’exemple ci-contre, se rapporte à un bâtiment précis. Les valeurs de consigne qui y sont mentionnées peuvent varier en fonction de la saison et du type d’inertie du bâtiment. Si le bâtiment est sensible à l’ensoleillement même durant la saison de chauffe, la consigne de température extérieure peut être abaissée. De même, une anticipation face à la surchauffe peut être réalisée en diminuant la température de consigne intérieure. En effet plus le bâtiment est inerte thermiquement, plus l’apparition de la surchauffe sera retardée par rapport à l’ensoleillement.

Choisir une protection mobile, fixe ou permanente

Choisir une protection mobile, fixe ou permanente


Stores enroulables mobiles.

Brise-soleil fixes.

Films pare-soleil permanents.


Pourquoi moduler la protection ?

Des besoins variables

Les besoins de protection des locaux vis-à-vis des apports du soleil sont la plupart du temps variables sur une journée ou encore sur une année :

  • Les apports énergétiques peuvent être souhaités en hiver et au printemps (température extérieure moyenne < 8°C) mais risquent de devenir indésirables en été ou en automne (température extérieure moyenne > 15°C).
  • Les apports solaires seront importants le matin pour les locaux orientés à l’est et le soir pour les locaux orientés à l’ouest.
  • Une augmentation de l’isolation thermique des vitrages est souhaitable durant les nuits d’hiver mais au contraire défavorable au refroidissement du bâtiment durant les nuits en été.
  • L’éblouissement dépend très fort de la hauteur du soleil et donc de l’orientation et de la saison.
  • En absence de soleil, la lumière du jour est souvent la bienvenue.

Optimaliser les besoins de chaleur et de froid

Adapter le degré de protection à ces besoins permettra de gérer les apports gratuits et d’optimaliser les productions de chaud ou de froid (pour autant que celles-ci tiennent compte des apports externes : présence de vannes thermostatiques, sonde extérieure,…) et l’éclairage artificiel des locaux.

L’optimalisation de la protection solaire en fonction des besoins réels dépendra de plusieurs facteurs :

La mobilité de la protection elle-même : certaines protections peuvent être fixes, d’autres complètement amovibles. Le degré d’automatisation de la protection : la manipulation de nombreuses protections peut être motorisée et automatisée. Dans ce cas, le degré de protection sera automatiquement réglé en fonction de grandeurs représentatives des climats intérieurs et extérieurs.

Le comportement des occupants : dans le cas de protections manuelles, le rôle de l’occupant sur l’optimalisation de la protection est important et souvent difficile. Dans le cas de protections automatisées, il faut tenir compte de la liberté de l’occupant et de son pouvoir sur la mise en dérogation du système.


Les protections mobiles

La protection peut varier selon les souhaits de l’utilisateur, quelle que soit l’heure ou la saison.

Exemple : les stores vénitiens, enroulables, à lamelles.

L’adaptation aux besoins en protection ou en apports solaires peut se faire par retrait partiel ou complet (latéral ou vertical en fonction du type de store) ou par inclinaison des lamelles. Cette modulation peut être gérée par l’occupant de façon manuelle ou motorisée (il existe aussi des systèmes avec télécommande) ou de façon automatique grâce à un régulateur.

Store vénitien
intérieur.

Store enroulable
extérieur.


Les protections fixes

Le système est fixe et le degré de protection varie systématiquement en fonction de l’heure et de la saison.

Exemple : les brise-soleil, les avancées architecturales.

Souvent les éléments fixes sont des avancées horizontales au-dessus de la fenêtre, soit des avancées verticales de part et d’autre de la fenêtre.

Le pourcentage de protection de la fenêtre dépend :

  • De la position de la protection par rapport à la fenêtre,
  • de la hauteur du soleil,
  • du rapport entre la largeur de la protection et la hauteur ou longueur (en position verticale) de la fenêtre,
  • de l’espacement et de l’orientation des lames éventuelles.

Brise-soleil.

Avancée architecturale.

Façades sud

Les façades d’orientation proches du sud seront les plus faciles à protéger. Une protection fixe est à même d’éliminer complètement le rayonnement direct estival sans pour autant porter une ombre indésirable en hiver.

Façades est et ouest

Par contre, aucune protection fixe, horizontale ou verticale, ne permet de résoudre le problème propre aux façades est et ouest. Dans ces situations, une protection mobile sera de loin la plus préférable.

En général, une protection optimale, c’est-à-dire adaptée toute l’année aux besoins en chaud ou en froid, est difficile à obtenir avec des protections fixes. En tout état de cause, une étude précise tenant compte des risques de surchauffe et d’éblouissement dus à l’ensoleillement en fonction de la position du soleil et de la saison doit être menée préalablement à tout projet.

calculs 

Pour obtenir une méthode de dimensionnement des protections fixes : cliquez ici !

Exemple : une protection fixe horizontale pour une fenêtre orientée au sud.

en été :
la protection est maximum lorsque le soleil est au zénith

en hiver :
la protection est inopérante

en mi-saison :
aux mois de septembre et de mars, la protection est partielle

En hiver

En hiver, l’absence de protection permet aux apports du soleil de diminuer les frais de chauffage. La situation est intéressante. Cependant, elle ne le sera que si la régulation de l’installation de chauffage tient compte des apports gratuits et que l’ensoleillement ne crée pas de surchauffe en saison froide. Par contre l’éblouissement dû au soleil bas en hiver ne peut être résolu par cette disposition. Pour limiter celui-ci, une protection légère intérieure (rideaux) peut être associée à une protection fixe.

En mi-saison

En mi-saison, on voit que l’ensoleillement des locaux sera le même au printemps qu’en automne, alors que les besoins sont différents. En effet, au mois de septembre, la température moyenne en journée est d’environ 18°C. L’ensoleillement peut dans ce cas devenir source de surchauffe. Au mois de mars, la température moyenne est de 8°C. Dans ce cas, les apports du soleil peuvent être les bienvenus.

Cas particulier : la végétation

La végétation à feuilles caduques apporte une protection qui est naturellement variable. En été, le feuillage apporte un ombrage aux fenêtres et en hiver, la chute des feuilles fait profiter les locaux des apports gratuits du soleil.

Schéma protection solaire végétale.


Les protections permanentes

Le système est fixe et le degré de protection est constant quelle que soit l’heure et la saison.

Exemple : les films collés contre le vitrage, les vitrages spéciaux (réfléchissants et/ou absorbants).

Photo films collés contre le vitrage. Sous notre climat belge, la probabilité d’ensoleillement est inférieure à 20 % en hiver (moins d’un jour sur cinq) et à 50 % en été (moins de un jour sur deux).
Une protection relativement efficace en été est inconciliable avec la valorisation de l’éclairage naturel en absence d’ensoleillement et des apports énergétiques gratuits en hiver.
Sauf exception (locaux informatiques où il faut gérer la surchauffe et l’éblouissement), ce type de protection est donc peu recommandable dans nos régions.

Conscients de ce problème, les fabricants de vitrages ont développé des vitrages présentant une protection contre l’énergie solaire correcte (FS = 0,39) et une transmission lumineuse qui se rapproche de celle des doubles vitrages clairs (TL = 0,71).

Signalons également que des vitrages anti-solaires dont les caractéristiques de protection peuvent varier automatiquement en fonction des besoins sont développés par les grands fabricants. Ils ne sont malheureusement pas accessibles à tout le monde !

Choisir une protection insérée dans un double vitrage

Choisir une protection insérée dans un double vitrage


La description du système

Schéma protection insérée dans un double vitrage. Schéma protection insérée dans un double vitrage. La protection, composée d’une toile enroulable ou d’un store vénitien, est intégrée dans l’espace entre les deux vitres d’un double vitrage.

Les avantages par rapport aux systèmes classiques

L’efficacité contre les surchauffes et l’éblouissement

Les performances face à l’ensoleillement sont semblables aux performances des protections intérieures réfléchissantes et peuvent se rapprocher des performances de protections extérieures parallèles au vitrage. Il faudra cependant se méfier de l’augmentation de la température interne de la surface du vitrage qui peut provoquer un léger inconfort (rayonnement chaud).

La résistance mécanique et à l’encrassement

Les éléments sont montés à l’intérieur d’une partie étanche. Ils ne sont soumis ni aux perturbations extérieures, ni aux perturbations intérieures. N’étant pas sujet à l’encrassement et à l’empoussièrage, ce système de protection peut s’appliquer aux locaux où une grande hygiène est souhaitée. Il ne demande aucun entretien.

L’esthétique

La présence de la protection est discrète. Elle ne modifie pas la structure des façades, ni à l’extérieur, ni à l’intérieur.

La ventilation naturelle

La liberté d’ouverture des fenêtres est totale.

Le pouvoir isolant

Le coefficient de transmission thermique U du double vitrage clair est amélioré, jusqu’à 20 à 30 % pour un double vitrage clair standard (air) grâce à une protection solaire insérée entre les vitres.


Les inconvénients par rapport aux systèmes classiques

Placement en rénovation

Le placement de la protection implique le remplacement du vitrage, ce qui limite son application dans le cadre de la résolution d’un problème de surchauffe ou d’éblouissement.

Diminution de la surface utile de la fenêtre

L’encombrement du mécanisme des systèmes escamotables (par exemple les stores enroulables) peut diminuer de façon non négligeable la surface utile de la fenêtre.

Dépannage et étanchéité du double vitrage

La position intégrée des protections rend difficile un dépannage en cas de dysfonctionnement du mécanisme de retrait. Il peut également en résulter une perte d’étanchéité du vitrage.

Choisir entre une protection intérieure ou extérieure

L’efficacité contre les surchauffes et l’éblouissement

L’effet de serre se produit lorsque les rayons du soleil sont absorbés par une matière située derrière le vitrage. Dès lors, une protection solaire sera efficace contre les surchauffes :

Protections extérieures Les protections extérieures seront toujours efficaces contre les surchauffes car elles arrêtent les rayons du soleil avant qu’ils n’atteignent le vitrage. Pour les stores de type « toile »,  une plus grande efficacité sera atteinte pour de facteur d’ouverture faible et des couleurs foncées.
Protections intérieures Les protections intérieures ne seront efficaces contre les surchauffes que si elles repoussent les rayons du soleil ayant traversé le vitrage. Pour cela, elle doit être non absorbante et réfléchissante (couleur clair au minimum).

Un même store en tissu (gris non réfléchissant avec un coefficient d’ouverture de 4.2) à l’extérieur ou à l’intérieur combiné à un double vitrage argon clair et basse émissivité :

FS = 0,05

FS = 0,55

Par contre, une même protection solaire installée à l’extérieur ou à l’intérieur, permettra un contrôle presqu’identique de la luminosité.


Les contraintes mécaniques

Protections extérieures Les protections extérieures sont soumises aux perturbations atmosphériques (vent, pluie) ou encore au vandalisme. La sensibilité de certaines de ces protections (notamment en toile) peut limiter leur utilisation pour les bâtiments élevés ou en zone exposée (vent important) ou encore à hauteur d’homme dans des lieux fréquentés (vandalisme).
Pour prévenir toute détérioration, notamment la nuit, il sera nécessaire de conscientiser les occupants à la nécessité de retrait de ces protections durant leur absence ou à envisager leur automatisation.
Par contre, il existe des protections extérieures conçues pour résister aux contraintes extérieures. C’est le cas par exemple des brise-soleil ou des stores vénitiens en aluminium.
En outre, dans les zones urbaines fort fréquentées, l’encrassement des protections extérieures peut être assez rapide.
Protections intérieures Les protections intérieures devront résister aux sollicitations des occupants qui peuvent être importantes notamment dans les locaux publics. La position intérieure des stores peut faciliter leur nettoyage notamment pour les bâtiments élevés.

L’esthétique

Protections extérieures Les protections extérieures modifient peu (stores enroulables) ou beaucoup (brise-soleil, avancées architecturales, stores vénitiens) la structure architecturale des façades. En ce sens, certaines protections extérieures risquent de ne pas s’adapter à une rénovation.

Protections intérieures Des protections intérieures ayant une efficacité limitée contre les surchauffes (par exemple, les stores vénitiens ou à lamelles) sont parfois installées uniquement pour leur aspect décoratif.

Les protections intérieures efficaces contre les surchauffes et les déperditions de chaleur auront un aspect réfléchissant qui peut ne pas être au goût de chacun.


Le pouvoir isolant

Protections extérieures Les protections extérieures n’apportent qu’une légère amélioration de l’isolation thermique supplémentaire à la fenêtre car elles ne sont généralement pas étanches..
Protections intérieures Certaines protections intérieures peuvent avoir un impact plus important sur la diminution des déperditions d’un vitrage. De plus, elles peuvent aussi avoir un impact plus important sur la sensation de confort à proximité de la baie (protection contre le rayonnement « froid » de la baie).

Pour autant que la surface intérieure de la protection soit réfléchissante, le coefficient de transmission thermique d’une fenêtre équipée de double vitrage peut diminuer de 25 %. Une diminution de 40 % peut être atteinte avec des stores réfléchissants insérés dans des guides étanches.

Remarquons que l’inétanchéité de la protection, outre la diminution de l’isolation par rapport à l’optimum, risque d’entraîner l’apparition de condensations importantes sur la surface intérieure de la fenêtre. Celles-ci peuvent endommager les menuiseries.


La ventilation naturelle des locaux

Le déploiement de certaines protections solaires rendra impossible l’ouverture des fenêtres pour pratiquer une ventilation naturelle des locaux.

Protections extérieures Aucune protection extérieure n’empêchera physiquement l’ouverture des fenêtres permettant ainsi une ventilation naturelle associée à la protection solaire. Une restriction existe cependant : les protections en toile déroulées devant les fenêtres risquent de ne pas résister aux contraintes mécaniques dues aux courants d’air éventuels.
Protections intérieures L’installation de protections solaires intérieures limite souvent les possibilités d’ouverture des fenêtres. Les protections peuvent être fixées aux ouvrants. Dans le cas de châssis oscillo-battants ou basculants, la combinaison de la protection solaire et de la ventilation naturelle est possible. Cependant, les fabricants de stores enroulables risquent de ne pas couvrir une détérioration due à de l’air s’infiltrant entre la protection et le vitrage du fait de fenêtres voisines ouvertes.

Si la protection est fixée sur le dormant, l’ouverture des fenêtres n’est guère possible lorsque la protection est déployée, que ce soit pour des raisons de maintien de la protection dans ses guides ou de leur résistance mécanique aux courants d’air. De même, lorsque la protection est abaissée, il est bon de prévenir l’ouverture subite d’une fenêtre suite à un courant d’air.

Lorsque la protection intérieure est relevée, il faut pouvoir conserver la liberté d’ouverture de la fenêtre :

  • Si la protection est fixée au dormant ou au linteau, l’ouvrant ne peut heurter ni la protection repliée, ni ses guides.
  • Si la protection est solidaire de l’ouvrant, les charnières latérales de la fenêtre doivent se situer suffisamment loin des retours de fenêtre pour garantir une ouverture complète.

Choisir le facteur lumineux


Transmission lumineuse d’un vitrage simple TL = 0,9.

Quelle transmission lumineuse faut-il choisir ?

La transmission lumineuse de la protection doit être suffisamment faible pour supprimer l’éblouissement des occupants et suffisamment élevée pour que la diminution de la quantité de lumière pénétrant à l’intérieur du local ne rende pas obligatoire l’utilisation de la lumière artificielle. La possibilité de vue de l’intérieur vers l’extérieur sera en outre souvent recherchée.

Fixons les ordres de grandeur par un exemple :

Définition d’un bureau type

Illustration bureau type.

Les murs sont de couleur claire et le sol recouvert de moquette.

Éclairement recommandé

Type d’activité Éclairement
Travail de bureau (attention soutenue). min. 500 lux
Activité ne demandant pas une attention soutenue
(ex : un séjour).
min. 200 lux
Travail sur ordinateur. max. 1 000 lux

Apports lumineux enregistrés dans le local

Schéma apports lumineux enregistrés dans le local.

La figure ci-dessus représente l’éclairement dans la pièce, au niveau d’un plan de travail, en fonction de la distance à la fenêtre, avec :

  • un double vitrage clair,
  • un double vitrage et une protection peu transparente (TL de la protection = 0,10),
  • un double vitrage avec une protection transparente (TL de la protection = 0,19).

Cette simulation se déroule le 15 juin à 16h, par ciel serein.
La fenêtre est orientée à l’ouest. Les conditions d’ensoleillement sont donc très favorables pour l’éclairage naturel du local (soleil fort pénétrant). Les valeurs minimum de transmission lumineuse déduites de cet exemple peuvent donc être considérées comme des extrêmes à ne pas dépasser sous peine de rendre le local trop obscur.

Transmission lumineuse recommandée

Le tableau suivant reprend les valeurs de transmission lumineuse minimum que doivent respecter les protections pour garantir un éclairement suffisant (300 lux) dans la pièce pour assurer le confort visuel lorsque la protection est déployée en période d’ensoleillement.

Ouest Sud Est
Distance à la fenêtre Juin
16 h (1)
Décembre
14 h
Juin
12 h
Décembre
12 h
Juin
7 h
Décembre
9 h
1 m 0.01 0.08 0.03 0.04 0.01 0.08
2 m 0.06 0.20 0.09 0.05 0.02 0.16
3 m 0.11 0.40 0.17 0.06 0.08 0.29
4 m 0.20 0.58 0.28 0.07 0.14 0.46
5 m 0.26 0.79 0.38 0.08 0.19 0.65

(1) Heure universelle; heure réelle en été = heure universelle + 2 h; heure réelle en hiver = heure universelle + 1 h.

Exemple.

Si l’on souhaite garantir 300 lux sur une table de travail, à 3 m de la fenêtre, dans un local orienté à l’ouest, on choisira un store dont le TL est :

  • Supérieur à une valeur de 0.11 si le store n’est utilisé qu’en été,
  • supérieur à une valeur de 0.40 si le store est aussi utilisé en hiver.

Choisir le facteur solaire (FS)


Facteur solaire d’un vitrage simple FS = 0,86.

Quel facteur solaire faut-il atteindre ?

Le choix du facteur solaire minimum à rechercher est fonction de chaque cas. Il n’est donc pas possible de citer un chiffre unique.

Fixons des ordres de grandeur par un exemple.

Valeur de référence

Dans les immeubles de bureaux, on peut estimer qu’un refroidissement devient nécessaire en été lorsque la somme des apports internes et externes atteint  60 W/m² au sol du local. Si on estime d’une manière générale les apports internes d’un bureau moyennement équipé comme suit : un ordinateur (+ 150 W/ordinateur), une personne (70 W/pers.), l’éclairage (10 W/m²) et 1 personne/13 m² au sol, les apports internes totalisent 27 W/m². Pour éviter le recours à la climatisation, il est donc nécessaire de limiter les apports solaires à 33 W/m² au sol.

Apports thermiques

Le tableau suivant représente pour une journée ensoleillée du mois de juillet, la puissance énergétique maximum due à l’ensoleillement, réellement transmise à l’ambiance d’un local de 30 m² au sol, en fonction de l’inertie du bâtiment. La fenêtre du local est équipée d’un double vitrage clair (de 6 m²) orienté respectivement à l’est, au sud et à l’ouest.

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 245 49 267 53 351 70
Sud 198 40 210
42
252
50
Ouest 250 50 263 53 356 71
W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol W/m² de vitrage W/m² au sol

Facteur solaire recommandé

Bâtiment lourd Bâtiment moyen Bâtiment léger
Est 0.51 0.47 0.36
Sud 0.63 0.60 0.50
Ouest 0.50 0.47 0.35
FS FS FS

Facteur solaire minimum de l’ensemble vitrage + protection nécessaire
pour limiter les apports solaires à 33 W/m² au sol.

Objectifs d’une protection solaire

Objectifs d'une protection solaire


Limiter les surchauffes

En période d’ensoleillement la quantité d’énergie solaire transmise au travers de vitrages peut entraîner par effet de serre, des surchauffes inadmissibles pour le confort des occupants. Dans le cas de locaux climatisés, la présence de protections solaires efficaces doit permettre une diminution notable de la quantité de froid à produire.

Améliorer

En cliquant ici, vous pouvez visualiser les résultats d’une simulation du comportement d’un bureau standard. On y a comparé les coûts d’achat et d’exploitation d’un climatiseur et d’un store extérieur.

De plus, malgré une température ambiante supportable, le rayonnement chaud du vitrage et le rayonnement direct du soleil sur une partie du corps peuvent devenir rapidement insupportable pour les occupants.

Comment déterminer si le soleil est à l’origine de la surchauffe ?

Dans les locaux fortement vitrés et orientés à l’est, au sud ou à l’ouest, les gains solaires constituent souvent les apports gratuits les plus importants.
Notons que l’orientation ouest est souvent la plus critique car les apports solaires viennent s’ajouter à la chaleur emmagasinée durant la journée.

Rénovation énergétique 

Pour en savoir plus sur comment repérer l’origine de la surchauffe, cliquez-ici !

Calculs

On peut établir un bilan de l’ensemble des apports de chaleur d’un local en cliquant ici !

Il calcule la puissance frigorifique nécessaire pour maintenir une température de consigne (24°C par exemple) dans le local, alors que la température extérieure est de 30°C. Il est possible ainsi de mesurer l’impact d’une protection solaire sur les besoins en froid. On peut également visualiser l’importance d’avoir un local avec une inertie thermique importante. Ou encore une toiture isolée.


Limiter l’éblouissement

L’ensoleillement direct pour être aveuglant tout comme une luminance trop élevée d’une paroi peut impacter le confort visuel. Hors, le confort visuel joue un rôle important sur la possibilité de réalisation de certaines tâches et donc sur la productivité des occupants d’un local.

Ce phénomène n’est pas forcément le plus crucial pour des fenêtres orientées au sud durant la saison chaude. Les problèmes d’éblouissement sont également très importants lorsque le soleil est bas sur l’horizon : le matin pour les fenêtres orientées à l’est, le soir pour l’orientation ouest, ou encore au sud en hiver. De même, dans les locaux nord, la vision directe d’un ciel trop lumineux peut devenir gênante et nécessiter aussi une protection.


Les objectifs secondaires

Augmenter le pouvoir isolant de la fenêtre

L’utilisation de protections solaires modifie de façon plus ou moins importante les caractéristiques de transmission thermique des vitrages. Cette propriété sera principalement recherchée durant les nuits en hiver.

Assurer l’intimité des occupants ou occulter un local

Ces deux objectifs sont des cas particuliers. On parlera alors plus d’occultation que de protection solaire.

Quelles soient intérieures ou extérieures, les protections parallèles au vitrage permettront d’apporter une certaine intimité voire d’occulter le local. Cette propriété dépendra principalement des vides laissés par la protection solaire et de sa couleur.

Décorer la fenêtre

De nombreuses protections ont un but décoratif plutôt qu’énergétique. Cet objectif est souvent associé avec le souhait de garantir l’intimité des occupants.

Institut du Monde Arabe – Paris.

Choisir la fenêtre comme capteur de lumière naturelle [Les fenêtres]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.

On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Choisir la fenêtre comme capteur d’énergie solaire [Les fenêtres]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’

un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).

Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m²

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Placer l’isolant dans le versant ou dans le plancher des combles ? [Améliorer]

Placer l'isolant dans le versant ou dans le plancher des combles ?

Isolation dans le plancher des combles et dans le versant de toiture.


Ainsi, lorsque les combles ne sont pas prévus pour être occupés et donc chauffés (ni après travaux, ni ultérieurement), le plancher de celui-ci constitue la limite supérieure de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant. Ce qui permet :

  • d’utiliser une surface d’isolant moindre que s’il fallait isoler les versants de toiture,
  • d’éviter d’avoir à traiter toutes les infiltrations d’air souvent nombreuses dans les combles inoccupés,
  • de permettre la ventilation des combles en été.

Par contre, les combles qui seront occupés et chauffés doivent être isolés de l’ambiance extérieure.

Le toit incliné est dans ce cas la limite de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant.

Conductivité thermique des matériaux (λ)

Conductivité thermique des matériaux (λ)


 

Remarques générales

  • Les valeurs  de conductivité thermique reprises ici sont des valeurs par défaut, issues de la réglementation (Extrait de l’AGW du 17 avril 2008, Annexe A de l’Annexe VII).
  • Le site www.epbd.be produit conjointement par les trois régions donne des valeurs reconnues pour le calcul PEB. Elles concernent notamment la conductivité thermique, la résistance thermique et la masse volumique des principaux produits d’isolation et de construction opaque disponibles sur le marché belge.
  • L’emploi des valeurs λU,e ou  λU,i  dépend des conditions d’utilisation du matériau :
    •  λU,i : Conductivité thermique utilisée pour un matériau dans une paroi intérieure ou dans une paroi extérieure, à condition que ce matériau soit protégé contre l’humidité due à la pluie ou à la condensation.
    • λU,e : Conductivité thermique utilisée pour un matériau dans une paroi extérieure qui n’est pas protégé contre l’humidité due à la pluie ou à la condensation.
  • La masse volumique des blocs/briques perforés  correspond au rapport entre leur masse réelle et leur volume hors-tout.
  • Les blocs creux ne sont pas des blocs perforés. En effet, pour ces blocs,  la chaleur se propage en même temps par conduction, convection et rayonnement (la valeur λ n’est donc pas représentative).  Leur résistance thermique RU est directement calculée en laboratoire. Les normes reprennent des valeurs par défaut pour ces composants.

Pour en savoir plus sur la conductivité thermique d’un matériau : cliquez ici !


Les métaux

Tableau A.1  – Métaux

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
Chaleur massique c
J/(kg.K)
Masse volumique
ρ (kg.m³)

Plomb

35 35  130  11 300

Cuivre

380 380  380  8 900

Acier

50 50  450  7 800

Aluminium 99%

160 160  880  2 800

Fonte

50 50  450  7 500

Zinc

110 110  380  7 200

Les pierres naturelles

Tableau A.2  – Pierres naturelles
La chaleur massique c vaut 1 000 J/(kg.K)

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
 

Masse volumique
ρ (kg.m³)

Pierres lourdes (granit, gneiss, basalte, porphyre)

3.50 3.50 2 700 ≤ ρ ≤ 3 000

« Petit granit » (pierre bleue), pierre calcaire

2.91 3.50 2 700

Marbres

2.91 3.50 2 800

Pierres dures

2.91 2.68 2 550

Pierres fermes

1.74 2.09 2 350

Pierres demi-fermes (o.a. moellon)

1.40 1.69 2 200

Les briques en terre cuite

Tableau A.3 – Briques en terre cuite
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 700 0.22 0.43
700 < ρ ≤ 800 0.25 0.49
800 < ρ ≤ 900 0.28 0.56
900 < ρ ≤ 1000 0.32 0.63
1000 < ρ ≤ 1100 0.35 0.70
1100 < ρ ≤ 1200 0.39 0.77
1200 < ρ ≤ 1300 0.42 0.84
1300 < ρ ≤ 1400 0.47 0.93
1400 < ρ ≤ 1500 0.51 1.00
1500 < ρ ≤ 1600 0.55 1.09
1600 < ρ ≤ 1700 0.60 1.19
1700 < ρ ≤ 1800 0.65 1.28
1800 < ρ ≤ 1900 0.71 1.40
1900 < ρ ≤ 2000 0.76 1.49
2000 < ρ ≤ 2100 0.81 1.61

Les briques/blocs silico-calcaires

Tableau A.4 – Briques/blocs silico-calcaires
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 900 0.36 0.78
900 < ρ ≤ 1000 0.37 0.81
1000 < ρ ≤ 1100 0.40 0.87
1100 < ρ ≤ 1200 0.45 0.97
1200 < ρ ≤ 1300
0.51 1.11
1300 < ρ ≤ 1400 0.57 1.24
1400 < ρ ≤ 1500 0.66 1.43
1500 < ρ ≤ 1600 0.76 1.65
1600 < ρ ≤ 1700 0.87 1.89
1700 < ρ ≤ 1800 1.00 2.19
1800 < ρ ≤ 1900 1.14 2.49
1900 < ρ ≤ 2000 1.30 2.84
2000 < ρ ≤ 2100 1.49 3.25
2100 < ρ ≤ 2200 1.70 3.71

Les blocs de béton avec granulats ordinaires

Tableau A.5 – Blocs de béton avec granulats ordinaires
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 1600 1.07 1.39
1600 < ρ ≤ 1700 1.13 1.47
1700 < ρ ≤ 1800 1.23 1.59
1800 < ρ ≤ 1900 1.33 1.72
1900 < ρ ≤ 2000
1.45 1.88
2000 < ρ ≤ 2100 1.58 2.05
2100 < ρ ≤ 2200 1.73 2.24
2200 < ρ ≤ 2300 1.90 2.46
2300 < ρ ≤ 2400 2.09 2.71

Les blocs de béton d’argile expansé (billes d’argex par exemple)

Tableau A.6 – Blocs de béton d’argile expansé
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 400 0.14 (1)
400 < ρ ≤ 500 0.18 (1)
500 < ρ ≤ 600 0.21 0.28
600 < ρ ≤ 700 0.25 0.33
700 < ρ ≤ 800
0.30 0.39
800 < ρ ≤ 900 0.33 0.44
900 < ρ ≤ 1000 0.38 0.50
1000 < ρ ≤ 1100 0.43 0.57
1100 < ρ ≤ 1200 0.49 0.65
1200 < ρ ≤ 1300 0.55 0.73
1300 < ρ ≤ 1400 0.61 0.80
1400 < ρ ≤ 1500 0.67 0.88
1500 < ρ ≤ 1600 0.75 0.99
1600 < ρ ≤ 1700 0.83 1.10

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  blocs de béton léger

Tableau A.7 – Blocs de béton avec d’autres granulats légers
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 500 0.30 (1)
500 < ρ ≤ 600 0.33 0.43
600 < ρ ≤ 700 0.37 0.47
700 < ρ ≤ 800 0.41 0.52
800 < ρ ≤ 900
0.46 0.58
900 < ρ ≤ 1000 0.51 0.65
1000 < ρ ≤ 1100 0.57 0.73
1100 < ρ ≤ 1200 0.64 0.82
1200 < ρ ≤ 1300 0.72 0.91
1300 < ρ ≤ 1400 0.82 1.04
1400 < ρ ≤ 1500 0.92 1.17
1500 < ρ ≤ 1600 1.03 1.31
1600 < ρ ≤ 1800 1.34 1.70

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  blocs de béton cellulaire autoclavés

Tableau A.8 – Blocs de béton cellulaire autoclavés
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 300 0.10 (1)
300 < ρ ≤ 400 0.13 (1)
400 < ρ ≤ 500 0.16 (1)
500 < ρ ≤ 600 0.20 0.32
600 < ρ ≤ 700
0.22 0.36
700 < ρ ≤ 800 0.26 0.42
800 < ρ ≤ 900 0.29 0.48
900 < ρ ≤ 1000 0.32 0.52

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les éléments de construction sans joints en béton lourd normal

Tableau A.9 – Béton lourd normal
La chaleur massique vaut 1 000 J/(kg.K)

Béton lourd normal

λUi
W/(m.K)
λUe
W/(m.K)
 Masse volumique ρ (kg/m³)

Armé

1.70 2.20 2 400

Non armé

1.30 1.70 2 400

Les éléments de construction sans joints en béton léger

Tableau A.10 – Béton léger en panneaux pleins ou en dalle(2) (béton d’argile expansé, béton cellulaire, béton de laitier, de vermiculite, de liège, de perlite, de polystyrène, etc.)
La chaleur massique c vaut 1000 J/(kg.K). Si des valeurs λ sont mentionnées dans les tableaux A.3 à A.8 pour ces produits, ces dernières seront utilisées. Les valeurs ci-dessous ne sont alors pas d’application.
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ < 350 0.12 (1)
350 ≤ ρ < 400 0.14 (1)
400 ≤ ρ < 450 0.15 (1)
450 ≤ ρ < 500 0.16 (1)
500 ≤ ρ < 550
0.17 (1)
550 ≤ ρ < 600 0.18 (1)
600 ≤ ρ <650 0.20 0.31
650 ≤ ρ < 700 0.21 0.34
700 ≤ ρ < 750 0.22 0.36
750 ≤ ρ < 800 0.23 0.38
800 ≤ ρ < 850 0.24 0.40
850 ≤ ρ < 900 0.25 0.43
900 ≤ ρ < 950 0.27 0.45
950 ≤ ρ < 1000 0.29 0.47
1000 ≤ ρ < 1100 0.32 0.52
1100 ≤ ρ < 1200 0.37 0.58

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est, en règle générale, pas recommandée.
(2) Dans le cas où les dalles ou les panneaux sont pourvus d’une armature parallèle au sens du flux thermique (ex. colliers, treillis d’armature), le transfert thermique sera pris en compte dans la détermination de la valeur U selon la NBN EN 10211.


Les plâtres

Tableau A.11 – Plâtre avec ou sans granulats légers
La chaleur massique c vaut 1 000 J/(kg.K)
Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
ρ ≤ 800 0.22 (1)
800 < ρ ≤ 1 100 0.35 (1)
1 100 < ρ 0.52 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.


Les  enduits

Tableau A.12 – Enduits
La chaleur massique c vaut 1 000 J/(kg.K)

 Enduits

Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)

Mortier de ciment

1 900 0.93 1.50

Mortier de chaux

1 600 0.70 1.20

Plâtre

1 300 0.52 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures, avec entre autre un risque d’humidification par la pluie, n’est en règle générale pas recommandée.


Les bois

Tableau A.13 – Bois et dérivés de bois

 Matériau

Masse volumique
ρ (kg.m³)
λUi
W/(m.K)
λUe
W/(m.K)
 c
[J/kg.K]

Bois de charpente en

≤ 600 0.13 0.15  1880
> 600 0.18 0.20  1880

Panneau de contreplaqué

<400 0.09 0.11 1880
400 ≤ ρ < 600 0.13 0.15
600 ≤ ρ < 850
0.17 0.20
≥ 850 0.24 0.28

Panneau de particules ou d’aggloméré

< 450 0.10 (1)   1880
450 ≤ ρ < 750 0.14 (1)
≥ 750 0.18 (1)

Panneau de fibres liées au ciment

1200 0.23 (1)  1470

Panneau d’OSB
(oriented strand board)

650 0.13 (1)  1880

Panneau de fibres de bois (y compris MDF)

< 375 0.07 (1)  1880

 

375 ≤ ρ < 500 0.10 (1)
500 ≤ ρ < 700 0.14 (1)
≥ 700 0.18 (1)

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est, en règle générale, pas recommandée.


Les matériaux d’isolation thermique

Tableau A.14  – Matériaux d’isolation thermique

Matériau d’isolation

λUi
W/(m.K)
λUe
W/(m.K)
 

Chaleur
massique
J/(kg.K)

Liège (ICB)

0.050 (1) 1 560

Laine minérale (MW)

0.045 (1) 1 030

Polystyrène expansé (EPS)

0.045 (1) 1 450

Polyéthylène extrudé (PEF)

0.045 (1) 1 450

Mousse phénolique – revêtu (PF)

0.045(2) (1) 1 400

Polyuréthane – revêtu (PUR/PIR)

0.035 (1) 1 400

Polystyrène extrudé (XPS)

0.040 (1) 1 450

Verre cellulaire (CG)

0.055 (1) 1 000

Perlite (EPB)

0.060 (1) 900

Vermiculite

0.065 (1) 1 080

Vermiculite expansée (panneaux)

0.090 (1) 900

(1) L’exposition directe de ces matériaux aux conditions climatiques extérieures n’est en règle générale pas recommandée.
(2) Pour les panneaux d’isolation revêtus en mousse de phénol à cellules fermées, cette valeur est ramenée à 0.030 W/(m.K)


Matériaux divers

Tableau A.15  – Matériaux divers

Matériau

λUi
W/(m.K)
λUe
W/(m.K)
 

Chaleur
massique
J/(kg.K)

Masse volumique
ρ (kg/m³)

Verre

1.00 1.00 750  2 500

Carreaux de terre cuite

0.81 1.00 1 000  1 700

Carreaux de grès

1.20 1.30 1 000  2 000

Caoutchouc

0.17 0.17 1 400  1 500

Linoléum, carreaux de PVC

0.19 1 400  1 200

Panneaux en ciment renforcé de fibres minérales naturelles

0.35 0.50 1 000  1 400 < ρ <1 900

Asphalte coulé

0.70 0.70 1 000  2 100

Membrane bitumeuse

0.23 0.23 1 000  1 100

 

Valeurs de coefficients de transmission thermique (U) de parois types

Valeurs de coefficients de transmission thermique (U) de parois types


Type de paroi Coefficient de transmission thermique (U) (en W/m²xK)
Fenêtre avec simple vitrage 6
Fenêtre avec double vitrage traditionnel 3
Fenêtre avec double vitrage HR 1,5
Porte en bois 2,5
Porte en aluminium isolé 1,5
Mur plein de 29 cm 2,2
Mur plein de 39 cm 1,8
Mur creux non isolé 1,7
Mur creux isolé 0,45
Mur plein bardé non isolé 1,8
Mur plein bardé isolé 0,5
Mur de pierre non isolé de 30 cm 3,9
Mur de pierre non isolé de 40 cm 3,5
Mur de pierre non isolé de 50 cm 3,2
Mur de pierre non isolé de 60 cm 2,9
Mur de béton cellulaire de 25 cm (collé) 0,7
Mur de béton cellulaire de 30 cm (collé) 0,6
Mur de béton cellulaire de 35 cm (collé) 0,5
Toiture plate en béton non isolée 2,8
Toiture plate en béton isolée 0,45
Toiture inclinée isolée (6 cm de laine) 0,6
Toiture inclinée isolée (8 cm de laine) 0,45
Toiture inclinée isolée (10 cm de laine) 0,37
Plancher en bois de combles inoccupés non isolé 1,7
Plancher en bois de combles inoccupés isolé 0,4
Plancher en béton de combles inoccupés non isolé 2,6
Plancher en béton de combles inoccupés isolé 0,4
Plancher sur cave en béton non isolé 2
Plancher sur sol en béton non isolé 3,2
Plancher sur cave en béton isolé 0,7
Plancher sur sol en béton isolé 0,9

Coefficient de résistance à la diffusion de vapeur des matériaux

Coefficient de résistance à la diffusion de vapeur des matériaux

QUELQUES VALEURS DE µ (coefficient de résistance à la diffusion de vapeur d’un matériau)
(suivant publication du Ministère de la Région Wallonne :
Isolation thermique des logements neufs en région wallonne
Caractéristiques hygrothermiques des matériaux.
Édition 88.002.)
Matériau µ sec µ humide

Air

1

Métaux infini

Granit, basalte, porphyre, marbre

infini infini

Pierre bleue (petit granit)

infini infini

Schiste ardoisier

> 600

Pierre ferme

2 160 – 2 349 kg/m³ 70 – 90

Pierre tendre

1 650 – 1 839 kg/m³ 26 – 32
1 100 – 1 500 kg/m³ 5 – 10 5 – 10

Maçonnerie de briques, légère

700 – 1 000 kg/m³ 5 – 10

Maçonnerie de briques, moyenne

1 300 kg/m³ 7.5
1 500 kg/m³ 8

Maçonnerie de briques, lourde

1 700 – 1 900 kg/m³ 9 – 14
2 100 kg/m³ 31

Blocs pleins de béton cellulaire

500 – 549 kg/m³ 6 3

Blocs pleins de béton cellulaire

600 – 699 kg/m³ 10 6

Blocs pleins de béton très léger

500 – 800 kg/m³ 5 – 10

Blocs pleins de béton mi-lourd

< 1 400 kg/m³ 5 – 10
> 1 401 kg/m³ 10 – 15

Maçonnerie en briques silico-calcaire

< 1 400 kg/m³ 5 – 10
> 1 400 kg/m³ 15 – 25
2 000 kg/m³ 25

Maçonnerie en blocs de plâtre

9 6

Béton plein très léger

200 kg/m³ 2.8
300 kg/m³ 3.5
500 kg/m³ 4.5

Béton plein léger

700 kg/m³ 5.5

Béton plein moyennement léger

1 000 kg/m³ 6.5
1 300 kg/m³ 7.5
1 600 kg/m³ 8

Béton plein lourd

1 900 kg/m³ 13
2 300 kg/m³ 135 30

Béton lourd non compacté non armé

2 200 kg/m³ 23 – 200
2 400 kg/m³ 31 – 200

Béton lourd non compacté, armé

2 300 kg/m³ 27 – 200

Béton lourd compacté, armé

2 500 kg/m³ 37 – 200

Béton plein isolant

300 – 700 kg/m³ 4.5 – 5.5

Béton plein de granulats EPS

350 – 400 kg/m³ 7.5 – 11

Béton plein cellulaire
(ciment ou chaux)

400 – 750 kg/m³ 3.7 – 6.5

Béton plein cellulaire

400 kg/m³ 3 – 7.5
480 kg/m³ 6 3
600 kg/m³ 11 5
700 kg/m³ 4.5 – 7.5
1 000 kg/m³ 5.5 – 7.5
1 300 kg/m³ 7.5 – 9

Béton plein d’argile expansé

550 – 1 000 kg/m³ 5 – 6.5
1 000 – 1 800 kg/m³ 6.5 – 12

Béton plein de bims

700 – 1 000 kg/m³ 6
1 000 – 1 400 kg/m³ 6.5 – 12

Béton plein à base de granulés d’argile expansé

900 – 1 000 kg/m³ 10 – 16 10 – 16

Béton plein de laitier de haut fourneau

1 000 kg/m³ 6.5
1 300 kg/m³ 8
1 600 kg/m³ 10
1 900 kg/m³ 14

Béton plein de laitier de haut fourneau + sable du Rhin

1 500 kg/m³ 10
1 700 kg/m³ 40
1 900 kg/m³ 60

Béton plein aggloméré « en granulés »

2 100 kg/m³ 18 16

Enduit en mortier de ciment

15 – 41

Enduit en mortier de chaux

9 – 41

Enduit en plâtre

6 – 10

Enduit de résine synthétique

10 – 125

Saule, bouleau, hêtre tendre

120 18

Teck

37 – 370

Chêne, hêtre, frène, noyer, méranti

370 40

Pin

370 9

Epicéa

9 – 370

Sapin rouge du Nord, Orégon

120 18

Bois résineux

18 – 120

Sapin

18 – 120

Pitchpine

370 40

Multiplex

400 – 499 16
500 – 599 175 50
700 40 – 100
800 50 – 400

Contreplaqué marin

1 000 46 – 75

Panneau de particules type tendre

< 300 5

Panneau de copeaux colle U.F.

550 – 700 40 – 140 +/- 25

Panneau de copeaux colle mélam.

550 – 700 30 – 100 +/- 30

Panneau de copeaux colle P.F.

600 – 700 50 – 150 +/- 20

Panneau de particules type lourd

1 000 46 – 75

Panneaux de fibre de bois au ciment

3.7 – 10 4

Laine minérale

1.1 – 1.8

Liège expansé

4.5 – 29

Liège expansé imprégné

9 – 46

Polystyrène expansé

15 – 150

Polystyrène extrudé avec peau de surface

115 – 300

Mousse de polyuréthane

23 – 185

Perlite expansée pure

50 – 80 kg/m³ 1.5

Perlite expansée en panneau

170 kg/m³ 7 5

Vermiculite expansée pure

80 – 100 kg/m³ 1.5

Vermiculite expansée en panneau

350 kg/m³ 8

Verre cellulaire en plaque

70 000 – infini

Verre cellulaire en granulés

1.5

Verre

infini

Céramique de verre

infini

Carreaux de céramique

150 – 300

Caoutchouc

900

Linoléum

1 800

Asbeste-ciment

800 14
1 600 – 1 900 37 – 150

Bitume oxydé

70 000 – 120 000

Feutre bitumé

15 000

Polyisobuthylène

80 000 – 260 000

EPDM

65 000

Butyl

300 000

PVC

20 000 – 40 000

Feutre bitumé, goudronné et sablé

50

Voile de verre bitumé

20 – 180

Tuiles de terre cuite

36 – 44

Vernis d’adhérence

400 – 900

Papier

100

Feuille de PVC

10 000 – 100 000

Feuille de polyisobutylène

360 000

Feuille de Polyester

13 000

Feuille de Polyéthylène

50 000 – 320 000 285 000

Tableau des grandeurs hygrométriques de l’air humide

Tableau des grandeurs hygrométriques de l'air humide

T (°C) pvs (Pa)

ρvs (kg/m³) x10-3

xs (g/kg)
– 10 260 2,14 1,6
– 9 284 2,33 1,75
– 8 310 2,53 1,91
– 7 338 2,75 2,08
– 6 368 2,98 2,27
– 5 401 3,24 2,47
– 4 437 3,52 2,69
– 3 476 3,81 2,94
– 2 517 4,13 3,19
– 1 562 4,47 3,47
0 611 4,84 3,78
1 657 5,19 4,07
2 705 5,56 4,37
3 759 5,95 4,70
4 813 6,35 5,03
5 872 6,79 5,40
6 935 7,25 5,79
7 1 002 7,74 6,21
8 1 073 8,26 6,65
9 1 148 8,80 7,13
10 1 228 9,38 7,63
11 1 313 10,00 8,15
12 1 403 10,70 8,75
13 1 498 11,40 9,35
14 1 599 12,10 9,97
15 1 706 12,80 10,6
16 1 818 13,60 11,4
17 1 938 14,50 12,1
18 2 065 15,40 12,9
19 2 197 16,30 13,8
20 2 340 17,30 14,7
21 2 487 18,30 15,6
22 2 645 19,40 16,6
23 2 810 20,60 17,7
24 2 985 21,70 18,8
25 3 169 23,00 20,0
26 3 362 24,40 21,4
27 3 565 25,80 22,6
28 3 781 27,20 24,0
29 4 006 28,70 25,6
30 4 244 31,70 27,2

Avec , ρv : la concentration de vapeur = le nombre de kg de vapeur d’eau par m³ d’air sec (kg/m³); ρvs , cette même valeur à la saturation.

Les valeurs pvs et xs ci-dessus peuvent également être trouvées par calcul à partir de la température.


Confort acoustique

Confort acoustique


Les courbes de Noise Rating (NR)

Pour imposer un niveau de confort, la première idée consiste à imposer un niveau de bruit maximal, un seuil en décibel à ne pas dépasser.

Mais la sensibilité de l’oreille humaine est variable suivant la fréquence : pour notre oreille, 60 dB à 1 000 Hz est plus dérangeant que 60 dB à 250 Hz (la sensibilité est optimum entre 2 et 5 kHz).

Pour déterminer les différents critères du confort acoustique d’un local, on s’est dès lors basé sur l’allure générale des courbes de niveau d’isosonie de l’oreille.

L’Organisation Internationale de Normalisation (ISO) a proposé plusieurs courbes qui correspondent toutes à un certain degré de confort acoustique (ou de gêne) : courbes d’évaluation du bruit, ou courbes NR (Noise Rating). Grâce à ces courbes, il est possible de déterminer au moyen d’un seul chiffre le niveau de pression acoustique maximum autorisé dans chaque bande d’octave : par exemple, l’indice NR 40.

Pour obtenir le degré de nuisance d’un bruit, il suffit de tracer le spectre de ce bruit par bandes d’octave sur le réseau de courbes NR et de prendre l’indice de la courbe NR de rang le plus élevé atteint par le spectre. On verra alors immédiatement sur quelles fréquences il faudra porter l’attention afin de diminuer la gêne.

Le bruit dont on repère le spectre ci-dessus est de niveau NR 66.

On retrouve parfois dans les catalogues de fournisseur de matériel de ventilation la notion de « NC », tout à fait semblable à « NR ». Ces deux grandeurs sont reliées par la relation :

NC ≈ NR – 2 dB

Un niveau de confort acoustique NR 35 équivaut donc à un niveau de confort NC 33.

À titre d’information, la courbe NR 30 passe par la pression acoustique de 30 dB à une fréquence de 1 000 Hz, tandis que la courbe NC 30 passe par la pression acoustique de 30 dB à une fréquence de 2 000 Hz.


Des critères de confort

Ces courbes NR permettent de proposer des critères de confort acoustique, du type :

NR 20 Conditions excellentes d’écoute,
salles de concert, studios d’enregistrement
NR 25 Très bonnes conditions d’écoute,
auditoires, théâtres, églises, salles de conférence
NR 20 – 30 Condition de séjour, de repos, de sommeil,
maisons d’habitation, hôtels, appartements
NR 30 – 35 Bonnes conditions d’écoute,
bureaux de direction, salles de classe, bibliothèques
NR 35 – 40 Conditions d’écoute normales,
grands bureaux, restaurants calmes, commerces
NR 40 – 45 Conditions d’écoute modérées
laboratoires, restaurants, bureaux de dessin
NR 45 – 55 Conditions de travail acceptables avec un minimum de compréhension de la parole
NR 50 – 70 Usines, atelier

La précision du niveau NR permet de quantifier les exigences acoustiques au niveau des cahiers des charges.

Si, par exemple, on trouve dans un cahier des charges que l’installation de climatisation ne doit pas dépasser NR 35, cela veut dire que le spectre du bruit de la climatisation ne peut, dans aucune bande d’octaves, dépasser les valeurs admises par le spectre limite NR 35.

En général, un faible pourcentage de personnes est dérangé lorsque le bruit émis par une source isolée dépasse de 5 dB le bruit de fond. Si ce dépassement est de 10 dB, l’ensemble des personnes en ressent l’inconvénient.

La mesure du niveau NR d’un local peut s’effectuer grâce à un sonomètre, en mesurant le spectre sonore.


Les niveaux de l’ambiance sonore résultant des activités extérieures

Selon le contexte urbanistique, c’est à dire selon qu’il s’agisse d’une zone rurale, d’une zone de séjour récréatif, d’une zone résidentielle, etc… et selon le moment de la journée, un certain niveau de bruit est habituellement rencontré :

Valeurs indicatives de niveau sonore mesurée à l’air libre [dB (A)] (zone d’activités extérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif, à l’exception des zones reprises aux points 2, 3, et 8. 40 35 30
2. Zones résidentielle, zones rurales et zones de loisirs situées à moins de 500 m d’une zone industrielle non citée au point 3 ou d’une zone d’équipements collectifs ou d’utilité publique. 50 45 45
3. Zones résidentielles, zones rurales, zones de séjour récréatif à moins de 500 m d’une zone d’activités artisanales, d’une zone de PME, d’une zone de services ou d’une zone d’exploitation pendant la période d’activité. 50 45 40
4. Zones résidentielles, excepté celles reprises au point 2 et 3. 45 40 35
5. Zones industrielles, zones de services, zones d’équipements collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 60 55 55
6. Zones de loisirs, à l’exception de celles reprises au point 2, et zones de séjour récréatif. 50 45 40
7. Autres zones à l’exception des zones tampons, domaines militaires et zones auxquelles s’appliquent des valeurs indicatives fixées par décret particulier. 45 40 35
8. Zones tampons. 55 50 50

Valeurs indicatives de niveau de l’ambiance sonore mesurée à l’intérieur [dB(A)](zone d’activités intérieures)

de jour

en soirée

de nuit

1. Zones rurales et zones de séjour récréatif. 30 25 25
2. Zones industrielles, zones de services, zones d’équipement collectifs ou d’utilité publique et zones d’exploitation pendant la période d’activité. 33 28 28
3. Zones résidentielles et autres zones, à l’exception de celles citées aux points 1 et 2. 33 28 28

« Tableau des valeurs indicatives de niveau de l’ambiance sonore résultant des activités ».

Pompes à chaleur (27.080) [Réglementations]

Pompes à chaleur (27.080) [Réglementations]

NBN EN 255-1:1997 R6X 9 R72

Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 1: Termes, définitions et désignations (2e éd.)

NBN EN 255-2:1997 R6X 13 R72
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 2: Essais et exigences de marquage pour les appareils de chauffage des locaux (1e éd.)

NBN EN 255-3:1997 R6X 16 R71
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 3: Essais et exigences de marquage pour les appareils pour eau chaude sanitaire (1e éd.)

NBN EN 255-4:1997 R6X 12 R71
Climatiseurs, groupes refroidisseurs de liquide et pompes à chaleur avec compresseur entraîné par moteur électrique Mode chauffage – Partie 4: Exigences pour les appareils de chauffage des locaux et pour les appareils pour eau chaude sanitaire (1e éd.)

NBN EN 378-1:1994 R6X 12 R57
Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1: Exigences de base (1e éd.)

NBN EN 814-1:1997 R6X 11 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 1: Termes, définitions et désignations (1e éd.)

NBN EN 814-2:1997 R6X 13 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 2: Essais et exigences de marquage (1e éd.)

NBN EN 814-3:1997 R6X 12 R71
Climatiseurs et pompes à chaleur avec compresseur entraîné par moteur électrique – Mode réfrigération – Partie 3: Exigences (1e éd.)

NBN EN 60335-2-40:1995 R6X 12 R61
Sécurité des appareils électrodomestiques et analogues Partie 2 : Règles particulières pour les pompes à chaleur électriques, les climatiseurs et les déshumidificateurs (1e éd.)

NBN EN 60335-2-40/Al:1997 R6X 3 R71
Sécurité des appareils électrodomestiques et analogues Partie 2 : Règles particulières pour les pompes à chaleur électriques, les climatiseurs et les déshumidificateurs (1e éd.)

Installations alimentées au gaz

Installations alimentées au gaz

Domaine d’applications des différentes normes relatives aux installations au gaz :


Norme NBN D 51-003

La norme NBN D 51-003 de 2004, « Installations intérieures alimentées en gaz naturel et placement des appareils d’utilisation : dispositions générales » et son addendum A1 de 2005 énonce les conditions générales techniques et de sécurité applicables aux cas suivants :

  • Installation intérieures neuves ou parties neuves d’installations intérieures dont la pression maximale de service admissible est de 100 mbar et dont : (1) le diamètre nominal des canalisations est inférieur à DN 50 et (2) les canalisations ne sont pas enterrées.
  • Placement et mise en service des appareils d’utilisation dans les installations mentionnées ci-dessus.

Norme NBN D 51-004

La norme NBN D51-004 de 1992, « Installations alimentées en gaz combustible plus léger que l’air distribué par canalisation : installations particulières » et son erratum A1 de 2003 énonce les conditions générales techniques et de sécurité applicables aux cas suivants :

  • Installations dont la pression maximale de service est supérieure à 100 mbar et inférieure ou égale à 15 bar.
  • Installations dont la pression maximale de service est inférieur à 100 mbar mais dont : (1) le diamètre nominal des canalisations est supérieur à DN50 ou (2) les canalisations sont enterrées.

Norme NBN D 51-006

Le NBN a publié en 2005 une série de trois normes pour les installations alimentées en gaz butane ou propane :

  • NBN D 51-006-01 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 1, terminologie ».
  • NBN D 51-006-02 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 2, installations intérieures ».
  • NBN D 51-006-03 (2005) : « Installations intérieures alimentées en butane ou propane commercial en phase gazeuse à une pression maximale de service de 5 bar et placement des appareils d’utilisation : dispositions générales, partie 3, placement des appareils d’utilisation ».